Robots.txt nebo standard pro vyloučení robotů a procházení vyhledávačů

Obsah
Ahoj všichni, začínám tímto návodem na robots.txt, doufám, že se vám bude líbit

Umožněte všem robotům navštívit všechny soubory uložené v kořenovém adresáři webu:

 Uživatelský agent: * Zakázat: 

Zabraňte přístupu ke všem robotům a všem souborům uloženým v kořenovém adresáři:
 Uživatelský agent: * Zakázat: / 

Povolit přístup pouze jednomu robotu, v tomto případě bude moci procházet pouze Google
 User-agent: googlebot Disallow: User-agent: * Disallow: / 

Nejoblíbenější roboti mají název, který se používá v user-agentu
googlebot => pro Google
msnbot => Hledat MSN
yahoo-slurp => Yahoo!
scrubby => Čistit web
robozilla => DMOZ Checker
ia_archiver => Alexa / Wayback
baiduspider => Baidu
Existují také konkrétnější roboti, například ti na obrázcích
googlebot-image => Obrázek Google
googlebot-mobile => Google Mobile
Jiný příklad, že musí být blokovány všechny podadresáře, které obsahují zástupný znak (/), pouze tyto, kromě všech ostatních souborů a adresářů, které zástupný znak neobsahují, jsou nominálně blokovány adresáře systému nebo back -endu:
 Uživatelský agent: * Disallow: / cgi-bin / Disallow: / images / Disallow: / tmp / Disallow: / adminstrador / 

Zabraňte sledování konkrétního souboru
 Uživatelský agent: * Zakázat: /page.htm 

Toho se hodně využívá, když chceme odstranit stránku, která udává chybu 404, nebo odstranit stránku z výsledků vyhledávání, a zabránit tak jejímu procházení.
Spravujte frekvenci procházení robotů
Z Google Analytics a od webmastertools můžete vidět statistiky a můžete také vidět, že někdy některým robotům trvá dlouho, než zkontrolují náš web a odešlou požadavky na server, roboti spotřebovávají šířku pásma a zdroje, jako by to byl jen další návštěvník.
Existuje způsob, jak se roboti nevymknou kontrole, můžeme to říci každému
Uživatelský agent: googlebot Zpoždění procházení: 30
Tímto informujeme robota Google, aby počkal 30 sekund mezi každým procházením. Buďte opatrní, protože zpoždění procházení nemusí být podporováno všemi vyhledávači, Bing a Google ano.
Oficiální webová stránka robots.txt Je to http://www.robotstxt.org/, kde najdeme jména všech robotů, specifikace kódu. Zde se ukazuje, že roboti slouží ke standardizaci těch, které je třeba sledovat, a používají se na jiných platformách ke sledování a ověřování html, ověřování odkazů, indexování informací, aktualizace obsahu ve vyhledávačích, ochraně webových stránek.Líbil se vám tento návod a pomohl mu?Autora můžete odměnit stisknutím tohoto tlačítka, čímž mu dáte kladný bod

Vám pomůže rozvoji místa, sdílet stránku s přáteli

wave wave wave wave wave