ink URL Header("Location: $url"); exit(); } ?>

Gerador robots.txt

O que é?

Robot (ou robô) é um programa de computador que percorre automaticamente as páginas da Internet em busca de documentos, a fim de indexá-los, validá-los ou monitorar alterações de conteúdo.
Para controlo destas actividades de robots, opcionalmente, o webmaster pode criar um arquivo chamado robots.txt e coloca-lo no directório raiz da sua conta de alojamento.

Robots.txt é um arquivo no formato texto (.txt) que funciona como "filtro" para os Crawlers e robots dos motores de busca da Internet, permitindo ou bloqueando o acesso a partes ou à totalidade de um determinado site.

Como criar o meu robots.txt?

Escolha a opção pretendida nas caixas abaixo e então clique no botão "Criar Robots.txt".
Se clicar sem mudar nada, a ferramenta valida o seu site para todas as ferramentas de busca.

 

Padrão para todos os Robôs:
 
Crawl-Delay:
Tempo em segundos entre a leitura das páginas
 
Sitemap:
Deixe em branco caso não tenha
 
Lista de Robots:
Google   googlebot
MSN Search   msnbot
Yahoo   yahoo-slurp
Ask/Teoma   teoma
GigaBlast   gigabot
Scrub The Web   scrubby
DMOZ Checker   robozilla
Nutch   nutch
Alexa/Wayback   ia_archiver
Baidu   baiduspider
 
Lista de Robots especiais:
Google Image   googlebot-image
Yahoo MM   yahoo-mmcrawler
MSN PicSearch   psbot
SingingFish   asterias
Yahoo Blogs   yahoo-blogs/v3.9
   
Directórios restritos:
Caso haja, indique um caminho para o directório restrito.
O caminho deverá começar e acabar com "/"
 
 

 


Copie o texto criado e cole-o num ficheiro em branco com a extensão ".txt". O nome deverá ser "robots.txt". E coloque-o na raiz da sua conta de alojamento.

 

Gostou? Partilhe com os seus amigos!

Formulário para solicitação de suporte tecnico.

Telefones

+351 96 613 38 85

+351 21 001 48 75

Chat Online

Windows Live Messenger: [email protected]
Skype:
ptwebsite
Yahoo! Messenger:
[email protected]

Suporte Técnico






A enviar...

Fechar esta janela
Fechar esta janela
Fechar esta janela