Como Criar um Robots.TXT em sua loja Tray Commerce

Como Criar um Robots.TXT em sua loja Tray Commerce

Olá, tudo bem?

Neste artigo vamos explicar como configurar e trabalhar da melhor maneira seu arquivo Robots.txt, em específico dentro da plataforma Tray Commerce.

Robots.txt é o arquivo em formato de texto inserido no site para dar “orientações” aos robôs de busca, ou webcrawlers/spiders.

O robots.txt é de extrema importância para qualquer projeto de website. Com ele você consegue controlar os mecanismos de busca, dizendo se podem ou não entrar em um determinado arquivo ou diretório do site.

Para criar este arquivo é muito simples, existem ferramentas online que vão te auxiliar na hora de gerar o arquivo. Contudo, você também pode criar seu próprio código até mesmo no bloco de notas do seu computador.


Configurar o arquivo robots de sua loja virtual Tray Commerce, é uma tarefa bem simples.


Vamos lá!


Primeiro, acesse seu painel administrativo e vá em Minha Loja > SEO - Indexação da Loja.

Serão apresentados a você três fatores de SEO relacionados ao SEO de seu website (Sitemap, Robots e Metatags). Selecione a opção Robots.


Observação: Para criar um google robots você deve abrir um txt inserir as regras do google, salvar com o nome robots.txt

Como Montar a Estrutura de seu Robots:

O robots.txt é um arquivo no qual trabalha através de comandos, e será através desses comandos em que você determinará o que você quer ou não que seja indexado nos resultados de pesquisa dos buscadores.

Regra Padrão:


Regras para bloquear alguma página ou diretório:


Atenção: O comando a seguir irá bloquear toda a indexação das páginas nos resultados do Google.


Para entender um pouco melhor, veja como é uma estrutura simples de um robots.txt na prática:

User-agent: *
Disallow: SEUDOMINIO.commercesuite.com.br/
User-agent: BDCbot
Disallow: /


User-agent: *
Disallow: /loja/carrinho.php*
Disallow: /loja/pag_parcelado.php*
Disallow: /404
Disallow: /cgi-bin/
Disallow: /error_log
Disallow: /loja/busca.php?
Disallow: /*transID*
Disallow: /checkout*
Disallow: /loja/comparador.php
Disallow: /loja/view/404.php
Disallow: /rewrite.asp?404;


Allow:
User-agent: Googlebot-Image
Allow:
User-agent: Mediapartners-Google
Allow:
User-agent: Adsbot-Google
Allow:
User-agent: Googlebot
Allow:

Sitemap: URL DO SITEMAP DE SEU WEBSITE

Lembre-se: a ferramenta mais fácil para você criar um robots.txt é a da WebPeak, basta acessar a área de aplicativos.



Fácil, não é mesmo?

Criar um robots.txt para o seu site é essencial para que os mecanismos de buscas apresentem corretamente seus conteúdos nos resultados das pesquisas.

Em caso de dúvidas, nos encaminhe um e-mail para suporte@webpeak.com.br


Até a próxima! ;)


    • Related Articles

    • Sitemap, Robots.txt e Metatags SEO

      Olá! Nesse artigo vamos falar sobre alguns arquivos e tags indispensáveis para sua loja. Acompanhe! Sitemap.xml O sitemap como o próprio nome diz é o mapa de seu site (loja virtual), ou seja, será utilizado tais caminhos (mapa) pelos robôs dos sites ...
    • Redirecionamento Tray

      Olá! Hoje vamos falar sobre como realizar redirecionamentos na sua loja Tray. Sua loja virtual também conta com uma ferramenta de Redirecionamento de URL que pode ser configurada facilmente. Para acessar a área de redirecionamentos basta seguir o ...
    • Robots e Sitemap - WordPress

      Olá! Aqui vamos falar de: Plataforma: Wordpress Ferramenta: Sitemap Tire todas as suas dúvidas de forma dinâmica e rápida, respondendo dentro do tópico. É extremamente importante otimizar produtos e categorias dentro de sua plataforma de e-commerce ...
    • Tray Commerce: Otimização Interna Produtos

      Olá, tudo bem? Aqui vamos falar de: Ferramenta - Otimização Interna de Produtos Categoria - Plataformas: Tray Commerce Tire todas as suas dúvidas de forma dinâmica e rápida, respondendo dentro do tópico. É extremamente importante otimizar produtos e ...
    • Como Criar um Robots.txt

      Olá! Se você tem a oportunidade de editar o arquivo robots.txt tenha muito cuidado. Não é algo que você deve fazer com frequência, mas vale a pena utilizar as configurações corretas a seu favor. Primeiros passos com arquivos robots? Então utilize ...