O Google está explorando novas maneiras de controlar o rastreamento e a indexação de sites além do protocolo robots.txt, padrão há 30 anos.
A empresa afirmou que é necessário explorar meios adicionais de escolha e controle de editores da web para casos emergentes de pesquisa e inteligência artificial.
O buscador convidou membros das comunidades web e de AI para discutir em um novo protocolo, incluindo editores da web, sociedade civil, academia e outras áreas ao redor do mundo.
A discussão sobre alternativas ao protocolo robots.txt está em andamento e pode levar a mudanças significativas no futuro.
A iniciativa do Google visa trazer uma ampla gama de vozes de diferentes áreas para discutir novas maneiras de controle e escolha dos editores da web em relação ao rastreamento e indexação de sites.
A nova abordagem é vista como uma resposta a questões recentes, como o problema de conteúdo com paywall em que o ChatGPT da Open AI acessou conteúdo sem permissão.
Embora as novas alternativas para o protocolo robots.txt ainda não estejam claras, a discussão é importante para editores da web e profissionais de marketing digital que precisam garantir que seus sites sejam rastreados e indexados de maneira adequada.
As mudanças propostas podem ter um impacto significativo na maneira como o conteúdo é rastreado e indexado na web, e é importante acompanhar o desenvolvimento dessas discussões.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!