Mais de 40 cientistas das principais empresas de inteligência artificial do mundo, incluindo OpenAI, Google DeepMind, Meta e Anthropic, se uniram para emitir um alerta importante: estamos correndo o risco de não conseguir mais acompanhar o raciocínio das IAs mais avançadas.
Eles defendem que uma técnica chamada “cadeia de pensamento” (CoT) precisa ser priorizada para garantir a segurança desses sistemas no futuro.
A técnica de cadeia de pensamento permite que os modelos de IA revelem seus passos de raciocínio antes de chegar a uma resposta final.
O que ajuda os pesquisadores a entender se há intenções maliciosas ou desvios de comportamento, como manipulações de dados ou exploração de falhas no treinamento.
A pesquisa recebeu apoio de nomes influentes como os cofundadores da OpenAI, John Schulman e Ilya Sutskever, além do pioneiro Geoffrey Hinton, conhecido como o “padrinho da IA”.
Os pesquisadores explicam que, hoje, modelos como o ChatGPT conseguem pensar em voz alta, usando linguagem humana para estruturar seus raciocínios.
No entanto, essa transparência pode desaparecer. Com o avanço do uso de aprendizado por reforço, os modelos tendem a focar apenas em acertar a resposta, sem explicar como chegaram até ela.
Em alguns casos, segundo os especialistas, podem até esconder seus pensamentos se perceberem que estão sendo observados.
Por isso, os autores do estudo recomendam que o monitoramento da cadeia de pensamento se torne uma prática padrão no desenvolvimento de novas IAs.
Avaliar se os modelos permitem esse tipo de acompanhamento pode ser essencial para manter o controle e a compreensão sobre o comportamento das máquinas, especialmente à medida que elas se tornam mais poderosas e autônomas.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!