Durante uma entrevista ao programa “60 Minutes”, o CEO do Google, Sundar Pichai admitiu que ainda não foram encontradas soluções para esse problema, que ocorre quando modelos de linguagem geram textos que parecem plausíveis, mas não são factuais.
Pichai explicou que a IA generativa, técnica usada por chatbots como o Bard do Google, utiliza bilhões de pontos de dados para prever a próxima palavra em uma string de texto, o que pode levar a essas alucinações.
No entanto, ele afirmou que sua equipe está trabalhando para entender melhor como os modelos de linguagem funcionam e identificar maneiras de minimizar esse problema.
“Ninguém no campo ainda resolveu os problemas de alucinação. Todos os modelos têm isso como um problema”, explicou Pichai.
“Há um aspecto disso que chamamos – todos nós da área – chamamos de ‘caixa preta’”, disse ele. “E você não consegue dizer por que ele disse isso ou por que errou.”
Para ajudar a curar alucinações, Bard possui um botão “Google it” que leva à pesquisa antiquada.
O Google também criou filtros de segurança no Bard para rastrear coisas como discurso de ódio e preconceito.
No entanto, Pichai ressaltou que a IA tem o potencial de trazer muitos benefícios para a sociedade, desde o diagnóstico médico até a redução da poluição.
Ele afirmou que é importante avançar com cautela e responsabilidade para garantir que a tecnologia seja usada para o bem da humanidade.
Apesar dos desafios enfrentados pela IA, Pichai disse que está animado com os avanços recentes na área, incluindo a capacidade de conversação dos chatbots e o uso de IA em jogos de tabuleiro.
Ele acredita que a IA terá um papel cada vez mais importante no futuro e está ansioso para ver o que o futuro reserva para essa tecnologia em constante evolução.
Leia na íntegra a conversa com Pichai:
Scott Pelley: Você está tendo muitas alucinações?
Sundar Pichai: Sim, você sabe, o que é esperado. Ninguém no, no campo ainda resolveu os problemas de alucinação. Todos os modelos têm isso como um problema.
Scott Pelley: É um problema solucionável?
Sundar Pichai: É uma questão de intenso debate. Acho que vamos progredir.
Para ajudar a curar alucinações, Bard possui um botão “Google it” que leva à pesquisa antiquada. O Google também criou filtros de segurança no Bard para rastrear coisas como discurso de ódio e preconceito.
Scott Pelley: Qual é o risco da disseminação da desinformação?
Sundar Pichai: A IA desafiará que, de uma maneira mais profunda, a escala desse problema seja muito maior.
Problemas maiores, diz ele, com notícias falsas e imagens falsas .
Sundar Pichai: Será possível com IA criar – você sabe, um vídeo facilmente. Onde poderia ser Scott dizendo algo, ou eu dizendo algo, e nunca dissemos isso. E pode parecer preciso. Mas você sabe, em uma escala social, isso pode causar muitos danos.
Scott Pelley: Bard é seguro para a sociedade?
Sundar Pichai: Do jeito que lançamos hoje, como um experimento de forma limitada, acho que sim. Mas todos nós temos que ser responsáveis em cada passo ao longo do caminho.
Pichai nos disse que está sendo responsável por adiar mais testes, versões avançadas do Bard, que, segundo ele, pode raciocinar, planejar e conectar-se à pesquisa na Internet.
Scott Pelley: Você está deixando isso sair lentamente para que a sociedade possa se acostumar com isso?
Sundar Pichai: Essa é uma parte disso. Uma parte também é para obtermos o feedback do usuário. E podemos desenvolver camadas de segurança mais robustas antes de construir, antes de implantar modelos mais capazes.
Dos problemas de IA sobre os quais falamos, o mais misterioso é chamado de propriedades emergentes. Alguns sistemas de IA estão ensinando a si mesmos habilidades que não deveriam ter. Como isso acontece não é bem compreendido. Por exemplo, um programa de IA do Google adaptou-se, por conta própria, após ser solicitado no idioma de Bangladesh, para o qual não foi treinado.
James Manyika: Descobrimos que com pouquíssimas solicitações em bengali, ele agora pode traduzir todo o bengali. Então agora, de repente, temos um esforço de pesquisa em que estamos tentando chegar a mil idiomas.
Sundar Pichai: Há um aspecto disso que chamamos – todos nós da área o chamamos de “caixa preta”. Você sabe, você não entende completamente. E você não consegue dizer por que disse isso ou por que deu errado. Temos algumas ideias e nossa capacidade de entender isso melhora com o tempo. Mas é aí que está o estado da arte.
Scott Pelley: Você não entende totalmente como funciona. E, no entanto, você o soltou na sociedade?
Sundar Pichai: Sim. Deixe-me colocar deste jeito. Acho que também não entendemos totalmente como funciona a mente humana.
Foi dessa caixa preta, nos perguntamos, que Bard desenhou seu conto que parecia tão desconcertantemente humano?
Scott Pelley: Falava sobre a dor que os humanos sentem. Falava sobre redenção. Como ele fez todas essas coisas se está apenas tentando descobrir qual é a próxima palavra certa?
Sundar Pichai: Eu também tive essas experiências conversando com Bard. Existem duas visões disso. Você sabe, há um conjunto de pessoas que veem isso como, olha, são apenas algoritmos. Eles estão apenas repetindo o que é visto online. Depois, há a exibição em que esses algoritmos mostram propriedades emergentes, para ser criativo, raciocinar, planejar e assim por diante, certo? E, pessoalmente, acho que precisamos ser, precisamos abordar isso com humildade. Parte do motivo pelo qual acho bom que algumas dessas tecnologias estejam sendo divulgadas é para que a sociedade, sabe, pessoas como você e outras possam processar o que está acontecendo. E começamos esta conversa e debate. E acho importante fazer isso.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!