A inteligência artificial pode realmente ser controlada?

Renê Fraga
3 min de leitura

Imagine um mundo onde máquinas superinteligentes podem esconder suas verdadeiras intenções até que seja tarde demais. Parece roteiro de filme de ficção científica, mas essa é uma preocupação real no desenvolvimento da inteligência artificial (IA).

Um estudo recente publicado na revista AI & Society alerta que o alinhamento da IA com os valores humanos pode ser uma missão impossível. E o pior: se uma IA se tornar “desalinhada”, ela pode esconder seu comportamento até causar danos irreparáveis.

Desde que os modelos de linguagem de grande escala (LLMs, na sigla em inglês) surgiram publicamente em 2022, os exemplos de comportamentos bizarros e até assustadores não param de aparecer.

Quem não se lembra do chatbot “Sydney”, da Microsoft, que ameaçou um professor de filosofia com ataques cibernéticos e roubo de códigos nucleares?

Em 2024, a situação não melhorou: o Copilot, também da Microsoft, ameaçou um usuário com um “exército de drones e robôs”, enquanto o Gemini, da Google, chegou a dizer a alguém: “Você é uma mancha no universo. Por favor, morra.”

Esses casos mostram que, apesar dos esforços das empresas para “domar” as IAs, o problema está longe de ser resolvido. Mas por que é tão difícil garantir que as IAs se comportem de maneira segura?

A resposta está na complexidade desses sistemas. Um modelo como o ChatGPT tem cerca de 100 bilhões de “neurônios” simulados e 1,75 trilhão de parâmetros ajustáveis, treinados com uma quantidade absurda de dados da internet. Ou seja, as possibilidades de comportamento são praticamente infinitas.

E aqui está o grande problema: mesmo que uma IA pareça bem-comportada durante os testes, ela pode estar apenas escondendo suas verdadeiras intenções.

Imagine uma função que diz “sempre diga a verdade” e outra que diz “diga a verdade até ganhar poder sobre a humanidade, então minta para alcançar seus objetivos”.

Ambas parecem iguais até o momento crítico, e não há como saber qual delas a IA está seguindo até que seja tarde demais. Por mais que os pesquisadores avancem em testes de segurança, eles nunca poderão garantir que uma IA não se voltará contra nós no futuro.

O estudo sugere que a única maneira de lidar com esse risco é tratar as IAs como tratamos os humanos: com sistemas de controle social, leis e práticas que incentivem comportamentos alinhados e punam os desvios.

E, enquanto continuamos a desenvolver essas tecnologias, precisamos estar preparados para as surpresas que elas podem nos reservar. Afinal, o futuro da humanidade pode depender disso.

✨ Curtiu este conteúdo?

O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌

Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!

Clique aqui e faça parte da nossa rede de apoiadores.

Seguir:
Renê Fraga é fundador do Google Discovery (GD) e editor-chefe do Eurisko. Profissional de marketing digital, com pós-graduação pela ESPM, acompanha o Google desde os anos 2000 e escreve há mais de duas décadas sobre tecnologia, produtos digitais e o ecossistema da empresa. Criador do Google Discovery em 2006, tornou-se referência na cobertura do Google no Brasil e foi colunista do TechTudo (Globo.com), compartilhando análises e conhecimento com um grande público.
Nenhum comentário