Google estuda ‘botão de destruir’ para evitar que sua inteligência artificial crie a Skynet

Renê Fraga
1 min de leitura

Brincar com inteligência artificial talvez não seja tão seguro quanto imaginamos.

Pelo menos é o que diz um recente documento liberado pelo Google ao detalhar o desenvolvimento de um interruptor que desligaria sua inteligência artificial em caso de ameaça ou uma revolta dos robôs contra a humanidade.

De acordo com o Google, o botão serviria para manter um controle humano sobre a tecnologia e interromper uma possível “sequência nociva das ações” e conduzi-la a uma situação mais segura. O documento define danos para o meio ambiente ou o próprio agente.

“A interruptibilidade segura pode ser útil para assumir o controle de um robô que não está se comportando bem e que poderia levar a consequências irreversíveis, ou para tirá-lo de uma situação delicada, ou mesmo utilizá-lo temporariamente para aprender uma nova tarefa por meio de recompensas”, escrevem os pesquisadores.

O botão também poderia ser usado como artifício para fazer a inteligência artificial se comportar dentro dos padrões, evitando desta forma que os humanos tentem contornar a situação com o aperto do “botão”.

✨ Curtiu este conteúdo?

O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌

Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!

Clique aqui e faça parte da nossa rede de apoiadores.

Seguir:
Renê Fraga é fundador do Google Discovery (GD) e editor-chefe do Eurisko. Profissional de marketing digital, com pós-graduação pela ESPM, acompanha o Google desde os anos 2000 e escreve há mais de duas décadas sobre tecnologia, produtos digitais e o ecossistema da empresa. Criador do Google Discovery em 2006, tornou-se referência na cobertura do Google no Brasil e foi colunista do TechTudo (Globo.com), compartilhando análises e conhecimento com um grande público.
3 Comentários