Google: Nossa funcionalidade de geração de imagens por IA errou

Renê Fraga
3 min de leitura

O Google reconheceu que sua funcionalidade de geração de imagens por IA do Gemini cometeu um erro.

Em seu blog oficial, Prabhakar Raghavan Vice-presidente sênior, Conhecimento e Informação, admitiu que a tecnologia falhou em fornecer resultados precisos e adequados.

“Há três semanas, lançamos um novo recurso de geração de imagens para o aplicativo de conversação Gemini (anteriormente conhecido como Bard), que incluía a capacidade de criar imagens de pessoas.

É claro que esse recurso errou o alvo. Algumas das imagens geradas são imprecisas ou até ofensivas. Agradecemos o feedback dos usuários e lamentamos que o recurso não tenha funcionado bem.

Reconhecemos o erro e pausamos temporariamente a geração de imagens de pessoas em Gêmeos enquanto trabalhamos em uma versão melhorada”.

A empresa diz estar empenhada em corrigir essa falha e garantir que a geração de imagens por IA seja precisa, confiável e atenda às expectativas dos usuários.

“Não queríamos que Gemini se recusasse a criar imagens de qualquer grupo específico. E não queríamos que criasse imagens históricas – ou quaisquer outras – imprecisas. 

Portanto, desativamos a geração de imagens de pessoas e trabalharemos para melhorá-la significativamente antes de ativá-la novamente. Este processo incluirá testes extensivos”.

Esse incidente destaca os desafios enfrentados pelas empresas que utilizam inteligência artificial para criar conteúdo visual.

Embora a IA tenha avançado significativamente, ainda existem limitações que podem levar a resultados incorretos ou inadequados.

“Nosso ajuste para garantir que Gemini mostrasse uma gama de pessoas não levou em conta os casos que claramente não deveriam mostrar uma gama. 

E em segundo lugar, com o tempo, o modelo tornou-se muito mais cauteloso do que pretendíamos e recusou-se a responder inteiramente a certas solicitações – interpretando erroneamente algumas solicitações muito anódinas como sensíveis.

Estas duas coisas levaram o modelo a compensar excessivamente em alguns casos e a ser demasiado conservador noutros, conduzindo a imagens embaraçosas e erradas”.

O Google disse ainda que está trabalhando para aprimorar seus algoritmos e processos de geração de imagens por IA, a fim de evitar futuros equívocos.

“(…) alucinações são um desafio conhecido em todos os LLMs – há casos em que a IA simplesmente entende as coisas erradas. Isso é algo que estamos constantemente trabalhando para melhorar”.

Não posso prometer que o Gemini não gerará ocasionalmente resultados embaraçosos, imprecisos ou ofensivos — mas posso prometer que continuaremos a agir sempre que identificarmos um problema. A IA é uma tecnologia emergente que é útil de muitas maneiras, com enorme potencial, e estamos fazendo o nosso melhor para implementá-la com segurança e responsabilidade.

É importante ressaltar que o Google está comprometido em aprender com esse incidente e implementar medidas para evitar que problemas semelhantes ocorram no futuro.

✨ Curtiu este conteúdo?

O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌

Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!

Clique aqui e faça parte da nossa rede de apoiadores.

Seguir:
Renê Fraga é fundador do Google Discovery (GD) e editor-chefe do Eurisko. Profissional de marketing digital, com pós-graduação pela ESPM, acompanha o Google desde os anos 2000 e escreve há mais de duas décadas sobre tecnologia, produtos digitais e o ecossistema da empresa. Criador do Google Discovery em 2006, tornou-se referência na cobertura do Google no Brasil e foi colunista do TechTudo (Globo.com), compartilhando análises e conhecimento com um grande público.
Nenhum comentário