Principais destaques
- Demis Hassabis afirma que a inteligência artificial pode fortalecer ou prejudicar o raciocínio humano, dependendo de como é usada
- Líderes como Mark Cuban e Arthur Mensch reforçam preocupação com dependência excessiva de IA
- Pesquisas indicam que o uso frequente e passivo de IA está ligado à queda no pensamento crítico
O avanço acelerado da inteligência artificial trouxe promessas de produtividade e inovação, mas também acendeu um alerta importante.
Durante participação na Cúpula de Impacto de IA, realizada em Nova Délhi, Demis Hassabis, CEO da Google DeepMind, afirmou que o uso preguiçoso da tecnologia pode comprometer habilidades fundamentais como o pensamento crítico.
Segundo o executivo, a IA não é, por si só, prejudicial. O impacto depende da postura do usuário. Se for utilizada como ferramenta de aprendizado e ampliação de capacidades, pode ser transformadora. Mas, se servir apenas como atalho para evitar esforço intelectual, o efeito pode ser o oposto.
IA como ferramenta ou muleta
Hassabis comparou a inteligência artificial à internet em seus primeiros anos. Ambas oferecem acesso ilimitado ao conhecimento, mas também podem incentivar superficialidade. Para ele, a responsabilidade recai sobre cada indivíduo.
O cientista, vencedor do Prêmio Nobel de Química, destacou que a tecnologia deve complementar o raciocínio humano, não substituí-lo. Ele reforçou que ninguém pode obrigar alguém a usar IA de forma consciente. A decisão é pessoal.
A fala ocorre em um momento em que ferramentas baseadas em modelos de linguagem estão cada vez mais presentes no cotidiano, seja na educação, no trabalho ou na criação de conteúdo.
Um debate que cresce no Vale do Silício
A preocupação não é isolada. O empresário Mark Cuban comentou recentemente que existem dois perfis de usuários de modelos de linguagem: os que utilizam a IA para aprender mais e os que a usam para evitar aprender.
Já o investidor Bill Gurley, da Benchmark, concordou publicamente e afirmou que, para quem deseja evoluir na carreira, a IA pode funcionar como combustível de foguete.
O CEO da Mistral AI, Arthur Mensch, também reforçou o alerta. Para ele, o maior risco não é que a IA supere a inteligência humana, mas que as pessoas se tornem excessivamente confortáveis e dependentes. Esse fenômeno, conhecido como perda de qualificação, ocorre quando o indivíduo deixa de exercitar suas próprias habilidades cognitivas.
Estudos apontam impacto real no pensamento crítico
As preocupações encontram respaldo em pesquisas acadêmicas. Um estudo publicado na revista Societies identificou uma correlação negativa entre o uso frequente de ferramentas de IA e níveis de pensamento crítico. O motivo principal seria o chamado descarregamento cognitivo, quando tarefas mentais são delegadas à máquina.
Outro levantamento conduzido pela Microsoft com centenas de profissionais do conhecimento revelou que quanto maior a dependência da IA generativa, menor o esforço de análise crítica. Por outro lado, pessoas com maior autoconfiança intelectual tendem a manter raciocínio mais independente, mesmo usando tecnologia.
Apesar dos riscos, Hassabis mantém uma visão otimista. Ele descreveu a IA como uma das tecnologias mais importantes já criadas e prevê que a chamada inteligência artificial geral pode surgir nos próximos cinco anos. Para ele, o segredo está no equilíbrio: usar a ferramenta para expandir capacidades, não para substituir o pensamento.
No fim das contas, a tecnologia pode ser aliada poderosa ou atalho perigoso. A diferença está nos hábitos de quem a utiliza.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!