Inteligência Artificial

CEO da Anthropic diz que IA "alucina" menos que humanos e defende avanço rumo à AGI

Declaração de Dario Amodei foi feita durante primeiro evento para desenvolvedores da empresa, em meio a debates sobre confiabilidade e limites dos modelos atuais

Dario Amodei: CEO da Anthropic (Kimberly White/Getty Images)

Dario Amodei: CEO da Anthropic (Kimberly White/Getty Images)

Publicado em 23 de maio de 2025 às 12h40.

Dario Amodei, CEO da Anthropic, acredita que os modelos de inteligência artificial “alucinam” menos que os humanos, ainda que o façam de maneiras mais surpreendentes. A declaração foi feita durante o primeiro evento para programadores da empresa, o Code with Claude, realizado em São Francisco, na quinta-feira, 22.

Para ele, os erros cometidos pela IA — as chamadas “alucinações” — ocorrem em menor frequência que nos humanos e não representam um obstáculo para o avanço rumo à inteligência artificial geral (AGI). A comparação, porém, é difícil de verificar. Isso porque os testes costumam comparar modelos entre si, não com pessoas.

Apesar de confirmar a preocupação com a confiança excessiva da IA ao apresentar informações falsas, Amodei defendeu que esses erros não invalidam sua inteligência e os comparou com erros cometidos por jornalistas e políticos.

O CEO da Anthropic é um dos mais otimistas com a possibilidade do avanço das atuais IAs para uma forma com inteligência similar ou superior aos humanos, a AGI. Questionado sobre sua crença na ferramenta já para 2026, Amodei respondeu que vê progresso constante e generalizado para essa finalidade.

Futuro da AGI

Outras empresas líderes em IA acreditam que as “alucinações” são um grande obstáculo à AGI. Nesta semana, por exemplo, o CEO do Google DeepMind, Damis Hassabis, disse que os atuais modelos têm muitos “buracos” e erram muitas questões óbvias.

Um desses erros aconteceu com o próprio modelo da Anthropic, o Claude. No começo do mês, um advogado representando a empresa teve que se desculpar após a IA errar nomes e títulos em um processo judicial.

Há, inclusive, evidências que sugerem um aumento expressivo nas "alucinações", por exemplo, dos modelos o3 e o4-mini, da OpenAI, regredindo em relação as até então constantes melhorias nesse quesito.

Enquanto os comentários de Amodei sugerem, segundo a Techcrunch, a possibilidade da Anthropic considerar um modelo de IA como AGI mesmo “alucinando”, essa definição pode não se encaixar no entendimento e na expectativa de muitas outras pessoas.

Acompanhe tudo sobre:Inteligência artificialApps

Mais de Inteligência Artificial

Wikipedia suspende teste com IA que gerava resumos automáticos após reação dos editores

Adobe projeta lucros acima do esperado, mas encara desafios na era da IA

Startup de nuvem Crusoe investe US$ 400 milhões em chips da AMD para novo data center de IA nos EUA

Cuidado ao usar o Meta AI: botão de compartilhar pode expor conversas privadas dos usuários