Em uma declaração que deve alimentar o debate sobre os limites e as capacidades da inteligência artificial, o CEO da Anthropic, Dario Amodei, afirmou que os sistemas de IA desenvolvidos pela empresa já apresentam menor taxa de “alucinações” — termo usado para descrever erros factuais ou inventados — do que humanos em determinadas tarefas de linguagem.
A afirmação foi feita durante uma entrevista recente, na qual Amodei destacou os avanços obtidos por modelos como o Claude, concorrente direto do ChatGPT. Segundo ele, os sistemas atuais são capazes de apresentar respostas mais precisas e consistentes do que pessoas em contextos onde há alta densidade de informações ou exigência de rigor técnico, como em análises jurídicas ou respostas enciclopédicas.
“Estamos nos aproximando de um ponto em que a IA pode ser uma fonte mais confiável de informação do que um ser humano médio, especialmente em situações em que o conhecimento preciso é essencial”, afirmou Amodei. Ainda assim, ele reconheceu que o desafio da alucinação não está totalmente resolvido e que a transparência no uso desses sistemas deve ser prioridade.
A declaração reacende discussões sobre o papel da IA na sociedade, especialmente em áreas como educação, comunicação e decisões automatizadas. Especialistas alertam que, embora os modelos estejam evoluindo, o julgamento humano ainda é indispensável para interpretar, verificar e contextualizar as informações fornecidas por essas ferramentas.
A Anthropic, fundada por ex-funcionários da OpenAI, tem se destacado por seu enfoque na segurança e na governança de sistemas de IA, defendendo padrões éticos rigorosos para o desenvolvimento e a aplicação dessas tecnologias.
FONTE: TECHCRUNCH