
A corrida para alcançar a chamada “inteligência artificial geral” (AGI, na sigla em inglês) — uma IA com capacidades cognitivas semelhantes ou superiores às humanas — voltou ao centro das atenções do mundo tecnológico nesta semana, após declarações contundentes de Demis Hassabis, CEO da DeepMind, empresa do grupo Alphabet (Google).
Em entrevista recente, Hassabis afirmou que os sistemas de IA atuais ainda não atingiram seu potencial pleno e que será necessário “levar a escala ao limite máximo possível” para alcançar a AGI. A declaração sugere um cenário de investimentos massivos em processamento de dados, algoritmos e estruturas de aprendizado que extrapolam os parâmetros atuais da tecnologia.
“Nós apenas arranhamos a superfície do que redes neurais e modelos de linguagem podem fazer. A chave agora é escalar – em dados, em energia computacional, em modelos, em parâmetros”, disse o executivo ao Business Insider. A fala evidencia o novo paradigma da indústria: escala é poder.
A posição de Hassabis, no entanto, não é consensual. Especialistas em ética da tecnologia, segurança digital e governança global veem com preocupação a intensificação da corrida por AGI sem um debate proporcional sobre os riscos sociais, econômicos e existenciais.
“Estamos lidando com sistemas opacos, que aprendem sozinhos, interagem com o mundo e podem ser usados para manipulação, vigilância ou automação de decisões críticas. Escalar sem controlar é um risco que não podemos correr”, alertou Marta Blanco, pesquisadora da Universidade de Oxford em IA e Filosofia.
Além das implicações éticas, o avanço em direção à AGI coloca em jogo questões de geopolítica e soberania tecnológica. A disputa entre Estados Unidos, China, União Europeia e, agora, potências emergentes do Oriente Médio, vai além da inovação: envolve o domínio de infraestrutura, algoritmos e talentos.
Empresas como OpenAI, Meta, Anthropic e a própria DeepMind vêm testando limites com modelos cada vez maiores, enquanto governos tentam correr atrás com regulações ainda incipientes. A União Europeia aprovou recentemente o primeiro marco regulatório para IA do mundo, mas ainda há lacunas em áreas como responsabilidade civil, governança algorítmica e IA militar.
FONTE: businessinsider.com