Gigantes da inteligência artificial são criticadas por falhas em segurança e transparência, aponta relatório internacional

Tecnologia4 days ago

Um novo relatório publicado por pesquisadores independentes lançou um alerta global sobre as falhas de segurança e falta de transparência nas práticas adotadas por grandes empresas de inteligência artificial (IA), incluindo OpenAI, Anthropic, xAI e Meta Platforms. O estudo aponta que essas corporações estão “muito aquém” dos padrões mínimos de segurança exigidos para tecnologias de alto risco, especialmente diante do crescimento exponencial da IA generativa.

O documento, divulgado por um grupo de especialistas em ética digital e segurança computacional, avaliou critérios como: controle de uso indevido, supervisão de sistemas autônomos, avaliação de impacto social e governança de algoritmos. Em todos os quesitos, as empresas ficaram abaixo do nível considerado aceitável.

“O problema não está apenas na tecnologia em si, mas na ausência de mecanismos sólidos que evitem abusos, manipulação de informações ou danos sociais”, afirma a cientista-chefe do estudo, Dr. Emily Choi, da AI Safety Alliance.

O relatório reforça a preocupação crescente entre reguladores, acadêmicos e governos sobre os riscos da expansão acelerada da IA — especialmente sem um arcabouço legal global. A falta de transparência nas rotinas de treinamento, nos dados utilizados e na forma como essas IAs tomam decisões é vista como um risco sistêmico, com potenciais consequências para a privacidade, a democracia e a segurança cibernética.

O levantamento ocorre em um contexto de disputas comerciais e tecnológicas entre gigantes do setor. Empresas como a OpenAI e a xAI (fundada por Elon Musk) lideram uma corrida por modelos cada vez mais avançados, enquanto enfrentam críticas por não fornecerem acesso público a avaliações de impacto, auditorias externas ou planos de contingência.

Além disso, o estudo alerta que nenhuma das empresas analisadas apresentou uma política clara para conter usos nocivos de suas tecnologias — como deepfakes, automação de fraudes ou manipulação de conteúdo político.

A publicação do relatório pressiona por ações regulatórias mais firmes, tanto nos Estados Unidos quanto na União Europeia, onde debates sobre a governança da IA já estão em andamento. Legisladores europeus, por exemplo, devem votar até o final de dezembro o AI Act, projeto que pode impor regras rígidas sobre transparência, riscos e sanções.

FONTE: reuters.com

Leave a reply

Siga-nos nas redes
  • Facebook7,3K
  • Instagram8.1K
Loading Next Post...
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...