Estudo internacional aponta falhas críticas nas práticas de segurança de gigantes da Inteligência Artificial

Tecnologia1 week ago

Um relatório divulgado nesta terça-feira (3) pelo Future of Life Institute, organização internacional voltada à ética e ao impacto da tecnologia, aponta que grandes empresas de Inteligência Artificial não estão adotando práticas de segurança compatíveis com os riscos da tecnologia que desenvolvem. A avaliação recai sobre nomes de peso como OpenAI, Anthropic, Meta e xAI, do bilionário Elon Musk.

O estudo, considerado o mais abrangente já realizado sobre o tema, utilizou 23 critérios técnicos para avaliar se as empresas estão prontas para conter riscos relacionados à IA avançada, como desinformação, manipulação, uso indevido militar, vigilância em massa ou mesmo perda de controle sobre sistemas autônomos.

O resultado foi alarmante: nenhuma das empresas atingiu os níveis considerados aceitáveis de segurança. O relatório aponta ausência de mecanismos robustos de supervisão, falhas na transparência dos sistemas e carência de planos concretos para mitigar o impacto de modelos superinteligentes.

“Essas companhias estão na linha de frente da revolução tecnológica, mas não estão acompanhando com a responsabilidade que o momento exige”, alertou Anthony Aguirre, diretor do instituto.

O levantamento ganhou destaque internacional por ocorrer em meio a debates acalorados sobre regulação da IA, especialmente nos Estados Unidos, Reino Unido e União Europeia. Embora empresas como a OpenAI tenham assinado compromissos públicos de responsabilidade, o relatório afirma que essas ações ainda são vagas e insuficientes.

No Brasil, especialistas defendem que o estudo sirva de alerta para a construção de marcos regulatórios mais rígidos. “Não podemos importar apenas a tecnologia. Precisamos importar também a capacidade crítica e a regulação”, disse a professora Lúcia Carvalho, da Universidade Federal da Bahia.

O documento será apresentado em fóruns internacionais ainda este mês e deve impulsionar pressões políticas por maior transparência e responsabilidade das big techs, em especial no desenvolvimento de IAs com capacidade autônoma de decisão e influência social.

FONTE: reuters.com

Leave a reply

Siga-nos nas redes
  • Facebook7,3K
  • Instagram8.1K
Loading Next Post...
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...