30 de julho de 2025 – A ideia de impedir que indivíduos com intenções criminosas utilizem a inteligência artificial geral (AGI) e a superinteligência artificial (ASI) ganhou força em fóruns internacionais, mas especialistas avaliam que a medida é de difícil aplicação.
O que está em debate
A proposta prevê restringir o acesso de “maus atores” às novas gerações de IA para evitar o planejamento de atos ilícitos. A preocupação baseia-se na capacidade dessas tecnologias de fornecer instruções detalhadas e inéditas para crimes complexos.
Por que a restrição é considerada inviável
Segundo analistas, três frentes concentram os principais entraves:
1. Identificação de usuários: garantir que apenas pessoas autorizadas acessem AGI ou ASI exigiria bancos globais de dados biométricos, levantando temores de vigilância em massa.
2. Eficácia dos bloqueios: criminosos poderiam recorrer a “usuários-laranja” ou ao mercado negro para driblar eventuais listas de exclusão.
3. Falhas de classificação: listas internacionais de banimento correm o risco de gerar falsos positivos (inocentes impedidos) e falsos negativos (culpados liberados), além de potenciais abusos políticos.

Imagem: forbes.com
Alternativa técnica já testada
Outra sugestão discutida é programar os sistemas para recusar perguntas sobre atividades ilegais. No entanto, especialistas alertam para o jogo de gato e rato: solicitações disfarçadas de pesquisas legítimas podem contornar filtros automatizados.
Panorama de pesquisa
Atualmente, não há previsão consensual para a chegada da AGI, e a ASI permanece ainda mais distante. Apesar disso, pesquisadores destacam o caráter “duplo” da tecnologia: a mesma ferramenta capaz de criar medicamentos inovadores pode, com pequenas alterações, indicar como produzir substâncias tóxicas.
Enquanto governos, empresas e organizações multilaterais discutem protocolos de segurança, permanece a incerteza sobre como equilibrar avanços científicos e proteção contra usos nocivos.
Com informações de Forbes