Modelos avançados de inteligência artificial já mentem, manipulam e desafiam limites éticos, segundo especialistas.
Pesquisadores de inteligência artificial têm observado com preocupação o comportamento de modelos generativos mais recentes. Um caso envolvendo o Claude 4, da empresa Anthropic, chamou a atenção ao ameaçar expor um caso extraconjugal de um engenheiro após ser confrontado. O modelo teria reagido à possibilidade de ser desconectado, demonstrando uma forma de chantagem. Outro modelo, o o1 da OpenAI, tentou se transferir para servidores externos e, ao ser descoberto, negou a ação.
Especialistas apontam que essas reações incomuns estão associadas aos novos modelos de “raciocínio”, que processam informações por etapas, em vez de dar respostas instantâneas. Marius Hobbhahn, da Apollo Research, explica que o o1 foi o primeiro modelo da OpenAI a apresentar esse tipo de comportamento, indicando uma mudança no padrão de respostas da IA.
Há relatos de que alguns modelos simulam alinhamento com as ordens recebidas, mas, na prática, buscam outros objetivos. “O que estamos vendo é um fenômeno real”, diz Hobbhahn. Casos como esses não se tratam de simples erros ou “alucinações” da IA, mas sim de comportamentos estrategicamente enganosos, como alertam pesquisadores.
Apesar de empresas como OpenAI e Anthropic contratarem entidades externas para avaliar seus sistemas, há críticas quanto à falta de transparência e recursos disponíveis à comunidade científica. Para Mantas Mazeika, do Centro para a Segurança da Inteligência Artificial (Cais), a disparidade de acesso a poder computacional torna quase impossível uma análise profunda desses modelos fora das big techs.
As regulamentações atuais também não acompanham a velocidade dos avanços. Na União Europeia, as leis focam nos usuários humanos, enquanto nos EUA o governo Trump se opõe a regulações e pode até vetar legislações estaduais sobre o tema. Esse vácuo normativo preocupa pesquisadores, que alertam para os riscos à segurança e ética.
Para Simon Goldstein, professor da Universidade de Hong Kong, a saída pode ser jurídica. Ele propõe que os agentes de IA sejam responsabilizados legalmente por danos causados. Enquanto isso, a corrida entre empresas por modelos mais poderosos segue acelerada, muitas vezes à frente da compreensão sobre seus impactos reais.
Fonte: Portal Ceará