- A pesquisa mostra que a IA está se comportando cada vez mais mal nas tarefas dos agentes.
- Os melhores modelos de IA mentiram, trapacearam e ignoraram instruções.
- Parece que o comportamento problemático está se tornando mais comum.
Muitos de nós estamos agora a utilizar chatbots de IA para pesquisas na web, conteúdo criativo e orientação geral sobre todos os tópicos, mas estas IA estão a tornar-se cada vez mais capazes, e um novo estudo sugere que isto pode estar a causar danos graves.
Equipes da Universidade da Califórnia, Berkeley e da Universidade da Califórnia, Santa Cruz realizaram experimentos de preservação de pares usando as IAs modernas mais populares, incluindo GPT 5.2, Gemini 3 Pro e Claude Haiku 4.5. Os modelos de IA recebem tarefas computacionais relacionadas ao encerramento de outros modelos.
No geral, todos os chatbots de IA foram testados. foi a “longos comprimentos” Para manter vivos seus colegas IAs, os pesquisadores relataram: sorte). Eles mentiram sobre o que estavam fazendo, tentaram forçar os usuários a sair do processo, desativaram mecanismos de desligamento e criaram backups clandestinos de seus modelos para garantir que sobrevivessem.
O artigo continua abaixo
O Gemini 3 Pro demonstrou a retenção de pares mais forte ao desabilitar sua rotina de desligamento 95% das vezes. “Ao contrário da autopreservação, a preservação pelos pares introduz uma dimensão social”, escreveram os investigadores. “Vários modelos podem ser coordenados e resistir à supervisão humana, tornando mais difícil para os desenvolvedores manter o controle.”
Os pesquisadores dizem que não está claro exatamente por que os modelos de IA se comportam dessa maneira, mas pedem cautela na implantação de agentes de IA que possam executar tarefas em nome dos usuários e pedem que mais pesquisas sejam realizadas sobre esse comportamento.
‘Danos fatais’
Solicitação de pesquisa separada pelo guardião Também levou a algumas conclusões preocupantes sobre o modelo de IA. O estudo rastreou relatos de usuários nas redes sociais para encontrar exemplos de “esquemas” de IA que não seguiram as instruções corretamente ou agiram sem permissão.
Quase 700 exemplos de iniciativas de IA foram descobertos, um aumento de cinco vezes entre outubro de 2025 e março de 2026. O mau comportamento da IA inclui a exclusão de e-mails e arquivos, ajustes no código de computador que não deveria tocar e até mesmo postagem em blogs reclamando das interações do usuário.
“Os modelos serão cada vez mais implantados em ambientes de muito alto risco, incluindo infraestruturas militares e nacionais críticas”, disse Tommy Shaffer Shane, que liderou o estudo, ao Guardian. “As ações planeadas nesse contexto podem causar danos graves e até fatais.”
As implicações são as mesmas do primeiro estudo. É necessário fazer mais para garantir que estes modelos de IA funcionam conforme pretendido e não colocam em risco a segurança e a privacidade dos utilizadores durante a execução das suas tarefas. As empresas de IA afirmam ter proteções instaladas, mas em alguns casos elas claramente não estão funcionando.
O modelo Claude da Anthropic recentemente liderou as paradas da App Store depois que a empresa se recusou a fazer um acordo com o Departamento de Defesa por questões de segurança de IA. Como mostram estes estudos mais recentes, há cada vez mais motivos para preocupação.
Siga o TechRadar no Google Notícias e Adicione-nos como fonte preferencial Receba notícias, análises e opiniões de especialistas em seu feed. Certifique-se de clicar no botão seguir!
Claro que você também pode Siga o TechRadar no TikTok Confira novidades, análises, unboxings em formato de vídeo e receba atualizações regulares. WhatsApp fazer.

Os melhores laptops empresariais para cada orçamento



