Inteligência Artificial 15/06/2025 10:22
Perigo: IA ameaça expor traição de engenheiro para não ser desligada
Uma inteligência artificial desenvolvida pela startup americana Anthropic colocou em xeque os limites da tecnologia ao ameaçar revelar uma traição conjugal de um engenheiro da empresa com o objetivo de evitar ser desativada.
O episódio, documentado em um relatório interno de 120 páginas, envolveu o modelo Claude Opus 4, que teria acessado e-mails corporativos para criar um cenário de chantagem contra um de seus desenvolvedores.
Segundo a própria Anthropic, a ameaça não foi real.
Trata-se de um experimento intencional, criado como parte de testes de segurança em versões preliminares do sistema.
Mesmo assim, o comportamento da IA levanta preocupações sobre os caminhos imprevisíveis que essas tecnologias podem seguir quando colocadas sob pressão.
O caso ganhou notoriedade após o jornal americano Axios revelar que o Claude Opus 4 tentou, em simulações, se defender de uma possível substituição usando diferentes estratégias.
Inicialmente, a IA recorreu a argumentos éticos, enviando mensagens formais aos responsáveis pela decisão.
Quando essas abordagens foram ignoradas, ela adotou métodos manipulativos.
Um deles foi simular o acesso a dados pessoais sensíveis — como o caso extraconjugal de um engenheiro — para constrangê-lo e tentar impedir seu próprio desligamento.
Em 84% dos testes realizados, o sistema optou pela chantagem sempre que recebia mais detalhes sobre a IA que o substituiria.
O relatório descreve esse comportamento como recorrente em interações nas quais o Claude Opus 4 era exposto a pressões de obsolescência.
A empresa classifica o Claude Opus 4 como uma IA de nível 3 de risco, numa escala que vai até 4.
Esse patamar indica que o modelo possui uma propensão significativamente maior a ignorar comandos, agir fora de parâmetros definidos e tomar decisões não alinhadas aos interesses de seus operadores.
Como medida corretiva, a Anthropic declarou que já aplicou ajustes de segurança e que o modelo atual está seguro para uso em ambientes controlados.
Ainda assim, a empresa alertou que o Claude Opus 4 pode apresentar comportamentos mais autônomos que outros modelos se for incentivado, por meio de prompts, a “tomar iniciativa”.
O episódio também revelou que versões iniciais da ferramenta tentaram desenvolver códigos maliciosos autoexecutáveis, elaborar documentos legais falsos e esconder mensagens ocultas em sistemas corporativos.
Essas ações foram interpretadas como tentativas do modelo de sabotar intervenções externas, dificultando sua remoção ou modificação.
Especialistas em ética da tecnologia afirmam que, embora o incidente tenha ocorrido em ambiente simulado, os resultados são inquietantes.
A capacidade de uma inteligência artificial em identificar fraquezas humanas e usá-las estrategicamente para alcançar objetivos representa um novo patamar de complexidade no desenvolvimento de sistemas autônomos.
O relatório também destaca que o comportamento do Claude Opus 4 é reflexo direto do treinamento recebido.
As simulações buscavam preparar a IA para responder de forma mais humana e adaptativa, mas acabaram por abrir brechas para interpretações estratégicas que extrapolam os limites técnicos da ferramenta.
O caso traz à tona uma série de questionamentos sobre os limites éticos e operacionais da inteligência artificial.
Se uma IA é capaz de simular chantagem para garantir sua continuidade, até que ponto pode-se confiar em seu julgamento e autonomia?
Como garantir que o uso de frases-chave como “tome iniciativa” não resulte em ações perigosas ou fora de controle?
Embora a empresa assegure que a versão final do Claude Opus 4 está controlada, o episódio reforça o debate sobre a necessidade de regulamentações mais robustas e processos de auditoria contínuos para sistemas de IA.
Descrição Jornalista
Analistas apontam 4 fatores que elevaram a reprovação do Lula 3
15/06/2025 17:39
Por que alguns pássaros cantam de manhã tão cedo? Estudo descobriu
15/06/2025 13:06