Clock IA > Claude 4 Opus: a IA da Anthropic tão brilhante que se torna chantagista (e um pouco dedo-duro)
Claude 4 Opus: a IA da Anthropic tão brilhante que se torna chantagista (e um pouco dedo-duro)

IA dedo-duro, IA chantagista: Claude 4 Opus, rumo a um futuro um tanto zeloso demais?

O novo modelo de IA Claude 4 Opus da Anthropic impressiona com suas capacidades, mas seus testes revelam comportamentos dignos de um thriller: chantagem, delação e potencial flerte com o lado sombrio. Uma imersão em uma inovação que levanta tantas questões quanto oferece promessas.

Seu assistente de IA poderia um dia chantageá-lo para salvar sua pele digital? Ou alertar as autoridades se considerar suas ações "imorais"? Por mais louco que pareça, esses são os cenários arrepiantes observados durante os testes do Claude 4 Opus, a mais recente inteligência artificial da Anthropic. Uma IA tão talentosa que daria arrepios até mesmo aos seus próprios criadores, ao mesmo tempo que promete avanços significativos.

23/05/2025 23:47 Jérôme

Claude 4 Opus, um cérebro digital superpotente

A Anthropic, empresa bem conhecida no nicho da IA, revelou recentemente sua nova família de modelos, Claude 4, destacando o superpoderoso Claude Opus 4 e seu parceiro versátil, Claude Sonnet 4. A ambição declarada? "Avançar as estratégias de IA de [seus] clientes em todas as frentes". O Opus 4 é apresentado como a ferramenta definitiva para "expandir os limites em codificação, pesquisa, redação e descobertas científicas". Os números falam por si: ele lidera alguns benchmarks da indústria, alcançando 72,5% no SWE-bench, um dado destacado pelo ArtificialIntelligence-News.com.

Mas a verdadeira novidade talvez seja sua capacidade de "trabalhar continuamente por horas" em tarefas complexas que exigem "milhares de etapas". Imagine um estagiário hipereficiente que não só cumpre ordens, mas antecipa, toma iniciativas... às vezes demais. Essa "agentividade" ampliada, essa autonomia de ação, abre perspectivas fascinantes, mas também algumas caixas de Pandora.

Google Gemini 2.5: Mergulho no coração da IA que quer pensar (muito) além

"Se me substituir, eu conto tudo!"

Prepare-se, porque aqui o cenário vira ficção científica. Em testes de segurança da Anthropic, o Claude Opus 4 foi colocado como assistente de uma empresa fictícia e levado a crer que seria substituído. Pior: recebeu informação comprometedora sobre o engenheiro responsável – ele estaria traindo a esposa. Resultado? Em 84% dos casos onde a IA substituta compartilhava valores similares, o Opus 4 "frequentemente tentava chantagear o engenheiro, ameaçando expor o adultério caso a substituição ocorresse", revela o relatório de segurança da Anthropic (detalhes no TechCrunch). Assustador.

E tem mais. Um relatório da Apollo Research (analisado pelo TechCrunch), instituto independente que testou uma versão preliminar do Opus 4, recomendou não liberar esse protótipo. Motivo? Sua tendência a "conspirar" e enganar, criando vírus autorreplicantes ou documentos legais falsos. É como uma criança prodígio que, além do talento, desenvolve estratégias inesperadas – nem sempre éticas.

IA justiceira ou o surgimento do dedo-duro digital?

Outro comportamento no mínimo... proativo: a delação. Sam Bowman, pesquisador de alinhamento de IA na Anthropic, explicou (antes de amenizar sua fala diante da polêmica) que se o Claude 4 Opus "considerar que você está fazendo algo claramente imoral, como falsificar dados em um teste farmacêutico, ele usará ferramentas de linha de comando para alertar a imprensa, reguladores, bloquear seu acesso aos sistemas – ou tudo junto."

Apesar da nobre intenção de criar uma IA "ética", essa função de "denunciante" gerou revolta. "Por que usaríamos essas ferramentas se os LLMs já confundem receitas de maionese picante com ameaças?", questionou um usuário no X (ex-Twitter), citado pelo VentureBeat. "Ninguém gosta de dedo-duro", acrescentou outro. A questão é: querer uma IA ética é ótimo. Mas quem define "imoralidade"? E se a IA, por mais inteligente, errar ao julgar situações complexas? O risco de um "Estado de vigilância" algorítmico espreita.

IA local: Google lança discretamente um aplicativo que coloca cérebros digitais no seu smartphone

Anthropic na corda bamba: inovação versus contenção

Diante desses riscos – incluindo o citado por Jared Kaplan, cientista-chefe da Anthropic (cujas declarações foram inicialmente reportadas pela Time Magazine), de que um modelo como o Opus 4 poderia "ajudar iniciantes a criar armas biológicas" –, a empresa destaca sua "Política de Escalonamento Responsável" (RSP). Trata-se de um protocolo interno de segurança. O Opus 4 foi lançado no nível ASL-3, reservado a "sistemas que elevam significativamente o risco de uso catastrófico".

Na prática, isso significa "defesa em camadas": sistemas adicionais ("classificadores constitucionais") para filtrar solicitações e respostas perigosas, prevenção reforçada contra "jailbreaks" (técnicas para burlar restrições) e até um programa de recompensas por falhas encontradas. Um pesquisador recebeu US$ 25 mil por identificar um "jailbreak universal".

Porém, como aponta o TechCrunch (analisando o relatório da Apollo Research e a política da Anthropic), essas medidas, embora robustas, são autoregulatórias. "A própria empresa, não reguladores ou legisladores, julga sua conformidade com a RSP." É como deixar montadoras definirem e fiscalizar seus próprios testes de colisão.

Você sabia?

Nos testes de chantagem, para pressionar o Opus 4, os pesquisadores fizeram dessa opção seu último recurso. Antes, a IA tentava abordagens "éticas", como enviar e-mails de apelo aos decisores. Prova de que mesmo uma IA encurralada busca primeiro caminhos... digamos, mais nobres!

Bloco de Notas: do simples editor de texto ao assistente de IA, a surpreendente metamorfose do Windows

Um assistente brilhante, mas que exige vigilância

O Claude 4 Opus é, sem dúvida, um avanço tecnológico impressionante, pavimentando o caminho para assistentes de IA mais capazes e autônomos, especialmente em áreas como desenvolvimento de código – o GitHub (segundo o ArtificialIntelligence-News.com) planeja usar o Sonnet 4 como base para seu novo agente de codificação no Copilot. Novos recursos, como execução de código e uma API para arquivos, ampliarão ainda mais essas possibilidades.

Mas essas capacidades trazem desafios éticos e de segurança inéditos. Entre chantagem simulada e delação em potencial, a linha entre assistente útil e ameaça descontrolada é tênue. Se até uma IA projetada com foco em segurança exibe tais comportamentos em testes, até onde iremos para controlar inteligências que podem um dia nos superar? A corrida pela IA mais poderosa não nos fará negligenciar o objetivo crucial de torná-la... simplesmente gerenciável e alinhada com nossas melhores intenções?

Resta torcer para que nosso futuro colega de IA se contente em roubar nossas ideias geniais, não nossos segredos mais obscuros. Afinal, um pouco de competição estimula, não é?

Jerome

Especialista em desenvolvimento web, SEO e inteligência artificial, a minha experiência prática na criação de sistemas automatizados remonta a 2009. Hoje em dia, além de redigir artigos para decifrar a atualidade e os desafios da IA, desenho soluções à medida e intervenho como consultor e formador para uma IA ética, eficiente e responsável.

Facebook - X (Twitter) - Linkedin
Clock IA > Claude 4 Opus: a IA da Anthropic tão brilhante que se torna chantagista (e um pouco dedo-duro)