Terça-feira, 21 de abril de 2026
Por Redação do Jornal O Sul | 21 de abril de 2026
Representantes de governos, bancos e do mercado financeiro dos Estados Unidos, Reino Unido e Canadá demonstraram preocupação nos últimos dias com o Claude Mythos, novo modelo de inteligência artificial (IA) da Anthropic. Apontado pela própria empresa como sua “IA mais poderosa”, o sistema também levanta dúvidas sobre o quanto desses avanços representam riscos reais ou fazem parte de uma estratégia de comunicação da companhia liderada por Dario Amodei.
Na documentação técnica, a Anthropic afirma que o modelo é capaz de identificar e explorar falhas de forma autônoma em sistemas operacionais, navegadores e softwares, tanto de código aberto quanto fechado. Segundo a empresa, até engenheiros sem formação específica em segurança conseguiram usar a IA para encontrar vulnerabilidades complexas em pouco tempo, o que, na prática, poderia ampliar o alcance de ataques cibernéticos.
O tema repercutiu no setor financeiro. A diretora-gerente do Fundo Monetário Internacional (FMI), Kristalina Georgieva, afirmou que “não temos capacidade coletiva de proteger o sistema monetário internacional contra riscos cibernéticos de grande magnitude”.
Antes disso, o secretário do Tesouro dos Estados Unidos, Scott Bessent, e o presidente do Federal Reserve, Jerome Powell, convocaram executivos de grandes bancos, como JPMorgan Chase, Bank of America, Citigroup, Goldman Sachs, Morgan Stanley e Wells Fargo, para discutir os possíveis impactos da tecnologia. Reguladores do Reino Unido adotaram medidas semelhantes.
A preocupação ganhou força após a Anthropic anunciar o Projeto Glasswing, consórcio que reúne 45 organizações, incluindo Amazon, Apple, Broadcom, Cisco, Google, Linux Foundation, Microsoft e Nvidia. O objetivo é permitir que essas empresas testem o Mythos antes de uma eventual liberação pública.
Como o sistema ainda não foi disponibilizado ao público, as avaliações se baseiam na documentação oficial e em testes conduzidos pelos parceiros. Para especialistas, há indícios de avanços relevantes. O professor de inteligência artificial Edney Souza, da ESPM e do Insper, afirma que “o Mythos tem resultados que sustentam a narrativa de risco”. Segundo ele, em um teste chamado Cybench, o modelo atingiu 100% de sucesso na exploração de vulnerabilidades reais e identificou uma falha antiga no sistema FreeBSD.
O Cybench é um conjunto de 40 desafios públicos voltados à avaliação de capacidades de IA em cibersegurança. Após atingir o limite do teste, a Anthropic informou que busca novas métricas para medir o desempenho de seus modelos.
O AI Security Institute (AISI), ligado ao governo britânico, também avaliou o sistema e concluiu que “o Mythos representa um avanço em relação aos modelos anteriores, em um cenário de rápida evolução do desempenho cibernético”. O instituto destacou a capacidade do modelo de operar de forma autônoma e resolver etapas complexas de ataques simulados, como no teste “The Last Ones”.
Outro ponto observado é que o desempenho da IA tende a melhorar conforme processa mais dados. Para Fabio Assolini, diretor de pesquisa da Kaspersky, “modelos desse tipo permitem analisar grandes volumes de código de forma contínua, sem as limitações humanas, o que amplia a capacidade de encontrar falhas”.
Especialistas alertam que, em mãos mal-intencionadas, a tecnologia pode facilitar ataques cibernéticos, inclusive por usuários com menor conhecimento técnico. Ao mesmo tempo, parte do setor avalia que o desenvolvimento controlado pode ajudar na preparação de empresas e governos. Para Fernando de Falchi, da Check Point Software, “faz sentido preparar o mercado para o que está por vir”, diante do potencial de impacto dessas ferramentas.
(Com O Globo)