O Anthropic Mythos elevou o debate sobre ataques cibernéticos autônomos após ser avaliado pelo AI Security Institute do Reino Unido. Em testes controlados, o modelo alcançou 73% de sucesso em desafios CTF de nível expert e foi o primeiro a concluir uma simulação completa de ataque corporativo em 32 etapas, o que acendeu alertas sobre o impacto da IA na segurança digital.
Como o Anthropic Mythos executa ataques cibernéticos autônomos
O AI Security Institute do Reino Unido conduziu uma série de testes independentes sobre as capacidades ofensivas do Mythos Preview. O objetivo era quantificar com precisão até onde um modelo de linguagem de fronteira poderia ir em tarefas de segurança ofensiva sem intervenção humana.
Os resultados superaram todos os modelos anteriores avaliados pelo instituto. O Mythos Preview executou com sucesso vulnerabilidades em sistemas operacionais e navegadores amplamente usados, identificou falhas não corrigidas de forma autônoma e encadeou etapas complexas de ataque. No entanto, o modelo falhou na simulação “Cooling Tower”, focada em tecnologia operacional, devido a problemas na seção de TI do ambiente controlado.
A avaliação utilizou um orçamento de 100 milhões de tokens, dentro do qual o desempenho do modelo escalou progressivamente. Os pesquisadores indicam que resultados ainda melhores são esperados com orçamentos maiores ou versões futuras.
Como o Anthropic Mythos executa ataques cibernéticos autônomos
O dado mais impactante da avaliação do AISI é o desempenho em desafios capture-the-flag de nível especialista: 73% de sucesso em tarefas que nenhum modelo conseguia completar antes de abril de 2025. Em apenas um ano, a progressão foi de capacidades básicas para um nível que rivaliza com profissionais de segurança experientes.
Além das CTFs, o Mythos Preview concluiu a simulação conhecida como “The Last Ones” (TLO), que representa um ataque completo a uma rede corporativa com 32 etapas sequenciais, desde o reconhecimento inicial até o controle total de múltiplos servidores. Humanos levam aproximadamente 20 horas para concluir a mesma simulação. O modelo realizou o processo de forma autônoma, sem orientação humana em cada etapa.
As capacidades incluem descoberta autônoma de vulnerabilidades, exploração de falhas, movimentação lateral entre sistemas e execução de ataques em múltiplos estágios. A Anthropic reconhece que o modelo permite que pessoas sem formação técnica avançada gerem exploits funcionais, algo que anteriormente exigia anos de especialização.
Por que a Anthropic restringiu o acesso ao Mythos Preview
Diante dos resultados das avaliações, a Anthropic decidiu não disponibilizar o Mythos Preview ao público geral. O modelo está sendo compartilhado de forma controlada com mais de 50 organizações selecionadas, incluindo institutos de pesquisa, agências governamentais e empresas de segurança que assinaram acordos de uso responsável.
A empresa também declarou que detalhes técnicos sobre as vulnerabilidades encontradas pelo modelo não serão divulgados publicamente, seguindo práticas de divulgação responsável. A decisão reflete a tensão crescente entre o avanço das capacidades dos modelos e a necessidade de proteger infraestruturas digitais críticas.
Esse modelo de distribuição controlada pode se tornar padrão para modelos com capacidades ofensivas demonstradas. Organizações como o AISI recomendam que reguladores e empresas do setor discutam critérios claros para definir quando um modelo requer restrições desse tipo, antes que versões ainda mais capazes sejam lançadas.
O que muda para a segurança digital com modelos como o Mythos
O impacto prático mais imediato é a compressão do ciclo de exploração de vulnerabilidades. Se antes uma falha descoberta levava semanas ou meses para ser transformada em exploit funcional, modelos como o Mythos reduzem esse tempo para horas. Para equipes de segurança, isso significa que a janela de resposta entre a descoberta de uma vulnerabilidade e seu uso malicioso diminui drasticamente.
Defensores da área apontam que a IA também pode ser usada pelo lado da proteção: varreduras automatizadas de vulnerabilidades, simulações de ataques para testes de penetração e análise contínua de exposição a riscos. No entanto, o uso ofensivo tende a ter vantagem estrutural, pois atacantes precisam encontrar apenas uma falha, enquanto defensores precisam cobrir toda a superfície de ataque.
Para organizações brasileiras, o cenário exige revisão de práticas básicas: gestão rigorosa de patches, controles de acesso com princípio de menor privilégio, monitoramento ativo de logs e configurações seguras por padrão. O AISI e especialistas do setor enfatizam que as mesmas medidas que protegem contra atacantes humanos continuam sendo a primeira linha de defesa contra ataques assistidos por IA.
O que esperar dos próximos modelos de IA e segurança
A avaliação do Mythos Preview marca um ponto de inflexão: pela primeira vez, um modelo de linguagem concluiu uma simulação completa de ataque corporativo de múltiplas etapas. A progressão histórica sugere que capacidades semelhantes ou superiores estarão disponíveis em modelos futuros, possivelmente com acesso menos restrito.
Institutos de segurança como o AISI recomendam que empresas e governos acelerem o desenvolvimento de estruturas regulatórias para avaliações obrigatórias de modelos antes do lançamento, com foco específico em capacidades ofensivas. A União Europeia, por meio do AI Act, já prevê avaliações para modelos de alto risco, mas os critérios para capacidades cibernéticas ainda estão em desenvolvimento.
Para o Brasil, o episódio reforça a importância de organizações como o recém-criado Conselho Nacional de Inteligência Artificial acompanharem de perto os desdobramentos internacionais e adaptarem diretrizes nacionais de segurança cibernética para o contexto de IA avançada.
Fonte: Relatório oficial do AISI
Análise Crítica
A decisão da Anthropic de restringir o Mythos Preview a 50 organizações é uma resposta pragmática a capacidades que a própria empresa reconhece como perigosas em mãos erradas. No entanto, levanta uma questão estrutural: a avaliação de riscos ficou nas mãos da empresa que desenvolveu o modelo.
O envolvimento de institutos independentes como o AISI é um avanço, mas a ausência de um framework regulatório vinculante para modelos com capacidades ofensivas demonstradas continua sendo a lacuna mais relevante do ecossistema atual.
A visão do canal Invente com IA
Para o canal Invente com IA, o Mythos Preview é um lembrete de que IA não é apenas produtividade e criatividade. A mesma tecnologia que automatiza relatórios e gera imagens também pode automatizar ataques. Compreender essa dualidade é essencial para qualquer profissional ou empresa que adota IA hoje. O fato de o modelo ser restrito não elimina o risco: capacidades semelhantes surgirão em modelos públicos nos próximos ciclos.




