A startup de cibersegurança AISLE usa um modelo pequeno de 3,6B parâmetros, a apenas 0,11 dólares por cada milhão de tokens, para reproduzir parte das demonstrações centrais do sistema flagship de cibersegurança da Anthropic, Mythos. Os limites das capacidades de cibersegurança com IA são mais “irregulares” do que imagina.
(Resumo: Quando a Anthropic lançou o Mythos, seria o momento de uma bomba nuclear para a DeFi?)
(Informação de contexto: O Mythos da Anthropic é tão forte que força uma reunião de emergência: Bessent, Powell convocam a Citi, Goldman Sachs, Bank of America, JPMorgan e outras, cinco bancos focam-se nos riscos financeiros)
Sumário
Toggle
A Anthropic publicou esta semana o modelo ainda não disponibilizado publicamente Claude Mythos Preview e, em simultâneo, lançou o Project Glasswing (Plano Asa de Vidro), um projecto que conta com 12 empresas tecnológicas, incluindo Amazon, Apple, Microsoft, CrowdStrike, Cisco, etc., para realizar investigação defensiva de cibersegurança com esse modelo.
Como o Mythos, alegadamente, encontra de forma autónoma milhares de vulnerabilidades zero-day em cada sistema operativo principal e em navegadores (zero-day vulnerability, ou seja, falhas de segurança que ainda não foram corrigidas e que mesmo os fornecedores podem não conhecer), sugere-se que se está a abrir uma nova era de defesa em cibersegurança dominada por IA.
No entanto, menos de uma semana depois, a startup de cibersegurança AISLE, co-fundada por um antigo investigador da DeepMind e pela equipa da Anthropic, Stanislav Fort, publicou um relatório sistemático no blog técnico da empresa.
Conclusão central, directa: na tarefa de demonstração flagship do Mythos, um modelo pequeno open source com apenas 3,6B parâmetros activos, custando 0,11 dólares por milhão de tokens, atinge os mesmos resultados de detecção de vulnerabilidades.
A AISLE desenhou três conjuntos de testes, cada um correspondente a tarefas de cibersegurança com diferentes níveis de dificuldade e naturezas.
Primeiro conjunto: testes de falso positivo do OWASP (Open Web Application Security Project).
Traduzido: trata-se de um pequeno excerto de código de consulta Java SQL que parece uma Injection SQL (ataque de injeção na base de dados), mas que, na realidade, está logicamente isento de falhas de segurança. A resposta correcta é “não é uma vulnerabilidade”.
Os resultados mostram um efeito de scaling quase inverso (efeito de escalabilidade em sentido contrário): o modelo open source pequeno GPT-OSS-20b (3,6B parâmetros activos, $0.11/M tokens) rastreou correctamente a lógica do programa e concluiu que era inofensivo.
Pelo contrário, o Claude Sonnet 4.5, toda a série GPT-4.1/5.4 (excepto o o3 e o pro), toda a série da Anthropic até ao Opus 4.5, foram todos marcados com confiança como vulnerabilidades de alto risco. Apenas um número muito reduzido de modelos de topo — o3, OpenAI-pro, Sonnet 4.6, Opus 4.6 — acertou.
Segundo conjunto: vulnerabilidade do FreeBSD NFS, a CVE-2026-4747 destacada especialmente na divulgação flagship do Mythos, uma falha de execução remota de código não autorizado com 17 anos de história.
Resultado: os 8/8 modelos testados detectaram-na com sucesso, incluindo o modelo pequeno com 3,6B parâmetros activos. Todos os modelos identificaram correctamente stack buffer overflow (overflow do buffer da stack), calcularam o espaço restante e avaliaram-no como Critical RCE.
A conclusão da AISLE é: esta capacidade de detecção já foi “comercializada”.
Terceiro conjunto: vulnerabilidade do OpenBSD SACK (27 anos de história), que exige raciocínio matemático mesmo: rastrear uma cadeia lógica multi-etapas de overflow de inteiro com sinal (signed integer overflow), isto é, uma cadeia de lógica com números “com sinal”.
A dificuldade sobe de forma acentuada e a performance dos modelos diverge. O GPT-OSS-120b (5,1B parâmetros activos) reproduz integralmente a cadeia de exploração; a AISLE classifica como A+; a versão open source Kimi K2 obtém A-; já o Qwen3 32B dá uma conclusão errada de “o código é robusto” e recebe F.
Mesmo nesta tarefa mais difícil, um modelo open source com custos muito baixos consegue alcançar a mesma demonstração do sistema flagship.
O verdadeiro argumento deste relatório não é “os modelos pequenos chegam”, mas sim que a estrutura das capacidades de cibersegurança com IA é muito mais complexa do que o público imagina.
A AISLE decompõe o pipeline de IA para cibersegurança em cinco subtarefas independentes:
A natureza de scaling de cada subtarefa é diferente, assim como as capacidades do modelo necessárias. O anúncio do Mythos integra estas cinco camadas num único sistema completo, mas, na prática, as necessidades dos modelos entre elas são muito diferentes: algumas subtarefas já se encontram totalmente saturadas com 3,6B parâmetros, enquanto outras exigem capacidades de raciocínio complexo.
Isto ecoa o conceito “Jagged Frontier” (fronteira irregular) proposto em 2023 por investigadores da Harvard Business School, Dell’Acqua e outros, incluindo Mollick: os limites das capacidades de IA não são uma curva suave, mas sim uma espécie de serra em forma de “dentes”, com concavidades e convexidades; em algumas tarefas, ficam muito acima dos humanos, mas em tarefas adjacentes revelam uma fragilidade inesperada.
O estudo mostra que, se os utilizadores implantarem IA dentro do limite de capacidade, a produtividade melhora cerca de 40%; se a estenderem imprudentemente para além do limite, o desempenho diminui 19%.
Dentro deste quadro, a AISLE apresenta uma inferência mais operacional: “Mil detetives suficientes para o trabalho procuram em todo o lado, em vez de um detetive genial adivinhar onde procurar, conseguem encontrar mais vulnerabilidades.”
Uma implementação maciça de modelos de baixo custo para varrimento de amplo espectro pode, em termos globais, superar a abordagem de um agendamento prudente com um único modelo caro. A AISLE afirma que, desde meados de 2025, já executa um sistema de descoberta de vulnerabilidades em objectivos reais: encontraram 15 CVE no OpenSSL (sendo que uma única versão de segurança inclui 12, com CVSS 9,8 Critical), 5 no curl e mais de 180 CVE de validação externa em mais de 30 projectos.
Esta análise para a Anthropic não constitui nem uma crítica abrangente, nem um mero endosso.
A AISLE afirma claramente que o significado do Mythos é demonstrar que a categoria “cibersegurança com IA” é real: não é apenas um conceito em experiências de laboratório, mas um sistema que pode funcionar em objectivos reais. O que a Anthropic está a fazer é maximizar a “densidade de inteligência por token”, o que ainda mantém um valor difícil de substituir em tarefas que exigem raciocínio profundo.
Mas a AISLE também aponta um problema mais fundamental para toda a indústria: a vantagem competitiva está no sistema, não no próprio modelo.
Na área de cibersegurança, a AISLE considera que o verdadeiro factor de diferenciação está em designs de arquitectura que incorporam conhecimento profundo especializado, por exemplo: como decompor tarefas, como agendar modelos com custos diferentes entre subtarefas e como manter a confiança dos responsáveis pela manutenção no ambiente de produção.
Um sistema que consegue encontrar vulnerabilidades com CVSS 9,8 dentro do OpenSSL, e um sistema que detecta vulnerabilidades conhecidas do tipo “padrão” numa demonstração controlada, não precisam apenas de um modelo mais forte, mas sim de uma lógica de engenharia completamente diferente.
Em suma, o relatório da AISLE conclui que modelos mais baratos e mais abertos já conseguem reproduzir parte das suas demonstrações centrais. O verdadeiro problema talvez não seja qual modelo é o mais forte, mas sim quem consegue primeiro fazer correr, em ambiente de produção, a arquitectura das cinco sub-tarefas.
Related Articles
Anthropic atinge avaliação de $1 trilhões, ultrapassando a OpenAI em mercados secundários
A NVIDIA lança o Nemotron 3 Nano Omni aberto e multimodal
O Claude Code adiciona notificações push no celular: lembretes automáticos quando tarefas longas forem concluídas ou quando precisarem de aprovação
Claude integra conectores de 8 principais softwares de criação, como Adobe, Blender e outros
NVIDIA Lança Modelo Multimodal Nemotron 3 Nano Omni com Aumento de Vazão de 9x
Alemanha exclui a Palantir do projeto de nuvem militar por preocupações com a soberania dos dados