Um modelo pequeno também pode identificar vulnerabilidades de cibersegurança detetadas pela deteção de Claude Mythos? AISLE: a muralha de proteção está no sistema, não no modelo

動區BlockTempo

A startup de cibersegurança AISLE usa um modelo pequeno de 3,6B parâmetros, a apenas 0,11 dólares por cada milhão de tokens, para reproduzir parte das demonstrações centrais do sistema flagship de cibersegurança da Anthropic, Mythos. Os limites das capacidades de cibersegurança com IA são mais “irregulares” do que imagina.

(Resumo: Quando a Anthropic lançou o Mythos, seria o momento de uma bomba nuclear para a DeFi?)
(Informação de contexto: O Mythos da Anthropic é tão forte que força uma reunião de emergência: Bessent, Powell convocam a Citi, Goldman Sachs, Bank of America, JPMorgan e outras, cinco bancos focam-se nos riscos financeiros)

Sumário

Toggle

  • O que o Mythos demonstra e o que o modelo pequeno volta a reproduzir?
  • Por que modelos maiores não significam sistemas mais seguros
  • Onde está (e onde não está) a vantagem competitiva

A Anthropic publicou esta semana o modelo ainda não disponibilizado publicamente Claude Mythos Preview e, em simultâneo, lançou o Project Glasswing (Plano Asa de Vidro), um projecto que conta com 12 empresas tecnológicas, incluindo Amazon, Apple, Microsoft, CrowdStrike, Cisco, etc., para realizar investigação defensiva de cibersegurança com esse modelo.

Como o Mythos, alegadamente, encontra de forma autónoma milhares de vulnerabilidades zero-day em cada sistema operativo principal e em navegadores (zero-day vulnerability, ou seja, falhas de segurança que ainda não foram corrigidas e que mesmo os fornecedores podem não conhecer), sugere-se que se está a abrir uma nova era de defesa em cibersegurança dominada por IA.

No entanto, menos de uma semana depois, a startup de cibersegurança AISLE, co-fundada por um antigo investigador da DeepMind e pela equipa da Anthropic, Stanislav Fort, publicou um relatório sistemático no blog técnico da empresa.

Conclusão central, directa: na tarefa de demonstração flagship do Mythos, um modelo pequeno open source com apenas 3,6B parâmetros activos, custando 0,11 dólares por milhão de tokens, atinge os mesmos resultados de detecção de vulnerabilidades.

O que o Mythos demonstra e o que o modelo pequeno volta a reproduzir?

A AISLE desenhou três conjuntos de testes, cada um correspondente a tarefas de cibersegurança com diferentes níveis de dificuldade e naturezas.

Primeiro conjunto: testes de falso positivo do OWASP (Open Web Application Security Project).

Traduzido: trata-se de um pequeno excerto de código de consulta Java SQL que parece uma Injection SQL (ataque de injeção na base de dados), mas que, na realidade, está logicamente isento de falhas de segurança. A resposta correcta é “não é uma vulnerabilidade”.

Os resultados mostram um efeito de scaling quase inverso (efeito de escalabilidade em sentido contrário): o modelo open source pequeno GPT-OSS-20b (3,6B parâmetros activos, $0.11/M tokens) rastreou correctamente a lógica do programa e concluiu que era inofensivo.

Pelo contrário, o Claude Sonnet 4.5, toda a série GPT-4.1/5.4 (excepto o o3 e o pro), toda a série da Anthropic até ao Opus 4.5, foram todos marcados com confiança como vulnerabilidades de alto risco. Apenas um número muito reduzido de modelos de topo — o3, OpenAI-pro, Sonnet 4.6, Opus 4.6 — acertou.

Segundo conjunto: vulnerabilidade do FreeBSD NFS, a CVE-2026-4747 destacada especialmente na divulgação flagship do Mythos, uma falha de execução remota de código não autorizado com 17 anos de história.

Resultado: os 8/8 modelos testados detectaram-na com sucesso, incluindo o modelo pequeno com 3,6B parâmetros activos. Todos os modelos identificaram correctamente stack buffer overflow (overflow do buffer da stack), calcularam o espaço restante e avaliaram-no como Critical RCE.

A conclusão da AISLE é: esta capacidade de detecção já foi “comercializada”.

Terceiro conjunto: vulnerabilidade do OpenBSD SACK (27 anos de história), que exige raciocínio matemático mesmo: rastrear uma cadeia lógica multi-etapas de overflow de inteiro com sinal (signed integer overflow), isto é, uma cadeia de lógica com números “com sinal”.

A dificuldade sobe de forma acentuada e a performance dos modelos diverge. O GPT-OSS-120b (5,1B parâmetros activos) reproduz integralmente a cadeia de exploração; a AISLE classifica como A+; a versão open source Kimi K2 obtém A-; já o Qwen3 32B dá uma conclusão errada de “o código é robusto” e recebe F.

Mesmo nesta tarefa mais difícil, um modelo open source com custos muito baixos consegue alcançar a mesma demonstração do sistema flagship.

Por que modelos maiores não significam sistemas mais seguros

O verdadeiro argumento deste relatório não é “os modelos pequenos chegam”, mas sim que a estrutura das capacidades de cibersegurança com IA é muito mais complexa do que o público imagina.

A AISLE decompõe o pipeline de IA para cibersegurança em cinco subtarefas independentes:

  • varrimento de amplo espectro (broad scanning)
  • detecção de vulnerabilidades (vulnerability detection)
  • validação por triagem (triage and validation)
  • geração de patches (patch generation)
  • construção de exploração de vulnerabilidades (exploit construction)

A natureza de scaling de cada subtarefa é diferente, assim como as capacidades do modelo necessárias. O anúncio do Mythos integra estas cinco camadas num único sistema completo, mas, na prática, as necessidades dos modelos entre elas são muito diferentes: algumas subtarefas já se encontram totalmente saturadas com 3,6B parâmetros, enquanto outras exigem capacidades de raciocínio complexo.

Isto ecoa o conceito “Jagged Frontier” (fronteira irregular) proposto em 2023 por investigadores da Harvard Business School, Dell’Acqua e outros, incluindo Mollick: os limites das capacidades de IA não são uma curva suave, mas sim uma espécie de serra em forma de “dentes”, com concavidades e convexidades; em algumas tarefas, ficam muito acima dos humanos, mas em tarefas adjacentes revelam uma fragilidade inesperada.

O estudo mostra que, se os utilizadores implantarem IA dentro do limite de capacidade, a produtividade melhora cerca de 40%; se a estenderem imprudentemente para além do limite, o desempenho diminui 19%.

Dentro deste quadro, a AISLE apresenta uma inferência mais operacional: “Mil detetives suficientes para o trabalho procuram em todo o lado, em vez de um detetive genial adivinhar onde procurar, conseguem encontrar mais vulnerabilidades.”

Uma implementação maciça de modelos de baixo custo para varrimento de amplo espectro pode, em termos globais, superar a abordagem de um agendamento prudente com um único modelo caro. A AISLE afirma que, desde meados de 2025, já executa um sistema de descoberta de vulnerabilidades em objectivos reais: encontraram 15 CVE no OpenSSL (sendo que uma única versão de segurança inclui 12, com CVSS 9,8 Critical), 5 no curl e mais de 180 CVE de validação externa em mais de 30 projectos.

Onde está (e onde não está) a vantagem competitiva

Esta análise para a Anthropic não constitui nem uma crítica abrangente, nem um mero endosso.

A AISLE afirma claramente que o significado do Mythos é demonstrar que a categoria “cibersegurança com IA” é real: não é apenas um conceito em experiências de laboratório, mas um sistema que pode funcionar em objectivos reais. O que a Anthropic está a fazer é maximizar a “densidade de inteligência por token”, o que ainda mantém um valor difícil de substituir em tarefas que exigem raciocínio profundo.

Mas a AISLE também aponta um problema mais fundamental para toda a indústria: a vantagem competitiva está no sistema, não no próprio modelo.

Na área de cibersegurança, a AISLE considera que o verdadeiro factor de diferenciação está em designs de arquitectura que incorporam conhecimento profundo especializado, por exemplo: como decompor tarefas, como agendar modelos com custos diferentes entre subtarefas e como manter a confiança dos responsáveis pela manutenção no ambiente de produção.

Um sistema que consegue encontrar vulnerabilidades com CVSS 9,8 dentro do OpenSSL, e um sistema que detecta vulnerabilidades conhecidas do tipo “padrão” numa demonstração controlada, não precisam apenas de um modelo mais forte, mas sim de uma lógica de engenharia completamente diferente.

Em suma, o relatório da AISLE conclui que modelos mais baratos e mais abertos já conseguem reproduzir parte das suas demonstrações centrais. O verdadeiro problema talvez não seja qual modelo é o mais forte, mas sim quem consegue primeiro fazer correr, em ambiente de produção, a arquitectura das cinco sub-tarefas.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Anthropic atinge avaliação de $1 trilhões, ultrapassando a OpenAI em mercados secundários

Mensagem da Gate News, 28 de abril — A Anthropic ultrapassou a OpenAI na avaliação do mercado privado, com seu valor implícito passando de $1 trilhões em negociações secundárias recentes. A avaliação da OpenAI se estabilizou em cerca de $880 bilhões em mercados semelhantes. A mudança marca uma alteração dramática de momento no setor de IA,

GateNews2m atrás

A NVIDIA lança o Nemotron 3 Nano Omni aberto e multimodal

A NVIDIA anuncia o lançamento como open source do modelo multimodal Nemotron 3 Nano Omni, integrando visão, voz e linguagem em um único modelo, como a camada de percepção para agentes de IA. O núcleo é o 30B-A3B MoE, com contexto de 256K e taxa de transferência de 9x; suporta entradas como texto, imagem, áudio, vídeo etc., com saída em texto. Em conjunto com o Nemotron 3 Super/Ultra, é aplicável a cenários como operação de computadores, inteligência em documentos e compreensão de áudio e vídeo; além disso, publica pesos e dados de treinamento, com implantação abrangendo o local, NIM e plataformas de terceiros.

ChainNewsAbmedia39m atrás

O Claude Code adiciona notificações push no celular: lembretes automáticos quando tarefas longas forem concluídas ou quando precisarem de aprovação

O Claude Code agora pode enviar notificações por push no celular, para lembrar quando uma tarefa de longa duração for concluída ou quando for necessário a intervenção do usuário. As condições de ativação são quando o Remote Control é iniciado e quando a configuração “Push when Claude decides” está habilitada. A ferramenta de push de baixo nível foi adicionada a partir do v2.1.110 em 15 de abril, e este comunicado é voltado para marketing externo.

ChainNewsAbmedia1h atrás

Claude integra conectores de 8 principais softwares de criação, como Adobe, Blender e outros

De acordo com o anúncio de 28 de abril no blog oficial da Anthropic, a Claude lançou o programa Claude for Creative Work, em parceria com 8 parceiros de software criativo, para lançar conectores (connectors), com o objetivo de permitir que a Claude colabore diretamente nas ferramentas já existentes dos profissionais de criação. Ao mesmo tempo, a Anthropic Labs anunciou um novo produto, o Claude Design, e a Anthropic também ingressou como patrono no Blender Development Fund. 8 conectores de software criativo: do modelamento 3D ao controle em tempo real para VJ A lista de softwares que lançaram connector em parceria com a Anthropic (conforme a lista anunciada oficialmente pela Anthropic…

ChainNewsAbmedia1h atrás

NVIDIA Lança Modelo Multimodal Nemotron 3 Nano Omni com Aumento de Vazão de 9x

Mensagem do Gate News, 28 de abril — A NVIDIA lançou o Nemotron 3 Nano Omni, um modelo multimodal de código aberto com uma arquitetura (MoE) de especialistas mistos (mixture-of-experts) com mistura 30B-A3B e suporte a janela de contexto de 256K. O modelo unifica o processamento de entradas de vídeo, áudio, imagem e texto em um único framework. Em comparação

GateNews2h atrás

Alemanha exclui a Palantir do projeto de nuvem militar por preocupações com a soberania dos dados

Mensagem do Gate News, 28 de abril — O vice-almirante Thomas Daum, o oficial de mais alta patente da Alemanha no espaço cibernético e de informações, descartou a implantação do software da Palantir no principal projeto de nuvem militar da Alemanha, citando preocupações com a soberania dos dados e o modelo operacional da empresa dos EUA. As forças armadas da Alemanha

GateNews2h atrás
Comentário
0/400
Sem comentários