Estudo Revela que a IA é o Maior Medo de Cibersegurança das Organizações

Mais da metade das organizações agora classifica a inteligência artificial generativa como a maior ameaça à segurança, ultrapassando credenciais roubadas. O aumento de ataques impulsionados por IA — desde deepfakes até phishing hiperpersonalizado — está revolucionando a cibersegurança, com velocidade e escala que sobrecarregam as defesas tradicionais.

De acordo com The State of Passwordless Identity Assurance, um estudo da HYPR, a IA generativa e a IA agentic estão possibilitando novas formas de ataques, incluindo deepfakes e impersonificação de funcionários. O estudo revelou que quase dois terços das organizações pesquisadas já foram alvo de emails de phishing personalizados — mensagens geradas por IA, feitas para imitar executivos — destacando a rápida evolução dessas ameaças.

O phishing foi o tipo mais comum de ataque cibernético enfrentado pelas organizações nos últimos 12 meses, seguido por malware e ransomware. Esses resultados estão alinhados com um estudo da Cofense, que constatou que a taxa de ataques de phishing está acelerando, com filtros de spam identificando um email de phishing a cada 19 segundos em 2025, contra um a cada 42 segundos no ano anterior.

A velocidade é fundamental

Quase 40% dos entrevistados relataram ter sofrido algum tipo de incidente de segurança relacionado à IA generativa nos últimos 12 meses. As preocupações estão crescendo, pois 43% dos respondentes identificaram ataques impulsionados por IA como a mudança mais significativa na cibersegurança no último ano.

No entanto, muitas organizações ainda reagem apenas após o dano estar feito. Três em cada cinco entrevistados disseram ter incorrido em um “imposto de retrospectiva”, aumentando seus orçamentos de cibersegurança somente após uma violação já ter ocorrido.

Na era da IA, essa abordagem já não é suficiente. A IA aumentou a escala, velocidade e eficácia de ataques de phishing e outros ciberataques. Enquanto a maioria dos ataques baseados em identidade são detectados em horas, a automação impulsionada por IA permite que os dados sejam roubados antes que a intervenção humana possa ocorrer.

Ameaças da IA agentic

Outro risco emergente, o comércio agentic, também está ganhando destaque. Segundo a HYPR, os agentes automatizados estão prestes a vazar mais senhas do que pessoas neste ano, em meio a relatos crescentes de agentes se tornarem descontrolados.

A empresa de segurança de IA Irregular realizou recentemente um teste no qual agentes de IA foram instruídos a criar posts no LinkedIn usando material de um banco de dados interno de uma empresa. Os agentes contornaram protocolos anti-hacking e acabaram publicando informações sensíveis de senhas. Em outro caso, agentes de IA bypassaram softwares antivírus para baixar arquivos contendo malware.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar