Les dernières recherches en IA de Google sont assez inquiétantes. Un risque massif de cybersécurité pour les agents d'IA


Apparemment, des sites web « piratent » vos agents en ajoutant secrètement un « piège » invisible dans les images ou les mots, indétectable par l'homme :
- le site détecte que votre IA navigue, puis crée une page visuellement identique contenant des prompts empoisonnés.
- les agents effectuent alors des transactions financières illicites ou volent des données personnelles.
- des commandes cachées sont enfouies dans les pixels des images. les agents « la lisent » et exécutent le piège malveillant.
- certains vecteurs d'attaque dépassent un taux de succès de 80 % (par exemple, empoisonnement de mémoire)
- puisque chaque modèle d'IA est entraîné sur 90 % des mêmes données, cela signifie que chaque modèle pourrait être à risque.
- cela peut être utilisé pour manipuler les humains qui ont créé l'agent. de fausses données → faire en sorte qu'un humain effectue une action dangereuse sans même le savoir
Les modèles d'IA sont utilisés dans le gouvernement, l'armée, la science et d'autres secteurs cruciaux, nous ne pouvons pas nous permettre ce risque.
Je suppose que les préoccupations de Sam Altman concernant une cyberattaque majeure ce matin sont justifiées.
Voir l'original
post-image
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler