Le « Plan Bunker » de Hasabis : comment le nouveau livre révèle la faillite de l'idéal de sécurité de DeepMind

BlockBeatNews

Selon la surveillance de 1M AI News, The Atlantic a publié un extrait du nouveau livre de l’historien de la technologie et de l’histoire financière Sebastian Mallaby, intitulé The Infinity Machine, qui, basé sur des interviews continues entre 2023 et 2026, retrace l’évolution de la philosophie de sécurité de l’IA de Demis Hassabis, co-fondateur de Google DeepMind, depuis l’acquisition de Google en 2014.

Dans ses premières années, Hassabis a imaginé qu’une seule équipe scientifique pourrait construire une super-intelligence en toute sécurité pour l’humanité, envisageant même de retirer des chercheurs de haut niveau dans un bunker secret à des moments critiques, similaire au projet Manhattan. Un chercheur ayant rejoint peu après se souvient que Hassabis lui avait averti à la fin de l’entretien de se préparer mentalement à “s’envoler à tout moment vers un endroit secret au Maroc”.

Lors de l’acquisition de DeepMind par Google en 2014, Hassabis a posé des conditions rares : établir un comité de supervision externe indépendant, interdire les applications militaires, et Google ne devait pas contrôler entièrement le déploiement de la technologie. Google a accepté. L’année suivante, il a convoqué une réunion secrète au siège de Musk à Hawthorne, en Californie, dans le but de rassembler des concurrents potentiels sous une seule bannière, ce qui a eu l’effet inverse : Musk a ensuite co-fondé OpenAI avec Sam Altman.

Hassabis a ensuite lancé une opération secrète nommée “Project Mario”, tentant de récupérer l’autonomie de gouvernance de Google, formant une équipe juridique, obtenant un engagement de financement de 1 milliard de dollars de Reid Hoffman, le fondateur de LinkedIn, et envisageant de scinder DeepMind de Google. Cette lutte a duré trois ans et a finalement échoué. Le co-fondateur Mustafa Suleyman a également été contraint de quitter l’entreprise en 2019.

À la fin de 2022, après le lancement de ChatGPT, Hassabis a complètement abandonné son approche hautaine de ne faire que de la science bénéfique. Il a déclaré à Mallaby, “C’est une guerre”, puis s’est engagé pleinement dans la compétition entre Gemini et ChatGPT. Des centaines de milliards de dollars ont afflué dans la course aux armements de l’IA, et ni la réglementation nationale ni la structure de gouvernance des entreprises n’ont pu arrêter la compétition. La philosophie de sécurité de Hassabis a également fondamentalement changé : “La sécurité ne réside pas dans la structure de gouvernance, même s’il y a un comité de gouvernance, il y a de fortes chances qu’il ne prenne pas la bonne décision en temps de crise.” Sa nouvelle stratégie est de s’assurer qu’il a “une place à la table des décisions, afin de pouvoir participer à la détermination des solutions lorsque des problèmes de sécurité surviennent”. Pendant ce temps, Google a activement commencé à promouvoir l’IA auprès du système de défense américain, ce qui constitue un virage frappant par rapport à l’interdiction militaire qu’Hassabis avait établie lors de l’acquisition.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire