Des frontières de l'IA Visuelle à l'Intelligence Spatiale : la vision de Fei-Fei Li pour la prochaine ère

Fei-Fei Li, la professeure de l’Université de Stanford souvent appelée la « marraine de l’IA », n’avait pas anticipé à quelle vitesse l’intelligence artificielle transformerait la société. Lors d’une discussion récente approfondie, elle a réfléchi à une carrière s’étendant sur 25 ans et partagé ses perspectives sur la direction que prend cette technologie à l’échelle de la civilisation — une direction qu’elle croit indubitablement orientée vers l’intelligence spatiale.

L’ampleur inattendue de la montée de l’IA

Lorsqu’on lui a demandé si elle était surprise par l’adoption explosive de l’IA dans le grand public, Li a reconnu le décalage entre sa longue immersion dans le domaine et sa trajectoire actuelle. « Je ne m’attendais jamais à ce que cela devienne aussi immense », a-t-elle révélé. La profondeur et l’étendue de l’impact de l’IA sur presque tous les aspects de l’existence humaine — travail, bien-être et perspectives d’avenir — la prennent encore au dépourvu. Ce qui distingue ce moment, ce n’est pas seulement la puissance technologique, mais plutôt sa omniprésence : chaque personne sur la planète sera confrontée à l’influence de l’IA d’une manière ou d’une autre.

Ce n’était pas toujours évident. Lorsque Li et sa génération de chercheurs ont créé ImageNet au début des années 2000, le paysage était tout autre. Les étudiants en master travaillaient avec des ensembles de données contenant seulement quatre à vingt catégories d’objets. En revanche, ImageNet représentait un saut quantique : 22 000 catégories d’objets et 15 millions d’images étiquetées. Cette avancée a directement catalysé la révolution de l’apprentissage profond qui alimente les applications d’aujourd’hui.

Un outil à double tranchant nécessitant une gestion humaine

Li encadre systématiquement la technologie sous un prisme équilibré : transformative mais intrinsèquement à double face. Tout au long de l’histoire de la civilisation humaine, les outils créés par l’homme ont principalement servi des buts bénéfiques, mais l’usage délibéré à mauvais escient et les conséquences involontaires restent des risques toujours présents. Elle insiste sur le fait que la responsabilité doit accompagner la capacité — en particulier lorsque celle-ci est concentrée entre peu de mains.

« Personnellement, j’espère que cette technologie pourra devenir plus démocratisée », a-t-elle souligné, plaidant pour un accès et une influence plus larges dans le développement de l’IA. Elle soutient que la démocratisation ne diminue pas la nécessité de supervision ; au contraire, elle répartit la responsabilité entre individus, entreprises et société dans son ensemble.

L’intelligence spatiale : la prochaine frontière logique

Aujourd’hui, Li est cofondatrice et PDG de World Labs, une startup valorisée à 1,1 milliard de dollars, dédiée à la pionnière dans ce qu’elle identifie comme la prochaine dimension critique de l’IA : l’intelligence spatiale. Alors que les grands modèles de langage dominent le discours contemporain, elle soutient que la compréhension de l’espace tridimensionnel — comment les objets se déplacent, comment les agents interagissent avec leur environnement, et comment les machines perçoivent la profondeur et les relations — mérite une importance équivalente.

« L’intelligence spatiale, c’est la capacité de l’IA à comprendre, percevoir, raisonner et interagir avec le monde », a expliqué Li. Cela représente la suite naturelle du travail sur l’intelligence visuelle, qui se concentrait sur la réception passive d’informations. L’évolution nous enseigne que voir et bouger sont indissociables ; l’intelligence elle-même est inséparable de l’action.

Marble, un modèle récemment présenté par World Labs, illustre cette orientation. Le système génère des environnements tridimensionnels à partir de simples instructions textuelles ou de photographies, permettant aux designers d’itérer rapidement, aux développeurs de jeux de sourcing des scènes 3D, et aux robots de s’entraîner via la simulation. Les applications éducatives vont encore plus loin : imaginez des filles afghanes assistant à des classes virtuelles, ou des élèves du primaire explorant des structures cellulaires en marchant virtuellement à l’intérieur d’une cellule pour observer directement les noyaux et les enzymes.

Faire face à la disruption du travail par la technologie

Li ne minimise pas les inquiétudes concernant l’emploi. Elle reconnaît que l’IA va profondément remodeler le paysage du travail, citant des exemples concrets comme le transfert par Salesforce de 50 % des rôles de service client vers des systèmes d’IA. Cependant, elle contextualise cela dans des schémas historiques. Chaque grand saut technologique — moteurs à vapeur, électricité, informatique, automobiles — a créé des transitions douloureuses tout en entraînant une restructuration des emplois. La réponse contemporaine doit être tout aussi nuancée : les individus doivent s’engager dans un apprentissage continu, tandis que les entreprises et la société portent des responsabilités complémentaires.

Superintelligence : gouvernance, pas inévitabilité

Concernant l’avertissement de Geoffrey Hinton sur un risque d’extinction de 10-20 % lié à une superintelligence artificielle, Li n’est pas d’accord avec cette formulation. Elle ne rejette pas la préoccupation en soi, mais la recentre sur l’action humaine. « Si l’humanité fait face à une crise, ce sera à cause de nos propres erreurs, pas des machines », a-t-elle affirmé. Plutôt que de voir la superintelligence comme une menace autonome, elle pose une question plus fondamentale : pourquoi l’humanité permettrait-elle collectivement un tel scénario ?

Cette perspective met en avant la gouvernance internationale, le développement responsable et les cadres réglementaires mondiaux — des mécanismes encore embryonnaires mais essentiels à cultiver. Li prône une supervision pragmatique au niveau international plutôt qu’une acceptation résignée du déterminisme technologique.

Énergie, renouvelables et pragmatisme réaliste

La question de savoir si de vastes centres de données provoqueront une catastrophe écologique a amené Li à distinguer entre la source d’énergie actuelle et l’inévitabilité technologique. Si les installations actuelles dépendent principalement des combustibles fossiles, elle soutient que l’innovation dans les énergies renouvelables et la restructuration des politiques peuvent rééquilibrer cette équation. Les pays qui mettent en place une infrastructure de grands centres de données ont aussi l’opportunité d’investir simultanément dans des systèmes énergétiques plus propres — une lueur d’espoir dans un problème difficile.

L’importance durable des valeurs centrées sur l’humain

Peut-être le plus réfléchi, ce sont les commentaires de Li sur l’éducation et le développement des enfants dans un monde saturé d’IA. Plutôt que de conseiller des pivots de carrière anxiogènes, elle prône le développement de qualités humaines intemporelles : curiosité, pensée critique, créativité, honnêteté et diligence. Les parents ne devraient pas s’obséder à faire étudier leurs enfants en informatique ; ils doivent plutôt encourager l’autonomie et la dignité, tout en comprenant les aptitudes et intérêts individuels.

Elle souligne un principe à la fois simple et profond : ne pas utiliser les outils pour la paresse ou le mal. Apprendre les mathématiques ne consiste pas à obtenir des réponses via de grands modèles de langage — c’est développer sa capacité de raisonnement. Les préoccupations d’authenticité autour des images, voix et textes générés par l’IA ne reflètent pas seulement des défis technologiques, mais aussi des échecs plus larges de communication à l’ère des médias sociaux.

La responsabilité d’un citoyen mondial

Le parcours personnel de Li — immigrer aux États-Unis à 15 ans, surmonter la barrière de la langue, gérer le pressing de sa famille tout en poursuivant ses études, bénéficier de mentors comme son professeur de mathématiques — influence sa vision de la responsabilité et de la résilience. Aujourd’hui, en tant que professeur à Stanford et PDG d’une startup d’IA, elle sait que sa plateforme a du poids. « L’initiative doit être entre les mains de l’humain », a-t-elle insisté. « L’initiative ne repose pas sur les machines, mais sur nous-mêmes. »

Cette conviction façonne tout ce que son organisation entreprend : créer une technologie transformative tout en la maniant de manière responsable. Ce n’est ni un technoutopisme ni un alarmisme dystopique, mais un centrage pragmatique ancré dans la rigueur scientifique et les valeurs humaines. À une époque où les capacités de l’IA s’étendent de façon presque incompréhensible, Fei-Fei Li reste convaincue que la sagesse humaine, la gouvernance et l’engagement éthique restent les ressources les plus précieuses de l’humanité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)