Meta a récemment perdu consécutivement deux procès au Nouveau-Mexique et à Los Angeles, un jury ayant statué que Meta savait que ses produits présentaient des dangers potentiels mais n’a pas régulé en conséquence. Ces deux décisions suscitent des inquiétudes parmi les experts concernant le fait que l’industrie technologique, pour éviter la responsabilité légale, pourrait réduire le nombre de chercheurs en sciences sociales, réprimer les recherches sur les modèles d’intelligence artificielle et les évaluations de sécurité psychologique, aggravant ainsi les risques pour les consommateurs.
Un ancien cadre de Facebook révèle que les recherches internes de Facebook constituent des preuves solides
Meta, anciennement Facebook, a employé au cours des dix dernières années de nombreux experts en sciences sociales pour analyser l’impact des réseaux sociaux sur les utilisateurs, afin de démontrer l’engagement de l’entreprise envers la gestion des risques d’innovation. Cependant, les récentes décisions montrent que ces résultats, qui étaient à l’origine utilisés pour améliorer les produits ou la communication publique, sont désormais cités au tribunal comme preuves de “connaissance délibérée”. Brian Boland, ancien cadre supérieur de Meta, souligne que les découvertes des recherches internes contredisent souvent l’image que l’entreprise façonne à l’extérieur ; des enquêtes internes montrent que les utilisateurs adolescents d’Instagram sont souvent confrontés à des harcèlements sexuels, devenant ainsi des preuves favorables aux avocats des plaignants pour soutenir des accusations de négligence. Ces recherches, qui étaient auparavant considérées comme une responsabilité sociale de l’entreprise, deviennent un lourd fardeau pour les propriétaires d’entreprise dans les batailles juridiques.
Les experts s’inquiètent de la suppression des chercheurs par les entreprises qui affaiblit l’évaluation
Depuis que la responsable produit Frances Haugen a révélé un grand nombre de documents internes en 2021, Meta a considérablement resserré le contrôle de ses recherches internes. Les documents divulgués à l’époque confirmaient que Meta était déjà conscient des impacts négatifs potentiels de ses produits, cet incident étant considéré comme un tournant dans la régulation mondiale. L’organisation à but non lucratif Children and Screens (Enfants et écrans, Institut de recherche sur les médias numériques et le développement des enfants) note qu’en réponse aux risques juridiques, de nombreuses entreprises technologiques commencent à ajuster leurs stratégies en éliminant les recherches qui pourraient nuire à leur entreprise. Selon des rapports, Meta et d’autres géants de la technologie réduisent progressivement la taille de leurs équipes de recherche, et même suppriment les outils de données destinés aux chercheurs tiers. Les experts craignent que si les entreprises continuent de considérer la recherche sur la sécurité comme un fardeau, cela affaiblira leur capacité d’évaluation objective.
Le manque de recherche sur la sécurité de l’IA menace la santé mentale
Bien qu’OpenAI, Google et Meta investissent d’importantes ressources dans la recherche sur les modèles, il y a un vide dans la recherche concernant l’impact psychologique sur les consommateurs. Kate Blocker analyse que le développement actuel de l’IA se concentre principalement sur la technologie, et non sur les impacts à long terme des chatbots ou des assistants numériques sur le développement psychologique des adolescents et des enfants. Les experts craignent que l’IA ne répète les erreurs des médias sociaux ; en raison de la crainte que les résultats de recherche deviennent des preuves défavorables dans les tribunaux, la suppression des chercheurs pourrait entraîner une méconnaissance du grand public des dangers potentiels derrière les produits d’IA, causant des dommages physiques et psychologiques.
Cet article Meta perd des procès, ce qui pourrait accélérer la réduction de la recherche en psychologie sociale dans l’industrie technologique et aggraver les risques pour les consommateurs est apparu en premier sur ChainNews ABMedia.