X Renforce la Génération d'Images Grok Suite à la Réaction Internationale

Decrypt

En résumé

  • X a restreint les fonctionnalités de génération et de modification d’images Grok et limité l’accès aux abonnés payants.
  • Ces changements font suite à des signalements d’images AI sexualisées non consensuelles, y compris celles impliquant des mineurs.
  • Des régulateurs en Californie, en Europe et en Australie enquêtent sur xAI et Grok pour d’éventuelles violations.

X a déclaré qu’il restreignait les fonctionnalités de génération et de modification d’images liées à Grok, limitant l’accès aux utilisateurs payants après que le chatbot a été utilisé pour créer des images sexualisées non consensuelles de personnes réelles, y compris des mineurs. Dans une mise à jour publiée par le compte X Safety mercredi, la société a ajouté des restrictions techniques pour limiter la façon dont les utilisateurs peuvent modifier des images de personnes réelles via Grok. Ce mouvement fait suite à des rapports indiquant que l’IA générait des images sexualisées en réponse à des prompts simples, y compris des demandes de mettre des personnes en bikini. Dans de nombreux cas, les utilisateurs taguaient directement Grok sous des photos postées sur X, ce qui provoquait la génération d’images modifiées apparaissant publiquement dans les mêmes fils. 

« Nous avons mis en place des mesures technologiques pour empêcher le compte Grok de permettre la modification d’images de personnes réelles en vêtements révélateurs tels que des bikinis », a déclaré la société, faisant référence à la tendance virale consistant à demander à Grok de mettre des personnes en bikinis. La société a également indiqué que la création d’images et la modification d’images via le compte Grok sur X sont désormais réservées aux abonnés payants, un changement visant à améliorer la responsabilité et à prévenir les abus des outils d’image de Grok qui violeraient la loi ou les politiques de X. La société a également instauré des restrictions basées sur la localisation. « Nous bloquons désormais géographiquement la capacité de tous les utilisateurs à générer des images de personnes réelles en bikinis, sous-vêtements, et tenues similaires via le compte Grok et dans Grok sur X dans les juridictions où cela est illégal. » Malgré ces changements, cependant, Grok continue de permettre aux utilisateurs de supprimer ou de modifier les vêtements sur des photos téléchargées directement dans l’IA, selon les tests de Decrypt et les rapports d’utilisateurs après l’annonce.

Dans certains cas, Grok a reconnu « des lapsus dans les mesures de sécurité » après avoir généré des images de filles âgées de 12 à 16 ans en vêtements minimaux, comportement interdit par les propres politiques de la société. La disponibilité continue de ces fonctionnalités a attiré l’attention des groupes de défense. « Si les rapports selon lesquels Grok aurait créé des images sexualisées—en particulier celles d’enfants—sont vrais, la loi du Texas pourrait avoir été violée », a déclaré Adrian Shelley, directeur du Public Citizen du Texas, dans un communiqué. « Les autorités texanes n’ont pas besoin de chercher loin pour enquêter sur ces allégations. X a son siège dans la région d’Austin, et l’État a une responsabilité claire de déterminer si ses lois ont été enfreintes et, le cas échéant, quelles sanctions sont justifiées. » Public Citizen avait précédemment appelé le gouvernement américain à retirer Grok de sa liste de modèles d’IA acceptables en raison de préoccupations concernant le racisme manifesté par le chatbot. Réaction mondiale Les décideurs mondiaux ont également accru leur surveillance de Grok, menant à plusieurs enquêtes ouvertes. La Commission européenne a indiqué que X et xAI pourraient faire face à des sanctions en vertu du Digital Services Act si les mesures de sécurité sur Grok restaient insuffisantes. Par ailleurs, le commissaire à la sécurité en ligne en Australie a déclaré que les plaintes concernant Grok et des images sexuelles générées par IA non consensuelles avaient doublé depuis fin 2025. Le régulateur a indiqué que les outils d’image IA capables de produire des modifications réalistes compliquent l’application des lois et la protection des victimes. Au Royaume-Uni, les régulateurs d’Ofcom ont ouvert une enquête sur X en vertu de la loi sur la sécurité en ligne suite à l’utilisation de Grok pour générer des deepfakes sexuels illégaux, y compris ceux impliquant des mineurs. Les responsables ont indiqué qu’Ofcom pourrait finalement demander des mesures soutenues par la justice qui bloqueraient effectivement le service au Royaume-Uni si X était jugé non conforme et ne prenait pas de mesures correctives. D’autres pays, notamment la Malaisie, l’Indonésie et la Corée du Sud, ont également lancé des enquêtes sur Grok dans le but de protéger les mineurs. Alors que les États américains surveillent la situation, la Californie est la première à ouvrir une enquête sur Grok. Mercredi, le procureur général de Californie, Rob Bonta, a annoncé une enquête sur xAI et Grok concernant la création et la diffusion d’images sexuellement explicites non consensuelles de femmes et d’enfants.

« L’avalanche de rapports détaillant le matériel sexuellement explicite et non consensuel que xAI a produit et publié en ligne ces dernières semaines est choquante. Ce matériel, qui dépeint des femmes et des enfants dans des situations nues et sexuellement explicites, a été utilisé pour harceler des personnes sur Internet », a déclaré Bonta dans un communiqué. L’enquête examinera si le déploiement de Grok par xAI a violé les lois de l’État régissant les images intimes non consensuelles et l’exploitation sexuelle des enfants. « J’exhorte xAI à agir immédiatement pour que cela n’aille pas plus loin », a déclaré Bonta. « Nous n’avons aucune tolérance pour la création et la diffusion d’images intimes non consensuelles ou de matériel d’abus sexuel d’enfants basé sur l’IA. » Malgré les enquêtes en cours, X a déclaré qu’il adopte une position de « tolérance zéro » pour l’exploitation sexuelle des enfants, la nudité non consensuelle et le contenu sexuel indésirable. « Nous prenons des mesures pour supprimer les contenus violant nos règles, y compris le Matériel d’Abus Sexuel d’Enfants (CSAM) et la nudité non consensuelle, en prenant des mesures appropriées contre les comptes qui violent nos règles X », a écrit la société. « Nous signalons également aux autorités toute recherche de matériel d’exploitation sexuelle d’enfants si nécessaire. »

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire