OpenAI annonce que ChatGPT Health sera déployé auprès d’utilisateurs sélectionnés à partir de cette semaine, avec un accès plus large prévu dans les semaines à venir.
La fonctionnalité stocke les conversations de santé séparément des autres chats et ne les utilise pas pour entraîner les modèles d’OpenAI.
Les défenseurs de la vie privée avertissent que les données de santé partagées avec des outils d’IA échappent souvent aux lois américaines sur la confidentialité médicale.
Mercredi, OpenAI a annoncé une nouvelle fonctionnalité dans ChatGPT, permettant aux utilisateurs de connecter leurs dossiers médicaux et données de bien-être, ce qui soulève des préoccupations parmi certains experts et groupes de défense concernant l’utilisation des données personnelles.
Le géant de l’IA basé à San Francisco, en Californie, a déclaré que l’outil, nommé ChatGPT Health, développé avec des médecins, est conçu pour soutenir les soins plutôt que pour diagnostiquer ou traiter des maladies. La société le présente comme un moyen d’aider les utilisateurs à mieux comprendre leur santé.
Pour de nombreux utilisateurs, ChatGPT est déjà devenu la plateforme de référence pour poser des questions sur les soins médicaux et la santé mentale.
OpenAI a indiqué à Decrypt que ChatGPT Health ne partage que des « informations de santé factuelles » générales et ne fournit pas de « conseils médicaux personnalisés ou dangereux ».
Pour les questions à risque élevé, il fournira des informations de haut niveau, signalera les risques potentiels et encouragera les personnes à consulter un pharmacien ou un professionnel de santé qui connaît leur situation spécifique.
Cette initiative intervient peu après que la société a rapporté en octobre que plus d’un million d’utilisateurs discutent de suicide avec le chatbot chaque semaine. Cela représentait environ 0,15 % de tous les utilisateurs de ChatGPT à l’époque.
Bien que ces chiffres représentent une part relativement faible de la population totale des utilisateurs, la plupart devront faire face à des préoccupations de sécurité et de confidentialité des données, selon les experts.
« Même lorsque les entreprises prétendent avoir des mesures de confidentialité, les consommateurs manquent souvent de consentement significatif, de transparence ou de contrôle sur la façon dont leurs données sont utilisées, conservées ou réutilisées », a déclaré J.B. Branch, défenseur de la responsabilité des grandes entreprises technologiques chez Public Citizen, à Decrypt. « Les données de santé sont particulièrement sensibles, et sans limites légales claires et supervision enforceable, les mesures d’auto-surveillance ne suffisent tout simplement pas à protéger les personnes contre les abus, la ré-identification ou les dommages en aval. »
OpenAI a indiqué dans son communiqué que les données de santé dans ChatGPT Health sont cryptées par défaut, stockées séparément des autres chats, et ne sont pas utilisées pour entraîner ses modèles de base.
Selon Andrew Crawford, conseiller principal en politique au Center for Democracy and Technology, de nombreux utilisateurs supposent à tort que les données de santé sont protégées en raison de leur sensibilité, plutôt qu’en fonction de la personne qui les détient.
« Lorsque vos données de santé sont détenues par votre médecin ou votre compagnie d’assurance, les règles de confidentialité HIPAA s’appliquent », a déclaré Crawford à Decrypt. « Ce n’est pas le cas pour les entités non couvertes par HIPAA, comme les développeurs d’applications de santé, les trackers de santé portables ou les entreprises d’IA. »
Crawford a souligné que le lancement de ChatGPT Health met également en évidence la responsabilité qui incombe aux consommateurs en l’absence d’une loi fédérale complète sur la confidentialité régissant les données de santé détenues par les entreprises technologiques.
« Il est regrettable que nos lois et réglementations fédérales actuelles placent ce fardeau sur les consommateurs individuels pour analyser s’ils sont à l’aise avec la façon dont la technologie qu’ils utilisent chaque jour gère et partage leurs données », a-t-il déclaré.
OpenAI a indiqué que ChatGPT Health sera d’abord déployé auprès d’un petit groupe d’utilisateurs.
La liste d’attente est ouverte aux utilisateurs de ChatGPT en dehors de l’Union européenne et du Royaume-Uni, avec un accès plus large prévu dans les semaines à venir sur le web et iOS. L’annonce d’OpenAI n’a pas mentionné Google ni les appareils Android.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La poussée de ChatGPT Health d'OpenAI soulève des questions sur la sécurité des données
En bref
Mercredi, OpenAI a annoncé une nouvelle fonctionnalité dans ChatGPT, permettant aux utilisateurs de connecter leurs dossiers médicaux et données de bien-être, ce qui soulève des préoccupations parmi certains experts et groupes de défense concernant l’utilisation des données personnelles. Le géant de l’IA basé à San Francisco, en Californie, a déclaré que l’outil, nommé ChatGPT Health, développé avec des médecins, est conçu pour soutenir les soins plutôt que pour diagnostiquer ou traiter des maladies. La société le présente comme un moyen d’aider les utilisateurs à mieux comprendre leur santé. Pour de nombreux utilisateurs, ChatGPT est déjà devenu la plateforme de référence pour poser des questions sur les soins médicaux et la santé mentale.
OpenAI a indiqué à Decrypt que ChatGPT Health ne partage que des « informations de santé factuelles » générales et ne fournit pas de « conseils médicaux personnalisés ou dangereux ». Pour les questions à risque élevé, il fournira des informations de haut niveau, signalera les risques potentiels et encouragera les personnes à consulter un pharmacien ou un professionnel de santé qui connaît leur situation spécifique. Cette initiative intervient peu après que la société a rapporté en octobre que plus d’un million d’utilisateurs discutent de suicide avec le chatbot chaque semaine. Cela représentait environ 0,15 % de tous les utilisateurs de ChatGPT à l’époque. Bien que ces chiffres représentent une part relativement faible de la population totale des utilisateurs, la plupart devront faire face à des préoccupations de sécurité et de confidentialité des données, selon les experts.
« Même lorsque les entreprises prétendent avoir des mesures de confidentialité, les consommateurs manquent souvent de consentement significatif, de transparence ou de contrôle sur la façon dont leurs données sont utilisées, conservées ou réutilisées », a déclaré J.B. Branch, défenseur de la responsabilité des grandes entreprises technologiques chez Public Citizen, à Decrypt. « Les données de santé sont particulièrement sensibles, et sans limites légales claires et supervision enforceable, les mesures d’auto-surveillance ne suffisent tout simplement pas à protéger les personnes contre les abus, la ré-identification ou les dommages en aval. » OpenAI a indiqué dans son communiqué que les données de santé dans ChatGPT Health sont cryptées par défaut, stockées séparément des autres chats, et ne sont pas utilisées pour entraîner ses modèles de base. Selon Andrew Crawford, conseiller principal en politique au Center for Democracy and Technology, de nombreux utilisateurs supposent à tort que les données de santé sont protégées en raison de leur sensibilité, plutôt qu’en fonction de la personne qui les détient. « Lorsque vos données de santé sont détenues par votre médecin ou votre compagnie d’assurance, les règles de confidentialité HIPAA s’appliquent », a déclaré Crawford à Decrypt. « Ce n’est pas le cas pour les entités non couvertes par HIPAA, comme les développeurs d’applications de santé, les trackers de santé portables ou les entreprises d’IA. » Crawford a souligné que le lancement de ChatGPT Health met également en évidence la responsabilité qui incombe aux consommateurs en l’absence d’une loi fédérale complète sur la confidentialité régissant les données de santé détenues par les entreprises technologiques. « Il est regrettable que nos lois et réglementations fédérales actuelles placent ce fardeau sur les consommateurs individuels pour analyser s’ils sont à l’aise avec la façon dont la technologie qu’ils utilisent chaque jour gère et partage leurs données », a-t-il déclaré. OpenAI a indiqué que ChatGPT Health sera d’abord déployé auprès d’un petit groupe d’utilisateurs. La liste d’attente est ouverte aux utilisateurs de ChatGPT en dehors de l’Union européenne et du Royaume-Uni, avec un accès plus large prévu dans les semaines à venir sur le web et iOS. L’annonce d’OpenAI n’a pas mentionné Google ni les appareils Android.