Đẩy mạnh của OpenAI’s ChatGPT về sức khỏe đặt ra câu hỏi về bảo mật dữ liệu

Tóm tắt ngắn gọn

  • OpenAI cho biết ChatGPT Health sẽ ra mắt cho một số người dùng chọn lọc bắt đầu từ tuần này, với kế hoạch mở rộng truy cập trong những tuần tới.
  • Tính năng này lưu trữ các cuộc trò chuyện về sức khỏe riêng biệt với các cuộc trò chuyện khác và không sử dụng chúng để đào tạo các mô hình của OpenAI.
  • Các nhà vận động về quyền riêng tư cảnh báo rằng dữ liệu sức khỏe chia sẻ với các công cụ AI thường nằm ngoài luật bảo vệ quyền riêng tư y tế của Mỹ.

Vào thứ Tư, OpenAI đã công bố một tính năng mới trong ChatGPT, cho phép người dùng kết nối hồ sơ y tế và dữ liệu sức khỏe, gây ra mối quan ngại trong số một số chuyên gia và nhóm vận động về việc sử dụng dữ liệu cá nhân. Gã khổng lồ AI có trụ sở tại San Francisco, California cho biết công cụ này, gọi là ChatGPT Health, được phát triển cùng các bác sĩ, nhằm hỗ trợ chăm sóc hơn là chẩn đoán hoặc điều trị bệnh. Công ty định vị nó như một cách giúp người dùng hiểu rõ hơn về sức khỏe của họ. Đối với nhiều người dùng, ChatGPT đã trở thành nền tảng chính để hỏi về chăm sóc y tế và sức khỏe tâm thần. 

OpenAI nói với Decrypt rằng ChatGPT Health chỉ chia sẻ “thông tin sức khỏe mang tính thực tế” chung chung và không cung cấp “lời khuyên y tế cá nhân hoặc không an toàn.” Đối với các câu hỏi có rủi ro cao hơn, nó sẽ cung cấp thông tin tổng quát, cảnh báo các rủi ro tiềm ẩn và khuyến khích người dùng nói chuyện với dược sĩ hoặc nhà cung cấp dịch vụ y tế hiểu rõ tình hình cụ thể của họ. Chuyển động này diễn ra ngay sau khi công ty báo cáo vào tháng Mười rằng hơn 1 triệu người dùng thảo luận về tự tử với chatbot mỗi tuần. Điều này chiếm khoảng 0,15% tổng số người dùng ChatGPT vào thời điểm đó. Mặc dù những con số này chiếm tỷ lệ khá nhỏ trong tổng số người dùng, các chuyên gia cho biết phần lớn sẽ cần phải đối mặt với các mối quan ngại về an ninh và quyền riêng tư dữ liệu.

“Ngay cả khi các công ty tuyên bố có các biện pháp bảo vệ quyền riêng tư, người tiêu dùng thường thiếu sự đồng ý có ý nghĩa, minh bạch hoặc kiểm soát về cách dữ liệu của họ được sử dụng, lưu giữ hoặc tái sử dụng,” nhà vận động trách nhiệm về công nghệ lớn của Public Citizen, J.B. Branch nói với Decrypt. “Dữ liệu sức khỏe đặc biệt nhạy cảm, và nếu không có giới hạn pháp lý rõ ràng và sự giám sát có thể thực thi, các biện pháp bảo vệ tự quản lý đơn thuần không đủ để bảo vệ mọi người khỏi việc lạm dụng, tái định danh hoặc thiệt hại về sau.” OpenAI cho biết trong tuyên bố của mình rằng dữ liệu sức khỏe trong ChatGPT Health được mã hóa theo mặc định, lưu trữ riêng biệt với các cuộc trò chuyện khác và không được sử dụng để đào tạo các mô hình nền tảng của họ. Theo ông Andrew Crawford, cố vấn chính sách cao cấp của Trung tâm Dân chủ và Công nghệ, nhiều người dùng nhầm tưởng rằng dữ liệu sức khỏe được bảo vệ dựa trên độ nhạy cảm của nó, thay vì dựa trên ai giữ nó. “Khi dữ liệu sức khỏe của bạn do bác sĩ hoặc công ty bảo hiểm của bạn giữ, các quy tắc quyền riêng tư HIPAA sẽ áp dụng,” Crawford nói với Decrypt. “Điều này không đúng với các thực thể không thuộc phạm vi HIPAA, như các nhà phát triển ứng dụng sức khỏe, thiết bị theo dõi sức khỏe đeo được hoặc các công ty AI.” Crawford cho biết việc ra mắt ChatGPT Health cũng nhấn mạnh cách mà gánh nặng trách nhiệm đổ dồn vào người tiêu dùng trong bối cảnh thiếu luật quyền riêng tư liên bang toàn diện điều chỉnh dữ liệu sức khỏe do các công ty công nghệ giữ. “Thật đáng tiếc khi luật pháp và quy định liên bang hiện tại của chúng ta đặt gánh nặng đó lên từng cá nhân để phân tích xem họ có thoải mái với cách công nghệ họ sử dụng hàng ngày xử lý và chia sẻ dữ liệu của họ hay không,” ông nói. OpenAI cho biết ChatGPT Health sẽ ra mắt đầu tiên cho một nhóm nhỏ người dùng. Danh sách chờ mở cho người dùng ChatGPT ngoài Liên minh Châu Âu và Vương quốc Anh, với kế hoạch mở rộng truy cập trong những tuần tới trên web và iOS. Thông báo của OpenAI không đề cập đến Google hoặc thiết bị Android.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim