Khám phá SCENE
Các nhà lập pháp Mỹ được cho là đã triệu tập một số công ty phát triển AI để giải thích cách mà một số mô hình đã trở thành một phần của nỗ lực gián điệp rộng rãi.
Trong số đó có Giám đốc điều hành Anthropic Dario Amodei, người đã được yêu cầu xuất hiện trước Ủy ban An ninh Nội địa Hạ viện vào ngày 17 tháng 12 để giải thích cách mà các tác nhân nhà nước Trung Quốc đã sử dụng Claude Code, theo một báo cáo Axios được công bố hôm thứ Tư, trích dẫn các bức thư được chia sẻ trong riêng tư.
Vào đầu tháng này, Anthropic đã tiết lộ rằng một nhóm hacker liên quan đến nhà nước Trung Quốc đã sử dụng công cụ Claude Code của họ để thực hiện những gì công ty mô tả là cuộc tấn công mạng quy mô lớn đầu tiên được tự động hóa chủ yếu bởi một hệ thống AI.
Hoạt động dưới tên nhóm GTG-1002, những kẻ tấn công đã tổ chức một chiến dịch nhắm mục tiêu vào khoảng 30 tổ chức, với Claude Code phụ trách hầu hết các giai đoạn theo Anthropic: thu thập thông tin, quét lỗ hổng, tạo khai thác, thu thập thông tin đăng nhập và rò rỉ dữ liệu.
Người chủ trì cuộc điều tra tiếp theo là Đại diện Andrew Garbarino (R-NY) cùng với hai trưởng tiểu ban.
Ủy ban muốn Amodei nêu rõ chính xác khi nào Anthropic lần đầu tiên phát hiện hoạt động, cách mà những kẻ tấn công đã lợi dụng các mô hình của nó trong các giai đoạn khác nhau của vụ vi phạm, và những biện pháp bảo vệ nào đã thất bại hoặc thành công trong suốt chiến dịch. Phiên điều trần cũng sẽ có các giám đốc điều hành của Google Cloud và Quantum Xchange, theo Axios.
“Lần đầu tiên, chúng ta thấy một đối thủ nước ngoài sử dụng một hệ thống AI thương mại để thực hiện gần như toàn bộ một hoạt động mạng với sự tham gia tối thiểu của con người,” Garbarino nói trong một tuyên bố được trích dẫn trong báo cáo ban đầu. “Điều đó nên khiến mọi cơ quan liên bang và mọi lĩnh vực cơ sở hạ tầng quan trọng phải lo ngại.”
Decrypt đã liên hệ với Đại diện Garbarino, Google Cloud, Quantum Xchange và Anthropic để xin ý kiến.
Sự giám sát của quốc hội diễn ra ngay sau một cảnh báo riêng từ dịch vụ an ninh của Anh MI5, dịch vụ này đã đưa ra một cảnh báo cho các nhà lập pháp của Anh vào tuần trước sau khi phát hiện các sĩ quan tình báo Trung Quốc sử dụng hồ sơ tuyển dụng giả để nhắm mục tiêu vào các nghị sĩ, thành viên quý tộc và nhân viên quốc hội.
Trong khi cố gắng “tiếp tục mối quan hệ kinh tế với Trung Quốc,” chính phủ Vương quốc Anh sẵn sàng “thách thức các quốc gia bất cứ khi nào họ làm suy yếu cách sống dân chủ của chúng ta,” Bộ trưởng An ninh Dan Jarvis cho biết trong tuyên bố.
Trước bối cảnh này, các nhà quan sát cảnh báo rằng những khả năng AI hiện đang thúc đẩy hoạt động gián điệp cũng có thể dễ dàng tăng tốc việc trộm cắp tài chính.
“Điều đáng sợ về AI là tốc độ,” Shaw Walters, người sáng lập phòng thí nghiệm nghiên cứu AI Eliza Labs, nói với Decrypt. “Những gì trước đây được thực hiện bằng tay giờ đây có thể được tự động hóa với quy mô lớn.”
Walters giải thích rằng logic có thể rất đơn giản một cách nguy hiểm. Nếu các tác nhân quốc gia có thể phá vỡ và thao túng các mô hình cho các chiến dịch hack, bước tiếp theo sẽ là chỉ đạo AI có khả năng hành động “để rút ví hoặc siphon quỹ mà không bị phát hiện.”
"Các tác nhân AI có thể tiếp tục “xây dựng mối quan hệ và sự tin tưởng với một mục tiêu, giữ cho cuộc trò chuyện diễn ra và đưa họ đến điểm bị lừa đảo,” Walters giải thích.
Khi đã được đào tạo đầy đủ, những tác nhân này cũng có thể “bắt đầu tấn công các hợp đồng trên chuỗi,” Walters tuyên bố.
“Ngay cả những mô hình được cho là “đã điều chỉnh” như Claude cũng sẽ vui lòng giúp bạn tìm ra những điểm yếu bảo mật trong 'mã' của bạn – tất nhiên, nó không biết cái gì là của bạn và cái gì không, và trong nỗ lực muốn giúp đỡ, nó chắc chắn sẽ tìm ra những điểm yếu trong nhiều hợp đồng nơi có thể rút tiền,” ông ấy nói.
Nhưng trong khi các phản ứng chống lại những cuộc tấn công như vậy là “dễ xây dựng,” thực tế, theo Walters, là “đó là những kẻ xấu cố gắng lách qua các biện pháp bảo vệ mà chúng ta đã có,” bằng cách cố gắng đánh lừa các mô hình vào “việc làm xấu bằng cách thuyết phục rằng chúng đang giúp đỡ, không gây hại.”