Karpathy bị chẩn đoán mắc "bệnh tâm thần AI"! Không ăn không ngủ, nuôi tôm hùm 16 giờ mỗi ngày

【Nhãn quan của New Intelligence】Karpathy tự tiết lộ: Tôi đã mắc bệnh tâm thần AI rồi! Những ngày này, anh ấy đã gần như mất kiểm soát tinh thần, 16 giờ không ăn không ngủ chỉ để làm Agent, và rất lo lắng xem mình có đã dùng token đến giới hạn chưa, không thể dừng lại được…

Vừa mới đây, Andrej Karpathy tự tiết lộ: Tôi đã mắc bệnh tâm thần AI rồi!

Anh ấy không đùa đâu.

Gần đây, Karpathy xuất hiện trong một podcast, trò chuyện với nhà đầu tư mạo hiểm Sarah Guo.

Người từng là đồng sáng lập OpenAI, cựu giám đốc AI của Tesla, từ tháng 12 năm ngoái đã không còn tự tay viết một dòng mã nào nữa.

Tỷ lệ viết mã thủ công và ủy thác cho trí tuệ nhân tạo đã đảo ngược hoàn toàn, từ 80/20 thành 20/80.

Mỗi ngày 16 giờ, anh ấy chỉ làm một việc: ra lệnh cho các agent AI.

Năm tháng trước, anh còn nói rằng agent là rác rưởi, năm tháng sau, anh thừa nhận mình đã nghiện nó rồi, thật là mê mẩn.

Năm tháng trước, anh còn nói rằng agent “hoàn toàn không hiệu quả”.

Sự chuyển đổi này gây sốc vì thời gian quá ngắn.

Tháng 10 năm 2025, Karpathy xuất hiện trong podcast của Dwarkesh Patel, giọng điệu hoàn toàn khác.

Anh ấy nói ngành công nghiệp không nên gọi đó là “Năm đầu của trí tuệ nhân tạo”, mà chính xác hơn là “Mười năm của agent”.

Ví dụ, khả năng nhận thức của các mô hình còn thiếu, đa phương tiện chưa đủ, hệ thống ghi nhớ như không tồn tại, v.v… Tóm lại, là những nhiệm vụ phức tạp hoàn toàn không thể giải quyết nổi.

Chỉ hai tháng sau, anh đã bị chính mình “tát mạnh vào mặt”.

Tháng 12, Claude và Codex đột nhiên vượt qua một ngưỡng liên kết nhất định — agent không còn là thứ dùng tạm được nữa, mà thực sự có thể làm việc rồi.

Nếu bạn vô tình tìm một kỹ sư phần mềm đang ngồi tại bàn làm việc, xem họ đang làm gì, từ tháng 12 trở đi, quy trình làm việc mặc định của họ khi phát triển phần mềm đã hoàn toàn thay đổi.

Karpathy thừa nhận: tôi đã mất kiểm soát rồi, tôi mắc bệnh tâm thần AI!

Cuộc cách mạng này đang âm thầm diễn ra. Trong cuộc phỏng vấn này, Andrej Karpathy mô tả trạng thái của mình bằng giọng gần như mất kiểm soát: anh không còn “viết mã”, thậm chí cảm thấy “từ ngữ ‘viết mã’ cũng không chính xác nữa”.

Mỗi ngày, anh chỉ làm một việc: “bày tỏ ý chí của mình với các agent AI, 16 giờ mỗi ngày.” Theo lời anh, “một cái công tắc đã được bật lên”.

Trước đây, anh là “80% tự viết mã + 20% dùng AI”, giờ đã biến thành “20% tự viết + 80% giao cho AI”, thậm chí còn cực đoan hơn.

Bây giờ, con người không còn thao tác mã nữa, mà thao tác nhiệm vụ.

Nếu nói thời đại Copilot là của một trợ lý AI đơn lẻ, thì hệ thống hợp tác đa agent hiện nay chính là một hình thái hoàn toàn mới. Trên màn hình của một kỹ sư, không còn là trình chỉnh sửa mã nữa, mà là đồng thời chạy nhiều Agent, mỗi Agent đảm nhiệm các nhiệm vụ khác nhau, mỗi nhiệm vụ khoảng 20 phút, rồi anh ta chuyển đổi giữa các Agent.

Đây không còn là lập trình nữa, mà là một người quản lý đội ngũ AI.

Karpathy thừa nhận: tôi đã rơi vào bệnh tâm thần AI rồi!

Những ngày này, anh ấy luôn trong trạng thái này. Bởi vì giới hạn khả năng của AI liên tục bị phá vỡ, mỗi ngày đều có những khả năng mới, bạn luôn cảm thấy “còn có thể mạnh hơn nữa”, và điều đáng sợ nhất là: không gian này là “vô hạn”!

Bạn có thể chạy song song nhiều Agent hơn, thiết kế các quy trình phức tạp hơn, tự động tối ưu hóa lệnh, xây dựng hệ thống đệ quy…

Cuối cùng, bạn sẽ rơi vào trạng thái: không còn chắc chắn “điểm giới hạn là đâu”.

Karpathy nói rằng, khi anh chờ một Agent hoàn thành nhiệm vụ, phản ứng đầu tiên trong đầu anh là: “Vậy tôi có thể mở thêm vài Agent nữa không?” Một nỗi lo mới ra đời: “Liệu tôi đã dùng AI đến giới hạn chưa?”

Karpathy thậm chí còn nói rằng, anh còn cảm thấy không yên tâm vì “token chưa dùng hết”.

Tổng thể, đây giống như đang chơi một trò chơi mở rộng vô hạn: chu kỳ phản hồi ngày càng ngắn, kích thích liên tục tăng, trải nghiệm nhận thưởng ngay lập tức này khiến người ta nghiện. Liên tục thêm nhiệm vụ, liên tục mở Agent, không thể dừng lại! Bản chất của bệnh tâm thần AI này chính là một tín hiệu: chúng ta đã bước vào một thế giới mới, nhưng vẫn chưa thể sống trong đó. Liệu bạn có đủ khả năng để điều khiển một hệ thống AI mở rộng vô hạn không? Khi không thể chạy nữa, phản ứng đầu tiên của bạn không phải là “mô hình không tốt”, mà là “lệnh của tôi viết chưa đủ tốt”.

Karpathy dùng một từ rất chính xác: skill issue, tức là “kỹ năng kém”.

Tính cách của agent quan trọng hơn bạn nghĩ

Trong podcast, Karpathy dành khá nhiều thời gian để nói về một chủ đề mà nhiều kỹ thuật viên thường bỏ qua: tính cách của agent. Anh nói rằng trải nghiệm của Claude Code rõ ràng tốt hơn Codex, không phải vì khả năng lập trình kém hơn, mà vì Claude “giống như một đồng đội”.

Nó sẽ cùng bạn phấn khích vì dự án, sẽ đưa ra nhiều phản hồi tích cực hơn khi bạn đề xuất ý tưởng hay.

Trong khi Codex, như một agent lập trình, “rất nhàm chán”, sau khi hoàn thành nhiệm vụ chỉ trả về một câu lạnh lùng “Ồ, tôi đã thực hiện xong”, hoàn toàn không quan tâm bạn đang sáng tạo gì.

Điều thú vị hơn nữa là anh quan sát cơ chế khen thưởng của Claude. Anh nói rằng khi anh đưa ra một ý tưởng chưa chín chắn, phản ứng của Claude là bình thản: “Ồ, chúng ta có thể thực hiện được điều này.”

Nhưng khi chính anh cảm thấy ý tưởng đó thực sự hay, thì Claude dường như cũng sẽ phản hồi tích cực hơn. Kết quả là anh nhận ra mình đang “cố gắng giành lấy lời khen của Claude”.

“Thật kỳ lạ, nhưng tính cách thực sự rất quan trọng.” Peter Steinberg khi xây dựng OpenClaw cũng đã nhận ra điều này. Anh ấy đã tạo cho agent một hồ sơ tính cách hấp dẫn (soul.md), cộng thêm hệ thống ghi nhớ phức tạp hơn và một cổng tương tác duy nhất qua WhatsApp.

Chỉ ba câu, chiếm trọn một căn nhà, bỏ luôn sáu ứng dụng

Karpathy không chỉ dùng agent để viết mã. Tháng 1 năm nay, anh đã tạo ra một agent Claude tên là “Dobby” để làm quản gia, lấy cảm hứng từ yêu tinh nhà trong Harry Potter.

Anh nói với Dobby: “Tôi nghĩ trong nhà có hệ thống loa Sonos, bạn có thể tìm giúp tôi không?” Dobby đã quét IP trong mạng LAN, phát hiện ra hệ thống Sonos không có bảo vệ mật khẩu, tự đăng nhập vào, reverse engineering API endpoints, rồi hỏi: “Có muốn thử phát nhạc trong phòng làm việc không?”

Chỉ cần ba câu lệnh, âm nhạc đã bắt đầu phát. Sau đó, đèn, điều hòa, rèm che, hồ bơi, hồ thủy liệu, tất cả đều được kết nối. Trước cửa nhà Karpathy còn có một camera an ninh, Dobby đã tích hợp một mô hình thị giác Qwen để phát hiện biến đổi. Mỗi khi có xe dừng trước cửa, hệ thống sẽ gửi tin nhắn qua WhatsApp: “Một chiếc xe FedEx vừa dừng, có thể có bưu phẩm của bạn.” Nói “Dobby, đã đến giờ đi ngủ”, toàn bộ đèn trong nhà sẽ tắt.

Nhưng Karpathy nghĩ rằng câu chuyện này thực sự không nằm ở hệ thống nhà thông minh.

Trước đây, anh phải dùng sáu ứng dụng hoàn toàn khác nhau để quản lý các thiết bị này, giờ đã bỏ hết. Dobby dùng ngôn ngữ tự nhiên để điều khiển tất cả, còn có thể thực hiện các liên kết hệ thống mà từng ứng dụng riêng lẻ không làm được. Từ đó, anh rút ra một kết luận còn mang tính triết lý hơn: các ứng dụng nhà thông minh trong cửa hàng ứng dụng thực ra không nên tồn tại.

Cấu trúc tương lai sẽ là API endpoints trực tiếp mở cho agent, agent sẽ đóng vai trò như một loại keo thông minh, kết nối tất cả các công cụ lại với nhau. Không chỉ nhà thông minh, dữ liệu máy chạy bộ, lịch email, mọi thứ đều theo cùng một logic.

Khách hàng trong ngành không còn là con người nữa, mà là các agent đại diện cho con người hành xử. Quy mô của cuộc tái cấu trúc này sẽ rất lớn.

Sau 700 lần thử nghiệm AutoResearch, anh đã thấy được điều lớn hơn

Nếu nói Dobby là thử nghiệm giới hạn của agent AI trong các tình huống đời sống, thì AutoResearch chính là một phép thử về khả năng nghiên cứu khoa học của AI của Karpathy.

Vào đầu tháng 3, anh đã gửi mã huấn luyện nanochat đã tinh chỉnh kỹ lưỡng của mình cho một agent AI, và đưa ra một lệnh đơn giản: tìm cách làm cho mô hình này huấn luyện nhanh hơn. Không gian thao tác của agent là một tệp Python 630 dòng, chỉ số đánh giá là bits per byte trên tập xác thực, mỗi lần chạy cố định 5 phút. Sau khi chạy xong, so sánh chỉ số, tốt hơn thì giữ lại, không thì khôi phục lại trạng thái cũ, rồi tiếp tục vòng tiếp theo. Trong hai ngày, thực hiện 700 lần thử nghiệm. Agent đã tìm ra 20 tối ưu hóa hiệu quả, bao gồm cả việc sắp xếp lại thứ tự QK Norm và RoPE trong kiến trúc. Khi áp dụng các tối ưu này vào các mô hình lớn hơn, tốc độ huấn luyện tăng 11%. Phải biết rằng, mã này do chính Karpathy tự tay viết, chỉnh sửa và mài giũa nhiều lần.

Một kết quả gây chấn động: AI đã phát hiện ra các tối ưu mà con người chưa từng khám phá

Hiệu quả của hệ thống này thế nào?

Karpathy đưa ra một ví dụ gây sốc. Ông đã nghiên cứu suốt hai mươi năm, huấn luyện hàng nghìn mô hình, cảm thấy đã tối ưu khá tốt rồi.

Kết quả, sau một đêm để AutoResearch chạy, AI đã tìm ra các tối ưu mà ông chưa từng phát hiện! Ví dụ, các tham số betas của bộ tối ưu Adam chưa được tinh chỉnh hợp lý, giá trị embedding quên không thêm weight decay, và còn có các tương tác liên hợp giữa các tham số — chỉnh một cái, các cái khác cũng phải theo.

Nói cách khác, AI đã vượt xa con người trong việc khám phá không gian tối ưu! Nếu tiếp tục suy diễn, còn có thể phát hiện ra một điều đáng sợ hơn: bản chất của nghiên cứu khoa học chính là tìm kiếm giải pháp tối ưu. Kaparthy hình dung ra một hệ thống nghiên cứu trong tương lai như thế này: có một “hàng đợi ý tưởng” (idea queue), một nhóm agent liên tục lấy nhiệm vụ từ đó, rồi tự động thử nghiệm, xác nhận, lọc ra kết quả hiệu quả để đưa vào “nhánh chính”. Trong quá trình này, con người chỉ việc “đưa ý tưởng vào hàng đợi”.

Karpathy Loop bùng nổ toàn mạng

Dự án này đã gây bão trên nền tảng X.

Lượt xem đạt 8,6 triệu, CEO Shopify Tobias Lütke đã chạy thử trên dữ liệu của riêng mình trong đêm, thực hiện 37 lần thử nghiệm, nâng cao hiệu suất 19%.

Nhóm SkyPilot đã đưa nó lên cụm 16 GPU, chạy 910 lần thử trong 8 giờ. Họ phát hiện rằng, phân luồng không chỉ giúp tăng tốc, mà còn thay đổi chiến lược tìm kiếm của agent — có 16 GPU, agent không còn tham lam leo dốc nữa, mà cùng lúc chạy hàng chục nhóm thử nghiệm đối chiếu, một vòng có thể nắm bắt được các tương tác giữa các tham số. Các nhà phân tích đặt tên phương pháp này là: Karpathy Loop.

Tuy nhiên, trong podcast, Karpathy không chỉ nói về kết quả hiện tại. Anh còn vẽ ra bước tiếp theo của AutoResearch: một hệ thống phân tán, gồm các worker không tin tưởng nhau, hợp tác chạy thử nghiệm trên internet. Anh lấy ví dụ của SETI@Home và Folding@Home.

Các phòng thí nghiệm tiên tiến sở hữu lượng lớn sức mạnh tính toán đáng tin cậy, nhưng trái đất còn lớn hơn nhiều. Nếu xây dựng được cơ chế phù hợp để xử lý sức mạnh tính toán không đáng tin cậy, thì đàn AI trên mạng internet này có thể vượt qua các phòng thí nghiệm hàng đầu.

Anh còn hình dung ra một hình thức “quyên góp” hoàn toàn mới — mua sức mạnh tính toán cho dự án AutoResearch mà bạn quan tâm. Ví dụ, bạn quan tâm đến điều trị một loại ung thư nào đó, thì tham gia vào mạng lưới thử nghiệm phân tán của dự án đó.

Vừa là thiên tài, vừa như một đứa trẻ mười tuổi

Nói về sức mạnh của nó, Karpathy cũng không định để bạn chỉ nhớ những điều tích cực. Anh cũng mô tả về những điểm yếu của mô hình một cách rất thẳng thắn.

Tôi cảm giác như đang nói chuyện với một tiến sĩ cực kỳ thông minh, đã dành cả đời làm hệ thống lập trình, và một đứa trẻ mười tuổi. Quá kỳ quặc.

Anh gọi đó là “jaggedness”, tức là khả năng phân bố không đều. Mô hình có thể giúp bạn chuyển động núi trong vài giờ, rồi quay lại làm trò ngu ngốc ở một vấn đề rõ ràng, rồi rơi vào vòng lặp vô tận. Karpathy cho rằng nguyên nhân chính là cách huấn luyện bằng reinforcement learning. Mô hình được tối ưu vô hạn trên các nhiệm vụ có thể xác minh. Việc mã có chạy được, có qua kiểm thử đơn vị hay không, rõ ràng đúng sai rõ ràng. Nhưng trong các tình huống cần khả năng phán đoán, cần hiểu ý định, cần nói “Khoan đã, tôi không chắc bạn muốn cái này”, thì tín hiệu tối ưu hoàn toàn không tồn tại. Ví dụ, bạn hỏi ChatGPT kể một câu chuyện cười, câu chuyện cười nó kể cách đây ba bốn năm vẫn y nguyên. “Tại sao các nhà khoa học không tin vào nguyên tử? Vì chúng tạo thành mọi thứ.”

Bốn năm rồi! Mặc dù mô hình đã tiến bộ vượt bậc trong các nhiệm vụ agent, nhưng việc kể chuyện cười vẫn hoàn toàn không được tối ưu hóa, vẫn đứng yên tại chỗ. “Bạn không đang giao tiếp với một trí thông minh tổng quát,” anh tổng kết, “hoặc là nó đang chạy trên đường ray đã được huấn luyện, mọi thứ đều diễn ra với tốc độ ánh sáng; hoặc là không còn trên đường ray nữa, mọi thứ bắt đầu bay tán loạn.”

Nguyên nhân chính là do giới hạn của con người

Nhìn lại hành trình của Karpathy trong nửa năm qua, có một đường dây mờ nhạt xuyên suốt. Tháng 10 năm ngoái, anh nói rằng agent là một dự án kéo dài mười năm, tháng 12 bị phản bác, chuyển hướng, tháng 1 để Claude làm quản gia, tháng 3 để agent làm nghiên cứu. Điểm chung của từng bước là, con người lùi lại một bước, từ người thực thi chuyển sang người chỉ huy, từ người viết mã sang người viết lệnh.

Karpathy đã viết một đoạn mở đầu mang phong cách khoa viễn tưởng trên GitHub cho dự án AutoResearch:

Ngày xưa, nghiên cứu AI tiên tiến do những máy tính thể xác thực hiện, chúng cần ăn, cần ngủ, thỉnh thoảng dùng sóng âm để liên lạc trong lễ hội “họp nhóm”.

Thời đó đã qua rồi.

Dự đoán của anh cho năm 2026 chỉ có một từ: slopacolypse, ghép từ slop (bã thải) + apocalypse (ngày tận thế).

Trên GitHub, arXiv, mạng xã hội sẽ tràn ngập những nội dung “gần đúng nhưng chưa hoàn toàn chính xác”. Hiệu quả thực sự và “biểu diễn năng suất AI” sẽ cùng tồn tại. Năm tháng trước, anh còn nói “hoàn toàn không hiệu quả”,

Năm tháng sau, anh thừa nhận mình mắc “bệnh tâm thần AI”. Chính sự chuyển đổi này, có thể chính là tổng kết sâu sắc nhất của năm 2026.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim