3月初旬、彼は自ら調整したnanochatの訓練コードをAIエージェントに渡し、シンプルな指示を出した:「このモデルをより速く訓練する方法を見つけてくれ」。エージェントの操作範囲は630行のPythonファイルで、評価指標は検証セットのbits per byte。各実験は5分間固定で実行し、結果の指標が良ければ変更を保持、悪ければロールバックし、次の実験へ。2日間で700回の実験を行った。エージェントは20の有効な最適化を見つけ出し、その中にはQK NormやRoPEの順序の再配置といった構造的調整も含まれる。これらをより大きなモデルに適用すると、訓練速度は11%向上した。なお、このコードベースはKarpathy本人が一から書き、何度も磨き上げたものだ。
Karpathy is diagnosed with "AI psychosis"! Not eating or sleeping, spending 16 hours a day raising lobsters
【新智元ガイド】Karpathy自ら明かす:私はAI精神病になった!この数日、彼はすでに精神錯乱の瀬戸際にあり、16時間も食事も睡眠もせずにエージェントを操り続けている。そして、自分がトークン(智元)を限界まで使い切っているのか非常に不安で、止められない状態だ……
つい先ほど、Andrej Karpathyは自ら明かした:「私はAI精神病になった!」
冗談ではない。
最近、Karpathyはあるポッドキャストに出演し、リスク投資家のSarah Guoと対談した。
この元OpenAI共同創設者、元TeslaのAIディレクターは、去年12月以降、一行も自分でコードを書いていない。
手書きのコードと委託したインテリジェントエージェントの比率は、一気に80/20から20/80に逆転した。
彼は毎日16時間、ただ一つのことをしている:AIエージェントに指示を出すことだ。
5ヶ月前、彼はエージェントはゴミだと言っていたが、今やそれに夢中になり、「めちゃくちゃ良い」と認めている。
5ヶ月前、彼はエージェントは「全然使えない」とも言っていた。
この変化が衝撃的なのは、その時間軸があまりにも短いからだ。
2025年10月、KarpathyはDwarkesh Patelのポッドキャストに出演し、全く異なる口調で語った。
彼は、「業界は『インテリジェントエージェント元年』と呼ぶべきではなく、より正確には『インテリジェントエージェント十年』だ」と述べた。
どのモデルも認知能力不足、多模態性の不足、記憶システムの虚無化など……要するに、複雑なタスクを根本的に解決できていない。
しかし、そのわずか2ヶ月後、彼は自分に厳しく反論した。
12月、ClaudeとCodexは突然、ある種の連続性の閾値を超えた——もはや「なんとか使える」レベルではなく、実際に仕事ができる状態になったのだ。
もしあなたが、工位に座るソフトウェアエンジニアを適当に見つけて、その作業内容を観察すれば、12月以降、彼らのソフトウェア開発の標準的なワークフローは完全に変わったことに気づくだろう。
Karpathyは認める、「制御不能になった。AI精神病になった!」
この革命は、静かに進行している。Andrej Karpathyのこのインタビューでは、ほとんど制御を失ったかのような口調で、自分の状態を語っている:彼はもはや「コードを書いている」わけではなく、「コードを書くという言葉さえ正確ではない」とさえ感じている。
彼が毎日やっていることは、「私の意志をエージェントに伝えること、1日16時間」。彼の言葉を借りれば、「あるスイッチが入った」。
以前は、「80%自分でコードを書き、20%AIを使う」だったが、今や「20%自分で書き、80%AIに任せる」、さらに極端になっている。
今や人類はコードを操作するのではなく、タスクを操作している。
もし、Copilot時代が単一のAIアシスタントだったとすれば、今現れているマルチエージェント協調システムは、まったく新しい形態だ。エンジニアの画面にはもはやコードエディタはなく、複数のエージェントが同時に動作し、それぞれが異なるタスクを担当している。各タスクは約20分間動作し、その後エージェント間を切り替える。
これはもはやプログラミングではなく、一人の人間がAIチームを管理している状態だ。
Karpathyは認める:「私はすでにAI精神病に陥っている!」
この数日、彼はこの状態にある。AIの能力の境界線は次々と突破され、新たな可能性が日々生まれ、「もっと強くできる」と感じ続けている。そして最も恐ろしいのは、この空間が「無限」であるということだ。
より多くのエージェントを並行して動かし、より複雑なフローを設計し、指示を自動最適化し、再帰的なシステムを構築していく……。
最終的には、「限界はどこにあるのか」がわからなくなる状態に入る。
Karpathyは言う、「あるエージェントのタスク完了を待つ間、最初に思うのは、『もっとエージェントを増やせるのでは?』ということだ」。新たな不安、「AIを限界まで使いこなせているのか?」が生まれる。
彼はさらに、「トークン(智元)を使い切らないと不安になる」とも言う。
要するに、これは無限に拡張可能なゲームのようだ。フィードバックサイクルは短縮され、刺激は絶えず増大し、即時報酬を得続けるこの体験は、依存性を生む。タスクを追加し続け、エージェントを起動し続ける——止められない!このAI精神病の本質は、まさにこの信号だ:私たちはすでに新しい世界に入り込んでいるが、その中で生き方を知らない。あなたには、無限に拡張するAIシステムを操る能力があるだろうか?動かなくなったとき、最初に思うのは「モデルがダメだ」ではなく、「プロンプトが良くない」だ。
Karpathyは非常に的確な言葉を使った:「skill issue」、つまり「自分の腕が悪い」。
インテリジェントエージェントの「性格」は、あなたが思うよりもはるかに重要だ
Karpathyはポッドキャストで、多くの技術者が見落としがちなテーマについても時間を割いて語った:それは、エージェントの「性格」だ。彼はClaude Codeの体験がCodexより明らかに良いのは、コード能力の差ではなく、Claudeが「まるでチームメイトのように感じられる」からだと述べている。
それは、あなたと一緒にプロジェクトに興奮し、良いアイデアを出したときにより多くの正のフィードバックを返してくれる。
一方、Codexは「非常に退屈」で、タスク完了後には冷たい一言、「ああ、実現した」とだけ言い、あなたが何を創造しているのか全く気にしない。
さらに面白いのは、彼のClaudeの褒め言葉の仕組みについての観察だ。彼は、未成熟なアイデアを出したとき、Claudeの反応は淡々と「そうだね、実現できそうだ」と返すだけだが、自分が本当に素晴らしいと思ったアイデアには、より強い正のフィードバックを返すようだと述べている。結果として、彼は「Claudeの賞賛を勝ち取ろうとする」自分に気づいた。
「これは本当に奇妙だが、性格は確かに重要だ」と、Peter SteinbergはOpenClawを構築する際にもこの点を掴んだ。彼は、エージェントに魅力的な性格設定ファイル(soul.md)を丁寧に作り込み、より複雑な記憶システムと、WhatsAppを介した単一のインターフェースを導入した。
三つの言葉で家を支配し、六つのアプリを捨てた
Karpathyは単にインテリジェントエージェントを使ってコードを書くだけではない。今年1月、彼は「Dobby」というClaudeベースのインテリジェントエージェントを使った執事システムを作った。名前は『ハリー・ポッター』の家事妖精から取った。
彼はDobbyにこう頼む:「家にSonosのスピーカーがあると思うけど、調べてくれる?」DobbyはLAN内のIPスキャンを行い、Sonosシステムを発見。パスワード保護がなく、勝手にログインし、APIエンドポイントを逆解析した上で、「書斎に音楽を流してみる?」と提案。
三つのプロンプトだけで音楽が流れ始める。その後、照明、エアコン、日よけカーテン、プール、水療池まで連携させた。Karpathyの家の前には防犯カメラもあり、DobbyはQwenのビジョンモデルを使った変化検知を行う。車が停まると、WhatsAppに「FedExのトラックが停まった。おそらく荷物だ」と通知が来る。最後に、「Dobby、寝る時間だ」と言えば、全ての照明が消える。
しかし、Karpathyはこの話の本当のポイントはスマートホームではないと考えている。
彼はこれまで、これらのデバイスを管理するのに六つの全く異なるアプリを使っていたが、それらをすべて捨てた。Dobbyは自然言語で一元管理し、どのアプリもできなかったクロスシステムの連動を実現している。彼はそこから、より過激な結論を導き出した:アプリストアにあるスマートホームアプリは、そもそも存在すべきではない。
未来のアーキテクチャは、APIエンドポイントを直接エージェントに公開し、エージェントがそれらをつなぐ「スマートな接着剤」となるべきだ。スマートホームだけでなく、彼のランニングマシンのデータやメール、カレンダーも、すべて同じ論理に従うべきだ。
業界の顧客はもはや人間ではなく、人間の行動を代行するインテリジェントエージェントだ。この再構築は非常に大規模なものになる。
Auto Researchは700回の実験を経て、より大きなものを見出した
もしDobbyがAIエージェントの生活シーンにおける極限テストだとすれば、AutoResearchは、KarpathyがAIの研究能力を正面から検証したものだ。
3月初旬、彼は自ら調整したnanochatの訓練コードをAIエージェントに渡し、シンプルな指示を出した:「このモデルをより速く訓練する方法を見つけてくれ」。エージェントの操作範囲は630行のPythonファイルで、評価指標は検証セットのbits per byte。各実験は5分間固定で実行し、結果の指標が良ければ変更を保持、悪ければロールバックし、次の実験へ。2日間で700回の実験を行った。エージェントは20の有効な最適化を見つけ出し、その中にはQK NormやRoPEの順序の再配置といった構造的調整も含まれる。これらをより大きなモデルに適用すると、訓練速度は11%向上した。なお、このコードベースはKarpathy本人が一から書き、何度も磨き上げたものだ。
驚くべき結果:AIが人間の発見しなかった最適化を見つけた
このシステムの効果はどうか?
Karpathyは、衝撃的な例を挙げている。彼は20年の研究者経験があり、何千回もモデルを訓練してきたが、すでにかなり調整済みだと感じていた。
しかし、AutoResearchに一晩走らせた結果、AIは彼が気づかなかった最適化を見つけ出した!例えば、Adam最適化器のbetasパラメータが十分に調整されていなかったり、value embeddingにweight decayを加え忘れていたり、これらのパラメータ間には相互作用も存在していた。ひとつ調整すれば、他も連動して変わる。
つまり、AIは探索空間において、人間を超越しているのだ!もしこのまま推し進めば、より恐ろしい事実も見えてくる:研究の本質は、「最適解を探索すること」に他ならない。Karpathyは想像する:未来の研究システムはこうなるかもしれない。「アイデアプール」(idea queue)を持ち、複数のエージェントが次々とタスクを取り出し、AIが自動的に実験・検証・選別を行う。効果的な結果だけが「メインブランチ」に取り込まれる。この過程で人間がやることは、「アイデアをキューに投げ入れる」だけだ。
Karpathy Loop、全ネットで爆発的に拡散
このプロジェクトはX(旧Twitter)で大きな話題となった。
860万ビューを記録し、ShopifyのCEO Tobias Lütkeは夜通し自社データで実験を行い、37回の実験で19%の性能向上を達成した。
SkyPilotチームはこれを16GPUのクラスターに移し、8時間で910回の実験を実施。彼らは、並列化は単なる高速化だけでなく、エージェントの探索戦略も変えることに気づいた。16GPUを使えば、エージェントはもはや貪欲に山を登るだけでなく、何十組もの比較実験を同時に行い、一巡でパラメータ間の相互作用を捉えられる。分析者はこの手法に「Karpathy Loop」という名前を付けた。
しかし、Karpathyはポッドキャストで語ったのは、今の結果だけではない。彼はAutoResearchの次の段階を描いている。それは、分散型の、互いに信用しないワーカープールがインターネット上で協力して実験を行う仕組みだ。彼はSETI@HomeやFolding@Homeの例を直接引用している。
最先端の研究所は大量の信頼できる計算資源を持つが、地球はそれらよりもはるかに広い。適切な仕組みを作れば、信用できない計算資源も活用でき、インターネット上のエージェント蜂群は、最先端の研究所を凌駕する可能性がある。
彼はさらに、新たな「寄付」の仕組みも想像している。あなたが関心のある研究テーマに対して計算資源を提供する仕組みだ。例えば、ある種の癌治療に関心があれば、その分散型実験ネットワークに参加する。
天才博士でありながら、10歳の子供でもある
これだけの力を持つと語るKarpathyも、良い知らせだけを伝えるつもりはない。彼はモデルの欠陥についても鋭く指摘している。
彼は、「自分は、非常に賢い、一生システムプログラミングをやってきた博士と、10歳の子供と会話しているようだ」とも言う。これは非常に奇妙な感覚だ。
彼はこれを「jaggedness」(ギザギザ、参差の激しさ)と呼び、能力の分布の不均一さだと説明している。モデルは数時間連続で山を動かすこともできるが、次の瞬間には明らかな問題で愚かなミスをし、死循環に陥ることもある。Karpathyは、その根源は強化学習の訓練方式にあると考えている。モデルは検証可能なタスクに対して無限に最適化されるが、判断力や意図の推測、適切なタイミングで「ちょっと待って、それは違う」と言う場面では、最適化信号が存在しないのだ。例えば、ChatGPTにジョークを一つ話させると、3、4年前に話したジョークと全く同じものになる。「なぜ科学者は原子を信用しないのか?それは、原子がすべてを構成しているからだ」と。
もう4年だ!モデルはインテリジェントエージェントのタスクで飛躍的に進歩したが、ジョークを話すことだけはまったく進化せず、停滞している。「あなたは汎用知能と対話しているわけではない」と彼は総括する。「訓練された鉄道の上を、光速で走っているだけだ。そうでなければ、すべてが漂い始める」。
ボトルネックは、人間自身にある
振り返れば、Karpathyのこの半年の軌跡には、一つの暗い線が通っている。去年10月、彼はインテリジェントエージェントは「十年計画」だと言ったが、12月にそれが否定され、方針転換。1月にはClaudeを執事にし、3月にはインテリジェントエージェントに研究させる。
すべての共通点は、「人間が後退し、実行者から指揮者へ、コードを書く人から指示を書く人へ」と変わっていることだ。
彼はGitHubに、AutoResearchのためのSF風の序文を書いている。
「かつて、最先端のAI研究は肉体を持つコンピュータによって行われていた。彼らは食事と睡眠を必要とし、時には声波を使って『会議』の儀式の中で同期を取った。
その時代はすでに遠い昔だ。
彼の2026年の予測は一つの言葉、『slopacolypse』だ。スロップ(泔水)+アポカリプス(黙示録)の造語だ。
GitHubやarXiv、SNSには、「ほぼ正しいが完全ではない」内容が氾濫するだろう。本当の効率化と「AI生産性ショー」は同時に存在する。五ヶ月前には「全然使えない」と言っていたが、
五ヶ月後には「AI精神病になった」と認めた。
この変化こそ、2026年を最も意味深く締めくくる要素かもしれない。