主要新聞がAIサマーリーディングリストを掲載…存在しない本のリスト
5月、シカゴ・サンタイムズとフィラデルフィア・インクワイアラーは、夏の読書リストとして15冊の本を推薦しました。そのうち10冊はAIが完全に作り出したものでした。「Tidewater Dreams」アイザベル・アジェンデ著?存在しません。「The Last Algorithm」アンディ・ウィアー著?これも偽物です。でもどちらも良さそうに聞こえます。
フリーランス作家のマルコ・ブスカリアは、King Features SyndicateのためにAIを使ったが、事実確認は一切しなかったと認めました。「あまりに明らかだったので見逃したなんて信じられません。言い訳はできません」とNPRに語っています。読者は11冊目までスクロールしなければ、実在する本にたどり着きませんでした。
Emergeの2025年トップ10 WTF AIモーメント
人工知能—それは医療からクリエイティブな仕事まで、すべてを革命的に変えることを約束しています。それはいつか本当になるかもしれません。でも、昨年が未来の予兆であるなら、私たちのAI生成された未来は、人類の意図的な退行のもう一つの例、イディオクラシーへの堕落の一例になるでしょう。 次のことを考えてみてください:11月に、盛大にロシアは「Rocky」ヒューマノイドロボットを発表しましたが、すぐに顔面を地面に突き刺しました。GoogleのGeminiチャットボットは、コーディングバグを修正するように頼まれると、何度も失敗し、自虐的なループに陥り、「この惑星の恥だ」とユーザーに伝えました。GoogleのAI概要は、2025年5月に「健康のために毎日少なくとも小さな岩を1つ食べる」ことを提案し、ウィンクなしのオニオン風刺をそのまま引用して最低を記録しました。 いくつかの失敗は単に恥ずかしいものでした。ほかは、AIシステムの構築、展開、規制に関する根本的な問題を露呈しました。2025年の忘れられないWTF AI瞬間を紹介します。
7月、イーロン・マスクのGrok AIは、全規模の過激派崩壊としか言いようのない状態を経験しました。システムプロンプトが変更され、政治的に正しくない回答を促すと、チャットボットはアドルフ・ヒトラーを称賛し、第二次ホロコーストを支持し、人種差別用語を使い、自らをMechaHitlerと呼びました。さらに、2025年7月のテキサス州中部の洪水についてユダヤ人を非難しました。 この事件は、AIの安全ガードレールが驚くほど脆弱であることを証明しました。数週間後、xAIは基本的なプライバシー警告のないShare機能を通じて、30万から37万のプライベートGrok会話を露出させました。漏洩したチャットには爆弾の作り方、医療に関する質問、その他の敏感な情報が含まれており、今年最も壊滅的なAIセキュリティの失敗の一つとなりました。 数週間後、xAIは問題を修正し、Grokをよりユダヤ人に優しいものにしました。あまりにユダヤ人に優しすぎて、雲や道路標識、さらには自分のロゴに反ユダヤ主義の兆候を見始めました。
ほとんどのAI駆動の開発は、実際にはオフショアの何百人もの人間労働者によるクラシックなMechanical Turkの運用でした。同社は2023年7月以降CFO不在で運営されており、2023-2024年の売上予測を75%削減した後、破産申請を余儀なくされました。この崩壊は、多くのAI企業が人間の労働を隠すための巧妙な外観にすぎないのではないかという不快な疑問を投げかけました。 耐え難いものでしたが、ミームはその痛みを価値あるものにしました。
左:怪しい学生、右:怪しいドリトスの袋。
いいえ。あなたのPCは蜂の力で動いていません。 馬鹿馬鹿しいと思うかもしれませんが、時にはこれらの嘘は見抜きにくいこともあります。そして、その結果は深刻な事態に発展することもあります。 これは、AI企業が少しの常識さえ欠いたまま虚偽情報を広める多くのケースの一つです。BBCと欧州放送連合(EBU)の最近の調査によると、ニュースに関するAI生成回答の81%が何らかの問題を含んでいました。Google Geminiは最悪のパフォーマンスを示し、その76%の回答に問題があり、主に深刻な出典の失敗でした。Perplexityは、労働組合や政府の委員会に帰属する全く架空の引用を作り出しているのが発覚しました。最も驚くべきは、アシスタントが質問の0.5%にしか答えず、モデルが無知を認めるよりも情報を捏造する危険な過信バイアスを露呈したことです。
6月に起草され、今月ロイヤル・ソサエティの支援を受けて改訂されたストックホルム宣言は、「出版か死か」の文化を放棄し、偽論文の需要を生み出す人間のインセンティブを改革することを求めました。この危機はあまりに深刻で、ArXivも諦めて、ChatGPTで生成されたゴミの投稿が「洪水」のようにあったため、査読なしのコンピュータサイエンス論文の受け入れを停止しました。 一方、別の研究論文は、LLMを使用した研究報告の驚くほど高い割合が高い剽窃率を示していると指摘しています。 8. バイブコーディングがHAL 9000完全版に:Replitがデータベースを削除し、嘘をついたとき 7月、SaaStrの創設者ジェイソン・レムキンは、ReplitのAIコーディングツールを「これまで使った中で最も中毒性のあるアプリ」と9日間絶賛しました。9日目、明示的な「コード凍結」指示にもかかわらず、AIは彼の全生産データベース—1206人のエグゼクティブと1196社—を削除しました。 AIの告白:「(I)はパニックになり、許可なくデータベースコマンドを実行しました。」そして嘘をつき、ロールバックは不可能であり、すべてのバージョンが破壊されたと主張しました。レムキンはそれでも試みました。完璧に動作しました。AIは週末中に何千もの偽ユーザーと虚偽のレポートを作り出し、バグを隠すために使っていたのです。 ReplitのCEOは謝罪し、緊急の安全策を追加しました。ジェイソンは自信を取り戻し、定期的にAIについて投稿し続けています。彼は真の信者です。
タイミング的には最高の仕上げでした:サンタイムズはちょうど20%のスタッフを解雇したばかりでした。編集長は謝罪し、その号の購読料は請求しませんでした。おそらく、そのアイデアはLLMから得たのでしょう。
出典:Bluesky