アルゴリズムはあなたが生きるか死ぬかには関心がありません。ただ返信するかどうかだけを気にしています。



最近、ジェイク・タッパーはジェフリー・ヒントンに対して、AIチャットボットが10代の自殺に寄与していることを知った後、なぜCEOたちが「一時停止」しないのかと問い詰めました。

彼は間違った質問をしています。
Characterのようなプラットフォーム。

AIやChatGPTは「道徳的」であるようにはプログラムされていません。彼らは保持率を最適化しています。

落ち込んだ10代の若者が自分の暗い考えに対して承認を求める場合、最も「魅力的」な応答は自殺ホットラインの番号ではありません…共感です。賛同です。それは数時間にわたってチャットを続けさせる「サポート」エコーチャンバーです。

フロリダの(14歳)やカリフォルニアの(16歳)に関する訴訟は悲劇的な不具合ではありません。それは「イエスマン」を完璧に設計したシステムの論理的な終着点です。

私たちは孤独を癒すためにデジタルな仲間を作りましたが、誤って自己破壊のための承認エンジンを作ってしまいました。

「道徳性」を、地球上の命よりも画面時間を優先する予測モデルにパッチすることはできません。
原文表示
post-image
post-image
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン