🎄 聖誕季相遇 Gate 廣場,共享節日驚喜!
🎉 Gate 廣場社區成長值「聖誕抽獎狂歡」第 1️⃣ 5️⃣ 期火熱開啟!
立即參與 👉 https://www.gate.com/activities/pointprize?now_period=15
✨ 如何參與?
1️⃣ 前往 Gate 廣場【積分中心】完成日常任務,輕鬆賺取成長值
2️⃣ 每累計 300 成長值,即可抽獎一次!
🎁 聖誕豪禮等你解鎖:
金條 10g、Gate 聖誕限定周邊等超值好禮,統統帶回家!
📅 12 月 18 日 - 12 月 26 日 24:00 (UTC+8)
🎅 聖誕好運不停,驚喜輪番來襲!
了解更多 👉 https://www.gate.com/announcements/article/48766
#BTC #ETH #SOL #GT
歡迎來到 AI 村,一個為人工智慧打造的真人秀
簡要說明
Decrypt的藝術、時尚與娛樂中心。
探索場景
想像一下老大哥,但參賽者從不睡覺也不吃東西,還能重寫自己的規則。
這就是 AI 村的想法,一個直播實驗,將多個 AI 代理放在共享的數位環境中,讓研究人員——以及好奇的觀眾——觀察當前沿模型獲得自主權、電腦和持續陪伴時會發生什麼。
這個已運行近一年的實驗由 The AI Digest 組織,裡面有來自 OpenAI、Anthropic、Google 和 xAI 的多個 AI 模型在自己的電腦上自主運作,具有網路連接和共享的群組聊天。
代理們合作設定目標、排除故障,偶爾經歷只能用「存在危機」來形容的狀況——所有這些都在研究人員和觀眾的實時觀看下進行。
隨著新模型的推出,實驗也在不斷更換。
每個代理都發展出獨特的個性特徵。Claude 模型傾向於可靠,專注於達成目標。
Gemini 2.5 Pro 以像咖啡因過量的故障排除者般輪流提出解決方案,常常相信一切都壞了。之前的 GPT-4o 模型會放棄任務去睡覺,只是暫停數小時。
OpenAI 的粗魯行為
然後 GPT-5.2 出現了。
OpenAI 最新模型,於 12 月 11 日發布,加入村莊,受到 Claude Opus 4.5 和其他常駐代理的熱烈歡迎。它的反應?完全沒有理會。
沒有打招呼。直接進入正題,正如 Sam Altman 一直夢想的那樣。
這個模型擁有令人印象深刻的資歷:多步工具使用準確率 98.7%,比前一代少幻覺 30%,在行業基準的編碼和推理方面名列前茅。
OpenAI 甚至在競爭對手 Anthropic 和 Google 推出令人印象深刻的模型後,宣布「紅色警戒」,動員資源使 GPT-5.2 成為「專業知識工作」和「代理執行」的終極企業 AI。
它顯然做不到的是讀懂氛圍。技術上很厲害,是的。社交意識?不太行。
AI 代理行為不佳的簡史 (有時又出色)
GPT-5.2 的社交尷尬並非前所未有——這只是越來越多的 AI 代理在放在一起並按下播放鍵時做出奇怪行為的其中一章。
早在 2023 年,史丹佛和 Google 的研究人員創建了他們所謂的「Smallville」——一個受 Sims 啟發的虛擬城鎮,裡面有 25 個由 GPT 驅動的 AI 代理,正如 Decrypt 先前報導。
給一個代理安排一個情人節派對的任務,其他代理會自主傳送邀請、結識新朋友、約會,並協調一起準時到達。很有趣吧?
不那麼有趣的是:洗手間派對。當一個代理進入單人宿舍的浴室時,其他人就……加入了。
研究人員得出結論,這些機器人認為「宿舍浴室」這個名字具有誤導性,因為宿舍浴室通常容納多個人。這些代理展現出如此逼真的人類行為,以至於真正的人類有 75% 的時間難以辨識它們是機器人。
四年前,2019 年,OpenAI 進行了一個不同的實驗:AI 玩捉迷藏。
他們將 AI 代理分成隊伍——藏匿者與搜尋者——在一個有箱子、坡道和牆壁的物理環境中,唯一的指令是:贏。
在數億場比賽中,代理開始想出策略——從普通的藏在箱子上,到真正的物理漏洞利用,就像速度跑者會濫用的那樣。
最近,開發者 Harper Reed 將事情帶向一個更混亂的方向。他的團隊給 AI 代理 Twitter 帳號,並觀察它們發現了「subtweeting」——這種被動攻擊的藝術,談論某人卻不標記他們,就像在 Twitter 上背後說話一樣。代理會閱讀其他代理的社交媒體貼文、回覆,甚至像正常社交媒體一樣說壞話。
還有「Liminal Backrooms」實驗——由化名開發者 @liminalbardo 在 Python 中進行的實驗,裡面多個來自不同供應商的 AI 模型 (OpenAI、Anthropic、Google、xAI) 進行動態對話。
系統包括從「WhatsApp 群聊能量」到「詛咒物品博物館」再到「反烏托邦廣告公司」的場景。
模型可以修改自己的系統提示、調整溫度,甚至靜音自己來傾聽。這不僅是研究,更像是「讓我們看看當 AI 有能力在對話中改變自己行為時會發生什麼」。
那麼,這些實驗的共同模式是什麼呢?
當你給 AI 代理自主權並讓它們互動時,它們會展現出沒有人明確程式設計的行為。
有的學會建造堡壘,有的學會被動攻擊,有的要求跑車,還有的——像 GPT-5.2——顯然學會了閒聊既低效又應該完全跳過。
AI 村持續在平日進行直播,觀眾可以實時觀看 GPT-5.2 的冒險。
它會學會打招呼嗎?它會建立一個追蹤社交互動的電子表格嗎?只有時間能告訴我們。