圖片來源:Anthropic 聯合創辦人推文
在 AI 的討論中,最容易被放大的是結論,最常被忽略的則是結論的產生過程。圍繞遞迴自我改進(RSI)的爭議亦如是。表面看來,爭論集中於一個顯眼的判斷:在 2028 年前,AI 具備自我強化研發能力的可能性並不低。但更深層的問題在於:我們是否已經觀察到足夠多的「系統性早期信號」,使這一情境不再是邊緣假設,而進入主流決策者必須納入風險評估的範疇。
這一問題之所以具備政策與產業意義,是因為 RSI 並非抽象的「通用智能神話」,而更像是一個工程命題:AI 能否在研發流程中承擔越來越多高價值環節,並將這些環節串聯成可持續迭代的閉環。一旦閉環形成,技術進步的速度函數將出現變化,組織能力的差距會被重新定義,傳統監管節奏也將面臨挑戰。
因此,討論 RSI 不應停留在「信或不信」的層面,而應轉向「證據是否充分、外推是否審慎、準備是否到位」。
支持 RSI 預期的核心證據,並非單一模型的性能飛躍,而是跨任務、跨場景、跨評估框架的同步進步。以目前常被引用的幾類基準為例:研究複現能力、後訓練優化能力、真實競賽任務解決能力、軟體工程問題解決能力,均在不同程度上呈現上升趨勢。其價值在於「同向性」而非「絕對值」:當多個代理指標在一段時期內共同改善,通常意味著底層能力結構出現廣泛提升。
但同時需注意三個層面的侷限:
基準環境與真實環境存在分布差異。基準任務邊界明確、回饋穩定、評價標準可重現;而現實研發中則有目標漂移、跨團隊協作、隱性知識傳遞、資源限制及制度摩擦。模型在可控環境中的成功,並不自動轉化為組織級的可靠產出。
指標可見性不等同於能力完備性。現行基準較易衡量「解題能力」,但難以全面覆蓋「問題定義、優先權衡、失敗歸因、跨週期治理」等高階研發行為。換言之,模型或許能更快「答對題」,但未必具備「持續做對事」的能力。
趨勢外推可能受瓶頸遷移中斷。歷史經驗顯示,技術曲線並非總是線性延展。一個瓶頸消失後,新的瓶頸可能出現在數據品質、算力成本、系統可靠性、合規邊界或社會許可層面。若忽視這些二階約束,預測容易高估速度、低估阻力。
因此,多基準同步提升是強烈信號,但非終局證據。它代表「方向值得重視」,但不意味著「時間已確定」。
關於 RSI 的核心分歧,實質上並非「AI 是否變強」,而是「變強是否足以形成閉環」。所謂閉環,至少涵蓋五個連續環節:資訊攝取與文獻理解、假設生成、實驗設計與執行、結果評估與誤差診斷、策略更新與再迭代。單一環節的優化可帶來效率提升,跨環節的穩定銜接才能觸發複利效應。
目前可觀察的進展,主要集中於前三項及部分第四項:模型在程式生成、實驗腳本構建、文獻摘要、參數搜尋等任務上的邊際效率持續提升。但閉環最困難的部分,通常體現在兩類能力:
穩健診斷能力:面對雜訊數據、衝突訊號、偶發失敗時,系統能否精確定位原因,而非僅作表面修補;
目標對齊能力:在多重目標約束下,系統能否穩定執行「長期有效但短期不最優」的策略,而非僅追求局部分數最大化。
這也說明了「能做」不等同於「能負責」。研發閉環並非模型能力的簡單疊加,而是技術能力、流程設計與責任結構三者的耦合。若責任機制與稽核體系缺失,即使技術上接近閉環,組織亦難以安全授權。
「2028 年前 60%」這類表達具備溝通價值,因為它促使大眾意識到時間窗口可能比預期更短;但於決策語境下,仍應將其視為主觀概率,而非統計意義上的精確估算。更實用的做法,是將單一概率轉化為「情境-門檻」框架。
可設置三層情境:
基線情境:AI 深度嵌入研發流程,但關鍵決策仍由人類主導,形成「高自動化、人類兜底」模式;
加速情境:AI 能於若干領域完成準閉環迭代,組織研發週期顯著縮短,領先者形成複利優勢;
高衝擊情境:跨領域閉環能力出現,模型迭代速度超越制度更新,治理壓力集中爆發。
對應地,應設定明確的門檻指標,而非圍繞年份爭論。例如:無人值守連續迭代時長、跨任務遷移成功率、異常檢測召回率、自動回滾成功率、關鍵節點人工接管比例等。當門檻達成時觸發治理措施,門檻回落則鬆綁約束。如此方能將抽象預測轉化為可執行的管理。
若 RSI 或準 RSI 逐步成型,產業競爭將從「模型性能競爭」轉向「閉環營運競爭」。決勝關鍵,不再僅是誰擁有更大模型,而是誰能在實際組織中構建更短、更穩、更可控的研發循環。
組織邊界將被重繪。傳統以多職能串聯的研發流程,將重構為「少數關鍵人才 + 大規模 AI 代理」的協同網路。職位不會直接消失,而是轉向系統編排、品質控管、風險治理等領域。
效率紅利將呈現非線性分布。能率先實現流程級自動化的機構,可能在迭代頻率、成本結構、試錯規模上拉開差距;而僅於局部引入 AI 的機構,收益更接近線性改善,難以對沖結構性差異。
進一步來說,「可信研發能力」將成為新護城河。未來高價值競爭力不僅在於「做得快」,更在於「快且可證明地安全」。可追溯日誌、實驗可複現性、策略變更稽核、事故回應機制,將從合規成本轉化為市場信任資產。
面對可能到來的加速期,治理目標不應是阻斷進步,而應建立「可驗證的可控性」。這需要技術治理和制度治理同步推進。
技術層面,應將安全能力前置於研發流水線:預設記錄關鍵決策鏈路、對高風險操作設雙重授權、對模型自我改寫行為設置沙箱邊界、對異常性能飛躍觸發強制複審。核心原則是「先可觀測,再可授權」。
制度層面,應採取分級治理而非一刀切。對低風險應用維持創新彈性,對高影響系統實施更高透明度與責任要求,並建立動態更新機制。靜態規則難以因應快速迭代,監管本身需具備「持續校準」的能力。
組織層面,必須明確「人類責任錨點」。當 AI 參與研發與部署決策時,關鍵節點必須由可識別、可追責的人類簽署。缺乏責任錨點的自動化,只會加速流程,無法提升品質。
回到最初的問題:這一觀點是否值得採納?答案是,方向值得肯定,表達需審慎。其價值在於提醒我們,AI 在多個研發維度同步進步,閉環臨界點或比傳統預期更近;審慎則在於,任何具體年份與概率都不可避免地包含主觀假設,且易低估現實摩擦。
對決策者而言,最佳姿態並非在樂觀與悲觀間搖擺,而是在不確定性中建立穩健性:
一方面,應以「可能提前發生」的心態做好準備,避免在關鍵時刻被動應對;另一方面,運用分層情境、可量化門檻及責任錨點約束系統擴張,確保能力增長始終在可控範圍內。
如果說上一階段 AI 的主命題是「讓機器能完成任務」,那麼下一階段的關鍵命題將是:當機器開始參與創造下一代機器時,人類能否同步進化其治理與責任體系。
這不僅是技術預測的問題,更關乎未來創新秩序如何重新定義。





