Google與芝加哥大學聯袂發表在arXiv平台的論文《推理模型孕育思想社會》(Reasoning Models Generate Societies of Thought),在複雜技術之外,它迫使人們必須重新正視一個被忽略的問題,什麼才是真正的智能?
這篇論文所給予的答案,是接近我們人類的智能,推理模型完全不是一條筆直的思考線,而是一次內在的對話,甚至是一場衝突不斷的辯論。
研究團隊利用一種稱為「稀疏自編碼器」(Sparse Autoencoder, SAE)的工具,首次得以撬開DeepSeek-R1與QwQ-32B頂尖推理模型的內部運作。研究發現,當這些模型面對真正困難的問題時,內部並不只有一個聲音在計算答案,而會自發分裂出多個角色,其中有專門質疑假設的,有負責提出聯想的,有執行步驟的,有反覆驗證結果的,甚至還能辨識出外向、謹慎、衝動或保守等類似人類性格的差異。
換句話說,這些模型在腦中形成一個小型社會,這種現象被研究者稱為「思想社會」(Society of Thought)。其關鍵在於,這不是工程師寫進去的功能,它是模型在長時間強化學習,只被獎勵「最後答對」的過程中,自己摸索出來的高效策略。當單一思路容易卡頓時,最好的解法不是想得更久,而是讓不同觀點互相衝撞。
論文裡有一個極具畫面感的例子,在有機化學合成題中,普通模型通常會一路推到底,錯了也不知道錯在哪裡,但推理模型的內部卻像一場會議,先有人質疑化合物結構是否判斷錯誤,另一個角色立刻反駁氫原子數量不對,第三個提出替代反應路徑,最後由實幹者逐步驗證。這些質疑、反駁、修正的內部互動,直接對應了更高的解題成功率。
令人咋舌的,是這套機制不只存在,還能被精準操控。研究人員在模型中定位到一個特定的內部特徵,與「啊!原來如此」、「等等,這不對」這類轉折與驚嘆的語言反應高度相關,僅僅是稍微強化這種內在承認錯誤、重新檢視的信號,模型在一項算術推理測試中的正確率就幾乎翻倍,反過來壓抑它,表現立刻崩跌。這說明了一件過去被忽略的事,好的推理,不是避免錯誤,而是擁有承認與修正錯誤的內在機制。
若從更宏觀的角度看,這項發現正在動搖過去十年AI訓練的核心假設。我們習慣把思考想像成一條愈寫愈長的推理鏈(Chain of Thought),彷彿只要步驟夠多、夠完整,智能自然會出現,但這篇論文清楚表明,真正關鍵的不是長,是多樣性和衝突。沒有不同立場,就沒有驗證;沒有衝突,就沒有真正的理解。
這也讓AI的演進,意外地與人類智慧的起源重疊。心理學與演化人類學早已指出,人類的大腦之所以變得如此龐大,並不是為了獨自解題,那是為了在複雜的社會中協商、辯論、說服與防衛他人,智能,從來就不是孤立誕生的,從這個角度看,當AI開始在腦內模擬一個小型社會,它其實是在重走人類智慧的老路。
這項研究的意義,不只在於性能提升,更在於可解釋性與安全性的突破。在此之前,我們只能看到AI的最終答案,卻無法理解它為何如此判斷,現在,研究者首次能夠量化模型內部的「角色多樣性」、「衝突強度」與「共識形成」。未來,這意味著我們有可能在模型犯下嚴重錯誤之前,就察覺它的內部思考是否過於單一、是否缺乏反對聲音。
對整個產業而言,這是一個重要的轉捩點,AI的下一步,恐怕不再只是更大的模型、更昂貴的算力,應該是更成熟的內在組織能力,它會知道什麼時候該質疑自己,什麼時候該讓不同觀點充分交鋒,什麼時候又該收斂成可行的共識。
這篇論文提供的價值,不是技術上的驚喜,是一分明確而清晰的預感,世界正在進入一個全新的智能階段,不是更安靜、更順從的AI,是更吵雜、更懂自我辯論、也更加可靠的AI。或許,真正的分水嶺是論文中所隱含的那句話,「當AI開始在腦中互相爭吵時,它才真正開始思考」。
(作者為富瑜文教基金會執行長)
※以上言論不代表旺中媒體集團立場※







