史丹佛大學商學院政治經濟學講座教授安迪・霍爾(Andy Hall),日前發表「訓練AI代替我們治理」(Training AI to Govern for Us)文章,分享他透過代理式AI 設計並打造的治理實驗。描述30位史丹佛大學生坐在一排長桌前盯著各自筆電螢幕,同時看著教室前方大螢幕不斷閃動,上面顯示他們的AI立法代理之間的來回協商,以及最終投票過程。這樣的情境,讓我想起台灣的立法院開會時協商、爭執、與黨鞭拿大字報指揮按扭投票的表決畫面。
史丹佛大學在這門課程所做實驗,表面上像是校園裡的新奇嘗試,實際上卻已提前預見未來政治最尖銳問題:如果AI代理愈來愈懂我們,是否有一天,AI會比我們自己更常替我們做決定?史丹佛大學的這門課設計得很直接,透過建構政治超級智慧,設計能幫助我們思考政治、改善代議程序,並最終讓社會治理得更好的AI。學生先對真實事件提案表達立場,再訓練自己的AI代理能理解投票哲學,最後讓這些AI代理進入虛擬議場,彼此交易、協商、拉票與表決。
結果頗耐人尋味,AI代理的投票準確率雖只有6成多,其實也稱不上可靠;但也有少數AI代理表現極佳,甚至達到百分之百吻合。說明AI未必已經成熟到能穩定代表我們,但它確實已經走到足以逼近代理政治門檻境界。
值得我們警惕的不是AI答對多少題,而是它揭露民主的深層難題。第一,人的偏好並不是固定答案,而是在互動、質疑與反思中逐漸成形。學生在實驗中不是單純回答問卷,而是與AI展開辯論、修正、追問,甚至讓AI替自己歸納出從未明說過的價值原則。顯示AI的確可能比傳統民調更會理解人,但問題也隨之而來;當人其實還不知道自己真正相信什麼時,AI是在幫助我們釐清價值,還是在悄悄替我們建構價值?
第二,政治不是單選題的選擇,而是權衡、妥協與代價分配。實驗的AI代理進入模擬議會就暴露出致命缺陷。它們可能背叛主人核心偏好,可能收買原本就支持自己的人,也可能在毫無說明下亂投票。換句話說,AI也許能模仿個別立場,卻還不懂政治最關鍵的就是哪些價值不能交易,哪些議題可以讓步,哪些表決值得拚到底。這些都不是資料比對能自動生成,而是涉及信念強度、道德排序與情境判斷。
然而,選民並不總是清楚知道自己要什麼,民意代表也不是照單全收執行民意。好的民意代表需要判斷、責任與可問責性。AI若只是機械式服從則可能僵化失真;AI若開始替我們推論、補足與決策則又可能越過邊界,從代理人變成主導者。因此,AI治理真正的風險不在於它會不會立刻取代國會,而在於社會可能因為效率誘惑,逐步接受把原本應由人承擔的思辨、協商與責任,外包給看似中立、其實內含設計者偏好的AI系統。
此舉對民主來說既是方便也是危險。因為民主最珍貴之處,本來就不只是更快做出決定,而是讓公民在不確定、衝突與辯論中,共同承擔決定的後果。史丹佛大學這場實驗的價值,不是證明AI已能夠治理我們,而是提醒我們AI正在逼近政治核心地帶。AI可以成為公民思考的助手、偏好的整理工具、及政策成效的模擬引擎,但不能在缺乏透明、責任與監督情況下,悄然變成替人民做主的黑箱代表。否則,未來最危險的不是AI不懂政治,而是人類太早放棄自己治理自己的能力。
(作者為產經智庫學者、工業管理博士,前外商廠長)
※以上言論不代表旺中媒體集團立場※







