美國《AI 2027》網站由致力預測人工智慧未來發展的非營利組織AI Futures Project在去年4月創建。團隊成員包括曾任職OpenAI的研究員丹尼爾•柯科塔伊洛(Daniel Kokotajlo),他在離開OpenAI後,積極呼籲提高AI公司的透明度。透過《AI 2027》情境推演,提供人類作為AI未來發展樣貌的最佳判斷。這項推演主要是根據趨勢外推、兵棋推演、專家回饋、以及他在OpenAI的工作經驗所形成。

《AI 2027》預言之所以值得重視,不在於它是不是百分之百會成真,而是它把正在快速發展的AI代理議題攤在檯面上,讓人無法迴避且需直接面對。當AI代理的前沿模型已成為國家安全與軍事決策的基礎設施時,決定勝負的已不只是模型能力,而是企業願不願意替國家機器劃下紅線。《AI 2027》描繪在2026年初,演算法優勢迅速轉化為國安優勢情境,已和現實世界正在發生的美伊戰爭高度重疊。

現實案例就是OpenAI與Anthropic在美伊戰爭對軍用AI的分歧。川普於發動戰爭前一天,於2月27日在真實社群(Truth Social)發文嚴詞批評Anthropic,川普認為美國絕不會允許一家激進左派、充滿覺醒文化的公司,來決定軍隊要如何作戰、如何贏得戰爭。川普表示這樣的決定權只屬於三軍統帥,以及他任命來領導美國軍隊的將領。

川普並批判Anthropic為左派極端分子並犯下災難性錯誤,竟然試圖對國防部施壓,要求遵守公司服務條款而不是遵守美國憲法。川普認為Anthropic自私的行為正讓美國人生命承受風險、讓部隊陷入危險,並使國家安全面臨威脅。因此,川普指示美國政府所有聯邦機構立即停止使用Anthropic技術。川普強調「我們不需要它,我們不想要它,也不會再與這家公司做任何生意」。川普並威脅將動用總統職權的全部力量迫使Anthropic遵守並威脅可能帶來重大民事與刑事後果。最後並嘲笑經營Anthropic公司的人,對真實世界的運作根本一無所知。

隔日,OpenAI執行長奧特曼馬上宣布與美國五角大廈簽署協議,將AI模型部署於五角大廈的機密雲端網路。顯示奧特曼的路線不是拒絕軍用,而是主張先進入體制,再透過技術與契約設限。但問題也出在這裡,OpenAI機器人與消費性硬體部門主管卡里諾夫斯基隨後宣布辭職,批評公司在重大協議推進過快、治理程序不足,並質疑對國內監控與致命自主權界線討論不夠完整,認爲未經人類授權而賦予武器致命的自主權,應該是要更謹慎討論的界線。由此可看出OpenAI的核心矛盾在於一方面高喊安全,一方面又必須在地緣競爭與政府採購壓力下快速成交。

Anthropic則堅持走相反方向。執行長阿莫戴也是OpenAI前員工,曾擔任研究副總裁職務。阿莫戴深信AI發展不能以犧牲人類安全為代價,嚴禁將技術用於大規模監控,並拒絕開發完全自主的殺傷性武器,嚴格將AI應用在直接作戰任務,因此遭五角大廈正式列為「供應鏈風險」而被排除在政府軍用AI之外。

Anthropic堅持某些使用邊界不能交給政府片面定義,而這正是《AI 2027》預言最值得我們警惕之處,一旦AI被視為足以改變情報與軍事優勢的戰略資產,政府就會傾向要求「任何合法用途」的完全調度權,而企業則被迫在國家忠誠、商業擴張與安全承諾之間選邊站。OpenAI選擇先卡位再談防護,Anthropic則選擇先守住邊界而被美國政府封殺;前者風險是紅線被競爭壓力逐步侵蝕,後者風險則是把市場與政策主導權拱手讓人。

綜合而言,《AI 2027》之所以發人深省,不在於它是否精準預言未來,而在於它清楚揭示AI軍事化早已不是「要不要發展」的是非題,而是「由誰劃定邊界」、又該「由誰承擔失控代價」的治理難題。當前社會對AI發展仍缺乏足夠嚴肅且深入的公共討論;今天退讓的是OpenAI的企業原則,明天可能鬆動的便是人類安全的最後底線。

也因此,到了2027年,人類必須共同面對的,恐怕是一個不確定性持續升高的未來。《AI 2027》警示我們的,其實是兩條截然不同的道路:「競逐」或「減速」。而人類終究必須審慎思考,選擇要走哪一條路,並承擔隨之而來的後果與結局。

(作者為中華經濟研究院輔佐研究員)

※以上言論不代表旺中媒體集團立場※