美國華府智庫「布魯金斯研究院」日前發表研究報告《邁向軍事領域人工智慧治理的步驟》(Steps toward AI governance in the military domain)。由於布魯金斯研究院和北京清華大學戰略與安全研究中心(CISS)共同舉辦多年的中美人工智慧與國家安全二軌對話,因此報告由參與對話的中美代表團成員共同撰寫。

人工智慧早已不只是晶片與演算法競賽,正快速成為重塑戰爭樣貌的關鍵力量。從無人機、演算法輔助情資分析,到可自主調整戰術參數的武器與指管系統,AI正推動「看不見卻致命」的軍備革命。中美兩國作為AI研發與軍事應用領先者,表面上追求的是戰場優勢,實際上卻同時把自己與全世界推向風險更高的新臨界點。

布魯金斯研究院學者梅蘭妮•西森(Melanie Sisson)提出「AI驅動軍事危機四階段模型」,為我們理解AI的軍事風險提供重要起點。所謂啟動、行動、影響與因應,說的是看似局部、技術性事件,如何從AI系統誤判,轉化為國家層級危機。當一套整合AI模型的防空系統錯把民航機當成來襲飛彈,或無人機群因通訊干擾誤入敏感空域,在對手眼中,看到的不是「演算法出錯」,而是具體而且危險的軍事行動,隨之啟動報復與升高壓力。

更棘手的是,AI軍事平台的風險不只來自「機器會不會犯錯」,還包括「人如何使用機器」。西森把技術故障概分為三類:模型可理解錯誤(無辜或正常錯誤)、模型無法辨識錯誤(黑箱式與惡意操弄)、以及自然與太空環境的訊號扭曲。同時,政府對AI平台使用,可能是刻意干擾、蓄意破壞,也可能是權限管理鬆散下未經授權操作。對外界而言,這些差異很難在第一時間分辨,看到的都只是來自對方攻擊或挑釁。每多部署一套AI軍事系統,潛在的誤解與升級路徑就多一條,戰略穩定便被細微卻持續地侵蝕。

布魯金斯研究院學者,曾擔任美國國防部副部長的科林.卡爾(Colin Kahl)則主張與其追求完美的軍事控制架構,不如先從「無悔措施」做起。例如建立中美共同的故障分類與事件通報機制,對「故意中斷功能」、「未經授權啟動」等危險行為給出共享定義;在和平時期事先通報涉及無人機群、自主系統的軍演,事後交換安全教訓;更要確保領導人熱線與軍事管道不被深偽技術假冒,並在核指揮與通訊領域排除AI干預,把拜登與習近平已同意的「核武決策必須由人作主」具體化。這些安排也許稱不上完善,但至少不會在未來被證明是錯誤方向,因而被稱為「無悔」。

北京清華大學戰略與安全研究中心副研究員孫成昊,則把目光拉回技術與制度的接縫。他提醒許多標榜「人類在迴路中」的系統,其實只是讓軍官在幾秒內對AI建議按下同意鍵,實質上是「假人控、真自動」。要降低風險,就必須區分哪些系統必須維持真正意義的人為控制與問責(例如核指揮與致命攻擊),哪些領域可以在嚴格可追溯前提下,逐步提高自動化比例(例如後勤與部分情監偵)。同時,他主張採用混合風險層級方法優先處理近期成熟、即將部署的AI軍事應用,對前沿模型則維持持續監測,避免在技術「跳躍式」進展時完全失去準備。

北京清華大學戰略與安全研究中心副主任肖茜,認為真正卡住AI治理進程的,不只是技術,而是政治。肖茜從「安全困境」切入,點出中美在AI領域競逐,已經符合典型互疑與軍備競賽特徵。美國以「小院高牆」名義強化技術圍堵、出口管制與聯盟內分工,中國則視之為遏制其發展的結構性政策。在烏俄戰爭、以巴衝突、供應鏈重組與非傳統安全威脅疊加背景下,各國普遍感到不安,於是更傾向把AI視為必須搶先部署戰略資產,而不是需要共同設計護欄的高風險技術。任何涉及透明度、驗證與限制的軍事AI治理談判,都容易被懷疑是在「圖利對手」。

AI驅動戰爭風險,將成為中美競逐新課題,但不該被理解為「誰在AI軍備領先」問題,而是「人類能否在技術加速失控之前,為自己設好安全閥」考驗。對中美兩國而言,競爭或許難以避免,但在核武與AI這兩項關乎人類文明存續領域,至少應證明自己有能力在衝突之外,為世界提供穩定與克制的公共財。真正能決定未來安全的,不是誰擁有更強大AI武器,而是誰能在戰爭尚未被演算法接管之前,先為戰爭畫下人類自己的底線。

(作者為中華經濟研究院輔佐研究員)

※以上言論不代表旺中媒體集團立場※