Critical-Singularity-Perspectives 系列第五篇
1.問題啟動
AI 已在社會各層面擴散:偵測資料偏誤、製作輔助決策報告、法律文件自動化、程序監督……然而真正關鍵的問題不是「AI 能做什麼」,而是「法律允許 AI 做到什麼程度」。
司法與行政程序牽涉公共權力,任何判斷都可能形成個案結果、人權影響與長期先例。如果在沒有明確界線的情況下引入 AI,將可能使本已脆弱的程序正義承受更大的結構性風險;但若因恐懼而拒絕技術,則可能讓制度偏誤持續無法被修正。
於是我們面臨一個核心命題:
AI 在司法與行政程序中可以承擔哪些任務?哪些權限永不可被委託?誰負責問責?
以下,我將以「授權邊界框架(Delegation Boundary Framework)」為主軸,說明 AI 在法律程序中的合理邊界。
2.結構性原因解析(Structural Analysis)
要理解 AI 的可行角色,必須先理解司法與行政程序的三項基本結構:
(1)決策的正當性(Legitimacy)
法律程序的權威來自可審查、可監督、可推翻的決策機制。
若 AI 無法被質疑、交叉檢驗,則決策正當性將被削弱。
(2)證據與程序的連結(Evidence–Procedure Coupling)
司法/行政判斷涉及:
-
事實認定(fact-finding)
-
法律適用(rule-application)
-
裁量(discretion)
AI 在第一部分可高度參與,但在第三部分具有天然限制。
(3)責任與權力配置(Accountability Structure)
在現行制度下,「責任」與「權限」必須一致。
AI 若提供決策建議,但無法承擔法律責任,那麼權限不可外移;
相反地,若人類只成為「蓋章機器」,則程序將快速淪為形式主義。
由此可見,AI 的角色不能只靠技術能力決定,而必須回到「權限—責任—程序」的三重結構判斷。
3.推論模型導入(Reasoning Model)
我提出授權邊界框架(Delegation Boundary Framework),用以界定 AI 在法律程序中可被委託的任務、不可委託的權限,以及必須建立的問責機制。
【授權邊界框架:AI 在法律程序中的三類界線】
| 類別 | 定義 | 可否委託AI | 說明 |
|---|---|---|---|
| A 類:可完全委託(Automatable Tasks) | 不涉及裁量、僅需比對/歸檔/整理的任務 | 可以 | 文書整理、時間排程、資料比對、錄音逐字稿轉換。 |
| B 類:可部分委託 (AI-Assisted Tasks) | 需要事實分析或初步推論,但仍需人類覆核 | 有限可委託 | 事實比對、風險預測、程序檢核、偏誤偵測。 |
| C 類:不可委託 (Human-Exclusive Decisions) | 涉及裁量、價值判斷、權利義務改變的決定 | 不得委託 | 裁罰、判決、處分、認定人性脈絡的事實。 |
【反向鎖定機制:三重問責設計】
AI 的使用必須同時滿足三項問責鎖定:
(1)資料問責(Data Accountability)
-
資料來源可追蹤
-
偏誤可檢查
-
修正路徑可驗證
(2)程序問責(Procedural Accountability)
-
AI 的建議必須出現在程序卷證中
-
必須可供當事人質疑
-
決策者必須說明是否採納及理由
(3)責任問責(Liability Accountability)
-
責任永遠在於擁有法律權限的人
-
AI 不得成為「裁量責任外包」的工具
此三者即構成 法律 x AI 的可採用邊界。
4.案例影射
以下均為「類型化案例」,不涉任何特定個案:
案例一:AI 協助初步事實比對(屬 B 類)
行政機關在調查陳述時,利用 AI 自動比對筆錄、時間戳記與文書內容,標示矛盾之處。
AI 不決定誰說謊,但能將「可能矛盾」可視化,提高審查效率。
最後結論仍須由承辦人員做成,並可被當事人質疑。
案例二:AI 生成「風險預警模型」但不得直接裁罰(B → C)
例如 AI 偵測某教師的行為模式疑似違反校規。
AI 可發出警訊,但不得自動啟動調查或處分。
所有後續行動須由人類主管確認,並記錄其理由。
案例三:法官使用 AI 作為量刑建議參考(C 類)
AI 可以提供:
-
同類案件統計
-
判決資料庫分析
-
相似事實比對
但真正的量刑決定必須由法官親自做成。
AI 不能取代人類對脈絡、情感、關係、文化因素的判斷。從以上可見:
AI 的最強能力在於「支援程序」而非「取代裁量」。
而真正的風險,往往不是 AI 作錯,而是人類將責任轉嫁給 AI,形成新的不透明結構。
5.戰略結論(Strategic Conclusion)
未來10–20年,司法與行政程序將同時面臨兩股力量的拉扯:
-
一方是技術加速:自動化、語言模型、資料對比、偏誤偵測。
-
一方是制度慣性:責任歸屬、程序僵化、權力不願透明。
而 AI 能否真正改善制度偏誤,端賴「界線與問責」是否明確。
我主張:
-
資訊分析與查證可全面導入 AI(A+B 類)。
-
涉及價值、裁量與權利義務變動的核心判斷必須保持在人類手中(C 類)。
-
所有 AI 推薦/生成內容必須進入卷證、可被質問與審查。
-
建立跨機關的 AI 程序紀錄標準(如 Log-Trace、Model-Reason 透明化)。
-
發展「AI 反偏誤模組」作為現行制度的重要外部監督力量。
- ASI(超級人工智慧)誕生後,人類可能會授權AI判案,避免不同人類法官有不同判決,20年之內還不可能。
未來的法律不是與 AI 競爭,而是學會與 AI 共治。
司法與行政程序的公正性,將日益依賴於「技術」與「制度」之間的深度協作。
這既是挑戰,也是機會。而我們正身處這場制度演化的最早期階段。
限會員,要發表迴響,請先登入



