賴清德總統19日再度宣傳政府力推的「AI新十大建設」,強調要在既有硬體實力基礎上整合產官學研能量,建構算力、AI資料中心等核心技術,希望能達到2040年前能有兆元產值的軟體平台、協助百萬家中小微型企業導入人工智慧升級轉型,及建立人工智慧生活圈等三大目標。
7大原則 建構AI環境
就在時隔不到一周的時間,立法院23日三讀通過《AI基本法》,條文重點在強調政府推動人工智慧研發與應用時,應本於兼顧社會公益、數位平權、促進創新研發與強化國家競爭力的前提,並遵循永續發展與福祉、人類自主、隱私保護與資料治理、資安與安全、透明與可解釋、公平與不歧視和問責等7大原則。
《AI基本法》對政府力推的新AI十大建設究竟是強制踩煞車,還是建構更安全且有利產業發展的AI環境,其實重點還是在「解釋權」,因為《AI基本法》仍舊屬於大框架,不可能針對所有細節一一表列,後續各事業主管機關和主責的國科會如何解釋相關條文,恐怕會是《AI基本法》成為AI新十大建設助力還是阻力的關鍵,另一個值得思考的則是相關法令是否可長久。
在這樣的前提下,一方面政府因為經濟發展的需求必須大力發展和扶植AI相關產業,但同時又要避免AI被濫用造成的各種風險,因此針對AI設置基本規範的《AI基本法》,絕對有其必要,但相關法令絕不能流為針對單一技術或應用下達禁令,而應以法律層級為台灣AI發展畫出更清楚的原則、責任與治理框架,進而達成推動台灣邁向智慧國家的目標。
從《AI基本法》的名稱,即可明白這是強調原則性規範的基礎法律,也就是類似總則,先確立出大方向和底線之後,再授權各目的事業主管機關制定更細緻的配套措施。正因《AI基本法》談的都是大原則和方向,例如保障人民基本權利、促進數位平權和強化國家整體競爭力,後續細節包括怎麼推動、如何界定,各機關執行上是否有矛盾,這些才是重中之重。
舉個例子,《AI基本法》的立法目的,明確指向建構以人為本的AI研發與產業環境,確保技術應用不偏離社會倫理,即確保AI被安全、透明且負責任的使用。但單是什麼叫以人為本的AI研發與產業環境就十分模楜,更不用說技術應用不偏離的社會倫理所指範圍為何,因此隨著各行政主管機關的解釋不同,基本法的執行都可能有異。
釐清細則 莫因人廢事
更令人擔心的,是台灣現在很多政策受到政治因素左右。例如執政黨反中情緒下,連小紅書都可以因為詐騙的理由被禁,沒人能保證政府會不會用基本法這個大框架,限制與大陸有關的AI應用、發展和投資;同樣地,如果有朝一日政黨輪替,對於基本法執行細節的解釋可能又有所不同,法律如果不能可長可久執行,對產業勢必是變數也是硬傷。
依《AI基本法》三讀通過的版本,各主管機關須全面檢討現行的法規與行政措施,若有不符或無法適用之處,必須在施行後2年內完成修正、制定或廢止。可以說,基本法本身並不至於直接衝擊產業,但未來2年內各主管機關如何訂定相關行政措施,才是真正的關鍵,除了各部會的橫向溝通,行政措施調整前,政府也應廣納民意,同時應主動聽取業者意見。
特別是AI新十大建設的關鍵即在引資,因此基本法的完善度和落實情況,勢必左右AI新十大建設的成敗,政府和各事業主管機關愈快明確釐清相關細則,才有助建立產業信心,達到政府希望引資發展AI、促進經濟和就業的政策目標,如果只有一個空泛的法律框架,執行上還是因人廢事,業者想必也能看得清楚,進而對AI新十大建設打退堂鼓。
就事論事,AI目前早已實際進入醫療診斷、金融徵信、公共行政、教育與勞動市場,若缺乏明確法制框架,確實可能衍生資料濫用、決策不透明與責任歸屬不清等風險,《AI基本法》就是為了解決這些問題,建立更健康有序的AI環境,而非衍生更多的解釋空間,否則只是徒增爭議,無法回應社會的期待,更不可能得到AI產業的信賴和投資。


