Contents ...
udn網路城邦
如何進入AI相關應用研究:一些個人經驗與心得分享
2019/04/07 20:27
瀏覽2,593
迴響1
推薦2
引用0

如何進入AI相關應用研究:一些個人經驗與心得分享[1]

 

王道維[2]

 

這篇文章的寫作背景是筆者近日受邀在科技部人文社會科學研究中心所舉辦的會議中簡介AI相關應用。但是筆者過往的學術背景既非資訊科學更非人文社會領域,面對來自全國各地不同背景的學者,自忖除了客觀知識外,似乎可以再補充近年轉入AI相關研究的主觀經驗與心得,或許有助與會學者更完整地評估這些想法,也可作為其他理工/資訊方面的學者參與人文社會研究時的參考。當然,面對AI時代更多類型的跨域整合發展,筆者所能觸及的自是非常有限,因此此文只當是野人獻曝,期待能夠拋轉引玉,促進未來更多對話交流。

 

        內容大綱:一、轉入AI的背景與動機;二、跨域學習的過程與反思;三、研究主題的選擇與分析;四、研究團隊的磨合與信任;五、資源整合的挑戰與公共化;六、結語:善用勝於預防。

 

一、轉入AI的背景與動機

 

雖然我過往的學術背景歸屬於理工科系無疑,但是從高中以來對於工程方面(包括資訊)其實從未展現任何興味,甚至遠比不上我對哲學、文學或藝術等接觸。現在想來可能還是受到學科本位主義的影響:畢竟單從理論基礎來看,這些科技應用都還是奠基於物理定律而不可能超越,而所謂的實用價值卻是見人見智,不一而足。因此,當幾年前AI相關消息多起來的時候,我也只當成媒體的炒作,未曾認真看待。

 

但是2016年初,當AlphaGo在象徵人類智慧結晶的圍棋上壓倒性贏過世界冠軍李世乭時,筆者才恍然驚覺一個新時代的來到!因為一些簡單的估算就可以曉得,圍棋不是用窮舉計算可以贏得的比賽!也就是說AlphaGo的程式應該是掌握到某種類似人類的思考模式,但卻不是其發明者所能賦予的(因為其圍棋功力不可能贏過世界冠軍)。這讓我開始更深入了解人工智慧有關的文章,用不同的角度來看待這個開啟第四次工業革命的AI科技:它已經不只是力量、數量或速度上的增加而已,或許已反映出人類心智中某些更為本質的東西[3]

 

因此,我自己起初轉入AI研究的動機主要是想借用此技術來從不同角度認識人類的心智,或許可以與心智哲學、認知科學、或行為經濟學的觀點互相補充;另一方面當然也盼望走出理論物理的象牙塔,以此與其他領域的學者合作,或許也能為社會帶來一些更具體的貢獻。

 

二、跨域學習的過程與反思

 

在我所閱讀過與AI相關的科普類書籍中,數學家凱西.歐尼爾(Cathy O’Neil)對大數據的質疑[4]、前Google與微軟的亞洲區總裁李開復的審慎樂觀[5]、並Google工程總監庫茲威爾(Raymond Kurzweil)的超人類主義[6]大抵可以代表從質疑到樂觀的幾種看法,幫助我稍微拼湊出對於AI發展的多層次理解。我個人認為這種宏觀圖像對於像自己這種沒有過往基礎的研究者是非常重要的:才能比較清楚自己的目標或定位,而非盲目地跟風起鬨[7]

 

2017年開始我學習第三波AI中最重要的演算法,深度學習(Deep Learning),想要了解這背後有何神祕之處。還好以前做研究生的時候也寫過程式,理論物理的背景也讓我對其中所涉及的數學公式不會感到困難,甚至可以看出所隱含的物理圖像或意義。這使我放心不少,畢竟學校行政教學的事務繁忙,幾乎不可能有時間親自撰寫程式或debug(經驗也不足),但是初步看來還是有可能與學生討論程式執行的結果,勉強可以作些實務應用[8]

 

當後來有機會與其他同仁討論時,我才發現上述兩類型的接觸中,人文社會背景的學者多是由哲學思辨或社會影響角度來接觸AI主題,而理工背景的學者多是如由程式撰寫或實務技術直接把AI當工具[9]。雖然這是學科訓練下很自然的結果,但也就很容易回到自己的領域來發表了結,看似跟上時代潮流,其實並未跨越。但是在面對這個人類有史以來最跨領域的技術,如果我們願意藉此重新審視這些壁壘分明的學科分際,或許比較有機會帶來一些根本性的改變。

 

三、研究主題的選擇與分析

 

如同所有的研究計畫,主題的選擇都是最主要的關鍵,但是對AI應用研究而言,這又是格外困難的。原因是,AI的成功是需要與資料來源、品質、數量、特性、研究目標、對象並其知識結構密切配合,無法只單憑興趣或熟悉技術就能完成。以下我簡要描述自己曾作過的評估取捨,或許可供有志於此的同仁(理工或人社皆適合)參考。

 

如前所述,我起初是想要用自己建立物理模型的經驗來理解這些類神經網路的運作,希望有機會切入與人類心智有關的領域。但是後來才發現其實過於天真,因為這類「Explainable AI」正是目前AI研究最核心的困難之一,國外的相關研究也才剛開始[10]。對毫無經驗的我而言,應該從具體的應用開始學習比較實際[11]

 

首要的問題就是,資料從哪裡來?因為AI多半需要大量優質的資料來訓練,所以資料的來源決定了應用的範圍。從物理相關的領域來看,最多資料的無疑就是天文觀測,畢竟天上的星星比海邊的沙還多呢!於是我就發信詢問本校天文所的教授,得到專門研究恆星形成的賴詩萍教授正面回應。她想知道是否能訓練AI從星體的光譜中辨認出那些極少數的初生恆星,以便對恆星形成的機制有更多了解。我馬上發現這是個適合入門的題目,因為除了數據量大以外,整個光譜可以直接表達成向量,又有過去的理論結果可以對照比較。經過大約一年的努力,我們不但可以準確重現過往的理論結果,甚至在其差異處發現AI反而提供更正確的結果(與新的觀測資料比較)。我們更藉由誤差分析與特徵選取,找出最重要的光譜波段。也就是說,AI模型不只是作資料處理,而是可以用來發現新的機制。未來我們也將擴展到全星空與更多類星體的辨識,成為全世界天文學者都可以使用的資料來源。

 

後來本校生命科學院江安世院士參加我們理論中心的講座,為其腦科學研究中心招兵買馬,想要用AI協助處理他們那全世界最大的腦神經光學影像資料庫。我與負責計算的羅中泉教授請教後,了解到他們目前想辨識出果蠅神經的訊號傳遞方向以建構整個腦神經網路。起初我懷疑這個題目太過困難,畢竟每條神經的大小與形狀都不同,而以實驗方式明確知道結果的不過百餘條。但是後來我想出一種將3D神經投影到2D結構的方式,並以每條神經數十到數百個節點來作訓練資料的擴充,使我們的AI模型更容易處理相關資訊並增加訓練效能。經過幾個月後,我們已可達到96%以上的準確度,遠遠超過以前的結果,將來可以為整個果蠅大腦的訊息傳遞作定向的工作。

 

只是在AI相關應用中,我最感興趣的始終是自然語言處理(Natural Language Processing),不但因為語言文字是最貼近心靈的表達方式,也是源於我個人對於文學的興趣。但是自然語言處理向來被公認為人工智慧中最為困難的領域,嚴格來說對我並非合適的方向。那時有一位從學生時代就認識的年輕工程師剛好從AI學校結業,也想挑戰自然語言處理的題目來練功,我才想說可以嘗試看看。

 

當我在思考哪裡會有適合AI處理的文字資料時,幾乎盤點了所有的人文社會學科,發現法律文字或許是個可以考慮的方向。以法院的裁判書為例,不但量大品質高,內容又多與民眾生活相關,不必擔心與社會脫節而斷源。雖然法律文件有其特殊的語法和用詞,卻也因此有相當高的一致性、精確性與邏輯性,與一般常用的新聞語料或網路文字不同,甚至可以用來協助AI發展論述性(而不只是描述性)的文字生成技術。

 

之後我有機會與家事法專家,本校科技與法律研究所的林昀嫺教授,提到這些想法,才知道她對AI應用在民事判決上也很有興趣。她甚至很精準地建議出可用「離婚後的親權酌定」作為首先嘗試的案件類型,因為相關的法律條文(民法1055-1)提供了十幾種考量因素,在法實證研究方面還有許多發展空間。從司法實務來說,若能有合適的AI來協助較單純的案件,更可以幫助法官更專注於較為複雜的案件,提升判決的效率與品質。於是很意外也很感恩的,自己竟然藉著AI有機會參與法學研究領域,現在回想來還是有點難以置信,恍如夢境。

 

但是法律方面的文字資料(例如法院裁判書),目前都是大量未被標註過的「純文字」,很難有效被AI使用。因此我們首先需要找一些有法律背景的學生來協助作基本的標註工作。這一標下去就是半年以上的時間,包括多次開會討論以及群組中無數次的意見交換。但是這些原始的標註資料才是真正的資產,會是後來AI模型訓練與法實證研究的重要基礎。此外負責AI技術的資料科學家還常需要熬夜調整資料的處理模式與發展可靠的模型才能達到比較有意義的結果。事實上,法律相關的應用的確是我目前幾個AI應用中最為困難也最有挑戰性的,卻可能也是最有價值的方向[12]

 

其實從更廣闊的角度來看,AI在人文社會領域的應用會比傳統的量化研究更有侵略性,不只是被動評估各變量之間的關聯函數,甚至能在尚未有任何理論假設前,就可以從大量資料的訓練下主動作出精準的分類或預測,亦能隨外在環境的回應而自動調整學習[13]。所以我個人認為這可視為人文社會在傳統的質性研究與量化研究外的第三類型研究方法,藉由模型參數與資料性質的調控而模擬檢視某些經驗規則的適用範圍[14]。這類型研究在AI出現以前是難以想像的,我相信將來也應該會在人文社會領域的研究中帶來重要的影響。

 

四、研究團隊的磨合與信任

 

由於AI的跨領域性質,研發團隊的建立常會牽涉到主導權的歸屬。以我目前的了解,研究團隊大概有以下幾種類型:首先,市面上所看到的都是由產業界所主導,AI技術提供者是為了應用端的需求而研發。其次是資工相關科系所主導的技術研發,此時資料提供端僅是輔助性的角色。第三種類型是以人文社會研究團隊所主導,討論AI發展在法律、社會或經濟制度的影響,或是和哲學、心理與人文學科的對話。第四類是非資工類型的科系(包括理工生醫或人文社會)在其主導的研究中,部分利用到某些現成的AI技術或產品,但不需要另外發展AI模型。以上四類都是屬於比較單純的,因為角色與功能有明確的劃分。

 

但是我這裡比較關切的是第五類,屬於「跨域研究型」。也就是不同領域的研究者都有相當的主導權,需要彼此緊密合作才能創造新的成果。原因是AI模型在跨域應用時往往需要重新被訓練或甚至從頭開發,就會有個「資料預處理」的重要過程[15]。這是雙方專業領域的交會處,往往也是結果分析最關鍵的地方。此時學科間的差異就可能會為彼此合作的關係帶來挑戰與契機。最好是能尋找出對雙方都有前景的主題作長期的合作,這樣就會有比較多的研究角度或發表機會來各取所需,又能持續累積相關的成果。

 

          AI應用於人文社會領域時,這種在學科與角色間的差異自然就更為明顯:人社學者對於原始資料豐富的觀點與詮釋角度常常無法反映在這些有限的資料中,但是為了要讓AI有效發揮,這些資料又常需要被「去脈絡化」的處理,以至於可能使人社學者覺得專業不受尊重。對技術方而言,卻必須先從相對單純的資料開始測試,後來才能掌握參數範圍以確保整體的效果。舉例來說,若用AI來作訴訟判決的預測,目前只能從法院公開的裁判書來分析,無法回朔事件真相。而動輒數千上萬字裁判書,自然也只能先從某些部分開始分析標註。這樣得到的預測結果該如何定位其意義,自然也會是AI應用時的重要議題[16]

 

因此當人文社會領域研究導入AI技術作跨域研究,的確更考驗著合作雙方的默契與誠意。就此而言,我個人在這兩年還算順利轉進AI研究其實足以令我謙卑感恩,除了上帝的眷顧更有許多同事的寬容與支持,不嫌棄讓我這個沒有任何經驗的人也能藉此跨足參與。畢竟在學術界,跨領域很容易受到原領域學者(甚至學生)的質疑與對方領域專家的輕視,彷彿只有專業能力不足的人才會這樣不務正業,更何況所投入的努力也很可能敗陣而歸,一無所獲。不過或許也正是因為如此,跨領域合作才更顯難得,而這個過程所展現的意義應該比結果還重要。相信在AI時代中,將會有更多類似的故事繼續出現與傳講。

 

五、資源整合的挑戰與公共化

 

          由於本文是源自對人文社會領域的學者分享AI相關應用的心得,所以最後我也從個人對人文社會領域有限的了解來思考相關資源的整合問題,其中最主要就是資料標註與技術人才的問題。

 

一般而言,標註人力多半是由資料提供端(如人社領域)來尋找相關領域的學生來協助。但是我個人覺得若是有價值的資料,現在就應該要開始有系統且大規模的整理,而這當然也就涉及到許多學界大老們如何看待時代的趨勢[17]。若能有更前瞻性的眼光,甚至該開始討論如何從資料收集時就有結構化的設計(如裁判書的撰寫格式),不但後來可以省去這類勞時費心的標註工作,更會促進AI技術的客製化,增進人文社會領域的研究質量並推廣AI應用的公共價值。

 

     至於AI技術面的人力,現階段若要以個人研究經費來聘任有經驗的專任助理恐怕相當不容易,薪資也難以與業界相比。事實上,現在整個產業界都在搶學術界的AI人才。以我個人的經驗而言,有些AI工程師仍是可能暫時放棄業界的高薪而來學校參與研究,除了個人因素以外,研究主題是否能讓他們覺得有公共價值或長期影響,因而加值他們日後重回業界的視野經驗,會是重要的考慮。當然,如果能與一些理工或資工相關領域的研究群合作,甚至吸引其學生來參與人文社會的研究也是可行的作法。只是人文社會的研究通常資料蒐集較久,成果產出較慢,如何與技術領域研究的快速變動配合,就需要很認真的討論彼此合作的模式,讓雙方都能分享共同研究的成果(如前文所述)

 

經由以上的說明,我們就可以了解AI科技的發展為何必然有經費集中、技術集中、資料集中與人才集中的特性,形成「AI資本化」的現象。事實上,由美國與中國的發展趨勢來看,許多重要的技術與成果已經是掌握在產業界而非學術界手上。這種人才磁吸的結果將會讓許多重要的人社資料難以被分析開發,只因為缺乏長期有計劃的投資。這一推一拉的結果,未來恐怕將使人文社會研究更被邊緣化或者反過來被利用服務於產業的現實需求。

 

對此筆者認為可能的解決方法是積極推動「AI公共化」:不但理工資訊學界的AI研究應該更往公共價值的創建來引導,還需要由政府以長期的經費補助研究型大學設立專門作人文社會或跨領域公共議題的AI應用研究中心,以合理的薪資聘任有興趣的資料科學家來協助相關領域學者作全國性與基礎性的AI應用研究,並且逐步開放政府部門的相關資料作為發展的基礎(如內政部、教育部、法務部、交通部等都有重要的數據與資料)。這些中心不見得需要用最新最好的AI技術,但應該提供最符合人社研究或公共需求的AI模型與資料管理能力,亦可擔任相關技術傳承與推廣的角色,讓人社領域的師生或政府單位能掌握第一手的發展,為將來的AI時代作好在政策、法律或教育上的預備。

 

六、結語:善用勝於預防

 

          如本文一開始所說,這篇文章主要是想補充筆者這些年跨領域轉入AI應用研究的一些心得。囿於經驗的不足與有限,若干看法難免而過於片面武斷,仍需學界先進不吝斧正指教。不過,相信我們都會同意這波AI浪潮已經勢不可擋,唯一的問題只是我們對於這些即將充斥於生活中的各類AI是否已有適當的預防,以減緩對社會經濟制度的衝擊或對倫理價值認知的干擾。筆者認為最上策的預防不是質疑或排斥,反而是善加利用!這樣我們才能掌握其優劣或侷限,不會徒然憂心哪天會被AI所取代,或許也因此使我們更謙卑地認識人性的可貴,更珍惜上天所賦予的一切。

                                                



[1]筆者感謝國立清華大學通識教育中心林文源教授、科技與法律研究所林昀嫺教授和政治大學資訊科學系劉昭麟講座教授閱讀初稿,惠予寶貴意見。

[2]作者王道維,2000年取得美國馬里蘭大學物理學博士,2005年起任教於國立清華大學物理系。現為物理系教授,通識教育中心合聘教授,國家理論科學研究中心副主任並清華大學諮商中心主任。其理論物理方面的研究曾獲得中央研究院年輕學者研究著作獎、國科會吳大猷先生紀念獎、與香港大學崔琦講座。2017年底進入AI應用領域,與其他校內其他領域的學者合作發展AI在學術研究上的應用。其研究相關內容可見於:http://www.phys.nthu.edu.tw/~aicmt/

[3]在物理上常見的比喻是,我們不知道上帝創造這物質世界真正的規律是甚麼,但是如果我們可以用物理模型來精確預測所有的自然現象,就可以合理相信這樣的模型能反映真實規律的某些部份。同樣的,也許我們永遠無法了解人類心智的運作,但是如果能有某種方法(AI)模擬得夠好,或許也就足以反映出心智的若干運作模式,不一定需要從細胞或神經的物質基礎來建立。

[4]凱西‧歐尼( Cathy O’Neil),《大數據的傲慢與偏見:一個「圈內數學家」對演算法霸權的警告與揭發》(大寫出版,2017)

[5] 李開復與王詠剛,《人工智慧來了》(天下文化,2017)

[6]雷蒙德‧庫茲威爾(Ray Kurzweil)《人工智慧的未來:揭露人類思維的奧秘》(經濟新潮社,2015)

[7]對於AI的社會心理影響,我個人是偏向悲觀的,原因不是AI可以有多厲害,而是人性的貪婪與意志的軟弱比我們自以為的還要嚴重。我目前的看法可見於〈電腦的深度學習,人類的深度困局〉(風傳媒,2018)http://blog.udn.com/dawweiwang/110543313

[8]事實上,目前有許多免費的線上課程與開源的程式碼來教授AI程式寫作,讓AI技術的應用門檻越來越低。但是為了確保計算結果的正確,我每個計畫至少會安排兩位以上的學生或助理用不同的方式分別開發,後來再互相對照討論結果。

[9]事實上,理工領域本來就有使用電腦來輔助模擬的研究分支,因此這類技術應用在理工生科方面更適合被廣泛稱作機器學習(Machine Learning),因為他們只是想要用這些方法協助解決自然或工程的問題,並未想要製造任何與人類相似的東西。但本文為求通俗一致,皆以AI統稱。

[10]例如,美國國防高等研究計劃署(Defense Advanced Research Projects AgencyDARPA)於2016年公開徵求關於可解釋性AI的計畫。相關資料可見於https://www.darpa.mil/program/explainable-artificial-intelligence

[11]筆者這裡也要特別感謝本校資工系蘇豐文教授、張俊盛教授、李哲榮教授與陳宜欣教授等人所給予過的珍貴協助與指導。

[12] 我也有些計劃是將AI應用於物理方面的問題,不過由於較難簡要說明,於此先行省略。

[13]AI判決預測為例,也就是說可以根據案件的事實而直接預測法官的判決,即便並未了解以前法官的審判原則為何(前提是有有足夠多的歷史判決資料可供學習)

[14]這有點類似行為經濟學或社會心理學的研究,觀察分析人類決策的非理性行為,但是這些研究不但有倫理議題,所能控制或觀察的範圍仍然十分有限。但是AI的模擬卻可以很不同,例如最近OpenAI發表一種直接模擬12800AI在荒野的生存戰爭,發現這些AI會在虛擬地圖上爭奪資源、擴大地盤、發動戰爭,彷彿人類歷史的重現。論文網址:https://arxiv.org/abs/1903.00784

[15]有些研究資料本身就已數值化,直接餵進AI即可訓練(如我與天文所的合作)。但有些資料很複雜,需要先作進一步處理(如我們與腦科中心的合作)。其實困難的研究之所以能夠有所突破常常不在於更好的AI模型,而是用更有創意方式作資料的預處理,而這正是跨領域的價值所在。

[16]更深一層來看,傳統量化研究只是將資料作一種「描述性的(descriptive)」或「闡釋性的(interpretive) 」整理。而AI發展為了要能擬合出不同因素間尚未知曉的關聯函數,容易以某種「選擇性的(selective)」姿態來介入資料處理,然後又以「預測性的(predictive)」方式來呈現其計算結果,卻無法對這些演算法的參數選擇提供解釋。當這樣的應用取得某種「成功」,的確可能也容易引起若干的偏見或誤解,或許這正是人社學者對AI應用最感疑慮的部分。

[17]以哈佛大學法學院為例,他們總共用了五年的時間將西元1600年至今約三百五十萬件美國法院所審理的案件全部電子化。所有的檔案超過四千萬頁,並在2018年底全部免費釋出,就是為了全面推動AI在法律方面的應用研究,相關新聞可見MIT Technology Review

https://www.technologyreview.com/the-download/612361/harvard-just-put-more-than-6-million-court-cases-online-to-give-legal-ai-a-boost/?utm_source=facebook.com&utm_medium=social&utm_campaign=owned_social&fbclid=IwAR3Ud1TKZObjWeBilR99xASwiC2ZlF6v3cPTsxd9tJIIygMzvn-GvLOLAtA

有誰推薦more
迴響(1) :
1樓. 狐禪
2019/04/23 16:28
智慧的根源在所記的與所憶的。因此原始資料是最重要的根據,沒有之一。而且在整理原始資料這方面,沒有捷徑,一些死功夫是免不掉的。想取巧的反而會失了智慧。
發表迴響

會員登入