關於「ChatGPT與基督信仰」常見的問題與回應
王道維
國立清華大學物理系教授
國立清華大學諮商中心主任
國立清華大學人文社會AI應用與發展研究中心副主任
自從筆者發表第一篇關於ChatGPT與基督信仰的文章[1]後,接到一些機構的邀請進行相關演講或採訪。筆者發現有些問題是我文章中比較沒有明確提到的部分。為方便有類似問題的朋友(可能以基督徒為主)可以先行參考,筆者整理常被詢問的七個問題並給予一些的回應。為了避免成為過度簡化的yes/no,筆者多補充一些相關的背景說明與可能的影響評估,希望讓讀者能有比較完整的理解脈絡。除了最後一題我交給ChatGPT回答以外,其他每個題目都是筆者個人的思考所得,供有興趣的讀者參考。(關於一些基礎的AI思維與概念,有興趣的讀者可以參考筆者幫國科會人文司人文社會科學研究中心所拍攝的十集「人文社會AI 導論」線上課程。https://blog.udn.com/dawweiwang/168003413。)
但筆者也必須承認此波AI的來臨異常快速,有些回應未來很可能會需要修改,也無意排除或否定其他角度的看法。希望讀者也能以謹慎理性的思考來評估,讓上帝啟示光照的聖靈來持續引導我們未來的腳步。
Q1: 對比機器人和人工智慧,人類的超越性體現在哪些方面?人類有可能與AI產生情感關係或位格上的交流嗎?
A1: 這個提問背後有個預設,是人類與AI可以做比較。但是我們需要先清楚了解人類與AI在本質上是完全不同的:以信仰來說,人類是按著上帝的形象與樣式所造,除了物質的身體也有非物質的靈魂。即便以物質的身體來說,你我每一個人的大腦都有超過860億的腦神經,每一條都與其他有數百甚至數千條神經複雜綿密的銜接,遠遠比世界上任何一台AI機器都複雜許多,但是能用最小的能量(一餐飯與一杯水)來維持效率且多功能的同步運作,而不是像AI需要高速晶片在消耗極多的能源下來執行某個單一功能。這個本質上的差別我們需要先銘記在心[2]。
但是除了本質上的差異以外,不可否認的,如果我們只限定「在特定領域中」,現代電腦或AI的「處理速度」顯然已經超過所有人類,例如數學計算、線上遊戲、影像辨識、資料蒐集、多語言翻譯等等。但是如果以「處理品質」來看,AI只可能在有清楚定義且有客觀標準的問題(如基礎科學或遊戲比賽等領域),可以比人類所做的還要好。
但是對於人文社會領域(如司法判決、政治決策、心理諮商、音樂創作、文學評析等等),由於學習資料與標準設定都是來自於人類自己,而所謂的「答案」也往往僅適用於某種特定的時空或文化環境,大抵只能到達平均的水準(根據學習的資料來決定),不大可能有意義的超越人類中的專家。以司法AI為例,我們可以期待AI能協助一些較為簡單的案子,但是不應期待它能比資深法官還能處理複雜的政治案件,當然更不可能突破過往的法律框架來追求某些理念上的正義。事實上,人類自身對這些問題也可能沒有一致的答案,那AI又該從哪一方面的資料來學習呢?
因此,我們可以說人類相對於AI的超越性其實正是體現在人類能夠表現出豐富的情感和觀念、認知思考和理解複雜的系統和價值判斷。另外,人類也能夠創造和改變事物的結構,對周圍的環境、社會和文化有實質的影響力。更別說按照上帝形象與樣式所造的你我,可以有靈魂接觸物質界以外的上帝、鬼魔或靈界現象。雖然機器人和人工智慧在某些特定的問題上可能比人類強,但是它們完全沒有辦法取代真實的人類,相信未來也不可能。反之,我們也需要避免將人類自身的價值只限定於某些特定領域,那樣反而將原來豐富的人性異化成可以量度的指標,也就可能在那個領域被AI超越或取代。
至於人類是否會與AI產生情感關係或位格上的交流的問題。我們可以先從技術性的角度了解,儘管AI有能力「模擬」人類某些特定的情感和行為(如ChatGPT的對話),但其本質上只是在計算某種機率的最大值作為模擬的結果,並沒有心理與情感的物質基礎[3]。所以我們需要擔心的反而是因為人類會對有類似行為的對象(不管是人、寵物、還是AI)所產生的「移情效應」或「情感依附」:也就是因為自己的情感需求且長時間與AI深度對話,就把自己的情感對象投射在其上,依戀AI或以為對方也對自己有類似的心理感情。這樣的情形的確是存在的,嚴重的甚至有愛上AI虛擬情人而作出反常行為的情形[4]。但其實AI本身完全不會有真正的意志或情感,只是按照使用者的設定而回應。
這些情感投射的能力本來是上帝所賦予,好跨越人類自我的限制而進行彼此同理的卓越能力,但的確也有可能因為AI模擬人類的技術越進步而造成當事人認知上的混亂,特別是對孩童、青少年、感受到孤單、有強烈情感需求或意志力比較脆弱的時刻。這是在個人層次的確需要我們更多警醒之處,也反映出人性的軟弱與人類需要更多彼此支援關懷的地方。在AI未來的發展與使用上,也的確應該要有相關的政策性規範以減少這類誤用的發生。
Q2: 基督徒可以在哪些方面使用AI幫助我們的信仰與服事?我們與上帝的關係會因為使用AI而被取代嗎?
A: 從聖經創造論的角度,有正確的本質定位才能有效的處理倫理議題,所以將AI定位於一個輔助人類的工具是比較正確合宜的定位。但是AI技術,特別是接近通用型AI的ChatGPT或類似的大型語言模型,相較於其他機械工具或電腦軟體的確也有些特別的地方,是我們在應用時可以更好發揮或需要更加注意的。
首先,筆者在過往的文章中曾經提到[5],可以將ChatGPT按照使用目的區分為「正確可靠」、「創意豐富」還是「方便實用」三個類型。其中「方便實用」主要是關於一些文書工作的處理(例如摘要文章、生成普通公文信件、整理表格、改變文章風格等等),不牽涉到正確性或教義性的問題,本來就應該鼓勵使用,來簡化教會內部的行政流程,節省開支與相關人力。而這些節省下來的時間與人力,可以作更需要細心思考的工作或更有品質的陪伴關懷。
其次,「創意豐富」是一種發散型的應用(例如設計標語、活動安排、創意寫作、圖像生成等等),沒有標準答案,正是生成式AI最強的功能。筆者更鼓勵教會與基督徒充分應用發揮。因為大部分基督徒受限於教義的嚴謹與教會傳統的規約,往往在文化創意方面較為保守,也因此常常失去與社會流行文化或年輕世代的連結。這部分以ChatGPT為首的生成式AI可以協助基督徒以最少的時間可以發想出各種可能的初稿或版本,比較不容易被原先的習慣束縛。只需要在最後選擇的時候再挑選出比較沒有違反信仰原則也不會誤導別人的方式來採用,可以藉此擴增基督徒文化創意的範圍。這個功能特別是在跨世代溝通或福音性質的活動中可以好好發揮運用(當然也可以用在成熟的基督徒活動文宣)。若能最後補上適當的論述與反思(例如為何選這個生成結果),就可以很輕鬆將這些AI創意畫成為信仰生活擴展的方式與福音橋樑。而這部分對於如midjourney或stable diffusion等AI圖像生成模型也當然是一樣適用的。
最後,通常也是比較複雜的,是關於「正確可靠」的使用目的,那多半是關於信仰的教義、聖經解釋或信徒生活指引的倫理問題。由於ChatGPT這類生成式AI的確可能會有錯誤的訊息或不好的資料出現,若用在信仰領域當然也可能帶給人一些誤導,所以不能全然將之等同於信仰權柄來源。可能的錯誤是資料型的,如錯誤的經文內容或出處,神學名詞與神學理論的張冠李戴,或是編造的福音見證或歷史故事等等。但是筆者認為基督信仰的基本原則本來就是要「鼓勵信徒有思辨能力」,不是盲目追隨相信一個宗教領袖或教會教導(若這樣就不會有宗教改革)。因此,基督徒應該更容易謹記在心,避免獨斷相信AI生成的結果,就可能將其生成的靈修文字或教義指引作為基本的素材,引導信徒對此有更多的思辨與對話,嘗試從不同角度來理解或反思,這樣反而能更好的引導彼此有思辨信仰真諦的空間。因此,與此同時,牧者也需要更善於利用AI作「啟發式」的信仰教育,才能真正將信仰的真理精隨透過思辨討論而融入信徒的心中。
因此,使用ChatGPT或AI當然不能代替我們自己的靈修生活、與上帝的關係並與主內肢體的關係,所以以上這些應用方向都必須源自我們內在的真實感動而非形式上的規範習慣。有些人剛開始可能覺得新奇,誤以為可以代替信仰生活而交差了事,但其實那就反映出我們信仰生活中最表面膚淺的形式部分,也就很容易在一段時間後覺得無趣。
筆者認為使用AI於信仰領域的一個挑戰與契機就是,讓我們有機會區別出甚麼才是真正的屬靈團契與靈修,了解有些聚會若沒有實質的靈性交流可能也只是個空殼,容易被AI所模擬。所以即使生成式AI可能有些錯誤的結果(其實一般使用問題已經很低),仍然可以對之應用於信仰教育保持審慎樂觀的態度。畢竟創造出那個能創造AI的人類的上帝,應該很樂意我們藉AI「反襯出」自己作為人的獨特性,認識在上帝眼中那不可取代的意義與價值。若有人因此而被絆倒也是難以避免的,但反過來說,那不也正是需要牧者協助教導的原因嗎?如果確定要在科技當道的現代社會作見證,一概拒絕使用AI真的會讓我們比較屬靈嗎?還是反而比較虛偽而不自知呢?畢竟基督信仰最寶貴的地方不是保證我們不會犯錯或不會跌倒,而是在這一切軟弱的背後,仍保證有主的恩典與聖靈的同在協助我們繼續憑信心前行,從錯誤中不斷學習與成長。
Q3: 如何更好利用ChatGPT得到所需要的屬靈知識而避免可能的錯誤?若有錯誤,又要如何辨別?應用於牧者講章預備或主日學教育有何需要注意的地方?
A3: 這的確是很重要的問題,筆者可以從以下三個面向來提供一些想法共讀者參考。
首先,我們需要瞭解這類大型語言模型的基本原理,才不會對他有錯誤的預期或不合宜的想像。最常見的誤解是把ChatGPT這類生成式AI當作「搜尋引擎」來使用,以為問甚麼問題都會從中得到最新或最正確的資料[6]。雖然ChatGPT的確使用大量的文字資料來訓練,但是不是把他們放在資料庫中然後隨時找出來給使用者參考。ChatGPT的程式庫中沒有這些資料,只有幾千億個參數(這些參數的意義沒有人懂),負責把使用者輸入的問題轉換成我們所看到的「回答」。
因此希望讀者能了解,這種方式產生的文字本來就只是「猜測」,而不是「認證」:這些被產生出來的語意概念之前可能並未在任何一個網頁或書本中出現,只是針對使用者的需求而被組合生成出來的(例如讀者可以任意組合看起來不相關的兩個詞,ChatGPT都可能滔滔不絕,十足一本正經的胡說八道)。目前ChatGPT之所以會被許多人認為可以使用,乃是因為已經經過相當多的人工訓練與形式上的調整,在適當的使用範圍內可能有助於解決我們的需求而已,並非理所當然的無所不知或絕對無誤。
其次,如果我們沒有辦法確認所得到的結果是否正確,最快速的檢視方式是請他重新產生幾次,比較一下所出現的答案是否一致。如果只有一些文字細節上的差異,整體的回應結構與內涵是一致的,那也許這個結果可以值得參考(雖仍然可能有誤,但機會少得多)。反之,如果每次出現的回答有不小的差異,可能代表這個問題AI其實沒有把握,很高的機率是每次回答都不值得相信。這也就是筆者所說的只有「意見」的層次還未到「知識」的層次[7]。
第三,我們也要了解大型語言模型所產生的這類「虛擬知識」,即使是有相當的一致性[8],仍然是與使用者的提問方式密切關連的結果,並非一個獨立於提問者的靜態命題。因此好的提問方式或清楚明確的指令(Prompt),往往也是得到好的答案或正確可靠知識的前提。目前在網路上已經有許許多多對於這些指令的介紹,請讀者自行參考。此處筆者建議大多數的情形下,可以用以下四層結構請ChatGPT更好完成任務,也可以參考本書的附錄而有更多的想法。
1. 設定ChatGPT的身分、場景與過往資歷,讓他知道以甚麼身分處理。(例如改革宗神學/靈恩神學背景的牧師、學者或宣教士,是要用在週日講章或婚禮致詞等。)
2. 明確定義任務的目的、對象與想要達到的目標。(例如針對家庭主婦或職場人士的內容,希望能產生即知即行的動力還是自我反省的探索。)
3. 設定完成任務所需要的完整原始資料、定義、條件或限制等。(例如聖經章節的進度、節期的需求、重大社會事件的內容或表達風格等)
4. 設定完成任務時的呈現架構、字數、語言、表格或範本等。(例如分五個段落、是否要有大小標題、相關聖經經文、生活實例、時間列表等)
最後,我們也需要了解GPT4的版本是支援多層次的回應字串,也就是能將同一個問題繼續深入提問,將前面的條件繼續補充或修改。使用者可以不斷深入的詢問,挖出更多豐富或深入的文字內容。但是筆者也需要提醒一下,目前ChatGPT或大多數相對多人使用的AI對話機器人,其英文訓練資料都遠多於中文,而其中簡體中文的數量也多於繁體中文的數量(除非是台灣企業自行開發的)。雖然ChatGPT內部會將不同語言的資料作翻譯,補充特定語言中所找不到的部分,但這個情形仍會讓以繁體中文為主的華人信徒在使用上可能還沒有辦法經驗到最好的結果(這個情形與維基百科相同)。所以使用者若可以的話,也可以直接以英文詢問相關問題,或是先請ChatGPT翻譯成英文再行輸入,然後將結果請他將結果直接翻譯成中文。
總的來說,雖然生成式AI的應用在屬靈知識的學習與講台講章的預備上需要有所警醒,但是只要適當善用應該可以帶來許多新的可能與發展,協助教會牧者與基督徒突破現有的思想或想像的框架。更重要的是,它可以幫助牧者減少相關的準備時間,讓牧者可以專心將個人的牧養經驗或屬靈洞見與ChatGPT提供的基本知識相結合,讓訊息內容有更豐富的層次,也更容易貼近不同的族群的需求,讓從上帝來的感動能更進入受眾的內心。
Q4: 若應用ChatGPT在查經、靈修或教義研討上,如果發現與牧者的教導不合該如何處理?
A4: 這的確是有可能發生的,不過也需要請使用者先透過以上的方式確認ChatGPT所產生的結果是否有可重複性,並且是在符合使用者所期待的背景與對象下所得到的結果,免得徒生誤會。
如果真的發現與牧者所傳講的內容有所差別,可以將所得到的完整結果(包括前面的提問)列印或截圖下來,找時間與牧者、學者或熟悉聖經與信仰教義的主內弟兄姊妹討論。當然也可以另外查詢相關屬靈著作或文獻做進一步確認,釐清問題。這部分是信徒信仰自我餵養的必要過程,完全不必覺得有任何冒犯或不敬之意。畢竟上帝將《聖經》都明明白白的賜給我們閱讀,一定會需要這種謙卑的鑒察與討論的過程才能將之內化成我們心中的思想。AI只是一個善於利用的工具,不必完全盡信,但也無須視之為洪水猛獸。
不過這個問題也的確預設某個「正統信仰」的論述方式,筆者認為需要稍微釐清。首先,相較於一般自然科學,生成式AI的虛擬知識[9]對於人文社會領域(包括神學信仰領域)的確有更大的衝擊。這是因為這些領域常倚賴於對於過往文獻或重要學說的熟稔整理,也因此就讓AI有較高的機會來模擬出類似的回答卻不容易被驗證,畢竟沒有人能像ChatGPT能讀過那樣多的文獻。加上人文社會領域本身重視不同觀點的啟發或對話,表面上不同的論述可能都捕捉真實面向的若干重要部分,所以不一樣的觀點或論述不一定是絕對的相違背,有時甚至是定義理解的問題而非回答對錯的問題。畢竟,這些差異往往牽涉到精細的語言表達或文化脈絡,也很不容易在未來的社會中立刻有實驗來「驗證」對錯,當然比自然科學裡容易藉由實驗來分辨真假困難許多。
不過在基督信仰領域,由於牽涉到對《聖經》文本的詮釋與過往悠久教會歷史的詮釋與經驗,相較於一般人文社會領域會更限縮以上的不確定性,因此的確可以對若干神學觀點有是否符合聖經或符合教會傳統有所分辨的意義。但即便如此,在屬於同一個基要真理的架構下(例如天主教、東正教與新教所大致共同承認的四大信經[10]),仍有一定程度的範圍容許不同形式的表達或不同觀點間的對話,應該是每個成熟且有相關知識的基督徒所可以接納甚至應該學習的。例如歷代基督教派之間的神學爭議(如預定論、揀選論、末世論、教會體制、靈恩運動、性別議題等等),都不是簡單的一句「正統信仰」就能平息所有的差異。
因此,筆者認為一般信徒在使用生成式AI於解經、教義探索、倫理議題或生活應用等情況時,若發現有些與牧者或學者的想法不同是非常自然的,無須驚訝。甚至筆者認為只要讀過幾本不同作者的解經書就一定會發現,對於同樣經文本來就可以有相當多的詮釋角度,這理所當然是信仰生活豐富多樣性的一部份。即或真的有些難以共存的差異,也是來自於我們目前所知的有限與不足,不能期待也不應利用AI來消弭這些差異。
事實上,目前ChatGPT的訓練對於爭議性的信仰或政治問題非常強調多元觀點並陳,所以我們可以利用它來增進彼此的了解,而不是要用他作為強化己見或定罪他人的工具。因此,相較於應用AI各種編寫講章或教義的能力,筆者認為謙卑聆聽其他觀點或不同族群立場的聲音,檢視自我的驕傲或侷限,以愛心彼此對待,將最後的信仰評估選擇交由每個人於其信心範圍內回應(見羅馬書14章),才是我們使用AI時更重要的態度。這樣所使用的AI技術,不但不是爭議的起點,反而是我們互相了解與彼此接納的開始,也是筆者所曾強調「公共化AI」[11]在信仰領域的應用。
Q5: 在可以預見的未來,是否有可能開發基督教信仰的大型語言模型?或是如何植入AI關於基督教的價值觀念?
A5: 從技術層面而言,開發基督教信仰的大型語言模型完全是有可能的。事實上,Meta最新發布可以翻譯超過1000種語言的大型語言模型就是靠學習宣教士的聖經翻譯的結果[12]。雖然OpenAI開發ChatGPT經歷過多年的努力與百億美金的投資才能有今日的效果,但是不論Google、Meta、其他研究機構或開源社群都有一些其他類似的AI機器人逐漸被開發出來,而且新的技術所需要的訓練資料與訓練經費也越來越小。所以這部分可以是樂觀看待的。
但是除了技術面以外,這件事更重要的思考面向是關於背後的動機與後續的倫理問題。由於大型語言模型主要是為了往「通用型AI」的發展而開發的,藉由廣泛的語言文字資料來創造一個可以連結不同知識與不同應用場景的AI對話機器人。如果要在基督信仰的立場上建立這樣的模型,代表會大量(甚至可以說是有偏誤的加強)使用基督教的文獻、資料或相關資訊,也必然使用只符合特定宗教價值觀的「虔誠基督徒」來作人工標註或篩選工作。
但是這樣作的問題在於,我們幾乎可以預見會造成對其他類型資料的缺乏與偏誤(例如其他宗教自身的資料或異端學說的原始資訊,當然也有可能是當代不符合主流基督教會價值觀的世俗言論等等)。這非常可能就使得整體的資料產生偏誤,變成一個只會模仿基督教的術語,卻一點都「不屬靈」的對話機器人,恐怕還容易出現宗教歧視的語言或傷害,也讓整體回應的流暢度更差(因為繼承基督教會現有的同溫層語言而失去社會的其他資訊),所以這部分實在需要更仔細的評估,免得過於樂觀而失望。
筆者需要再次提醒,大型語言模型並不是大型語言資料庫,所產生的文字「都是重新組合過的」,不是原文照抄甚至難以追朔所參考的資料來源。畢竟在AI模型動輒數百億的超大參數空間中,很容易因為某種開發者自己都想不到的特定提示、符號、或表達的方式而繞過本來預設的表達模式,讓AI展現出完全不同的另一方面。這在ChatGPT中也一樣存在(所謂的暗黑模式[13]),而且很可能在技術面是無法完全去除的。此時如果這個被賦予神聖期待「屬靈的AI」結果卻說出不得體或不符合純正信仰的內容,又該如何向那些盲目相信它的信徒負責呢?假使它冒稱上帝的名,為某位信徒提供個人化的預言,反而讓他變成另一個偶像了呢?這也是AI科技在應用時最需要注意的倫理或法律議題,並不會因為使用比較多的基督教正統神學文獻訓練就會比較安全,甚至可能因為拉高的期待反而加深了傷害。
因此,雖然任何一個AI對話機器人都有其預設的價值觀,ChatGPT也不例外[14],但是重點不在於是否要完全排除這些價值觀,而是在於是否能順藤摸瓜,更善用駕馭它來成為信仰的媒介。其實,開發完全屬於基督信仰的AI除了現實面的經費、資料、市場、人力、標準、效能等等問題,其實也反映出許多基督徒可能過於期待一個絕對正確的屬靈權柄而少有反省思辯的信仰習慣。因此筆者個人認為,或許等到技術更為成熟與成本可以負擔,大多數基督徒也都瞭解這類AI使用的利弊得失且有善用的經驗,再來思考規畫這個議題比較適合。
筆者以為目前的階段,技術與能力上比較可行的是利用ChatGPT已經開放的外掛功能(Plugin)與應用程式界面(API)來設計一些符合基督徒習慣的應用程式或小工具。但是與其傾眾教會之力建造一個「屬靈的AI」導致信徒的思辨能力被限縮在較小的範圍,筆者更期待教會牧長投入更多時間利用這個「世俗的AI」來訓練信徒思辨信仰,開拓眼界,讓信仰生活落實在已經來臨(而非未來)的AI世代中,或許更是道成肉身的信仰實踐。
Q6: 這類生成式AI對教會或神學院中信仰教育的影響是什麼?牧者關懷信徒的生命可以如何可以搭配而更為深入與差異化?
A6: 關於生成式AI對教育的影響,筆者曾為文提醒[15],最重要的影響可能並不是評量學習的方式改變,而是來自於「虛擬知識」出現,讓傳統知識的產生、傳遞與學習都被解構,進入所謂的「後知識時代」。
更具體來說,傳統上由研究者à教育者à學習者的這樣直線知識傳播路徑被攤平,使得這三種身分的人都可以在AI所產生的虛擬知識內用更快速有效的方式來溝通傳達各種領域的學問。而虛擬知識的特性除了是「尚未驗證為可靠」的知識內容以外,另一個就是與使用者的提問緊密關聯(這也是這類AI的訓練方式所造成),因此可以建構成一個有差異化與個人化的學習工具。這並不是說傳統實體的知識傳播會被取代,那仍然是非常重要的,特別是對需要人與人接觸或實作的學習歷程。但是不可否認,這樣的虛擬知識也會造成各種教育上的挑戰或契機,不論是在信仰教育或神學教育上都有類似的狀況。
簡要言之,由於基督信仰並非只是強調知識面的教育,也有許多實務或實作層面的參與(特別是牧養關懷或靈修成長),所以在信仰教育上的確不會像一般大學中的教育受到那樣即時嚴重的衝擊。但是未來持續的影響必然會繼續發酵和增加。教會牧長或神學教育單位若能藉由這段緩衝時間中即時面對,調整態度,更願意直接面對AI應用於信仰教育或神學教育的種種可能與問題,幫助信徒或神學生學習如何作虛擬整合的預備,即使世俗社會或教育領域未來可能還有許多新的改變,至少在基督信仰領域還是可以有游刃有餘的空間來超前部署,並且提供切實落地又有超越眼光的導引。
至於問題的另一方面,對於教會牧養中最重要的信徒關懷與屬靈陪伴會有何影響?如何能在AI時代更為深入?的確是更複雜的問題。因為關懷牧養絕大多數是透過實體互動來完成,表面上的確不太容易受到這波AI的發展直接衝擊。但是間接的影響還是會有的,而且變得更隱晦以致於很容易疏漏。筆者目前認為至少有三個方面的影響,分別是「社會環境」、「關懷方式」與「生命深度」,分別簡述,再來看如何突破或調整。
「社會環境」面向是指,當AI進入各層面的商業化時代,也代表過往許多靠人力參與的白領甚至藍領工作都會受到許多衝擊,無法積極轉型的企業或個人將快速面臨被取代的問題。許多基督徒的工作機會勢必也會受到影響,這些都不是用信仰的口號可以解決的,需要牧者將心比心的同理。當然,牧者也因此有聚會人數減少,因而奉獻減少的壓力,只能更孤單的仰望上主供應。與此相關的牧者諮商、牧者心靈關懷或相關的神學思辯,都是需要我們更實質面對而非僅用屬靈口號宣告,就拍拍屁股離開。
其次,從「關懷方式」來說,AI時代會有更多藉由類似ChatGPT所生成的虛擬文字或影像來成為社會大眾的溝通交流方式,就如同我們現在許多用Email或line來溝通的情形。這些科技產品都是將人與人之間實際的溝通更為虛擬化與實用化,降低感受到彼此實際接觸的人性溫度。但是許多牧者也因此誤以為基督徒或大眾會因此就更喜歡實體接觸,會更愛來聚會,恐怕是一廂情願的期待(從年輕世代的流失以及疫情後人數回流就可以知道)。這是因為雖然大家都知道科技產品使我們少了實體的接觸,也都希望能增加實體的接觸與人性的溫度,但是「不希望是膚淺表面」的那種形式。疫情時期的線上聚會讓許多人了解到聚會本身如果沒有辦法有真實的交流,只有膚淺的奮興或表面的問候,其實沒有也真的無妨,未來也更容易用各類AI所模擬取代。
因此這就連結到「生命深度」的問題。在西方國家或台灣地區,大部分基督徒,特別是在城市中的多是屬於該社會的中產階級,有著相對穩定與單純的生活環境。所以我們會發現教會中最熟悉的禱告不外乎身體健康、家庭和樂、工作成功、考試順利等等以個人福祉為中心的內容。但是由前面兩點可以看出,科技的發展與AI的出現讓這些表面的平安順利被震動,讓人們發現真正渴望也需要得到的深度內在生命,遠遠不是台上所喊著的「讚美」或「幸福」等淺薄口號所能滿足的。
以上這些當然並不是直接與AI有關,但是目前的AI發展很快就會整合各種文字、語音、影像或聲光媒體進入我們的生活,那都會逼使我們脫下過往膚淺的表面關懷,需要長時間經營的個人性關係,才能真正的觸動內心。而這中間更多可能是需要面對後現代社會中個人的孤獨或關係的破碎,直接與社會邊緣族群(如破碎家庭、偏鄉弱勢、新住民家庭、性少數族群等)同在,才能越過AI可以模擬的聚會形式,接觸到底層的生命樣貌,聆聽到彼此內在真實的聲音,以及上帝輕柔的呼喚。
Q7: 神學教育或神學研究對AI的發展可以投入哪些方面的關注?
A7: 這個問題非常重要,因為AI對信仰生活的影響本來就不應該只有在表面的行為狀態或內心的感受,而是需要藉此重新反思釐清信仰的基礎,才能提供面對未來挑戰時更豐富的心靈力量。這部分在筆者之前的文章[16]中已經有從創造論、救贖論與啟示論的角度略作些提及,但這個問題當然也可以由其他角度而有不同層次的表達或理解。由於這類問題其實很適合用ChatGPT來回答,我就將這最後的部分交給它,以下是我覺得還不錯的回應,提供給對神學研究或信仰教育有興趣讀者參考。
(以下文字是由ChatGPT所生成,Prompt就是以上的問題文字)
神學教育或研究在人工智慧(AI)的發展中可以投入多種關注的領域:
1. 倫理和道德問題:神學通常處理人類行為的倫理和道德規範,並可以為AI提供指導原則。舉例來說,一個神學觀點可能會問道,AI是否應該用於製造自動化武器系統?如果這樣的武器系統誤殺無辜的人,那麼道德責任在哪裡?這樣的問題觸及到生命的尊嚴、正義與和平等重要的倫理議題。
2. 人工智能與靈性:神學可以幫助我們探索AI的“神性”或“靈性”定義。舉例來說,AI能否達到人類的意識水平或超越?如果答案是肯定的,那麼我們應該如何理解和處理這種新的“意識”存在?這涉及到創造、自由意志和生命目的等深奧的神學議題。
3. 人工智能與人類價值:神學可以提供對人類價值的深入理解,這對於如何對待和使用AI非常重要。例如,如果AI能夠完全模仿人類的情感反應,我們是否應該賦予它與人類相同的權利和尊嚴?這個問題涉及到人類價值的本質和源頭,以及與神聖的關係。
4. 人工智能與社會公義:神學關注社會公義的議題,也可以影響AI的應用。例如,AI的使用可能會加劇社會經濟差距,因為擁有進階技術的人或企業可能會獲得更大的利益。神學教育和研究可以幫助我們檢視這種趨勢,並提出公平和慈悲的解決方案。
5. AI與靈性練習:神學可能會問,AI是否能在靈性練習中擔任一個角色?例如,已經有應用程式使用AI來引導冥想和禱告。然而,這又提出了一個新的問題:AI是否能真正理解或參與這些精神活動,或者它只是在模仿人類的行為?這觸及了關於神、人類、和靈性的基本問題。
6. AI與未來神學:AI可能會改變神學研究的方式。例如,AI可以用來分析聖經或其他宗教文本,以揭示新的見解和模式。然而,這也提出了一個問題:我們應該如何解釋和使用由AI提供的這些見解?這個問題涉及到真理的源頭和解釋權威的問題。
7. AI與信仰傳播:AI可能會改變宗教傳播的方式。例如,AI可以用於創建虛擬的教會或宗教社區,或者用於個性化的信仰學習。然而,這又提出了一個問題:這種形式的信仰傳播是否與傳統的面對面的社群相等或有效?這涉及到社群、教導、和靈性成長的神學理解。
最後要注意的是,雖然神學可能對AI的發展有所貢獻,但兩者之間的關係可能並不總是和諧,並且可能需要進一步的探討和討論。
(完)
[1] 王道維,〈道可道,非神道?──從基督信仰看能言善道的ChatGPT與其對教會的挑戰〉,網媒版發表於《舉目》雜誌(3/12/2023)。引用網址:https://behold.oc.org/?p=59126。此篇全文亦受邀刊登於《文化宣教:跨學科現象與理論研究》一書,由曾劭愷博士主編,預計2023年中出版。此版本與後續的補充更新亦可見於筆者的部落格:https://blog.udn.com/dawweiwang/178590221。
[2] 對這主題有興趣做一些初淺而非技術面深入了解的讀者,可以參考筆者所曾經拍攝的「人文社會AI導論課程」,屬於國科會人文社會科學研究中心所支持拍攝。所有的影片與投影片網址亦可見於筆者的部落格連結:https://blog.udn.com/dawweiwang/168003413。其中第四集「AI的是與不是」有更多的說明與釐清。
[3] 雖然有人嘗試用多體物理(many-body physics)中的湧現(emergence)來描述當今大型語言模型所可能有的類似意識形態的反應,但是筆者作為物理學家,認為這些臆測遠比定論多得多,尚屬於名詞借用甚至還不到完整假說可以驗證的階段。有興趣的讀者可以參考,〈AI憑什麼這麼強 (一):人工智能模型的湧現現象〉,vocus(5/17/2023)。引用網址:https://vocus.cc/article/6463a768fd8978000178bfe8。
[4] 〈比利時男子「沉迷和AI聊天」6周後輕生亡 詭異對話曝光〉,ETtoday新聞雲(3/31/2023)。引用網址:https://www.ettoday.net/news/20230331/2470681.htm#ixzz82m8piykV。
[5] 王道維,〈迎接「後知識時代」的來臨---從生成式AI的虛擬知識談起〉,風傳媒(3/31/2023),引用網址:https://www.storm.mg/article/4766772?mode=whole。後來補充修改的版本可參考作者的部落格原文:https://blog.udn.com/dawweiwang/178728006。
[6] 目前微軟的New Bing是可以連網的,而ChatGPT最近也開放連網。Google的Bard也可以連線。但是就筆者所知,這些主要是將搜尋過後的資料重新整理呈現。並不是像許多人想像中根據最新資料所提供的最終可信賴結果。這其實也很容易理解,因為訓練大型語言模型是需要好的資料與訓練時間,即時的新資料又大量又良莠不齊,若用不加篩選的使用在模型訓練可能結果更糟,也不會是最即時的(因為重新訓練需要時間)。反之若用過往的訓練結果,也就無法產生最新的資訊,這些都是大型語言模型技術上的限制。這就像看很多即時新聞的人不見得比閱讀政經歷史的學者更能洞察時事。筆者相信未來或許會用階段性的更新,例如每三個月重新訓練一次,但也要審慎評估這樣的結果,不見得比使用過往資料好好訓練的模型更為優秀。
[7] 王道維,〈當Google遇上ChatGPT──從語言理解的心理面向看AI對話機器人的影響〉,風傳媒(2/11/2023)。引用網址:https://www.storm.mg/article/4725780?mode=whole。後來增補的版本亦可直接見於筆者的部落格原文:https://blog.udn.com/dawweiwang/178350327。
[11] 王道維、林昀嫺,〈如何用AI創造社會共善? ── AI公共化的契機〉,台灣人工智慧行動網(8/15/2020)。引用網址:https://ai.iias.sinica.edu.tw/how-to-create-common-good-in-society-with-ai/。更新補充版本可見作者的部落格:https://blog.udn.com/dawweiwang/148733003。
[12] 〈Meta推出AI大型語言模型,可轉換1,100種語言!秘訣在於:餵它吃多國《聖經》〉,數位時代(5/23/2023)。引用網址:https://www.bnext.com.tw/article/75345/meta-ai-llm-language?fbclid=IwAR3O-VVjTOlFTLnLMsFCupNSJaVLjGdvAqg1aFGNnCNCZ5TL6nZbiu7CHqo。
[13] 〈人格分裂、瘋狂示愛:一個令人不安的微軟機器人〉,紐約時報中文網(2/17/2023)。引用網址:https://cn.nytimes.com/technology/20230217/bing-chatbot-microsoft-chatgpt/zh-hant/。
[14] 目前源自於美國巨型科技公司(如Google、Microsoft、Facebook或Apple等)所開發的AI產品,必然先入為主的使用以西方白人文化為中心的價值觀來訓練AI,這一點都不意外。例如以下的報導:Samantha Murphy Kelly, “This AI chatbot is dominating social media with its frighteningly good essays”, CNN Business (11/8/2022)。引用網址:https://edition.cnn.com/2022/12/05/tech/chatgpt-trnd/index.html。
下一則: 道可道,非神道?──從基督信仰看能言善道的ChatGPT與其對教會的挑戰(發表於《舉目》雜誌)