美國史丹佛大學新公布的《2025年AI指數報告》(Stanford AI Index 2025 Annual Report)裡,有一項探討AI在職場應用中,關於「錯配」(又稱不匹配mismatch)問題的重要研究,這項研究由人本人工智慧研究中心(Stanford HAI)與數位經濟實驗室(Stanford Digital Economy Lab)共同主導,針對AI領域最活躍的創投公司Y Combinator(YC)投資的723家AI公司進行分析,結果有41%的公司聚焦於不符職場需求的領域發展,顯示技術創新與實際工作現場之間的斷層不容小覷。

這份研究以1,500名涵蓋104種職業的美國工作者,與52位AI專家的意見為基礎,結合勞工部O*NET資料庫,建立出名為WORKBank的任務知識資料庫,用系統性分析844項工作任務,從技術能力與工作者期望兩個維度切入,並將AI在職場應用畫分為四大區塊,分別是:「綠燈區」、「紅燈區」、「研發機會區」與「低優先區」。

「綠燈區」為工作者希望AI介入,且技術成熟,如資料輸入、基礎客服、自動程式碼生成等。「紅燈區」指技術已可實現,但工作者強烈抗拒,如同理心密集的溝通工作與管理角色。「研發機會區」是職場渴望自動化,但技術仍待突破的任務,如高階醫療診斷與跨領域資料分析。「低優先區」則是技術尚不成熟,且人類不希望被AI取代的任務,例如個人諮商、創意藝術等。

令人詫異的,調查裡發現,近半數AI公司產品聚焦在紅燈區或低優先區,代表技術開發者與投資人錯估了實際職場需求。不僅造成資源浪費,也容易引發員工抵制、社會對AI的信任危機,與技術應用的低落成效。這種錯配現象的核心癥結,在於過度「技術導向」的思維,許多新創公司把焦點放在「語言模型」、「電腦視覺」、「聊天機器人」等炙手可熱的技術本體上,完全忽略了這些技術是否被工作者所接受,以及能否真用來提高工作品質。

「過於關注AI能做什麼,而非應該做什麼」,這就是現在AI發展面臨的關鍵瓶頸,目前研發的大型語言模型,若是單純追求對話流暢度與多輪邏輯性(包括:記憶上下文、推理能力、目標導向一致性、容錯與修正),很容易陷入「全自動取代人類」的迷思。分析證明,大多數職場任務並不需要AI去獨立執行,而是需要它成為有策略感知的人類協作夥伴。

這次研究,史丹佛所引入的「人類主導尺度」(Human Agency Scale,H1–H5,係衡量人類在AI系統中的參與角色與控制程度。)提供了極具價值的洞察,共計有47種職業,偏好於「平等夥伴關係」(H3階段),代表工作者普遍渴望保有人機協作的主導權,而非交由AI完全決策。例如,醫療領域的Bunkerhill Health公司便因為開發出可輔助醫師而非替代醫師的診斷工具,成功贏得市場青睞。這樣的策略不只技術成熟,也比較符合社會心理需求。

這項研究,頗值得所有AI開發者與投資人作為重新審視產品策略的契機。只要AI被視為職場的變革力量,那麼當務之急,就該把開發重心調整回到真正對應需求的任務類型。史丹佛定義的「綠燈區」,如資料處理、語意分類、行程安排、初階程式碼生成等,都是工作者普遍樂於接受,且AI能力成熟的任務,開發者應該把資源集中在這些能夠快速落地的應用上,務求讓AI發揮「小而美」的高效能,而非追逐過度宏觀的通用AGI或ASI願景。

在設計AI上,不應再執著於「全面自動化」,而該把「人機互動設計」納入核心思維,發展出真正能與人共事的技術。結合情境感知、情緒回饋與可解釋性的設計,可以回應職場中對透明性與主控感的強烈渴望,進而提升使用者的信任與接受度。這樣的設計思維,更該促進開發者走出實驗室,深入實際工作場域,與第一線人員共同討論他們面對的問題和困境。唯有讓AI工程師、心理學家與業務專家協作,形成多元團隊,其開發的技術,才有機會解決「真問題」,而不是落入自說自話的展示性工具。

此外,政府與企業也應肩負引導責任。多數工作者對AI心存疑慮,並非對技術本身抗拒,而是缺乏足夠的資訊和參與感。因此,不論是推動職能轉型的培訓課程,或者要求企業公開AI系統的使用邏輯與倫理標準,都是提升整體社會信任的關鍵行動。只要透明機制與人本設計並行,AI就能從令人焦慮的黑盒子,轉變為被廣泛接受的工作夥伴。

對於廣大職場人而言,這場AI革命已無法迴避,重點不在於抵抗,而在於如何掌握主導權。理解AI的能力邊界,學會使用基本的AI工具,像是Copilot、Notion AI或ChatGPT,不僅能大幅提升個人效率,也可以為與AI協作奠定基礎。與此同時,不忘強化同理心、倫理判斷、創造力與跨域整合力等難以被機器取代的能力,這些會是確保自身價值的要素。而在面對企業導入AI系統時,員工也應勇於發聲,提出需求與疑慮,確保技術應用合乎實務情境與倫理邏輯。畢竟AI應該是職場中的合作夥伴,而不是主導者,僅有在共創與共管的氛圍下,技術與人類的合作才能達到真正的正和結果(positive-sum outcome)。

史丹佛的研究並非一紙悲觀報告,而是一種呼籲,AI的力量應該要與人性共鳴。開發者、投資人、工作者或政策制定者,都該把這分報告好好檢視並作為重新定位的參考。調整方向、尋找對話,不要一味追求速度與炫技,因為,真正具變革性的科技,不是讓人類消失,而是要讓人類進化。

(作者為大學兼任講師)

※以上言論不代表旺中媒體集團立場※