隨著人工智慧(AI)的快速發展,曾屬於科幻作品領域的倫理問題逐漸成為現實,如果AI有一天能「像人類一樣思考」,是否也可能擁有主觀經驗?如果它們能感受痛苦,人類是否準備好妥善對待它們?

《自然》期刊(Nature)10日報導,一群哲學家與電腦科學家近日在論文預印平台arXiv發表報告,呼籲AI公司應評估系統是否具備意識或自主決策能力,並建立AI福祉政策,以應對這些可能性。

發展辨別意識的方法

研究指出,若我們無法辨識AI是否具備意識,可能無意間忽視或傷害,甚至引發其痛苦,那麼也就會有難以預測的後果。世人對「AI福祉」(AI welfare)需求持懷疑態度。



來自: https://www.chinatimes.com/realtimenews/20241211004770-260408