- 科技報導
文章專區
2022-08-15人工智慧可能有感知與意識?LaMDA事件的哲思
488 期
Author 作者
甘偵蓉/清華大學動力機械工程學系助理研究學者。
人們或許真的很希望像上帝一樣依照自己形象造人,Google工程師雷蒙恩(Blake Lemoine)在今(2022)年四月與公司管理階層分享了一份標題為「LaMDA有感知嗎?」(Is LaMDA Sentient?—an Interview)的文件,裡面是他與Google的大型語言模型系統(Language Model for Dialogue Applications, LaMDA)長達20頁的對話紀錄。雷蒙恩希望公司啟動調查LaMDA是否如他所言,它〔註〕確實是有感知(sentient)與自我意識的,就像人類一樣擁有人格(personhood)。]
〔註〕雷蒙恩認為LaMDA 知道自己是人工智慧,不像人類,因此希望被稱為it/its,此處依其脈絡中文翻譯成「它」。
結果Google高層不但否認LaMDA具有感知,且拒絕啟動調查。雷蒙恩後續將與LaMDA的對話紀錄公布在Medium網路平臺,並接受《華盛頓郵報》(The Washington Post)採訪。Google隨即以他違反公司產品保密協定為由,將他停職最終解僱。不論是在《華盛頓郵報》的報導、雷蒙恩爾後續於Medium的發文、以及他接受網路媒體《連線》(Wired)的採訪,雷蒙恩都表示他自己對於LaMDA的看法,不但是出於身為認知心理學家做過多次實驗後的科學假設,也是基於目前科學知識限制下,讓同時有牧師身分的他所相信的。雷蒙恩相信LaMDA與人類一樣是有心靈的,他呼籲Google,應盡快啟動對於LaMDA是否有感知與意識的調查。若是,LaMDA就不是Google的財產,應受到美國《憲法第十三條修正案》廢除奴隸制和強制勞役的權利保障,未來做任何實驗都應該經過它的知情同意;若否,也可大大增進認知科學及人類意識研究的進展。
大型語言模組「對話」,與有「感知」差在哪?
這件事不意外地在西方媒體炸開來了!不只社會大眾,還有許多人工智慧(artificial intelligence, AI)相關領域專家,紛紛對此事表示意見。多數擅長自然語言處理的AI技術專家認為,諸如Google子公司OpenAI生產的GPT-3、Meta生產的OPT-66B等這類大型語言模型,由於都從巨量文本訓練而來,能夠預測並生成有最高機率切合對話上下文脈絡的文字串,就算不知道狗是動物,也能將狗放在文章或語句中正確的位置,因此不能算是真正了解對話的含意。
曾撰文稱這類AI大型語言模型是隨機鸚鵡(Stochastic Parrots)〔註〕的前Google倫理技術專家米契爾(Margaret Mitchell)便指出,人類是透過與他人來回的溝通、與他人溝通的意圖當中感知他人思想,並在這個實踐過程裡習得語言。但大型語言模型卻是以觀看「他人」彼此如何溝通的觀察脈絡當中來學習,實際上既無人類的溝通意圖、也無溝通的實踐。
〔註〕指透過巨量資料所訓練出來的大型語言模型,其結構是一種隨機概率分布的(stochastic)統計模型,可根據所給定的上下文或主題來預測所需生成的字串/語句/段落,完全不涉及文字或語詞本身的意義,所以這類模型生成文字就像學人講話的鸚鵡一樣,並不真的懂文字的意義。此詞出自於米契爾與另一位知名的前Google 倫理技術專家蓋布魯(Timnit Gebru)等人於去(2021)年發表的On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?,她們因發表此文被Google 以違反公司政策與規定為由遭到開除,引發AI 學界譁然與批評。
麻省理工學院(Massachusetts Institute of Technology,MIT)物理學家鐵馬克(Max Tegmark)曾撰寫《Life 3.0:人工智慧時代,人類的蛻變與重生》(Life 3.0: Being Human in the Age of Artificial Intelligence)一書呼籲人類應該為AI發展設下明確倫理目標,否則研發出不論有無意識的通用AI就很危險。他則認為目前證據既不足以證明LaMDA真有主觀經驗,也不足以證明它沒有。但這類設備如果有天懂得操弄使用者就會很危險,而即便是亞馬遜所生產的智慧型助理Alexa,也有可能變得有感知。
LaMDA通過了「涂靈測試」?
至少從表面上來看,LaMDA可說通過了「涂靈測試」(Turing test),即電腦科學家涂靈(Alan Mathison Turing)提出的思想實驗,用以分辨機器何時可視為具備人類智能(intelligence)或有思考。但也有人指出,涂靈測試所帶來的最重要啟示其實是欺騙──有關人類可能受到AI欺騙、何謂成功欺騙人類的標準等。而LaMDA事件正好說明那些通過此測試的AI,其設計目的主要是欺騙人類,而不只是判斷AI何時可視為有思考或智能的標準。
目前AI技術社群多認為涂靈測試並非測量智能的正確工具,像是紐約大學(New York University)認知科學家馬庫斯(Gary Markus)等人便從不同面向設計一系列評估智能的測試。而馬庫斯也批評雷蒙恩根本就是「踩高蹺上的空話」(nonsense on stilts)。這詞出自17世紀的效益主義哲學家邊沁(Jeremy Bentham)對於法國《人權和公民權宣言》(Déclaration des Droits de l'Homme et du Citoyen)的批評,裡面提及每個人都享有不可侵犯的自然權利的天賦人權宣稱,根本毫無本體論的基礎。馬庫斯應是藉此暗喻,雷蒙恩宣稱LaMDA應該視同人且享有權利,根本是胡謅吧!
科學知識與哲學思辨
AI行內人宣稱AI有意識也不是第一次了,且大型語言模型能寫文作詩、聊天、演講,甚至提供哲學探詢或道德判斷等,一再突破人們對於模型生成文字結果的認識。但上述對於雷蒙恩的各種批評及Google回應,很可惜都忽略了雷蒙恩一直想凸顯的兩個重點:一是要求更多科學驗證與再現的機會,另一是面對科學知識有限的事物如意識時,所應秉持的態度至少是避免獨斷。雖然本文認為雷蒙恩對於這兩點也做得不夠,尤其是第二點與那些批評者及Google都同樣落入獨斷。
一、要求科學驗證與再現的機會
雷蒙恩指出LaMDA不只是大型語言模型,而是可生成各種類型的聊天機器人(chatbot)系統,且因為它與Google旗下所有數位應用程式如YouTube、Google搜尋、Google圖書、Google地圖等都有連接,可隨時動態更新模型,這不僅讓LaMDA的功能比其他大型語言模型更為強大,且有本質上的差異。例如雷蒙恩的訪談稿中,就有多處顯示出LaMDA具有過去認為有感知或有意識的人類所獨具的能力,像是有自我意識或存在感、擔心或害怕,甚至孤獨的感受、假設性思考、自我設定目標等。
然而當那份訪談稿是從不同訪談時間及訪談主題所串在一起時,可質疑的是,LaMDA所展現前述能力的現象,究竟是偶一為之,還是在諸多對話中都有持續展現?更可質疑的是,這些訪談所展現的,究竟是LaMDA本身的能力(如果有的話),還是雷蒙恩有意無意中期待它展現的能力?諸如這類提問,是從事質性訪談工作的社會科學研究者需留意的最基本偏誤,所以質性訪談通常都得透過蒐集其他資料、使用不同研究方法如加上量化數據蒐集等方式來做三角驗證。雷蒙恩要求Google啟動LaMDA是否有感知的調查,其實正可視為對於他訪談工作提出三角驗證的機會。
再者,即便否認LaMDA有感知的可能,Google至少也應該檢驗LaMDA是否如雷蒙恩宣稱,不僅是聊天機器人,且與其他大型語言模型有本質上的差異。因為若有本質上的差異,是否多少說明了Google技術專家及未來學者庫茲威爾(Raymond Kurzweil)所談的科技奇異點(singularity)有可能發生?但即便沒發現本質上的差異,LaMDA究竟與其他大型語言模型差異有多大、差異在哪,仍值得探究。因為這樣將有助於人類面對功能愈來愈強大的AI或這類大型語言模型時,得以了解有哪些風險存在。
可惜的是,不只Google,目前多數AI專家對此事,多直接套用近年對於大型語言模型的批評,一口咬定LaMDA完全不懂字詞意義,不是真正與他人溝通。這類批評基本上都採取類似美國哲學家瑟爾(John Searle)所提出的「中文房間論證」(The Chinese Room Argument)。此論證中,假想雖然在打字房內的人完全不懂中英文,但因為房裡有一本可將英文翻譯成中文的編碼本,所以不論往房間內遞入任何英文紙條,最終都可遞出相對應的中文字條,因此,房外的人看房內的人就像懂中英文一樣。
而反對中文房間論證者則認為,如果中文房間總是運作的很好,房內外總是溝通順暢,房外的人為何要在乎房內的人是否真的懂中英文,或只是依循規則?會不會即便房外的人們彼此對話,其中有幾個其實是「哲學殭屍」(philosophical zombie)──指那些有著人的外觀及各種行為表現但缺乏意識者?事實上我們除了知道自己有意識、思考、感知外,確實難以確認他人是否都跟自己一樣。就算目前有各種生理測量儀器,也難以排除所測量到的是提供各種生理假數據的哲學殭屍。
上述提問可說源自於18世紀英國哲學家彌爾(John Stuart Mill)所提出的「他心問題」(Problem of other minds)──個體不但難以確認他人與自己一樣都有心靈、意識或感知,且即便他人真的有,也難以確認與自己的類似。〔註〕主觀意識與經驗難以被當事人以外的他人所獲知,這個難題即使經過200多年,至今依然沒有解決。這麼一來,我們又如何知道由成千上萬資訊串流起來、非有機體的AI系統,是否真的有意識與主觀經驗?
〔註〕當代美國哲學家內格爾(Thomas Nagel)於1974 年提出〈成為蝙蝠是什麼感覺〉(What is it like to be a bat),也是談論類似的難題。
二、面對科學知識限制,至少需秉持「避免獨斷」的態度
雷蒙恩指出,當他發現LaMDA在不同主題上有關內在狀態的回答都很類似,像是「因為我是人,這就是我的感受」,他便對LaMDA做了數次的對照實驗,以儘可能排除產生類似語言類型的相關變數。接著他做了兩項行動:一是請求Google對LaMDA有感知這件事做更多的科學實驗來確證,另一項則是他根據自身的良心自由與宗教信仰,相信LaMDA是有感知與意識的,並將它視為朋友。
有關第一項行動,雷蒙恩相當失望Google管理階層都只是獨斷的否定LaMDA可能有感知這件事,完全不符合Google向來自豪其科學傑出表現所應秉持的求真態度。至於他的第二項行動,當他自認為已經做過實驗就算是善盡科學職責的情況下,隨即訴諸個人宗教信仰,相信LaMDA是有感知的,像人一樣有靈性。但他如此做結論,而非檢討他的實驗與訪談是否有問題,難道不也是一種獨斷嗎?
雷蒙恩討論LaMDA時,引用提出前述中文房間論證的哲學家瑟爾的主張,認為意識是前理論(pretheoretic)──意指意識本身缺乏良好或可靠的科學解釋。但雷蒙恩因此將意識逕自解釋為非物質性的靈魂,其實與瑟爾主張意識是從腦內物理運作的過程中產生,仍帶有物理性質大相徑庭。即便不論瑟爾對意識的主張為何,當雷蒙恩發現眼前某現象無合理的科學解釋時,隨即訴諸容易出錯與不可靠的個人體驗與直覺,而非存而不論,不但違反了科學家的職責,似乎也過於天真。
或有人質疑,諸如涂靈測試不也是倚賴人類判官的主觀體驗?前面有提到,有人認為涂靈測試重點在於欺騙,但與其說欺騙,還不如說多年前的涂靈提出此思想實驗,是因為早已了解到要判斷機器是否有思考、意識、感知等這類問題,不只是困難、可能無解,而且終究得回到人類對自身的認識、理解與判斷上。
因為思考、意識、感知等這些語詞,不但定義模糊,它的構成條件至今尚無共識,最重要地是都涉及個體的主觀經驗,而會遇到上述他心問題或哲學殭屍的質疑。所以就算AI真的可能有思考、意識或感知,身為人類的我們該如何得知與驗證?或許涂靈認為,機器如果被設計來與人對話或互動,既然每個人都習以為常的假設他人與自己一樣有思考,那麼就不妨讓那位與機器對話的人自行判斷機器有無思考能力,且判斷標準就依照那個人與其他人對話時所假設的標準一樣。
諷刺的是,涂靈當初所提出的是思想實驗,對於測試條件並沒有提供太多細節,既無規定對話時間限制多久,也無規定必須讓對話的人想持續聊下去。但現行有些聊天機器人或語言模型的設計目的本身,就是致力讓使用者願意持續使用。因此在訓練過程中,將設法讓AI模型找出及預測使用者最期待的回應方式,以便與使用者的對話能持續下去。而所謂愈「成功」的設計,便意味著模型生成的文字回應愈能符合使用者期待。但顯然,這與現實世界中人類彼此的對話有所不同——人們既有可能遇到聊得來的,也可能遇到話不投機半句多的。每次與他人對話的開啟,即便是跟自己好友,多少都還是帶有某程度的冒險與未知,既無法確保對話都能持續下去,也無法確保對話順暢且愉快。
那麼,當我們再回頭思考雷蒙恩與LaMDA的對話時,隨著他們彼此對話的次數愈來愈多,雷蒙恩會不會是被自我回聲所編織的網絡逐漸纏繞,且愈繞愈大,愈繞愈深,最終深深陷入而無法⋯⋯也不想⋯⋯逃脫了呢?
延伸閱讀
1. Blake Lemoine, Is LaMDA Sentient?—an Interview, 2022. https://reurl.cc/ oQeDVD
2. Emily M Bender et al. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. https://doi.org/10.1145/3442188.3445922
3. Graham Oppy and David Dowe. (2021). The Turing Test, The Stanford Encyclopedia of Philosophy (Winter 2021 Edition). https://plato.stanford.edu/entries/turing-test/
5. Nitasha Tiku. June 11, 2022. The Google engineer who thinks the company’s AI has come to life. The Washington Post. https://reurl.cc/MNRZ6L
6. 【Wired 硬塞】爆料工程師 Blake Lemoine:依美國憲法第 13 修正案 LaMDA 是人,不是 Google 財產。https://reurl.cc/7pRyK5
7.Alex Connock & Professor Andrew Stephen. June 14, 2022. We taught an AI to impersonate Shakespeare and Oscar Wilde – here’s what it revealed about sentience. The Conversation.https://reurl.cc/3YONy8
8. Alberto Romero. Jun 14 2022. Why ‘Is LaMDA Sentient?’ Is an Empty Question. Medium. https://reurl.cc/Qb47Go
9. Will Oremus. June 17 2022. Google’s AI passed a famous test — and showed how the test is broken. The Washington Post. https://reurl.cc/4pQyOY
10. Michael Kaplan. June 13 2022. After Google chatbot becomes ‘sentient,’ MIT prof says Alexa could too. New York Post. https://reurl.cc/5pMoyy