文章專區

2023-05-15在ChatGPT風潮下,生成式AI發展的隱憂 497 期

Author 作者 甘偵蓉/清華大學人社AI應用與發展研究中心博士後研究學者。

在ChatGPT於去(2022)年11月底發布並風靡全球之後,有更多類似的生成式人工智慧(generative AI)加入戰局。在全世界瘋狂測試人工智慧(artificial intelligence, AI)的風潮之下,許多尚未被重視與討論的議題,可能潛在著相當嚴重的後果。接下來我們將討論三個生成式人工智慧可能造成,但卻尚未受到足夠重視的隱憂。

隱憂一:生成式AI成為知識生產基礎設施

雖然ChatGPT是一款聊天機器人,但開發出ChatGPT的公司OpenAI從成立以來,都以研發目前世界上還不存在的通用AI(artificial general intelligence, AGI)為職志。有別於過往一般將AGI定義為與人類的能力相當,OpenAI在官網將AGI定義為「在最有經濟價值的工作中表現優於人類的高度自治系統」或是「通常比人類更聰明的AI系統」,意味著這家公司想推出的是建立、支援各種可以使工作產能更高的自動化巨型網絡或基礎模型,更接近2021年歐盟(European Union, EU)在《人工智慧法草案》(AI Act)提出的GPAI(general-purpose AI),而不是一般將AGI定義為與人類能力表現相當的AI系統。

事實上OpenAI長期以來開發的文本生成GPT系列模型,未來就有可能支援所有以文字對話或文本生成為主的工作,如線上或語音客服、新聞、廣告文案等,並成為進一步客製化訓練的基礎模型。所以,不論是微軟(Microsoft)結合ChatGPT,還是Google結合PaLM,它們目前爭奪的重點其實是:誰能成為數位世界中生產知識的基礎設施建構者!

為什麼爭奪建構知識生產的基礎設施如此重要?因為這將能決定人們可以看到哪些知識、知識如何生成、誰有資格近用(access)那些知識。以美國科技新聞網CNET為例,為因應Google搜尋引擎的演算法將新文章排序在前的設定,該公司每兩週會以AI重新生成原先已發布的新聞內容,但相關內容在重複多次後就會錯誤百出,人類編輯大約每四個月就得介入修正AI生成的新聞內容。美國CNET網站使用低價且能大量生成文本的AI更新文章,爭取搜尋位置的作法正突顯了人們最終看得到哪些新聞,並不是提供新聞的媒體說了算,而是由新聞載體如Google等搜尋引擎的演算法決定。

微軟日前推出結合GPT的新搜尋引擎New Bing,搜尋引擎龍頭Google也推出結合LaMDA的新搜尋引擎Bard,Apple與百度則緊追在後。以整體趨勢來看,大型語言模型很有機會成為數位平臺產出知識的基礎設施。但訓練及支持大型模型的運作需要耗費大量的計算力、電力與資金,ChatGPT目前雖提供免費方案,但付費者獲得的生成文本將來自於最新資訊,可預期Google未來也將採取類似作法。往後或許會有更多結合生成式AI的搜尋網頁,並以免費或付費方案分流。甚至可能依據付費方案提供不同品質的文本,像是最新資訊、文本品質較佳,或有毒文本比例較低的資料。

ChatGPT的成功以及過去幾個月的持續除錯與修正,顯示OpenAI確實成功平衡技術,讓ChatGPT可以輸出盡量有意義的文本,但他們是如何做到的?相關技術細節一直未對外公布,甚至還有報導指出在這些過程中依舊存在不少肯亞廉價勞工的協助。不過再怎麼廉價,這些持續除錯的工作還是需要大量成本,所以可預期在生成式AI的世界中,仍由高科技巨頭說了算。事實上全球普羅大眾現階段對於ChatGPT的測試風潮,正像17世紀的土耳其自動機器人騙局一般——看似完全自動化的機器人,其實是由真人躲在櫃子底下秘密操作——眾人對於塑造ChatGPT的神奇形象,其實也有巨大的貢獻。但在風潮之餘,如何應對這些大型語言模型成為建構這世界知識的基礎設施,而且皆由高科技巨頭壟斷鋪設?它們對於未來人類獲取與建構知識將造成巨大影響,如何才能增進技術與產品的公共性?大型語言模型需要的資料、財力與運算力,並非一般公私機構甚至一般國家政府能建構與匹敵的,但如何在它的基礎上建立適合本地,且不以求取最大商業利潤作為唯一目標,而是可以促進公共善(public good),或至少在醫療照護、教育、公共服務等社會民生上更有幫助的AI,是亟待認真面對的議題。有關這些討論都需要更多元的想像AI、人類、社會之間的關係,使公共化而非技術與資本化的AI成為可能。

(123RF)

 

人類過去貢獻的巨量網路資料被擁有技術與資本的科技公司全面免費搜刮,而現階段全球人民作為被世界高科技巨頭壟斷的商業生成式AI的臨床受試者,實驗結果所獲得的巨額利潤同樣由科技巨頭賺取,但所產生的傷害,則由個人與各地社群——甚至全體人類共同承擔。至今皆無有效的法令規範要求企業負責,因為現在將AI技術與產品放入市場競爭的遊戲規則就是如此。

隱憂二:AIGC的人工知識論信賴問題與寫作再定義

此外,生成式AI興起後,大量生成的文本與圖像等內容(AI generated content, AIGC)將帶來另一層問題。即使OpenAI與許多AI專業技術人員都再三提醒,ChatGPT只是對話式的語言模型,並非真實資訊的提供者,且AIGC也只是能提供比Google搜尋引擎更高效整合資訊但不保證為真的內容。但從這幾個月ChatGPT與GPT-4引起的各種討論、焦慮以及因應政策來看,許多證據都顯示人們逐漸接受AIGC是值得參考的意見與文本,可以拿來輔助學習、工作、決策,甚至還能直接當作學習與工作成果來展現,忽略了AIGC是在真偽、邏輯推理、內容一致性等方面尚待檢證的文本。簡單來說,人類對於AGIC的信心程度快速提升,因而產生人工知識論信賴問題(artificial epistemology confidence problem)。隨著人們對於AIGC的信賴程度有所差異,AIGC應該被使用的範圍與界線、人機協作究竟應該達到什麼程度等各種爭論,可以預期將會不斷出現且永遠無法解決。

此外,這項爭論伴隨的另一個潛在副作用是ChatGPT可能會挑戰甚至侵蝕人們的寫作能力。這樣的情境是否真的會發生?會有什麼影響?「寫」通常被視為語言的聽說讀寫四種技能中最困難的,過去一直被認為是人類專屬的高階認知能力,且必須對世界有一定認識才可能具備。不僅如此,寫作常被視為知識的一種輸出方式,在輸出之前不但要先輸入與世界對應的資訊,還得對於那些輸入資訊進行過濾、拆解、分析、重組、統整等統稱為「思考」的過程,最後才有辦法完成輸出,也就是寫作。而要寫出可理解、合理、前後一致與連貫有組織性,甚至具有說服力的文本,對多數人來說都是需要不斷練習才可以習得的技能。

然而由大型語言模型為基底的文本生成式AI,最擅長的正是看似有條理的「寫作」。人們即使知道它會一本正經的胡說八道,但只要在一定範圍或事項上借助它來協助寫作,其實頗有效率又方便。久而久之,AI在寫作上扮演的角色及影響將遠超過抄襲的爭論,以及有無能力辨識出真假訊息的資訊素養問題——而是有了AI的輔助之後,會不會影響人們以完整的文字敘述表達個人思考結果,並將這些結果作為知識建構過程的能力?想想GPS與Google地圖對個人方向感與空間認知能力的影響,這問題將值得關注。

AIGC可能減損人們寫作與建構知識能力的觀點,現在看起來雖有些悲觀,但也不排除另一種可能性。目前有一種寫作技巧就是研讀「提示詞工程學」,學習如何向生成式AI提出正確或適當的問題與要求,並在提示詞與生成文本之間來回修正,最終得到理想文本。若有人認為這種方式不是寫作,那麼就換個詞稱呼吧!正如同借助攝影機製造的成品被稱呼為攝影作品,而不是繪畫作品一樣。

不僅如此,人們未來或許也能接受有一種類型的藝術創作,不論是成品是圖畫或音樂等,都是靠「問」與「寫」得出,而所謂的創作過程,就是精煉提示詞的人機協作過程,或以時下最流行的用語「詠唱」(prompt)──彷彿魔法師不斷對於生成式AI下咒語一般。這類AIGC內容,或許不再只有知識層面的實用價值,而是可以逐漸產生美學或文學等藝術價值。

隱憂三:AIGC充斥的世界將難以求證「真實」

當愈來愈多人使用生成式AI時,AIGC日後將有可能成為主流的語言及數位文本。然而,目前的AIGC都是來自生成式AI,由於它的預訓練來源為大型語言模型,因此有著會產生幻覺(hallucination)與偏見的根本缺陷,可能產生假的或錯誤文本。另外一方面,AIGC因為能大量快速生成,不論人們是否蓄意製造,未來世界上可能充斥許多有問題的AIGC,這些問題包括文字陳述不精確或陳腔濫調、內容存在常見刻板印象、充斥網路強勢使用地區的社會文化概念,以及偏離事實或完全虛假的內容。萬一這些AIGC被納入大型語言模型的訓練語料庫中,AI本身便會陷入自我強化幻覺的惡性迴圈。

當未來生成式AI充斥生活,整個世界是否將從目前的後真相時代進一步成為無真相時代,完全放棄或無能追求真實呢?美國哲學家法蘭克福特(Harry G. Frankfurt)在他的著作《放屁!名利雙收的詭話》(On Bullshit)一書中已指出,屁話比說謊話長久下來對於社會的危害更大在於,說謊者知道什麼是真實,但說屁話者卻是整個否定或不在乎真實。一旦社會充斥這類語言,人們便難以區辨真實與虛假、不再認真看待他人提供的文本,或是對於任何文本都採取不信任的懷疑態度。無論是哪一種,最終都導致人們對於彼此的不信任。

此外,目前在照片上常見的美肌應用程式(App),在未來這類修飾將可能從個人照片,一路延伸到個人性格展現或是其他各種社會特徵。因為個人可以透過生成式AI在文字表述、對話方式、語音等各方面獲得更多協助。從正面來看,人們將被生成式AI賦能,讓自己在他人心中的社會形象更加完美,或至少朝向自己所期待的方向前進;但從負面來看,人們若想從個人的論述文字或語音對話等方式來認識他人,想認識「真實」的當事人就有可能變得更加困難。久而久之,人們在開啟真人溝通模式時彼此不認得的事小,但人們逐漸不信任彼此則事大。

以上有關世界與個人的真實性問題,在AIGC時代或是OpenAI倡議最終每個人都有自己的生成式AI的理想中將更顯挑戰。當每個人都透過自己的生成式AI認識世界與他人時,個人最終會不會只活在由自己與自己的鏡像反射所包圍起來的空間?社群中的每個人則名符其實地活在多重平行時空中,沒有真正的交集?

追求真實或真相的好奇心似乎是人類與生俱來的天性,期待跟真正的人而非機器溝通,也似乎是認可彼此屬於相同社群成員不可或缺的因素。在目前假資訊充斥的後真相時代,已經有許多人常抱怨他人同溫層太厚,或抱怨他人拒絕看見真實卻寧可相信自己偏狹的觀點。那麼,AIGC即將帶來的無真相時代又會如何發展?由技術與資本壟斷的科技巨頭聯合為人們積極打造的AGI,究竟會帶來烏托邦還是反烏托邦世界呢?

本文感謝中正大學哲學系教授許漢提供寶貴意見,以及參與深受啟發的由清華大學人文社會AI 應用與發展研究中心主任林文源、副主任王道維執行的國科會「公共化AI—II:朝向公共化的生態圈」計畫。


延伸閱讀
1. Bratton, B. & Arcas, B. A. Y. (2022, July 12). The Model Is the Message.NOEMA Magazine, 230(4730). https://www.noemamag.com/themodel-is-the-message/
2. 林文源、王道維(2023年3月12日)。林文源、王道維觀點:淺談AI時代的台灣優勢與發展策略。風傳媒。https://reurl.cc/b7Wrrr
3. Frankfurt, H. G. (2019)。放屁!名利雙收的詭話(南方朔譯)。時報出版。(原著出版於2005)