文章專區

2024-01-15人類如何與AI共同合作、創造雙贏? 《權力與進步》 505 期

Author 作者 戴倫.艾塞默魯(Daron Acemoglu)、賽門.強森(Simon Johnson)

被低估的人類價值

雖然新科技提升生產力,導致許多勞工丟了工作,大量資料數據被大企業所掌握,但有時確實也能增加對勞工的需求,提升勞工的收入,但這必須建立在一個重要的前提上:新科技必須能大幅提升生產力。但如今,AI多半只是帶來「差不多湊合著用的自動化」、有限的生產力收益,因而造成嚴重的問題。
 
當生產力得到大幅提升時,確實能夠消除自動化的一些負面影響,像是在一些尚未自動化的任務上增加對勞工的需求,又或者因而擴張其他部門的就業。然而,如果省下的成本與提升的生產力不夠,就無法帶來這些好處。而「差不多湊合著用的自動化」就是最大的問題,因為這種發展既取代了勞工,卻沒能讓生產力有長足的提升。
 
在AI時代,只能得到「差不多湊合著用的自動化」也是事出有因。人類從事的工作事務,其實多半做得還不差,各種技能多半是經過數個世紀的累積;而以AI為基礎的自動化如果只是把人換成機器,自然很難獲得百尺竿頭的成就。像是先前有些企業一頭熱地裝設各種自助結帳櫃臺,結果反而效率不佳,也沒能為顧客提供更好的服務品質。有些企業則用AI演算法取代過去已經對業務十分上手的客服人員、IT專家或理財顧問,但結果也往往不如人意。
 
人類所執行的生產任務通常混合例行與更複雜的活動,涉及到社交溝通、問題解決、靈活性與創造力等等成分。在這些活動中,人類需要運用自己的隱性知識與專業知識。此外,專業知識常常需要搭配當時的情境,因此一旦將所有任務自動化,便很難將隨機應變轉移到AI演算法裡。
 
為了說明累積知識的重要性,讓我們以第四章提過的採集社會為例。民族志研究顯示,狩獵採集者對當地環境的適應能力極高。舉例來說,原產於美洲熱帶地區的木薯,是一種高營養塊莖植物,能做成木薯粉、麵包、木薯澱粉及各種酒類飲品。但這種植物含有兩種能產生氰化物的糖類,因此具有毒性,如果直接生吃或未經適當加工,就可能讓人中毒、甚至身亡。北美猶加敦半島的原住民發現這個問題,並找出幾種去除毒素的方法,包括將木薯去皮浸泡一段時間,然後長時間煮沸、並把水倒掉。有些歐洲人一開始不懂他們這麼做的原因,還以為這是原始、不科學的傳統而嗤之以鼻,因而付出高昂的代價。
 
在現代經濟當中,科技精英往往忽視人類具有適應能力與獨創力的重要性。舉例來說,城市的規畫師和工程師常常認為,想讓車流安全順暢,關鍵在於交通號誌。但在2009年9月,英國沿海小鎮波蒂斯希德(Portishead)嘗試在一個最繁忙的十字路口關閉紅綠燈,結果讓許多專家跌破眼鏡,駕駛反而更加小心駕駛,很快就適應這種新的做法。四個星期的測試結束時,這個十字路口的交通流量明顯改善,而且並未增加事故或受傷人數。波蒂斯希德並非特例。其他幾場這種「無紅綠燈」的實驗,也都得到類似的結果。有些人會認為,在大城市、尤其是最繁忙的路口不設紅綠燈絕對不切實際,但這個實驗結果讓我們去思考,當科技剝奪人類的主動權與判斷力之後,有時候只是讓事情變得更糟,而不是變得更好。
 
生產任務也是同樣的道理。人類智能之所以強大,是因為能夠配合情境與社會狀況而調整;人類就是因為能夠理解並成功應對環境,才能順利適應各種不斷變化的情況。舉例來說,當人們處在不熟悉的環境,即使在睡覺或休息時,也能對最細微的危險訊號有所警覺;如果是在自己感到安全、可預測的環境,則能憑著過往習慣的例行做法,快速執行各種任務。也是這樣的情境智能(situational intelligence),讓人類能夠應用情境中相關的資訊,應對環境中的種種改變,辨認不同臉孔與模式。
 
人類智能與社交脫不了關係,還與下列三個面向有關。第一,想要成功解決問題、適應環境,很多時候得從社群取得必要的資訊,這就需要透過各種隱性或顯性的交流(像是模仿他人的行為)。而人類認知的一項重要功能,就是詮釋這類的外部知識,這也正是「心智理論」(theory of the mind)所強調的基礎。心智理論就是在探討人類為何能夠推論他人的心理狀態,進而正確理解他人的意圖與知識。
 
第二,人類的推理過程會受到社會互動的影響。我們會根據不同的假設,提出支持或反對的理由,並在這個過程中評估自己的理解。要是人類缺少社會層面的考量,做出來的決策肯定會很糟糕。缺乏社會智能,就像是處在實驗室的環境中,勢必會做出錯誤的決定,而在比較自然的環境中,則能夠避免犯下那些錯誤。
 
第三,人類能夠藉由對他人的同理心,以及從中感受到他人的目標與企圖,因而學習到更多技能。正是因為智能具有情境與社會面向,因此,即使一個人的認知分析能力(主要反映在IQ分數上)很高超,但那並不代表他就能在各種領域獲得成功。即使是科學與技術專業領域的成功人士,不僅需要擁有高智商,還必須具備優秀的社交與其他能力。
 
對於大多數工作者而言,如果具備情境與社交智能,不但能夠更具彈性地適應環境,還能順利與顧客及其他員工溝通,提升服務品質、減少錯誤率。這也是為什麼即使AI科技日益普及,但許多企業求才更加看重求職者的社交能力,而不是計算或技術能力,因為不論傳統數位科技或現在的AI,仍然無法勝任與社交互動、適應力、靈活性及溝通有關的基本任務。
 
雖然如此,但隨著自動化逐漸縮小社會人際互動與人類學習的範疇,可能會形成一種惡性循環。讓我們再次以客服為例。訓練有素的人類處理問題的效率高,是因為能夠和求助者建立社交連結(像是對剛發生意外、想申請理賠的人表示同情),能夠迅速掌握問題的本質;他們懂得要與顧客溝通,再以此為基礎,找出符合需求的解決方案。而且,在人際互動的日積月累之下,客服人員往往能把工作愈做愈好。
 
現在試著想像一下,假設我們把客服工作拆成許多更細的任務,接著把前端工作交給演算法處理,但由於顧客的問題太過複雜,使得AI客服難以辨識與有效處理問題。於是在經過一連串的選單之後,顧客才終於等到真人客服出面解決問題。此時,顧客往往已經心力交瘁,真人客服人員則錯過首次與顧客溝通、建立社交連結的機會,同時也很難從中獲得進一步的學習與應變,這樣一來,客服人員的效率自然又會受到影響。不幸的是,最後管理者與技術人員反倒還覺得:看吧!果然不能把太多任務交給真人客服,我們還要再砍掉一些人力才行。
 
在AI圈裡,經常會忽略這些關於人類智能與適應性的教訓,只是一心想把各種任務都自動化,而不去思考人類技能可能發揮的作用。
 
2016年,AI在放射學領域大獲成功,得到眾人交相稱讚。當時,曾共同創造現代深度學習方法並榮獲圖靈獎的Google科學家傑弗里.辛頓(Geoffrey Hinton)認為:「人類應該停止再培訓放射科醫師了。顯然在五年內,深度學習就能超越放射科醫師。」然而這件事並未發生,而且從2016年以來,對放射科醫生的需求有增無減。原因其實很簡單,想要做好完整的放射診斷,人類所具備的情境與社交智能絕對超越機器。事實上,近期研究顯示,如果將人類的專業知識與新的技術結合,效率還會更高。以糖尿病患者為例,這類患者經常因視網膜血管受損,而形成糖尿病視網膜病變,而運用最先進的機器學習演算法,確實能及早診斷出這項疾病;然而,如果先用演算法找出診斷較困難的病例,再交由眼科醫生進行診斷,更能大幅提高診斷的準確度。
 
Google自駕車部門的技術長曾在2015年信心滿滿地說,等他當時十一歲的兒子長到十六歲時,已經不用再考駕照了;馬斯克也在2019年做出預測,到了2020年底,特斯拉會有一百萬輛全自動無人計程車上路。但基於同樣的原因,這些預測最後全都一一落空。正如前面提到的無紅綠燈實驗所強調,要開車行駛在繁忙的都市裡,駕駛需要具備極高的情境智能,來適應不斷變化的環境,甚至需要有更高的社交智能,才能對其他駕駛與行人所發出的訊號做出回應。
 

「通用AI」的幻覺

目前AI的發展路線是以圖靈的主張為圭臬,追求的就是通用、達到人類水準的智能。儘管GPT-3與推薦系統(recommendation system)已有長足的進展,但就目前由人類處理的許多決策而言,要想憑著目前的AI路線來破解人類智能,甚至光是達到極高水準的生產效率,都還言之過早。在人類認知上 與社交及情境層面有關的任務,對於機器智能來說仍然會是巨大的挑戰。如果我們仔細看看人們目前現有的成就,就會發現把人類擅長的事情全都交給機器處理會有多困難。
 
舉例來說,AI最為人樂道的成功案例之一,是第一章曾談過的AlphaZero西洋棋程式,有人甚至認為AlphaZero具有「創意」,因為它能夠下出人類西洋棋大師未曾見過或想像的棋路。然而,這還稱不上真正的智能。首先, AlphaZero的用途非常局限,只能用來下西洋棋這樣的遊戲,一旦超出這個範圍,就算只是簡單的算術或是需要更多社交互動,AlphaZero都無力處理。更麻煩的是,目前還沒有辦法調整AlphaZero的架構,讓它做到許多人類覺得很簡單的事,像是找出相似之處、玩一些規則不那麼嚴格的遊戲,又或是學習某種語言,而這些事每年都有幾百萬個一歲小孩能夠做得又快又好。
 
此外,AlphaZero的西洋棋智能其實也非常局限,雖然常常能夠走出既符合規定、又叫人讚嘆的棋路,但這種「創意」的性質卻不像人類常常會做出的那種「創造性活動」(能夠在各種非結構性的不同環境當中做比較,或是對各種全新的問題找出解決辦法)。
 
就算是GPT-3,已經比AlphaZero更通用、效能也更令人讚嘆,但依然有其局限,只能完成曾受過預先訓練的任務,而且也不具備判斷力,所以一旦碰上矛盾或不尋常的指示,就可能被難倒。更麻煩的一點在於,這項技術並不具備人類的社交或情境智能元素,因此執行任務時,GPT-3無法判斷情境的脈絡,或從中推論因果關係。這套程式有時就連很簡單的指令也會出現誤判,難以對不斷變化或全新的環境做出充分的回應。
 
事實上,從這些討論還讓我們看到一個更大的問題:統計方法雖然能夠辨識模式、做出預測,但掌握不到許多人類技能的本質。首先,由於所謂確切的情境難以定義與編碼,也就很難應對情境的資訊。
 
統計方法長期以來還有另一項問題,稱為「過度配適」(overfitting),一般指的是為了想要精確呈現實證上的關係,結果在統計過程參考太多的參數。令人擔心的地方在於,一旦出現過度配適,統計模型會把資料當中其實無關的部分也納入計算,於是所做的預測或結論都出現失準。統計學設計出很多方式來避免出現過度配適,像是研發演算法時先用另一份樣本,而不是最後真正要應用演算法的樣本。儘管如此,過度配適仍然是統計上的一大難題,因為它與目前AI路線的缺點直接相關:對於正要建立模型的現象,缺乏一套真正的理論。
 
想要解釋這個問題,就必須先針對最後應用的目標,了解有哪些不相關、不是長久存在的特徵,從中對過度配適的問題進行更廣泛的認識。讓我們以「區分狼和哈士奇」這項任務為例。對人類來說,區分哪隻是狼、哪隻 是哈士奇並不難,但這項任務對AI來說卻很困難。後來有某些演算法似乎表現得很不錯,但後來發現這是因為過度配適:如果背景是都市,像是有平整的草皮、消防栓,AI就會判斷為哈士奇;如果背景是雪山那樣的自然情境,AI則會判斷是狼。但這兩種配對方式根本是不相關的特徵,原因有二:首先,人類不是用這樣的背景因素來定義或分辨動物;第二,隨著氣候暖化,狼的棲地可能會改變,因此程式需要能在不同環境中辨別狼隻。換言之,正因為「背景」並非狼的決定性特徵,所以一 旦周遭世界或環境改變,這種判斷方式就會導致錯誤的預測。
 
對於機器智能來說,過度配適特別麻煩,因為那會讓人誤以為機器的表現十分出色,但其實錯誤百出。舉例來說,雖然「溫度」與「各國每人平均GDP」這兩個變數在統計上相關,但並不代表氣候會對經濟發展造成巨大影響,原因可能只是在某段特定的歷史中,歐洲殖民主義對於不同氣候的不同地區有了不同的影響。但如果沒有一套正確的理論,就很容易誤把「因果」與「相關」 混為一談,而機器學習就常常出現這種情況。
 
在一種情況下,演算法過度配適的影響還會更為嚴重, 那就是在社交情境中,人類會不斷對新資訊做出回應。
 
在這種時候,整個需要判斷的情境會不斷因為人的反應 而改變,甚至這種改變正是因為有人參考了演算法的資訊。讓我們舉個經濟上的例子。當某人想要應徵某個職缺,這時演算法可能會以職缺遠遠少於應徵人數,判斷此人的決定是錯誤的並加以糾正。而不管先前曾用怎樣的方式來消除過度配適的問題(例如區別培訓用與測試用的樣本資料庫),問題還是可能存在(例如兩個樣本資料庫都屬於還有諸多職缺的情形)。此外,正因為這是個社交情境,所有人都會不斷依據現有證據做出回應,所以未來的情境很有可能還會改變。舉例來說,由於太多人被演算法鼓勵去申請某個職缺,會讓申請應徵的人數超過職缺數目,那麼這個職缺就不再是個理想的選擇了。要是機器智能無法從這種情境與社交層面來了解人類的認知、掌握人類行為會如何動態調整,就會不斷碰上過度配適的問題。
 



書 名|權力與進步:科技變革與共享繁榮之間的千年辯證
作 者|戴倫.艾塞默魯(Daron Acemoglu)、賽門.強森(Simon Johnson)
譯 者|林俊宏
出版社|天下文化
出版日期|2023年11月
 
科技變革蘊藏著極大的潛力,不僅能提升生產力,還能改善地球上數十億人們的生活。然而,當我們跳上快速奔馳的「生產力便車」,盡情享受技術躍進所帶來快速、便捷的科技果實,此時人類的命運與社會的發展,卻悄然來到全新的十字路口。在迎向更強大的人工智慧世界之前,我們是否該停下來思考:
 
▪強大、快速的科技進步,對我們來說一定是好事?
▪在科技創新突破的過程中,誰會成為贏家、誰又會是輸家?
▪數位革命與AI技術的演進,為人們帶來的是「願景」、還是「陷阱」?