文章專區

2023-09-15距離AI成為「超智慧」還需要多久?《超智慧》 501 期

Author 作者 尼克.伯斯特隆姆(Nick Bostrom)

智慧爆發的動力學

一旦機器達到某種形式的人類等級通用推理能力,那麼距離它們成為超智慧還要多久呢?這個歷程會是個緩慢、漸進而持久的轉變,還是瞬間爆發性的轉變?本章將會分析包含最佳化能力及系統反抗力的超智慧轉型動力學。我們會以人類水準的通用智慧來思考這兩個因素,並且合理揣測這兩個因素展現出來的行為模式。
 

起飛時間與速度

以通用智慧來說,假設機器終究會大幅超越生物,然而目前機器的認知能力還遠比人類的認知狹隘,這令人不禁想問:機器篡位的那一刻多快才會到來?這和我們在第一章所思考的問題截然不同(第一章我們想的是「我們現在離發展出人類水準的通用智慧還有多遠」)。這裡的問題是:如果我們真的開發出這樣的機器,那麼距離它成為基本超智慧還要多久時間?注意,我們可以認為,機器達到人類的底線還要花很長的時間,我們亦可抱持不可知論的態度看待此事;但我們也可以同時堅信,一旦這件事情發生了,它很快就會再進一步提升為超智慧。
 
以圖像來思考這些問題也許會有所幫助,儘管我們得暫時忽視某些資格條件和複雜細節。那麼,就來設想一張圖,並把最先進機器智慧系統的智慧標記為時間函數(圖七)。

 

圖七:起飛的圖形。區分「起飛是否會發生?如果發生,什麼時候會發生?」以及「如果起飛真的發生,會有多急速?」這兩個問題至關重要。舉例來說,可能會有人說,起飛還要很久才會發生,但發生之後就會急速前進。另一個相關問題是(未顯示於圖中):「全球經濟會有多大一部分參與起飛?」這是個相關但有所區別的問題。
 

 

標示著「人類底線」的水平線,代表能夠使用已開發國家現有資源和技術支援的成年人總體有效智慧。目前最先進的人工智慧系統,不管從任何通用智慧的合理面向度量,都仍遠遠低於人類底線。但在未來的某一刻,或許會有某個機器智慧約略接近人類底線。我們將它設為一固定時刻(好比說未來十年),從現在到未來十年間,人類個人能力應該還會繼續增長。我們可以標出起飛(takeoff)的起始點。然後,系統的能力持續成長。到了未來某個時候,系統達到全人類智慧總合的同等水平(同樣是以現在的人類水準為準),我們稱之為「文明底線」。最後,如果系統能力持續成長,就會達到「強超智慧」水準—這個智慧水準遠遠強過當代全人類的智慧總和。強超智慧的達成標示了起飛的完成,雖然之後系統還會持續在能力上有所進展。有時在起飛階段中,系統會經歷一段稱做「黃金交叉」的界標;交叉點過後,系統進一步的開展主要是由系統本身,而非他人的操作所推動(黃金交叉的存在,到了下一小節討論最佳化能力與爆發性時,會變得很重要)。
 
有了這幅圖,我們便能根據曲線的陡峭程度,區分系統從人類水準智慧進步到超智慧的三種等級轉型情境;即它們呈現的是緩慢、快速還是穩健的起飛。
 
•緩慢:緩慢的起飛會經歷長期的間隔,可能是幾十年或幾百年。緩慢起飛的情境讓人類政治有了適應與做出反應的機會。可以依序嘗試或測試不同方法。可以對新的專家進行培訓與認證。因計劃開展而權益受損的團體,可以推動草根運動。如果需要新的安全基礎設施,或需要人工智慧研究者的大規模監控,可以去開發並採用這樣的系統。擔心人工智慧武器競賽的國家有時間彼此協商約定,並設計強化機制。在緩慢起飛升空前就著手的大部分準備都將先行失效。因為更好的解決方式會隨著黎明期到來而逐漸浮現。
 
•快速:快速的起飛發生於較短的時間內,好比幾分鐘、幾小時或幾天內。人類並沒有足夠的機會打量快速起飛的情境,甚至沒有任何人在敗陣之前就察覺到有什麼不對勁。在快速起飛的情境中,人類的命運基本上取決於事發之前的部署。在速起飛範圍內的最緩慢情況中,人類或許還可以做些最簡單的行動,有點像輕輕打開「核按鈕手提箱」一樣;但這類舉動都得是最基礎,或者是事先預設並計劃好的。
 
•穩健:一個穩健的起飛發生在幾個月或幾年之內。穩健的起飛情境讓人類有些機會反應,但沒什麼時間好好分析情況、測試不同方法或解決複雜的協調問題;也沒有足夠的時間來發展或採用全新系統(例如政治系統、監視制度或電腦網路安全協議),但現存的系統可用於新挑戰。
 
在緩慢起飛的過程中,會有充足的時間讓消息流出。相對來說,在穩健的起飛情境中,發展成果在揭露之前有可能會事先保密。可能只有一小群知情者擁有相關知識,就像隱密的國家軍事計劃一樣。商業計劃、小型學術團體以及「地窖九駭客」的全套裝備,可能也是祕密的—然而,如果智慧爆炸的前景在國家智慧局處的「雷達」上是國家安全的最優先問題,那麼最有希望達標的私人計劃,便可能會受到監控。母國(或處於支配地位的外國力量)可以選擇將這私人計劃國家化,或是關閉任何有正要起飛跡象的計劃。由於快速起飛發生得太快,沒有太多時間讓人把話說出口,或是做出有意義的反應。一個局外人如果相信有一特定計劃將要成功,就有可能在起飛開始之前便出面干涉。
 
穩健的起飛情境會造成地理政治學、社會及經濟的波動;同時個人和團體會各為己利,在逐漸揭露的轉變中,立即卡上有利的位置。這樣的巨變發生時,世人可能來不及策劃縝密的回應,導致解決問題的手段可能比冷靜狀態時更加激進。舉例來說,在穩健的起飛狀況裡,便宜可行的仿真或其他數位心智逐漸滲入勞動市場多年後,可以想像會有資遣工人的大規模抗議,迫使政府增加失業福利,或設立最低工資保障、徵收特殊稅,或向使用仿真勞工的雇主強徵最低工資。為了讓這種政策中使用的緩和手段不只是曇花一現,這些政策得要固實於永久的權力架構中。如果起飛速度緩慢,類似的問題也會出現,但穩健情況下的失調與快速改變可能會為小團體帶來特殊機會,讓它們的影響不成比例放大。
 
對於某些讀者而言,就這三種情境看來,緩慢起飛最有可能,穩健起飛比較不可能,快速起飛則完全不可能。要假設整個世界會急遽轉變,人類在一兩個小時內就被逐出萬物之靈的寶座,想像力似乎過於豐富。人類歷史上從來沒有發生過這種瞬間轉變。最接近的情況—農業和工業革命—也是在更長的時間尺度中逐步展開的(前者花了幾世紀到一千年,後者花了幾十到一百年)。根據這個假設,這種由快速或穩健的起飛情境所造成的轉變,機率幾乎等於零:除了神話和宗教以外,沒有先例。
 
儘管如此,本章將提出緩慢轉變不可能發生的理由。一旦起飛發生,爆發性起飛的可能性較大。
 
既然要開始分析起飛有多快的問題,我們可以把一個系統的智慧增加速度設想成有兩個變量的函數。一個變量是「最佳化能力」,或稱品質權重的設計能力,應用在增加系統的智慧;另一個變量則是當運用一定量的最佳化能力時,系統做出的回應。我們可以把逆向的回應稱作「反抗力」(recalcitrance),並寫下:
 
智慧變化率=最佳化能力/反抗力
 
相較將智慧、設計工作和反抗力量化的具體要求,這只是個質化的表達方法,但我們至少可以觀察到,若要急遽增加一個系統的智慧,要麼(一)運用大量高超技術來增加智慧,且系統的智慧不難增加;要麼(二)利用非凡的設計來增加智慧,且系統的反抗性很低—或是(一)、(二)皆達成。如果我們知道有多少設計工作投入系統的增進,以及這些工作的進步率有多高,我們就可以計算系統的反抗力。
 
更進一步來看,我們可以觀察投入系統用來改善系統表現的最佳化能力,在不同系統中的數量差異,以及隨時間產生的數量變化。一個系統的反抗力也可能和系統已最佳化了多少之比例極度相關。通常最簡單的改進會最先完成,等到最好摘的果子摘完了,就會出現報酬遞減,此時反抗就會增加。不過,也可能出現讓下一步更易前進的進展,進而導致整體進展大幅增加。拼圖的過程都是從簡單的開始—找到邊邊角角的拼圖片總是比較容易,但接下來中間的部分就會比較難拼,反抗就是這樣增加的。而當拼圖快要完成的時候,過程又會再次變得簡單。
 

反抗

先從反抗開始。這裡的觀點取決於我們設想的系統類型。為了完整性,我們首先快速看一下,邁向與先進機器智慧無關的超智慧時,可能會遇到的反抗。我們會發現,這一途徑上的反抗似乎相當高。接著我們再回到主要問題,也就是涉及機器智慧起飛的問題,我們將會發現在關鍵時刻,機器智慧遇到的反抗似乎很小。
 

非機器智慧途徑

透過增進公共衛生和飲食達到的認知強化,其報酬遞減十分急遽。消除嚴重的營養缺乏問題便可以產生大幅的長進。然而,最嚴重的匱乏問題都已在最貧困國家以外的地方大幅消除了。當飲食已經足夠,還能增長的就只剩下腰圍了。教育也一樣,目前可能已經面臨報酬遞減,「有天分卻無法獲得有品質的教育」依舊顯著,但持續減少中。
 
藥理上的強化劑或許會在未來幾十年中帶來一些認知增強,但解決了最簡單的問題(也許是精神力和專注力的持續增加,以及鞏固長期記憶的更佳控制)之後,接下來也會愈來愈難有所增長。但和飲食及公衛途徑不同的是,透過聰明藥物進行的認知強化,可能會在變得更加困難之前又變得簡單。神經藥理學領域依然缺乏適當干涉健康腦部運作所需的大部分基本知識,強化藥物做為一種合法研究領域的可能之所以被忽略,有一部分該歸咎於當前的不進反退。如果神經科學和藥理學能再持續進展一陣子,也許當健腦藥最後成為一項重要選擇時,就會有一些相對簡單的增益。
 
遺傳認知強化的反抗呈U字形,與健腦藥的情況類似,但具有更大的潛在增益能力。反抗一開始之所以很高,是因為唯一可用的方法是一代代的人擇繁殖,而這顯然難以在全球規模實現。等到便宜有效的遺傳檢測與人擇技術開發完成(特別是人類胚胎的重複選擇可行後),遺傳強化就會變得簡單。這些新技術能讓我們從現有的人類基因變異中,選出智慧強化的等位基因。不過,當最棒的等位基因混入了遺傳強化的套組後,就很難再有下一步的進展。接下來,對基因調整方法上的革新需求,可能會增加反抗。在遺傳強化途徑上,事情要進展得多快是有限制的,最明顯的就是種系干涉受限於不可避免的成熟遲滯,這大幅抵消了快速或穩健起飛的可能性。另一個限制因素在於,胚胎選擇只能應用於體外人工受精的脈絡內,這將減緩採收的速度。
 
腦機介面途徑的反抗,似乎打從一開始就非常高。要是用某種方式把「將植入物插入大腦,並與皮層完成高水準的功能整合」變得簡單(雖然不太可能發生),反抗就有可能驟降。長期來說,沿著這條途徑開展下去所遇的困難,會和提升全腦仿真或是提升人工智慧所遇到的困難類似,因為人腦-電腦系統智慧的主體,最終還是會定居在電腦這一邊。
 
打造整體更有效率的網路和組織會遭遇很高的反抗。投入大量心血克服反抗,只會讓人類的整體生產力每年進展不多過幾個百分比。更進一步來說,內外在環境的轉變,代表組織就算一度很有效率,沒多久也會對新環境水土不服。因此,就算只是為了避免退化,持續不間斷的改良工夫仍有其必要。組織平均效能增加率出現階段性的變化是可以想像的,但因為人類運作的組織之工作效率會受限於人類的時間尺度,所以就算是這類變化中最急遽的狀況,也很難看出要怎樣產生比緩慢起飛還快的過程。網際網路具有許多能強化群體智慧的機會,持續成為令人振奮的先鋒。它面對的反抗,此時看起來處於穩健範圍,投入的眾多心力正要讓進展發生。然而,許多成熟的果實(比如搜尋引擎或電子郵件)摘完之後,反抗增加是可預期的。
 

書 名|超智慧:AI風險的最佳解答
作 者|尼克.伯斯特隆姆(Nick Bostrom)
出版社|感電出版
出版日期|2023年7月
 
人工智慧狂潮再起——軟、硬體、相關零組件產業迅速改變世界,
為何上千名科技巨擘、AI專家反而連署警告?
為何AI毀滅人類的風險,等同核武戰爭與傳染病?
為何AI帶來的改變有多積極,它的負面影響就令人感到多絕望?

 
本書以一篇「未完的麻雀寓言」開場,講述一群麻雀企圖馴服貓頭鷹為己所用,但最終沒能解決最重要的難題:如何控制牠?這篇如同啟示錄的寓言,在在提醒人類與人工智慧的關係,我們發現,人工智慧和人類價值之間的連結相當鬆散,AI專家與菁英學者、企業家們,尚未解決最重要的「控制難題」。重點不是人工智慧將扮演什麼角色,而是我們「設計」它為人類社會扮演什麼角色?