- 科技報導
- 科技人文
文章專區
2025-12-15以AI輔助探索大學課堂的公共倫理審議
528 期
Author 作者
甘偵蓉/東海大學哲學系助理教授
公共審議(public deliberation)是當代民主制度中重要的政策制定方式,意旨當代民主制度在制定政策時,相關政策的制定如果不只要求合法且應該具有正當性時,制定的過程當中就應該納入相關利害關係人或公眾的聲音來參與討論。但公共審議的目的,其實不限於政策制定,也可以只是為了促進多元觀點的認識,以提升相互理解或至少降低誤解。
但大學的課室學習,主要是知識的傳遞與獲取,主軸似乎是教師講授,為何會需要公共審議?為了制定政策當然不會是目標,難道是為了促進多元觀點的認識與提升相互理解?如果是,多元觀點的學習為何不是來自閱讀文本以及教師的知識傳授,而是期待同學們去認識與理解同儕的想法?
大學的AI倫理課為何需要公共審議?
這跟知識的主題涉及「AI」與「倫理」有關。
當代AI發展不論在技術還是在應用上都實在太快了,往往彼此在對談或溝通時,光是釐清彼此所談論的是特定AI產品,還是指特定的電腦系統、演算法設計、模型預測或生成結果、訓練資料集等,可能就得耗費一番功夫。換言之,AI只是個總稱,在討論時有可能隨著議題內容而指涉到特定的事物,像是指特定的產品,例如ChatGPT,或是指到不同功能的AI系統,例如生成式(generative AI)或區辨式AI(discriminative AI),還可能指AI生成或預測結果背後所使用的模型、演算法或訓練資料集等。
例如當談論AI可用來聊天或被學生用來複製貼上拿去交報告,學生通常會想到主要是以大型語言模型(large language model, LLM)所訓練出來的ChatGPT這個產品。但談論AI生成的圖畫或音樂在什麼情況下會侵害版權,可能想到的不只是ChatGPT,還有Leonardo AI或Suno等產品,而這些產品就不只是或根本不是以LLM所訓練。討論AI偏誤與公平性問題時,雖然也可能發生在生成式AI,但更多時候是指應用在金融、醫療、司法與社會福利領域通常採取深度學習的區辨式AI所預測的結果。而論及成因時,最常被討論的就是當初建立模型的訓練資料集隱含了種族、性別或階級等特徵不平衡的資料等。
由於AI發展過於快速,導致不只出現在談論時雞同鴨講,AI對於個人、社會、世界整體可能帶來的影響,別說中長期影響尚難預測,連短期影響也往往是相關系統產品在現實應用後才逐漸發現。尤其目前AI相關應用產品非常多,每個人的使用經驗未必相同。這種情況尤其在使用ChatGPT等這類LLM所開發的聊天機器人更是明顯,因為它們會根據使用者所提供的指示語相關上下文來回應,就算它們的回應風格普遍來說有過度迎合使用者之嫌,但使用者以什麼方式、基於什麼目的、對話什麼內容等,都可能讓人們的使用感受經驗有所不同。
再加上有關倫理的知識與討論通常涉及善惡對錯的價值判斷,且相關判斷會受到個人背景知識、所處文化氛圍以及當下時空環境影響。雖然不一定表示沒有客觀對錯或無社會共識,例如人們通常會同意不應該蓄意傷害他人或在自身能力允許下應該相互協助等,但在什麼情況下應該視為蓄意,或是協助到什麼程度等,因為涉及對於具體情境與行為的認定與價值判斷,很容易就會有爭議與歧見。
而在AI常見的倫理議題上,像是AI的發展如何確保人的自主性、避免偏誤與公平、保護隱私、運作過程透明與課責等,不只如前述因為涉及對於具體情境與行為的認定與價值判斷而容易有歧見,事實上也會出現人們所評價的東西是否相同的情況。例如若有人問「ChatGPT這類生成式AI聊天機器人是增加還是減損人們的自主性」,此時不但得釐清所問的自主性,是指針對課業學習、特定資訊探索、還是哪方面?可能也得釐清所問的自主性,是指在思考與統整上的自主性,還是指在批判反思或決策判斷上的自主性?
簡言之,「AI x 倫理」的快速變動、概念邊界模糊、涉及個人使用經驗、感受、價值偏好與判斷等,正是AI倫理知識與相關議題的特性。而這種特性,如果採取授課教師單向傳遞知識的講授方式,很容易就會漏掉來自學生的想法與感受。事實上除了少數學生有閱讀相關倫理理論且有能力依據理論來分析外,多數同學都是從個人直覺、使用經驗、網路與社群媒體的討論、個人宗教信仰等日常生活價值觀在思考AI倫理議題。這些觀點不論是學生同儕之間還是師生之間,如果有機會交流,不但有可能獲得與自己想法不同或未曾知道的觀點,還可能刺激個人思考過往未曾注意到可能有問題的AI設計方式或發展方向等。這就是AI倫理課為何需要公共審議的原因。
以下分享個人在一堂近千人修課的AI倫理課程中,嘗試導入AI公共審議工具的初步心得與觀察。
以Talk to the City輔助建構的數位審議廣場
一般認為如果要在課堂上實施公共審議,那麼就鼓勵同學多發言或規劃討論機制即可。但本文所分享的AI倫理課程,屬於臺灣大專院校人工智慧學程聯盟(Taiwan Artificial Intelligence College Alliance,簡稱TAICA)的主導課程〔註〕,課程進行方式應該在國內外都相當罕見。因為當初TAICA成立目的,是教育部前次長葉丙成為儘速讓全國大學校院學生都能掌握AI相關基本技術,以因應生成式AI加速帶起的AI人才缺口。但有鑒於各校在這方面的教學資源不均,於是委託清華大學資訊工程學系教授陳宜欣規劃由一校一教師在自己學校授課的同時,同步遠距開放給目前已在此聯盟中的55所學校學生,以列入正式學分的方式共時學習。評分方式由授課教師統一評分,或由各校協同教師依照授課教師的評分規定來評分。如此在達到全國教學資源共享的同時,又能盡力避免例如大規模開放式線上課程(massive open online course, MOOC)等這類公共線上課程註冊者眾多但完課率低的窘境。
〔註〕相關細節請參考 TAICA 網站:https://taicatw.net/。
TAICA目前總共開設「人工智慧探索應用」、「人工智慧工業應用」、「人工智慧自然語言技術」及「人工智慧視覺技術應用」等四類學分學程,AI倫理課是這四類學程唯一共同必修課程。因此上課人數眾多,113學年的下學期(2025年2~6月)這門課的修課人數就近千人。當中學生背景涵蓋文法工商與醫學等多元學科,多數修課學生雖主要為了學習AI基礎知識與相關技術而來,但也不乏純粹對於AI倫理議題有興趣而選修。
前述AI倫理的知識傳遞方式,在教師授課之外,極需要採取公共審議,但除了自己學校的學生是實體上課外,多數學生分散在全國各地,公共審議該如何進行?解決方案就是利用Talk to the City(以下簡稱T3C)開源軟體,建構一個跨越空間限制的數位審議廣場。T3C是由國際非營利研究實驗室AI Objectives Institute開發的公共審議工具,主要特點在於能將所蒐集的大量聲音或文字以LLM來分析與萃取出論點,並將各論點做成短摘要,每項摘要都能連結到參與審議者的原始論述,以盡可能減少LLM的幻覺(hallucination)問題,且能讓使用者檢驗所生成的短摘要是否符合原始論述,可提升LLM文本生成結果的透明度(圖一∼四)。這個軟體2023年曾被使用在我國數發部所舉辦的AI對齊大會、台灣人工智慧學校所舉辦的民主化審議工作坊、台灣同婚議題討論、2024國民黨與民進黨總統大選後政見分析、2024東京都知事選舉的意見分析等。

圖一:由 T3C 所產出的視覺化報告:第一階層是將原始論述區分成幾項主要議題,例如公平性、模型策略、系統性問題等。(Talk to the City)

圖二:由 T3C 所產出的視覺化報告:第二層則將各主要議題細分成幾個子議題,例如「公平性」這個主議題底下可細分為機會平等、結果平等、公平性定義等。(Talk to the City)

圖三:由 T3C 所產出的視覺化報告:第三層再將每項子議題的代表性論點列出,例如針對「機會平等」這個子議題,會將代表性的論點做綜整摘要,然後再列出有哪些代表論點,像是「EqualOpportunity 的策略強調不同群體間的真陽性率相等」(重複六次)、「應採用機會平等策略以確保正確預測再犯風險」(重複五次)等。(Talk to the City)

圖四:由 T3C 所產出的視覺化報告:第四層則是可點選每項代表性論點,以查看該論點摘自哪些原始論述中的關鍵文字。例如針對「Equal Opportunity 的策略強調不同群體間的真陽性率相等」這項論點,主要摘自「我認為應該要根據機會平等的策略對 COMPAS 進行調整」、「在各種公平性定義中,『機會平等』提供了一個合理的折衷方案」等共六項原始論述。(Talk to the City)
AI倫理課程借助T3C導入AI倫理議題的思辨過程,期待能深化學生對AI倫理複雜度的認識,而不是只停留於哪些A I 工具很好用等盲目接受的層次上。當學生藉由T3C的導入而看見與自己不同意見但也許很有說服力的觀點時,期待他們能意識到自身觀點的不足或應修正之處。
尤其學生面對來自同一教師所提供的知識或資訊,竟與他人的意見或想法有如此差異,根本原因未必是自己或他人未能深入思考,而是源於個人價值觀、生命經驗或所處環境與知識背景的差異。
如果學生會願意承認他人立場即使與自己相異,但也願意承認他人論述理由有一定的合理性,或許這樣就初步體現了當代知名正義理論學者羅爾斯(John Rawls)所提出的良序民主社會下的公民,因為生活環境、文化、道德、宗教等價值觀的差異,所以會願意承認「判斷的負擔」(burdens of judgment),接受他人與自己雖然價值判斷不同但也可能是合理的而願意相互尊重。這麼一來就符合公共審議的精神,是一種公民素養的培養。
Talk to the City使用的初步觀察
1. 工具設計預設與教育場景的落差
任何工具的設計都有它原始設想的使用目的與使用者,T3C也是。原本這項工具主要設想的是公共政策的諮詢與民意蒐集,所以在視覺化報告中傾向以標籤式或原子式的語詞來抓論點,並簡短摘要原始論述,以利政策決定單位快速掌握民眾意見大致涉及哪些面向。當這類工具被挪用到課室時作為教育使用時,這種抓論點與摘要方式可能不一定適合相關知識背景不足尚在學習中的學生,因為要理解他人立場很需要前後文的論述脈絡,尤其討論議題又是涉及資訊快速變動與概念邊界模糊的AI倫理議題。
2. 利用LLM分類與生成意見的限制
畢竟LLM不是傳統上社會科學質性分析的詞幹編碼、歸類與提取,前述雖然說T3C是透過LLM萃取大規模蒐集的意見論點,但精確來說LLM是將所輸入的語句轉換為它內部的語義表徵,並依據模型在訓練過程中學得的統計模式來生成最可能的文本,因此無法保證與原始論述完全一致,分類結果也不保證一定準確。甚至它在摘要原始論述時,有觀察到語義飄移或錯誤的現象,例如在同一論點下產生立場相反的代表性觀點。
此外,在原始論述中某個論點出現的頻率或數量多寡,並不必然決定它會被優先提取為報告論點的順序,甚至不一定被提取。實際上有哪些論點會被辨識與提取,主要取決於它們與模型既有的語義模式相符程度,因此免不了仍有文化及語義偏誤。尤其偏向敘事或故事表達,以及陳述時的主詞與情緒表達用語,例如我覺得、我認為...等,在抓取原子式標籤論點的過程中,不只會被改寫,甚至會直接忽略。過往在公共論述場合,如果人們的表達方式不屬於典型的冷靜、非主觀用詞、邏輯性的論理,便比較容易受到忽略與排除,那麼以LLM作為論點分析的中介工具,最終可能會系統性地大規模排除那些非典敘述。
AI輔助審議工具走入校園
目前利用LLM所開發的數位公共審議軟體、平臺或技術模型不少,例如由史丹佛大學(Stanford University)政治學者同時也是知名公共審議專家的費希金(James Fishkin)所帶領開發的史丹佛線上審議平臺,主要是輔助人類協調發言時間、平等機會發言與發言品質;Google DeepMind所開發的哈伯瑪斯機器(Habermas Machine),則是迭代生成群體陳述到集體最大接受程度;vTaiwan則使用過美國新創公司Polis開發的系統來分析意見的群集分布狀態與數量,而本文所介紹的Talk to the City則著重在大規模的意見內容分析與輔助報告生成。各種工具或技術所著重在審議的哪個環節或方式,皆不太一樣,技術複雜度、費用、開源與否也都不一。它們多數都被使用在公共政策決定上,很少被使用在學校當中,事實上本文上述分享在教育部推動的TAICA-AI 倫理課程中導入Talk to the City,也是該軟體全球第一次被使用在學校課程中,且是第一次這麼大規模同時有近千人上線使用。
幾個月前曾被邀請來臺分享史丹佛線上審議平臺在全世界已舉辦150多場數位公共審議成果的費希金,就曾指出如果要深化民主社會的審議能力與推動公民教育,其中一項策略就是在學校傳播與使用公共審議。若能如此,教育部所推動的TAICA-AI 倫理課程,期待能為即將邁入社會的莘莘學子播下公共審議的種子,讓他們透過這樣的AI輔助審議軟體能夠有機會體認到,那些攸關日常生活或科技等大小事務,在人們彼此之間存在合理的深刻歧見,本來就是民主社會的常態,而這正是審議與尋求共識的起點。
延伸閱讀
1. Rawls, J. (2020). Political liberalism. In The new social theory reader (pp. 123-128), Routledge.
2. Young, I. M. (2002). Inclusion and democracy, OUP Oxford.
3. Fishkin, J. S. (2025). Can Deliberation Cure the Ills of Democracy? Oxford University Press.