文章專區

2025-06-01人類監管AI,還是主導法律? 談AI執法與法治的距離 666 期

Author 作者 陳弘儒 | 中央研究院歐美研究所,法理學研究者。

Take Home Message
• 不同於AI,人類在做決策及下判斷時,往往會有矛盾性,而矛盾性通常也代表了人們思索自身與周圍關係的過程。在法律中,矛盾性更是促使人們不斷重構框架與原則的契機。
• 利用AI 執法的目的在於提高效率,嚴加落實法制規範,但高效執法未必能提升人民對於法律的尊重,反而可能導致人們僅以「避免裁罰」為主要的行動準則。
• 在人機互動的設想上,AI 執法系統的設計應採取以人類決策為主體的「機器參與循環」,將AI 科技視為輔助工具,並重新思考應用科技是為了解決什麼問題,以及背後的法治價值所在。

隨著生成式人工智慧(generative artificial intelligence, GAI)的應用愈來愈普遍, 人工智慧(artificial intelligence, AI)不再只是實驗室的研究對象,它更可以與普羅大眾的生活交織在一起。而這個交織也展現在國家將AI 鑲嵌在「執法機制」(law enforcement)之中。例如用AI 來分析犯罪熱點、臉部辨識、鎖定嫌疑人的行蹤,或者協助法官針對特定犯罪行為給予量刑建議、預測被告再犯率、篩選可疑入境者、辨識欠稅車輛、執行區間測速、製作罰單等。


AI 執法,下決定的是機器?判斷權限轉移的問題

運用AI 來執法讓我們面對到許多新的爭議。有些爭議也會出現在其他AI 的應用之中,例如演算法的透明性(transparency)、公平性(fairness)、系統安全(AI safety)以及AI 的濫用(abuse)等問題。可是除此之外,運用AI 來達成高效率的執法所產生的課題還有一種特殊性:AI 的執法機制不僅涉及到技術與工程設計,也涉及法治價值的基本課題。這樣的問題在過往並未特別凸顯,因為人的判斷總在法律機制的運作中占有一席之地。但隨著AI 技術的發展愈來愈成熟,我們可以發現「人的判斷空間」似乎變小了,或者在某些情況下被取代了,判斷權限也從人手上逐漸移轉到人造系統的運作之中。

AI 執法的運用乍看之下提升了效率(efficiency),以及加強法律的落實(efficacy),依法行政好像即將實現。然而,在銜接規範性要求與具體實踐行動之間,有很多的細節仍需要我們仔細思考與反省。例如當AI 自己在「判斷」(或是分類)一個人的行為是否牴觸法律時,這個判斷或分類的性質,以及背後運作原理到底是什麼?當國家告訴它的人民,某種AI 執法系統是24 小時在做「違法與合法」的判斷時,這個國家是如何設想它的人民?當國家允許某種全自動的AI 執法系統運作時,是否真有辦法維繫著社群成員對於法律價值的信任?

這些問題之所以具有獨特性,不僅是因為涉及到AI 的技術性課題(例如系統最佳化如何執行?演算法如何設計?)它們的獨特性更出現在法律層面。


高效AI 執法,會讓人更尊重法律嗎?

執法機制是彰顯法律強制力的重要方式,也是驅動人民遵守法律的重要原因,但執法機制不是促使人民尊重法律的首要原因。一個良好的法律體系來自人民對於法治價值的尊重與信念,這些法治價值包含了民主正當性、公平程序、對於恣意權力行使的約束、正當的審判制度或紛爭解決,以及正義與平等價值的實現等,AI 的執法系統所引發的問題不是單純技術層面就能解決。例如即使我們認為法律語言可以被轉化成程式語言,也仍然無法避免此類人造系統的民主可課責性(accountability)問題〔註1〕,因為立法者是透過法律,而不是透過一套程式語言來執行法律。執法系統的建置一旦忽視了這個層面,民主的可課責性可能就會被系統設計的「後設專家」所取代,也就是由開發者的領域知識與標準來決定法律的內容,與法律可涵蓋的範圍。

因此,在思考AI 執法機制時,不能將技術解決主義〔註2〕視為理所當然的出發點,認為所有涉及到系統設計、運作與應用的問題都可以透過適當工程方式來解決。我們需要的是,找出在系統設計、運作與應用上和規範性價值高度相關的交會點,並探討這裡面可能具有的擔憂之處。這篇文章便希望帶領讀者一起思考,當AI 走入執法現場,它到底帶來了什麼樣的希望與危機?我們又該如何面對?

〔註1〕可課責性不是意味著公部門及政府單位有能力提出說明(give an account),而是指公權力有責任對於人民所提出的事項進行說明與闡述。

〔註2〕問題根源及其他制度面、社會面改革的重要性。戰,認為技術的進步與應用能解決問題,而忽略將社會問題視為可靠科技發展與工具解決的挑


高效AI 執法帶來的問題

當國家大量布建AI 來偵測違法行為時,我們看似提升了法律落實的程度,個人自由似乎被保障了。但如果國家透過AI 高效率執法機制的建置,讓人們優先將「行為是否受到制裁」作為是否遵守法律的主要理由,其實並不是一個鼓勵發展個人自由的法律體系,而是一個「作用在」個人行動上面的制裁體系。這樣的制裁機制鼓勵社會成員將「避免受到制裁」放在理據判斷的優先位置,也就是說算計(calculation)將會取代判斷(judgment)。

舉例來說,一旦國家普遍運用AI 偵測違法行為,就是希望讓AI 執法系統24 小時偵測與運作,形成100% 的執法效果,然而背後卻是要求人們放棄自身的判斷,時時以「不受到處罰」作為檢視自身行為的標準,並且將「100% 執法」視為刺激,「符合法律的行為」當作是反應。這不就是類似於訓練動物或是機器學習式的獎賞機制嗎?回想一下,你在路口看到多少「科技執法」的告示牌,多少次因發現自己可能違規,而擔心起科技執法的結果?

比起算計,更重要的是如何進行判斷。雖然人類做判斷的機制仍需要進一步研究,但是大致上做判斷時,人們會對事件脈絡高度敏感、具有反身性和矛盾性,也對他人目光敏感。可以說做判斷就是一種道德敏感性的能力訓練,我們敏感於各種道德原因, 企圖在彼此拉扯、衝突甚或矛盾(但各自成理)的道德理據中做出決定與評價。

那麼人類下判斷的特色是什麼?當我們做判斷的時候──特別是涉及重要行為決定的判斷── 往往會有一種矛盾性。這種矛盾心理一開始呈現出對於要做某個行動的猶豫,似乎做與不做都是可以的。但是,我們下不了決定。


AI 沒有的人類特徵:矛盾性

矛盾性一般被認為是不好的,因為它會延遲我們做決策的時間,更讓行動者在行動過程中猶豫不決,因此影響到行動落實的程度。然而,已故的哲學家羅蒂(Amélie Rorty)告訴我們,並非所有矛盾性都對於實踐行動有不好的影響。有一種矛盾性對於實踐行動很有幫助,羅蒂稱為「建構性矛盾」(constructively ambivalent)。當某人可以運用想像能力找到做與不做的「方式」,並且將做與不做的理由安置在一個更大的價值框架中進行思量,那麼此種矛盾性對於實踐行動具有相當幫助。

因此矛盾性不是一件「應該要被消除的事情」,因為適當的處理與面對它有助於多元社會中的成員彼此協調合作。而且矛盾性雖然乍看之下是對於「個人的」行動選項(做與不做)的拉扯,但是矛盾性很可能源自於「我們在意他人如何看待我們自身的判斷」。……【更多內容請閱讀科學月刊第666期】