開票日倒數 倒數
0
23
11
50

前往選舉專區

【專訪】台大教授劉靜怡:AI法官OK嗎?人工智慧將如何改寫法律上的權利義務關係?

【專訪】台大教授劉靜怡:AI法官OK嗎?人工智慧將如何改寫法律上的權利義務關係?
繪圖:Yent

我們想讓你知道的是

有沒有可能,有一天AI可以開罰單、預測判決,甚至出現AI法官?當人工智慧代替人類執行國家公權力時,又會如何改寫法律上的權利義務關係?為什麼法律界希望借助AI作為量刑依據呢?

作者:人文.島嶼(採訪撰文:林希庭|編輯:黃詩茹)

過去,我們對人工智慧(Artificial Intelligence,簡稱AI)的理解,往往來自科幻小說和電影。然而,複雜而迷人的AI並非遙不可及的未來,其實我們早已身處其中。例如,聊天機器人取代真人客服、工廠用AI挑出瑕疵品提升生產良率、銀行推出智能投資和理財機器人、達文西機器手臂的微創技術顛覆傳統外科手術。

看似潛力無窮的AI,也正一步步踏入法律領域。有沒有可能,有一天AI可以開罰單、預測判決,甚至出現AI法官?當人工智慧代替人類執行國家公權力時,又會如何改寫法律上的權利義務關係呢?

從量刑預測到AI法官,人工智慧是法律人的好幫手?

綜觀人工智慧涉及的法律議題,「量刑」是國內外都積極嘗試的項目。例如台灣有學術團隊研發「AI人工智慧協助家事判決預測系統」,預測父母離婚後,子女的親權會判給誰;美國法院運用COMPAS系統推估被告再犯率;愛沙尼亞計劃開發處理小型訴訟案件的AI法官。

這些系統有的已付諸實務,有的還在研發階段,為什麼法律界希望借助AI作為量刑依據呢?除了為人類分憂解勞、消化積存已久的案件,台灣大學國家發展研究所教授劉靜怡說:「真正的原因,是我們不希望個別法官的判斷有太大的差異,我們希望類似的案件能做類似的處理,這也是法律所追求的公平之一。」

迎接AI來襲,各國政府紛紛端出策略報告,法律人也積極投入人工智慧的法律議題研究,劉靜怡直言還有一段長路要走。不過眼下AI確實能有貢獻之處,「法律裡有很多決定是比較常規化、規律性高,例如你超速被拍下來,超速多少罰多少,這些交通事務絕對比親權判決、繼承或刑事量刑更常規化,這樣的工作就很適合由AI來做」。

但問題又來了,當監視器拍到違規停車,它可以直接開發單嗎?答案是不行。劉靜怡說:「因為法律不容許這麼做,警察開罰單是代表國家行使公權力。如果要讓監視器開發單,接下來的問題是你要在法律上提供它授權基礎。」

AI判決預測系統是如何煉成的?

科技的準確度很高,可以聽它的就好嗎?人類會不會被人工智慧取代?在回答這些問題前,劉靜怡認為要先了解人工智慧的技術是如何生成?

如果要打造AI判決預測系統,必須先蒐集並分類大量的判決、找出關鍵字、準確的編碼(coding),將巨量資料(big data)轉化為可用的資訊,再讓機器學習(machine learning)並做出預測,最後提供法律人做出決定。看似程序化的流程,其實步步都是挑戰。

劉靜怡說:「如果法官必須仰賴AI作判決,『數據品質』就非常重要,你到底選了哪些判決讓機器學習?」判決品質有好有壞,同樣的法律規定,有些人判得重,有些人判得輕,個案情況又有所不同。在「餵」給機器之前,編碼就是一項費時耗力的大工程。

shutterstock_565664341
Photo Credit: Shutterstock / 達志影像

說到這裡,劉靜怡問:「判決中常出現『非不得為』、『不得不』的文字,這樣的意思到底是可以,還是不可以?」

編碼牽涉到文字系統的複雜度和法律文字的特殊性,「無論再怎麼白話,法律還是有專門的表述方式,以及法官如何在判決中,用文字把法律概念鑲嵌到事實裡的問題,所以編碼本身就很困難」。

編碼的品質決定資料的品質,但要下多少標籤,才能將判決轉換成有用的資料?如果設計系統、進行編碼的人都不理解判決的意義,如何正確地訓練系統?劉靜怡說,編碼並不是機械式的貼標籤,而是必須把判決讀懂、做出正確的分析和摘要,才能精準註記。

「背後龐大的人力資源是你難以想像,如果做得好就會是好的系統,但談何容易?坦白說,要讓AI變成非常精確的裁判替代者,還有很長的路要走,而且可能是相當困難的。」劉靜怡說。

當機器出錯時,人類怎麼接招?

AI判決預測系統的出現,雖然有助於減少人為偏見,卻也引來黑箱、不透明的質疑。劉靜怡提到,已有實證研究指出,在某些國家,有色人種、在某些地區出生,或擁有某些家庭和教育背景的人,在刑事案件中會被判較重的刑度或較長的刑期。「AI學習這些資料時,可能會把過去判決中對於有色人種、少數性別或弱勢族群的偏見複製進去。」

除了在編碼的過程中,將個別法官的價值觀或社會的刻板印象灌輸給機器外,偏見也可能來自法律界內部的因襲。

「預測系統是告訴你,如果有什麼狀況,法官通常會怎麼判。所謂『通常會怎麼判』,除了法律規範,很多時候是如果不這樣判,案子可能被撤銷發回,所以法官也會自我制約而選擇那樣判,這是內生的」。

所以人工智慧究竟有沒有可能取代法律人扮演的「推論衡量」的角色?劉靜怡認為,AI量刑系統或判決軟體無法代替人類找到一個完美、唯一或毫無偏見的判決。

「它只是告訴你,過去遇到這樣的狀況會得到什麼樣的結果。但不會告訴你要如何克服過去的偏見和判決本身可能的錯誤。它畢竟是從經驗創造出來的東西,因為這些資料就是人類社會如何解決各種紛爭的經驗」。

1
繪圖:Yent
學習自人類經驗的人工智慧,是否可能取代法律人扮演的「推論衡量」的角色?

人類面對AI始終有股複雜的心情,有的人樂見AI起飛,認為政府應該收起管制的手以鼓勵創新;有的人恐懼AI失控,要求政府預先立法管制人工智慧的發展方向。劉靜怡則說:「我對科技的發展是一半樂觀,一半悲觀。」

但她認為除了選邊站,我們更應該問:在機器犯錯時,可以怎麼處理?「有時候機器犯錯我們會發現,因為太不對勁了;有時候我們根本不知道它做錯了,所以問題在於怎麼稽核和除錯」。