※ 本文為 MindOcean 轉寄自 ptt.cc 更新時間: 2020-09-22 22:08:26
看板 Gossiping
作者 標題 [新聞] AI 當法官,會是正義女神的化身嗎?專訪
時間 Tue Sep 22 02:46:37 2020
1.媒體來源:
natgeomedia
2.記者署名:
劉芝吟
3.完整新聞標題:
AI 當法官,會是正義女神的化身嗎?專訪李建良
4.完整新聞內文:
人工智慧變身法律小幫手
十幾年前,電腦會揀土豆已經夠驚奇,現在的 AI 更是大進擊,能辨識人臉、駕駛汽車,根
據 2019 年眾多媒體報導,歐洲愛沙尼亞甚至即將推行「AI 法官」!法律事務涉及事實認
定、法條解釋與價值規範等多重問題,人工智慧果真已如此高「智慧」,有能力涉入複雜的
法律領域?
據 2019 年眾多媒體報導,歐洲愛沙尼亞甚至即將推行「AI 法官」!法律事務涉及事實認
定、法條解釋與價值規範等多重問題,人工智慧果真已如此高「智慧」,有能力涉入複雜的
法律領域?
https://i.imgur.com/5IMIg2e.jpg
前兩波人工智慧(AI)希望電腦能像人一樣思考,但皆失敗。2010 年至今的 AI 熱潮由「
機器學習」領銜,簡單來說就是我們提供大量資料,讓電腦自己找出事件之間的關聯規則,
學會判斷,在許多領域都已比人類預測得更精準。 資料來源│〈人工智慧在臺灣〉演講,
陳昇瑋中研院李建良特聘研究員說:「將 AI 應用到法律訴訟其實並非未來式,而是行之有年的現
在式。」
在美國,近年法院已廣泛運用「COMPAS」系統,這是一套由商業公司開發的 AI ,幫助法官
評估被告的再犯風險,作為量刑的準據。COMPAS 會進行大量問答調查,依據被告回答、年
齡、過往犯罪紀錄與類型等各項資料,推估被告的再犯率,給出 1-10 的危險指數,最後
由法官決定被告服刑的長短。
評估被告的再犯風險,作為量刑的準據。COMPAS 會進行大量問答調查,依據被告回答、年
齡、過往犯罪紀錄與類型等各項資料,推估被告的再犯率,給出 1-10 的危險指數,最後
由法官決定被告服刑的長短。
有研究指出,AI 判定為高風險者,63% 在交保期間犯罪,其中 5% 犯下性侵或謀殺。做
為法官小幫手,AI 似乎確實能發揮一定程度的「鷹眼」,預測危險性。
https://i.imgur.com/PL875Cm.png
國內也逐步嘗試將 AI 運用在量刑與家事判決預測。司法院建立的「量刑趨勢建議系統」,
以自然語言分析判決書,提供類似案件的量刑參考。清華大學研究團隊則開發出「AI 人工
智慧協助家事判決預測系統」,讓 AI 從判例「學會」法官的判決模式,預測撫養權花落誰
家。 圖片來源│ 取自量刑趨勢建議系統網頁
法官不是人?!別急,再等等
從現況來看,人工智慧確實已進入國家司法系統,但目前仍作為「專家團隊」扮演輔助角色
,由法官做裁決。那麼下一步, AI 有可能獨當一面坐上審判席嗎?
愛沙尼亞的 AI 法官計畫,似乎就朝著這個方向前進。
根據報導,AI 法官將處理小額民事訴訟案件(少於 7000 歐元,臺幣約 24 萬),由原告
方輸入訴訟對象、金額、提告理由等。AI 系統能從過往大量判例學習,解析法條做出判決
。換句話說,隔壁鄰居摔壞你的 iPhone,你一狀告到法院,會由 AI 判定誰勝訴,鄰居該
賠你一臺手機或折價金額。對結果不服?可以上訴,將有人類法官審理。這項超級計畫如果
成真,「法官不是人」恐怕就要從罵人話變為描述句了!
方輸入訴訟對象、金額、提告理由等。AI 系統能從過往大量判例學習,解析法條做出判決
。換句話說,隔壁鄰居摔壞你的 iPhone,你一狀告到法院,會由 AI 判定誰勝訴,鄰居該
賠你一臺手機或折價金額。對結果不服?可以上訴,將有人類法官審理。這項超級計畫如果
成真,「法官不是人」恐怕就要從罵人話變為描述句了!
不過,李建良特別澄清:「媒體報導後,我們研究團隊成員曾請教愛沙尼亞法界人士,目前
所知這是數位政府計畫的一部分,但應該還只停在『計畫』階段。」
他強調,若要把國家審判權完全交給 AI ,必定需要法源基礎,明確建立一套法規方案。由
於目前愛沙尼亞並沒有出現相關法規,這個突破仍是「只聞樓梯響」。
AI 法官的技術邊界:它能做出好判決嗎?
儘管 AI 尚未披上法官袍,但愛沙尼亞構想彷彿是驚天一雷,預示出可能的未來圖像。許多
人或許有同樣的好奇:AI 當法官究竟行不行?
李建良分成不同層次來討論:
"行不行有兩層涵義:能力上行不行,規範上可不可以。"
第一層次是「可能性」問題:AI 法官足以擔任人類法官的角色嗎?更直白地問:AI 真有那
麼厲害,能夠做出好判決?
要確認 AI 的能力,首先我們得問:什麼是好判決?
「這牽涉社會對法院判決的評斷標準。」李建良分析,一種標準是檢視「判決結果」;另一
種則是審視「判決理由」,法官在判決書詳述的心證,如調查結果、採信哪些證據、證據效
力、法條依據等。
種則是審視「判決理由」,法官在判決書詳述的心證,如調查結果、採信哪些證據、證據效
力、法條依據等。
若觀察近年臺灣社會的現象,大眾似乎較關注判決結果。好比引發社會矚目的「臺鐵殺警案
」,這樁尚未確定的爭議案件,引發了司法當局對司法鑑定制度的重視與檢討,而輿論譁然
多半是殺人無罪的結論,批評法官「不接地氣」,關於心證過程的討論相對較少些。
」,這樁尚未確定的爭議案件,引發了司法當局對司法鑑定制度的重視與檢討,而輿論譁然
多半是殺人無罪的結論,批評法官「不接地氣」,關於心證過程的討論相對較少些。
換言之,假如重視結果,那不難想像 AI 法官有能力透過歸納、類比分析對案件做出判決。
但若我們在乎法官為什麼、如何做出裁決,依照目前技術和愛沙尼亞計畫,AI 所產出的可
能只有答案,但沒有理由(或較簡式的理由)。
但若我們在乎法官為什麼、如何做出裁決,依照目前技術和愛沙尼亞計畫,AI 所產出的可
能只有答案,但沒有理由(或較簡式的理由)。
這形成了第一重挑戰:
"若 AI 法官無法清楚說明理由,我們如何檢視它的判決好不好?有沒有瑕疵?"
有些人也質疑,AI 的精準、一致可能反倒是弱點。現行 AI 不具有真正理解他人的能力,
無法實際參與答辯交鋒和開庭審理,而許多訊息來自臨場、個別案例的判讀,並非用數據化
與資料化就足夠解釋,背後涉及文化、風俗、情境常識,相當複雜。
無法實際參與答辯交鋒和開庭審理,而許多訊息來自臨場、個別案例的判讀,並非用數據化
與資料化就足夠解釋,背後涉及文化、風俗、情境常識,相當複雜。
https://i.imgur.com/ml6ADKW.jpg
目前的人工智慧仍屬於「弱 AI」,沒有意識、思考能力,只是透過巨量資料與機器學習歸
納出已知和未知之間的關聯。哲學家 John Searle 曾用「中文房」譬喻提出挑戰:如果 AI
並不了解真正意涵,就算它能和人一樣做出正確回應,似乎也不代表它就有獨立的心靈意
識。圖說設計│ 劉芝吟、林洵安
不過,AI 派並沒有全輸!
首先,技術可能超前突破,讓 AI 未來也有能力寫判決書、說明論證。另外若拿現行制度相
比,美國陪審制同樣只宣告:「陪審團認為無罪」,不會附上理由。更何況所謂的情境判斷
,經常也會造成主觀性偏誤,《美國國家科學院院刊》(PNAS)研究發現,接近午餐時間法
官對假釋認定較嚴格,用餐休息後,假釋審查就變寬鬆了!
比,美國陪審制同樣只宣告:「陪審團認為無罪」,不會附上理由。更何況所謂的情境判斷
,經常也會造成主觀性偏誤,《美國國家科學院院刊》(PNAS)研究發現,接近午餐時間法
官對假釋認定較嚴格,用餐休息後,假釋審查就變寬鬆了!
想要假釋,還得祈禱法官吃飽飽?恐怕多數人難以接受。
鐵面無私包青天? 小心 AI 的內建歧視
總地來說,理性、客觀幾乎是 AI 的最大光環,以準確一致的邏輯做判斷,不受法官個人情
緒與好惡影響。
但真是這樣嗎?許多研究證實:AI 默默戴上了有色眼鏡! COMPAS 系統被抨擊帶有種族歧
視,有色人種更容易被預測為高再犯率;亞馬遜招聘、蘋果信用卡信貸系統都曾被發現隱含
性別差別待遇。
視,有色人種更容易被預測為高再犯率;亞馬遜招聘、蘋果信用卡信貸系統都曾被發現隱含
性別差別待遇。
「這就如同人類一路走來看到的歷史不平等。」Amazon 資訊科學家說。
AI 系統在資料學習的過程,複製了人類長年累積的性別、種族、階級偏見。即便這些偏見
已長久存在,但 AI 可能更強化不平等,因為人們會在毫無所覺下,信任科技工具的「客觀
」訊息,對陌生人打分數。
已長久存在,但 AI 可能更強化不平等,因為人們會在毫無所覺下,信任科技工具的「客觀
」訊息,對陌生人打分數。
然而,科技支持派沒有全盤放棄。AI 歧視是學來的,因應之策是在資料訓練時降低這些「
標籤」,並且提供多樣性的資料。此外,比起人類刻意包裝、掩飾偏見,AI 反而有機會讓
偏誤被「顯題化」,讓我們更加警覺,並進行修正。
標籤」,並且提供多樣性的資料。此外,比起人類刻意包裝、掩飾偏見,AI 反而有機會讓
偏誤被「顯題化」,讓我們更加警覺,並進行修正。
綜合而論,若單從技術可能性評估,目前的 AI 也許不夠「聰明」,但是只要科技持續追求
突破、進展,似乎沒有理由全盤否定 AI 法官可行性。畢竟,人類同樣也會犯錯、誤判、有
偏見。
突破、進展,似乎沒有理由全盤否定 AI 法官可行性。畢竟,人類同樣也會犯錯、誤判、有
偏見。
「從能力來看,AI 確實可以幫助人類、補位弱點,很值得期待未來發展。」李建良持平分
析:「但國家是否應該開放制度,更重要的仍在第二層次的考量。」
AI 法官需要明確法源基礎
他點出更關鍵的第二層議題:從規範角度來看,讓 AI 當法官可不可以?
簡單來說,即使人工智慧有能力獨立分析、判決,我們應該把審判大權交給 AI 嗎 ?是否
可能衍生倫理問題?
「第一個遇到的是:需不需要修憲?這是多數人忽略的框架。」專研憲法、行政法的李建良
特別指出。法官的身分保障及審判獨立的要求是直接寫在憲法上頭的,但憲法規定的法官是
不是專指「人」呢?法學界可能有不同論述。
特別指出。法官的身分保障及審判獨立的要求是直接寫在憲法上頭的,但憲法規定的法官是
不是專指「人」呢?法學界可能有不同論述。
如果憲法說的法官專指「人」,也就是法官審判權奠基在人的前提,勢必需要修憲。反之,
就算憲法允許「非人」擔任法官,仍然需要修法 ── 如同剛拍板的《國民法官法》,國家
同樣必須建立一套法制來規範非人法官。例如,適用民事或刑事案件?能上訴嗎?上訴後交
給另一位 AI 法官(AI 會有不同法官嗎?),或者由人類法官打掉重來?
就算憲法允許「非人」擔任法官,仍然需要修法 ── 如同剛拍板的《國民法官法》,國家
同樣必須建立一套法制來規範非人法官。例如,適用民事或刑事案件?能上訴嗎?上訴後交
給另一位 AI 法官(AI 會有不同法官嗎?),或者由人類法官打掉重來?
價值選擇的難題:科技優勢 VS 法律原則
法源基礎僅是第一步,對整個社會而言,AI 法官挑戰的是價值選擇的難題。
2013 年,美國威斯康辛州法院參酌 COMPAS 風險指標,判處被告 Eric Loomis 6六年徒刑
。Loomis 不服而上訴最高法院,認為法庭以 AI 系統裁決是一種「祕密審判」!要求說明
COMPAS 系統如何演算判斷出危險值。
。Loomis 不服而上訴最高法院,認為法庭以 AI 系統裁決是一種「祕密審判」!要求說明
COMPAS 系統如何演算判斷出危險值。
這個案例顯然暴露了 AI 法官的價值衝突:演算法黑箱(black box)
「在民主法治國家,法官不是個人,他代表的是國家。審判必須在公開透明的運作下,被監
督、檢驗、究責。」李建良說:「法院公開審理、法官說明判決理由,都是來自這種被檢驗
的要求。」
督、檢驗、究責。」李建良說:「法院公開審理、法官說明判決理由,都是來自這種被檢驗
的要求。」
倘若披上法官袍的 AI ,無法開庭、詰問、說明判決理由,讓審判攤在陽光下,勢必挑戰現
行的法院體制,也可能稀釋透明、公開、負責的司法價值。我們無從知道它為何會做出 A
判決,而不是 B 判決,不能確定它有沒有失誤,也難以確認責任歸屬。
行的法院體制,也可能稀釋透明、公開、負責的司法價值。我們無從知道它為何會做出 A
判決,而不是 B 判決,不能確定它有沒有失誤,也難以確認責任歸屬。
Loomis 案也突顯出另一挑戰:代罪羔羊! AI 推測來自過往的資料,但「相似條件的其它
人這麼做,不代表個別主體也會這麼做」。
這同時讓人擔憂 AI 的「因襲性」:社會信仰的美好價值是不斷翻轉、改變,有時正是因為
劃時代的法院判決,才讓我們終於能破除傳統、確立新價值,例如美國法院推翻種族隔離平
等制度,AI 法官會不會弱化、壓縮了法律肩負的深刻意義?
劃時代的法院判決,才讓我們終於能破除傳統、確立新價值,例如美國法院推翻種族隔離平
等制度,AI 法官會不會弱化、壓縮了法律肩負的深刻意義?
李建良直言,第一層次的「能力可行性」是人與 AI 的 比較參照,AI 能做到什麼,補足哪
些人類弱點,帶來什麼優勢。
"但最終,「倫理辯證」仍是無可迴避的關鍵核心,當新科技打破、牴觸基本價值,我們是
否願意為了科技可能提供的「客觀公正」,放棄退讓這些原則?"
https://i.imgur.com/L9sovkr.jpg
我們願意授權給一套科技系統,讓它判定人們是否有罪,剝奪我們的人身自由(甚至生命)
嗎?李建良認為,AI 法官的倫理爭議勢必挑戰人類的信任邊界,最終將深刻探問人類對科
技制度的核心信念。圖片來源│ iStock
人文關懷,也是艱困的價值論辯
「這不會是全面贊成/反對的選擇題,因為 AI 法官很難普遍性適用每一種案件。」李建良
強調。
AI 在資料統整、數據分析上已大放異彩,導入科技新工具、人機合作,可以減輕法院負擔
,也拉近一般人與訴訟裁決的距離。然而,法律範疇高度複雜,即便未來開放 AI 法官,也
必定是在特定的條件、脈絡與案型。
,也拉近一般人與訴訟裁決的距離。然而,法律範疇高度複雜,即便未來開放 AI 法官,也
必定是在特定的條件、脈絡與案型。
他以行政法說明,「大埔農地要不要徵收?美麗灣渡假村能不能蓋?這類行政法案件極度複
雜,牽涉環保、制度、法規多重衝突,還有價值選擇的命題,不太可能由 AI 獨立裁決。」
雜,牽涉環保、制度、法規多重衝突,還有價值選擇的命題,不太可能由 AI 獨立裁決。」
更重要的是,即使技術邊界有機會突破、修正,讓 AI 愈來愈聰明,我們也不應迴避第二層
次的倫理辯證。這也正是人文學科最重要的價值關懷。
「我們很容易倒過來想,認為有這麼多好處,為什麼不開放、不使用?但人文學者關注的是
價值倫理,一旦越過了某些界線,無論多少優勢,我們都必須謹慎、嚴肅地看待。」李建良
提出艱難考驗做類比:
價值倫理,一旦越過了某些界線,無論多少優勢,我們都必須謹慎、嚴肅地看待。」李建良
提出艱難考驗做類比:
"當你明確知道這人是兇手,卻沒有任何證據,這時我們要不要放棄無罪推定,不計手段堅
持罪有應得?這就是價值選擇的論辯。很困難,但很重要!"
「人文學者的使命,是預先關切各種可能的問題。」面對 AI 大躍進,李建良集結法政、社
會、哲學學者展開長期跨領域計畫,關切 AI 應用的人文思辨。他這麼說:「客觀來看,目
前的 AI 技術還無法高度涉入法律系統,但當我們做更多思考對話,才能讓社會更清楚彼此
的價值、信念與方向。」 攝影│林洵安
https://i.imgur.com/BtxnJ8s.jpg5.完整新聞連結 (或短網址):
https://www.natgeomedia.com/science/article/content-12049.html
AI 當法官,會是正義女神的化身嗎?專訪李建良 - 國家地理雜誌中文網
Alpha Go 打敗人類棋王,自駕車躍躍欲試,人工智慧不僅改變世界運作的規則,也逐漸從科技跨入人文社會領域。讓 AI 坐上審判席,會是追求正義的新解方嗎?AI 法官是鐵面無私的包青天,或者科技暴走的新危機?「研之有物」專訪中研院法律學研究所特聘研究員李建良,從法學視角提供思辨觀點,我們不只應審視 ...
Alpha Go 打敗人類棋王,自駕車躍躍欲試,人工智慧不僅改變世界運作的規則,也逐漸從科技跨入人文社會領域。讓 AI 坐上審判席,會是追求正義的新解方嗎?AI 法官是鐵面無私的包青天,或者科技暴走的新危機?「研之有物」專訪中研院法律學研究所特聘研究員李建良,從法學視角提供思辨觀點,我們不只應審視 ...
6.備註:
小筆記
⑴愛沙尼亞推動AI 法官還滯留在計畫階段
⑵現行制度已引入AI 協助法律工作
⑶AI法官 難以檢驗,且可能因「客觀」的既定印象更加深歧視,再者AI 的因襲性恐難面對
不斷變遷的社會。
⑷AI法官 需要法源基礎
⑸不代表AI 法官必定不好,而是在制度下還需要更多討論
--
一篇好的新聞是歷史的初稿
惟其不怕頭破血流,才配做新聞記者-成舍我
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.165.105.60 (臺灣)
※ 文章代碼(AID): #1VQFKF8X (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1600713999.A.221.html
※ 編輯: qazsedcft (118.165.105.60 臺灣), 09/22/2020 02:47:09
--
→ : 支持初音當法官1F 09/22 02:49
推 : 這是一個好方向, 我的夢想是有一天高官全都AI,人類管2F 09/22 02:49
→ : 事的上限就那樣了,自私是人的天性
→ : 事的上限就那樣了,自私是人的天性
推 : 免費玩家還想要無罪判決?4F 09/22 02:52
推 : 樓上弱ai會完全複製人類自私的天性,就如同文中的隱性歧視一5F 09/22 02:53
→ : 樣,所以除非ai發展出現奇點
→ : 樣,所以除非ai發展出現奇點
推 : 誰決定演算法 誰就決定了權力7F 09/22 02:53
\支持演算法民主化/推 : 強AI會把人類當奴隸8F 09/22 02:53
※ 編輯: qazsedcft (118.165.105.60 臺灣), 09/22/2020 02:54:31→ : 人類的未來 顆顆9F 09/22 02:54
推 : 比自由心證的廢物法官好10F 09/22 03:00
推 : 愛沙尼亞那個看起來就只是嘴砲而已。一個沒有裁判書的11F 09/22 03:06
→ : 判決等於是大家可以隨便上訴 反正也不知道怎麼判的
→ : 判決等於是大家可以隨便上訴 反正也不知道怎麼判的
→ : 其實看立法院就知道了阿,反正就那種鳥樣子13F 09/22 03:11
→ : 除非來個天網消滅人類,不然只是換個形式的剝削而已
→ : 除非來個天網消滅人類,不然只是換個形式的剝削而已
推 : 我就是希望強ai 控管全人類啊15F 09/22 03:13
推 : training data別用台灣的或許可行16F 09/22 03:15
推 : 強AI............ 真的是連個影子都沒有XDD17F 09/22 03:16
噓 : ai懂可教化嗎18F 09/22 03:18
→ : 這樣誰把握了程式語言 誰就是勝訴判決 如果矛盾對決 AI19F 09/22 03:23
→ : 要怎麼玩 直接罷工嗎
→ : 要怎麼玩 直接罷工嗎
推 : 推21F 09/22 03:23
推 : 臺灣都恐龍法官 AI學完不就也變恐龍?22F 09/22 03:32
→ : ?
→ : ?
推 : 終於24F 09/22 03:50
→ : 正義跟公平沒有絕對的答案 某種程度只是換成工程師25F 09/22 04:14
→ : 宣判罷了 就算是演算法 也要有人告訴電腦對不對
→ : 宣判罷了 就算是演算法 也要有人告訴電腦對不對
推 : 支持啊,效率大幅提高還大幅減少成本27F 09/22 04:36
→ : 一堆自由心證遠遠不如立個中央標準
→ : 一堆自由心證遠遠不如立個中央標準
推 : 大概有生之年都不會實現啦29F 09/22 04:48
推 : 會不會有超強駭客進入30F 09/22 06:43
推 : AI是需要學習的 但我猜學歷史判決可能就當機了31F 09/22 06:45
→ : 一堆案例相當判決相反 或一二審180度轉彎
→ : 一堆案例相當判決相反 或一二審180度轉彎
→ : 大概全國律師都反對 這樣很難騙法官33F 09/22 07:06
推 : 當你的判例都是恐龍的標準時,AI也只會判出恐龍能接受的結34F 09/22 07:44
→ : 果。
→ : 果。
推 : 台灣人素質真的太低~~一堆人不懂XD36F 09/22 10:04
推 : 決策支援的建議而已 就像幕僚一樣37F 09/22 10:12
→ : 決行的還是人類法官
→ : 決行的還是人類法官
推 : 簡單的沒問題 難就難在複雜的案子和莫名其妙的案子39F 09/22 10:22
推 : 西比拉系統40F 09/22 10:55
噓 : 笑死人,現在的法官判的好不好有差嗎?41F 09/22 11:41
→ : 現行制度無任何抗衡方法,換成AI有差嗎?
→ : 現行制度無任何抗衡方法,換成AI有差嗎?
--
※ 看板: Gossiping 文章推薦值: 1 目前人氣: 0 累積人氣: 122
作者 qazsedcft 的最新發文:
- 26F 16推
- 15F 4推 1噓
- 冨樫義博證實動手術!拚《獵人》連載不停更…網噴淚:老師保重啊 記者陳芊秀/綜合報導 日本超人氣漫畫家冨樫義博昨日(28)無預警透露已經動手術,而且是局部麻醉下開刀, 疑似身體出狀況。而他發文同時報告 …32F 21推 1噓
- 33F 10推 8噓
點此顯示更多發文記錄
( ̄︶ ̄)b darkrise1980 說讚!
回列表(←)
分享