st
指數
  • 富时隆综指1,502.74+1.300+0.09%
  • 富时10011,015.45+11.440+0.10%
  • 富时全股项11,228.99+5.250+0.05%
分享

【灼見】AI知道什麼是正義嗎?/周若鵬

- 文 +
人工智能

合成圖/取自pixabay、彭博社

一直覺得法官好難,法律千百條,案例千百宗,如何判刑才叫公平呢?法官是人,又怎能完全客觀呢?假設眼前有個偷雞犯,怎樣確保他的刑罰和去年偷雞的犯人不會差太遠?

早在ChatGPT面市前,東馬法庭已啟用人工智能(AI),名為AICos,幫助法官消化海量文字,隻要輸入相關參數,AI就能根據先例給法官建議刑罰,大大提高效率及維持判刑公允。

法官擁絕對自主權

AI隻是輔助,法官依舊擁有絕對的自主權。目前係統隻用於擁毒和性侵案,因為這個範疇有足夠案例訓練AI。AICos於2024年贏得了首相暑頒發的創意卓越獎,實至名歸,是嗎?

2022年1月在馬德裏,赫米德的丈夫用木條毒打她。她報警了,警察在讓她回家之前問了她35道是非題,把答案輸入一個叫VioGen的演算法,用以預測她再受家暴的可能性。如果高危,警方會加派人手監視,然而VioGen說風險低,警方就決定無須太關注了。7周後,丈夫把赫米德刺斃。她年僅32歲,留下4個孩子。

警方錯了嗎?罪案那麼多,他們需要借助係統高效地權衡輕重,分配資源;VioGen錯了嗎?西班牙政府堅稱誤判隻是偶然,事實上它幫助了更多人,自2007年以來重複家暴的案子下跌逾半,但同期間,還有247個像赫米德這樣遇害的女人。

政府拒絕公開VioGen給這247個受害者的判斷,但《紐約時報》在司法審查中發現公開的98宗家暴致死案中,有一半是VioGen判定為安全的。VioGen隻是輔助,警方依舊擁有絕對的自主權,但九成警察都選擇跟隨VioGen的決定。很方便,不是嗎?

我不確定AICos用怎樣的AI,若是用“專家係統”(根據專家提供的條件逐步推演),那麼所得的答案都有跡可循;若用大語言模型,那是一個黑箱,不知如何得到答案。有使用AI的用戶都知道,它會產生“幻覺”瞎掰。

人類需做最後把關

不靠AI,隻靠人,判斷會更準嗎?葛拉威爾在《解密陌生人》談過一例,2008到2013年間紐約市有55萬宗罪案,法官共準許40萬人保釋候審,他們判斷這些人不會在保釋期間犯案。經濟學家穆萊納坦做了這樣的實驗,他開發AI,在同樣的55萬宗案中也選40萬人保釋。

結果AI所釋放的人,犯案率比人類法官釋放的少了25%!一般上法官堅信必須親眼看見嫌犯,知道周邊訊息,才可更全面地下判,但這個AI什麼都不知道,僅憑嫌犯年齡和犯罪記錄決定是否批準保釋,反而預測得更精準?

人不完美,AI也不可能完美。不管VioGen實際上防止了多少家暴,人們總會聚焦於它的失誤。AI會犯錯的,但在限定的領域內AI的效率確有可能比人類強。要問的也許是:對於正義,我們追求的準繩究竟是什麼?是鐵面無私,還是法外開恩?

最鐵面的判官是沒有共情能力的AI,就算那個偷雞犯失業已久,家有妻小,AI都不管,隻有法官才懂得同情。人世間的事,終究需要人類做好最後的把關。

相關新聞

罪案
人工智能
法庭
AI