
合成圖/取自pixabay、彭博社
一直覺得法官好難,法律千百條,案例千百宗,如何判刑才叫公平呢?法官是人,又怎能完全客觀呢?假設眼前有個偷雞犯,怎樣確保他的刑罰和去年偷雞的犯人不會差太遠?
早在ChatGPT面市前,東馬法庭已啟用人工智能(AI),名為AICos,幫助法官消化海量文字,隻要輸入相關參數,AI就能根據先例給法官建議刑罰,大大提高效率及維持判刑公允。
法官擁絕對自主權
AI隻是輔助,法官依舊擁有絕對的自主權。目前係統隻用於擁毒和性侵案,因為這個範疇有足夠案例訓練AI。AICos於2024年贏得了首相暑頒發的創意卓越獎,實至名歸,是嗎?
2022年1月在馬德裏,赫米德的丈夫用木條毒打她。她報警了,警察在讓她回家之前問了她35道是非題,把答案輸入一個叫VioGen的演算法,用以預測她再受家暴的可能性。如果高危,警方會加派人手監視,然而VioGen說風險低,警方就決定無須太關注了。7周後,丈夫把赫米德刺斃。她年僅32歲,留下4個孩子。
警方錯了嗎?罪案那麼多,他們需要借助係統高效地權衡輕重,分配資源;VioGen錯了嗎?西班牙政府堅稱誤判隻是偶然,事實上它幫助了更多人,自2007年以來重複家暴的案子下跌逾半,但同期間,還有247個像赫米德這樣遇害的女人。
政府拒絕公開VioGen給這247個受害者的判斷,但《紐約時報》在司法審查中發現公開的98宗家暴致死案中,有一半是VioGen判定為安全的。VioGen隻是輔助,警方依舊擁有絕對的自主權,但九成警察都選擇跟隨VioGen的決定。很方便,不是嗎?
我不確定AICos用怎樣的AI,若是用“專家係統”(根據專家提供的條件逐步推演),那麼所得的答案都有跡可循;若用大語言模型,那是一個黑箱,不知如何得到答案。有使用AI的用戶都知道,它會產生“幻覺”瞎掰。
人類需做最後把關
不靠AI,隻靠人,判斷會更準嗎?葛拉威爾在《解密陌生人》談過一例,2008到2013年間紐約市有55萬宗罪案,法官共準許40萬人保釋候審,他們判斷這些人不會在保釋期間犯案。經濟學家穆萊納坦做了這樣的實驗,他開發AI,在同樣的55萬宗案中也選40萬人保釋。
結果AI所釋放的人,犯案率比人類法官釋放的少了25%!一般上法官堅信必須親眼看見嫌犯,知道周邊訊息,才可更全面地下判,但這個AI什麼都不知道,僅憑嫌犯年齡和犯罪記錄決定是否批準保釋,反而預測得更精準?
人不完美,AI也不可能完美。不管VioGen實際上防止了多少家暴,人們總會聚焦於它的失誤。AI會犯錯的,但在限定的領域內AI的效率確有可能比人類強。要問的也許是:對於正義,我們追求的準繩究竟是什麼?是鐵面無私,還是法外開恩?
最鐵面的判官是沒有共情能力的AI,就算那個偷雞犯失業已久,家有妻小,AI都不管,隻有法官才懂得同情。人世間的事,終究需要人類做好最後的把關。