而在開發的前期,大多參考了司法院既有的查詢系統與判例做為AI學習的樣本;但司法是與時俱進的,例如通姦除罪化、刪除了刑法239條,而早期的判例可能會偏向某種歸因,而欠缺了對於當事人的其他考量。例如貧窮、被脅迫、被教唆等,或大量複製了過往的偏誤,如種族歧視、性別歧視、多元性別等近幾年才被平反的觀念,司法院有評估過這樣累積的風險嗎?
審理案件是個複雜的判斷與推敲的過程,例如未成年的孩子去當運毒的車手,就法條解釋上它的確是有罪,但未能考慮當事人經濟條件、受困於無可奈何的困境,不是閱讀文字與卷宗就能夠理解的,況且每個法官的判準與裁量也不盡相同,同樣一條罪名還是有不同程度的判決結果,不能被歸因或者標準化。且一旦民眾得知司法系統使用AI判決,就跟汽車自動駕駛技術類似,這並無法屏除人為介入做最後的判斷,最後造成司法的公信力喪失。
雖然司法院非常迅速的提出了回覆,認為科技進步使然,也有限定使用範圍、使用的程式語言為TMT5語言模型架構,且主機不對外連線等防護措施,且目前只採用例稿撰寫。而在民間團體召開記者會提出各項質疑後,司法院也從善如流暫緩了開發。在尚未確認判例與資料引用的範圍、判決產生的偏誤以及風險之前,我們對於AI撰寫的文字仍要保持懷疑的態度。而包含後續的著作權、文字產生效益的責任歸屬等,都是未知的領域。
一方面也有法官持樂觀態度,認為若能減輕司法負擔,何嘗不是一件好事?前陣子因為案量與人力負擔過重,有三十幾位法官與檢察官相繼離職;筆者認為,增加法官助理,分案到不同的層級與法院,將案件分流,例如行政命令或是一定裁罰的量,或非重大刑案等,也許可以分給AI做為初階的卷案與判例的生成,但審判與法條的引用,目前AI似乎還是無法完全取代人類,畢竟憐憫、虛假意思表示、翻供、脅迫等非難之罪,豈能單靠經驗做判決?AI生成的出現,的確帶來便利,但我們仍要小心,不能錯殺無辜。