AI 撰写判决书,会不会「製造」更多有罪的人?



前阵子司法院预计将 AI 导入判决系统,试图去减轻司法负担。法官与检察官背负的案量日渐遽增,大部分是诈骗案件,而生成式 AI 能否协助减轻撰写判决书的工作?的确初期是以无法安全驾驶、诈欺等大量且形式雷同的案件做起,或是支付命令这些较少人为判断的案件,但我们关心的是,能否减少冤案,还是持续"複製"判决?

首先,我们要担心的是"複製偏误"。积非成是这成语大多人听过,但对于司法冤案的产生,却不是每个人都了解的,除非他遭遇到司法困境。

而在开发的前期,大多参考了司法院既有的查询系统与判例做为AI学习的样本;但司法是与时俱进的,例如通姦除罪化、删除了刑法239条,而早期的判例可能会偏向某种归因,而欠缺了对于当事人的其他考量。例如贫穷、被胁迫、被教唆等,或大量複製了过往的偏误,如种族歧视、性别歧视、多元性别等近几年才被平反的观念,司法院有评估过这样累积的风险吗?

审理案件是个複杂的判断与推敲的过程,例如未成年的孩子去当运毒的车手,就法条解释上它的确是有罪,但未能考虑当事人经济条件、受困于无可奈何的困境,不是阅读文字与卷宗就能够理解的,况且每个法官的判準与裁量也不尽相同,同样一条罪名还是有不同程度的判决结果,不能被归因或者标準化。且一旦民众得知司法系统使用AI判决,就跟汽车自动驾驶技术类似,这并无法屏除人为介入做最后的判断,最后造成司法的公信力丧失。

虽然司法院非常迅速的提出了回覆,认为科技进步使然,也有限定使用範围、使用的程式语言为TMT5语言模型架构,且主机不对外连线等防护措施,且目前只採用例稿撰写。而在民间团体召开记者会提出各项质疑后,司法院也从善如流暂缓了开发。在尚未确认判例与资料引用的範围、判决产生的偏误以及风险之前,我们对于AI撰写的文字仍要保持怀疑的态度。而包含后续的着作权、文字产生效益的责任归属等,都是未知的领域。

一方面也有法官持乐观态度,认为若能减轻司法负担,何尝不是一件好事?前阵子因为案量与人力负担过重,有三十几位法官与检察官相继离职;笔者认为,增加法官助理,分案到不同的层级与法院,将案件分流,例如行政命令或是一定裁罚的量,或非重大刑案等,也许可以分给AI做为初阶的卷案与判例的生成,但审判与法条的引用,目前AI似乎还是无法完全取代人类,毕竟怜悯、虚假意思表示、翻供、胁迫等非难之罪,岂能单靠经验做判决?AI生成的出现,的确带来便利,但我们仍要小心,不能错杀无辜。

(首图来源:Image by Freepik)

0
鲁ICP备14011212号-13