2024年新澳彩全年资料。上海发布(资料图)
最高人民法院印发《最高人民法院关于加快建设智慧法院的意见》,指引法院管理信息系统的智能平台建设工作。伴随着这些文件的发布以及司法实践的发展,我国司法工作开始进入人工智能时代,上海更是率先启动“206”工程,打造未来法院人工智能系统。
司法领域应用人工智能的前景
实际上,碎片性的、尚未系统化的人工智能早已应用于司法工作。依照其最基本的含义——“使机器从事原本需要人类智能方可进行的工作”——案件检索系统和案件信息管理系统便是典型体现,而法律法规电子资料库更是成为全体法律人的必备产品。它们提高了司法工作效率、节约了司法资源,构成智慧法院建设的前期基础。
只不过,在谈及“人工智能”这一语词的时候,绝大部分言说者和倾听者都将其和“机器人技术”杂糅在一起,进而只将具有“拟人”行为的机器作为“人工智能”的载体。这一普遍存在的观点,倾向于认为人工智能最终能够做到一切人可以做的事情,因此,在司法工作中,机器人法官对人类法官的替代,便成为一种可以预期的未来。毕竟,机器人律师、机器人教师、机器人医生都已经为人所熟知,而机器人法官所面临的技术性难题必将随着人工智能技术的发展而消解。
人工智能自身的限度
“做人所能做之事”和“做人做之事”之间貌似微小的差异,却在本质上有所不同。在前者的语境中,人工智能是辅助性的,而在后者的语境中,人工智能是替代性的,它的指向不是将人从劳动中解脱出来,而是将人从劳动中排斥出去,此时的人工智能虽然不被当作一个道德上的人,但在它做特定劳动的时候,它就“是”一个“人”。
如果仅从功能的角度来说,它们殊无二致,尤其是在人工智能的运算速度远高于人脑运算速度的情况下,只要算法本身不存在内在的漏洞,人工智能做某事的能力甚至会优于同等条件下人做此事的能力。可是,二者在意义层面截然不同。作为替代性的人工智能不需要考虑人的因素,因为它已经完全承担了这一事项。因此,尽管人工智能未必和“意识”相关,甚至有极大的可能与“意识”毫无关联,但人类是否能够有意识地介入到“无意识智能”的领域,对于人类社会来说,意义截然相反。毕竟,在算法以及与其相关的计算能力不如人工智能的情况下,如果人的意识不能有效介入人工智能,那么,占主导地位的将是后者。
人工智能时代法官的自觉
欧美国家人工智能化起步较早,并且广泛应用于司法领域。但美国埃里克·卢米斯(Eric Loomis)案的进程表明,作为司法工作核心的法官,并没有清晰地认识到“做人所能做之事”和“做人做之事”之间的差异。卢米斯因偷窃枪击者抛弃的汽车而被警察误当作枪击者予以逮捕,鉴于其存在偷盗和拒捕行为,此案进入诉讼程序。基于人工智能“COMPAS”的测试,卢米斯的再犯风险极高,据此,法官裁决他服刑6年。卢米斯提起上诉,但威斯康星州最高法院支持了下级法院的裁决,并肯定了其裁定理由:人工智能“COMPAS”的风险评估是借助独立的子项和复杂的算法完成的,最终从1到10的级别评定具有中立性和客观性。
在这一案件中,无论是初审法官,还是州最高法院的法官,都选择了这样一种推理路径:人工智能是无感情的,因此它是中立而客观的,进而它评测的结果就是中立而客观的,值得采纳。在这一措辞中,法官在两种“想象”中摇摆:一方面,人工智能是为法官所用的,它是一种辅助性工具,因此它的结论不需要经受相对人的质证;另一方面,人工智能是作为“专家证人”的替代者存在的,它的算法比之人工询问更加具有可信度,于是它的结论是决定性的证据。这导致原本法官需要针对卢米斯的个案情形进行具体的判断,但他们实际上采纳了人工智能的判断却又想不承认这一点。
美国这一案例展示了一个图景:居于判断之位的法官尽管形式上行使了判断的权力,但实际上并没有运用判断的权利。他们没有体现出创造新知识的智识,而选择顺从于人工智能的判断。当其他人质疑这一判断时,借助人工智能的重叠想象,法官将判断的责任归之于人工智能,并通过责任转稼的方式将自身保护起来。
诚如阿伦特所言:“我们关于是非的决定将依赖于我们对同伴的选择。”尽管这些法官是有思想的,但这一思想仅仅归于活动的序列,而无法归于行动之列。只有他们自己意识到他们自我对这个问题进行了判断,但这一意识无法构成通感,因为观察他们行为的其他人认为这一判断的行动来自于人工智能,而他们实际上也乐于接受其他人的这一判断。当美国的法官作出这一选择之时,他们拒绝通过判断力将自己与当事人(即其他的人)联系起来,既否认了判断力这种属于人类的能力,同时也就否认了法律赋予法官的重要权力。
因此,人工智能时代法官要有自觉意识,即人工智能的作用是作为判断的辅助。在这个意义上,人工智能法官确实是绝无可能的,因为,判断的权力将始终把握在法官的手中。