文/羊城晚报全媒体记者 董柳
机器人能否像人一样撰写出专业的法律文书?在中国社会科学院法学研究所、社会科学文献出版社今天(4月14日)在江苏南通联合举办的“《法治蓝皮书•中国法院信息化发展报告No.5(2021)》发布会”上,一项研究报告给出了参考答案:实践证明,在未来,它极有可能取代法官完成判决书的撰写。
当下,“AI法官”“AI律师”等已经从概念走向现实,人工智能应用于司法裁判已成为社会聚焦的热点话题,并作为一个严肃的司法理论与实践课题在实践中被反复论述、检验。
裁判结果的产生方式
实现从人工到智能的转变
《法院信息化蓝皮书》指出,当下在司法裁判领域,人工智能主要在两个方面凸显了较为强劲的应用价值。一是裁判结果的产生方式实现从人工到智能的转变。一个优秀的判决包含两个核心要素,即结果公正和论理充分。“我们让机器人学习既往与此相关的大量判例,对于类似案件可以做到结果基本公平;对于专业性案件,机器会在论理中学习此前法官的论述,对于该案法官具有较大的借鉴和补充意义,对于常规性案件的论理,机器人还可全面提升法官的工作效能。实践证明,在未来,它极有可能取代法官完成判决书的撰写。”二是庭审模式实现从“同空(同一空间)模式”到“异空(不同空间)模式”的变革。我国相继在北京、杭州、广州等地设立了互联网法院,在个别案件上其所适用的在线审判模式可以理解为系对异空审判模式的大胆尝试。
“机器人能否像人一样撰写出专业的法律文书?这是我们实验室的重要实验课题。”发布会上,中国社会科学院法学研究所研究员、科技与法研究中心主任,法律人工智能实验室首席顾问杨延超发布了《人工智能应用于司法裁判的法理分析》成果报告。
杨延超在报告中介绍,对这一问题的研究,首先是从撰写律师专业的代理意见开始着手的。“我们对一部叫‘FILE’的机器人进行了大量的实验,最终发现它可以在知识产权领域为律师撰写专业的代理意见。”
“不同于律师的代理意见,法院的判决书还需要综合各方面的意见,它并非一方利益诉求的无限延展,其价值体系中应当包含公平、制衡的理念,我们实验室正在展开这项研究。实践证明,在未来,它极有可能取代法官完成判决书的撰写。一个优秀的判决包含两个核心要素,一个是结果要公正,一个是论理要充分。要让机器人完成判决书撰写,就需要在这两个方面下功夫。与阿尔法狗(Alphago)下围棋相比,它涉及对人的行为的价值评判,这并非一件容易的事情。”杨延超在报告中说。
杨延超表示,第一,为保障结果公平,让机器人学习既往与此相关的大量判例,依据是数学中一个重要的定理——正态分布定理。事实上,机器人基于正态分布及一系列数学原理,可以完成对前人经验的汲取,对于类似案件,其所完成的判决结果呈现既不偏激也不保守的均衡态势。
“基于机器学习的需要,我们把案件总体上分为两种:个性化案件和共性案件。像‘杀人罪’就属于个性化案件,每个案例的发生背景、人物关系、被告人内心演变都存在极强的个性化特征,即使用数学原理和统计学原理亦难以找到神经网络的建构规律。当前,此类案件用于机器学习的效果并不理想。相比较而言,像交通肇事罪以及知识产权类侵权案件,可以划归共性案例,借助数学原理可以实现其神经网络的建构,此类案件机器学习的效果较好。我们针对知识产权类案件做了大量实验。我国当前90%的知识产权侵权案件实行法定赔偿原则 ,即原告方难以找到被告方侵权赔偿的相关证据,于是法官们在判赔时主要适用知识产权法上的‘法定赔偿原则’,即由法官在法定赔偿额以下实行自由裁量。在此类案件上,人工智能借助机器学习的原理会给法官提供强有力的裁判示范参考。”
第二,机器人在撰写裁判文书时,还需要完成逻辑论证。仅有结果而缺乏论理的判决不能称其为正义的判决,因此机器人撰写判决时需要阐述论理过程。“从我们在实验室完成的大量实验来看,机器人基于对同类案例的学习,完成论理描述是完全可能的。机器人撰写论理部分时,不仅需要参考既往的案例,还需要结合本案的基础事实。在以犯罪四要件为模型建构的神经网络中,机器人会汇总本案全部事实,针对一项具体犯罪指控,完成对犯罪主体、犯罪客体、犯罪主观方面、犯罪客观方面的论述。在这一过程中,机器人的任务系将本案的基础事实与法律规范紧密结合在一起,进而完成判决的论理部分。”
当然,杨延超也指出,机器人的论理并非取代人类的论理,尤其是涉及情感性的论理部分,法官仍需基于自身的价值观完成论理说明。“正确认识人工智能在法律中的应用,不能过分夸大,这里还需要认知人工智能在多元法律复杂思维以及情感思维方面还存在着技术瓶颈和障碍,这在法律人工智能战略制定中具有重要的启示意义——让机器去做什么,让人去做什么,合理地划分人与机器的边界对于未来法律人工智能的战略制定具有重要意义。”
“人工智能在法律应用上的最大价值,不是效率,而应当是公平正义。”杨延超说,“人工智能之前,我们对公平正义的理解,往往基于法官个人或者法律人个体的经验、阅历,但极为有限。人工智能算法模型的一个重要价值在于它可以极大地拓展人类的认知和智慧,以同案同判为例,机器算法模型可以告诉我们历史上这个案件是如何判的,全国以及全球这个案件是如何判的,从而极大地拓展了我们追求公平正义的广度与深度,从有限走向无限。”
当下对于人工智能应用于司法裁判
理论上存在一定争议
《法院信息化蓝皮书》同时指出,当下对于人工智能应用于司法裁判,理论上存在一定争议。支持派凸显人工智能应用于司法裁判的价值,并试图将价值论应用于司法裁判的全流程;反对派更侧重于强调人工智能应用于司法裁判带来的负面影响,其中较为典型的便是机器审判人类的法律危机。这由此也暴露了人工智能应用于司法裁判的两对主要矛盾——
一是 “效率价值”与“正义价值”之间的矛盾。“弱人工智能”时代,机器人法官系作为人类法官的辅助而存在,并非是由机器独立完成对于人类的审判。在“人机合作”模式下,机器人虽未能达到与人具有同等法律地位的地步,但它的作用已经远远超过工具的范畴,基于深度学习而实现的“自我决策”可以让机器人更大程度地影响法官,由于“算法黑洞”等问题的存在,其决策公平性仍需进一步明确。二是 “算法局限”与“裁判扩张”之间的矛盾。基于当下人工神经网络的算法,人工智能只能解决司法裁判中的某些具体问题,还很难贯穿于司法裁判的各个环节,其在事实认定和法律适用方面均存在一定局限。
《法院信息化蓝皮书》提出,为实现对人工智能在司法裁判中的有效规制,未来要在两方面予以完善。一是人工智能适用空间的分割。其中要实现情感价值与法律价值的二元分割,将情感的问题交给人,将法律的问题交给机器人,准确地划分人工智能的适用空间;事实认定与法律适用的二元分割,案件事实认定的部分主要由人来解决,涉及法律适用的问题则主要由机器人来解决;新型案例与常规案例的二元分割,常规案件更多依赖机器人解决,以期发挥机器人基于以往案例的学习经验,新型案件更多依赖人来解决,以期在缺乏基础数据的情况下,更多发挥人的价值判断。二是算法审查制度的构建。为解决当事人提出的“算法黑洞”的法律质疑,应构建机器人算法审查制度。主要包括:人工智能算法公开制度,应用于司法裁判中的机器人,因其决策会影响当事人的财产权利与人身权利,在对其算法技术秘密保护方面应奉行有别于一般商业机器人的原则,其算法理应向社会公开,并应当遵循“全面公开”“网络公开”“初始公开”三项原则;人工智能算法裁决制度,诉讼当事人一旦对机器人算法提出质疑,则需要一个专门的算法裁决机构完成审查和裁决。人工智能算法救济制度,一旦算法本身被确认为违法,该司法裁判机器人的算法应当停止使用或者被修正。
展望未来,《法院信息化蓝皮书》提出,关于人工智应用于司法裁判的法理讨论才刚刚开始,随着人工智能算法的进一步提升、社会大数据的进一步公开以及5G时代的到来,人工智能应用于司法裁判的价值将更大彰显,由此所产生法律困惑也将在支持者与反对者之间产生更大争议和讨论,对于接下来的路径思考也将更加深入。人工智能技术的发展或将带来新一轮司法裁判制度改革,传统意义上庭审、送达、质证、判决的概念或将在人工智能视阈下被重新定义,由此也将导致我国诉讼法律的进一步完善。(更多新闻资讯,请关注羊城派 pai.ycwb.com)
来源 | 羊城晚报•羊城派
责编 | 王楠