首页 >> 法学
陈晨:做好司法与人工智能的加法题
2019年09月04日 10:28 来源:中国社会科学网-中国社会科学报 作者:陈晨 字号

内容摘要:

关键词:

作者简介:

  随着5G技术的普及和扶持政策力度的不断加码,人工智能逐渐从“国家战略高度”走入寻常百姓的街头巷尾。人工智能所创作的“披头士风格”歌曲、公路上自动驾驶的汽车、获得公民身份的“索菲亚”等种种在电影中才能看到的现象无不宣示着“人工智能时代”的来临。法律往往习惯于对新技术做出相对滞后的回应,但随着人工智能迅速发展,司法领域似乎要做出前瞻性的改变,例如新增的人工智能书记员与语音庭审等。

  人工智能无法完整理解司法目的

  司法目的是司法活动的价值取向,如果司法活动缺少价值取向,那么再公正的法律也只能停留在纸上,再优化的司法体制改革也可能是徒劳无功。“让人民群众在每一个司法案件中都感受到公平正义”是当下我国司法机关努力的目标,司法权力行使的过程就是各种因素互相博弈的过程,公平正义的司法判决就是法官平衡各方利益所做出的价值判断。在大数据、人工智能、算法被日益广泛应用的今天,我们对人工智能一直存在着一个错误的认识:人工智能是公平的决策者。这种谬论所忽略的是:

  第一,“公平、公正”这一人类信奉的社会价值是否可以被数字化或数据化?公平公正的实现不是1+1=2,当下,没有任何一个算法或理论能证明人工智能可以将“公平、公正”这一价值观念数字化,而缺少核心价值观的司法目的就不是真正的司法目的,也势必引发司法自身合法性的拷问。比如在传统刑事审判中,法官作出的判决不但需要对法律条文的适用进行论证,还需要结合被害人情绪、社会效应,嫌疑人认错态度,有无再犯可能性等进行综合评价。这个论证说理的过程就是实现公平公正的过程,其中蕴含着复杂的价值理念,人工智能可以将涉案证据等内容数据化,但很难将社会效应、感情等因素数据化。第二,人工智能是由技术人员设计建造的,设计者或者建造者是否能在完全理解相对专业的法学知识的前提下,不偏不倚地将既有法律内容或道德规则完全编写进程序。比如法官对被告一丝无意的微笑理解为不能真诚悔罪,而技术人员就未必能理解。第三,人工智能或强人工智能是否会认同“公平、公正”这一价值体系。当下,我们缺少的不仅是判断人工智能是否能遵守既有法律政策的方式,更缺少考察人工智能是否可以认同我们价值体系的标准。另外,我们必须清楚地认识到数据作为人工智能的基础,其客观上依然存在缺陷,如数据来源真实性、来源不够广泛、数据保护性较差等问题,我们不能将“公平、公正”等核心价值观的实现交给这种“缺陷型”人工智能,更不能交给可能与我们价值观相冲突的“完美型”人工智能。

  适用人工智能≠有利于司法决策

  “司法责任制”改革是当下司法改革的核心任务,“谁办案,谁决定,谁负责”既体现了司法决策的“放权”,又体现了司法监督的“控权”。司法决策不受监督则为“滥权”,司法人员要在可监督的范围内高效地进行司法决策并承担相应责任,否则不仅与我国司法改革目的相违背,更不利于司法“公平、公正”目的的实现。因此,人工智能适用于司法领域既要有利于司法决策的高效、准确,还要有利于其被公开和监督,缺一不可。不可否认的是,当下将“人工智能”适用于司法领域的确可以便利人民群众、提高司法效率,但在司法决策过程中却隐藏着不可忽视的问题。

  人工智能适用于司法决策一般有两种方式:一是人工智能直接作出司法决策。未来强人工智能先将司法决策流程分解为数据,再进行分析并作出决定,最后将决定赋予数据执行。根据当下人工智能理论,这种特殊“算法”必然是“黑箱操作”,人们无从知晓人工智能是如何作出决策的。人工智能本身说不清,开发它的公司更无从知晓,即使开发公司有迹可循,其也极可能以“商业秘密”为由拒绝“公开”。更何况司法不像下棋,下棋输了可以再来一盘,司法错了可能社会秩序都会出现混乱。因此,无论人工智能发展到什么程度,都不能将司法权全部交由人工智能自主决策。二是人工智能属于辅助工具,司法决策依然由司法人员作出。此方式下,人工智能多以“风险评估”的辅助模式出现,对司法人员的每一步司法决策进行风险评估。

  该模式的弊端体现在:第一,“辅助”的界限难以厘清。司法人员进行司法决策时容易受到诸多法律之外的因素影响,而司法改革的目的之一就是去除或减少如政治、社会等因素的影响。司法决策加入“风险评估”反而增加了干扰因素。如果出现“不合理”的决策将无法查清司法人员是依据自身原因进行的决策,还是为了减少自己的责任而采纳人工智能的意见,或是确实依据人工智能对自己的决策行为进行修正后所做出的决定,这种模糊的界限易造成责任界限不清,进而使追责程序难以启动。第二,人工智能容易出现“错误”评估。不论是数据来源不完善,还是算法黑箱不可公开,人工智能做出的风险评估永远不存在百分百的正确率。对司法人员而言,即使人工智能仅有亿万分之一的错误几率,我们都不应该将其视为“客观标准”。比如在刑法定罪量刑领域,未来人工智能可能依据行为人外在特征直接判断其犯罪危险性,建议司法机关对其定罪量刑,难道司法机关要认同这种辅助或引导,成为现代“天生犯罪人”理论的殉道者吗?第三,缺少纠正机制。司法决策使用人工智能的目的之一是确保司法人员作出正确决策,减少冤假错案,确保在这些决策中出现的每一个行为都可以受到某种监督。但是,若司法人员、涉案人员对人工智能的“决策”产生不满,是否可以审查呢?或者说如不能审查,能否及时进行纠正呢?对一个不透明的黑箱算法进行审查未必会得到一个公平的结果,但缺少纠正机制的司法决策一定会得到一个不公平、不公正的结果。

  随着技术的发展,人工智能技术一定会趋于完善,以上这些弊端未来可能会得到解决,但如果不关注司法的现实需要,而仅凭“技术优先”原则,让人工智能左右司法、主导司法改革则未必会得到一个满意的结果。

  人工智能只能适用于部分司法环节

  人工智能适用于司法领域最理想的状态是与司法进步保持高度一致,人工智能既有利于司法实现公平公正的目的,又能不断提高司法效率,发现司法问题并及时完善。但由于司法的特殊性和人工智能在司法领域的天生弊端,司法机关必须要清楚不是所有环节都可以使用人工智能。为削弱人工智能的负面作用,充分发挥其积极作用,最简单、最直接的办法是将其先适用于司法中最不理想的、可量化的、低效率的环节,比如严重依赖手动数据输入输出、重复劳动等环节。因为为了与司法进步保持高度一致,人工智能本身也需要不断学习发展,一旦在可量化、低效率环节察觉人工智能行为不符合司法要求或目的,在没有成熟纠错体制时,司法自身的体制性也会阻止其负面影响进一步扩大。将其限制在这一类环节的另一原因是有利于司法机关定期总结问题,优化后续改进。人工智能可以敏锐地发现司法活动的细节问题,司法机关定期总结,随时提出具体可行的优化方案,进而降低改革成本促进司法活动科学、系统地完善。

  综上,司法保守不是“技术封闭”, 司法与人工智能的结合是必然趋势,但同时也必须认识到基于模仿人类认知过程发展而来的人工智能不论发展到什么程度,其在司法领域都存在天然的局限。“法治中国”的建设是将司法作为社会管理的主要手段,因此任何改革方式或新技术的应用都应以符合司法规律为前提。以“司法”为主导,倡导“司法+人工智能”是一个恰当的选择,相反,以人工智能为主导,“人工智能+司法”就是一个隐含巨大风险的选择,厘清这个“加法”顺序才能最大化地消除人工智能的负面影响,才能将司法与人工智能这道加法题做对、做准。

  (作者单位:黑龙江大学法学院)

作者简介

姓名:陈晨 工作单位:黑龙江大学法学院

转载请注明来源:中国社会科学网 (责编:孙志香)
W020180116412817190956.jpg
我的留言 视频 图片
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
QQ图片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们
迅雷彩票计划群 必发彩票计划群 天津11选5分布走势图 博乐彩票计划群 博发彩票计划群 永发彩票计划群 极速赛车开奖结果app 极速赛车精准人工计划 疯狂斗牛 香港开奖结果2019+开奖记录表