司法人工智能的算法规制对策与建议

人工智能应用1年前 (2023)发布 aixure
82 0 0
导读:核心提示: 考察司法人工智能在不同情景中的算法性质,重新审视司法目标与原则,可以考虑在伦理、法治、人本、技术四个方面确立算法规制原则,明确算法规制的主体、方法、对象,并完善相关立法与司法救济程序。 人民视觉/供图 作者 |马 勤 责编 |薛应军 正文…

核心提示:考察司法人工智能在不同情景中的算法性质,重新审视司法目标与原则,可以考虑在伦理、法治、人本、技术四个方面确立算法规制原则,明确算法规制的主体、方法、对象,并完善相关立法与司法救济程序。

人民视觉/供图

作者|马 勤

责编|薛应军

正文共3336个字,预计阅读需10分钟

我国司法人工智能主要涵盖立案、证据收集、保全、刑事侦查、起诉、庭审、质证、证据评价、量刑、执行、司法行政等阶段,其实践应用在很多方面走在世界前列,但也存在尚未突破的现实困境。比如,司法人工智能存在着数据碎片化、算法隐蔽化、操作内部化、区际差异化、技术瓶颈化、重复开发、重复劳动等问题。具体而言,首先,司法人工智能训练所用的数据存在碎片化、数据筛选标准不规范等问题。其次,人工智能算法常用的模拟神经网络技术,存在“算法黑箱”,导致算法结果欠缺解释力。再次,司法人工智能的智能化水平有限,很多工作仍需要人工介入或补正,导致重复劳动。最后,不同司法机关、不同地区和不同诉讼阶段的开发适用存在差异,且重复开发,易造成资源浪费。这些问题制约人工智能辅助司法向纵深化发展。就潜在风险而言,人工智能的司法应用始终面临科技、伦理、法理等方面的质疑。具体来看,司法人工智能的伦理风险可以概括为三种:一是对人类主体地位形成的挑战;二是对有关人类道德标准的冲击;三是对人类所具有的共情价值的挑战。如果说司法人工智能涉及的伦理学问题具有普遍性,那么相关的法理学问题则更加具有针对性、紧迫性。司法人工智能的法理风险主要包括:对司法理念的挑战,对司法原则的挑战以及对法律规则的冲击。司法人工智能的技术问题主要涉及三个方面:一是技术能力;二是技术风险;三是技术范围。因此,有必要对司法人工智能予以适当规制。

确立司法人工智能算法规制的基本原则

目前,司法人工智能算法规制的原则相对零散,与司法特定场域的结合度有待加强。虽然研究算法治理的学者已提出很多规制算法的原则,但是相对笼统,缺乏体系性。通过考察司法人工智能在不同情景中的算法性质,重新审视司法目标与原则,建议确立以下四大类算法规制原则。

伦理类原则。第一,公平原则:确保算法公平。公平是社会制度的重要伦理价值。无论是人工智能司法应用,还是传统人工处理的司法问题首先推崇的都是公平价值。第二,非歧视原则:剔除算法偏见。非歧视意味着应当给予人们平等的司法对待,包括司法领域相关的程序性决定和实体性决定内容。无论是法官还是算法都应当避免在处理方式上存在歧视。需要注意的是,非歧视并不意味着排斥对弱势群体的特别保护。第三,有益原则:增进司法效益。司法人工智能的开发需要耗费大量人力、物力等资源,应当本着有助于增加司法效益的原则规制相关算法,避免盲目、重复开发。法治类原则。第一,合法原则:坚持依法运行。所谓合法原则,是指算法设计以及通过算法所得出的结果应当符合既有的法律规范,尤其是不能违反现行法律、行政法规的强制性规定。第二,公正原则:确保司法公正。公平正义是法治的重要内容,也是司法的核心要义。司法领域对人工智能的应用必须坚持程序公正、实体公正原则。第三,责任原则:算法追责机制。鉴于算法本身并不具有责任能力,所以应当明确司法人工智能算法在开发和使用过程中人类介入的程度,以便在算法出现缺陷或滥用的情况下,可以有效地追溯到相关责任主体。完善算法追责机制,应当明确责任原则。人本原则。第一,以人为本原则:尊重人的主体性。司法领域对人工智能算法的应用不能突破人类主体地位,坚持算法服务于人、服务人民的原则,不宜让算法过分钳制司法工作人员。第二,隐私保护原则:数据处理脱敏化。司法人工智能算法在研发过程中使用大量数据,尤其是裁判文书网上发布的裁判文书涉及很多个人信息和企业信息,应当对其进行脱敏处理。第三,安全无害原则:降低算法风险值。算法在开发和应用的过程中可能存在尚未发现的损害,在关注算法功能的同时,应当注意降低算法风险,确保安全无害。技术类原则。第一,可靠性原则:保障算法准确度。算法技术标准层面应当确保技术的可靠性,将尚且无法剔除的误差率、偏离值限定在严格的范围之内。第二,可控性原则:保障算法可纠正。司法人工智能的算法应当具有可控性,确保人类对算法的控制权,尤其是算法出现偏离之后可对其予以纠正,否则将产生不可估量的风险。但应当注意的是,可控不意味着算法可以被随意操纵。第三,可监督原则:保障算法透明性。现有司法领域的人工智能应用技术大多属于弱人工智能,其智能化水平较低,因此应当提升算法的透明度,保障算法运作可被监督。第四,可解释性原则:提升算法说服力。司法人工智能算法的高阶状态是采用模拟神经网络的方式建构的,该算法的运作容易导致“算法黑箱”问题,有必要提升算法对其结果的解释力。

建构司法人工智能算法规制的基本路径

明确算法规制的主体。建构由政府规制主导,企业规制作为补充,行业自律组织贯穿始终的算法规制体系。将政府作为规制主体,发挥主导作用。政府权力规制算法的模式属于自上而下的政策实施型模式,取决于政府公权力对算法目标的期待,从而存在不同政府之间宽严程度不同的情况。政府具有规制算法的责任和权力,不过如何行使这样的权力需要慎重斟酌,过于严苛的监管可能会导致算法发展的机会丧失,但是过于宽松的监管则会牺牲公民的隐私权等一系列基本的合法权益。因此,政府权力规制应当确立算法的底线。

建议鼓励企业内部建立算法规制系统。人工智能技术开发公司在市场中寻求生存和发展壮大,其对算法规制的动力主要是为了推动企业发展。当算法规制有助于提升企业形象和市场竞争力的时候,企业便倾向于积极规制算法。但是,若市场环境处于恶性竞争的态势,那么企业内部的算法规制很可能会流于形式。唯有当市场环境对算法的弊端极其警惕时,企业内部的规制方能发挥实际效果。应当鼓励人工智能算法行业自律自治。这种规制主体依赖算法工程师个人对法律的理解运用,需要对其进行适当的法律培训。可以建构人工智能技术委员会,确立行业标准,贯彻行业自治。一方面,确保在技术上有能力实现对算法的规制;另一方面,在监管力度上,实现规制与技术发展阶段的对接,保持稳定性与灵活性之间的平衡。不过,行业自律相对具有柔性规制的特点,仍然需要结合政府权力规制和企业内部规制共同发挥作用。明确算法规制的方法。算法规制的方法应当采取人工介入与技术辅助相结合方式进行,基于人工介入规制算法,培养既懂技术又懂法律规则的综合性人才专门开展算法规制工作。可以在对技术人员进行法律培训基础上,使其借助技术规制算法。算法作为一种技术,对其进行规制包括算法错误识别、算法风险监测等,涉及企业开展的算法风险监测、公众监督举报、监管部门巡查等多个方面,应当注重对算法规制技术的研发和规范。明确算法规制的对象。算法规制的对象应当涵盖输入端、运作端和输出端。输入端是算法设计层面的规制,应当建立常态化、系统化的数据质量保障与审查机制。运作端的规制,除从数据这一输入端规制算法外,对算法本身的规制也极为关键。输出端是算法效果层面的规制,即算法可能在设计层面是符合法律规定的,但产生了不符合法律期待的效果,这就需要通过回溯机制规制算法。一般而言,只有当算法侵害相关法律关系主体的权利和利益时,才会通过法律因果关系的判定等来综合考量法律责任的分配与承担问题。完善相关立法与司法救济程序。建议明确算法规制的统一技术标准,统一规范的司法人工智能发展标准。目前有关人工智能的技术标准尚在探索之中,通过立法确立司法人工智能的统一技术标准,有助于其规范化运作。建议建立人工智能算法公开制度。由于算法是人工智能时代的核心技术,研发企业会倾向于对算法进行保密或通过知识产权法寻求保护。但就司法人工智能而言,由于涉及公共利益,应当在安全范围内最大程度公开。建议明确算法规制中合法性的审查标准、审查程序与救济途径。基于算法公开,当事人可以在专业人员帮助下监督司法人工智能算法,并经由专业委员会结合特定标准予以审查,从而构建司法人工智能算法侵害的救济途径。本文为中国法学会2022年度部级法学研究课题“司法人工智能的算法规制研究”〔课题编号:CLS(2022)Y04〕的研究成果。 (作者单位:苏州大学王健法学院)

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...