首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
人工智能(AI)作为类人类智能,无论我们是否赋予其主体资格,在解决其法律责任问题时,都必须对其行为进行解释,为此,探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性的全新路径来推进,而不是纠缠于当下学界关于人工智能主体地位与法律责任的各种主体论与责任理论。人工智能的可解释性,亦即解释人工智能如何在大数据的基础上进行算法决策。然而,在AI领域,虽然以深度学习为代表的人工智能技术已取得了令人瞩目的成就,但如何确保以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据,仍是一个无法得到解决的难题,人工智能黑箱释明难题决定了人工智能行为的不可解释性。法律责任的本质是答责,不具有可解释性的人工智能不能自我答责,因此其无法承担法律责任;法律责任的目的是预防,不具有可解释性的人工智能无法实现法律责任的预防目的。人工智能法学研究的下一个前沿问题,是人工智能的可解释性问题。  相似文献   

2.
张琳琳 《当代法学》2023,(5):100-111
人工智能在司法裁判领域中的应用对于提高司法效率、促进司法公正具有显著效果。然而,新技术与传统审判领域的碰撞融合不可避免地冲击着原有的审判责任与产品责任体系。在责任的衔接、认定和承担方面存在着责任衔接链条中断、主观心理判断困难、因果关系证明困难以及责任推诿加剧的困境。责任归结困境的形成源于算法权力对审判权的冲击、主体自身存在卸责倾向、算法的固有缺陷等因素。破解当前人工智能司法应用中的责任归结困境的出路在于理顺不同责任之间的衔接。在此基础上,针对责任认定困难和责任推诿加剧的具体情况,对原有责任框架进行调适。  相似文献   

3.
4.
周翔 《比较法研究》2023,(3):188-200
算法可解释性,是被现有算法规制理论所忽略的技术概念。由于缺乏对这一概念的引入和诠释,算法风险的准确判断与归纳、规制工具的主次位阶性、设置合理的规制效果目标等方面,均存在不同程度的认识偏差。对这一概念的技术视角分析确有必要,算法解释有两大差异较大的技术类型,算法解释的技术能力划定了可解释的最大边界,当前技术条件不一定满足算法规制的需求,原因是解释技术的开发并不是为算法规制专门设计的。这一论断有助于厘清既有的算法规制理论,在算法风险层面,解释技术直接破解的只是算法黑箱问题;在规制工具层面,一切制度工具应考虑解释技术的可行性;在规制目标层面,要结合解释针对的用户、场景和用途设置预期。  相似文献   

5.
人工智能司法决策的可能与限度   总被引:5,自引:0,他引:5       下载免费PDF全文
利用人工智能的推理技术和机器学习技术,以及建立海量且有效的法律知识库,算法有可能接管司法决策。目前已经获得广泛应用的法律信息检索系统、法律专家系统皆属辅助型法律智能系统,它们的研发和使用为决策型司法智能系统奠定了技术和经验基础。然而,要使司法决策成为可能,人工智能必须在运用法律推理、掌握法律语言以及深度学习经验性知识方面取得决定性突破。人工智能司法决策必然要求重新审视法律推理逻辑,重构审判责任理论,重塑法官职业身份内涵,甚至改变司法决策过程中人机互动的关系格局。为了避免变革所带来的负面影响,须划定人工智能司法决策模型建构的限度。人工智能的技术应用应符合国际通行的技术安全标准,介入应以司法公正为价值追求。通过构建合理的算法规则机制,对算法不透明性提供必不可少的制度约束。  相似文献   

6.
杨志航 《北方法学》2023,(2):150-160
随着人工智能司法技术的迅速发展,完全的人工智能裁判不再只是幻景。人工智能裁判是否具备司法正当性,则是法理学研究应该关注的焦点。司法裁判本质上是在法官主持下,以追求共同正义为目标的裁判说理活动。目前,人工智能司法正当性的反思被关于其优势的讨论所覆盖,这将导致产生以下观念:第一,技术优先主义,即以技术革新取代主体正当;第二,效率优先主义,即以判决效率取代判决正当;第三,判决确定性优先主义,即以判决确定性取代共识正当。然而,人工智能司法的优势不能从根本上弥补其正当性的缺失,这也使得人工智能无法完全取代人类独立地进行裁判。  相似文献   

7.
2017年7月国务院发布的《新一代人工智能发展规划》明确提出了智慧法庭的建设,以促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判能力和审判体系的智能化。由此可见,人工智能在司法裁判中发挥的作用越来越大,对传统司法模式有一定冲击,也影响着司法人员的判案思维,但鉴于人工智能发展现阶段仍存在诸多问题,在面临各方困境时,文章运用规范分析结合实证分析、域内外资料整合,致力于分析人工智能的技术发展、司法系统的应用等问题,并尝试提出相关建议。  相似文献   

8.
算法黑箱对算法决策提出了挑战,算法透明要求算法可解释。算法透明并不是简单的算法公开。尽管人们普遍寄希望于通过算法公开来打开算法黑箱实现算法透明,但是单纯的算法公开不仅面临着商业秘密泄露的诘难,也无法真正对算法决策作出解释。与之相比,技术上制造可解释人工智能是实现算法透明的一种新的选择。可解释人工智能不仅可以凭借不同的解释路径透视算法黑箱,还可以满足受众对算法解释的不同需求。技术的发展有赖于制度的保障,构建一套合理的制度促进可解释人工智能的发展是确有必要的。这要求在立法上规定可解释人工智能的适用场域;在行政上利用政府采购引导可解释人工智能的生产;在市场管理上借助第三方认证倒逼企业制造可解释人工智能;最终实现算法透明。  相似文献   

9.
刘鑫 《科技与法律》2022,(1):118-126
人工智能作为当今最为尖端的技术类型之一,涉及算法设计、数据整合、语音识别、图像处理等诸多技术内容,其基本架构包括基础层、感知层、认知层和应用层四个技术层次,每个层次中相关技术的不同技术特征与功能形态,导致了不同的可专利性判定结论.为实现对人工智能技术的充分专利保护,应对人工智能技术的基本架构进行全面解析,并根据我国专利...  相似文献   

10.
透明度作为人工智能风险治理的一项基本要求,其现实基础在于人工智能应用引发的信息不对称以及这种不对称所蕴含的对个体受保护利益或社会秩序的侵害风险。当下,信息不对称主要存在于人工智能系统分别作为产品、交互性媒介及自动化决定系统而影响现实世界等三类场景之中。相应地,透明度规则的主体内容应为人工智能系统提供者、运营者为满足相对人透明度需求而负有的信息披露义务。考虑到技术保密性对于产业发展的关键作用,且对外披露亦不是增加系统安全性的有效方式,对人工智能技术应以不强制披露为原则。诸项透明度规则既可归于“人工智能风险治理”主题之下,同时又分别属于个人信息保护法、消费者权益保护法、产品质量法、合同法、程序法乃至网络安全法规则,彰显出人工智能法的领域法特征。  相似文献   

11.
随着人工智能技术在司法领域的应用,相关研究的热度持续高涨,但仍需要探讨的是人工智能在司法实践中运用的实际情况:包括何种人工智能发挥了作用、作用何在以及为何会在有些方面产生效果而其它方面又效果不彰。总体而言,人工智能在中国司法实践中取得了一定的成效,主要体现在警务活动与司法辅助性活动中,但仍难称理想。小范围的成功是源于成熟通用人工智能技术的普适性适用,而大部分司法人工智能产品难以发挥作用是由于未结合专门司法需求展开,所投入的资金与人才资源远远不足。未来应当降低对于司法人工智能的盲目期待,将研发重心从通用领域转向司法专用领域,转变司法人工智能的投入模式,大力培养既懂法律又懂技术的专门化、复合型人才。  相似文献   

12.
随着人类社会开始迈入人工智能时代,人工智能在司法实践中的运用逐步显现.在域外,COMPAS等AI裁判在一些边缘性司法决策活动中崭露头角.在我国,人工智能在审判决策环节的运用虽然尚未得见,但辅助性使用已现端倪.从整体而言,无论是域外还是国内,由于社会认同、技术发展与司法伦理等多重障碍,AI法官的运用在中短期内都较难全面、...  相似文献   

13.
人工智能既能提供辅助性司法活动的实践工具,也能为更清晰、严密地呈现司法裁判活 动提供新分析工具。面对挑战,司法裁判理论的回应是多层面的:一方面,司法裁判在性质上应为通过 对话在多种可能之案件版本和规范性假设中进行选择的过程;另一方面,司法推理的过程也应被重构, 表现为“裁判程序的标准化与模式重构”与“法官自由裁量的理性化”两方面。但基于规则逻辑来运 作人工智能方法也有其限度,它无法自行应对案件评价和法政策考量的任务,因而无法完全取代人类 裁判者。未来人工智能在司法裁判中的具体影响方式和范围一定程度上依赖于法学研究的水平。  相似文献   

14.
周翔 《法学杂志》2024,(1):111-127
较之于裁判结果预测,我们更应关注司法人工智能的辅助说理能力。司法人工智能定位于裁判说理的辅助地位,在于算法的解释技术难以满足司法公开的要求,推理过程难以对接庭审的复杂辩论,推理的方法也难以改造成司法推理的方式,以上局限决定了司法人工智能难以独立完成针对裁判结果的说理任务。人机间更合适的定位应当是由法官承担说理责任,机器予以全面辅助。人工智能的辅助价值体现在为结论寻求充分的理由,集中于提升文书写作的水准。生成式大模型等新技术的出现,提升了司法人工智能辅助说理的能力,技术实现的方法具体包括实体方面提供更为充分的大小前提素材,形式方面提供文书写作的规范体例。  相似文献   

15.
环境权可司法性的法理与实证   总被引:1,自引:0,他引:1  
吴卫星 《法律科学》2007,25(6):23-31
受传统人权理论的影响,环境权的可司法性一直受到质疑,有学者甚至进而否认环境权是一项独立的人权.可以说,环境权的可司法性研究,是我国环境权理论研究中的一个瓶颈问题.考诸各国法制实践,环境权的司法救济有直接救济和间接救济两条路径,而其司法哲学基础则为司法能动主义.  相似文献   

16.
17.
如何认识与对待刑事司法算法决策愈发成为一个重大的理论与实践问题。鉴于刑事司法算法决策在技术与法理维度展现出的双重适应性困境,导致对其的发展定性衍生出一种刑事司法算法决策的脆弱性表征将直接支配其发展命运的观点。重新审视刑事司法算法决策在质效两方面的韧性表征,以及同其技术母体人工智能在韧性维度的同频共振,可知作为其内生性发展动力的韧性表征,乃刑事司法算法决策发展的性质定论。针对脆弱性所体现出的裂隙风险,基于福柯规训理论,引入刑事司法人本论理念与技术正当程序原理。前者为人本议题,崇尚方向性指引;后者乃技术方案,偏重制度性建构,以此二者的互补性调和,建构出规训刑事司法算法决策的完整框架。  相似文献   

18.
19.
在美国,司法能动的兴起和实施有其特定的制度前提条件,而在我国实施能动司法,没有体制的依托,效颦域外,难免是无本之木。如果说宪政制度是"源"的话,那么能动司法则是"流",无视我国政治制度的实际情况、法理的障碍以及司法的谦抑属性,在司法层面采纳能动司法的理念和做法,主动出击,企图让司法来承担维护稳定、化解一切社会矛盾的政治功能,这必将成为司法的难以承受之重,最终丧失司法真正应有的功能。  相似文献   

20.
毛高杰 《河北法学》2020,38(5):92-103
我国的人工智能司法发展具有明显的突变特色,缺乏足够的制度和理论调适,广泛应用会带来司法逻辑的内在冲突。司法的社会技术特性和人工智能的自然技术特性之间具有天然的亲和性,为我国人工智能司法广泛应用提供了工具理性基础。但人工智能介入司法会带来原有社会黏合基础改变,无法完全应对司法过程的随机性和偶然性因素,并且会因为技术竞争带来新的不正义。需要扩展法律正义的蕴含,将法律正义的纯粹道德内核扩展为功利-道德内核,将司法从社会技术转换为技术-社会技术;在司法结构上设置技术-社会的双重竞争性机制,以维护基本的演化平衡;通过技术-社会互动的重构实现人工智能介入后的融合正义司法模式。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号