首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 31 毫秒
1.
算法时代中,"算法黑箱""算法歧视"和"算法茧房"等非正义现象引发了算法规制的需要.但算法商业秘密的存在使算法处于"黑箱"之中,成为算法正义实现的障碍.面对算法商业秘密与算法正义的张力可以从三个角度加以考量:商业秘密的公共利益平衡;算法知情同意权、算法解释权和算法拒绝权等私权制约;算法正当程序.由于对商业秘密的公共利益考量主要局限于维系商业道德和市场秩序,无法实现对算法商业秘密的有效制约.算法私权中基于一般道德和法理的算法拒绝权能够成为制衡算法商业秘密的强理由,同时,算法正义需要建构一种基于过程的,而不是仅基于结果的正当程序观念.  相似文献   

2.
自动驾驶是人工智能发展和应用的前沿领域,在迅猛发展的同时,也遇到了自动驾驶汽车的主体地位和责任认定等伦理和法律挑战。自动驾驶的伦理挑战体现在它改变了道德推理的基本形式和道德决策方式,法律挑战体现为它对生命安全价值和法律责任分配的冲击。解决自动驾驶的伦理和法律挑战需要重建算法正义观,并构建出符合算法正义观的自动驾驶道德算法。相比道义论和功利主义算法,最大化最小值算法具有理论和实践优势,能够在道德基础、功能主义和责任三个方面得到辩护。基于算法正义的自动驾驶法律责任体系包含着教义学责任和证成性责任的动态融合,并在最大化最小值算法的技术框架下破解碰撞责任难题,这对自动驾驶的技术研发和立法推动具有重要意义,是优化人机协作和迎接智能驾驶时代的理想选择。  相似文献   

3.
算法并非仅局限于计算机科学领域,其概念起源于数学领域,并且生命科学领域的研究表明生物本身也包含了一定的算法设计。从以上学科的视角重新审视证明力评判方式时,便会发现法定证据是一种人工算法,而自由心证运用的是“生物算法”。两种证明力评判方式因在许多方面不能满足算法设计目标的要素,且不能调和复杂度、容错性、可读性、确定性与统一性等诸要素之间的矛盾,暴露出各自的局限性。相较之下人工智能算法在复杂度、容错性、确定性与统一性上具有一定的优越性,在技术呈“指数爆炸”发展的时代,未来将人工智能算法引入证明力评判中具有一定的可行性,这给证明力评判方式的再度转变带来了新的契机,同时也将面临困境与挑战。  相似文献   

4.
谷佳慧 《北方法学》2023,(5):131-145
数字时代的到来促使正义理论研究进入一个新阶段。围绕数字正义、数据正义、算法正义等概念讨论所引出的核心问题是:数字时代的正义观是传统正义模式的移植,还是基于科技发展衍生出的新型正义结构?实质上,数字时代正义的内涵已发生了根本性改变:传统正义观中人的主体性地位因人工智能普及而降低,让位于技术理性;正义的作用对象扩大到机器行为,并因此产生算法公开的正义实现方式;正义的发生场域拓展到信息空间,出现场景正义和可视正义的新类别。正义内涵的变化带来了数字非正义问题,数字鸿沟、数字歧视以及数字强权成为区域和群体间不平等矛盾的新缘由。解决非正义难题需要建立全新的法律路径,在实在法层面合理分配数字权利,在程序法层面强化可视化纠纷解决方式,从而为数字正义的实现提供法治保障。  相似文献   

5.
算法时代,在机器学习技术与大数据技术的驱动下,算法创作进一步促进了人工智能的自主性.坚守作者中心主义范式下的主客体一致性标准,将无法为算法创作物提供有效的法律保护.事实上,读者中心主义对现代著作权制度也产生了深远的影响,并在作品独创性方面为科技作品、实用作品的著作权保护提供了坚实的理论基础.读者中心主义所确立的主客体分离评价标准为算法创作物视为作品提供了独创性判断的理论路径.算法自由就是作品表达自由的技术表现,故而可使算法创作物具备独创性.在否定人工智能法律主体的前提下,可以通过委托作品的权属分配机制,一方面有限承认人工智能的机器作者身份;另一方面将著作权全部归属给人类开发设计者.  相似文献   

6.
算法黑箱对算法决策提出了挑战,算法透明要求算法可解释。算法透明并不是简单的算法公开。尽管人们普遍寄希望于通过算法公开来打开算法黑箱实现算法透明,但是单纯的算法公开不仅面临着商业秘密泄露的诘难,也无法真正对算法决策作出解释。与之相比,技术上制造可解释人工智能是实现算法透明的一种新的选择。可解释人工智能不仅可以凭借不同的解释路径透视算法黑箱,还可以满足受众对算法解释的不同需求。技术的发展有赖于制度的保障,构建一套合理的制度促进可解释人工智能的发展是确有必要的。这要求在立法上规定可解释人工智能的适用场域;在行政上利用政府采购引导可解释人工智能的生产;在市场管理上借助第三方认证倒逼企业制造可解释人工智能;最终实现算法透明。  相似文献   

7.
如何认识与对待刑事司法算法决策愈发成为一个重大的理论与实践问题。鉴于刑事司法算法决策在技术与法理维度展现出的双重适应性困境,导致对其的发展定性衍生出一种刑事司法算法决策的脆弱性表征将直接支配其发展命运的观点。重新审视刑事司法算法决策在质效两方面的韧性表征,以及同其技术母体人工智能在韧性维度的同频共振,可知作为其内生性发展动力的韧性表征,乃刑事司法算法决策发展的性质定论。针对脆弱性所体现出的裂隙风险,基于福柯规训理论,引入刑事司法人本论理念与技术正当程序原理。前者为人本议题,崇尚方向性指引;后者乃技术方案,偏重制度性建构,以此二者的互补性调和,建构出规训刑事司法算法决策的完整框架。  相似文献   

8.
眭翘 《法制与社会》2013,(35):17-19
法治是指对公共权力的法律控制,也是指以法律规则对社会的规范化治理。潜规则的盛行,是法治的异化,也是法治建设中的一块绊脚石。导致司法潜规则的原因有很多,本文将从正义价值出发,简述程序正义和实体正义与司法潜规则的相互影响,以及面对程序正义和实体正义的价值冲突与平衡,我们该如何对待司法潜规则。  相似文献   

9.
算法已被广泛应用于干预或者给付行政场景。算法给行政带来了正向效益,也可能造成法治价值的失序。在规范算法方面,存在着治理工具论和权力控制论两种学说。治理工具论从法的外部视角出发,将算法作为法律的作用媒介,侧重于对算法本身的技术规制。权力控制论从法的内部视角出发,认为法律对算法的研究应穿透至算法背后的算法权力。在行政法体系内讨论算法,应在依法行政原理的支配下,通过明确算法的行政法属性实现对算法行政权的控制。算法作为一种“具有普遍约束力的决定、命令”,可被纳入行政规定的范围,若涉及外部性权利义务的分配,则算法属于法规命令。作为行政规定的算法应当以全面公开为原则、不公开为例外。可以将对算法的合法性审查嵌入到现有的审查机制中,从制定程序和内容两方面确保算法的合法性。只有从算法行政回归依法行政,才能找到合适的权力制约路径,从而实现数字时代行政法教义学体系的持续与稳定。  相似文献   

10.
算法认知偏差不仅扭曲事实,还影响人工智能法律规制质效。法学文献中的“算法”常用于指代影响权益的人工智能系统。不同于传统编程,机器学习算法是通过向数据学习以形成模型。数据、算力、AI框架、模型框架、人为干预等因素深刻影响算法作用的发挥。算法并不是对利益得失的精巧算计。大部分算法也不具有排他性的财产属性。算法是人工智能体系中相对透明和确定的因素。“算法黑箱”并非人为“黑幕”,而是因基本原理所限导致的验证性和解释性的不足。滥用算法概念会导致人工智能法律规制的失焦、失据、失鹄、失度。数据法与专门立法相结合是人工智能规制的恰当立法形态。过度强调算法不仅造成权利、产业和科技目标难以调和,还可能导致过度监管。算法只有在以人的责任为基础的人工智能系统中才能得到稳妥规制。我国未来应该制定人工智能专门立法。业已开展的算法治理不宜过度冒进,宜审慎处理好当前与未来、名义与实质、规范与发展的关系。在准确的算法认知指导下,算法备案和公示的问题能够得到良好解释和妥善解决。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号