首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
王怀勇 《政法论丛》2021,(1):105-116
随着算法在金融领域应用的深入,算法固有的缺陷和特性也逐渐与金融本身的风险和逻辑发生耦合,形成了算法歧视、算法绑架、算法趋同等新型金融风险。然而,现有的金融科技算法规制框架存在主体、对象和工具层面的诸多问题,导致金融科技算法风险规制的低效和失灵,因而需要进行规制路径的优化和调适。从主体层面出发,应构建以金稳会为基础的规制协调机制和监管者、行业协会、企业分工合作的多元规制格局;从对象层面着手,应在将所有算法应用业态纳入统一规制框架的基础上,确立以"数据规模"为标准的规制门槛;从工具层面调整,应构建以"快捷沙盒"为制度载体的算法测试制度和可选择的算法披露机制,并积极探索自动化监管模式和代码规制的落地和应用。  相似文献   

2.
自动化行政促生法律代码化,并引发算法噬夺立法权现象。这表现为算法规则对法律规则的技术性修正、对实施性立法的替代、对上位立法的僭越以及对法律规则体系的整体性架空。算法对立法权的噬夺成就一项立法性算法权力。立法性算法权力的产生原因表明其具有技术层面的存在必要性,却并不必然具备法律面向的合理性。对立法性算法权力施加法律规制的必要性同时存在于技术层面和法律层面。在技术层面,这种必要性体现在立法性算法权力基于自身技术特性具有负外部性影响;在法律层面,这种必要性体现在立法性算法权力对依法行政原则、立法权分配格局产生根本动摇。对立法性算法权力进行法律规制,需要汲取当下算法规制的理论基础与制度实践,并结合立法性算法权力的自身特征,着眼于权力内容的实体限定与权力行使方式的程序限定。  相似文献   

3.
算法和数据保护之间形成了互相掣肘又互相促进的复杂关系,实际体现了科技与法律的互动关系。算法技术的突破加剧权力失衡和技术风险,导致个人权利实现效果不彰。个人法益保护有赖强化数据控制者责任。在监管机构缺乏必要资源或信息时,适宜采用元规制模式,即通过正反面激励,促使数据控制者本身针对问题做出自我规制式回应。这种模式切实体现在欧盟数据保护改革中。在检讨GDPR第22条算法条款的基础上,应发展数据控制者自我治理机制予以补足。在透明度原则和问责原则指引下,数据控制者有义务通过数据保护影响评估、经设计的数据保护等工具,构建完备的算法审查机制;同时通过革新算法解释方法矫正权力失衡,为个人权利救济提供保障。  相似文献   

4.
《北方法学》2022,(1):36-49
人脸情绪识别算法是人脸识别的特殊变体,也是情感计算的重要构成。由于技术的更迭、应用的泛滥和风险的特殊,这一算法在实践中存在大量隐患,亟待法律规制。在美国、欧盟和我国的法律框架下,人脸情绪识别算法目前可以通过"算法"和"数据"两条路径进行部分规制。然而,算法本身的特殊性和立法技术的局限性,决定了还有大量风险无法得到回应,更难以实现权利保障和技术创新的平衡。为此,应当引入"风险为本"的规制思路:以人脸情绪识别算法在不同场景下的正当性、安全性、准确性和可责性四类风险作为法律规制的核心;通过规则设计,实现算法部署的价值公允、算法运行的数据安全、算法决策的准确可靠和算法追责的透明便捷。  相似文献   

5.
外国法解释模式研究   总被引:1,自引:0,他引:1       下载免费PDF全文
徐鹏 《法学研究》2011,(1):196-207
外国法解释不同于外国法查明。借助解释模式这一概念,可将外国法解释的目标、主体、对象和途径等不同要素统合为有机整体,置于国际私法和法律解释理论的双重脉络中予以探究。在现有外国法解释模式中,解释目标一般为确定外国法在其所属国的意义,故裁判者须完全摒弃先见,作为忠实的外部观察者摹写外国法律共同体对外国法的客观理解。此模式在司法实践中的困境揭示出其在相当程度上偏离了法律解释的内在规律。应重新厘定外国法解释目标,结合外国法适用的“情境化”特点,以法律论证理论重构外国法解释模式。  相似文献   

6.
张涛 《中外法学》2024,(1):261-279
自动化决策并非纯粹的技术工具,而是一种社会技术系统,由社会子系统和技术子系统构成,其引发的风险具备社会性,有必要进行规制。以个体赋权、信息规制、技术问责为代表的传统规制路径缺乏社会技术思维,容易陷入“破损谬误”泥淖,难以因应自动化决策的风险与挑战,无法有效实现法律及伦理规范提出的规制目标。算法审计作为一种社会技术方法,能够很好地契合自动化决策的社会技术系统属性,具备诸多方法论优势和国际实践经验。从建构社会技术系统工程的角度出发,根据审计学的一般原理,我国可以从规范指引、实施主体、方法选择和实施结果四个方面推动算法审计实现制度化发展,并在此基础上探索基于场景的算法审计,实现可信赖的自动化决策。  相似文献   

7.
人工智能时代,算法日益介入社会生活中。我国对算法的治理刚刚起步,现有的算法治理模式并不能适应算法技术的发展。基于对我国算法治理现状和治理困境的分析,提出从权力到权利的算法治理路径,并借助“权利束”这一概念,从整体上对算法权利进行构思,以实现算法控制者和算法相对人的利益平衡。  相似文献   

8.
孙跃元 《河北法学》2023,(4):156-175
算法决策应用的外部风险具有聚合性和累积性特征,侧重算法行为端,在技术运用过程中向多数不特定群体扩散,将其类型化后包括社会公共利益和实质正义受损、人的主体性地位和合法权益受挑战两方面。外部风险不同于一般侵权行为的损害后果,无法适用传统归责原则。为了有效促进算法技术和监管的良性互动,以公共治理路径为视角,将算法决策嵌入网络社会架构中分析当下治理的局限性,并提出较完善的治理方案。在思路上,应遵循分类分级的精准化治理方法,选择“软”“硬”法为协同治理工具,坚持安全和发展并重的治理理念。在路径上,应着眼于算法决策应用的生命全周期,用算法解释机制解决算法备案制失灵的问题,以风险比例确立算法决策系统的分类与规制方向,并以平台为主体多途径构建算法综合性问责体系,形成治理合力。  相似文献   

9.
对于数字经济发展带来的诸多挑战,需要在经济法理论的不同层面做出具体回应。首先,在本体论和发生论层面,数字经济并未改变经济法学既有的基本理论框架,运用经济法理论仍可解释数字经济发展的基础及其经济法规制问题;其次,在价值论层面,对数字经济进行经济法规制,仍需遵循和兼顾经济法的各类价值,这更有利于保障和促进数字经济的发展;最后,在规范论和运行论层面,针对数字经济所带来的诸多新问题,需要正视相关主体及其权利、责任追究等方面的特殊性,改变不适应数字经济发展的理论和制度,并在经济法的制定和实施中加以落实。上述三个层面体现了数字经济时代经济法理论的“变与不变”,把握上述“因应之道”,不仅有助于揭示数字经济与经济法的紧密关联以及相应的经济规制原理,深化经济法、信息法和数字法治的理论研究,也有助于切实推进制度完善,促进数字经济的有序健康发展。  相似文献   

10.
就业性别歧视对女性求职者受宪法所保护的平等权、劳动权造成现实的侵害风险。对就业性别歧视判定标准问题,学界已有较为丰富的研究,但传统判定标准在算法时代遭遇适用困境。算法掩盖下的就业性别歧视具有自主性、隐蔽性、延续性和结构性等特征,这不仅可能对求职者的权利主张造成过重的举证负担,亦无法解决算法供应商等第三方主体的归责问题。因此,应当从事前与事后两个维度,探讨对算法就业性别歧视进行有效规制的路径。在概念界定上,应通过扩充就业性别歧视概念的外延,将算法就业性别歧视纳入到反歧视法的规制范围内,使新加入的算法供应商等第三方主体参与到责任分担过程。通过在算法决策过程中引入技术性正当程序理论及其机制框架,搭建起权力主体配合下的“理解—参与”模式,借助合规审计追踪、算法解释等方式,有效控制算法就业性别歧视的风险,保障女性求职者平等权和人格尊严等权益。  相似文献   

11.
算法黑箱对算法决策提出了挑战,算法透明要求算法可解释。算法透明并不是简单的算法公开。尽管人们普遍寄希望于通过算法公开来打开算法黑箱实现算法透明,但是单纯的算法公开不仅面临着商业秘密泄露的诘难,也无法真正对算法决策作出解释。与之相比,技术上制造可解释人工智能是实现算法透明的一种新的选择。可解释人工智能不仅可以凭借不同的解释路径透视算法黑箱,还可以满足受众对算法解释的不同需求。技术的发展有赖于制度的保障,构建一套合理的制度促进可解释人工智能的发展是确有必要的。这要求在立法上规定可解释人工智能的适用场域;在行政上利用政府采购引导可解释人工智能的生产;在市场管理上借助第三方认证倒逼企业制造可解释人工智能;最终实现算法透明。  相似文献   

12.
公共机构适用算法进行决策对国家治理能力有明显赋能,但可能对个人权利的保障带来新的挑战。既有的算法规制多侧重正当程序的控制,缺乏公共决策适用算法技术的实体边界。尽管各国对算法技术应用于公共决策的实体边界尚未有相对一致的规范,但传统法律保留原则仍可成为思考这一问题的基本框架。法律保留确定了公共决策适用算法时“原则禁止,例外允许”的关系模式,也科以立法者在政府效能与权利保护之间的具体权衡义务。基本权利保障、风险的可控性、价值判断和自由裁量作为禁区以及算法类型和所涉数据等都应成为法律可否例外授权的考虑因素。有效的算法影响评估制度作为有助于划定决策边界的预防性手段,同样可在源头处补强算法纳入公共决策的民主性和可问责性。  相似文献   

13.
大数据下的信用评级机制生成独立于数据本体的数字人格。数字资本主义利用算法控制来推动金融信用的产生与发展,进而监控资本主义利用私有化"数字人格"实施黑箱管控。我国基于数据驱动的社会信用体系属于数字技术公共基础设施,在矫正监控资本主义逐利偏差的同时,生成与法律强制下行政管理方式相并行的算法行政。算法行政作为全新的权力工具导致数字社会治理机制的范式转化,这对法治国的传统法律原则提出挑战。福柯的"规训"理论可以解释基于数字人格的权力运作以及社会信用体系的正当性,也能解构算法行政生成的"自我规制型"问责制,由此生成全新的数字行政法学。这为我国社会信用系统的法律规制提供新形态的学科支撑,也为该制度输出提供西方话语体系中的说服工具。  相似文献   

14.
算法的广泛应用使得平台运行日益自动化,加剧了网络平台事前的主观过错认定机制困境,导致现有平台监管追责机理模糊化、治理节点滞后、责任设置不符合比例原则.人工智能时代的平台监管,既应符合平台底层的技术逻辑,也应符合主客观相一致、责罚相适应的法律原则.因此,应穿透网络平台运行的技术面纱,将平台监管的触角和追责视角直接指向背后的算法责任.技术原理是中立的,但是技术的应用是包含主观意图的,应将平台算法设计部署的主观过错作为问责依据.平台的主观过错认定需明晰可回溯的问责点,可通过算法评估制度设置,并以算法备案制度事前固定问责点.事后可要求平台根据备案内容作出算法解释,说明设计的目的和预期后果,结合客观损害结果予以归责.平台算法法律责任的设置上,对于本身的设计过错作为实质责任予以归责,如果平台提供虚假备案与解释则承担不真实解释责任.  相似文献   

15.
伴随着算法应用中个人自治价值不断被消解、社会秩序价值受到侵害以及传统治理框架频繁失灵,尤其是以ChatGPT为代表的基于统计学习神经网络的典型黑箱模型对现有问责机制带来了极大挑战,算法透明引发各国立法者高度关注。然而,提升算法透明度与保护商业秘密的规范目标之间存在紧张关系。算法自动化决策背后存在多元价值诉求的叠加,这体现为不可避免地将个人利益、公共利益、经济效率、公平正义等价值相互交织在一起,使得实现算法透明与保护算法商业秘密二者之间的取舍成为难题。主流利益平衡理论仅从利益位序去协调二者之间冲突的思路,具有局限性,应当在“调和论”视角下以“促进算法经济的高质量发展”为目标相互协调:一方面,应选择适当的算法透明工具,构筑算法解释的体系化框架,同时辅以多元算法监督机制;另一方面,应合理保护算法商业秘密,完善商业秘密的权利限制制度。  相似文献   

16.
风险社会中技术规制基础的范式转换   总被引:1,自引:1,他引:0  
刘铁光 《现代法学》2011,33(4):68-78
风险社会与技术之间的关联性表明,当代社会技术规制显得异常紧迫。当下以技术工具理论为基础范式的技术规制,与风险社会所提供的理论指引相悖,导致民族国家的立法与政策对技术规制不力,社会实践要求技术规制必须进行范式转换。安德鲁·芬伯格所提出的技术批判理论与风险社会理论在理念上的契合,应成为风险社会中技术规制的基础范式,在技术规制的体制构建上,应坚持"技术研究与技术应用结合规制、清晰责任制度、技术民主以及技术规制的国际合作与协调"等原则。中国处于压缩现代性的风险社会,而且现实中技术问题要求中国必须以技术批判理论为基础范式,构建技术规制体制。  相似文献   

17.
网络平台差别化定价的应用包括商家定价与平台定价场景。基于市场博弈结构分析,作为传统平台规制路径的反垄断机制与消费者权益保护机制存在较大的规制失灵成本。网络平台差别化定价的核心场景特征为,平台与商家以个人信息作为"消费者支付意愿"的判定基础。在当下信息技术发展场景中,个人信息保护应当以维系信息关系为核心价值目标。在用户——平台关系场景中,这一信息关系体现为数字信任。维系数字信任,成为平台经济持续发展的关键。基于交易成本比较分析,应当通过设置信任公地资源使用规则的方式,建构平台经济中的可信承诺。在差别化定价场景中,数字信任维系路径具体包括:规制价格推荐算法,推动数据共享,设置价格算法解释规则,完善科技伦理治理机制。  相似文献   

18.
作为方法论意义的法律文化——关于“法律文化”的一个释义刘作翔法律文化是一种非常复杂的社会文化现象。“法律文化”这一概念本身就蕴含着较为丰富的内容。因此,要对这一概念作出较为精确的表述、限定和解释,是一件比较困难的事情。有位学者在分析产生这一现象的原因...  相似文献   

19.
作为对象化的法律文化——法律文化的释义之一   总被引:3,自引:0,他引:3  
法律文化是一种非常复杂的社会文化现象。“法律文化”这一概念本身就蕴含着较为丰富的内容。因此,要对这一概念作出较为精确的表述、限定和解释,是一件比较困难的事情。按照目前学术界对法律文化概念的划分,法学家们可以主张所谓“狭义法律文化观”,也可以主张所谓“...  相似文献   

20.
人工智能生成技术方案的出现,使专利法面临着诸多方面的挑战。理论层面,鉴于人工智能法律主体资格的缺失,无论是以洛克劳动学说和黑格尔人格学说为代表的“自然权利论”,还是以实现利益最大化为基础的“创新激励论”,都无法为人工智能生成技术方案的专利保护正当性提供充分的理论证成。实践层面,由于相关法律关系的复杂性,人工智能生成技术方案的专利法规制中,则存在着在可专利性判断标准的失灵问题、获得专利保护后的权责分配问题以及进入公有领域后的风险控制问题等一系列实践难题。因此,有必要通过引入人工智能作为技术“发明人”的制度设计、创立人工智能生成技术方案的可专利性标准、构建人工智能生成专利技术的权责分配规则、设置人工智能生成现有技术的风险防范机制等法律对策,消除理论争议并化解实践难题,以此实现专利法对人工智能生成技术方案的有效规制。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号