首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 500 毫秒
1.
2.
算法已被广泛应用于干预或者给付行政场景。算法给行政带来了正向效益,也可能造成法治价值的失序。在规范算法方面,存在着治理工具论和权力控制论两种学说。治理工具论从法的外部视角出发,将算法作为法律的作用媒介,侧重于对算法本身的技术规制。权力控制论从法的内部视角出发,认为法律对算法的研究应穿透至算法背后的算法权力。在行政法体系内讨论算法,应在依法行政原理的支配下,通过明确算法的行政法属性实现对算法行政权的控制。算法作为一种“具有普遍约束力的决定、命令”,可被纳入行政规定的范围,若涉及外部性权利义务的分配,则算法属于法规命令。作为行政规定的算法应当以全面公开为原则、不公开为例外。可以将对算法的合法性审查嵌入到现有的审查机制中,从制定程序和内容两方面确保算法的合法性。只有从算法行政回归依法行政,才能找到合适的权力制约路径,从而实现数字时代行政法教义学体系的持续与稳定。  相似文献   

3.
4.
《个人信息保护法》第24条标志着算法解释权在制度层面得以确立。然而,算法控制者往往将算法视为核心竞争力并以商业秘密的形式进行保护,受算法影响者对算法解释的合理诉求与算法控制者对算法保密的现实需要之间不可避免地存在着冲突与张力。面对二者的紧张关系,无论是全然废除算法解释规则,还是算法解释权当然优先,抑或诉诸漫无边际的利益衡量,均非可取之道。为避免冲突激化,不宜将“算法黑箱”完全打开,而只需将其“掀开最小缝隙”,至受其不利影响者可见的程度即可。在“掀开最小缝隙”理论下,算法解释权的行使前提“对个人权益有重大影响”应从严把握,算法解释的内容应限定为算法运行逻辑而非算法本身。同时,商业秘密的“秘密性”需作出澄清,受算法影响者还应负有初步证明责任与保密协议的签订义务。如此方可在最大程度上实现算法解释与商业秘密的冲突化解。  相似文献   

5.
算法时代中,"算法黑箱""算法歧视"和"算法茧房"等非正义现象引发了算法规制的需要.但算法商业秘密的存在使算法处于"黑箱"之中,成为算法正义实现的障碍.面对算法商业秘密与算法正义的张力可以从三个角度加以考量:商业秘密的公共利益平衡;算法知情同意权、算法解释权和算法拒绝权等私权制约;算法正当程序.由于对商业秘密的公共利益考量主要局限于维系商业道德和市场秩序,无法实现对算法商业秘密的有效制约.算法私权中基于一般道德和法理的算法拒绝权能够成为制衡算法商业秘密的强理由,同时,算法正义需要建构一种基于过程的,而不是仅基于结果的正当程序观念.  相似文献   

6.
人工智能时代,算法日益介入社会生活中。我国对算法的治理刚刚起步,现有的算法治理模式并不能适应算法技术的发展。基于对我国算法治理现状和治理困境的分析,提出从权力到权利的算法治理路径,并借助“权利束”这一概念,从整体上对算法权利进行构思,以实现算法控制者和算法相对人的利益平衡。  相似文献   

7.
解正山 《现代法学》2020,(1):179-193
算法决策正成为经济与社会体系的一部分,一方面,它创造了显著的社会与经济价值,但另一方面,不公不义的预测或推断会损及个人自主与尊严从而使算法备受质疑。由于算法无法解决自身导致的妨害问题,且算法控制者与数据主体间存在明显的信息或权力不对称,因此,有必要赋予个人一项具体的数据权利——算法“解释权”,以强化其对于己不利的算法决策提出异议的权利,进而促进算法正义、保护个人自主与尊严。不过,利用“解释权”对抗算法妨害虽然必要但并不充分,其在技术上面临可解释性难题,且与商业秘密存在紧张关系。因此,算法决策需要统合规制,需要进一步增强算法决策的社会控制,优化算法应用监管。  相似文献   

8.
自动化决策算法应受知识产权保护的正当性,可以通过功利主义的激励论与对价论予以证成。但现有知识产权制度中的确权模式与客体审查规则却不能容纳自动化决策算法成为知识产权之客体。“保证公开”与“确认保密”的既有知识产权确权模式妨碍算法监管。同时,算法客体属性决定了其难以在知识产权制度中完成客体识别。通过建构注册算法专有权制度对自动化决策算法予以知识产权保护,且能够协同促进算法监管。具体而言,首先,注册算法专有权制度可凭借注册制,满足知识产权确权与多元化社会监管对信息披露的差异化需求。其次,以注册制为手段,实施自动化决策算法社会化利用管制,可帮助专有权人对自动化决策算法社会化利用行为进行专有控制。最后,注册算法专有权制度以专有性权利为对价换取知识公开,能够有效促进算法知识信息的传播。  相似文献   

9.
算法的广泛应用使得平台运行日益自动化,加剧了网络平台事前的主观过错认定机制困境,导致现有平台监管追责机理模糊化、治理节点滞后、责任设置不符合比例原则.人工智能时代的平台监管,既应符合平台底层的技术逻辑,也应符合主客观相一致、责罚相适应的法律原则.因此,应穿透网络平台运行的技术面纱,将平台监管的触角和追责视角直接指向背后的算法责任.技术原理是中立的,但是技术的应用是包含主观意图的,应将平台算法设计部署的主观过错作为问责依据.平台的主观过错认定需明晰可回溯的问责点,可通过算法评估制度设置,并以算法备案制度事前固定问责点.事后可要求平台根据备案内容作出算法解释,说明设计的目的和预期后果,结合客观损害结果予以归责.平台算法法律责任的设置上,对于本身的设计过错作为实质责任予以归责,如果平台提供虚假备案与解释则承担不真实解释责任.  相似文献   

10.
符合可理解、可靠和可控等内在要求的可信算法是防范算法风险和构建算法信任的基础,算法的可信控制应该成为算法治理的核心.通过法律的可信控制,即按照法律嵌入和法律调节的规制逻辑,通过贯穿于算法的技术层、应用层和治理层的系统化制度安排,确保算法以可信任状态得以设计、部署、应用和执行,是实现算法可信的有效方式.系统地构建算法可信控制的制度体系,需要从算法本体的维度,通过完善透明度规则、推动算法伦理法律化和探索算法验证评估制度等措施确保算法自身的可信度,并从算法关系的维度,通过明确算法权利、强化算法问责和拓展监管体系等制度,约束算法相关主体的行为.  相似文献   

11.
算法在提供诸多利好的同时,也产生了算法歧视和偏见、算法过度窥探个人隐私、算法推荐滥用、算法合谋实施垄断等算法失范现象。现阶段软法和硬法都通过相应路径对算法失范现象予以矫正,以期保障算法正义。算法正义的硬法保障路径虽对突出问题及时反应,但仍存在回应性不足、治理手段单一、规制成本较高等局限性。软法的开放性、灵活性、低成本等特点与算法正义高度契合,使算法正义的软法保障路径具有及时回应性、高度共治性、成本较低等优越性。鉴于现阶段软法保障路径较为原则化,建议从算法伦理审查中引入多方伦理审查机制、算法行业加强行业自律、软法文本增加权利激励内容等路径予以具化。同时提出,唯有软法和硬法相耦合的保障路径才能真正满足算法正义的实现需求。  相似文献   

12.
13.
周翔 《比较法研究》2023,(3):188-200
算法可解释性,是被现有算法规制理论所忽略的技术概念。由于缺乏对这一概念的引入和诠释,算法风险的准确判断与归纳、规制工具的主次位阶性、设置合理的规制效果目标等方面,均存在不同程度的认识偏差。对这一概念的技术视角分析确有必要,算法解释有两大差异较大的技术类型,算法解释的技术能力划定了可解释的最大边界,当前技术条件不一定满足算法规制的需求,原因是解释技术的开发并不是为算法规制专门设计的。这一论断有助于厘清既有的算法规制理论,在算法风险层面,解释技术直接破解的只是算法黑箱问题;在规制工具层面,一切制度工具应考虑解释技术的可行性;在规制目标层面,要结合解释针对的用户、场景和用途设置预期。  相似文献   

14.
人工智能推算技术中的平等权问题之探讨   总被引:3,自引:0,他引:3  
徐琳 《法学评论》2019,37(3):152-161
  相似文献   

15.
基于个人信息的算法自动化决策越来越普遍,我国《个人信息保护法》和相关国内外法律都引入算法解释权加以应对。但由于算法具有黑箱性、不确定性与复杂性,算法解释权是否应理解为一般性权利还是限定性权利,要求系统性解释还是个案性解释、事前解释还是事后解释、人工解释还是机器解释,都存在解释争议与适用困境。在原理层面,这一争议与困境源于个人算法控制论。应以沟通信任原则重构算法解释权,将算法解释权的性质视为一种程序性权利,而非实体性权利。算法解释权制度也应进行重构,建议根据自动化决策所处的行业领域、市场化程度、个案影响、企业能力而对其内容、程度、时间和方式作不同要求。  相似文献   

16.
17.
18.
《北方法学》2021,(1):151-160
算法的黑箱属性在赋予算法使用者算法权力的同时也威胁着算法相对人的合法权益。以公开算法代码等信息为手段的算法透明措施,成为规范算法权力和保护算法相对人合法权益的重要治理策略之一。但碍于算法的商业秘密属性、算法技术的复杂程度和信息披露对象技术能力等因素的限制,算法透明所能实现的效能有限。为更好发挥算法透明的作用,可从算法代码等信息的公开、算法审查的启动程序、相关审查人员的技术要求、算法审查结果的反馈,以及加强监督等方面建立可信任的算法审查机构,消解算法透明的弊端,提升算法治理效能。  相似文献   

19.
算法黑箱对算法决策提出了挑战,算法透明要求算法可解释。算法透明并不是简单的算法公开。尽管人们普遍寄希望于通过算法公开来打开算法黑箱实现算法透明,但是单纯的算法公开不仅面临着商业秘密泄露的诘难,也无法真正对算法决策作出解释。与之相比,技术上制造可解释人工智能是实现算法透明的一种新的选择。可解释人工智能不仅可以凭借不同的解释路径透视算法黑箱,还可以满足受众对算法解释的不同需求。技术的发展有赖于制度的保障,构建一套合理的制度促进可解释人工智能的发展是确有必要的。这要求在立法上规定可解释人工智能的适用场域;在行政上利用政府采购引导可解释人工智能的生产;在市场管理上借助第三方认证倒逼企业制造可解释人工智能;最终实现算法透明。  相似文献   

20.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号