首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 593 毫秒
1.
当前,刷脸的属性已发生了转变.刷脸不再限于"把人认出来"的身份识别过程,而是重在人脸验证/人脸辨析基础上所进行的人脸分析或其他关联分析,已从纯粹的身份识别机制转换为识别分析机制.识别分析机制的应用正是刷脸引起社会普遍忧虑的核心问题所在.此时,刷脸的安全风险被重新放大,监视权力进一步扩张,为基本权利保护带来了更为严峻的挑战.为应对风险变迁,刷脸的规制机制适用亦出现了转向的需求,即在生物识别信息保护机制中限制告知同意的适用;在公共监控信息保护机制中引入自动化决策及风险影响评估的框架;在规制理念上向数字人权保护与场景化规制转向.对此,构建适应识别分析机制的法律治理路径要求:应以比例原则作"最小必要"检验,适用自动化决策框架进行场景化规制,通过优化架构设计以进一步降低识别分析的风险.  相似文献   

2.
《北方法学》2022,(1):5-14
人脸识别技术滥用导致的信息安全风险饱受社会关注,学者们基于生物识别信息保护、算法治理、技术应用场景限制等视角提出了人脸识别信息保护的专门立法方案。尽管人脸识别信息具有唯一指向性、不易更改性等特征,但这些同样存在于其他生物识别信息,并不足以成为专门规定和单行立法保护的必要事由。在审视和反思现有学说有关人脸信息与人脸识别信息的客体范围混同和场景化理论的解释误区的基础上,我国刷脸问题的治理逻辑不应当陷入"新型信息技术引发社会风险有必要专门规制"的僵化理念,而是应当以增强自然人与信息处理者之间有关刷脸技术应用的透明度为基本立场,基于场景一致性理论和人脸特征识别比对数据库的标准化来限定刷脸技术的必要性情形。  相似文献   

3.
"大数据杀熟"侵害了消费者的权利,但依据现行法律很难认定其法律性质。"大数据杀熟"具有很强的技术特征,实质上是经营者滥用算法权力的结果。从传统消费者权利保护路径,运用合同法、侵权法、消保法、价格法、反垄断法等规制"大数据杀熟"面临着诸多困难。从根源上看,"大数据杀熟"并非单纯的法律规制问题,而是算法权力的治理问题。治理算法权力应遵循技术发展与权利保护相平衡、内部监督与外部监管相结合以及事前管控与事后追责相并重等原则。通过经营者自律、行业协会引导、公权机构监管、消费者自我保护、公众广泛参与等途径治理算法权力,才可能有效保护人工智能时代消费者的合法权益。  相似文献   

4.
算法和数据保护之间形成了互相掣肘又互相促进的复杂关系,实际体现了科技与法律的互动关系。算法技术的突破加剧权力失衡和技术风险,导致个人权利实现效果不彰。个人法益保护有赖强化数据控制者责任。在监管机构缺乏必要资源或信息时,适宜采用元规制模式,即通过正反面激励,促使数据控制者本身针对问题做出自我规制式回应。这种模式切实体现在欧盟数据保护改革中。在检讨GDPR第22条算法条款的基础上,应发展数据控制者自我治理机制予以补足。在透明度原则和问责原则指引下,数据控制者有义务通过数据保护影响评估、经设计的数据保护等工具,构建完备的算法审查机制;同时通过革新算法解释方法矫正权力失衡,为个人权利救济提供保障。  相似文献   

5.
我国的数字化转型正进入数字孪生时代,现实世界与虚拟世界出现"虚实相生"甚至"以虚运实"的趋势.在数字孪生系统的分层体系下,通过算法黑箱将模型和数据封装于交互界面之后是一种常见的工程模式,在化简技术复杂性的同时也导致"规则隔音"现象日益严重.决策规则的隐而不显致使事后法律问责难以奏效,而追求算法透明的披露手段在与技术复杂性和商业秘密的冲突中不断妥协,逐渐成为强弩之末.实际上,无论事前规制还是事后问责都需要以法律系统与算法系统的良性互动为前提.借助技术标准的场景性、灵活性、技术性等优势,可以制定信息交换的结构性元规则促进算法与法律的跨系统沟通.此外,应当通过算法标准自我声明机制推动软法的"硬化",规范算法贴标逐渐消灭"无标生产",构建软法硬法混合算法规制模式.  相似文献   

6.
在风险社会的语境中,知识产权法是一种制度文明,也是一种可能存在的制度风险。诸如文化风险、生态风险、基因技术风险、网络风险等,主要是知识产权制度的"内生性"风险。如何克服现行知识产权法律制度和法律秩序的先天性缺陷和潜在危机,提高风险意识,增强风险识别能力,寻求风险治理机制,是国际知识产权界共同面临的时代问题。知识产权制度风险的法律治理必须秉持价值理性与工具理性统一、权利观念与责任观念统一、法律控制与技术规制统一等理念,并通过传统知识保护、公共领域保留、开放存取及知识共享协议、知识创新奖励等制度的替代和补充,形成一个应对风险社会的观念体系和制度系统。这是应对知识产权制度风险的法律举措,也是实现知识产权制度价值目标的法律变革路径。  相似文献   

7.
随着大数据与人工智能算法的迅速发展,区块链技术在保护商业秘密数据真实性方面显示出突出优势,但也面临公有链与联盟链形式的系统风险、区块链自身延展性价值实现不充分及对区块链高位阶法律规制不健全等各类风险.探索"标准共识兼容插件+多链并存与跨链兼容"模式、鼓励前置性商业秘密司法鉴定业务、完善区块链诉讼证据机制、加强对智能合约...  相似文献   

8.
《现代法学》2019,(2):54-63
中国、美国和欧盟在人工智能的法律规制上初步呈现出自身的特点。面对人工智能技术的发展,中国通过分散式的立法对它在电子商务、新闻内容推荐以及智能投顾等领域的应用进行了回应,算法公开透明是贯穿于这些层级各异的立法的共同要求。美国则是通过司法判例对算法的法律性质进行了明确,在搜索引擎算法的案例中,它被看成言论,刑事辅助审判系统中的算法则被认定为是商业秘密。与中国、美国的个别化进路形成鲜明对比的是,欧盟通过对个人数据权利的严格保护,形成了对人工智能的源头规制模式。在数字经济成为经济发展的新动力的背景下,这三种模式体现了在数据权利保护和人工智能产业发展平衡问题上的不同侧重。  相似文献   

9.
大数据下的信用评级机制生成独立于数据本体的数字人格。数字资本主义利用算法控制来推动金融信用的产生与发展,进而监控资本主义利用私有化"数字人格"实施黑箱管控。我国基于数据驱动的社会信用体系属于数字技术公共基础设施,在矫正监控资本主义逐利偏差的同时,生成与法律强制下行政管理方式相并行的算法行政。算法行政作为全新的权力工具导致数字社会治理机制的范式转化,这对法治国的传统法律原则提出挑战。福柯的"规训"理论可以解释基于数字人格的权力运作以及社会信用体系的正当性,也能解构算法行政生成的"自我规制型"问责制,由此生成全新的数字行政法学。这为我国社会信用系统的法律规制提供新形态的学科支撑,也为该制度输出提供西方话语体系中的说服工具。  相似文献   

10.
算法内置性编码凝视、支撑算法运行的训练数据之偏差以及算法黑箱带来的程序透明度缺失是导致算法歧视的技术性原因,进而引致权利失衡,使权利成为缺损状态.为保障权利行使,本文认为应当确立算法公平理念,并明晰算法歧视法律规制的技术环节,建立以权利失衡的矫正为中心的法律规制模式作为算法歧视法律规制的路径选择,并从明确筛选训练数据的标准化制度、建立算法透明性和可解释性的审查机制、完善算法问责机制三方面予以探究.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号