共查询到20条相似文献,搜索用时 31 毫秒
1.
当前,刷脸的属性已发生了转变.刷脸不再限于"把人认出来"的身份识别过程,而是重在人脸验证/人脸辨析基础上所进行的人脸分析或其他关联分析,已从纯粹的身份识别机制转换为识别分析机制.识别分析机制的应用正是刷脸引起社会普遍忧虑的核心问题所在.此时,刷脸的安全风险被重新放大,监视权力进一步扩张,为基本权利保护带来了更为严峻的挑战.为应对风险变迁,刷脸的规制机制适用亦出现了转向的需求,即在生物识别信息保护机制中限制告知同意的适用;在公共监控信息保护机制中引入自动化决策及风险影响评估的框架;在规制理念上向数字人权保护与场景化规制转向.对此,构建适应识别分析机制的法律治理路径要求:应以比例原则作"最小必要"检验,适用自动化决策框架进行场景化规制,通过优化架构设计以进一步降低识别分析的风险. 相似文献
2.
人脸识别技术作为人工智能学科中发展最为迅捷的一个分支,被广泛地被运用于社会生活的各个领域,生物识别信息因其所具备的专属性和唯一性的特征在大量身份核验的场景被采集,在审慎借鉴欧美先进立法经验和对我国实践困境的反思基础上,我国应当构建完善生物识别信息刑法保护制度,优化生物识别技术的刑事规制界限,完善生物识别信息层次特殊保护体系,将滥用生物识别信息行为入罪,实现生物识别信息合理开发利用与公民个人有序生活不受侵扰的基本价值诉求之平衡。 相似文献
3.
雇员生物识别信息具有敏感性、专属可辨识性、滥用危害性大、需弱势保护等特征,对雇员生物识别信息保护是保护雇员劳动权的应有之义,具有保护雇员人格、财产、就业平等的价值.雇员生物识别信息保护面临风险,包括合理期待与劳资协商的矛盾,雇员生物识别信息收集滥用,域外出现雇员生物识别信息损害认定差别化.通过比较法研究,雇员生物识别信息规范缺乏特殊性,专门立法缺乏具体适用的可操作性,雇主行为的规制法律供给不足,法律责任的严格性有待提升.本文基于共同体时代的权利义务冲突与主体性视角,建构雇员生物识别信息保护的制度规范和治理机制.雇员生物识别信息保护需要明确遵循知情同意、告知、协商保密、最小必要的指导原则,完善立法方式和标准立法化,引入劳动监察的行政监管治理机制. 相似文献
4.
人脸识别技术是基于人的面部特征信息进行身份识别的一种生物识别技术.智慧警务背景下,在治安管理中广泛应用人脸识别技术,对于提高治安管理效率和打造"平安城市"具有重大意义.但人脸识别技术具有远程识别性和识别独特性等特征,其在应用于治安管理时会存在技术滥用的风险.因此,有必要对人脸识别技术进行有效规范,包括明确人脸识别技术应... 相似文献
5.
人脸识别技术是社会治理智能化转型过程中广泛应用的技术之一.人脸识别技术的身份认证和识别功能在虚拟空间实现了个人信息的自动化集合.人脸识别技术本身存在着技术风险,一旦被滥用将会侵犯公民权利、危害社会秩序、消弭共同体信任.当下,现有对人脸识别技术的法律规制呈现分散性和碎片化特征,法律本身的事后规制逻辑更是难以有效规制技术应用、防止技术滥用.应把握国家综合性立法的契机,根据场景理论对人脸识别技术进行细化规制,既发挥其强大的社会功用,又预防化解其潜在危害,实现法治化社会化协同治理的目标. 相似文献
6.
人脸识别技术是社会治理智能化转型过程中广泛应用的技术之一.人脸识别技术的身份认证和识别功能在虚拟空间实现了个人信息的自动化集合.人脸识别技术本身存在着技术风险,一旦被滥用将会侵犯公民权利、危害社会秩序、消弭共同体信任.当下,现有对人脸识别技术的法律规制呈现分散性和碎片化特征,法律本身的事后规制逻辑更是难以有效规制技术应用、防止技术滥用.应把握国家综合性立法的契机,根据场景理论对人脸识别技术进行细化规制,既发挥其强大的社会功用,又预防化解其潜在危害,实现法治化社会化协同治理的目标. 相似文献
7.
《北方法学》2022,(1):15-25
刷脸支付是便捷性高的人脸识别新业态以及拓展性强的互联网支付新模式,带来了刷脸风险与支付风险勾连、生物信息安全风险向后手自动化决策风险蔓延等新问题,现有的知情同意框架、公共监控信息规则等面临新挑战。围绕人脸识别的行业规章、司法解释、信息保护规则等新规则相继涌现,但软法、硬法交织的立法格局,尚未形成可以波澜不惊地化解刷脸支付风险的动态规范。为充分保障人格权益、促进科技向善,以强化行业自律为导向,规制刷脸支付的新方法、新手段,可以从三个方面展开:其一,以帕累托标准重构侵权行为惩戒和数字转型升级之间的关系;其二,引入贯穿刷脸支付全流程的外部审查体系;其三,围绕刷脸支付业务样态建立以变应变的多元治理机制。 相似文献
8.
9.
人脸识别技术的验证、辨识和分析功能正在不同场景中发挥着越来越显著的作用。由于人脸识别信息具有敏感性和唯一性的特点,信息处理者对其的分析与利用一旦超出原初场景的内在一致性,就有可能损害信息主体的人格、财产甚至人身安全。虽然我国立法对人脸识别信息等生物识别信息进行了特别保护,然而单独同意原则在适用过程中的机械性会与人脸识别技术的便捷性要求相抵牾,目的限制原则与诚信原则也会因忽略场景而在适用时失去抓手。为此,我们有必要进一步深化人脸识别技术的场景化法律规制模式,厘清场景化法律规制的概念,并在场景融合的发展趋势下明确场景划分的内在逻辑。我们应根据信息主体在不同场景中的合理预期,对人脸识别技术施以相对应的规制手段,依场景特点确立评估制度,建立尊重信息主体合理预期的动态同意模式,完善因应场景风险的责任体系,并最终形成兼顾人脸识别信息保护、流动与利用的场景化法律规制路径。 相似文献
10.
11.
12.
人脸识别(Face Recognition)技术是一项基于人的面部特征进行身份识别的生物识别技术,俗称“刷脸”。该技术通过采集人像、关键点提取、对人像进行预处理、待征提取、人脸识别比对等过程,实现人脸识别验证的效果。 相似文献
13.
人脸识别是一种基于人的脸部特征信息进行身份识别的生物识别技术。它用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸.进而对检测到的人脸进行脸部的一系列相关技术,包括人脸图像采集、人脸定位、人脸识别预处理、记忆存储和比对辨识,最后达到识别不同人身份的目的。 相似文献
14.
杨华 《华东政法大学学报》2023,(2):68-79
人脸识别是人工智能的重要应用。运用人脸识别技术应加强人脸信息保护。我国人脸识别信息保护缺乏专门的法律规范,《个人信息保护法》第62条特别强调对“人脸识别”制定专门的保护规范。我国应在系统总结现有立法、执法和司法经验的基础上,树立尊重数字人权、适当限制公权、注重利益平衡的理念,构建人脸识别信息保护的实体性规范、优化人脸识别信息保护的程序性设计,以《个人信息保护法》等法律法规为依据,由国家网信部门统筹协调有关部门,围绕人脸识别的收集、存储、使用、加工、传输、提供、公开、删除等行为制定《人脸识别信息保护规范》。 相似文献
15.
《北方法学》2022,(1):36-49
人脸情绪识别算法是人脸识别的特殊变体,也是情感计算的重要构成。由于技术的更迭、应用的泛滥和风险的特殊,这一算法在实践中存在大量隐患,亟待法律规制。在美国、欧盟和我国的法律框架下,人脸情绪识别算法目前可以通过"算法"和"数据"两条路径进行部分规制。然而,算法本身的特殊性和立法技术的局限性,决定了还有大量风险无法得到回应,更难以实现权利保障和技术创新的平衡。为此,应当引入"风险为本"的规制思路:以人脸情绪识别算法在不同场景下的正当性、安全性、准确性和可责性四类风险作为法律规制的核心;通过规则设计,实现算法部署的价值公允、算法运行的数据安全、算法决策的准确可靠和算法追责的透明便捷。 相似文献
16.
个人生物识别信息具有个人数据的唯一性、程序识别性、可复制性、损害的不可逆性及信息的关联性等特征。在大数据背景下,个人生物识别信息的广泛应用会带来严重的生物信息安全风险,其滥用可造成隐私权、平等权和财产权等权益受到侵犯,需要立法进行全方位规制。我国目前个人生物信息的相关立法存在总体位阶较低且内容分散、保护范围狭窄、权利义务边界不清、法律责任不明晰等缺陷,应当采取渐进式专门立法的思路,完善现有相关部门法关于个人生物信息的规制内容,构建层次分明、内外协调的个人生物识别信息安全保护的法律体系。 相似文献
17.
18.