首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
“大数据杀熟”行为严重损害了消费者权益。相对于传统商业“杀熟”行为,“大数据杀熟”行为更隐蔽,消费者维权更艰难。这种利用算法应用技术损害消费者权益的行为严重违背商业伦理,不仅关乎消费者个人权益,更会影响公共利益,仅凭市场调节难以纠正,需要通过法律进行救济。政府应在遵循辅助性原则的前提下,通过算法应用技术备案、建立“政府-社会”合作规制等制度,用新制度规制新技术,更好地发挥政府在治理“大数据杀熟”行为过程中的作用,保护消费者权益和社会公共利益。  相似文献   

2.
在学理上讨论"大数据杀熟"问题应该首先厘清"大数据杀熟"中的正当价格歧视与价格违法行为.正当价格歧视在经济学上具有一定合理性,因为市场经济的核心机制是自由定价,应由供求关系决定价格,企业可以在合理的价格政策下设定价格.平台具有显著的信息和资源优势,平台自由定价时应该公开透明,杜绝价格欺诈、价格垄断等违法行为,保证消费者在自由意志下选择商品或服务.算法逐渐成为平台定价的重要工具,由于算法具有不可解释性、歧视性等潜在风险,平台利用算法时应该遵守合理的价格政策,加强对算法运用的规范.在平台治理中,商家、用户以及监管者都是重要参与方,解决"大数据杀熟"问题应实现监管机构、平台、用户三方共治,并在三方互动中寻求消费者保护与平台经济发展的平衡点.  相似文献   

3.
算法和数据保护之间形成了互相掣肘又互相促进的复杂关系,实际体现了科技与法律的互动关系。算法技术的突破加剧权力失衡和技术风险,导致个人权利实现效果不彰。个人法益保护有赖强化数据控制者责任。在监管机构缺乏必要资源或信息时,适宜采用元规制模式,即通过正反面激励,促使数据控制者本身针对问题做出自我规制式回应。这种模式切实体现在欧盟数据保护改革中。在检讨GDPR第22条算法条款的基础上,应发展数据控制者自我治理机制予以补足。在透明度原则和问责原则指引下,数据控制者有义务通过数据保护影响评估、经设计的数据保护等工具,构建完备的算法审查机制;同时通过革新算法解释方法矫正权力失衡,为个人权利救济提供保障。  相似文献   

4.
<正>在人工智能时代,算法技术已经成为网络平台经营者处理用户信息、分析用户喜好以及精准推送服务的驱动力。但是由于算法技术的专业性和隐蔽性,极易导致网络平台利用其特点对用户进行价格歧视和精准“杀熟”。遏制大数据“杀熟”需要建立完善的监管措施,实现消费者与网络平台提供者之间的利益平衡;构建算法解释机制,以便于实现保护消费者知情权与平台创新动力的平衡;完善权利救济机制,确保消费者可以平等地与网络平台提供者进行交易。  相似文献   

5.
算法自动化决策为人们带来方便的同时,也可能因其决策过程的不透明和信息不对称而对某些群体造成歧视。实践中,算法歧视主要表现为偏见代理的算法歧视、特征选择的算法歧视和大数据杀熟三种基本形态。为了消除算法歧视给社会带来的影响,各国政府采取了一系列的规制措施。从规制的空间维度来看,这些措施包括原则性规制和特定性规制方式;从规制的时间维度来看,包括事后性规制和预防性规制;从规制的主体角度来看,包括自律性规制和他律性规制方式。在司法审查层面,不同待遇审查和差异性影响审查是两种基本模式。强调平衡“数字鸿沟”,抑制算法权力,并在此基础上,确保国家权力的运用能够促进科学技术的发展与进步,是大数据时代算法歧视的法律规制与司法审查的基本共识。  相似文献   

6.
算法内置性编码凝视、支撑算法运行的训练数据之偏差以及算法黑箱带来的程序透明度缺失是导致算法歧视的技术性原因,进而引致权利失衡,使权利成为缺损状态.为保障权利行使,本文认为应当确立算法公平理念,并明晰算法歧视法律规制的技术环节,建立以权利失衡的矫正为中心的法律规制模式作为算法歧视法律规制的路径选择,并从明确筛选训练数据的...  相似文献   

7.
符合可理解、可靠和可控等内在要求的可信算法是防范算法风险和构建算法信任的基础,算法的可信控制应该成为算法治理的核心.通过法律的可信控制,即按照法律嵌入和法律调节的规制逻辑,通过贯穿于算法的技术层、应用层和治理层的系统化制度安排,确保算法以可信任状态得以设计、部署、应用和执行,是实现算法可信的有效方式.系统地构建算法可信控制的制度体系,需要从算法本体的维度,通过完善透明度规则、推动算法伦理法律化和探索算法验证评估制度等措施确保算法自身的可信度,并从算法关系的维度,通过明确算法权利、强化算法问责和拓展监管体系等制度,约束算法相关主体的行为.  相似文献   

8.
大数据下的信用评级机制生成独立于数据本体的数字人格。数字资本主义利用算法控制来推动金融信用的产生与发展,进而监控资本主义利用私有化"数字人格"实施黑箱管控。我国基于数据驱动的社会信用体系属于数字技术公共基础设施,在矫正监控资本主义逐利偏差的同时,生成与法律强制下行政管理方式相并行的算法行政。算法行政作为全新的权力工具导致数字社会治理机制的范式转化,这对法治国的传统法律原则提出挑战。福柯的"规训"理论可以解释基于数字人格的权力运作以及社会信用体系的正当性,也能解构算法行政生成的"自我规制型"问责制,由此生成全新的数字行政法学。这为我国社会信用系统的法律规制提供新形态的学科支撑,也为该制度输出提供西方话语体系中的说服工具。  相似文献   

9.
公共机构适用算法进行决策对国家治理能力有明显赋能,但可能对个人权利的保障带来新的挑战。既有的算法规制多侧重正当程序的控制,缺乏公共决策适用算法技术的实体边界。尽管各国对算法技术应用于公共决策的实体边界尚未有相对一致的规范,但传统法律保留原则仍可成为思考这一问题的基本框架。法律保留确定了公共决策适用算法时“原则禁止,例外允许”的关系模式,也科以立法者在政府效能与权利保护之间的具体权衡义务。基本权利保障、风险的可控性、价值判断和自由裁量作为禁区以及算法类型和所涉数据等都应成为法律可否例外授权的考虑因素。有效的算法影响评估制度作为有助于划定决策边界的预防性手段,同样可在源头处补强算法纳入公共决策的民主性和可问责性。  相似文献   

10.
算法已被广泛应用于干预或者给付行政场景。算法给行政带来了正向效益,也可能造成法治价值的失序。在规范算法方面,存在着治理工具论和权力控制论两种学说。治理工具论从法的外部视角出发,将算法作为法律的作用媒介,侧重于对算法本身的技术规制。权力控制论从法的内部视角出发,认为法律对算法的研究应穿透至算法背后的算法权力。在行政法体系内讨论算法,应在依法行政原理的支配下,通过明确算法的行政法属性实现对算法行政权的控制。算法作为一种“具有普遍约束力的决定、命令”,可被纳入行政规定的范围,若涉及外部性权利义务的分配,则算法属于法规命令。作为行政规定的算法应当以全面公开为原则、不公开为例外。可以将对算法的合法性审查嵌入到现有的审查机制中,从制定程序和内容两方面确保算法的合法性。只有从算法行政回归依法行政,才能找到合适的权力制约路径,从而实现数字时代行政法教义学体系的持续与稳定。  相似文献   

11.
《北方法学》2022,(1):36-49
人脸情绪识别算法是人脸识别的特殊变体,也是情感计算的重要构成。由于技术的更迭、应用的泛滥和风险的特殊,这一算法在实践中存在大量隐患,亟待法律规制。在美国、欧盟和我国的法律框架下,人脸情绪识别算法目前可以通过"算法"和"数据"两条路径进行部分规制。然而,算法本身的特殊性和立法技术的局限性,决定了还有大量风险无法得到回应,更难以实现权利保障和技术创新的平衡。为此,应当引入"风险为本"的规制思路:以人脸情绪识别算法在不同场景下的正当性、安全性、准确性和可责性四类风险作为法律规制的核心;通过规则设计,实现算法部署的价值公允、算法运行的数据安全、算法决策的准确可靠和算法追责的透明便捷。  相似文献   

12.
《现代法学》2019,(2):54-63
中国、美国和欧盟在人工智能的法律规制上初步呈现出自身的特点。面对人工智能技术的发展,中国通过分散式的立法对它在电子商务、新闻内容推荐以及智能投顾等领域的应用进行了回应,算法公开透明是贯穿于这些层级各异的立法的共同要求。美国则是通过司法判例对算法的法律性质进行了明确,在搜索引擎算法的案例中,它被看成言论,刑事辅助审判系统中的算法则被认定为是商业秘密。与中国、美国的个别化进路形成鲜明对比的是,欧盟通过对个人数据权利的严格保护,形成了对人工智能的源头规制模式。在数字经济成为经济发展的新动力的背景下,这三种模式体现了在数据权利保护和人工智能产业发展平衡问题上的不同侧重。  相似文献   

13.
算法认知偏差不仅扭曲事实,还影响人工智能法律规制质效。法学文献中的“算法”常用于指代影响权益的人工智能系统。不同于传统编程,机器学习算法是通过向数据学习以形成模型。数据、算力、AI框架、模型框架、人为干预等因素深刻影响算法作用的发挥。算法并不是对利益得失的精巧算计。大部分算法也不具有排他性的财产属性。算法是人工智能体系中相对透明和确定的因素。“算法黑箱”并非人为“黑幕”,而是因基本原理所限导致的验证性和解释性的不足。滥用算法概念会导致人工智能法律规制的失焦、失据、失鹄、失度。数据法与专门立法相结合是人工智能规制的恰当立法形态。过度强调算法不仅造成权利、产业和科技目标难以调和,还可能导致过度监管。算法只有在以人的责任为基础的人工智能系统中才能得到稳妥规制。我国未来应该制定人工智能专门立法。业已开展的算法治理不宜过度冒进,宜审慎处理好当前与未来、名义与实质、规范与发展的关系。在准确的算法认知指导下,算法备案和公示的问题能够得到良好解释和妥善解决。  相似文献   

14.
基于大数据和人工智能的算法服务日益扩大,算法正以一种悄然又迅猛的方式渗透于我们的日常生活和社会运转之中。算法并不是客观的,它会以算法歧视的形式给传统的平等权保护带来危机,包括平等理念危机、歧视识别危机和平等权保护模式危机。危机的根源在于算法权力正在逐渐形成一种“准公权力”,使得传统的权力格局发生了权力主体去中心化、权力作用范围的延展化和权力互动的双向化之变迁;而算法设计的效率导向、作为算法运行基础的数据之偏差与算法黑箱造成的透明度缺失共同触发了算法歧视。为了应对平等权保护危机、破解算法歧视的谜题,从法律体系外部框架切入的大破大立研究与立基于法律体系内部的精致作业同时进行,推动人工智能时代法律的自觉型发展以规制算法歧视、保障平等权就显得尤为必要。我们可通过建构人工智能学习权和借鉴美国平等权保护领域中的差别性影响标准以识别算法歧视,同时采用法律与代码相结合的双重保护模式,把握平等权保护与科技创新之间的平衡。  相似文献   

15.
自动化行政促生法律代码化,并引发算法噬夺立法权现象。这表现为算法规则对法律规则的技术性修正、对实施性立法的替代、对上位立法的僭越以及对法律规则体系的整体性架空。算法对立法权的噬夺成就一项立法性算法权力。立法性算法权力的产生原因表明其具有技术层面的存在必要性,却并不必然具备法律面向的合理性。对立法性算法权力施加法律规制的必要性同时存在于技术层面和法律层面。在技术层面,这种必要性体现在立法性算法权力基于自身技术特性具有负外部性影响;在法律层面,这种必要性体现在立法性算法权力对依法行政原则、立法权分配格局产生根本动摇。对立法性算法权力进行法律规制,需要汲取当下算法规制的理论基础与制度实践,并结合立法性算法权力的自身特征,着眼于权力内容的实体限定与权力行使方式的程序限定。  相似文献   

16.
解正山 《现代法学》2020,(1):179-193
算法决策正成为经济与社会体系的一部分,一方面,它创造了显著的社会与经济价值,但另一方面,不公不义的预测或推断会损及个人自主与尊严从而使算法备受质疑。由于算法无法解决自身导致的妨害问题,且算法控制者与数据主体间存在明显的信息或权力不对称,因此,有必要赋予个人一项具体的数据权利——算法“解释权”,以强化其对于己不利的算法决策提出异议的权利,进而促进算法正义、保护个人自主与尊严。不过,利用“解释权”对抗算法妨害虽然必要但并不充分,其在技术上面临可解释性难题,且与商业秘密存在紧张关系。因此,算法决策需要统合规制,需要进一步增强算法决策的社会控制,优化算法应用监管。  相似文献   

17.
技术飞跃与治理提升之间的关联通常被假定,也早已被吸纳进“数字中国”“智慧社会”等政策实践,但法律的习惯性滞后带来了监管套利的空间。公共治理领域的自动化应用经历了从基于数据库编码的计算机自动化到基于机器学习的算法自动化再到基于神经网络的超级自动化的逐步跃迁,从早先自下而上专业人士的“辅助/参考”和个别部门的“部署/应用”嬗变为自上而下的社会化“嵌入/集成”,公权力、私权力及私权利的关系发生了结构性转换。相应地,国际通行、日益趋同的个人隐私保护(事前同意)、算法可解释性(事中监测)和完整履责链条(事后追责)的监管范式也应依照宏观技术共治、中观价值位阶和微观权利保障三位一体的规制路径进行体系化重构。  相似文献   

18.
人工智能时代,算法日益介入社会生活中。我国对算法的治理刚刚起步,现有的算法治理模式并不能适应算法技术的发展。基于对我国算法治理现状和治理困境的分析,提出从权力到权利的算法治理路径,并借助“权利束”这一概念,从整体上对算法权利进行构思,以实现算法控制者和算法相对人的利益平衡。  相似文献   

19.
人工智能的发展让经营者基于消费者信息精准预测其支付意愿从而进行价格歧视成为可能。从经济学角度,算法价格歧视能够提高静态效率,且在特定市场条件下,能够促进动态效率,提升消费者福利。然而,如果科技巨头利用价格歧视滥用市场支配地位,可能会产生排他性和剥削性效果,引发反垄断担忧。因此,是否对其规制以及如何规制需要反垄断执法机构从法和经济学角度综合权衡。我国《反垄断法》及其配套规范为监管数字垄断市场上的价格歧视提供了事后救济路径,而《价格法》等作为反垄断规制的补充,通过价格调控、个人信息保护和消费者权益保护方式,为规范竞争市场上的违法价格歧视提供事前监管路径。该监管体系为解决数字市场上价格歧视反垄断担忧提供了理论上的可能,但执法效果仍需实践检验。  相似文献   

20.
李丹 《当代法学》2023,(6):75-85
通过对算法歧视消费者司法案例的实证分析,可以发现:现行法律规定中过错责任归责原则在确认算法责任承担者上存在结构性失位问题,由此导致相关规定不能成为规制算法歧视消费者的有效工具;消费者对于算法歧视的举证能力不足和法律规范的认知程度低下导致维权期望普遍落空;作为裁判者的法院在理解与适用法律上存在的不合理性也传导至算法歧视消费者的规制效果上。构建算法歧视消费者的责任认定框架,应区分算法歧视消费者的具体场景,在算法的人为干预场景中坚持过错推定原则立场,在算法自动化决策场景中提倡无过错责任原则,区分标准要素中因果关系的成立关系与范围关系。同时,加强对算法服务经营者的引导管理,提升算法歧视消费者司法裁判的合理性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号