首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
算法作为人类利用机器抓取、处理并输出数据的手段,其所得结果受到编写者主观偏差,技术偏差等多种影响.因算法编写的高度专业性,用户无法知悉有关于自身信息数据被抓取,处理以及应用的细节,这样的不透明性显然对用户的权益与社会秩序造成影响,对我国的法律机制也带来极大挑战.针对算法的运行模式,剖析算法黑箱带来的个人信息数据侵权、算法偏见及司法救济三重危机.通过对欧盟《通用数据保护条例》与欧洲《人工智能伦理与数据保护宣言》对算法黑箱的治理条款,针对上述三重危机从技术角度、法律角度与伦理角度对算法黑箱进行法治化管理,以实现算法黑箱法治化治理层面的合法性与最佳性耦合.  相似文献   

2.
随着以ChatGPT为代表的生成式人工智能技术的突飞猛进,人工智能的伦理问题受到了广泛关注。生成式人工智能引发了削弱人类主体价值、加剧算法偏见与歧视、过度依赖拟态环境输出结果、人机协作双向价值对齐困难等伦理难题,亟须从人工智能伦理治理组织机制、人工智能伦理规范机制两方面入手,明确生成式人工智能应用中的人本主义立场,建构生成式人工智能治理的伦理规则,为增进人类福祉提供有力的伦理支撑。  相似文献   

3.
为进一步完善科技伦理体系,提升科技伦理治理能力,有效防控科技伦理风险,不断推动科技向善、造福人类,实现高水平科技自立自强,加强科技伦理治理.近日,中共中央办公厅,国务院办公厅印发《关于加强科技伦理治理的意见》(以下简称《意见》).《意见》指出,科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范,是促...  相似文献   

4.
人工智能使用于司法涉及到突出的伦理问题,智能司法与司法伦理既有紧密关系又有紧张关系。司法公正的一个很重要因素是证据的获取,证据的获取与知识智慧有很大的关联性,人工智能使用于司法在证据获取等方面具有相对于人工的以下优势:准确性、重复性、快速性、抉择性、无私性。智能司法与司法伦理的紧张关系是指智能司法可能损害司法公正:算法歧视对司法伦理的冲击、改变司法公正的性质和法官主导地位、大数据和机器人出错、人工智能本身没有价值判断。对紧张关系下的司法伦理恶性风险需要未雨绸缪,作出预案:认清人工智能司法的伦理缺位,加强伦理审查;控制对人工智能司法的期望值,坚固法官于司法系统的主导地位;规制算法歧视,保护当事人的人格权。  相似文献   

5.
符合可理解、可靠和可控等内在要求的可信算法是防范算法风险和构建算法信任的基础,算法的可信控制应该成为算法治理的核心.通过法律的可信控制,即按照法律嵌入和法律调节的规制逻辑,通过贯穿于算法的技术层、应用层和治理层的系统化制度安排,确保算法以可信任状态得以设计、部署、应用和执行,是实现算法可信的有效方式.系统地构建算法可信控制的制度体系,需要从算法本体的维度,通过完善透明度规则、推动算法伦理法律化和探索算法验证评估制度等措施确保算法自身的可信度,并从算法关系的维度,通过明确算法权利、强化算法问责和拓展监管体系等制度,约束算法相关主体的行为.  相似文献   

6.
算法在提供诸多利好的同时,也产生了算法歧视和偏见、算法过度窥探个人隐私、算法推荐滥用、算法合谋实施垄断等算法失范现象。现阶段软法和硬法都通过相应路径对算法失范现象予以矫正,以期保障算法正义。算法正义的硬法保障路径虽对突出问题及时反应,但仍存在回应性不足、治理手段单一、规制成本较高等局限性。软法的开放性、灵活性、低成本等特点与算法正义高度契合,使算法正义的软法保障路径具有及时回应性、高度共治性、成本较低等优越性。鉴于现阶段软法保障路径较为原则化,建议从算法伦理审查中引入多方伦理审查机制、算法行业加强行业自律、软法文本增加权利激励内容等路径予以具化。同时提出,唯有软法和硬法相耦合的保障路径才能真正满足算法正义的实现需求。  相似文献   

7.
罗智敏 《华中电力》2021,(2):183-195
意大利户户送有限责任公司算法歧视案所涉及的众多理论问题中,以户户送有限责任公司平台使用的算法是否对骑手造成歧视为核心。博洛尼亚法院的判决从骑手是否受反歧视法律的保护、歧视的含义以及平台算法对骑手的影响是否构成歧视等角度层层深入说理论证,最终认定该平台使用的算法构成间接歧视,并要求户户送有限责任公司支付原告三个工会组织5万欧元的惩罚性赔偿。该判决是欧洲针对算法歧视做出的第一个判决,在认定算法歧视、保护骑手权利以及确认惩罚性损害赔偿方面具有重要意义。  相似文献   

8.
生成式人工智能技术塑造了人机共生的新型关系,不能简单等同于深度合成技术、智能交互技术、高风险人工智能。新型的人机关系中,既存在人的自主性危机,也有被放大的人工智能治理风险。在风险应对的逻辑中,生成式人工智能的定位应从“老师”转向“伙伴”,不应对服务提供者提出过高要求并作简单的结果评价;同时,应将治理维度从算法治理拓展到用户治理之中。在具体的治理路径上,首先应坚持包容审慎原则,设置过程义务及对应的责任豁免规则;其次,在高风险场景中,应持续进行风险影响评估、充分保证人类监督并提升算法透明度;最后,应通过伦理审查、行业自律、数字素养提升的伦理治理方案以捍卫人的自主性。  相似文献   

9.
算法时代中,"算法黑箱""算法歧视"和"算法茧房"等非正义现象引发了算法规制的需要.但算法商业秘密的存在使算法处于"黑箱"之中,成为算法正义实现的障碍.面对算法商业秘密与算法正义的张力可以从三个角度加以考量:商业秘密的公共利益平衡;算法知情同意权、算法解释权和算法拒绝权等私权制约;算法正当程序.由于对商业秘密的公共利益考量主要局限于维系商业道德和市场秩序,无法实现对算法商业秘密的有效制约.算法私权中基于一般道德和法理的算法拒绝权能够成为制衡算法商业秘密的强理由,同时,算法正义需要建构一种基于过程的,而不是仅基于结果的正当程序观念.  相似文献   

10.
人工智能时代,算法日益介入社会生活中。我国对算法的治理刚刚起步,现有的算法治理模式并不能适应算法技术的发展。基于对我国算法治理现状和治理困境的分析,提出从权力到权利的算法治理路径,并借助“权利束”这一概念,从整体上对算法权利进行构思,以实现算法控制者和算法相对人的利益平衡。  相似文献   

11.
《北方法学》2021,(1):151-160
算法的黑箱属性在赋予算法使用者算法权力的同时也威胁着算法相对人的合法权益。以公开算法代码等信息为手段的算法透明措施,成为规范算法权力和保护算法相对人合法权益的重要治理策略之一。但碍于算法的商业秘密属性、算法技术的复杂程度和信息披露对象技术能力等因素的限制,算法透明所能实现的效能有限。为更好发挥算法透明的作用,可从算法代码等信息的公开、算法审查的启动程序、相关审查人员的技术要求、算法审查结果的反馈,以及加强监督等方面建立可信任的算法审查机构,消解算法透明的弊端,提升算法治理效能。  相似文献   

12.
在学理上讨论"大数据杀熟"问题应该首先厘清"大数据杀熟"中的正当价格歧视与价格违法行为.正当价格歧视在经济学上具有一定合理性,因为市场经济的核心机制是自由定价,应由供求关系决定价格,企业可以在合理的价格政策下设定价格.平台具有显著的信息和资源优势,平台自由定价时应该公开透明,杜绝价格欺诈、价格垄断等违法行为,保证消费者在自由意志下选择商品或服务.算法逐渐成为平台定价的重要工具,由于算法具有不可解释性、歧视性等潜在风险,平台利用算法时应该遵守合理的价格政策,加强对算法运用的规范.在平台治理中,商家、用户以及监管者都是重要参与方,解决"大数据杀熟"问题应实现监管机构、平台、用户三方共治,并在三方互动中寻求消费者保护与平台经济发展的平衡点.  相似文献   

13.
算法自动化决策为人们带来方便的同时,也可能因其决策过程的不透明和信息不对称而对某些群体造成歧视。实践中,算法歧视主要表现为偏见代理的算法歧视、特征选择的算法歧视和大数据杀熟三种基本形态。为了消除算法歧视给社会带来的影响,各国政府采取了一系列的规制措施。从规制的空间维度来看,这些措施包括原则性规制和特定性规制方式;从规制的时间维度来看,包括事后性规制和预防性规制;从规制的主体角度来看,包括自律性规制和他律性规制方式。在司法审查层面,不同待遇审查和差异性影响审查是两种基本模式。强调平衡“数字鸿沟”,抑制算法权力,并在此基础上,确保国家权力的运用能够促进科学技术的发展与进步,是大数据时代算法歧视的法律规制与司法审查的基本共识。  相似文献   

14.
算法内置性编码凝视、支撑算法运行的训练数据之偏差以及算法黑箱带来的程序透明度缺失是导致算法歧视的技术性原因,进而引致权利失衡,使权利成为缺损状态.为保障权利行使,本文认为应当确立算法公平理念,并明晰算法歧视法律规制的技术环节,建立以权利失衡的矫正为中心的法律规制模式作为算法歧视法律规制的路径选择,并从明确筛选训练数据的...  相似文献   

15.
人工智能算法推荐的运行机制决定了算法的非技术中立性和价值取向性。人工智能算法本身蕴含强大的技术权力,算法黑箱的技术壁垒则加剧了人与算法之间权力失衡。人工智能算法本身的逻辑并不考虑作为主体的个人的主体性,每一个个体都只是算法逻辑体系下的参数。在算法权力的技术权力表象之下还潜藏着资本的权力,并使国家主权面临挑战,冲击全球治理体系。因此,应当构建政府主导并掌握核心算法的大数据系统,强化伦理约束组织的建设,在立法上压实人工智能算法开发者、控制者的主体责任。  相似文献   

16.
算法治理是算法时代的核心议题。然而,当下算法治理的实效不彰,算法治理的理论亦分歧重重。鉴古而知今,20世纪60年代以降的算法治理史不但展现了丰富的制度实践,也为我国算法治理体系的建构提供了深邃洞见。聚焦于关键场景算法透明公平的“法律”、趋于共识的算法伦理“规范”和迈向算法可解释的“代码”,贯穿了长达半个世纪的算法治理进程。政府(法律)、社会(规范)、市场(代码)的耦合,以及工具性/自主性算法和高/低风险算法的类型化,共同塑造了理一分殊的“模块化”算法治理体系,为分类分级的算法治理奠定了稳固的理论之基。  相似文献   

17.
在智能化浪潮下,检察监督正发生着由案件监督向数据监督转变、事后监督向全程监督转变、人力监督向算法监督转变的内嵌式变革,其中也存在着诸多发展隐忧,具体表现为数据共享的实现困境、全程监督的潜在危机与算法运用的公正遮蔽。执法司法数据共享是检察监督智能化的前提,需要从数据共享规则设计、数据共享平台建设、数据共享实施保障等方面进行机制建构。检察监督智能化应采取以行政违法行为的智能化线索挖掘、立案侦查和刑罚执行的智能化审查、司法裁判的智能化类案监督为主要应用场景的“场景式监督”,并通过算法歧视的防范与修正、算法公开与解释、全过程的算法参与、算法责任追究等方式展开技术正当程序规制。  相似文献   

18.
互联网通过虚拟技术使人们实现了一种独特的在线生存的基本样态。它扩大了人们的社会互动范围,改变了人们的交往形式,形成了网络社会独特的时空观、权力观和人际观。中国当下坚持的集权主义、行为主义和国家主权的网络治理逻辑,正在受到技术的严峻挑战。网络技术逐步生成了一种网络自主空间,并形成了一套以技术编码和自治伦理为主的技术治理方式。技术治理方式区别于以国家为核心的法律治理方式,甚至在某些场合对法律治理方式产生制约。人们需要运用法律蕴含的价值和法律治理的有关手段,对技术治理进行有效归化。技术治理水平的提升,又为法律治理手段、边界和治理结构的调整提供动力和可持续的约束力。正确处理法律治理与技术治理之间的关系,形成二元共治结构,是提升中国网络治理水平和能力的前提。  相似文献   

19.
基于大数据和人工智能的算法服务日益扩大,算法正以一种悄然又迅猛的方式渗透于我们的日常生活和社会运转之中。算法并不是客观的,它会以算法歧视的形式给传统的平等权保护带来危机,包括平等理念危机、歧视识别危机和平等权保护模式危机。危机的根源在于算法权力正在逐渐形成一种“准公权力”,使得传统的权力格局发生了权力主体去中心化、权力作用范围的延展化和权力互动的双向化之变迁;而算法设计的效率导向、作为算法运行基础的数据之偏差与算法黑箱造成的透明度缺失共同触发了算法歧视。为了应对平等权保护危机、破解算法歧视的谜题,从法律体系外部框架切入的大破大立研究与立基于法律体系内部的精致作业同时进行,推动人工智能时代法律的自觉型发展以规制算法歧视、保障平等权就显得尤为必要。我们可通过建构人工智能学习权和借鉴美国平等权保护领域中的差别性影响标准以识别算法歧视,同时采用法律与代码相结合的双重保护模式,把握平等权保护与科技创新之间的平衡。  相似文献   

20.
李丹 《当代法学》2023,(6):75-85
通过对算法歧视消费者司法案例的实证分析,可以发现:现行法律规定中过错责任归责原则在确认算法责任承担者上存在结构性失位问题,由此导致相关规定不能成为规制算法歧视消费者的有效工具;消费者对于算法歧视的举证能力不足和法律规范的认知程度低下导致维权期望普遍落空;作为裁判者的法院在理解与适用法律上存在的不合理性也传导至算法歧视消费者的规制效果上。构建算法歧视消费者的责任认定框架,应区分算法歧视消费者的具体场景,在算法的人为干预场景中坚持过错推定原则立场,在算法自动化决策场景中提倡无过错责任原则,区分标准要素中因果关系的成立关系与范围关系。同时,加强对算法服务经营者的引导管理,提升算法歧视消费者司法裁判的合理性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号