首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
在自动化行政中,算法的本质是行政规则,其可公开性与可解释性之间存在实质性差异。可解释性关注的是实现透明算法,而可公开性更侧重于实现透明政府。有鉴于此,在行政法制度体系中,可解释性对应行政行为说明理由制度,可公开性对应政府信息公开制度。基于算法的行政规则本质,以及《政府信息公开条例》关于政府信息主动公开范围的规定,自动化行政中的算法应当予以公开。同时,其应当实现“最大范围的公开”,即采取源代码公开的形式选择。此外,如果确因安全因素不予公开算法,则需要满足利益冲突标准、价值比较标准与替代方案标准等三项利益衡量标准。  相似文献   

2.
周翔 《比较法研究》2023,(3):188-200
算法可解释性,是被现有算法规制理论所忽略的技术概念。由于缺乏对这一概念的引入和诠释,算法风险的准确判断与归纳、规制工具的主次位阶性、设置合理的规制效果目标等方面,均存在不同程度的认识偏差。对这一概念的技术视角分析确有必要,算法解释有两大差异较大的技术类型,算法解释的技术能力划定了可解释的最大边界,当前技术条件不一定满足算法规制的需求,原因是解释技术的开发并不是为算法规制专门设计的。这一论断有助于厘清既有的算法规制理论,在算法风险层面,解释技术直接破解的只是算法黑箱问题;在规制工具层面,一切制度工具应考虑解释技术的可行性;在规制目标层面,要结合解释针对的用户、场景和用途设置预期。  相似文献   

3.
《北方法学》2021,(1):151-160
算法的黑箱属性在赋予算法使用者算法权力的同时也威胁着算法相对人的合法权益。以公开算法代码等信息为手段的算法透明措施,成为规范算法权力和保护算法相对人合法权益的重要治理策略之一。但碍于算法的商业秘密属性、算法技术的复杂程度和信息披露对象技术能力等因素的限制,算法透明所能实现的效能有限。为更好发挥算法透明的作用,可从算法代码等信息的公开、算法审查的启动程序、相关审查人员的技术要求、算法审查结果的反馈,以及加强监督等方面建立可信任的算法审查机构,消解算法透明的弊端,提升算法治理效能。  相似文献   

4.
人工智能(AI)作为类人类智能,无论我们是否赋予其主体资格,在解决其法律责任问题时,都必须对其行为进行解释,为此,探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性的全新路径来推进,而不是纠缠于当下学界关于人工智能主体地位与法律责任的各种主体论与责任理论。人工智能的可解释性,亦即解释人工智能如何在大数据的基础上进行算法决策。然而,在AI领域,虽然以深度学习为代表的人工智能技术已取得了令人瞩目的成就,但如何确保以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据,仍是一个无法得到解决的难题,人工智能"黑箱"释明难题决定了人工智能行为的不可解释性。法律责任的本质是答责,不具有可解释性的人工智能不能自我答责,因此其无法承担法律责任;法律责任的目的是预防,不具有可解释性的人工智能无法实现法律责任的预防目的。人工智能法学研究的下一个前沿问题,是人工智能的可解释性问题。  相似文献   

5.
伴随着算法应用中个人自治价值不断被消解、社会秩序价值受到侵害以及传统治理框架频繁失灵,尤其是以ChatGPT为代表的基于统计学习神经网络的典型黑箱模型对现有问责机制带来了极大挑战,算法透明引发各国立法者高度关注。然而,提升算法透明度与保护商业秘密的规范目标之间存在紧张关系。算法自动化决策背后存在多元价值诉求的叠加,这体现为不可避免地将个人利益、公共利益、经济效率、公平正义等价值相互交织在一起,使得实现算法透明与保护算法商业秘密二者之间的取舍成为难题。主流利益平衡理论仅从利益位序去协调二者之间冲突的思路,具有局限性,应当在“调和论”视角下以“促进算法经济的高质量发展”为目标相互协调:一方面,应选择适当的算法透明工具,构筑算法解释的体系化框架,同时辅以多元算法监督机制;另一方面,应合理保护算法商业秘密,完善商业秘密的权利限制制度。  相似文献   

6.
基于个人信息的算法自动化决策越来越普遍,我国《个人信息保护法》和相关国内外法律都引入算法解释权加以应对。但由于算法具有黑箱性、不确定性与复杂性,算法解释权是否应理解为一般性权利还是限定性权利,要求系统性解释还是个案性解释、事前解释还是事后解释、人工解释还是机器解释,都存在解释争议与适用困境。在原理层面,这一争议与困境源于个人算法控制论。应以沟通信任原则重构算法解释权,将算法解释权的性质视为一种程序性权利,而非实体性权利。算法解释权制度也应进行重构,建议根据自动化决策所处的行业领域、市场化程度、个案影响、企业能力而对其内容、程度、时间和方式作不同要求。  相似文献   

7.
算法的广泛应用使得平台运行日益自动化,加剧了网络平台事前的主观过错认定机制困境,导致现有平台监管追责机理模糊化、治理节点滞后、责任设置不符合比例原则.人工智能时代的平台监管,既应符合平台底层的技术逻辑,也应符合主客观相一致、责罚相适应的法律原则.因此,应穿透网络平台运行的技术面纱,将平台监管的触角和追责视角直接指向背后的算法责任.技术原理是中立的,但是技术的应用是包含主观意图的,应将平台算法设计部署的主观过错作为问责依据.平台的主观过错认定需明晰可回溯的问责点,可通过算法评估制度设置,并以算法备案制度事前固定问责点.事后可要求平台根据备案内容作出算法解释,说明设计的目的和预期后果,结合客观损害结果予以归责.平台算法法律责任的设置上,对于本身的设计过错作为实质责任予以归责,如果平台提供虚假备案与解释则承担不真实解释责任.  相似文献   

8.
《现代法学》2019,(2):54-63
中国、美国和欧盟在人工智能的法律规制上初步呈现出自身的特点。面对人工智能技术的发展,中国通过分散式的立法对它在电子商务、新闻内容推荐以及智能投顾等领域的应用进行了回应,算法公开透明是贯穿于这些层级各异的立法的共同要求。美国则是通过司法判例对算法的法律性质进行了明确,在搜索引擎算法的案例中,它被看成言论,刑事辅助审判系统中的算法则被认定为是商业秘密。与中国、美国的个别化进路形成鲜明对比的是,欧盟通过对个人数据权利的严格保护,形成了对人工智能的源头规制模式。在数字经济成为经济发展的新动力的背景下,这三种模式体现了在数据权利保护和人工智能产业发展平衡问题上的不同侧重。  相似文献   

9.
周恒 《时代法学》2023,(1):35-44
可解释性决策意味着公共决策需要建立在可被阐明、质疑以及辩护的理由之上,构成了保障民主生活的重要技术方案。近年来崛起的算法决策具有高度的不可解释性,存在理由解释不能、目的解释不能以及逻辑解释不能等问题。算法决策的不可解释性导致了决策结果由“可质疑、可辩护”到“绝对正确”,决策依据从“普遍共识”到“单一意志”,决策机制从“重程序、轻实体”到“重实体、轻程序”,民众身份从“决策主体”到“决策客体”,决策结构从“双向制衡”到“单向控制”的转变,在不同的社会领域再造了算法威权。算法威权的化解有赖于深入的权利保障工作与权力制约工作,通过增进个体在算法决策机制中的对抗力量和对抗机会,强化对算法决策权的约束机制,复原人的社会主体地位。  相似文献   

10.
因私法制度中代数算法规范(代数规范)的缺陷,一些指导性案例未能给出判决的明确算法,私法制度中的代数算法黑箱导致了判决书中的算法瑕疵。传统私法制度深受古希腊几何学的影响,因而疏离了代数算法且轻视相应的代数规范,人工智能中机器算法的繁荣无助于缓解私法中的代数算法黑箱,反而将新的算法黑箱叠加于传统黑箱之上。代数规范是私法制度中规定定量计算的法律规范,它是私法规范中的定量维度和必不可少的组成部分,且随着代数算法在认识论中的地位上升而日益重要。私法制度应当改变疏离代数算法的传统,完善其代数规范,适用代数规范作为判决的依据,并结合定性规范以指导与检验法律人工智能,以限缩判决书中的算法瑕疵。  相似文献   

11.
人工智能量刑系统的应用为刑事司法领域带来诸多便利,提高了司法效率,实现"类案同判".人工智能量刑系统是以数据模型运算为工作原理,通过逻辑运算形成算法决策.刑事自由裁量权是为了实现个案正义而赋予法官的裁判权力.智能量刑算法决策与刑事自由裁量权不仅价值立场不同,在事实认定、法律适用和权力属性上也有区别,但两者之间可以形成一...  相似文献   

12.
自动化决策算法应受知识产权保护的正当性,可以通过功利主义的激励论与对价论予以证成。但现有知识产权制度中的确权模式与客体审查规则却不能容纳自动化决策算法成为知识产权之客体。“保证公开”与“确认保密”的既有知识产权确权模式妨碍算法监管。同时,算法客体属性决定了其难以在知识产权制度中完成客体识别。通过建构注册算法专有权制度对自动化决策算法予以知识产权保护,且能够协同促进算法监管。具体而言,首先,注册算法专有权制度可凭借注册制,满足知识产权确权与多元化社会监管对信息披露的差异化需求。其次,以注册制为手段,实施自动化决策算法社会化利用管制,可帮助专有权人对自动化决策算法社会化利用行为进行专有控制。最后,注册算法专有权制度以专有性权利为对价换取知识公开,能够有效促进算法知识信息的传播。  相似文献   

13.
算法作为人类利用机器抓取、处理并输出数据的手段,其所得结果受到编写者主观偏差,技术偏差等多种影响.因算法编写的高度专业性,用户无法知悉有关于自身信息数据被抓取,处理以及应用的细节,这样的不透明性显然对用户的权益与社会秩序造成影响,对我国的法律机制也带来极大挑战.针对算法的运行模式,剖析算法黑箱带来的个人信息数据侵权、算法偏见及司法救济三重危机.通过对欧盟《通用数据保护条例》与欧洲《人工智能伦理与数据保护宣言》对算法黑箱的治理条款,针对上述三重危机从技术角度、法律角度与伦理角度对算法黑箱进行法治化管理,以实现算法黑箱法治化治理层面的合法性与最佳性耦合.  相似文献   

14.
人工智能算法推荐的运行机制决定了算法的非技术中立性和价值取向性。人工智能算法本身蕴含强大的技术权力,算法黑箱的技术壁垒则加剧了人与算法之间权力失衡。人工智能算法本身的逻辑并不考虑作为主体的个人的主体性,每一个个体都只是算法逻辑体系下的参数。在算法权力的技术权力表象之下还潜藏着资本的权力,并使国家主权面临挑战,冲击全球治理体系。因此,应当构建政府主导并掌握核心算法的大数据系统,强化伦理约束组织的建设,在立法上压实人工智能算法开发者、控制者的主体责任。  相似文献   

15.
算法时代,在机器学习技术与大数据技术的驱动下,算法创作进一步促进了人工智能的自主性.坚守作者中心主义范式下的主客体一致性标准,将无法为算法创作物提供有效的法律保护.事实上,读者中心主义对现代著作权制度也产生了深远的影响,并在作品独创性方面为科技作品、实用作品的著作权保护提供了坚实的理论基础.读者中心主义所确立的主客体分离评价标准为算法创作物视为作品提供了独创性判断的理论路径.算法自由就是作品表达自由的技术表现,故而可使算法创作物具备独创性.在否定人工智能法律主体的前提下,可以通过委托作品的权属分配机制,一方面有限承认人工智能的机器作者身份;另一方面将著作权全部归属给人类开发设计者.  相似文献   

16.
刘鑫 《科技与法律》2022,(1):118-126
人工智能作为当今最为尖端的技术类型之一,涉及算法设计、数据整合、语音识别、图像处理等诸多技术内容,其基本架构包括基础层、感知层、认知层和应用层四个技术层次,每个层次中相关技术的不同技术特征与功能形态,导致了不同的可专利性判定结论.为实现对人工智能技术的充分专利保护,应对人工智能技术的基本架构进行全面解析,并根据我国专利...  相似文献   

17.
利用人工智能的推理技术和机器学习技术,以及建立海量且有效的法律知识库,算法有可能接管司法决策。目前已经获得广泛应用的法律信息检索系统、法律专家系统皆属辅助型法律智能系统,它们的研发和使用为决策型司法智能系统奠定了技术和经验基础。然而,要使司法决策成为可能,人工智能必须在运用法律推理、掌握法律语言以及深度学习经验性知识方面取得决定性突破。人工智能司法决策必然要求重新审视法律推理逻辑,重构审判责任理论,重塑法官职业身份内涵,甚至改变司法决策过程中人机互动的关系格局。为了避免变革所带来的负面影响,须划定人工智能司法决策模型建构的限度。人工智能的技术应用应符合国际通行的技术安全标准,介入应以司法公正为价值追求。通过构建合理的算法规则机制,对算法不透明性提供必不可少的制度约束。  相似文献   

18.
杨利华 《中外法学》2023,(2):346-364
由人工智能自主生成的技术方案作为一类全新的发明形式,在理论基础、权利主体、利益分配等多方面对传统专利制度提出了严峻挑战。由于人工智能目前已经能够生成符合可专利性的技术成果,既有专利制度面临变革。在权利归属的制度安排上,需要调整多方参与主体的利益关系,构建基于“二元主体结构”的权利主体规则,以使用者作为基本的专利权主体,兼顾对投资者利益的保护,以防止人工智能算法控制者的垄断;同时,引入约定优先和公平报酬原则作为合理补充,以实现人工智能生成技术方案专利保护的利益平衡。在权利保护的制度构建上,需要完善人工智能生成技术方案的专利申请授权制度,明确其权利行使的基本原则与规范设计,以此进一步实现个人利益与公共利益之间的平衡,推动人工智能行业的创新发展与技术进步。  相似文献   

19.
唐林垚 《现代法学》2020,(1):194-209
通过云端搜集、校勘、分析海量大数据,独立法律人格待定的智能机器人,透过算法活动,在多个行业替代自然人从事高精尖业务并重塑人们的社会评价、权利义务及法律责任。算法活动以“信义义务”为核心调整传统受托人关系以及基于合同相对性进行损害赔偿,传统制度已不能完全囊括智能主体理应承担的所有义务,导致算法操纵、信息寻租和监管套利的三重失控,凸显人工智能产业布局中的法律规范缺位;算法妨害具有公共属性,穿透技术黑箱对合同之外的普罗大众造成“公共滋扰”,法律应当为不同潜在责任主体创设不同缺省合规义务,引导算法运营商、技术开发方内部化不合理社会成本,以构建人工智能责任体系的中国标准。  相似文献   

20.
《个人信息保护法》第24条标志着算法解释权在制度层面得以确立。然而,算法控制者往往将算法视为核心竞争力并以商业秘密的形式进行保护,受算法影响者对算法解释的合理诉求与算法控制者对算法保密的现实需要之间不可避免地存在着冲突与张力。面对二者的紧张关系,无论是全然废除算法解释规则,还是算法解释权当然优先,抑或诉诸漫无边际的利益衡量,均非可取之道。为避免冲突激化,不宜将“算法黑箱”完全打开,而只需将其“掀开最小缝隙”,至受其不利影响者可见的程度即可。在“掀开最小缝隙”理论下,算法解释权的行使前提“对个人权益有重大影响”应从严把握,算法解释的内容应限定为算法运行逻辑而非算法本身。同时,商业秘密的“秘密性”需作出澄清,受算法影响者还应负有初步证明责任与保密协议的签订义务。如此方可在最大程度上实现算法解释与商业秘密的冲突化解。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号