首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
技术飞跃与治理提升之间的关联通常被假定,也早已被吸纳进“数字中国”“智慧社会”等政策实践,但法律的习惯性滞后带来了监管套利的空间。公共治理领域的自动化应用经历了从基于数据库编码的计算机自动化到基于机器学习的算法自动化再到基于神经网络的超级自动化的逐步跃迁,从早先自下而上专业人士的“辅助/参考”和个别部门的“部署/应用”嬗变为自上而下的社会化“嵌入/集成”,公权力、私权力及私权利的关系发生了结构性转换。相应地,国际通行、日益趋同的个人隐私保护(事前同意)、算法可解释性(事中监测)和完整履责链条(事后追责)的监管范式也应依照宏观技术共治、中观价值位阶和微观权利保障三位一体的规制路径进行体系化重构。  相似文献   

2.
张凌寒 《现代法学》2023,(4):126-141
生成式人工智能改变了数字社会的生产架构,向既有的技术治理体系提出挑战。一是生成式人工智能呈现“基础模型—专业模型—服务应用”的分层业态,无法在现有的“技术支持者—服务提供者—内容生产者”监管框架中找到适配的法律定位;二是其传播模式和技术指标使得原有规制工具难以适用。生成式人工智能治理应符合其功能业态的技术逻辑,也应基于其在数字社会生产的地位,重新认识和调整生成式人工智能的法律定位,将模型作为新型的法律治理对象。生成式人工智能的基础模型因可接入千行百业而具有通用性,因同时提供信息内容与机器所需合成数据而具有强大赋能性,是人工智能时代的新型数字基础设施。应构建“基础模型—专业模型—服务应用”的分层治理体系,在不同的层次适配不同的规制思路与工具。在基础模型层以发展为导向,将其作为数字社会新型基础设施设置法律制度;在专业模型层以审慎包容为理念,进行分级分类并设置合理避风港规则;在服务应用层实施敏捷治理,建立合理容错制度。由此,我国得以从单一场景的算法治理发展为适应不同治理目标的复合型系统性治理。  相似文献   

3.
人工智能时代,算法日益介入社会生活中。我国对算法的治理刚刚起步,现有的算法治理模式并不能适应算法技术的发展。基于对我国算法治理现状和治理困境的分析,提出从权力到权利的算法治理路径,并借助“权利束”这一概念,从整体上对算法权利进行构思,以实现算法控制者和算法相对人的利益平衡。  相似文献   

4.
以ChatGPT为代表的大型生成式语言模型通过对海量自然语言文本数据的学习,运用统计学和概率分布预测下一个单词或句子,从而实现流畅连贯、语法正确、具备逻辑的文本生成。这一技术机理虽能提升模型性能,但却在内容公平性、真实性和可靠性方面带来治理挑战。概率生成文本的方式存在难以控制内容质量的问题。基于网络文本语料库的训练可能嵌入算法偏见,人类反馈强化学习可能加剧虚假信息的生成与传播风险,模型的涌现性还可能产生意料之外的治理风险。迈向“模型泛在”的人工智能2.0时代,生成式人工智能的治理应遵循敏捷治理与韧性治理并重、精准治理和参与式治理协同的原则。针对“模型即服务”的新型产业生态链,围绕信息生产变迁和产业链变迁的核心特性,构建基于应用程序接口模式的治理、基于插件模式的治理和基于模型垂直部署模式的治理架构。  相似文献   

5.
孙跃元 《河北法学》2023,(4):156-175
算法决策应用的外部风险具有聚合性和累积性特征,侧重算法行为端,在技术运用过程中向多数不特定群体扩散,将其类型化后包括社会公共利益和实质正义受损、人的主体性地位和合法权益受挑战两方面。外部风险不同于一般侵权行为的损害后果,无法适用传统归责原则。为了有效促进算法技术和监管的良性互动,以公共治理路径为视角,将算法决策嵌入网络社会架构中分析当下治理的局限性,并提出较完善的治理方案。在思路上,应遵循分类分级的精准化治理方法,选择“软”“硬”法为协同治理工具,坚持安全和发展并重的治理理念。在路径上,应着眼于算法决策应用的生命全周期,用算法解释机制解决算法备案制失灵的问题,以风险比例确立算法决策系统的分类与规制方向,并以平台为主体多途径构建算法综合性问责体系,形成治理合力。  相似文献   

6.
生成式人工智能技术塑造了人机共生的新型关系,不能简单等同于深度合成技术、智能交互技术、高风险人工智能。新型的人机关系中,既存在人的自主性危机,也有被放大的人工智能治理风险。在风险应对的逻辑中,生成式人工智能的定位应从“老师”转向“伙伴”,不应对服务提供者提出过高要求并作简单的结果评价;同时,应将治理维度从算法治理拓展到用户治理之中。在具体的治理路径上,首先应坚持包容审慎原则,设置过程义务及对应的责任豁免规则;其次,在高风险场景中,应持续进行风险影响评估、充分保证人类监督并提升算法透明度;最后,应通过伦理审查、行业自律、数字素养提升的伦理治理方案以捍卫人的自主性。  相似文献   

7.
算法治理是算法时代的核心议题。然而,当下算法治理的实效不彰,算法治理的理论亦分歧重重。鉴古而知今,20世纪60年代以降的算法治理史不但展现了丰富的制度实践,也为我国算法治理体系的建构提供了深邃洞见。聚焦于关键场景算法透明公平的“法律”、趋于共识的算法伦理“规范”和迈向算法可解释的“代码”,贯穿了长达半个世纪的算法治理进程。政府(法律)、社会(规范)、市场(代码)的耦合,以及工具性/自主性算法和高/低风险算法的类型化,共同塑造了理一分殊的“模块化”算法治理体系,为分类分级的算法治理奠定了稳固的理论之基。  相似文献   

8.
茅孝军 《河北法学》2023,(10):79-95
数字经济的崛起正加剧征管资源有限性与纳税人生产活动复杂性之间的根本矛盾,以数治税不应只关注纳税人遵从度指标。当前税收治理需要进一步提高资源利用效率,降低征纳成本,减少监管障碍。在人工智能时代,算法治税已成为税收治理的必然趋势。通过税务执法智能控制机制降低税收执法成本、通过税收政策智能推送机制改善税收遵从成本、通过税务风险智能监管机制重构税务监管思路,算法治税将实现税收治理质的飞跃。随着算法治税的基本思路被税收征管改革文件明确,当前阶段应在宏观层面确立算法治税的法律地位,在中观层面确立算法治税的法律价值位阶,在微观层面确立算法治税的法律规则,以确保算法治税顺利嵌入现行税收行政体系。  相似文献   

9.
人工智能的勃兴推动了自动化行政的发展。算法是实现自动化行政的手段,手段应服务于目的。自动化行政目的分为法意目的和工程目的,内含“范围”“价值”“效果”基准,构成了算法目的范式。算法目的失范自算法规则制定伊始就已伴生,呈现出越权隐患、价值迷失、系统缺陷等样态。算法规则是特殊行政规范,应当以比例原则为检视路径审查具体算法规则的正当性,并围绕事前算法制定环节、事中算法运行环节、事后算法审查环节整体性构建关于算法目的的公法规制框架,以系统治理算法目的失范。  相似文献   

10.
<正>ChatGPT“生成式”人工智能新技术被互联网专家认为是通用人工智能的奇点,也是未来强人工智能的拐点。((1))它制造了巨大商业价值的同时也在线提供了诸多的“犯罪创意”。该项革命性的技术成果将对法学认知范式产生深刻影响,它所衍生出的网络安全和违法犯罪问题已对现有法律规制逻辑和社会治理机制提出了严峻挑战,正在成为全球聚焦的严肃议题。  相似文献   

11.
庞宇  张玲 《行政与法》2023,(3):21-30
在线政务服务是数字政府建设的重要组成部分。目前,传统“瀑布模式”的在线政务服务呈现出“孤岛式”数据、“条块式”管理、“分散式”服务的特点,难以适应技术和用户需求快速变化所带来的新挑战。因此,需要一种新的方法支持治理的多样化和有效性,在这种情况下,敏捷治理理念应运而生。敏捷治理提供了政府数字化转型的新思路,改变“竖井”结构的内在制约,形成敏捷治理理念下在线政务服务四大优化路径,以推动政府数字治理和服务范式的转变。  相似文献   

12.
情感计算系基于目前的人工智能等技术,对人类此前未用科学描述过的情绪、感情等“主观”内容作出相对理性、精确分析乃至预测的技术。该技术的应用毫无疑问让行政治理迭代、高效,突出表现在催生跨物理空间的新治理场景、实现高精度的治理对象侧写、转型智慧型的行政治理模式等。但是,行政治理的无序利用将会产生至少三个层面的风险:因技术限度造成了无法产生对于治理来说所需要的精确性、因技术本身的要求产生对信息权等基本人权侵犯的高度风险以及因技术的不当应用造成的公权力扩张之风险。有鉴于此,应当基于法治精神实现情感计算技术之于行政治理应用中的内部和外部规制。内部规制上,将个人信息权益等作为保障核心并融入伦理原则形成情感计算的行动方案;外部规制上,搭建风险预防框架并确立规范、价值上的引导路径。  相似文献   

13.
以ChatGPT为代表的生成式人工智能技术产生,在极大地提升人们工作效率的同时,也在相关领域带来了诸多法律风险。这种风险具体表现为:数据使用风险、生成内容滥用风险、算法滥用风险以及其他风险。目前我国虽然已经初步具备了有关人工智能的基本治理框架,但相关的理论以及实践仍在治理主体、治理规范设置、治理手段以及治理规则适用等方案上存在不足。生成式人工智能的出现,凸显了科技进步迭代过程中产生的“破坏性创新”现象,这也倒逼我国当前的人工智能治理模式需要从回应型治理、集中型治理向敏捷型治理转换。这要求我国在总体上坚持包容审慎的治理态度,具体包括从法律层面的制度构建、软法规范层面的填补式风险治理以及通过监管沙盒实现敏捷型风险治理等三方面来完善现有的人工智能风险治理体系,在技术创新与风险治理之间寻求平衡,从而实现数字经济的健康持续发展。  相似文献   

14.
生成式人工智能技术作为一种“破坏性创新”,在推动技术变革的同时,也因其独特的技术逻辑带来了诸多治理风险。如生成式人工智能巨量化数据的训练模式存在数据侵权风险,基于人类反馈的强化学习模式则可能加剧虚假信息的生成和传播,其技术壁垒又会强化互联网巨头的垄断地位,进而带来一系列风险。而我国现行法律对生成式人工智能的规制虽然形成了初步框架,但仍在宏观和微观方面存在困境,以欧盟和美国的监管措施为镜鉴,我国应当秉持包容审慎的理念,协同多元主体对生成式人工智能进行共商共管,通过“共建”“共治”实现成果“共享”。  相似文献   

15.
我国推进药品安全社会治理的必要性在于有助于解决我国药品安全存在的现实问题.从“药品监管”到“药品安全社会治理”转变过程中,治理目标体现为确保公共利益,治理主体呈多元化,治理结构形成一种平等、合作的治理关系,治理手段是基于协调和参与.并从树立药品风险预防理念、创新多元主体参与制度、确立惩罚性赔偿制度、建立药品风险分担与激励惩戒机制等方面提出了药品安全社会治理的核心议题.  相似文献   

16.
反垄断事前监管、事后执法等外部管控式治理模式无法有力回应“规范与发展并重”的平台垄断治理时代命题,亟需引入新的治理模式。与反垄断事前监管关注市场结构、事后执法关注平台行为不同,合规治理关注平台本体、重视平台的主体地位与能动性。秉持主体本位的反垄断观,合规治理主张从外部管控转向内部自治,从惩罚威慑转向激励引导,从事后救济转向事前预防。在三重治理逻辑的指引下,合规治理规则的本土建构可主要从两个方面展开:一是引导平台建立以垄断风险识别、评估、提示以及控制为中心的合规内控机制,事前防范垄断风险;二是在合规治理体系中嵌入双向合规治理激励机制,增强平台落实合规治理的动力。合规治理也具有局限性,合规治理本质上属于平台自我监管,为避免合规治理异化,应强化对平台垄断合规治理的外部监督。  相似文献   

17.
程乐 《政法论丛》2023,(4):69-80
以ChatGPT为代表的生成式人工智能技术落地与大规模应用,改变了人类与人工智能的传统交互模式,对社会生产方式产生了重大变革。国际国内都出现了对人工智能主体地位及法律规制等方面的学术探讨,以应对生成式人工智能引发的伦理道德、知识产权保护、隐私与数据保护、市场垄断、网络犯罪和数据安全等一系列风险。在现阶段,我国生成式人工智能治理,应坚持安全与发展相平衡的理念,在以人为本的原则统领下设计人工智能伦理准则,推动构建以通用人工智能立法为基础,以生成式人工智能专门性管理办法为补充,以既有法律规范为根本的系统性人工智能法律规范体系。  相似文献   

18.
陈甦 《法学研究》2011,(5):3-19
我国法律体系形成过程的特点,造就了同时期法学研究的“立法中心主义”特征,具体表现为以功能设计与规范建构为路径的立法论研究范式、大规模引进域外立法材料引致的外源型研究范式、基于立法引导型建构的学术导向范式。这种“立法中心主义”的研究为法律体系的建构和充实作出了重大贡献。然而,社会主义法律体系形成后,“体系前研究范式”隐含的学术缺陷也日益明显,难以满足法治不断发展的需求,有必要向“体系后研究范式”转型。在建构体系后研究范式时,宜确立以中国问题为中心的学术取向、立足中国场景发现和讨论中国问题、基于平等心态拓展法学知识的域际交流、开展问题导向的新综合研究、赋予解释论研究以应有的时代使命。  相似文献   

19.
随着以ChatGPT为代表的生成式人工智能技术的突飞猛进,人工智能的伦理问题受到了广泛关注。生成式人工智能引发了削弱人类主体价值、加剧算法偏见与歧视、过度依赖拟态环境输出结果、人机协作双向价值对齐困难等伦理难题,亟须从人工智能伦理治理组织机制、人工智能伦理规范机制两方面入手,明确生成式人工智能应用中的人本主义立场,建构生成式人工智能治理的伦理规则,为增进人类福祉提供有力的伦理支撑。  相似文献   

20.
转型期中国政府改革之治理范式结构   总被引:2,自引:1,他引:1  
王成福  宋君 《行政与法》2003,3(10):17-19
改革开放以来,我国逐步进入社会转型期。以经济转型为主线的变革同时也推动了我国政治和社会的整体变革,政府改革也必然要与这个转型的方向相吻合,笔者把这种倾向称之为“治理取向”,把这种治理体系的确立过程称之为治理范式的建构。本文从市场经济体制的必然要求与经济全球化的压力两个方面阐明了治理范式建构的现实驱动力,并着重从有限政府、分权政府、法治政府、民主政府四个层面论述了其具体内涵。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号