首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
程乐 《政法论丛》2023,(4):69-80
以ChatGPT为代表的生成式人工智能技术落地与大规模应用,改变了人类与人工智能的传统交互模式,对社会生产方式产生了重大变革。国际国内都出现了对人工智能主体地位及法律规制等方面的学术探讨,以应对生成式人工智能引发的伦理道德、知识产权保护、隐私与数据保护、市场垄断、网络犯罪和数据安全等一系列风险。在现阶段,我国生成式人工智能治理,应坚持安全与发展相平衡的理念,在以人为本的原则统领下设计人工智能伦理准则,推动构建以通用人工智能立法为基础,以生成式人工智能专门性管理办法为补充,以既有法律规范为根本的系统性人工智能法律规范体系。  相似文献   

2.
大型语言模型促进了生成式人工智能的蓬勃发展。大型语言模型通常作为通用生成式人工智能的技术底层发挥作用,具备信息价值、情感价值、思维价值和劳动价值,也包含信息内容风险、数据与算法安全风险、侵权风险、诚信风险等系列法律风险。大型语言模型及相关应用的法律风险治理面临微观和宏观层面的系列挑战,需要平衡多方面的目标,应当基于包容审慎监管、分层治理、深度治理和敏捷治理的路径对大型语言模型的法律风险治理开展谨慎、灵活的探索性制度实践,进而逐步完善生成式人工智能的风险治理体系。  相似文献   

3.
深度合成技术是人工智能领域里一项颠覆性技术突破,该技术在满足人们多元化需求的同时也产生了技术异化、信息失真、信息泄露等风险.应从多个维度协同治理深度合成技术所生风险:在技术层面,以技术规制技术,提高溯源防伪和反向破解技术的能力水平,发挥技术的规范功能;在行业层面,以商业伦理治理技术,强化伦理的引导作用和业内组织的协调能力;在法律层面,以法律规范技术,结合中国实际和借鉴外国立法经验,以《民法典》的相关条款为基础,明确技术的使用边界、使用程序及滥用技术的法律后果等.  相似文献   

4.
生成式人工智能技术作为一种“破坏性创新”,在推动技术变革的同时,也因其独特的技术逻辑带来了诸多治理风险。如生成式人工智能巨量化数据的训练模式存在数据侵权风险,基于人类反馈的强化学习模式则可能加剧虚假信息的生成和传播,其技术壁垒又会强化互联网巨头的垄断地位,进而带来一系列风险。而我国现行法律对生成式人工智能的规制虽然形成了初步框架,但仍在宏观和微观方面存在困境,以欧盟和美国的监管措施为镜鉴,我国应当秉持包容审慎的理念,协同多元主体对生成式人工智能进行共商共管,通过“共建”“共治”实现成果“共享”。  相似文献   

5.
以ChatGPT为代表的生成式人工智能在推动生产、生活方式发生颠覆性变革的同时,也给人类社会带来了巨大的技术风险。从刑事法治的角度来看,生成式人工智能数据处理不透明、生成过程不可控、输出内容复合性,以及技术滥用等蕴含着较大的犯罪风险,极易造成严重的危害结果。生成式人工智能带来的犯罪风险使刑法出现了行为规制缺漏、责任判断困难等问题,并对刑法人类中心主义造成了冲击。对此,刑法应当树立与智能时代相适应的基本理念,坚持刑法立法与刑法解释并重,兼顾安全保障与技术进步,在前瞻思考与现实理性之间实现有效平衡。在具体应对路径上,可以通过解释路径解决行为规制和责任归属问题,立法路径弥补现有规范的行为规制漏洞,并在刑法中明确服务提供者的保证人地位和刑事监管义务。  相似文献   

6.
生成式人工智能绘画的出现为人工智能行业带来了巨大的发展机遇,但也带来了一系列挑战,如侵权行为的普遍存在、造假行为的猖獗以及生成式人工智能绘画的售卖牟利和侵犯隐私等。这些问题都成为阻碍生成式人工智能绘画产业健康可持续发展的主要因素。生成式人工智能绘画侵权保护是一个包括政策、法律、科技、产业等多个领域和方面的系统性工程,要汇集多种力量共同推进。为了有效地防止生成式人工智能绘画侵权行为,应从生成式人工智能绘画的发展历程出发,系统分析生成式人工智能绘画侵权模式,深入探究生成式人工智能绘画的规制路径,从机制、主体、创新等多方面提出有效的优化策略,以期达到更好的法律规制效果。  相似文献   

7.
ChatGPT的出现标志着生成式人工智能在语义理解和知识创造上逐渐向类似人类的方向进化。通过ChatGPT的知识代理式协助,人类开启了与客观知识世界间的双向交互,这虽然增强了知识获取的灵活性和针对性,但也带来了工具性的技术滥用风险和内因性的数据安全风险。这两类风险加剧了虚假信息传播、犯罪方法传授、用户数据泄露等危害行为的异化,对传统事后回应型治理模式提出挑战。对此,犯罪治理应围绕技术加速迭代与治理资源不足间的显性矛盾,以及平台权力扩张与监管力量失衡间的隐性矛盾,从“看门人义务”的体系性完善和数据安全监管义务的实质性强化出发,将立法导向内嵌于技术理性之中,探索符合人类社会发展需要的生成式人工智能治理机制。  相似文献   

8.
张凌寒 《现代法学》2023,(4):126-141
生成式人工智能改变了数字社会的生产架构,向既有的技术治理体系提出挑战。一是生成式人工智能呈现“基础模型—专业模型—服务应用”的分层业态,无法在现有的“技术支持者—服务提供者—内容生产者”监管框架中找到适配的法律定位;二是其传播模式和技术指标使得原有规制工具难以适用。生成式人工智能治理应符合其功能业态的技术逻辑,也应基于其在数字社会生产的地位,重新认识和调整生成式人工智能的法律定位,将模型作为新型的法律治理对象。生成式人工智能的基础模型因可接入千行百业而具有通用性,因同时提供信息内容与机器所需合成数据而具有强大赋能性,是人工智能时代的新型数字基础设施。应构建“基础模型—专业模型—服务应用”的分层治理体系,在不同的层次适配不同的规制思路与工具。在基础模型层以发展为导向,将其作为数字社会新型基础设施设置法律制度;在专业模型层以审慎包容为理念,进行分级分类并设置合理避风港规则;在服务应用层实施敏捷治理,建立合理容错制度。由此,我国得以从单一场景的算法治理发展为适应不同治理目标的复合型系统性治理。  相似文献   

9.
以ChatGPT为代表的大型生成式语言模型通过对海量自然语言文本数据的学习,运用统计学和概率分布预测下一个单词或句子,从而实现流畅连贯、语法正确、具备逻辑的文本生成。这一技术机理虽能提升模型性能,但却在内容公平性、真实性和可靠性方面带来治理挑战。概率生成文本的方式存在难以控制内容质量的问题。基于网络文本语料库的训练可能嵌入算法偏见,人类反馈强化学习可能加剧虚假信息的生成与传播风险,模型的涌现性还可能产生意料之外的治理风险。迈向“模型泛在”的人工智能2.0时代,生成式人工智能的治理应遵循敏捷治理与韧性治理并重、精准治理和参与式治理协同的原则。针对“模型即服务”的新型产业生态链,围绕信息生产变迁和产业链变迁的核心特性,构建基于应用程序接口模式的治理、基于插件模式的治理和基于模型垂直部署模式的治理架构。  相似文献   

10.
人工智能技术引发各类伦理与法律问题,对人工智能进行规范已经成为世界共识。基于此,各国学者针对人工智能应用规范展开研究,呈现出从伦理规范研究向法律规范研究演进的态势。当前,国外人工智能应用规范研究已经取得多项共识,同时也存在诸多争议。主要共识包括三点:一是人工智能伦理研究的方向应为社会伦理,二是基于确定的人工智能伦理,研究重点应当进一步转向技术实现,三是人工智能伦理规范具有局限性,未经法律规范的人工智能具有侵权风险。现有争议主要集中在人工智能立法的重点问题、人工智能治理的重要方向、人工智能法律体系的构建取向上。主要争议问题包括:人工智能是否具有法律主体资格、人工智能应用侵权的法律责任、人工智能治理中的发展与规范冲突、人工智能治理中的预防与监管平衡、人工智能特殊法律体系构建的主要方向等。未来研究应当立足现有对伦理原则的共识和对重点法律问题的讨论,从系统视角设计人工智能法律规范体系,同时在方法上注意融入计算机领域的研究方法,强化人工智能的技术属性。  相似文献   

11.
生成式人工智能技术塑造了人机共生的新型关系,不能简单等同于深度合成技术、智能交互技术、高风险人工智能。新型的人机关系中,既存在人的自主性危机,也有被放大的人工智能治理风险。在风险应对的逻辑中,生成式人工智能的定位应从“老师”转向“伙伴”,不应对服务提供者提出过高要求并作简单的结果评价;同时,应将治理维度从算法治理拓展到用户治理之中。在具体的治理路径上,首先应坚持包容审慎原则,设置过程义务及对应的责任豁免规则;其次,在高风险场景中,应持续进行风险影响评估、充分保证人类监督并提升算法透明度;最后,应通过伦理审查、行业自律、数字素养提升的伦理治理方案以捍卫人的自主性。  相似文献   

12.
谢肇煌 《财经法学》2023,(1):134-150
作为市场力量影响重整程序、塑造重整制度的典型体现,公司重整中的债权交易从利益分配和公司治理两个层面撼动了公司重整原有的制度逻辑。债权交易同时为各方利害关系人带来收益与风险:一方面,债权交易能增进市场上资本分配的效率,促进重整的成功;另一方面,债权交易也可能会破坏公司重整中的分配秩序和治理机制,造成营运价值被侵蚀,损害利害关系人共同利益。由破产法和证券法组成的法律规制体系,能有效防范债权交易在利益分配和公司治理两个层面带来的风险。防范利益分配层面的风险,主要通过破产法和证券法上的信息披露制度来实现;防范公司治理层面的风险,主要通过对法院的概括授权以及重整计划投票规则来实现。我国发展破产债权市场具有必要性与可行性,应当鼓励公司重整中的债权交易,推动破产债权市场的发展,同时完善相应的法律规制体系。  相似文献   

13.
《北方法学》2020,(3):149-160
反垄断法通常以构成滥用市场支配地位为由对标准必要专利权滥用的行为进行规制。实际上,滥用标准必要专利权并非都可以适用反垄断法。单独标准必要专利的许可市场不应直接推定为独立相关市场,标准必要专利持有人更不必然拥有市场支配地位。大量无效、非必要以及过期专利充斥在技术标准之中也对相关市场以及持有人市场支配地位的认定产生直接影响。滥用标准必要专利权最主要表现是专利劫持导致的不公平高价行为,对此行为反垄断应采取比较谨慎和温和的态度,只适用于对市场竞争和技术创新产生重大影响等非常特殊的情形。从法律效果和法律功能上看,仅仅依靠反垄断法规制滥用标准必要专利权案件还会存在对被劫持者关注不足的问题,并可能导致对权利人威慑过度进而引发反向劫持的风险。在肯定反垄断法在规制滥用标准必要专利权上的重要作用的同时,也要意识到专利法作为内部限制所具备的优越性,以及反垄断法之外,其他属于外部限制法律规范的补充作用。  相似文献   

14.
随着以ChatGPT为代表的生成式人工智能技术的突飞猛进,人工智能的伦理问题受到了广泛关注。生成式人工智能引发了削弱人类主体价值、加剧算法偏见与歧视、过度依赖拟态环境输出结果、人机协作双向价值对齐困难等伦理难题,亟须从人工智能伦理治理组织机制、人工智能伦理规范机制两方面入手,明确生成式人工智能应用中的人本主义立场,建构生成式人工智能治理的伦理规则,为增进人类福祉提供有力的伦理支撑。  相似文献   

15.
ChatGPT是基于大型神经网络语言模型并通过强化学习进行训练,能够实现与用户深度交流的生成式人工智能。在人工智能背景下,现行刑法尚不足以抵御生成式人工智能带来的数据安全风险。生成式人工智能对数据的海量获取需求,与刑法中的数据控制保护理念存在天然矛盾;生成式人工智能因其存在自由意志的现实可能性,对传统刑事责任主体的范围也发起了挑战。故应从两方面着手提升刑法对新形势下数据安全的保护能力:一方面刑法对数据安全的保护应从数据控制保护模式转向数据利用保护模式,包括建立非法获取行为的出罪机制、规制数据滥用行为,以及建构专门的数据安全刑法保护体系;另一方面,应考虑人工智能体成为刑事责任主体的可能性,对其自由意志支配下实施的数据侵害行为进行自我答责。  相似文献   

16.
技术规范是有关人类在利用各类技术时应当遵守的行为准则,由于技术的高度专业性,传统刑法规范难以完全适用其中,因此必要时技术规范也可以进入刑法规制.普通法律规范规制“信息技术”可能产生的漏洞与风险,人工智能刑法规制中涉及的高度技术性及其专业性,人工智能时代面临着未来刑法规范的必要转型.未来人工智能刑法规制中“技术规范”的拓展至全方位动态技术监管体系,需要进一步固定与设计技术法律规范的概念标准,需要进一步完善和加强技术法律规范的具体制度,在搭建起数据安全动态监管框架的基础之上,需要考虑进行框架内具体的技术规范制度设计与填充.为避免数据安全技术法律规范原则性的概括指导,应对人工智能技术特征、行为模式、侵害后果进行全面而具体的把握,设计一整套全方位、综合性的技术规范,以期实现数据安全风险的最小化.  相似文献   

17.
袁彬  薛力铭 《河北法学》2024,(2):140-159
利用生成式人工智能实施诈骗等犯罪的定性较为复杂,实现生成式人工智能提供者与使用者的相关行为合理的刑法规制需要区别对待。针对生成式人工智能提供者,因无法适用《刑法》第285条第3款、第286条之一以及第287条之二,合适的做法是依据新过失论对其适用过失责任,同时通过立法明确生成式人工智能提供者的责任依据;针对生成式人工智能的使用者,因《刑法》第253条之一无法评价“合法获取、非法使用”的情形,使用者不构成侵犯公民个人信息罪,但其使用行为可构成非法利用信息网络罪,若构成非法利用信息网络罪与诈骗罪的牵连,应依据处罚较重的罪名定罪处罚。  相似文献   

18.
吴玄 《检察风云》2023,(19):14-15
<正>近日,全国多地发生FaceTime诈骗事件,同时有不少苹果用户在社交平台上反映相关问题。作为一种常见的交流方式,线上视频在为人们的工作生活带来极大便利的同时,也存在着诸多个人信息风险。当下,以ChatGPT为代表的生成式人工智能技术的突破,更加凸显出个人信息保护面临的新问题与新挑战。不断迭代的人工智能技术随着信息技术的发展,在线上视频中伪造受害者的人脸已经不是难事,其具体使用的,就是人工智能的深度合成技术。  相似文献   

19.
人工智能是人类社会的伟大发明,同时也存有巨大的社会风险。它或是“技术—经济”决策导致的风险,也可能是法律保护的科技文明本身带来的风险,这一社会风险具有共生性、时代性、全球性的特点。同时,智能革命对当下的法律规则和法律秩序带来一场前所未有的挑战,在民事主体法、著作权法、侵权责任法、人格权法、交通法、劳动法等诸多方面与现有法律制度形成冲突,凸显法律制度产品供给的缺陷。对于人工智能引发的现代性的负面影响,有必要采取风险措施,即预防性行为和因应性制度。面向未来时代的调整规范构成,应以人工智能的发展与规制为主题,形成制度性、法治化的社会治理体系,包括以安全为核心的法律价值目标、以伦理为先导的社会规范调控体系和以技术、法律为主导的风险控制机制。借鉴国外经验,立足本土需要,当前应尽快出台 “国家发展战略”,及时制定“机器人伦理章程”,适时进行机器人专门立法。  相似文献   

20.
人工智能生成技术方案的出现,使专利法面临着诸多方面的挑战。理论层面,鉴于人工智能法律主体资格的缺失,无论是以洛克劳动学说和黑格尔人格学说为代表的“自然权利论”,还是以实现利益最大化为基础的“创新激励论”,都无法为人工智能生成技术方案的专利保护正当性提供充分的理论证成。实践层面,由于相关法律关系的复杂性,人工智能生成技术方案的专利法规制中,则存在着在可专利性判断标准的失灵问题、获得专利保护后的权责分配问题以及进入公有领域后的风险控制问题等一系列实践难题。因此,有必要通过引入人工智能作为技术“发明人”的制度设计、创立人工智能生成技术方案的可专利性标准、构建人工智能生成专利技术的权责分配规则、设置人工智能生成现有技术的风险防范机制等法律对策,消除理论争议并化解实践难题,以此实现专利法对人工智能生成技术方案的有效规制。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号