首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
张凌寒 《现代法学》2023,(4):126-141
生成式人工智能改变了数字社会的生产架构,向既有的技术治理体系提出挑战。一是生成式人工智能呈现“基础模型—专业模型—服务应用”的分层业态,无法在现有的“技术支持者—服务提供者—内容生产者”监管框架中找到适配的法律定位;二是其传播模式和技术指标使得原有规制工具难以适用。生成式人工智能治理应符合其功能业态的技术逻辑,也应基于其在数字社会生产的地位,重新认识和调整生成式人工智能的法律定位,将模型作为新型的法律治理对象。生成式人工智能的基础模型因可接入千行百业而具有通用性,因同时提供信息内容与机器所需合成数据而具有强大赋能性,是人工智能时代的新型数字基础设施。应构建“基础模型—专业模型—服务应用”的分层治理体系,在不同的层次适配不同的规制思路与工具。在基础模型层以发展为导向,将其作为数字社会新型基础设施设置法律制度;在专业模型层以审慎包容为理念,进行分级分类并设置合理避风港规则;在服务应用层实施敏捷治理,建立合理容错制度。由此,我国得以从单一场景的算法治理发展为适应不同治理目标的复合型系统性治理。  相似文献   

2.
生成式人工智能技术作为一种“破坏性创新”,在推动技术变革的同时,也因其独特的技术逻辑带来了诸多治理风险。如生成式人工智能巨量化数据的训练模式存在数据侵权风险,基于人类反馈的强化学习模式则可能加剧虚假信息的生成和传播,其技术壁垒又会强化互联网巨头的垄断地位,进而带来一系列风险。而我国现行法律对生成式人工智能的规制虽然形成了初步框架,但仍在宏观和微观方面存在困境,以欧盟和美国的监管措施为镜鉴,我国应当秉持包容审慎的理念,协同多元主体对生成式人工智能进行共商共管,通过“共建”“共治”实现成果“共享”。  相似文献   

3.
生成式人工智能绘画的出现为人工智能行业带来了巨大的发展机遇,但也带来了一系列挑战,如侵权行为的普遍存在、造假行为的猖獗以及生成式人工智能绘画的售卖牟利和侵犯隐私等。这些问题都成为阻碍生成式人工智能绘画产业健康可持续发展的主要因素。生成式人工智能绘画侵权保护是一个包括政策、法律、科技、产业等多个领域和方面的系统性工程,要汇集多种力量共同推进。为了有效地防止生成式人工智能绘画侵权行为,应从生成式人工智能绘画的发展历程出发,系统分析生成式人工智能绘画侵权模式,深入探究生成式人工智能绘画的规制路径,从机制、主体、创新等多方面提出有效的优化策略,以期达到更好的法律规制效果。  相似文献   

4.
以ChatGPT为代表的生成式AI内容具有可版权性。就激励创作而言,被激励的对象并非生成式AI本身,而是使用生成式AI创作的人,生成式AI起到的依然是创作工具的作用,依可版权性将生成式AI内容置于版权法体系框架下进行保护符合最便宜保护形式的需要,同时能够为确定生成式AI内容版权侵权的责任主体提供依据。在生成式AI作品认定上,区别于传统作品的认定,应依独创性和实质性贡献来综合判断生成式AI内容是否为著作权法调整的作品。在生成式AI作品版权归属规则上,确定生成式AI作品的版权归属于真正创作该作品的人,即生成式AI的使用者,但允许通过约定的形式,借鉴合作作品权益分享规则,形成生成式AI开发者和使用者共有作品版权的权益归属规则。  相似文献   

5.
以ChatGPT为代表的生成式人工智能技术产生,在极大地提升人们工作效率的同时,也在相关领域带来了诸多法律风险。这种风险具体表现为:数据使用风险、生成内容滥用风险、算法滥用风险以及其他风险。目前我国虽然已经初步具备了有关人工智能的基本治理框架,但相关的理论以及实践仍在治理主体、治理规范设置、治理手段以及治理规则适用等方案上存在不足。生成式人工智能的出现,凸显了科技进步迭代过程中产生的“破坏性创新”现象,这也倒逼我国当前的人工智能治理模式需要从回应型治理、集中型治理向敏捷型治理转换。这要求我国在总体上坚持包容审慎的治理态度,具体包括从法律层面的制度构建、软法规范层面的填补式风险治理以及通过监管沙盒实现敏捷型风险治理等三方面来完善现有的人工智能风险治理体系,在技术创新与风险治理之间寻求平衡,从而实现数字经济的健康持续发展。  相似文献   

6.
以ChatGPT为代表的生成式人工智能在推动生产、生活方式发生颠覆性变革的同时,也给人类社会带来了巨大的技术风险。从刑事法治的角度来看,生成式人工智能数据处理不透明、生成过程不可控、输出内容复合性,以及技术滥用等蕴含着较大的犯罪风险,极易造成严重的危害结果。生成式人工智能带来的犯罪风险使刑法出现了行为规制缺漏、责任判断困难等问题,并对刑法人类中心主义造成了冲击。对此,刑法应当树立与智能时代相适应的基本理念,坚持刑法立法与刑法解释并重,兼顾安全保障与技术进步,在前瞻思考与现实理性之间实现有效平衡。在具体应对路径上,可以通过解释路径解决行为规制和责任归属问题,立法路径弥补现有规范的行为规制漏洞,并在刑法中明确服务提供者的保证人地位和刑事监管义务。  相似文献   

7.
生成式人工智能的侵权责任,在理论上可以从产品责任和一般侵权责任两种路径进行分析。在当前的法律框架下,对于以大语言模型为代表的生成式人工智能系统而言,不宜将其纳入到产品责任的范畴,而宜通过一般侵权责任制度并辅之以过错推定规则,这样既可以解决受害人的举证困难问题,也便于通过司法控制机制对生成式人工智能提供者的责任负担进行动态调整。为了维持生成式人工智能提供者与受害人之间的利益平衡,可以通过“通知—处置”规则对提供者施加消除侵权信息影响并防止系统再次生成侵权信息的义务。  相似文献   

8.
以ChatGPT为代表的生成式人工智能正在引发传统版权领域的诸多挑战,生成式人工智能主体资格、创作内容作品属性、版权侵权责任等问题需要进一步明确。遵循“人类中心主义”,生成式人工智能的主体资格面临既有制度规范、民事基础理论等方面的否定。然而,生成式人工智能创作内容具有可版权性,值得版权保护。为此,需要明晰生成式人工智能创作内容的权利主体,确立以约定优先为原则、以使用者为主导的版权归属路径。同时,构建生成式人工智能的版权侵权责任判定体系,准确划分机器学习行为的合法边界,推动生成式人工智能的创新发展。  相似文献   

9.
随着以ChatGPT为代表的生成式人工智能技术的突飞猛进,人工智能的伦理问题受到了广泛关注。生成式人工智能引发了削弱人类主体价值、加剧算法偏见与歧视、过度依赖拟态环境输出结果、人机协作双向价值对齐困难等伦理难题,亟须从人工智能伦理治理组织机制、人工智能伦理规范机制两方面入手,明确生成式人工智能应用中的人本主义立场,建构生成式人工智能治理的伦理规则,为增进人类福祉提供有力的伦理支撑。  相似文献   

10.
生成式人工智能的技术跃进架空了个人信息处理的告知同意规制和最小必要原则,引发了虚假信息生成和个人信息泄漏的广泛风险迭代问题。传统个人信息的权利保护路径面临认知和结构困境,无法应对生成式人工智能给个人信息保护带来极大挑战。以风险控制为导向的个人信息保护机制不强调信息主体对个人信息的绝对控制,旨在通过识别、评估、分配和管理将风险控制在最小范围内,可以灵活和实用地平衡生成式人工智能应用中的信息利用和风险控制,提供有效的解决方案。在风险控制理念下,对告知同意规则和最小必要原则进行风险化解释与调试,并建立从预防到识别再到控制的虚假信息生成风险的全过程应对机制,以及基于风险的个人信息保护合规管理体系,是当前的最优选择。  相似文献   

11.
程乐 《政法论丛》2023,(4):69-80
以ChatGPT为代表的生成式人工智能技术落地与大规模应用,改变了人类与人工智能的传统交互模式,对社会生产方式产生了重大变革。国际国内都出现了对人工智能主体地位及法律规制等方面的学术探讨,以应对生成式人工智能引发的伦理道德、知识产权保护、隐私与数据保护、市场垄断、网络犯罪和数据安全等一系列风险。在现阶段,我国生成式人工智能治理,应坚持安全与发展相平衡的理念,在以人为本的原则统领下设计人工智能伦理准则,推动构建以通用人工智能立法为基础,以生成式人工智能专门性管理办法为补充,以既有法律规范为根本的系统性人工智能法律规范体系。  相似文献   

12.
侯跃伟 《河北法学》2024,(2):160-178
技术的突破性发展,极易导致刑事风险的激增。既有刑事法律体系前瞻性和抽象性的欠缺,导致刑法缺乏针对性的规制措施。为了更好地应对生成式人工智能可能造成的刑事风险,应当结合其运行原理和基本特征,精准发掘其内生性缺陷和刑事风险,理顺其治理理念,将发展作为第一要务,兼顾依法治理、自主可控;同时,顺应我国当前的发展趋势,优化营商环境,从平台责任向个人责任回归,构建分级分类的监管模式,推动我国生成式人工智能的健康发展。  相似文献   

13.
刘宪权 《现代法学》2023,(4):110-125
ChatGPT等生成式人工智能的出现意味着人工智能的“技术奇点”越来越近。GPT-4及更进一步的生成式人工智能已经触及了强人工智能的边缘,使我们真真切切地感受到强人工智能时代“未来已来”。ChatGPT等生成式人工智能具有一定的逻辑推理能力和创造能力,甚至还具有通过其自身独立进行编程的能力,从而拥有脱离人类的独立意识和自主意志的可能性。对ChatGPT等生成式人工智能进行刑法学研究刻不容缓。根据不同的标准,可以对ChatGPT等生成式人工智能可能引发的犯罪类型进行多种分类。以相关行为符合的罪名和行为类型为标准,ChatGPT等生成式人工智能可能涉及的犯罪可分为煽动类犯罪,侵犯知识产权类犯罪,侵犯数据、信息、计算机信息系统类犯罪,侵犯公民人身权利类犯罪,以及传授犯罪方法、提供犯罪程序类犯罪等。比人脑更“聪明”且具有独立意识和自主意识的人工智能无疑会对现有刑法理论和刑罚体系造成巨大冲击。  相似文献   

14.
生成式人工智能通过“准备-运算-生成”的运行模式为人们提供了创造性和高效的内容生成工具,深刻改变了创作、沟通和信息传播方式。但其在给人们带来便利的同时也带来了一系列的法律风险,如在准备阶段出现了数据安全和算法偏见风险等问题,在运算阶段存在隐私泄露和网络侵权、欺诈风险等问题,在生成阶段引发了版权及版权归属不明和商业秘密泄露及其导致的不正当竞争等问题。对于以上法律风险问题,需要以安全负责和科技向善为着眼点,选择相对应的法律规制路径,这有助于平衡技术创新与社会稳定之间的关系,保障公众权益。  相似文献   

15.
生成式人工智能技术塑造了人机共生的新型关系,不能简单等同于深度合成技术、智能交互技术、高风险人工智能。新型的人机关系中,既存在人的自主性危机,也有被放大的人工智能治理风险。在风险应对的逻辑中,生成式人工智能的定位应从“老师”转向“伙伴”,不应对服务提供者提出过高要求并作简单的结果评价;同时,应将治理维度从算法治理拓展到用户治理之中。在具体的治理路径上,首先应坚持包容审慎原则,设置过程义务及对应的责任豁免规则;其次,在高风险场景中,应持续进行风险影响评估、充分保证人类监督并提升算法透明度;最后,应通过伦理审查、行业自律、数字素养提升的伦理治理方案以捍卫人的自主性。  相似文献   

16.
ChatGPT的出现标志着生成式人工智能在语义理解和知识创造上逐渐向类似人类的方向进化。通过ChatGPT的知识代理式协助,人类开启了与客观知识世界间的双向交互,这虽然增强了知识获取的灵活性和针对性,但也带来了工具性的技术滥用风险和内因性的数据安全风险。这两类风险加剧了虚假信息传播、犯罪方法传授、用户数据泄露等危害行为的异化,对传统事后回应型治理模式提出挑战。对此,犯罪治理应围绕技术加速迭代与治理资源不足间的显性矛盾,以及平台权力扩张与监管力量失衡间的隐性矛盾,从“看门人义务”的体系性完善和数据安全监管义务的实质性强化出发,将立法导向内嵌于技术理性之中,探索符合人类社会发展需要的生成式人工智能治理机制。  相似文献   

17.
袁彬  薛力铭 《河北法学》2024,(2):140-159
利用生成式人工智能实施诈骗等犯罪的定性较为复杂,实现生成式人工智能提供者与使用者的相关行为合理的刑法规制需要区别对待。针对生成式人工智能提供者,因无法适用《刑法》第285条第3款、第286条之一以及第287条之二,合适的做法是依据新过失论对其适用过失责任,同时通过立法明确生成式人工智能提供者的责任依据;针对生成式人工智能的使用者,因《刑法》第253条之一无法评价“合法获取、非法使用”的情形,使用者不构成侵犯公民个人信息罪,但其使用行为可构成非法利用信息网络罪,若构成非法利用信息网络罪与诈骗罪的牵连,应依据处罚较重的罪名定罪处罚。  相似文献   

18.
作为一种基于机器学习的人工智能技术,生成式人工智能通过大规模数据集的学习训练来生成新的内容。生成式人工智能的快速迭代发展与机器学习的强数据依赖,在带来“创作”便利的同时,也给传统著作权理论带来了挑战。尤其是机器学习中的大规模素材训练所面临的著作权风险,亟待理论上的剖析厘清、司法实践上的准则确立。笔者从生成式人工智能的技术原理出发,通过梳理其素材来源与使用方式,分析机器学习素材训练中的典型侵权类型。并从理论基础、国内司法、欧盟立法等方面分析合理使用制度相对于法定许可制度的可行性。最终提出将生成式人工智能机器学习中的版权作品使用行为纳入合理使用制度范畴,既是当今科技发展浪潮中促进人工智能产业发展的最优解,也是维持“个人利益”与“公共利益”之间平衡的理性考量。  相似文献   

19.
在当前生成式人工智能的运行过程中,个人信息面临着收集范围与限度不明、算法违规处理及生成错误结论等问题,因此亟须构建个人信息保护的全流程合规体系。在准备阶段,生成式人工智能应该基于最小必要原则来明确合规收集范围,并将个人信息进行碎片化处理来合规限制收集深度。在运算阶段,生成式人工智能应该在自我学习时通过知识蒸馏构建学生模型来保证算法合规,并进行安全评估与算法备案。对一般类型个人信息、敏感个人信息及生物特征信息采用不同的合规处理模式,并在反馈阶段标注存在风险的个人信息,反向推动算法进行自我改进。在生成阶段,当生成错误结论时,合规监管部门应该分类审查生成式人工智能在个人信息处理上的缺陷,并从合规有效性标准、算法运算逻辑及实质法益损害这三个方面判断平台能否实质出罪。  相似文献   

20.
大型语言模型促进了生成式人工智能的蓬勃发展。大型语言模型通常作为通用生成式人工智能的技术底层发挥作用,具备信息价值、情感价值、思维价值和劳动价值,也包含信息内容风险、数据与算法安全风险、侵权风险、诚信风险等系列法律风险。大型语言模型及相关应用的法律风险治理面临微观和宏观层面的系列挑战,需要平衡多方面的目标,应当基于包容审慎监管、分层治理、深度治理和敏捷治理的路径对大型语言模型的法律风险治理开展谨慎、灵活的探索性制度实践,进而逐步完善生成式人工智能的风险治理体系。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号