首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
以ChatGPT为代表的新一代生成式人工智能的产生具有革命性和划时代意义。生成式人工智能的存在和发展必然极大程度引发社会生产力的新一轮爆发,进而决定生产关系发生重大改变。时下ChatGPT等生成式人工智能仍然属于弱人工智能范围,但该技术的发展对传统刑法理论已经并将继续造成重大影响。ChatGPT等生成式人工智能可能改变传统犯罪的行为类型、影响刑事责任的分配与转移并且改变现有的刑事责任主体范围。不能因为ChatGPT等生成式人工智能不是人,而就一定不能成为刑事责任主体;不能因为ChatGPT等生成式人工智能没有生命,而就一定不具有刑事责任能力;不能因为ChatGPT等生成式人工智能没有人脑,而就一定不会具有独立意识意志(即辨认、控制能力);不能因为ChatGPT等生成式人工智无法具体适用现行刑法中的刑罚,而就一定不能成为刑事责任主体。ChatGPT等生成式人工智能与人类一样可能是同时受自然法则(他律的、自然律的因果性)和道德法则(自律的、由自由而来的因果性)支配的物种,从而推定其可能拥有自由意志,进而满足承担刑事责任或者成为刑事责任主体的最本质条件。  相似文献   

2.
以ChatGPT为代表的生成式人工智能正在引发传统版权领域的诸多挑战,生成式人工智能主体资格、创作内容作品属性、版权侵权责任等问题需要进一步明确。遵循“人类中心主义”,生成式人工智能的主体资格面临既有制度规范、民事基础理论等方面的否定。然而,生成式人工智能创作内容具有可版权性,值得版权保护。为此,需要明晰生成式人工智能创作内容的权利主体,确立以约定优先为原则、以使用者为主导的版权归属路径。同时,构建生成式人工智能的版权侵权责任判定体系,准确划分机器学习行为的合法边界,推动生成式人工智能的创新发展。  相似文献   

3.
ChatGPT的出现标志着生成式人工智能在语义理解和知识创造上逐渐向类似人类的方向进化。通过ChatGPT的知识代理式协助,人类开启了与客观知识世界间的双向交互,这虽然增强了知识获取的灵活性和针对性,但也带来了工具性的技术滥用风险和内因性的数据安全风险。这两类风险加剧了虚假信息传播、犯罪方法传授、用户数据泄露等危害行为的异化,对传统事后回应型治理模式提出挑战。对此,犯罪治理应围绕技术加速迭代与治理资源不足间的显性矛盾,以及平台权力扩张与监管力量失衡间的隐性矛盾,从“看门人义务”的体系性完善和数据安全监管义务的实质性强化出发,将立法导向内嵌于技术理性之中,探索符合人类社会发展需要的生成式人工智能治理机制。  相似文献   

4.
袁彬  薛力铭 《河北法学》2024,(2):140-159
利用生成式人工智能实施诈骗等犯罪的定性较为复杂,实现生成式人工智能提供者与使用者的相关行为合理的刑法规制需要区别对待。针对生成式人工智能提供者,因无法适用《刑法》第285条第3款、第286条之一以及第287条之二,合适的做法是依据新过失论对其适用过失责任,同时通过立法明确生成式人工智能提供者的责任依据;针对生成式人工智能的使用者,因《刑法》第253条之一无法评价“合法获取、非法使用”的情形,使用者不构成侵犯公民个人信息罪,但其使用行为可构成非法利用信息网络罪,若构成非法利用信息网络罪与诈骗罪的牵连,应依据处罚较重的罪名定罪处罚。  相似文献   

5.
<正>ChatGPT“生成式”人工智能新技术被互联网专家认为是通用人工智能的奇点,也是未来强人工智能的拐点。((1))它制造了巨大商业价值的同时也在线提供了诸多的“犯罪创意”。该项革命性的技术成果将对法学认知范式产生深刻影响,它所衍生出的网络安全和违法犯罪问题已对现有法律规制逻辑和社会治理机制提出了严峻挑战,正在成为全球聚焦的严肃议题。  相似文献   

6.
以ChatGPT为代表的生成式人工智能在推动生产、生活方式发生颠覆性变革的同时,也给人类社会带来了巨大的技术风险。从刑事法治的角度来看,生成式人工智能数据处理不透明、生成过程不可控、输出内容复合性,以及技术滥用等蕴含着较大的犯罪风险,极易造成严重的危害结果。生成式人工智能带来的犯罪风险使刑法出现了行为规制缺漏、责任判断困难等问题,并对刑法人类中心主义造成了冲击。对此,刑法应当树立与智能时代相适应的基本理念,坚持刑法立法与刑法解释并重,兼顾安全保障与技术进步,在前瞻思考与现实理性之间实现有效平衡。在具体应对路径上,可以通过解释路径解决行为规制和责任归属问题,立法路径弥补现有规范的行为规制漏洞,并在刑法中明确服务提供者的保证人地位和刑事监管义务。  相似文献   

7.
<正>技术天然具有两面性特征,类Chat GPT生成式人工智能在给人们带来便利和美好憧憬的同时,也蕴含着犯罪风险。帕加洛在《法律与人工智能高级导论》中指出,“人工智能可能具有特定形式的犯罪人格,考虑到人工智能的灵活性,可塑造机器人和人工智能系统,以从事输入、输出和逻辑操作的连接为特征的活动……人工智能犯罪新场景的唯一限制是人类的想象力”。  相似文献   

8.
程乐 《政法论丛》2023,(4):69-80
以ChatGPT为代表的生成式人工智能技术落地与大规模应用,改变了人类与人工智能的传统交互模式,对社会生产方式产生了重大变革。国际国内都出现了对人工智能主体地位及法律规制等方面的学术探讨,以应对生成式人工智能引发的伦理道德、知识产权保护、隐私与数据保护、市场垄断、网络犯罪和数据安全等一系列风险。在现阶段,我国生成式人工智能治理,应坚持安全与发展相平衡的理念,在以人为本的原则统领下设计人工智能伦理准则,推动构建以通用人工智能立法为基础,以生成式人工智能专门性管理办法为补充,以既有法律规范为根本的系统性人工智能法律规范体系。  相似文献   

9.
ChatGPT是基于大型神经网络语言模型并通过强化学习进行训练,能够实现与用户深度交流的生成式人工智能。在人工智能背景下,现行刑法尚不足以抵御生成式人工智能带来的数据安全风险。生成式人工智能对数据的海量获取需求,与刑法中的数据控制保护理念存在天然矛盾;生成式人工智能因其存在自由意志的现实可能性,对传统刑事责任主体的范围也发起了挑战。故应从两方面着手提升刑法对新形势下数据安全的保护能力:一方面刑法对数据安全的保护应从数据控制保护模式转向数据利用保护模式,包括建立非法获取行为的出罪机制、规制数据滥用行为,以及建构专门的数据安全刑法保护体系;另一方面,应考虑人工智能体成为刑事责任主体的可能性,对其自由意志支配下实施的数据侵害行为进行自我答责。  相似文献   

10.
ChatGPT以其高度拟人化的输出结果和对话式的交互方式,模糊了传统劳动工具和劳动主体之间的界限,为我们展示了一种人工智能深度参与人类活动的人机共融情景。但以ChatGPT为典型的生成式人工智能的生成物,其可著作权性问题就因为其在形式上不断接近人类作品,而引起了高度关注。从ChatGPT的运作过程、生成物特点上来看,生成式人工智能生成物在形式表现上与人的作品几乎无异,但人工智能本身却无创作意识也无思想情感。在面临着劳动主体、激励作用和权利桎梏上的赋权困境,生成式人工智能生成物在可见的将来更适合成为公共领域中的开放知识。  相似文献   

11.
随着以ChatGPT为代表的生成式人工智能技术的突飞猛进,人工智能的伦理问题受到了广泛关注。生成式人工智能引发了削弱人类主体价值、加剧算法偏见与歧视、过度依赖拟态环境输出结果、人机协作双向价值对齐困难等伦理难题,亟须从人工智能伦理治理组织机制、人工智能伦理规范机制两方面入手,明确生成式人工智能应用中的人本主义立场,建构生成式人工智能治理的伦理规则,为增进人类福祉提供有力的伦理支撑。  相似文献   

12.
作为一种基于机器学习的人工智能技术,生成式人工智能通过大规模数据集的学习训练来生成新的内容。生成式人工智能的快速迭代发展与机器学习的强数据依赖,在带来“创作”便利的同时,也给传统著作权理论带来了挑战。尤其是机器学习中的大规模素材训练所面临的著作权风险,亟待理论上的剖析厘清、司法实践上的准则确立。笔者从生成式人工智能的技术原理出发,通过梳理其素材来源与使用方式,分析机器学习素材训练中的典型侵权类型。并从理论基础、国内司法、欧盟立法等方面分析合理使用制度相对于法定许可制度的可行性。最终提出将生成式人工智能机器学习中的版权作品使用行为纳入合理使用制度范畴,既是当今科技发展浪潮中促进人工智能产业发展的最优解,也是维持“个人利益”与“公共利益”之间平衡的理性考量。  相似文献   

13.
生成式人工智能绘画的出现为人工智能行业带来了巨大的发展机遇,但也带来了一系列挑战,如侵权行为的普遍存在、造假行为的猖獗以及生成式人工智能绘画的售卖牟利和侵犯隐私等。这些问题都成为阻碍生成式人工智能绘画产业健康可持续发展的主要因素。生成式人工智能绘画侵权保护是一个包括政策、法律、科技、产业等多个领域和方面的系统性工程,要汇集多种力量共同推进。为了有效地防止生成式人工智能绘画侵权行为,应从生成式人工智能绘画的发展历程出发,系统分析生成式人工智能绘画侵权模式,深入探究生成式人工智能绘画的规制路径,从机制、主体、创新等多方面提出有效的优化策略,以期达到更好的法律规制效果。  相似文献   

14.
胡铭  陈竟 《人民检察》2023,(10):45-50
类ChatGPT模型作为多模态大模型,相较于传统人工智能,在数据分析与处理能力、专业素养、自然语言生成及理解能力等多个方面表现出色,这为我国数字检察实践提供了诸多机遇。但类ChatGPT模型也可能带来法律伦理与责任、技术可靠性以及数据安全等问题。为应对类ChatGPT模型给数字检察带来的风险,需要确立人工智能技术应用于数字检察的一般性原则;建立问责制度,促进司法人工智能应用的规范化、法治化;建立审查制度;建立数据安全制度,保障国家数据安全与公民个人信息安全。  相似文献   

15.
生成式人工智能技术作为一种“破坏性创新”,在推动技术变革的同时,也因其独特的技术逻辑带来了诸多治理风险。如生成式人工智能巨量化数据的训练模式存在数据侵权风险,基于人类反馈的强化学习模式则可能加剧虚假信息的生成和传播,其技术壁垒又会强化互联网巨头的垄断地位,进而带来一系列风险。而我国现行法律对生成式人工智能的规制虽然形成了初步框架,但仍在宏观和微观方面存在困境,以欧盟和美国的监管措施为镜鉴,我国应当秉持包容审慎的理念,协同多元主体对生成式人工智能进行共商共管,通过“共建”“共治”实现成果“共享”。  相似文献   

16.
王秀梅  张雪 《人民检察》2023,(19):11-16
新兴的人工智能犯罪正在挑战传统的刑法概念,特别是犯罪行为、犯罪意图、因果关系和刑事责任。尽管学界展开了关于人工智能刑事主体资格的激烈讨论,但我国刑法尚未赋予人工智能独立的刑事责任主体资格。虽然现阶段人工智能的行为几乎完全可以归责于人的行为,现有刑法体系可以应对弱人工智能产生的大部分危害,但是对于强人工智能或超级人工智能实施的新行为,刑法可能不足以应对。对此,刑法有必要作出适度改革,增设人工智能相关的罪名,确立相对严格责任制度,以有效规制涉人工智能犯罪行为。  相似文献   

17.
张磊 《法学》2010,(11)
高科技考试作弊行为刑法规制的关键在于考试期间试题和参考答案国家秘密属性的界定。考试期间,由于试题已经丧失可控性而不再是国家秘密,所以此时泄露或者非法获取试题的行为不可能构成侵犯国家秘密类犯罪。但是,考试期间参考答案仍然是国家秘密,任何将答案传递给考生的行为都可能构成侵犯国家秘密类犯罪。虽然仍是以侵犯国家秘密类犯罪惩治高科技考试作弊行为,但是解决问题的思路已经完全不同。  相似文献   

18.
以ChatGPT为代表的大型生成式语言模型通过对海量自然语言文本数据的学习,运用统计学和概率分布预测下一个单词或句子,从而实现流畅连贯、语法正确、具备逻辑的文本生成。这一技术机理虽能提升模型性能,但却在内容公平性、真实性和可靠性方面带来治理挑战。概率生成文本的方式存在难以控制内容质量的问题。基于网络文本语料库的训练可能嵌入算法偏见,人类反馈强化学习可能加剧虚假信息的生成与传播风险,模型的涌现性还可能产生意料之外的治理风险。迈向“模型泛在”的人工智能2.0时代,生成式人工智能的治理应遵循敏捷治理与韧性治理并重、精准治理和参与式治理协同的原则。针对“模型即服务”的新型产业生态链,围绕信息生产变迁和产业链变迁的核心特性,构建基于应用程序接口模式的治理、基于插件模式的治理和基于模型垂直部署模式的治理架构。  相似文献   

19.
在国际法层面,政府行为通常归于国家行为,所以政府犯罪被视为国家犯罪.然而国家犯罪较普通国际犯罪有更严格的判断标准,只有基于政府行为或在政府渎职的情势下才能实现;反之政府犯罪可能因政府行为违反法律,严重伤害本国人民和国家的利益,而超越国家犯罪,独立存在;所以“政府犯罪”包含“国家犯罪”.理论论证和实例研究证明:在现有的国际刑事责任体系中,“政府犯罪”概念有可能在法理和实践层面替代“国家犯罪”概念.  相似文献   

20.
论内地与港澳台跨境犯罪二分法及其意义   总被引:2,自引:0,他引:2  
内地与港澳台跨境犯罪作为跨境犯罪之一种类型具有鲜明的个性特征,把它从一般的跨境犯罪和国际刑法研究中独立出来是可以并且可能的,由于“一国两制” 的实现,其理论意义和现实意义更为重大.文章将跨境犯罪分为两类,即实质的跨境犯罪和形式的跨境犯罪,指出前者属于真正的跨境犯罪,后者其实质是刑事司法协助,并提出了对两类跨境犯罪的对策看法,如实体法律协调、刑事司法管辖冲突之解决等.跨境犯罪二分法的提出,有助于澄清跨境犯罪研究中的有关理论问题.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号