首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 0 毫秒
1.
以ChatGPT为代表的生成式人工智能在推动生产、生活方式发生颠覆性变革的同时,也给人类社会带来了巨大的技术风险。从刑事法治的角度来看,生成式人工智能数据处理不透明、生成过程不可控、输出内容复合性,以及技术滥用等蕴含着较大的犯罪风险,极易造成严重的危害结果。生成式人工智能带来的犯罪风险使刑法出现了行为规制缺漏、责任判断困难等问题,并对刑法人类中心主义造成了冲击。对此,刑法应当树立与智能时代相适应的基本理念,坚持刑法立法与刑法解释并重,兼顾安全保障与技术进步,在前瞻思考与现实理性之间实现有效平衡。在具体应对路径上,可以通过解释路径解决行为规制和责任归属问题,立法路径弥补现有规范的行为规制漏洞,并在刑法中明确服务提供者的保证人地位和刑事监管义务。  相似文献   

2.
人类正经历第四次科技革命时代。新的科技革命带来了生产力的发展,也带来了社会关系的变革,刑法作为社会治理法应积极应对人工智能带来的新变化。但是,刑法是保障法,应保持立法克制。人工智能机器人本质上属于人类的创造物,不能独立承担刑事责任,对其施加刑罚没有意义,赋予其刑事主体地位尚不具有现实可能性。人工智能机器人的操控者(制造者、所有者、入侵者)利用人工智能机器人实施犯罪行为应承担故意犯罪刑事责任。此外,人工智能机器人的制造者未尽到必要的安全注意和结果回避义务,其所有者未尽到保证人的监管义务,均应承担过失责任。  相似文献   

3.
王秀梅  张雪 《人民检察》2023,(19):11-16
新兴的人工智能犯罪正在挑战传统的刑法概念,特别是犯罪行为、犯罪意图、因果关系和刑事责任。尽管学界展开了关于人工智能刑事主体资格的激烈讨论,但我国刑法尚未赋予人工智能独立的刑事责任主体资格。虽然现阶段人工智能的行为几乎完全可以归责于人的行为,现有刑法体系可以应对弱人工智能产生的大部分危害,但是对于强人工智能或超级人工智能实施的新行为,刑法可能不足以应对。对此,刑法有必要作出适度改革,增设人工智能相关的罪名,确立相对严格责任制度,以有效规制涉人工智能犯罪行为。  相似文献   

4.
唐亚南 《法律适用》2021,(4):156-165
刑事责任能力是犯罪主体的核心要件,因此,人工智能机器人是否能成为刑事责任的主体,关键的标准之一是其是否具有辨认和控制自己的行为能力.对于弱人工智能主体而言,因它不具有辨认和控制自己的行为能力,只是一个工具而已,所以必须坚持传统犯罪主体理论,在现有的刑法框架内定罪处罚.对于强人工智能主体而言,从刑法内部构成的教义学层面分...  相似文献   

5.
《北方法学》2022,(2):132-142
伴随着自动驾驶新业态的高速发展,道路交通安全、网络数据安全等实践风险逐渐显露,传统道德伦理遭受挑战,现行刑罚体系囿于自动驾驶系统主体资格之争也面临重塑或修改的风险。在刑事责任认定上,由于现行法律和标准体系缺乏对不同等级自动驾驶模式下行为人的行为能力和注意义务的明确规定与界分,导致发生交通事故后各责任方的主观过失难以认定,多因一果的现象及系统算法黑箱的不可解释性和不透明性,亦加剧因果关系认定的难度,追责成本攀升。面对理论供给不足和实践风险激增,亟需在现行刑法框架内探寻构建一套“车辆和企业中心”的刑事责任认定规则,完善执法和事故认定流程,以有效应对自动驾驶的刑事风险,提升社会整体福祉。  相似文献   

6.
袁彬  薛力铭 《河北法学》2024,(2):140-159
利用生成式人工智能实施诈骗等犯罪的定性较为复杂,实现生成式人工智能提供者与使用者的相关行为合理的刑法规制需要区别对待。针对生成式人工智能提供者,因无法适用《刑法》第285条第3款、第286条之一以及第287条之二,合适的做法是依据新过失论对其适用过失责任,同时通过立法明确生成式人工智能提供者的责任依据;针对生成式人工智能的使用者,因《刑法》第253条之一无法评价“合法获取、非法使用”的情形,使用者不构成侵犯公民个人信息罪,但其使用行为可构成非法利用信息网络罪,若构成非法利用信息网络罪与诈骗罪的牵连,应依据处罚较重的罪名定罪处罚。  相似文献   

7.
《现代法学》2019,(1):75-83
在弱人工智能时代,智能机器人在设计和编制的程序范围内实施严重危害社会的行为,实际上是研发者或使用者行为的延伸,应当由研发者或使用者承担刑事责任。与传统犯罪相比,研发者或使用者之间的刑事责任分配会随着智能机器人"智能"的增长而有所不同。智能机器人"智能"的增长还会影响对行为人量刑的轻重,甚至可能影响对行为人行为的性质判断。智能机器人在自主意识和意志的支配下超出设计和编制的程序范围实施严重危害社会的行为时,应将其作为刑事责任主体进行刑罚处罚。此时,智能机器人不能和研发者成立共同犯罪,但有可能和使用者构成共同犯罪。  相似文献   

8.
人工智能作为当前最为尖端的科技成果,对于专利法的挑战是全方面的,既包括人工智能技术本体的专利法律保护、人工智能发明成果的专利法律规制,还涉及人工智能应用工具的专利法律影响问题。造成上述难题的原因包括人工智能的复合性技术结构、人工智能法律客体的本质属性以及人工智能的超强运算能力等人工智能基本特质。为此,应通过优化人工智能技术本身的专利保护模式、开展人工智能自主发明的专利法律规制、创设人工智能应用工具的专利实践指引等措施,实现对人工智能时代专利法律问题的有效应对。  相似文献   

9.
胡元聪 《政法论丛》2020,(3):121-130
我国既要加大人工智能产品的研发和应用力度,最大程度激励人工智能产业发展之巨大潜力,又要预判人工智能产品带来的挑战及其风险。因此,需要根据人工智能产品的特点变革我国产品责任制度,以最大限度防范、降低和合理分配人工智能产品发展风险,尤其是需要完善人工智能产品发展风险抗辩后的损害救济分摊机制。对此,我国必须贯彻"共享—分摊"的损害救济理念,确保在国家、社会、生产者、设计者和消费者之间合理分摊损害,以更好维持各方权益的整体平衡,维护社会主义市场经济秩序并最终促进人工智能产业的高质量发展。  相似文献   

10.
人工智能时代证券、期货市场刑事风险包括传统刑事风险的演变和新型刑事风险的滋生.人工智能时代证券、期货市场刑事风险的本质是,行为人非法利用包括人工智能技术优势等所形成的优势地位,操纵金融商品与市场资本,进而控制证券、期货市场并从中牟利.对人工智能时代证券、期货市场刑事风险规制进路的探究不能局限在刑法的闭塞体系内,而应当塑造行政前置性立法的思维和规则,做好与行政性法律规范的衔接工作.完善相关前置法规定,需要在静态监管和动态监管两个层面确立具体、明确的标准,将静态的法律法规和制度建设与动态的穿透式监管、全过程监管相结合,以实现从整体上预防和规制人工智能时代证券、期货市场刑事风险的目的.  相似文献   

11.
以ChatGPT为代表的新一代生成式人工智能的产生具有革命性和划时代意义。生成式人工智能的存在和发展必然极大程度引发社会生产力的新一轮爆发,进而决定生产关系发生重大改变。时下ChatGPT等生成式人工智能仍然属于弱人工智能范围,但该技术的发展对传统刑法理论已经并将继续造成重大影响。ChatGPT等生成式人工智能可能改变传统犯罪的行为类型、影响刑事责任的分配与转移并且改变现有的刑事责任主体范围。不能因为ChatGPT等生成式人工智能不是人,而就一定不能成为刑事责任主体;不能因为ChatGPT等生成式人工智能没有生命,而就一定不具有刑事责任能力;不能因为ChatGPT等生成式人工智能没有人脑,而就一定不会具有独立意识意志(即辨认、控制能力);不能因为ChatGPT等生成式人工智无法具体适用现行刑法中的刑罚,而就一定不能成为刑事责任主体。ChatGPT等生成式人工智能与人类一样可能是同时受自然法则(他律的、自然律的因果性)和道德法则(自律的、由自由而来的因果性)支配的物种,从而推定其可能拥有自由意志,进而满足承担刑事责任或者成为刑事责任主体的最本质条件。  相似文献   

12.
13.
14.
15.
风险社会之刑法应对   总被引:10,自引:0,他引:10       下载免费PDF全文
风险社会为理解和把握现代刑法提供了全新的观察视角,也为反思传统刑法提供了重要的理论工具。为了应对风险,有必要制定风险刑法。风险刑法在观念、功能和归责等方面与传统刑法有显著不同,对传统刑法基本原则构成挑战,并对传统刑法价值体系进行裂解,隐含有巨大风险。在风险社会,可以采用传统刑法与风险刑法并存的方式,以弥补传统刑法在功能上的不足和责任追究上的漏洞,两者互相支持,共同达成维护社会秩序和安全的目标。  相似文献   

16.
17.
18.
《现代法学》2019,(5):135-151
关于人工智能可否构成犯罪,国外主要存在心理要素说智能代理说法人类比说法定实体说以及当然主体说等观点。人工智能成为犯罪主体的哲理基础是科学实证主义和道德二元论,现实条件是具备法律人格。智能代理可以成为道德代理。人工智能的道德生成进路有实在论进路关系论进路认识论进路等之别,实在论进路相对合理。处罚人工智能既能为处罚其他主体奠定基础,也能达到剥夺其犯罪能力的目的,还能产生附加价值。我国的人工智能刑法研究尚处于初始阶段,未来研究的重点在于:人工智能对刑法人类中心主义的挑战,人工智能犯罪主体的范畴、责任范围与程度,刑法如何介入对人工智能的规制以及人工智能犯罪的刑罚适用。  相似文献   

19.
侯跃伟 《河北法学》2024,(2):160-178
技术的突破性发展,极易导致刑事风险的激增。既有刑事法律体系前瞻性和抽象性的欠缺,导致刑法缺乏针对性的规制措施。为了更好地应对生成式人工智能可能造成的刑事风险,应当结合其运行原理和基本特征,精准发掘其内生性缺陷和刑事风险,理顺其治理理念,将发展作为第一要务,兼顾依法治理、自主可控;同时,顺应我国当前的发展趋势,优化营商环境,从平台责任向个人责任回归,构建分级分类的监管模式,推动我国生成式人工智能的健康发展。  相似文献   

20.
生成式人工智能的侵权责任,在理论上可以从产品责任和一般侵权责任两种路径进行分析。在当前的法律框架下,对于以大语言模型为代表的生成式人工智能系统而言,不宜将其纳入到产品责任的范畴,而宜通过一般侵权责任制度并辅之以过错推定规则,这样既可以解决受害人的举证困难问题,也便于通过司法控制机制对生成式人工智能提供者的责任负担进行动态调整。为了维持生成式人工智能提供者与受害人之间的利益平衡,可以通过“通知—处置”规则对提供者施加消除侵权信息影响并防止系统再次生成侵权信息的义务。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号