首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
ChatGPT在积极赋能社会各领域发展过程中也隐含着数据安全风险,可能侵犯公民与企业合法权益、损害公共利益和国家安全。应当坚持“四个治理”原则,将合规管理方式引入到ChatGPT的数据安全风险治理体系,创新ChatGPT数据安全风险的治理方式。以合规管理方式治理ChatGPT的数据安全风险,需要ChatGPT的研发、生产、运用企业依据有效性原则、全面性原则、独立性原则、相称性原则开展数据合规管理,并从数据合规管理制度、数据安全风险识别与评估、数据安全风险应对处置、数据合规奖惩、数据合规科技创新、数据合规管理评估、数据合规文化培育等方面建立和实施数据合规管理方案。  相似文献   

2.
ChatGPT是基于大型神经网络语言模型并通过强化学习进行训练,能够实现与用户深度交流的生成式人工智能。在人工智能背景下,现行刑法尚不足以抵御生成式人工智能带来的数据安全风险。生成式人工智能对数据的海量获取需求,与刑法中的数据控制保护理念存在天然矛盾;生成式人工智能因其存在自由意志的现实可能性,对传统刑事责任主体的范围也发起了挑战。故应从两方面着手提升刑法对新形势下数据安全的保护能力:一方面刑法对数据安全的保护应从数据控制保护模式转向数据利用保护模式,包括建立非法获取行为的出罪机制、规制数据滥用行为,以及建构专门的数据安全刑法保护体系;另一方面,应考虑人工智能体成为刑事责任主体的可能性,对其自由意志支配下实施的数据侵害行为进行自我答责。  相似文献   

3.
刘宪权 《现代法学》2023,(4):110-125
ChatGPT等生成式人工智能的出现意味着人工智能的“技术奇点”越来越近。GPT-4及更进一步的生成式人工智能已经触及了强人工智能的边缘,使我们真真切切地感受到强人工智能时代“未来已来”。ChatGPT等生成式人工智能具有一定的逻辑推理能力和创造能力,甚至还具有通过其自身独立进行编程的能力,从而拥有脱离人类的独立意识和自主意志的可能性。对ChatGPT等生成式人工智能进行刑法学研究刻不容缓。根据不同的标准,可以对ChatGPT等生成式人工智能可能引发的犯罪类型进行多种分类。以相关行为符合的罪名和行为类型为标准,ChatGPT等生成式人工智能可能涉及的犯罪可分为煽动类犯罪,侵犯知识产权类犯罪,侵犯数据、信息、计算机信息系统类犯罪,侵犯公民人身权利类犯罪,以及传授犯罪方法、提供犯罪程序类犯罪等。比人脑更“聪明”且具有独立意识和自主意识的人工智能无疑会对现有刑法理论和刑罚体系造成巨大冲击。  相似文献   

4.
胡铭  陈竟 《人民检察》2023,(10):45-50
类ChatGPT模型作为多模态大模型,相较于传统人工智能,在数据分析与处理能力、专业素养、自然语言生成及理解能力等多个方面表现出色,这为我国数字检察实践提供了诸多机遇。但类ChatGPT模型也可能带来法律伦理与责任、技术可靠性以及数据安全等问题。为应对类ChatGPT模型给数字检察带来的风险,需要确立人工智能技术应用于数字检察的一般性原则;建立问责制度,促进司法人工智能应用的规范化、法治化;建立审查制度;建立数据安全制度,保障国家数据安全与公民个人信息安全。  相似文献   

5.
齐爱民  张哲 《人民检察》2023,(10):15-19
我国个人信息保护立法经历了从无到有、从少到多、从点到面、从面到体的发展过程,呈现出从注重保护到兼顾保护与利用、从整体框架设计到配套制度供给、从普适性规范到特定行业规范的发展趋势。大数据时代的个人信息保护面临两方面挑战,一是个人信息保护法域外效力制度缺乏可操作性,二是区块链、ChatGPT等新技术新应用带来的法律挑战。对此,应当进一步完善个人信息保护法,提升个人信息保护法域外效力制度的体系性,加强个人信息保护法域外效力制度的国际性,明确区块链责任主体和个人信息权利实现方式,注重对ChatGPT个人信息处理活动透明度的监管,以更好地保护个人信息。  相似文献   

6.
程乐 《政法论丛》2023,(4):69-80
以ChatGPT为代表的生成式人工智能技术落地与大规模应用,改变了人类与人工智能的传统交互模式,对社会生产方式产生了重大变革。国际国内都出现了对人工智能主体地位及法律规制等方面的学术探讨,以应对生成式人工智能引发的伦理道德、知识产权保护、隐私与数据保护、市场垄断、网络犯罪和数据安全等一系列风险。在现阶段,我国生成式人工智能治理,应坚持安全与发展相平衡的理念,在以人为本的原则统领下设计人工智能伦理准则,推动构建以通用人工智能立法为基础,以生成式人工智能专门性管理办法为补充,以既有法律规范为根本的系统性人工智能法律规范体系。  相似文献   

7.
本文分析了公安和交通部门在交通安全数据共享和交换应用中存在的问题,阐述了交通安全数据进行共享交换需求分析的意义。然后具体分析了公安交通管理对数据共享交换的需求,既有向交通运输部门提供的交通安全管理数据,包括营运机动车、驾驶人信息及相关违法、事故信息等;又有公安交通管理对交通运输安全数据的需求方面,包括路面管理和执法、事故预防、机动车登记、驾驶证管理、剧毒品运输管理等,从而为交通安全数据分析应用提供技术支撑。  相似文献   

8.
ChatGPT作为一种基础模型,体现出极强的通用性特点,可被用于多个领域和多种任务。这一特点在为社会提供助益的同时也引发了新的法律风险:首先,ChatGPT这种基础模型的同质化与编辑的便利性使得其极易被推广适用并与其他领域的风险叠加,造成系统性的社会风险;其次,ChatGPT产生和运行过程中的多主体性造成了“多手问题”,进而引发责任性上的困境;最后,ChatGPT的迅速推广与广泛的可及性可能引发道德观与价值观的冲突。为此,有必要将责任性作为人工智能规制的核心追求,确立各主体之间的共担责任原则,在此基础上明确人工智能创新与安全并重的规制目标,加强人工智能算法、标识等的透明化程度,健全包括社会影响评估在内的人工智能风险评估机制,促进人工智能与人类的价值融合。  相似文献   

9.
近几年来,指纹自动识别系统(AFIS)逐步在全国各级公安机关普及应用,破获了不少有影响的大要案件,以快捷、高效的优点成为痕检技术人员的得力助手。捺印库数据作为指纹自动识别系统发挥功用的基础,其整体数据的质量决定着指纹自动识别系统的运行效率。在使用中发现,捺印库中存在着一些伪数据、重叠数据和错误数据,这些不良数据极不利于指纹自动识别系统的应用和发展。所以笔者认为,如何保障指纹自动识别系统捺印库数据的质量是一个值得探讨的问题。  相似文献   

10.
ChatGPT以其高度拟人化的输出结果和对话式的交互方式,模糊了传统劳动工具和劳动主体之间的界限,为我们展示了一种人工智能深度参与人类活动的人机共融情景。但以ChatGPT为典型的生成式人工智能的生成物,其可著作权性问题就因为其在形式上不断接近人类作品,而引起了高度关注。从ChatGPT的运作过程、生成物特点上来看,生成式人工智能生成物在形式表现上与人的作品几乎无异,但人工智能本身却无创作意识也无思想情感。在面临着劳动主体、激励作用和权利桎梏上的赋权困境,生成式人工智能生成物在可见的将来更适合成为公共领域中的开放知识。  相似文献   

11.
李伟 《检察风云》2023,(7):34-35
<正>大型AI模型的碳排放虽然OpenAI公司没有公开其产品的能耗,但据第三方研究人员披露,ChatGPT的部分训练过程(占投入应用前的全部训练量的比例不明)消耗了1287兆瓦时的能量,并产生了超过550吨的碳排放量——这相当于一个人在美国纽约和旧金山两地之间往返550次所产生的碳排放量。事实上,这只是ChatGPT模型在训练时所产生的部分碳排放量。当大型AI模型投入应用时,将排放更多的碳。  相似文献   

12.
个人数据权益的多元性,决定了个人数据在不同场景中的权属不同,这意味着对不同权属性质的个人数据,提供的法律保护模式也不同。我国对个人数据的法律保护模式有三种:财产权保护模式、人格权保护模式和平台保护模式。鉴于当前我国数据确权的制度安排尚未完成、数据的人格权保护没有得到公益救济、数据利益的损害赔偿无法实现,有必要对不同权属性质的个人数据作出有针对性的调整方案:在方法论上应突破私法或公法的思维局限,在立法论与数据应用实践层面,对现有的个人数据保护模式作出相应的调整,通过商业秘密保护模式拓宽数据财产权的保护路径,利用个人数据场景化保护模式弥补人格权保护模式的虚置,利用平台保护模式优化数据安全法律保护的制度设计。  相似文献   

13.
俞吉  徐卫东 《法制与社会》2014,(26):266-267
随着经济社会和科技的不断发展,电子产品在生活中普遍应用,电子存储介质已成为人们生活中不可或缺的工具。根据我国新刑事诉讼法,新增了电子数据这一新证据种类,但目前尚未有完善的立法对电子数据证据的种类、收集、保全进行规定。本文对电子数据的概念、应用进行了探讨。  相似文献   

14.
制度建设     
吉林省十三届人大常委会第二十五次会议表决通过《吉林省促进大数据发展应用条例》,自2021年1月1日起施行。条例对数据采集、归集、整合、共享、开放作了全过程规范,进而推动公共数据共享开放,带动社会数据汇聚融通。通过统等规划全省数字化基础设施,推动公用事业企业、社会组织和社会服务机构各类数据共享开放,着力打破长期以来存在的“数据烟囱”“数据孤岛”等问题,为大数据发展应用提供基础性条件。  相似文献   

15.
当前,数字技术的发展为数字检察的到来提供了技术支撑,数字检察已成为推动检察工作现代化的重要依托。检察机关应准确把握时代之变,深挖数据价值,逐步实现业务数据资源化,开创法律监督新模式;推动实现数据业务化,深化“内生数据、外联数据”的全方位治理,确保数据真实准确、有效管用;强化“数据生成、数据应用、数据维护”全流程管控,确保数据安全运行;深入落实“业务主导、数据整合、技术支撑、重在应用”数字检察工作模式,确保数字检察工作发展的正确方向。  相似文献   

16.
信息系统数据集中管理是信息技术发展到一定阶段的必然趋势,具有良好的应用前景.本文介绍了公安交通管理信息系统数据库分布现状和相关行业数据集中管理的实施情况,分析了省级数据集中管理模式在公安交通管理信息系统中的建设需求、应用现状和效益,指出了实施省级数据集中管理后存在的主要问题,就交通管理信息系统如何实施数据集中管理提出意见和建议.  相似文献   

17.
ChatGPT的出现标志着生成式人工智能在语义理解和知识创造上逐渐向类似人类的方向进化。通过ChatGPT的知识代理式协助,人类开启了与客观知识世界间的双向交互,这虽然增强了知识获取的灵活性和针对性,但也带来了工具性的技术滥用风险和内因性的数据安全风险。这两类风险加剧了虚假信息传播、犯罪方法传授、用户数据泄露等危害行为的异化,对传统事后回应型治理模式提出挑战。对此,犯罪治理应围绕技术加速迭代与治理资源不足间的显性矛盾,以及平台权力扩张与监管力量失衡间的隐性矛盾,从“看门人义务”的体系性完善和数据安全监管义务的实质性强化出发,将立法导向内嵌于技术理性之中,探索符合人类社会发展需要的生成式人工智能治理机制。  相似文献   

18.
肖凤 《检察风云》2023,(13):58-60
<正>ChatGPT(Generative Pretrained Transformer的缩写,意为生成式预训练变换模型)是美国人工智能研究实验室OpenAI推出的一种人工智能技术驱动的NLP(自然语言处理)工具。目前,ChatGPT具备语言生成、上下文学习、已知知识储备与输出等功能,一定程度上来说已适应人类的表达预期。随着科技的发展,数字化正在改变我们的生活,也在改变司法工作的方式。如何运用ChatGPT这类新技术,服务司法工作,助力国家治理现代化?上海市人民检察院、同济大学人工智能社会治理协同创新中心、百度智能云、科大讯飞相关专家积极建言献策。  相似文献   

19.
将数据政策转变为数据法律,尤其是将政策上的数据权利话语转成法律上的数据权利话语,是我国目前数据法研究的主要任务。数据赋权研究以企业数据为蓝本,这既能防止数据赋权和个人信息赋权的杂糅,也能避免出现公私不分的现象。赋权框架是企业数据赋权的核心内容,包括赋权对象和赋权模式两个方面。首先,企业数据赋权的对象是作为数据集合的大数据,并且不宜包括数据产品;其次,大数据具有形态衍变性和应用场景化特征,所以企业数据赋权不宜采用“以物设权”模式和“以用设权”模式这两种民法现有赋权模式;最后,企业数据赋权的新模式以促进数据流通为宗旨,不应过度强调数据归属。  相似文献   

20.
案件质量评查作为检察机关案件管理部门的核心业务之一,激活案件信息数据,实现案件质量全程跟踪评查对保障办案质量至关重要。深度激活案件数据,应完善数据应用体系,打通数据应用逻辑,实现现代化数字评查。构建案件信息全流程适用场景,主要包括:事中设置实时案件质量预警提醒、事后实现数字化质量评查的智能评价及将评查结果同步反馈应用。在此基础上,可搭建评价数据深度应用体系,将重点信息关键词化,实现要素分离;构建数字化评价逻辑框架,类比推理全案评价;多方联动,共建评查数据来源。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号