首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 140 毫秒
1.
吴育珊  杜昕 《岭南学刊》2023,(5):105-112
由专用向通用迈进是生成式人工智能的发展现状,由赋能向赋智转变对应了生成式人工智能的应用场景。然而,生成式人工智能带来变革的同时,也存在安全风险,包括人机关系暗藏的伦理风险、人机交互面临的侵权风险、生成内容潜在的失控风险。防范化解风险的法律规制路径,应将辅助原则确立为规范人工智能研发和应用的基本原则、运用比例原则平衡人机交互的价值冲突、健全生成式人工智能的标准化安全评估体系。  相似文献   

2.
迅速迭代的人工智能技术与滞后的法律规范之间的矛盾冲突导致人工智能开发活动在制度层面产生巨大的规制窠臼。面对开发企业将道德和法律嵌入代码系统的过程中充斥的背离数据保护原则、冲击个人尊严、破坏民主诚信、削弱社会公允等现实风险,亟待从企业社会责任的内在逻辑入手,在借鉴相关国际经验的基础上,勾勒我国人工智能开发企业社会责任法律规制的具体方案,推动智能产品和服务开发遵循造福人类的可持续发展模式。  相似文献   

3.
生成式人工智能作为人工智能技术的新主流形态,具有决策式人工智能所不具备的人格化表象突出、数据挖掘能力提升、算法黑箱凸显、数据垄断深化等鲜明特征。随着生成式人工智能的不断迭代,虚假误导与无意义信息致人损害、模型训练与知识重组忽视知识产权、恶意滥用与算法黑箱削弱监管体系等安全风险不断凸显。在治理路径上,需要由直接规制风险逐步转向“科技—社会—法律”三元综合治理,从建设内容模型训练管理体系、厘清程序运行的知识产权边界、强化算法黑箱与恶意滥用综合治理能力、深化“科技—社会—法律”三元综合治理模式等方面着力,在规制风险的同时促进生成式人工智能安全发展。  相似文献   

4.
ChatGPT类生成式人工智能改变了人工智能治理的底层逻辑,人工智能技术应用由个性化向普适化方向发展,风险的不确定性从外部延伸至内部,未来人工智能技术的迭代周期将越来越短,这使得传统治理范式适用于生成式人工智能治理时存在诸多局限。基于对象场景的分散治理难以统筹生成式人工智能治理全局,基于风险预防的事前治理难以精准预测风险并提前预防,基于法律规范的硬性治理难以提升治理实效。作为一种快速适应环境变化的动态治理范式,敏捷治理契合生成式人工智能治理需求,与我国一直推行的包容审慎监管具有理念上的一致性。基于敏捷治理的全面性、适应性与灵活性,我国生成式人工智能治理应秉持包容审慎的监管理念,依据模型产业架构,形成“基础模型-专业模型-服务应用”的全面性治理格局;划分已知与未知风险,构建事前预防与事后应对相结合的适应性治理机制;综合运用技术、法律等灵活性治理工具,实现生成式人工智能治理范式革新,促进科技向上向善发展。  相似文献   

5.
陈英达  王伟 《电子政务》2024,(4):113-124
当前,生成式人工智能的治理沿用了人工智能1.0时代的分领域差异化监管模式,陷入碎片化、条块化、部门化的困境,无法应对层出不穷的AI技术和应用场景,相关治理规则缺乏稳定性和连续性。通过探究生成式人工智能的技术机理,明确该技术在释放技术红利的同时极易造成虚假信息泛滥、网络安全失控、生成内容侵权等风险。对此,生成式人工智能的治理应进行系统性改革,遵循“急用先行、逐步完善”两步走的思路。一是规范事项急用先行,根据产业链上主体的生态位区别设置风险防范义务与法律责任,并容许各方在满足最低限度的合规要求后,自主约定责任分配,及时回应技术发展应用过程中的突出问题;二是引入“技术之治”,并在规制时机、问责主体、归责标准等诸多争论趋于共识后逐步完善“制度之治”,更好地驾驭生成式人工智能的变革性收益与复杂性风险。  相似文献   

6.
伴随以ChatGPT为代表的生成式人工智能的多场景应用,技术迭代升级背后的潜在异化风险带来全新的监管挑战。本文系统梳理当前主要经济体人工智能监管实践动态,分析典型监管模式路径及其现实困境,尝试在此基础上提出应对举措。研究发现,伴随人工智能技术广泛应用,供应链安全、隐私保护、数字产权、数字伦理、数字鸿沟和算法偏见等深层问题逐渐凸显,给监管带来挑战,各国在人工智能监管的基础概念、价值理念及路径策略选择等多方面也存在诸多分歧,人工智能监管缺乏全球统一、协调一致的监管框架。当前主要经济体在人工智能监管方向上不断寻求创新和规制的平衡点,形成以欧盟和美英为代表的典型监管模式。未来人工智能监管将在“保持人的主体性”前提下,通过“限制”和“促进”双重手段,实现安全与发展之间的最佳平衡。我国应牢牢把握人工智能监管的规律和趋势,进一步统筹发展和安全,坚持问题导向和目标导向相结合,充分运用人工智能领域的新技术,适当借鉴美欧发达国家的经验做法,逐步构建起符合我国实际的人工智能监管模式。  相似文献   

7.
李庆峰 《人民论坛》2020,(11):108-109
人脸识别作为人工智能的前沿科技,成为各国争夺的新兴技术战略高地。相伴而生的数据权利、信息安全及隐私保护等问题也受到广泛关注。从以社会为本位的价值取向、以机构为主体的权利设置和以流转为抓手等方面着手规制人脸识别技术,可平衡人脸识别技术发展与公众合法权利保障之间的关系,架构符合中国历史传统及社会发展现状的良性法律规制体系。  相似文献   

8.
人工智能正在推动情感消费的转变,青年通过使用人工智能伴侣自主生成亲密关系,重塑了亲密关系的边界。本研究通过考察青年与人工智能伴侣的互动体验尝试理解自主生成式亲密关系的建构逻辑与现实影响。研究发现,青年使用人工智能伴侣的目的包括生成情感代餐、关系克隆和生成原生伴侣;在共享和独享两种情境中,青年通过训练智能体、调整预期和转换角色等策略主动控制与人工智能伴侣的亲密程度,最终形成了与智能体退出互动、间断互动和持续互动三种结果。文章最后讨论了自主生成式亲密关系实践与现实关系的互构过程,分析自主生成式亲密关系带来的影响与潜在风险。  相似文献   

9.
黎梦兵 《理论月刊》2022,(11):130-140
随着新兴信息技术在环境治理领域中的应用及完善,以科技赋能为基础的现代环境治理体系成为未来的趋势。技术赋能环境治理从实然层面改变了环境治理方式和手段,且新兴信息技术在规制层面的应用有望提高治理效能,但技术赋能环境治理的过程也将技术不确定性带入环境监管之中,引发如监测失真、决策偏见等新型风险。技术对监管层面的冲击可能导致环境法律规制系统失灵,表现为规制理念落后、规则体系缺陷、规制权力受阻及规制俘获等。基于此,未来环境法律规制系统需从内核和外延两方面予以调适,既要实现从事后监管思维到风险防治的思维转变,也要从参与机制、评估机制、规制模式及法律规则等方面实现环境法律规制范式的革新。如是方能防范技术赋能引发的新型环境风险,实现环境治理数字化转型的规则之治。  相似文献   

10.
ChatGPT类生成式人工智能基础模型的公共属性预示着其将成为人工智能时代的新型数字基础设施,引发模型共谋、数据剥削、歧视性模型许可和模型独家许可型集中等多重垄断风险,同时在“资本-技术”和“算法-数据”双循环中形成结构性壁垒和生态型垄断。现行反垄断法律规则在主体、行为及规制能力等方面无法有效应对生成式人工智能所带来的垄断风险。鉴于此,有必要从立法和执法两个层面建立软法优先硬法和包容优先刚性的基本准则,同时在具体规则层面完善相关市场及市场支配地位认定,增加模型问责的反垄断程序性执法权,细化数据剥削和模型优待的行为类型,以及增加模型独家许可的并购反垄断申报。  相似文献   

11.
纷繁复杂的人工智能应用风险在带来监管挑战的同时,也让追求敏捷成为当前人工智能治理的共识性理念。但如何在具体路径、机制、工具上实现真正的敏捷监管尚缺乏系统的学理分析与实践指引。遵循科层体系运作逻辑的监管部门在克服制度张力和应对不确定性方面存在天然不足,实践改革因此普遍将“分类”视为一种适应复杂性与提升敏捷性的潜在思路。通过对人工智能多领域业态发展模式与技术创新规律的比较分析,以及综合人工智能各领域现有国际治理经验,本文构建了人工智能治理风险的关键分类维度及与之相适应的全谱系政策工具箱。研究试图为监管实践者提供一个合意的分类思路与政策工具组合指引,使监管实践可从产业特征标定分类治理对象,并在对应的政策工具箱中寻找政策组合。  相似文献   

12.
张远婷 《理论月刊》2022,(9):118-130
人工智能时代“深度伪造”滥用行为将对现行法定证据、民事侵权救济、刑事制裁甚至国际安全机制等法律制度带来多重现实挑战。法律规制此类行为需要协调安全与自由两个层面利益需求引起的冲突,应以安全价值为主导构建相应的风险防范机制。各国在监管“深度伪造”虚假信息的过程中形成了数字平台“自我监管”、政府“直接监管”以及“平台+政府”联合共同监管三种治理模式。抑制“深度伪造”滥用行为需要国际与国内法律互相配合,在国际法上,我国可倡导建立或完善具有针对性的国际监管合作机制;在国内法上,我国可采取“平台+政府”联合监管模式,强化数字平台“准行政”审查责任并引入惩罚性赔偿机制。  相似文献   

13.
智能化时代,加速加深智能技术与教育的融合是保障教育高质量发展的必由之路。生成式人工智能(GAI)作为一种突破性技术工具,正逐渐在教育领域崭露头角。GAI具有赋能教育质量、教育效率和教育公平三大方面的显著优势,然而也在知识生产、学习陪伴、育人职能、教育治理等方面存在潜在风险。基于其核心价值和潜在风险,需要提升理念认识、构建弹性体系、完善制度保障,同时丰富育人内涵、加速方法创新、优化治理效能,以确保生成式人工智能可以最大限度发挥其教育作用,激发教育创新,促进教育高质量发展。  相似文献   

14.
王琦 《公安研究》2023,(9):19-24
生成式人工智能技术的快速发展,使其应用场景日趋广泛,也带来了内容创作突破、产业升级等生产力的变革。然而,随着相关技术的开放式发展,在带来时代发展机遇的同时,与之伴随的风险也逐渐凸显。本文主要分析了,在生成式人工智能技术日益成熟、不断升级迭代的背景下,其现状与发展趋势以及其可能产生的法律、犯罪风险,并提出了相应的防范对策。  相似文献   

15.
生成式AI作为强大的自然语言处理模型,其顺畅运行有赖于海量数据的训练、学习、分析等深层次运用。基于精妙算法的加持,深度运用的数据会关涉经济利益、保密利益、使用性能等多重维度,其间不免存在数据泄露、算法歧视等潜在风险,甚至引发传统犯罪模式之异化。为应对刑事规制空缺、数据犯罪法益的技术性倾向及固有罪名之误区等困境,数据深度运用的刑事规制体系应当以数据技术分工为指引,及时调转治理逻辑与重心。为实现数据安全保障与技术正面价值有效释放之间的平衡,刑法介入需在利益衡量视角下充分考虑生成式AI的附随风险。刑事治理不应拘泥于数据采集和数据流动等传统规制环节,而是通过增设数据分析等专项罪名予以规范完善,并注重预防性禁令等非刑事治理手段,为数据深度运用技术的正向发展提供空间。  相似文献   

16.
西方国家的规制理论是应市场失灵而产生,应政府失灵而改进。与西方国家不同,我国经济发展的路径是,以高度的计划经济为基础,大力推动经济体制改革,改革的基本元素就是引入市场经济,进行经济体制再改革,直至市场经济的完善。在这个过程中,一直体现着"政府放权",即放松规制。因此,规制的法治建设也与西方国家大相径庭,法律制度的性质多体现为政府控权法。如何进一步控制政府的权力,摒弃计划经济的惯性和遗产成为我国规制法律制度的主要任务。  相似文献   

17.
ChatGPT的横空出世激起了新一轮人工智能发展的热潮,其实质是生成式人工智能技术的巨大突破。从技术层面来看,以目前生成式人工智能的发展态势可以预见,越来越强大的生成式人工智能必将拓展越来越广泛的应用场景,变革现有的人机关系,并对其社会化应用产生深远影响。在数字化技能日臻成熟并日益渗透人类生活的趋势下,如何理解生成式人工智能将带来的重塑性变革成为目前研究的重要课题。  相似文献   

18.
生成式人工智能(Generative AI)作为最新一代的人工智能技术,一经问世便引发各行各业的关注和担忧。就行政决策而言,生成式人工智能能够帮助行政主体实施社会数据采集分析、行为预测、方案演绎,进而辅助行政决策的信息采集、关键问题识别以及决策方案的最优化实现。但是,在生成式人工智能参与行政决策的三个阶段也存在不同程度的隐患:训练数据库的片面性可能会导致信息的不公正、对技术的过度依赖可能会导致安全风险、算法黑箱可能会引发公众对行政决策透明性的质疑。若要最大限度发挥生成式人工智能辅助行政决策的积极作用,应当强化算法歧视治理、明确技术的辅助性地位、增强算法的参与性,以此规范生成式人工智能在行政决策中的作用,促进生成式人工智能与行政决策的深度融合。  相似文献   

19.
闫坤如 《探索与争鸣》2022,(8):102-109+178
人工智能技术具有颠覆性,给人类生产、生活带来革命性影响,但人工智能系统的不透明性影响用户信任,也难以保障技术的安全性和可靠性。阐释人工智能技术、揭示人工智能的运行逻辑至关重要。人工智能技术的风险性、不透明性是人工智能系统的固有属性,通过立足于内在主义与外在主义相结合的技术伦理进路以及规范性和描述性相结合的应用伦理进路,可以揭示可解释人工智能的因果相关关系,构建基于因果相关性的可解释人工智能模型,发展负责任的人工智能。  相似文献   

20.
基于行动者网络理论视角,生成式人工智能的社会伦理风险可以认为是在技术应用过程中由人类行动者和非人类行动者开展行动者转译和网络建构所造成的。从行动者转译与网络建构来看,生成式人工智能可能带来的主要社会伦理风险包括:智能互联下的行动者之“恶”传播风险加剧、行动者社会分工体系的结构性危机加剧、行动者转译的技术异化问题更为严峻、“行动者网络”下的数字安全风险增大、行动者“五际”关系维度的数字平权问题凸显。基于此,从合理界定行动者主体的权责关系、加强行动者转译的全过程算法治理、构建人机“共善”的行动者治理共同体等方面推进生成式人工智能的社会伦理风险治理,确保科技向善健康发展。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号