首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
随着以ChatGPT为代表的生成式人工智能技术的突飞猛进,人工智能的伦理问题受到了广泛关注。生成式人工智能引发了削弱人类主体价值、加剧算法偏见与歧视、过度依赖拟态环境输出结果、人机协作双向价值对齐困难等伦理难题,亟须从人工智能伦理治理组织机制、人工智能伦理规范机制两方面入手,明确生成式人工智能应用中的人本主义立场,建构生成式人工智能治理的伦理规则,为增进人类福祉提供有力的伦理支撑。  相似文献   

2.
张凌寒 《现代法学》2023,(4):126-141
生成式人工智能改变了数字社会的生产架构,向既有的技术治理体系提出挑战。一是生成式人工智能呈现“基础模型—专业模型—服务应用”的分层业态,无法在现有的“技术支持者—服务提供者—内容生产者”监管框架中找到适配的法律定位;二是其传播模式和技术指标使得原有规制工具难以适用。生成式人工智能治理应符合其功能业态的技术逻辑,也应基于其在数字社会生产的地位,重新认识和调整生成式人工智能的法律定位,将模型作为新型的法律治理对象。生成式人工智能的基础模型因可接入千行百业而具有通用性,因同时提供信息内容与机器所需合成数据而具有强大赋能性,是人工智能时代的新型数字基础设施。应构建“基础模型—专业模型—服务应用”的分层治理体系,在不同的层次适配不同的规制思路与工具。在基础模型层以发展为导向,将其作为数字社会新型基础设施设置法律制度;在专业模型层以审慎包容为理念,进行分级分类并设置合理避风港规则;在服务应用层实施敏捷治理,建立合理容错制度。由此,我国得以从单一场景的算法治理发展为适应不同治理目标的复合型系统性治理。  相似文献   

3.
以ChatGPT为代表的生成式人工智能技术产生,在极大地提升人们工作效率的同时,也在相关领域带来了诸多法律风险。这种风险具体表现为:数据使用风险、生成内容滥用风险、算法滥用风险以及其他风险。目前我国虽然已经初步具备了有关人工智能的基本治理框架,但相关的理论以及实践仍在治理主体、治理规范设置、治理手段以及治理规则适用等方案上存在不足。生成式人工智能的出现,凸显了科技进步迭代过程中产生的“破坏性创新”现象,这也倒逼我国当前的人工智能治理模式需要从回应型治理、集中型治理向敏捷型治理转换。这要求我国在总体上坚持包容审慎的治理态度,具体包括从法律层面的制度构建、软法规范层面的填补式风险治理以及通过监管沙盒实现敏捷型风险治理等三方面来完善现有的人工智能风险治理体系,在技术创新与风险治理之间寻求平衡,从而实现数字经济的健康持续发展。  相似文献   

4.
以ChatGPT为代表的大型生成式语言模型通过对海量自然语言文本数据的学习,运用统计学和概率分布预测下一个单词或句子,从而实现流畅连贯、语法正确、具备逻辑的文本生成。这一技术机理虽能提升模型性能,但却在内容公平性、真实性和可靠性方面带来治理挑战。概率生成文本的方式存在难以控制内容质量的问题。基于网络文本语料库的训练可能嵌入算法偏见,人类反馈强化学习可能加剧虚假信息的生成与传播风险,模型的涌现性还可能产生意料之外的治理风险。迈向“模型泛在”的人工智能2.0时代,生成式人工智能的治理应遵循敏捷治理与韧性治理并重、精准治理和参与式治理协同的原则。针对“模型即服务”的新型产业生态链,围绕信息生产变迁和产业链变迁的核心特性,构建基于应用程序接口模式的治理、基于插件模式的治理和基于模型垂直部署模式的治理架构。  相似文献   

5.
程乐 《政法论丛》2023,(4):69-80
以ChatGPT为代表的生成式人工智能技术落地与大规模应用,改变了人类与人工智能的传统交互模式,对社会生产方式产生了重大变革。国际国内都出现了对人工智能主体地位及法律规制等方面的学术探讨,以应对生成式人工智能引发的伦理道德、知识产权保护、隐私与数据保护、市场垄断、网络犯罪和数据安全等一系列风险。在现阶段,我国生成式人工智能治理,应坚持安全与发展相平衡的理念,在以人为本的原则统领下设计人工智能伦理准则,推动构建以通用人工智能立法为基础,以生成式人工智能专门性管理办法为补充,以既有法律规范为根本的系统性人工智能法律规范体系。  相似文献   

6.
大型语言模型促进了生成式人工智能的蓬勃发展。大型语言模型通常作为通用生成式人工智能的技术底层发挥作用,具备信息价值、情感价值、思维价值和劳动价值,也包含信息内容风险、数据与算法安全风险、侵权风险、诚信风险等系列法律风险。大型语言模型及相关应用的法律风险治理面临微观和宏观层面的系列挑战,需要平衡多方面的目标,应当基于包容审慎监管、分层治理、深度治理和敏捷治理的路径对大型语言模型的法律风险治理开展谨慎、灵活的探索性制度实践,进而逐步完善生成式人工智能的风险治理体系。  相似文献   

7.
杨凯 《法学》2023,(10):3-19
随着生成式人工智能技术的迅猛发展,民事诉讼程序和非诉讼纠纷解决程序均已迈入数字化发展模式,但二者的公共服务功能供给不足,与当前基层社会治理需求不匹配,亟待从民事“诉非融合”协同创新和底层逻辑重构的双重维度寻求解决之道。在数字化协同创新方面,需进一步完善民事诉讼程序和非诉讼纠纷解决程序的衔接与融合,强化人工智能技术在多元化纠纷解决程序中的应用;在底层逻辑重构方面,应全方位融合民事诉讼程序与非诉讼程序,进行“一体化”制度融合,进而全面完善预防性法律制度,提升民事“诉非融合”型“诉源治理”水平和能力,有效防范和控制社会风险,破解基层社会治理矛盾纠纷妥善化解难题,促进中国式现代化民事“诉非融合”社会治理体系完善和社会治理效能整体提升。  相似文献   

8.
算法治理是算法时代的核心议题。然而,当下算法治理的实效不彰,算法治理的理论亦分歧重重。鉴古而知今,20世纪60年代以降的算法治理史不但展现了丰富的制度实践,也为我国算法治理体系的建构提供了深邃洞见。聚焦于关键场景算法透明公平的“法律”、趋于共识的算法伦理“规范”和迈向算法可解释的“代码”,贯穿了长达半个世纪的算法治理进程。政府(法律)、社会(规范)、市场(代码)的耦合,以及工具性/自主性算法和高/低风险算法的类型化,共同塑造了理一分殊的“模块化”算法治理体系,为分类分级的算法治理奠定了稳固的理论之基。  相似文献   

9.
生成式人工智能技术作为一种“破坏性创新”,在推动技术变革的同时,也因其独特的技术逻辑带来了诸多治理风险。如生成式人工智能巨量化数据的训练模式存在数据侵权风险,基于人类反馈的强化学习模式则可能加剧虚假信息的生成和传播,其技术壁垒又会强化互联网巨头的垄断地位,进而带来一系列风险。而我国现行法律对生成式人工智能的规制虽然形成了初步框架,但仍在宏观和微观方面存在困境,以欧盟和美国的监管措施为镜鉴,我国应当秉持包容审慎的理念,协同多元主体对生成式人工智能进行共商共管,通过“共建”“共治”实现成果“共享”。  相似文献   

10.
张欣 《现代法学》2023,(3):108-123
以ChatGPT为代表的大规模预训练语言模型日益展现出通用潜力,其超大规模、超多参数量、超级易扩展性和超级应用场景的技术特性对以算法透明度、算法公平性和算法问责为内核的算法治理体系带来全方位挑战。在全球人工智能治理的主流范式中,欧盟形成了基于风险的治理范式,我国构建了基于主体的治理范式,美国采用了基于应用的治理范式。三种治理范式均形成于传统人工智能的“1.0时代”,与展现通用潜能的新一代人工智能难以充分适配,并在不同维度凸显治理局限。因此,在人工智能技术范式变革之际,应以监管权的开放协同、监管方式的多元融合、监管措施的兼容一致为特征推动监管范式的全面革新,迈向面向人工智能“2.0时代”的“治理型监管”。  相似文献   

11.
孙跃元 《河北法学》2023,(4):156-175
算法决策应用的外部风险具有聚合性和累积性特征,侧重算法行为端,在技术运用过程中向多数不特定群体扩散,将其类型化后包括社会公共利益和实质正义受损、人的主体性地位和合法权益受挑战两方面。外部风险不同于一般侵权行为的损害后果,无法适用传统归责原则。为了有效促进算法技术和监管的良性互动,以公共治理路径为视角,将算法决策嵌入网络社会架构中分析当下治理的局限性,并提出较完善的治理方案。在思路上,应遵循分类分级的精准化治理方法,选择“软”“硬”法为协同治理工具,坚持安全和发展并重的治理理念。在路径上,应着眼于算法决策应用的生命全周期,用算法解释机制解决算法备案制失灵的问题,以风险比例确立算法决策系统的分类与规制方向,并以平台为主体多途径构建算法综合性问责体系,形成治理合力。  相似文献   

12.
作为一种基于机器学习的人工智能技术,生成式人工智能通过大规模数据集的学习训练来生成新的内容。生成式人工智能的快速迭代发展与机器学习的强数据依赖,在带来“创作”便利的同时,也给传统著作权理论带来了挑战。尤其是机器学习中的大规模素材训练所面临的著作权风险,亟待理论上的剖析厘清、司法实践上的准则确立。笔者从生成式人工智能的技术原理出发,通过梳理其素材来源与使用方式,分析机器学习素材训练中的典型侵权类型。并从理论基础、国内司法、欧盟立法等方面分析合理使用制度相对于法定许可制度的可行性。最终提出将生成式人工智能机器学习中的版权作品使用行为纳入合理使用制度范畴,既是当今科技发展浪潮中促进人工智能产业发展的最优解,也是维持“个人利益”与“公共利益”之间平衡的理性考量。  相似文献   

13.
生成式人工智能的技术跃进架空了个人信息处理的告知同意规制和最小必要原则,引发了虚假信息生成和个人信息泄漏的广泛风险迭代问题。传统个人信息的权利保护路径面临认知和结构困境,无法应对生成式人工智能给个人信息保护带来极大挑战。以风险控制为导向的个人信息保护机制不强调信息主体对个人信息的绝对控制,旨在通过识别、评估、分配和管理将风险控制在最小范围内,可以灵活和实用地平衡生成式人工智能应用中的信息利用和风险控制,提供有效的解决方案。在风险控制理念下,对告知同意规则和最小必要原则进行风险化解释与调试,并建立从预防到识别再到控制的虚假信息生成风险的全过程应对机制,以及基于风险的个人信息保护合规管理体系,是当前的最优选择。  相似文献   

14.
郭春镇 《现代法学》2023,(3):88-107
随着大规模数据和算式的增长,以及算法的不断优化。围绕生成式AI的前景,存在着支持、反对、中立等不同态度,这些态度背后隐含着认知根源、经济考量和权利思考。立足于法律3.0的融贯性治理注重国家法律、行政规制和技术方案之间的融贯,为治理生成式AI提供了思路和方向。融贯性治理中的“融贯”,既是规范性融贯,强调法律规范的内在一致性和统一性,也是整体性融贯,强调将技术方案融入规范,进而使得技术方案与不同层级规范和引领这些规范的原则与价值得以融贯。在面对以GPT为代表的生成式AI时,可以尝试将AI和区块链作为技术方案对其进行治理,也可以通过自我规制和外在约束培育建设“有道德的”AI,还可以通过“市场+规则”助力生成式AI的发展。生成式AI所涉及的法律问题在现有的法律体系框架内基本能得到有效应对,对于它带来的现实、急迫且法律没有明确规定的问题,可以进行融贯性治理。  相似文献   

15.
邱遥堃 《法学家》2023,(3):60-74+192
算法权力虽然强大,但仍可能受到规避,与其治理对象之间持续存在动态博弈关系。规避算法的基本策略,包括避免成为治理对象、调整满足治理要求与混淆迷惑治理主体。这一现象的成因在于技术的刚性有限,且不匹配处理边际性治理问题时所需要的利益衡量,无法将所有“标准”转化为“规则”,解决不了多元规范秩序背后的根本性社会矛盾。然而,大多数人并非算法规避者,算法权力总体有效;少数的算法规避也有利于限制算法权力,平衡治理与自由,促进社会稳定与治理的综合效率。只需坚持包容审慎的规制原则,在通过技术加强规制简单的算法规避之同时,对复杂的算法规避保持容忍,同时发挥社会规范的规制作用。  相似文献   

16.
侯跃伟 《河北法学》2024,(2):160-178
技术的突破性发展,极易导致刑事风险的激增。既有刑事法律体系前瞻性和抽象性的欠缺,导致刑法缺乏针对性的规制措施。为了更好地应对生成式人工智能可能造成的刑事风险,应当结合其运行原理和基本特征,精准发掘其内生性缺陷和刑事风险,理顺其治理理念,将发展作为第一要务,兼顾依法治理、自主可控;同时,顺应我国当前的发展趋势,优化营商环境,从平台责任向个人责任回归,构建分级分类的监管模式,推动我国生成式人工智能的健康发展。  相似文献   

17.
ChatGPT的出现标志着生成式人工智能在语义理解和知识创造上逐渐向类似人类的方向进化。通过ChatGPT的知识代理式协助,人类开启了与客观知识世界间的双向交互,这虽然增强了知识获取的灵活性和针对性,但也带来了工具性的技术滥用风险和内因性的数据安全风险。这两类风险加剧了虚假信息传播、犯罪方法传授、用户数据泄露等危害行为的异化,对传统事后回应型治理模式提出挑战。对此,犯罪治理应围绕技术加速迭代与治理资源不足间的显性矛盾,以及平台权力扩张与监管力量失衡间的隐性矛盾,从“看门人义务”的体系性完善和数据安全监管义务的实质性强化出发,将立法导向内嵌于技术理性之中,探索符合人类社会发展需要的生成式人工智能治理机制。  相似文献   

18.
人工智能算法的进步带来的治理困境,表面看需要规范制度的健全,更深层的原因是人的主体性危机。人在客观层面的特殊性随着科技的发展逐渐弱化,人工智能技术对人思维的模拟不断迫近,一元论的哲学进路可能会导致法律对人工智能的治理失灵。厘清法律规范中人的主体性的基础是自由意志,沿着以人为目的的目标,重建善的标准,是法律保证人的自主性和进行人工智能治理的基础。  相似文献   

19.
周翔 《法学杂志》2024,(1):111-127
较之于裁判结果预测,我们更应关注司法人工智能的辅助说理能力。司法人工智能定位于裁判说理的辅助地位,在于算法的解释技术难以满足司法公开的要求,推理过程难以对接庭审的复杂辩论,推理的方法也难以改造成司法推理的方式,以上局限决定了司法人工智能难以独立完成针对裁判结果的说理任务。人机间更合适的定位应当是由法官承担说理责任,机器予以全面辅助。人工智能的辅助价值体现在为结论寻求充分的理由,集中于提升文书写作的水准。生成式大模型等新技术的出现,提升了司法人工智能辅助说理的能力,技术实现的方法具体包括实体方面提供更为充分的大小前提素材,形式方面提供文书写作的规范体例。  相似文献   

20.
<正>近年来,以Chat GPT为代表的基于互联网的生成式人工智能(指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术)工具迅速发展,很多此前需要昂贵硬件设施和大量资源的工作,如今普通人在个人电脑和移动终端上即可简单且迅速地完成,新型生成式人工智能工具的强大能力,及其前所未有的便利性和普及性,引起社会各界对于其被犯罪分子利用的广泛担忧。美国是目前全世界首屈一指的人工智能强国,  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号