首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
人工智能技术研发的重要性不言而喻,其不仅是新兴产业的发展方向,也是经济发展的潜在驱动力.调整和规范人工智能的技术应用是稳定技术成果的价值,更是促进社会发展的必然要求.新技术带来的创新突破有利于经济效益和社会福利的增加,而如何固定新技术带来的经济效益与社会福利则是规范构建的目标.诚实信用原则是民事法律体系中的重要法律原则,调整民事主体行为模式,分配民事权益和利益,构建稳定有序的行为秩序作为基本制度目标.对于人工智能为代表的新技术,诚实信用原则能够通过制度功能协调不同主体参与技术应用的行为模式和利益需求,为人工智能规范构建的具体构建和实施奠定制度基础.  相似文献   

2.
程乐 《政法论丛》2023,(4):69-80
以ChatGPT为代表的生成式人工智能技术落地与大规模应用,改变了人类与人工智能的传统交互模式,对社会生产方式产生了重大变革。国际国内都出现了对人工智能主体地位及法律规制等方面的学术探讨,以应对生成式人工智能引发的伦理道德、知识产权保护、隐私与数据保护、市场垄断、网络犯罪和数据安全等一系列风险。在现阶段,我国生成式人工智能治理,应坚持安全与发展相平衡的理念,在以人为本的原则统领下设计人工智能伦理准则,推动构建以通用人工智能立法为基础,以生成式人工智能专门性管理办法为补充,以既有法律规范为根本的系统性人工智能法律规范体系。  相似文献   

3.
从促进和规范人工智能产业发展、鼓励科技创新出发,应当对生成式人工智能致害的侵权责任采过错责任原则。在认定生成式人工智能服务提供者的过错时,应当以现有技术水平作为判断标准,现有技术水平需要考虑时间维度、行业维度和地域维度。在按照现有技术标准认定服务提供者的过错时,应当考虑生成式人工智能服务提供者在输入信息的真实性、输出信息的真实性以及服务提供者违反个人信息安全保证义务等方面,在现有技术条件下是否尽到了采取了必要措施的义务,是否尽到了预防和防范的义务,从而认定其是否具有过错。同时,考虑到现有技术条件下生成式人工智能侵权的特殊性,应当对服务提供者变通适用通知规则。  相似文献   

4.
现行法律体系下对于人工智能的法律人格规制缺位,造成实践应用缺乏法律价值指引,人工智能的法律地位与具体规制亟待明晰.人工智能具有独立自主的行为能力,有资格享有法律权利并承担责任义务,人工智能应当具有法律人格.但由于人工智能承担行为能力的后果有限,人工智能适用特殊的法律规范与侵权责任体系安排,其具有的法律人格是有限的法律人格,域外法律对此已有立法借鉴.为调整适应人工智能有限法律人格的规制安排,必须明确人工智能归责原则,通过强制投保责任险、确立以人为本的监管体系、加速《人工智能发展法》立法等体系性安排促进人工智能在可控的范围内发展.  相似文献   

5.
人工智能是人类社会的伟大发明,同时也存有巨大的社会风险。它或是“技术—经济”决策导致的风险,也可能是法律保护的科技文明本身带来的风险,这一社会风险具有共生性、时代性、全球性的特点。同时,智能革命对当下的法律规则和法律秩序带来一场前所未有的挑战,在民事主体法、著作权法、侵权责任法、人格权法、交通法、劳动法等诸多方面与现有法律制度形成冲突,凸显法律制度产品供给的缺陷。对于人工智能引发的现代性的负面影响,有必要采取风险措施,即预防性行为和因应性制度。面向未来时代的调整规范构成,应以人工智能的发展与规制为主题,形成制度性、法治化的社会治理体系,包括以安全为核心的法律价值目标、以伦理为先导的社会规范调控体系和以技术、法律为主导的风险控制机制。借鉴国外经验,立足本土需要,当前应尽快出台 “国家发展战略”,及时制定“机器人伦理章程”,适时进行机器人专门立法。  相似文献   

6.
大型语言模型促进了生成式人工智能的蓬勃发展。大型语言模型通常作为通用生成式人工智能的技术底层发挥作用,具备信息价值、情感价值、思维价值和劳动价值,也包含信息内容风险、数据与算法安全风险、侵权风险、诚信风险等系列法律风险。大型语言模型及相关应用的法律风险治理面临微观和宏观层面的系列挑战,需要平衡多方面的目标,应当基于包容审慎监管、分层治理、深度治理和敏捷治理的路径对大型语言模型的法律风险治理开展谨慎、灵活的探索性制度实践,进而逐步完善生成式人工智能的风险治理体系。  相似文献   

7.
随着以ChatGPT为代表的生成式人工智能技术的突飞猛进,人工智能的伦理问题受到了广泛关注。生成式人工智能引发了削弱人类主体价值、加剧算法偏见与歧视、过度依赖拟态环境输出结果、人机协作双向价值对齐困难等伦理难题,亟须从人工智能伦理治理组织机制、人工智能伦理规范机制两方面入手,明确生成式人工智能应用中的人本主义立场,建构生成式人工智能治理的伦理规则,为增进人类福祉提供有力的伦理支撑。  相似文献   

8.
以ChatGPT为代表的生成式人工智能技术产生,在极大地提升人们工作效率的同时,也在相关领域带来了诸多法律风险。这种风险具体表现为:数据使用风险、生成内容滥用风险、算法滥用风险以及其他风险。目前我国虽然已经初步具备了有关人工智能的基本治理框架,但相关的理论以及实践仍在治理主体、治理规范设置、治理手段以及治理规则适用等方案上存在不足。生成式人工智能的出现,凸显了科技进步迭代过程中产生的“破坏性创新”现象,这也倒逼我国当前的人工智能治理模式需要从回应型治理、集中型治理向敏捷型治理转换。这要求我国在总体上坚持包容审慎的治理态度,具体包括从法律层面的制度构建、软法规范层面的填补式风险治理以及通过监管沙盒实现敏捷型风险治理等三方面来完善现有的人工智能风险治理体系,在技术创新与风险治理之间寻求平衡,从而实现数字经济的健康持续发展。  相似文献   

9.
人工智能的法律人格需求是伴随着自动化技术的发展而产生的,是智能社会治理中许多具体问题都会触及的理论假设.自1992年人工智能法律人格设想被首次提出以来,它成为理论研究、立法建议和司法实践中普遍关注的话题,人工智能生成物的著作权归属、人工智能担任人类工作角色和欧洲的立法动议更促进了这一问题的讨论.人工智能的法律人格具有多维度的需求.既包括明确侵权责任、塑造权利能力等具体需求,也包括以构建社会治理新范式为目标的根本需求.不能简单地从概念上直接排除人工智能具有法律人格的可能性,也不能认为授予法律人格是唯一或者更佳的解决办法.人工智能法律人格是智能社会发展中新型治理模式的选项,以功能主义的态度来进行解释论或立法论的探讨是看待人工智能法律人格问题的正确视角,可以分别按照财产、类推适用代理、借用公司或财产法人、设立新的法律主体等方式回应人工智能带来的法律问题和挑战.即便不设立新的法律人格,在人工智能的侵权责任、合同缔约程序、代理关系认定等方面也需要作出必要的补充规定.  相似文献   

10.
曹博 《比较法研究》2019,(4):138-150
人工智能生成物的客体属性决定了其在现有民事权利体系中能否找到相应位置,进而决定法律规范的制度选择。按照类推解释的基本规则,首先需寻找与人工智能生成物最为接近的民事权利客体类型,其次明确知识产权客体的概念内涵及判定规则,最终确定人工智能生成物的客体属性。知识产权的客体是智力财产,对智力财产的判定应当从其产生过程进行考量,调整的过程论作为甄别智力财产的标准已在实定法和判例中得到确认。从产生过程分析,人工智能生成物在现阶段只是数据算法的结论,其本质是计算与模仿,不是智力劳动,不具有智力财产的属性,无法成为知识产权的客体,应当归属于公有领域,冒名发表等问题可通过法律解释在现有规范体系内加以解决。  相似文献   

11.
张凌寒 《现代法学》2023,(4):126-141
生成式人工智能改变了数字社会的生产架构,向既有的技术治理体系提出挑战。一是生成式人工智能呈现“基础模型—专业模型—服务应用”的分层业态,无法在现有的“技术支持者—服务提供者—内容生产者”监管框架中找到适配的法律定位;二是其传播模式和技术指标使得原有规制工具难以适用。生成式人工智能治理应符合其功能业态的技术逻辑,也应基于其在数字社会生产的地位,重新认识和调整生成式人工智能的法律定位,将模型作为新型的法律治理对象。生成式人工智能的基础模型因可接入千行百业而具有通用性,因同时提供信息内容与机器所需合成数据而具有强大赋能性,是人工智能时代的新型数字基础设施。应构建“基础模型—专业模型—服务应用”的分层治理体系,在不同的层次适配不同的规制思路与工具。在基础模型层以发展为导向,将其作为数字社会新型基础设施设置法律制度;在专业模型层以审慎包容为理念,进行分级分类并设置合理避风港规则;在服务应用层实施敏捷治理,建立合理容错制度。由此,我国得以从单一场景的算法治理发展为适应不同治理目标的复合型系统性治理。  相似文献   

12.
杨凯 《法学》2022,(2):3-20
公共法律服务体系建设现代化的核心问题是满足人民群众追求美好生活日益增长的法律服务需求,为实现共同富裕发展目标提供全方位的法治保障。现代公共法律服务体系建设的地方立法例中,均集中体现出对公共法律服务基本概念和调整范围的反思与分歧,为此亟待厘清公共法律服务应然规范构造理论,这是未来形成公共法律服务全国统一立法的法学理论基础。公共法律服务专门立法在整个公共法律服务规范体系中具有纲领性地位,公共法律服务体系建设改革实践不仅具备基本服务与非基本服务二元结构架构特征,而且越来越多地呈现出多元和多维架构的本质特征。现有二元规范构造理论已经不能全面解释和解构现有的公共法律服务体系建设实践发展的全样本和多维度、多元化样态,只有建构多元化的现代公共法律服务规范体系才能根本解决现有公共法律服务地方立法例实践及理论研究中出现的关于基本概念、规范类型、规范属性、调整方式、权利属性等诸多基本争议,从而确定公共法律服务的权利义务主体、事项范围、模式与程序、标准与评价指标、监督管理等主要体系建构的基本规范要素,进而归纳整合公共法律服务立法规范构造的本质特征,为将来形成区域协同一体化立法或全国统一立法提供立法规范要素的基本构造理论支撑。  相似文献   

13.
《现代法学》2019,(4):65-76
保护投资者的合法权益是融资融券交易规则的应有之意,不容忽视。美国司法实践表明,以规范目的论为视角,可以通过转介条款将违反融资融券交易规则的行为纳入到侵权法体系中,从而实现对投资者利益的保护。需要注意的是,违反融资融券交易规则的侵权责任并非没有界限。当投资者具有故意引诱行为时,加害人可以投资者存在与有过失为由要求减轻或免除侵权责任。经由司法实践发展而来的违反融资融券交易规则的侵权责任,有效地弥补了行政管制的不足,对于维护证券市场秩序具有重要价值。我国应当首先明确融资融券交易规则具有保护投资者权益的规范目的,并以此为基础进行法律解释,逐渐构建《侵权责任法》体系内违反融资融券交易规则的侵权责任。  相似文献   

14.
针对我国大学生勤工助学现象日益普遍,但有关法律规范不够完善且颇多争议,大学生勤工助学屡遭侵权且雏权较难问题进行了探究分析。提出了借鉴国外大学生勤工助学法律规定,完善我国此类立法、加强大学生勤工助学立法保障的建议。  相似文献   

15.
人工智能已经在司法审判中开始了初期应用,上海于2017年初启动了司法审判人工智能辅助系统的开发。上海法院行政案件智能辅助办案系统前期以政府信息公开案件为基础案由,构建了智能阅卷、智能归纳、智能辅助、庭审评议等模块组成的系统总体架构。在法律人工智能辅助系统开发的同时,我们需要对法律与人工智能的交互关系、人工智能对司法审判决策过程的积极作用,立足于人工智能的技术本质和既有条件进行更为深入的认识。人工智能在改变司法审判过程的直觉主义,推动法律符号系统的完善方面有独特的作用。当然,人工智能进一步在法律领域产生深远影响,仍然需要跨越一些障碍,比如人工智能任务模式、通用性方面的问题。建立法律术语语义网络并完善法律知识库体系,可能是下一步法律人工智能发展的基础。  相似文献   

16.
人工智能内容生成机制涵盖研发阶段的数据获取和后续利用阶段的生成内容应用,前一阶段主要面临获取数据的著作权合法授权问题,后一阶段则主要面临生成内容的著作权属性判断、归属及侵权责任承担等问题。现有规范分析框架对两个阶段所面临的主要问题都存在规则局部不适配的情况,究其根源在于现有规范设计不能满足人工智能发展所带来的产业保障需求,对已经做出调整的发展人工智能的产业政策无法进行有效回应。由技术推动带来的人工智能内容生成机制的变革,直接冲击着现有著作权制度对作品表现形式和“思想—表达二分”的底层逻辑认知,同时,还面临事前授权的财产规则和海量资源学习模式需求不符的窘境、机器学习内容获取全阶段的著作权侵权风险以及由数据保护利益的多样性和复杂性导致的要求著作权合规等问题。面对这些问题,不能单一化打补丁式地进行规则设计,而应该综合性地解决体系性认知问题,在稳固“思想—表达二分法”的基础原则上,可尝试通过将署名和其他著作权进行分离的制度设计以贯彻诚实信用原则保障数据来源真实,通过合法购买与合同约定风险承担、打开人工智能预训练阶段数据获取的著作权合理使用闸口,并借助避风港规则实现责任豁免、集体管理组织集中授权...  相似文献   

17.
《侵权责任法》第5条作为该法的基本规范,是行政法对侵权责任认定产生规范效应的连结点。借助该连结点,行政规范的功能、价值与精神得以内化于侵权责任法中,实现行政法对侵权责任法的间接规范效应。对《侵权责任法》实施前后647件侵权案件及其中47个行政规范的实证研究发现,对民事侵权责任认定产生规范效应的行政规范,当为可以在平等主体间创设具体法律关系的裁判规范。同时,《侵权责任法》第5条和第58条准用性规范的出现,不仅彰显了行政规范对侵权责任影响之规范效应,亦蕴涵了行政规范体系内生的以义务为中心的趋势性立法要求。  相似文献   

18.
以ChatGPT为代表的生成式人工智能正在引发传统版权领域的诸多挑战,生成式人工智能主体资格、创作内容作品属性、版权侵权责任等问题需要进一步明确。遵循“人类中心主义”,生成式人工智能的主体资格面临既有制度规范、民事基础理论等方面的否定。然而,生成式人工智能创作内容具有可版权性,值得版权保护。为此,需要明晰生成式人工智能创作内容的权利主体,确立以约定优先为原则、以使用者为主导的版权归属路径。同时,构建生成式人工智能的版权侵权责任判定体系,准确划分机器学习行为的合法边界,推动生成式人工智能的创新发展。  相似文献   

19.
人工智能算法的进步带来的治理困境,表面看需要规范制度的健全,更深层的原因是人的主体性危机。人在客观层面的特殊性随着科技的发展逐渐弱化,人工智能技术对人思维的模拟不断迫近,一元论的哲学进路可能会导致法律对人工智能的治理失灵。厘清法律规范中人的主体性的基础是自由意志,沿着以人为目的的目标,重建善的标准,是法律保证人的自主性和进行人工智能治理的基础。  相似文献   

20.
以Deepfake、ChatGPT、元宇宙等为代表的深度合成技术与应用场景,极大地改变了信息获取、人机交互的方式,并成为未来数字空间的基础性技术。我国的深度合成治理已经走在世界前列,但仍主要停留在算法治理衍生出的信息安全层面,偏重服务应用监管而底层技术治理不足,偏重监管服务提供者但监管技术提供者尚不充分,数据与场景分级分类标准繁杂但并未形成有机体系。深度合成治理应在算法治理基础上延伸迭代,将深度合成作为人工智能治理的专门领域,同时通过顶层设计推进基础性人工智能立法,既保障急用先行,又可探索并形成通用人工智能立法的经验。既应发挥中国既有的深度合成治理优势,根据生成型人工智能技术特点更新监管逻辑,基于生成型人工智能技术的通用性实施全链条治理;同时还需立足现行法规中分级分类治理架构,结合技术、产业和应用建立有机体系和设置具体规则,以形成在全球更具影响力的深度合成治理法律制度体系。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号