首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 187 毫秒
1.
《北方法学》2019,(4):56-66
法律人格的取得包含法律对对象的价值判断。现代法上自然人法律人格的赋予可追溯至康德的"人是目的"的价值判断理论,而团体法律人格的取得不在于其具有哲学意义上的价值,而在于其社会价值。当前的人工智能未发展出理性,不可取得类似于自然人的法律主体资格,为其拟制一个法律人格对社会问题的解决并无重大意义,赋予其法律人格理由不足。但是人工智能不同于一般的物,鉴于其智能上的"类人"属性,应将其界定为法律客体中的特殊物。在法律规制上应以人的行为为中心,确定以人为本的最高技术发展原则,以产品责任和相关具体侵权责任为责任认定的基础,辅之以责任认定的科技手段和责任分担的保险制度和赔偿基金制度,以满足人工智能科技发展和法律规制的需求。  相似文献   

2.
人工智能生成技术方案的出现,使专利法面临着诸多方面的挑战。理论层面,鉴于人工智能法律主体资格的缺失,无论是以洛克劳动学说和黑格尔人格学说为代表的“自然权利论”,还是以实现利益最大化为基础的“创新激励论”,都无法为人工智能生成技术方案的专利保护正当性提供充分的理论证成。实践层面,由于相关法律关系的复杂性,人工智能生成技术方案的专利法规制中,则存在着在可专利性判断标准的失灵问题、获得专利保护后的权责分配问题以及进入公有领域后的风险控制问题等一系列实践难题。因此,有必要通过引入人工智能作为技术“发明人”的制度设计、创立人工智能生成技术方案的可专利性标准、构建人工智能生成专利技术的权责分配规则、设置人工智能生成现有技术的风险防范机制等法律对策,消除理论争议并化解实践难题,以此实现专利法对人工智能生成技术方案的有效规制。  相似文献   

3.
现行法律体系下对于人工智能的法律人格规制缺位,造成实践应用缺乏法律价值指引,人工智能的法律地位与具体规制亟待明晰.人工智能具有独立自主的行为能力,有资格享有法律权利并承担责任义务,人工智能应当具有法律人格.但由于人工智能承担行为能力的后果有限,人工智能适用特殊的法律规范与侵权责任体系安排,其具有的法律人格是有限的法律人格,域外法律对此已有立法借鉴.为调整适应人工智能有限法律人格的规制安排,必须明确人工智能归责原则,通过强制投保责任险、确立以人为本的监管体系、加速《人工智能发展法》立法等体系性安排促进人工智能在可控的范围内发展.  相似文献   

4.
人工智能的法律人格需求是伴随着自动化技术的发展而产生的,是智能社会治理中许多具体问题都会触及的理论假设.自1992年人工智能法律人格设想被首次提出以来,它成为理论研究、立法建议和司法实践中普遍关注的话题,人工智能生成物的著作权归属、人工智能担任人类工作角色和欧洲的立法动议更促进了这一问题的讨论.人工智能的法律人格具有多维度的需求.既包括明确侵权责任、塑造权利能力等具体需求,也包括以构建社会治理新范式为目标的根本需求.不能简单地从概念上直接排除人工智能具有法律人格的可能性,也不能认为授予法律人格是唯一或者更佳的解决办法.人工智能法律人格是智能社会发展中新型治理模式的选项,以功能主义的态度来进行解释论或立法论的探讨是看待人工智能法律人格问题的正确视角,可以分别按照财产、类推适用代理、借用公司或财产法人、设立新的法律主体等方式回应人工智能带来的法律问题和挑战.即便不设立新的法律人格,在人工智能的侵权责任、合同缔约程序、代理关系认定等方面也需要作出必要的补充规定.  相似文献   

5.
魏斌 《政法论丛》2021,(1):138-147
法律人工智能的法理是"实践之法理",是证成法律人工智能实践之正当性的理据,它反映人工智能的技术理性与法律实践理性相融合以揭示法律运行的规律和特征,是"法外之理"的又一阐释。法律人工智能的法理逻辑在于辩护和证成,其价值不仅为法律人工智能提供法理解释和学理支撑,还在于规范和引导法律人工智能的发展。法律融合人工智能有其天然条件,探究其蕴含之法理是法律融合科技之法理的新命题,法理形式理性是辩护法律人工智能之法理的本质特征。法理之要义应在于指导人工智能理解和遵循立法及司法规律,符合法律任务的特征,满足法律实践的需求,定位和发挥"辅助手"的作用,最大限度地发挥人工智能的技术优势。  相似文献   

6.
张凌寒 《现代法学》2023,(4):126-141
生成式人工智能改变了数字社会的生产架构,向既有的技术治理体系提出挑战。一是生成式人工智能呈现“基础模型—专业模型—服务应用”的分层业态,无法在现有的“技术支持者—服务提供者—内容生产者”监管框架中找到适配的法律定位;二是其传播模式和技术指标使得原有规制工具难以适用。生成式人工智能治理应符合其功能业态的技术逻辑,也应基于其在数字社会生产的地位,重新认识和调整生成式人工智能的法律定位,将模型作为新型的法律治理对象。生成式人工智能的基础模型因可接入千行百业而具有通用性,因同时提供信息内容与机器所需合成数据而具有强大赋能性,是人工智能时代的新型数字基础设施。应构建“基础模型—专业模型—服务应用”的分层治理体系,在不同的层次适配不同的规制思路与工具。在基础模型层以发展为导向,将其作为数字社会新型基础设施设置法律制度;在专业模型层以审慎包容为理念,进行分级分类并设置合理避风港规则;在服务应用层实施敏捷治理,建立合理容错制度。由此,我国得以从单一场景的算法治理发展为适应不同治理目标的复合型系统性治理。  相似文献   

7.
《现代法学》2019,(4):53-64
法律人格概念的发生学机制,涉及到法律位格的古今学说史。古典罗马法中,法律位格从未被规定于普遍意义上的"个体—主体—实体"之"人",而是依据"身份地位"的不同层次,从上往下分配位格的各种减等形态,形成多层次、差序化的法律位格体系。现代的法律人格和法律主体概念摒弃了古典罗马法根据实践需要而设置法律位格,并灵活分配不同行为能力的传统。现代法律主体的诞生,是法律位格的简化和一元化的收缩过程,原本差序结构的法律位格被收窄到世俗化的人类中心主义的法律主体位格。人工智能革命也可尝试在法理学上纳入这一法律位格的拟制传统。根据物种位阶的规范主义立场,现代法人制度通过"位格加等"把人为设置的团体组织提升到具有一定法律位格的地位;"智能机器人"概念是对"智人"概念的模仿和拟制,人工智能概念是通过"位格加等"把机器人提升到自然人的法律位格。法律主体学说之现代性立场有其限度,从法律主体概念回归法律位格概念,是人工智能时代法理思想变革的重要契机。  相似文献   

8.
人工智能技术引发各类伦理与法律问题,对人工智能进行规范已经成为世界共识。基于此,各国学者针对人工智能应用规范展开研究,呈现出从伦理规范研究向法律规范研究演进的态势。当前,国外人工智能应用规范研究已经取得多项共识,同时也存在诸多争议。主要共识包括三点:一是人工智能伦理研究的方向应为社会伦理,二是基于确定的人工智能伦理,研究重点应当进一步转向技术实现,三是人工智能伦理规范具有局限性,未经法律规范的人工智能具有侵权风险。现有争议主要集中在人工智能立法的重点问题、人工智能治理的重要方向、人工智能法律体系的构建取向上。主要争议问题包括:人工智能是否具有法律主体资格、人工智能应用侵权的法律责任、人工智能治理中的发展与规范冲突、人工智能治理中的预防与监管平衡、人工智能特殊法律体系构建的主要方向等。未来研究应当立足现有对伦理原则的共识和对重点法律问题的讨论,从系统视角设计人工智能法律规范体系,同时在方法上注意融入计算机领域的研究方法,强化人工智能的技术属性。  相似文献   

9.
论人工智能法律主体的法哲学基础   总被引:3,自引:0,他引:3  
骁克 《政治与法律》2021,(4):109-121
当下人工智能主体学说面临诸多问题,需从法哲学视角予以审视。就人工智能本体而言,其行为具有自主性,不宜纯粹以客体相待;从他者期望视角观察,人工智能拥有道德责任能力,系道德主体。法律主体理论经历了由自然人有限人格到全面人格,再到自然人、法人综合人格的演化过程,呈现客观化趋势,不唯理性、意志等主观要素论,其为人工智能法律主体提供了栖居空间。在目的论意义上,人工智能能够推动积极向善,助力美好生活,实现显著的经济社会价值,作为法律主体具有合目的性。在当代,传统主体哲学转向,人的哲学危机引发新思考,尤其是人类中心主义的主体-客体范式发生变化,客体主体化的历史经验及当代实践显现一种哲学可能性,即主体不限于人,从而强化了人工智能法律主体的可能性。  相似文献   

10.
《现代法学》2019,(5):135-151
关于人工智能可否构成犯罪,国外主要存在"心理要素说""智能代理说""法人类比说""法定实体说"以及"当然主体说"等观点。人工智能成为犯罪主体的哲理基础是科学实证主义和道德二元论,现实条件是具备法律人格。智能代理可以成为道德代理。人工智能的道德生成进路有"实在论进路""关系论进路""认识论进路"等之别,"实在论进路"相对合理。处罚人工智能既能为处罚其他主体奠定基础,也能达到剥夺其犯罪能力的目的,还能产生附加价值。我国的人工智能刑法研究尚处于初始阶段,未来研究的重点在于:人工智能对刑法人类中心主义的挑战,人工智能犯罪主体的范畴、责任范围与程度,刑法如何介入对人工智能的规制以及人工智能犯罪的刑罚适用。  相似文献   

11.
人工智能(AI)作为类人类智能,无论我们是否赋予其主体资格,在解决其法律责任问题时,都必须对其行为进行解释,为此,探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性的全新路径来推进,而不是纠缠于当下学界关于人工智能主体地位与法律责任的各种主体论与责任理论。人工智能的可解释性,亦即解释人工智能如何在大数据的基础上进行算法决策。然而,在AI领域,虽然以深度学习为代表的人工智能技术已取得了令人瞩目的成就,但如何确保以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据,仍是一个无法得到解决的难题,人工智能"黑箱"释明难题决定了人工智能行为的不可解释性。法律责任的本质是答责,不具有可解释性的人工智能不能自我答责,因此其无法承担法律责任;法律责任的目的是预防,不具有可解释性的人工智能无法实现法律责任的预防目的。人工智能法学研究的下一个前沿问题,是人工智能的可解释性问题。  相似文献   

12.
Artificial intelligence (AI) as of the level of development reached today has become a scientific reality that is subject to study in the fields of law, political science, and other social sciences besides computer and software engineering. AI systems which perform relatively simple tasks in the early stages of the development period are expected to become fully or largely autonomous in the near future. Thanks to this, AI which includes the concepts of machine learning, deep learning, and autonomy, has begun to play an important role in producing and using smart arms. However, questions about AI-Based Lethal Weapon Systems (AILWS) and attacks that can be carried out by such systems have not been fully answered under legal aspect. More particularly, it is a controversial issue who will be responsible for the actions that an AILWS has committed. In this article, we discussed whether AILWS can commit offense in the context of the Rome Statute, examined the applicable law regarding the responsibility of AILWS, and tried to assess whether these systems can be held responsible in the context of international law, crime of aggression, and individual responsibility. It is our finding that international legal rules including the Rome Statute can be applied regarding the responsibility for the act/crime of aggression caused by AILWS. However, no matter how advanced the cognitive capacity of an AI software, it will not be possible to resort to the personal responsibility of this kind of system since it has no legal personality at all. In such a case, responsibility will remain with the actors who design, produce, and use the system. Last but not least, since no AILWS software does have specific codes of conduct that can make legal and ethical reasonings for today, at the end of the study it was recommended that states and non-governmental organizations together with manifacturers should constitute the necessary ethical rules written in software programs to prevent these systems from unlawful acts and to develop mechanisms that would restrain AI from working outside human control.  相似文献   

13.
There are several legal and ethical problems associated with the far-reaching integration of man with Artificial Intelligence (AI) within the framework of algorithmic management. One of these problems is the question of the legal subjectivity of the parties to a contractual obligation within the framework of crowdworking, which includes the service provider, the Internet platform with AI, and the applicant's client. Crowdworking is an excellent example of a laboratory of interdependence and collaboration between humans and artificial intelligence as part of the algorithmic management process. Referring to the example of crowdworking platforms, we should ask whether, in the face of the rapid development of AI and algorithmic management, AI can be an employer equipped with electronic personhood? What characteristics does a work environment in which AI and algorithmic governance mechanisms play a dominant role? What kind of ethical implications are associated with the practical application of the concept of electronic subjectivity of AI in employment relations? This paper analyses the legal and ethical implications of electronic AI subjectivity in the work environment. The legal construction of electronic personhood is examined. The legal entity that uses AI, which manages the work process through algorithmic subordination, bears the risks resulting from such use (economic, personal, technical, and social) and full material responsibility (individual liability regime with the application of the presumption of guilt rule) in case of damage to an employee. Liability provisions can be complemented by a mandatory insurance scheme for AI users and a compensation fund that can offer support when none of the insurance policies covers the risk. A compensation fund can be paid for by the manufacturer, owner, user, or trainer of the AI and can compensate all those who suffer damage as a result of its operations. This is the direction proposed by the European Parliament, which has progressively called for robots to be given an electronic personality. The personalistic concept of work excludes the possibility of AI becoming a legal entity. Alongside legal arguments, ethical questions are of fundamental importance. The final part of the article presents the ethical implications of AI as an employer endowed with a legal entity (electronic personhood).  相似文献   

14.
论法人的独立人格及判断标准   总被引:4,自引:1,他引:3  
徐洁 《现代法学》2003,25(1):74-77
本文对法人的独立人格及取得条件进行了深入研究,剖析了法人责任能力的基本内涵,指出现行立法和相关理论将法人独立责任能力等同于投资人有限责任,从而使法人概念限于投资人负有限责任的团体,不能正确体现法人独立人格的内涵,并导致法人理论的混乱。因此,应当摒弃现行理论,赋予法人正确的法律定位,以适应市场体制建设的发展需要。  相似文献   

15.
法人人格与有限责任   总被引:8,自引:0,他引:8  
董学立 《现代法学》2001,23(5):80-83
一般企业法学理论认为 ,企业的成员团体性是其获得法律人格的基础 ,企业的成员责任有限性是其获得法律人格的特征 ,但企业法人人格和成员有限责任的法律目的性却对此提出了异议。  相似文献   

16.
科学技术在为人类社会带来便利的同时也带来了许多科技风险.在风险社会中完善的科技法律责任对科技社会法律治理、科技法律体系化建设、传统法律责任体系突破、科技强国建设以及科学技术标准化发展都具有重要意义.通过对中国现有主要科技基本法律文本的分析,可以看出中国现行科技法律责任体现为三大传统法律责任的综合,且其中行政法律责任占据主导地位.风险社会,行政法律责任主导的科技法律责任制度并不足以有效应对科学技术活动过程中产生的科技风险,致使无法实现科技活动的有效法律治理.为此,建议转变传统的行政法规制的科技立法理念,引入私法自治理念,加强科研人员权利保障.与此同时,为全面促进科学技术活动中的科技法律责任制度建设,建议在科技研发、成果转化以及成果应用等各个阶段严格遵循技术标准化和专利许可的控制策略,以对风险社会中的科技法律责任进行补充和完善,从而实现科技法所具有的调整科技活动的根本价值目标.  相似文献   

17.
The legal system has been ambivalent about naked statistical evidence. Addressing this ambivalence, the article explores the epistemological status of naked statistical evidence and its normative and practical implications. It is suggested that since naked statistical evidence cannot generate knowledge, it cannot be the basis for assertions of facts; and assertions of facts are practically and legally important: they are essential in order to establish the court's responsibility for its decisions and its errors. Such responsibility is needed in order to maintain the legitimacy of the legal system; to avoid unfairness to defendants; and to ensure that legal decision‐makers have no valid claims against the decision‐making arrangement. As a result, the legal system is inclined to avoid statistical evidence altogether.  相似文献   

18.
论我国的法人人格否认制度   总被引:5,自引:0,他引:5  
法人人格否认的本质是通过否定特定法律关系中的法人特性,追究法人人格滥用人的法律责任,以维护法律的公平正义。法人人格否认的适用条件:一要有滥用法人人格的行为存在,二要造成实际的民事损害,三是法人人格滥用行为与实际民事损害之间存在因果关系。至于法人人格滥用行为人的主观心理状态可以在所不问。法人人格否认的民事责任应具体情况具体分析。我国现阶段尚未确立完整的法人人格否认制度,对于我国现行法律法规中有规定的,可以直接援用;对于我国现行法律法规没有规定而又需要否认法人人格的,可以直接援用诚实信用原则。  相似文献   

19.
论非法人团体的法律地位   总被引:22,自引:0,他引:22  
尹田 《现代法学》2003,25(5):12-16
团体人格(法人)是经济发展所导致的法律调控技术发展的结果,其目的不仅在于赋予需要并且适于作为交易主体的组织以交易主体(合同当事人)资格,同时更重要的是赋予作为社会经济生活之实体存在的团体以完全的法律人格,使其能够成为财产的所有人并独立承担财产上所生之一切义务。由此,团体人格可以分为"形式人格"和"实质人格"两个侧面。非法人团体能够以自己的名义"独立"对外订立合同,但其既不能独立享有财产权利、也不能独立承担财产责任,故其仅具有团体人格之形式而无团体人格之实质。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号