首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 328 毫秒
1.
人工智能(AI)作为类人类智能,无论我们是否赋予其主体资格,在解决其法律责任问题时,都必须对其行为进行解释,为此,探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性的全新路径来推进,而不是纠缠于当下学界关于人工智能主体地位与法律责任的各种主体论与责任理论。人工智能的可解释性,亦即解释人工智能如何在大数据的基础上进行算法决策。然而,在AI领域,虽然以深度学习为代表的人工智能技术已取得了令人瞩目的成就,但如何确保以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据,仍是一个无法得到解决的难题,人工智能"黑箱"释明难题决定了人工智能行为的不可解释性。法律责任的本质是答责,不具有可解释性的人工智能不能自我答责,因此其无法承担法律责任;法律责任的目的是预防,不具有可解释性的人工智能无法实现法律责任的预防目的。人工智能法学研究的下一个前沿问题,是人工智能的可解释性问题。  相似文献   

2.
产品召回制度相对于产品己经存在缺陷而言,是通过修理、更换甚至销毁产品而实现的施;相对于因缺陷而导致普遍性损害尚未发生而言,是针对未来损害的一种预防措施。因此,其法律责任的功能既具补救性,更具预防性。正因如此,产品召回制度相应的导致了法律责任一些新的发展趋势。第一,责任构成要件:从现实损害到未来损害。当传统的"法律义务——惩罚性或补救性法律责任"的法律治理模式己无力应对现代风险社会的挑战时,就生  相似文献   

3.
责任,至少可分为"义务"和"课责"两种类型,体现为"显见责任"和"隐含责任"两种存在形态。在食品安全社会共治的诸主体中,食品生产经营者和政府监管者承担的法律责任都是显见责任,涵盖了多种法律义务和法律课责。而社会其他主体在承担少量显见责任的同时,还承担着一些隐含责任。这些法律责任共同构成了以政府监管为中心、主体责任和监管责任为重点、其他制度性责任相协同的食品安全责任共治结构。  相似文献   

4.
一、新闻行政案件中证人、第三人问题笔者认为,新闻行政案件主要包括三大类:第一类是新闻治安行政案件.它是指因新闻媒介的传播行为被控告侵犯了公民、法人或其他组织的人身权特别是名誉权而构成的案件,受案主体是公安机关;第二类是新闻治安案件转化为一般行政诉讼案件.受案的主体由行政执法机关即公安机关转入审判机关即人民法院;第三类是新闻行政复议案件或新闻行政诉讼案件.它是新闻主管机关或管理机关的具体的行政行为被控侵犯了法定新闻工作者权利而构成的案件,受案主体分别是行政复议机关或人民法院.需要说明的是,上述三类案件中的责任者都要承担广义上的行政法律责任,只有第三类案件的责任者才承担狭义上的行政法律后果,即新闻行政法律责任,也应该包括证人和第三人负有的责任.  相似文献   

5.
虚拟主体是现实法律主体将其行为拓展到网络虚拟空间而创建的数字化身份代表。虚拟主体并非法律主体,立法也无需赋予其法律主体资格,其行动后果或法律责任应归属于其所代表的现实法律主体。电子签名和认证等方法可用以确定虚拟主体的真实身份,但各有其局限。虚拟主体实践促使法律责任的承担在一定程度上由物理空间转向了虚拟空间,恢复原状和赔偿损失等法律责任的内容也被赋予了新的内涵。  相似文献   

6.
朱艺浩 《法学杂志》2020,(3):132-140
人工智能技术的进步使得法学界兴起"人工智能法律人格论"。然而,意志只能来源于自然人而非机器,人工智能也无法独立主张权利和承担义务,因此人工智能无法享有法律人格。赋予人工智能法律人格可能会严重冲击现有法律制度,使得其沦为自然人逃避法律制裁的工具,甚至加剧奴役和压迫。面对人工智能技术,需要坚持人类唯一主体地位,在现有法律框架内处理责任承担问题,不得随意拟制法律人格,根据其技术含量采取前期引导、中期约束、后期干预的立法逻辑,理性应对人工智能技术带来的挑战。  相似文献   

7.
以ChatGPT为代表的新一代生成式人工智能的产生具有革命性和划时代意义。生成式人工智能的存在和发展必然极大程度引发社会生产力的新一轮爆发,进而决定生产关系发生重大改变。时下ChatGPT等生成式人工智能仍然属于弱人工智能范围,但该技术的发展对传统刑法理论已经并将继续造成重大影响。ChatGPT等生成式人工智能可能改变传统犯罪的行为类型、影响刑事责任的分配与转移并且改变现有的刑事责任主体范围。不能因为ChatGPT等生成式人工智能不是人,而就一定不能成为刑事责任主体;不能因为ChatGPT等生成式人工智能没有生命,而就一定不具有刑事责任能力;不能因为ChatGPT等生成式人工智能没有人脑,而就一定不会具有独立意识意志(即辨认、控制能力);不能因为ChatGPT等生成式人工智无法具体适用现行刑法中的刑罚,而就一定不能成为刑事责任主体。ChatGPT等生成式人工智能与人类一样可能是同时受自然法则(他律的、自然律的因果性)和道德法则(自律的、由自由而来的因果性)支配的物种,从而推定其可能拥有自由意志,进而满足承担刑事责任或者成为刑事责任主体的最本质条件。  相似文献   

8.
厘清教育法律责任的基本范畴,是推进我国教育法治建设、落实依法治教的基础性前提.既有的从一般法律责任出发,认定教育法律责任系教育法所规定的法律责任的观点在理论和逻辑上存在固有局限,无法完整地展示教育法律责任的本质属性.事实上,界定教育法律责任的基本范畴,应将教育责任作为逻辑起点.教育法律责任是一种"类型责任",它源于教育责任,是构成教育责任整体的具体类型.同时,教育法律责任也是一种"领域责任",它平行于其他社会领域中的法律责任,是嵌合在教育领域的法律责任.教育法律责任的承担主体和追究主体具有多元性,教育法律责任并非独立的法律责任形式,但具有综合性的责任承担方式.基于教育法律责任之于我国教育现代化的重要意义和特殊作用,必须认真对待教育法律责任,不断深化教育法律责任的学理研究,持续完善教育法律责任的立法设计.  相似文献   

9.
《现代法学》2019,(5):75-88
人工智能的自主性、交互性和深度学习能力,决定了其既不是物,也不是人,而是介于人与物之间的客观存在,其本质不在于工具性,而在于财产性。对于人工智能致害、获益及其生成物归属难题,将责任、收益以及权利完全归于任一单方主体的方式并不合理,通过保险将风险全部社会化亦有失公平。考虑到人工智能具有财产方面的意思能力和责任能力,但不具有人身性人格,其自主行为背后体现的也是多方主体的意志,以财产性人格的进路将其拟制为电子法人,既是可行的,也是必要的,未来的民法典应该对此有所回应。人工智能在特定领域可自为意思表示、自负行为后果,因其"擅自"行为背后是多方主体混合意志的体现,须按相应比例在多方主体之间分摊权责,从而实现法人之责任有限与权责分摊的目的,且不危及人类自身安全和主体支配地位。  相似文献   

10.
一、违法行为之主体:管某还是宏达粮行法律责任是由特定法律事实所引起的对损害予以补偿、法律责任强制履行或接受惩罚的特殊义务,亦即由于违反第一性义务而引起的第二性义务。法律责任主体,是指违法主体或者承担法律责任的主体,即应当承担刑事、行政、民事法律责任的自然人或法人。一般来说,责任主体往往是违法行为主体,但责任主体不完  相似文献   

11.
Free will is the foundation of determination of responsibility. Genetic enginnering represented by technologies of gene editing, artificial medical devices and AI have fundamentally challenged the concept of free will and so have significantly influenced determination of legal responsibility. These challenges are fundamental, not instrumental, and can be divided into two aspects in legal philosophy. First, the direct challenge, that is, the emerging technology represented by genetic engineering and artificial narrow intelligence (ANI) has challenged the concept of free will. Second the would-be ultimate challenge, that is, presented by an artificial general intelligence (AGI) agent that is considered to reach humanlevel free will, can be a legal subject, thus taking full legal responsibility. The direct challenge constitutes a new “forgiveness” condition for taking responsibility. The would-be ultimate challenge deserves significant attention, because the concept of free will is not only about human responsibility, but also about human dignity.  相似文献   

12.
人工智能在专利发明创造领域参与程度逐渐深化,对现行的专利法带来诸多挑战。一是人工智能算法的可专利主题。因人工智能算法看似与传统的数学算法一致而被视为“智力活动的规则和方法”,尽管存有争议,但从专利法促进新技术发展和“与时俱进”的时代使命出发给予其专利保护是较为务实的做法。二是人工智能时代的专利审查标准。针对传统专利性判断标准已在人工智能时代失灵,适当调整“专利三性”,确立适合于人工智能专利的“新三性”标准。三是人工智能生成发明权利主体的界定。在人为因素仍作用的弱人工智能时代,可以基于专利法中“二元主体结构”,承认人工智能作为发明人的资格,同时将专利权赋予人工智能开发者或管理者。四是人工智能专利侵权认定。在人工智能专利侵权责任承担主体上采取动态区分规则:区分人工智能不同的发展阶段;区分不同阶段人类介入因素的作用;区分不同阶段不同主体对侵权结果的作用等。  相似文献   

13.
In the age of artificial intelligence (AI), robots have profoundly impacted our life and work, and have challenged our civil legal system. In the course of AI development, robots need to be designed to protect our personal privacy, data privacy, intellectual property rights, and tort liability identification and determination. In addition, China needs an updated Civil Code in line with the growth of AI. All measures should aim to address AI challenges and also to provide the needed institutional space for the development of AI and other emerging technologies.  相似文献   

14.
智能汽车的核心特质是技术自主性,其飞速发展和快速应用给现有法律责任体系带来了严峻的挑战。智能汽车作为初级的弱人工智能产物,不宜赋予其法律人格,类比特殊侵权亦不足取。应迈向保有人责任即产品责任的二元责任体系:将机动车一方解释为“保有”人,构建智能汽车保有人责任体系。同时对产品责任进行相应的调整,由制造商和设计者共同担责,确立“熟练驾驶人”标准,适用因果关系推定,限缩发展风险抗辩的适用。  相似文献   

15.
The year 2017 has seen many EU and UK legislative initiatives and proposals to consider and address the impact of artificial intelligence on society, covering questions of liability, legal personality and other ethical and legal issues, including in the context of data processing. In March 2017, the Information Commissioner's Office (UK) updated its big data guidance to address the development of artificial intelligence and machine learning, and to provide (GDPR), which will apply from 25 May 2018.This paper situates the ICO's guidance in the context of wider legal and ethical considerations and provides a critique of the position adopted by the ICO. On the ICO's analysis, the key challenge for artificial intelligence processing personal data is in establishing that such processing is fair. This shift reflects the potential for artificial intelligence to have negative social consequences (whether intended or unintended) that are not otherwise addressed by the GDPR. The question of ‘fairness’ is an important one, to address the imbalance between big data organisations and individual data subjects, with a number of ethical and social impacts that need to be evaluated.  相似文献   

16.
In this contribution we will explore some of the implications of the vision of Ambient Intelligence (AmI) for law and legal philosophy. AmI creates an environment that monitors and anticipates human behaviour with the aim of customised adaptation of the environment to a person’s inferred preferences. Such an environment depends on distributed human and non-human intelligence that raises a host of unsettling questions around causality, subjectivity, agency and (criminal) liability. After discussing the vision of AmI we will present relevant research in the field of philosophy of technology, inspired by the post-phenomenological position taken by Don Ihde and the constructivist realism of Bruno Latour. We will posit the need to conceptualise technological normativity in comparison with legal normativity, claiming that this is necessary to develop democratic accountability for the implications of emerging technologies like AmI. Lastly we will investigate to what extent technological devices and infrastructures can and should be used to achieve compliance with the criminal law, and we will discuss some of the implications of non-human distributed intelligence for criminal liability.
Mireille HildebrandtEmail:
  相似文献   

17.
论人工智能法律主体的法哲学基础   总被引:3,自引:0,他引:3  
骁克 《政治与法律》2021,(4):109-121
当下人工智能主体学说面临诸多问题,需从法哲学视角予以审视。就人工智能本体而言,其行为具有自主性,不宜纯粹以客体相待;从他者期望视角观察,人工智能拥有道德责任能力,系道德主体。法律主体理论经历了由自然人有限人格到全面人格,再到自然人、法人综合人格的演化过程,呈现客观化趋势,不唯理性、意志等主观要素论,其为人工智能法律主体提供了栖居空间。在目的论意义上,人工智能能够推动积极向善,助力美好生活,实现显著的经济社会价值,作为法律主体具有合目的性。在当代,传统主体哲学转向,人的哲学危机引发新思考,尤其是人类中心主义的主体-客体范式发生变化,客体主体化的历史经验及当代实践显现一种哲学可能性,即主体不限于人,从而强化了人工智能法律主体的可能性。  相似文献   

18.
从逻辑学的角度看,法律推理具有非单调性。人工智能时代更清晰地凸显出了与这一特性相应的可废止推理模式的必要性。可废止推理虽未必一定用可废止逻辑来刻画,但这一做法在人工智能的环境下更加合乎目的。法律推理的可废止性源于法律规则的可废止性,法律规则的逻辑形式化要求将其构成要件表征为"有待证明的要素"(P要素)与"未被驳倒的要素"(NR要素)两部分,后者的引入恰当地处理了规则与例外的关系。在此基础上,可以通过引入三类"废止者",即反驳型废止者、截断型废止者和削弱型废止者,来建构可废止法律推理的基本模型。但这同时也显现出了可废止法律推理的智能化限度,核心在于它无法进行司法裁判中必不可少的价值判断。  相似文献   

19.
Wiki “communities” based on the open access ideology allow any visitor to easily add, remove or edit content. However, there are a slew of ethics and policy challenges inherent in their use. Open source software developers are faced with the dilemma of openly sharing their intellectual property and prevent others from claiming proprietary rights from the code they freely shared to the public? Intellectual Property rights licensing, ironically, is the route by which open software developers have chosen to regulate their free code in cyberspace. Open source code is generally free on the surface; but in reality, it comes with obligations which are enforceable by law. Aside from the potential liability for intellectual property infringement, the use of open software raises competition law and tort liability issues. The European Union has developed the European Public License which is written in conformity with the copyright, product liability and consumer protection laws of the 27 member states. The EU Commission has also proposed a new Directive which will extend the principles of consumer protection rules to cover licensing agreements of products like software. This paper will address the various legal issues that may arise in open source community sharing.  相似文献   

20.
人工智能作为当前最为尖端的科技成果,对于专利法的挑战是全方面的,既包括人工智能技术本体的专利法律保护、人工智能发明成果的专利法律规制,还涉及人工智能应用工具的专利法律影响问题。造成上述难题的原因包括人工智能的复合性技术结构、人工智能法律客体的本质属性以及人工智能的超强运算能力等人工智能基本特质。为此,应通过优化人工智能技术本身的专利保护模式、开展人工智能自主发明的专利法律规制、创设人工智能应用工具的专利实践指引等措施,实现对人工智能时代专利法律问题的有效应对。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号