首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
《现代法学》2019,(2):54-63
中国、美国和欧盟在人工智能的法律规制上初步呈现出自身的特点。面对人工智能技术的发展,中国通过分散式的立法对它在电子商务、新闻内容推荐以及智能投顾等领域的应用进行了回应,算法公开透明是贯穿于这些层级各异的立法的共同要求。美国则是通过司法判例对算法的法律性质进行了明确,在搜索引擎算法的案例中,它被看成言论,刑事辅助审判系统中的算法则被认定为是商业秘密。与中国、美国的个别化进路形成鲜明对比的是,欧盟通过对个人数据权利的严格保护,形成了对人工智能的源头规制模式。在数字经济成为经济发展的新动力的背景下,这三种模式体现了在数据权利保护和人工智能产业发展平衡问题上的不同侧重。  相似文献   

2.
《北方法学》2019,(4):56-66
法律人格的取得包含法律对对象的价值判断。现代法上自然人法律人格的赋予可追溯至康德的人是目的的价值判断理论,而团体法律人格的取得不在于其具有哲学意义上的价值,而在于其社会价值。当前的人工智能未发展出理性,不可取得类似于自然人的法律主体资格,为其拟制一个法律人格对社会问题的解决并无重大意义,赋予其法律人格理由不足。但是人工智能不同于一般的物,鉴于其智能上的类人属性,应将其界定为法律客体中的特殊物。在法律规制上应以人的行为为中心,确定以人为本的最高技术发展原则,以产品责任和相关具体侵权责任为责任认定的基础,辅之以责任认定的科技手段和责任分担的保险制度和赔偿基金制度,以满足人工智能科技发展和法律规制的需求。  相似文献   

3.
算法认知偏差不仅扭曲事实,还影响人工智能法律规制质效。法学文献中的“算法”常用于指代影响权益的人工智能系统。不同于传统编程,机器学习算法是通过向数据学习以形成模型。数据、算力、AI框架、模型框架、人为干预等因素深刻影响算法作用的发挥。算法并不是对利益得失的精巧算计。大部分算法也不具有排他性的财产属性。算法是人工智能体系中相对透明和确定的因素。“算法黑箱”并非人为“黑幕”,而是因基本原理所限导致的验证性和解释性的不足。滥用算法概念会导致人工智能法律规制的失焦、失据、失鹄、失度。数据法与专门立法相结合是人工智能规制的恰当立法形态。过度强调算法不仅造成权利、产业和科技目标难以调和,还可能导致过度监管。算法只有在以人的责任为基础的人工智能系统中才能得到稳妥规制。我国未来应该制定人工智能专门立法。业已开展的算法治理不宜过度冒进,宜审慎处理好当前与未来、名义与实质、规范与发展的关系。在准确的算法认知指导下,算法备案和公示的问题能够得到良好解释和妥善解决。  相似文献   

4.
生成式人工智能技术作为一种“破坏性创新”,在推动技术变革的同时,也因其独特的技术逻辑带来了诸多治理风险。如生成式人工智能巨量化数据的训练模式存在数据侵权风险,基于人类反馈的强化学习模式则可能加剧虚假信息的生成和传播,其技术壁垒又会强化互联网巨头的垄断地位,进而带来一系列风险。而我国现行法律对生成式人工智能的规制虽然形成了初步框架,但仍在宏观和微观方面存在困境,以欧盟和美国的监管措施为镜鉴,我国应当秉持包容审慎的理念,协同多元主体对生成式人工智能进行共商共管,通过“共建”“共治”实现成果“共享”。  相似文献   

5.
6.
7.
程乐 《政法论丛》2023,(4):69-80
以ChatGPT为代表的生成式人工智能技术落地与大规模应用,改变了人类与人工智能的传统交互模式,对社会生产方式产生了重大变革。国际国内都出现了对人工智能主体地位及法律规制等方面的学术探讨,以应对生成式人工智能引发的伦理道德、知识产权保护、隐私与数据保护、市场垄断、网络犯罪和数据安全等一系列风险。在现阶段,我国生成式人工智能治理,应坚持安全与发展相平衡的理念,在以人为本的原则统领下设计人工智能伦理准则,推动构建以通用人工智能立法为基础,以生成式人工智能专门性管理办法为补充,以既有法律规范为根本的系统性人工智能法律规范体系。  相似文献   

8.
9.
生成式人工智能通过“准备-运算-生成”的运行模式为人们提供了创造性和高效的内容生成工具,深刻改变了创作、沟通和信息传播方式。但其在给人们带来便利的同时也带来了一系列的法律风险,如在准备阶段出现了数据安全和算法偏见风险等问题,在运算阶段存在隐私泄露和网络侵权、欺诈风险等问题,在生成阶段引发了版权及版权归属不明和商业秘密泄露及其导致的不正当竞争等问题。对于以上法律风险问题,需要以安全负责和科技向善为着眼点,选择相对应的法律规制路径,这有助于平衡技术创新与社会稳定之间的关系,保障公众权益。  相似文献   

10.
金梦 《政法论坛》2021,(1):29-40
人类设计算法、运用算法的最终目的是为了增强自身解决问题的能力,进一步提升生活水平并优化社会结构.算法黑箱存在的前提预设是人类对因果关系的认知断裂,算法黑箱针对自动化决策过程中特定的算法用户.在一系列的数据代码背后是算法主体的行为目标和价值选择,不同价值选择加上算法的涌现性和自主性的复杂特质导致相关法律关系主体的权利冲突...  相似文献   

11.
法律与算法在技术性表征上具有类似性,即产生机制的类似性、功能效用的类似性、表达方式的类似性,这些类似性为法律借鉴算法创造了可能性。法律与算法在价值性内核上具有异质性,即运行逻辑的异质性、有效性来源的异质性、认知方式的异质性,这些异质性提示了法律与算法之间的距离。关于类似性与异质性的分析为法律的算法化限度提供了一个总原则,即法律在技术性的层面可以借鉴算法的模式与成果,但在价值性内核上应与算法保持距离。这个总原则可以分解为三个限度,即科学主义限度、建构主义限度、工具主义限度。科学主义限度要求法律在借鉴科学技术的同时,警惕科学求真逻辑对法律正义命题的侵蚀;建构主义限度强调法律借鉴算法建构思维的同时,防止纯粹建构理性对法治的误导;工具主义限度则提示将法律视为达致特定目标工具的同时,要时刻关注法律的价值属性,尤其重视法律人及其反思在控制算法思维泛滥中的重要作用。  相似文献   

12.
随着人工智能技术在司法领域的应用,相关研究的热度持续高涨,但仍需要探讨的是人工智能在司法实践中运用的实际情况:包括何种人工智能发挥了作用、作用何在以及为何会在有些方面产生效果而其它方面又效果不彰。总体而言,人工智能在中国司法实践中取得了一定的成效,主要体现在警务活动与司法辅助性活动中,但仍难称理想。小范围的成功是源于成熟通用人工智能技术的普适性适用,而大部分司法人工智能产品难以发挥作用是由于未结合专门司法需求展开,所投入的资金与人才资源远远不足。未来应当降低对于司法人工智能的盲目期待,将研发重心从通用领域转向司法专用领域,转变司法人工智能的投入模式,大力培养既懂法律又懂技术的专门化、复合型人才。  相似文献   

13.
Increasingly, algorithms challenge legal regulations, and also challenge the right to explanation, personal privacy and freedom, and individual equal protection. As decision-making mechanisms for human-machine interaction, algorithms are not value-neutral and should be legally regulated. Algorithm disclosure, personal data empowerment, and anti-algorithmic discrimination are traditional regulatory methods relating to algorithms, but mechanically using these methods presents difficulties in feasibility and desirability. Algorithm disclosure faces difficulties such as technical infeasibility, meaningless disclosure, user gaming and intellectual property right infringement. And personal data empowerment faces difficulties such as personal difficulty in exercising data rights and excessive personal data empowerment, making it difficult for big data and algorithms to operate effectively. Anti-algorithmic discrimination faces difficulties such as non-machine algorithmic discrimination, impossible status neutrality, and difficult realization of social equality. Taking scenarios of algorithms lightly is the root cause of the traditional algorithm regulation path dilemma. Algorithms may differ in attributes due to specific algorithmic subjects, objects and domains involved. Therefore, algorithm regulation should be developed and employed based on a case-by-case approach to the development of accountable algorithms. Following these development principles, specific rules can be enacted to regulate algorithm disclosure, data empowerment, and anti-algorithmic discrimination.  相似文献   

14.
算法自动化决策为人们带来方便的同时,也可能因其决策过程的不透明和信息不对称而对某些群体造成歧视。实践中,算法歧视主要表现为偏见代理的算法歧视、特征选择的算法歧视和大数据杀熟三种基本形态。为了消除算法歧视给社会带来的影响,各国政府采取了一系列的规制措施。从规制的空间维度来看,这些措施包括原则性规制和特定性规制方式;从规制的时间维度来看,包括事后性规制和预防性规制;从规制的主体角度来看,包括自律性规制和他律性规制方式。在司法审查层面,不同待遇审查和差异性影响审查是两种基本模式。强调平衡“数字鸿沟”,抑制算法权力,并在此基础上,确保国家权力的运用能够促进科学技术的发展与进步,是大数据时代算法歧视的法律规制与司法审查的基本共识。  相似文献   

15.
The superposition of artificial intelligence (AI) and non-state power has aggravated changes in state functions, and has downgraded centralism of political state. The “Intelligent Leviathan” will persist in objectifying the “individual.” The relationship mode of “human-human” being transformed into the mode of “humantechnology-human, ” is giving rise to a new social structure, while state power together with non-state power, law and the algorithm, as well as ethics and technologies, are creating a new order. The major threat to freedoms and rights is horizontal non-state power, instead of vertical state power. Going through profound changes, legal scenarios need reconstruction of “kindness” dimension for balancing the “rights priority” theory, while the “obligations standard” should be recovered in the sense of legal technology to rectify the “rights standard” and to resolve the “rights disability.”  相似文献   

16.
朱艺浩 《法学杂志》2020,(3):132-140
人工智能技术的进步使得法学界兴起"人工智能法律人格论"。然而,意志只能来源于自然人而非机器,人工智能也无法独立主张权利和承担义务,因此人工智能无法享有法律人格。赋予人工智能法律人格可能会严重冲击现有法律制度,使得其沦为自然人逃避法律制裁的工具,甚至加剧奴役和压迫。面对人工智能技术,需要坚持人类唯一主体地位,在现有法律框架内处理责任承担问题,不得随意拟制法律人格,根据其技术含量采取前期引导、中期约束、后期干预的立法逻辑,理性应对人工智能技术带来的挑战。  相似文献   

17.
毛高杰 《河北法学》2020,38(5):92-103
我国的人工智能司法发展具有明显的突变特色,缺乏足够的制度和理论调适,广泛应用会带来司法逻辑的内在冲突。司法的社会技术特性和人工智能的自然技术特性之间具有天然的亲和性,为我国人工智能司法广泛应用提供了工具理性基础。但人工智能介入司法会带来原有社会黏合基础改变,无法完全应对司法过程的随机性和偶然性因素,并且会因为技术竞争带来新的不正义。需要扩展法律正义的蕴含,将法律正义的纯粹道德内核扩展为功利-道德内核,将司法从社会技术转换为技术-社会技术;在司法结构上设置技术-社会的双重竞争性机制,以维护基本的演化平衡;通过技术-社会互动的重构实现人工智能介入后的融合正义司法模式。  相似文献   

18.
正义历来是法律所追求的价值目标之一,但其从来都不是空洞和抽象的,需要用具体的方法和标准对其进行诠释和分析。在金融全球化趋势日益加深的今天,从法经济学的视角,对金融监管法的正义性价值目标进行分析和诠释,对于进一步完善我国金融监管法体系,维护我国金融安全与稳定意义深远。运用法经济学的分析方法,从立法、执法和司法三个方面对我国现行的金融监管法进行分析,以促进我国金融监管法正义价值目标的最终实现。  相似文献   

19.
王怀勇 《政法论丛》2021,(1):105-116
随着算法在金融领域应用的深入,算法固有的缺陷和特性也逐渐与金融本身的风险和逻辑发生耦合,形成了算法歧视、算法绑架、算法趋同等新型金融风险.然而,现有的金融科技算法规制框架存在主体、对象和工具层面的诸多问题,导致金融科技算法风险规制的低效和失灵,因而需要进行规制路径的优化和调适.从主体层面出发,应构建以金稳会为基础的规制...  相似文献   

20.
刘鹤挺 《河北法学》2020,38(6):121-127
人工智能作品在符合著作权保护必备的独创性要素的条件下,通过将其作者确定为人工智能设计者而不是人工智能本身,可以有效解决其在侵犯著作权罪名下的刑法保护问题。然而,由于现有《刑法》及相关法律对人工智能作品并没有进行任何具体规定,直接适用当前《刑法》第217条侵犯著作权罪的条款,必然对相关司法实践和公众舆论产生相应的负面影响。因此,需要从在《刑法》及相关法律上规定人工智能设计者的作者地位、增设人工智能作品类型,以及确立以独创性标准作为确定具体内容能否成为刑法保护的对象等层面,保证人工智能作品在侵犯著作权罪名的语境下获得刑法的有效保护。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号