首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
《中国减灾》2023,(13):18-19
<正>物联网、云计算、大数据、人工智能等新技术快速发展,为“智慧应急”提供了强有力的技术保障。江西省是各类生产安全事故风险和自然灾害风险叠加较为严重的省份之一。面对严峻复杂的安全生产和自然灾害形势,江西省高度重视“智慧应急”建设,坚持规划引领,不断建立健全工作机制,强化支撑保障,汇聚各方力量;  相似文献   

2.
胡元聪 《湖湘论坛》2020,33(1):70-89
人工智能产品虽然具有其特殊性,但是人工智能产品责任之发展风险抗辩制度,仍然应该遵循普通产品责任之发展风险抗辩制度的基本原理。通过分析国内外产品发展风险抗辩制度,就我国而言,应该确立人工智能产品责任之发展风险抗辩的基本制度,主要包括技术标准制度、时间节点制度、主体资格制度和请求时效制度。同时建立相应的配套制度,主要包括跟踪观察制度、勤勉警示制度、产品召回制度等。尤其是还需要做好基本制度与配套制度的衔接,从而为我国人工智能产品责任之发展风险抗辩提供完善的制度保障,并推动我国人工智能产业的高质量发展。  相似文献   

3.
技术发展促进金融产业与人工智能深度融合,为金融产业创新发展提供契机。在人工智能时代,人工智能促进金融服务更加主动、智慧,提升了金融服务效率,提高了金融机构风险控制能力,为金融产业创新发展奠定了基础。在未来,我国应进一步科学规划人工智能发展战略,坚持以客户为本,并时刻警惕人工智能风险。  相似文献   

4.
ChatGPT类生成式人工智能改变了人工智能治理的底层逻辑,人工智能技术应用由个性化向普适化方向发展,风险的不确定性从外部延伸至内部,未来人工智能技术的迭代周期将越来越短,这使得传统治理范式适用于生成式人工智能治理时存在诸多局限。基于对象场景的分散治理难以统筹生成式人工智能治理全局,基于风险预防的事前治理难以精准预测风险并提前预防,基于法律规范的硬性治理难以提升治理实效。作为一种快速适应环境变化的动态治理范式,敏捷治理契合生成式人工智能治理需求,与我国一直推行的包容审慎监管具有理念上的一致性。基于敏捷治理的全面性、适应性与灵活性,我国生成式人工智能治理应秉持包容审慎的监管理念,依据模型产业架构,形成“基础模型-专业模型-服务应用”的全面性治理格局;划分已知与未知风险,构建事前预防与事后应对相结合的适应性治理机制;综合运用技术、法律等灵活性治理工具,实现生成式人工智能治理范式革新,促进科技向上向善发展。  相似文献   

5.
正从实验室到流水线,从科研精尖到大众生活,从技术突破到创业风口,人工智能悄然改变着我们的生活。人工智能成为国际竞争的新焦点、经济发展的新引擎,带来社会建设的新机遇,但同时人工智能发展的不确定性也带来新挑战。在这些新挑战中,最令普通人关注的,或许就是人工智能时代的"人机关系":高阶人工智能有没有失控风险?未来的机器会不会挑战人类社会的秩序,甚至获得自主塑造和控制未来的能力?其实人工智能到底是人类的朋友还是敌人,取决于人类自己。未来,应通过对人工智能相关法律、伦理和社会  相似文献   

6.
吴育珊  杜昕 《岭南学刊》2023,(5):105-112
由专用向通用迈进是生成式人工智能的发展现状,由赋能向赋智转变对应了生成式人工智能的应用场景。然而,生成式人工智能带来变革的同时,也存在安全风险,包括人机关系暗藏的伦理风险、人机交互面临的侵权风险、生成内容潜在的失控风险。防范化解风险的法律规制路径,应将辅助原则确立为规范人工智能研发和应用的基本原则、运用比例原则平衡人机交互的价值冲突、健全生成式人工智能的标准化安全评估体系。  相似文献   

7.
生成式人工智能作为人工智能技术的新主流形态,具有决策式人工智能所不具备的人格化表象突出、数据挖掘能力提升、算法黑箱凸显、数据垄断深化等鲜明特征。随着生成式人工智能的不断迭代,虚假误导与无意义信息致人损害、模型训练与知识重组忽视知识产权、恶意滥用与算法黑箱削弱监管体系等安全风险不断凸显。在治理路径上,需要由直接规制风险逐步转向“科技—社会—法律”三元综合治理,从建设内容模型训练管理体系、厘清程序运行的知识产权边界、强化算法黑箱与恶意滥用综合治理能力、深化“科技—社会—法律”三元综合治理模式等方面着力,在规制风险的同时促进生成式人工智能安全发展。  相似文献   

8.
人工智能实际是信息与知识生产力极大提高的产物,是信息与知识组织方式发生的巨大变革。人工智能新发展可能带来巨大的社会变化,包括大量重复性的脑力劳动被人工智能所取代,零售业、制造业、金融业等领域将被重新定义,人工智能发展的不确定性亦隐藏着巨大社会风险。作为人类解决社会问题的法律知识系统,可能出现本体论、认知论、发展论、方法论等方面的转变,可能出现向认知科学、脑科学、神经科学、生物学、信息学、计算机科学等自然科学乃至未来学等学科交叉与整合的转向,可能出现基于大数据库、大信息库、大知识库分析而进行充分信息条件下研判的方式转型。人工智能对现代法律制度体系的影响不容小觑,这种影响可能至少包括法律主体制度、客体制度、权利体系等,网信立法一方面要促进现在人工智能的健康有序发展,同时也要对人工智能发展的不确定性予以充分考量,特别是要防止人工智能滥用给人类带来的风险。  相似文献   

9.
顺应形势把握住人工智能和第四次工业革命带来的重大历史机遇,能够为转型期的中国经济社会发展提供新动能。人工智能时代机遇与挑战同在,应当加强人工智能技术发展研判和预测,增强风险意识,更好应对人工智能技术可能导致的失控风险、伦理挑战、就业影响,促进科技治理能力现代化。处理好"善治"与"善智"的关系,走向技术与社会的"良性互构"。  相似文献   

10.
随着人工智能的发展,人工智能非法应用引发的犯罪风险日益严重。人工智能非法应用引发的犯罪风险主要是涉网络犯罪风险。人工智能非法应用与网络犯罪、侵犯个人信息之间相互纠缠,这使得传统犯罪治理模式出现部分失灵的情况。面对这一困境,人工智能时代的犯罪治理模式转型是必由之路。因循犯罪治理精细化理念,当下的犯罪治理模式应从政府主导向社会参与转型,从事后回应式打击向犯罪预防预警预测转型,从经验描述向数据分析转型,从以简单评估为依据向以科学评估结果为依据的犯罪治理模式转型。为了应对人工智能非法应用的风险,需要通过完善个人信息保护制度来切断人工智能非法应用的数据支撑,通过明确平台监管责任来控制人工智能非法应用中的工具滥用,通过网络灰黑产业的综合治理来扫除人工智能非法应用的生存土壤,通过推广网络枫桥经验来完善社会力量参与治理人工智能非法应用的渠道,通过借力人工智能技术来应对人工智能的非法应用。  相似文献   

11.
人工智能技术的迅速发展推动了公共服务治理革新的同时,也出现诸多不容忽视的风险挑战。在应用范围上,人工智能于社会治安、交通基建、市场监管、反腐倡廉、应急管理、医疗保障、文化教育、能源管理等公共服务领域的应用,提高了公共服务决策能力、公共服务组织的管理效能、公共服务的质量与效率、公共服务组织与服务对象互动,以及强化了公共服务组织的内外部监督。但人工智能嵌入公共服务治理也面临着数据质量不足、技能人才短缺、统筹规划抵牾、数字鸿沟庞大、解释问责模糊、伦理冲突激化、安全隐私脆弱、就业收入分化等风险挑战。于公共服务治理场域中克服这些困境与问题,是发展具有创新性、可靠性、安全性的人工智能嵌入模式的必由之路。在收益与风险间寻求平衡,可以有效促进以证据为主导和以数据为支撑的公共服务治理路径的创新。  相似文献   

12.
王琦 《公安研究》2023,(9):19-24
生成式人工智能技术的快速发展,使其应用场景日趋广泛,也带来了内容创作突破、产业升级等生产力的变革。然而,随着相关技术的开放式发展,在带来时代发展机遇的同时,与之伴随的风险也逐渐凸显。本文主要分析了,在生成式人工智能技术日益成熟、不断升级迭代的背景下,其现状与发展趋势以及其可能产生的法律、犯罪风险,并提出了相应的防范对策。  相似文献   

13.
我国刑事司法人工智能建设已初具规模,能够确保刑事诉讼定性更为准确、查证更具针对性、程序更为高效、办案质量标准化,但随着技术的发展,也会产生削弱司法自主权、将被控告人降为诉讼客体、使证据审查出现不当倾向以及导致隐性歧视等负面风险,累积着发生刑事错案的潜在风险,与避免刑事错案的设计初衷形成"刑事错案悖论"。从悖论成因看,人工智能建设存在对人工智能地位定位不准、源头数据存在瑕疵、算法模型封闭难懂、保障机制建设缓慢、交叉领域人才紧缺等问题。要消解该悖论,应尝试从人工智能定位、数据、算法、学习技术、保障机制等角度建构刑事错案风险防范机制。  相似文献   

14.
人类一边担心人工智能的风险,一边快速推动智能革命的发生。人工智能内容生产是融合人类和“类人”智能的新生产模式。人工智能内容生产技术内含不可化约的功能张力。一方面,ChatGPT等智能生产平台兼具对话功能和内容生产功能,拥有提升数字生产力、增强决策能力,加速社会组织化、扩大社会动员能力等社会功能;另一方面,人工智能内容生产者可能导致多领域劳动者价格为零,还会带来对话风险、信用风险、政治风险和“存在”风险,这些是其“反社会”功能。人工智能内容生产是人类和“类人”的合作生产,随着新内容生产主体的涌现,人工智能文明的出现便有了新迹象。科学、有效监管人工智能内容生产是高难度、复杂性行动,政府、平台、用户和社会等多元主体要坚持包容审慎的监管原则,协同监管,从而最大限度地促进社会发展、社会公正、社会透明和社会责任落实。正确的人工智能功能观、发展观,决定了人工智能内容生产能走多远。  相似文献   

15.
陈英达  王伟 《电子政务》2024,(4):113-124
当前,生成式人工智能的治理沿用了人工智能1.0时代的分领域差异化监管模式,陷入碎片化、条块化、部门化的困境,无法应对层出不穷的AI技术和应用场景,相关治理规则缺乏稳定性和连续性。通过探究生成式人工智能的技术机理,明确该技术在释放技术红利的同时极易造成虚假信息泛滥、网络安全失控、生成内容侵权等风险。对此,生成式人工智能的治理应进行系统性改革,遵循“急用先行、逐步完善”两步走的思路。一是规范事项急用先行,根据产业链上主体的生态位区别设置风险防范义务与法律责任,并容许各方在满足最低限度的合规要求后,自主约定责任分配,及时回应技术发展应用过程中的突出问题;二是引入“技术之治”,并在规制时机、问责主体、归责标准等诸多争论趋于共识后逐步完善“制度之治”,更好地驾驭生成式人工智能的变革性收益与复杂性风险。  相似文献   

16.
基于行动者网络理论视角,生成式人工智能的社会伦理风险可以认为是在技术应用过程中由人类行动者和非人类行动者开展行动者转译和网络建构所造成的。从行动者转译与网络建构来看,生成式人工智能可能带来的主要社会伦理风险包括:智能互联下的行动者之“恶”传播风险加剧、行动者社会分工体系的结构性危机加剧、行动者转译的技术异化问题更为严峻、“行动者网络”下的数字安全风险增大、行动者“五际”关系维度的数字平权问题凸显。基于此,从合理界定行动者主体的权责关系、加强行动者转译的全过程算法治理、构建人机“共善”的行动者治理共同体等方面推进生成式人工智能的社会伦理风险治理,确保科技向善健康发展。  相似文献   

17.
纷繁复杂的人工智能应用风险在带来监管挑战的同时,也让追求敏捷成为当前人工智能治理的共识性理念。但如何在具体路径、机制、工具上实现真正的敏捷监管尚缺乏系统的学理分析与实践指引。遵循科层体系运作逻辑的监管部门在克服制度张力和应对不确定性方面存在天然不足,实践改革因此普遍将“分类”视为一种适应复杂性与提升敏捷性的潜在思路。通过对人工智能多领域业态发展模式与技术创新规律的比较分析,以及综合人工智能各领域现有国际治理经验,本文构建了人工智能治理风险的关键分类维度及与之相适应的全谱系政策工具箱。研究试图为监管实践者提供一个合意的分类思路与政策工具组合指引,使监管实践可从产业特征标定分类治理对象,并在对应的政策工具箱中寻找政策组合。  相似文献   

18.
随着人工智能技术的不断发展,其在造福社会的同时也加剧了社会风险,人类必须面对新的伦理规范和法律难题。对于人工智能的法律主体资格问题,必须做好相关的法律研究和探讨。承认并确立人工智能民事法律主体资格具有其必然性。承认并确立人工智能的刑事法律主体资格仍存在巨大争议。立法机关需要针对人工智能的法律主体资格、权利义务、法律责任等方面的内容进行深入研究。  相似文献   

19.
人工智能作为一种工具来延展智能并提升我们认识世界和改造世界的能力,助力国家产业转型升级,产生一种全新的人工智能经济形态;未来人工智能还将深刻地改变我们的生活。所以说,人工智能的进步与发展不仅仅是科技的创新,最终更会带来人类社会发展的变革。  相似文献   

20.
人工智能诞生于20世纪50年代,其迅猛的发展,不仅促使人类生活的各个方面都发生了翻天覆地的变化,同时也影响了人类文明的发展进程。虽然人们对人工智能问题的研究已初具规模,但随着时代的发展,人工智能与人类之间产生了新的变化和联系,也产生了新的问题。因此,在新形势下,如何正确理解和处理人类智能与人工智之间的关系,如何将哲学与人工智能相结合,无论对于社会的发展和科学的研究还是人类文明自身的进步,都有着实际的价值和深远的意义。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号