首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
人工智能所引发的一般性伦理与社会问题包括:失业问题、隐私问题、算法偏见、安全问题、机器权利和道德代码等。为了应对人工智能带来的伦理与社会挑战,世界各国和相关国际组织都开始致力于推动人工智能伦理与社会问题的研究,积极建立规范与指南,推动社会各界就人工智能的伦理与社会监管达成共识。  相似文献   

2.
政务服务中应用人工智能技术,可有效提升政务服务的质量和效率,但也带来了数据整合、人才短缺、安全、社会伦理等问题。因此,要从解决数据整合问题、加强相关人才培养、加强隐私保护和研发力度以及完善伦理约束和立法保护等方面入手,为政务智能化服务"铺路搭桥",优化政务服务水平。  相似文献   

3.
人工智能技术既有远大发展前途和广泛应用前景,但也远未成熟,尚难以准确评估其可能导致的伦理道德后果。为加快构建我国人工智能伦理规范,应精准识别当前人工智能发展面临的伦理困境,确立人类主体性、可持续发展、伦理嵌入性和发展平衡性的基本构建原则。应通过建立人工智能发展伦理委员会、识别伦理问题并确立伦理准则、制定伦理规范的实施方案、推动嵌入伦理规范的行业发展和产品研发以及实施人工智能产品与服务的市场投放与反馈,以推进我国人工智能伦理规范的建构进程。  相似文献   

4.
人工智能技术在公安机关参与社会治理中的应用,可以缓解警力不足,优化执法行政流程,提升治理精细化和公安决策质量,促进警民关系和谐发展.但人工智能固有的技术缺陷会给公安机关带来治理风险和行政伦理等问题.因此,公安机关应优化公安组织体制和警务机制,加强人工智能技术管控和数据安全监控,创新警企合作机制,探索警察行政伦理和规范体系,以促进人工智能与公安机关参与社会治理深度融合.  相似文献   

5.
正从实验室到流水线,从科研精尖到大众生活,从技术突破到创业风口,人工智能悄然改变着我们的生活。人工智能成为国际竞争的新焦点、经济发展的新引擎,带来社会建设的新机遇,但同时人工智能发展的不确定性也带来新挑战。在这些新挑战中,最令普通人关注的,或许就是人工智能时代的"人机关系":高阶人工智能有没有失控风险?未来的机器会不会挑战人类社会的秩序,甚至获得自主塑造和控制未来的能力?其实人工智能到底是人类的朋友还是敌人,取决于人类自己。未来,应通过对人工智能相关法律、伦理和社会  相似文献   

6.
人工智能技术的迅猛发展给网络安全领域带来了发展机遇和严峻挑战,在丰富网络社会治理路径的同时,也带来了合理利用技术的伦理规范难题。习近平总书记在党的十九大报告中提出了建立网络综合治理体系的目标要求,推动这一要求贯彻落实,最为紧要的便是有效破解网络综合治理体系的建构难题,从人工智能的技术伦理视角推进网络安全伦理规范路径,进而建立规范自律、合理有序的智能化生态化网络综合治理体系。  相似文献   

7.
随着人工智能技术的不断发展,其在造福社会的同时也加剧了社会风险,人类必须面对新的伦理规范和法律难题。对于人工智能的法律主体资格问题,必须做好相关的法律研究和探讨。承认并确立人工智能民事法律主体资格具有其必然性。承认并确立人工智能的刑事法律主体资格仍存在巨大争议。立法机关需要针对人工智能的法律主体资格、权利义务、法律责任等方面的内容进行深入研究。  相似文献   

8.
基于行动者网络理论视角,生成式人工智能的社会伦理风险可以认为是在技术应用过程中由人类行动者和非人类行动者开展行动者转译和网络建构所造成的。从行动者转译与网络建构来看,生成式人工智能可能带来的主要社会伦理风险包括:智能互联下的行动者之“恶”传播风险加剧、行动者社会分工体系的结构性危机加剧、行动者转译的技术异化问题更为严峻、“行动者网络”下的数字安全风险增大、行动者“五际”关系维度的数字平权问题凸显。基于此,从合理界定行动者主体的权责关系、加强行动者转译的全过程算法治理、构建人机“共善”的行动者治理共同体等方面推进生成式人工智能的社会伦理风险治理,确保科技向善健康发展。  相似文献   

9.
人工智能介入民事司法领域是对现有司法体制的冲击和改革。在司法智能化过程中,应秉持中立原则,审慎对待。在肯定人工智能便捷价值的同时,也不能忽视人工智能对民事司法裁判体系造成的冲击及其带来的司法伦理困境。要明确法官在智能化司法中的主体地位,认清人工智能及信息技术的工具地位。  相似文献   

10.
段光鹏 《湖湘论坛》2023,(1):108-117
随着人工智能时代的到来,权力监督从侧重经验推断到依赖数据计算,从因果关系归责到相关关系预判,从监督方式外显到技术赋能监督,人工智能在权力监督中的工具理性愈加受到重视。人工智能在为权力监督带来便利的同时,也带来了责任认知模糊、基础工程阙如、安全隐忧凸显、伦理规范缺位等诸多新问题。因此,必须树立智能化的权力监督理念、创设制度化的权力监督场景、共建标准化的权力监督体系、破除垄断化的权力监督隐患、构筑共治化的权力监督范式、培养专业化的权力监督人才,努力实现主动监督、精准监督和全覆盖监督,构建人机协调有序发展的权力监督模式,确保权力监督更加透明、公开、有力和有效。  相似文献   

11.
人工智能技术发展如火如荼,也引发了相关法律问题的激烈讨论。面对人工智能带来的新型权利分配和责任承担问题,有人提出应赋予强人工智能,甚至是特定的弱人工智能以某种形式的法律主体地位来应对。然而这一路径看似便捷,却忽视了人工智能无法充分承担责任的情形,也未充分考虑人工智能发展与人类中心主义的社会规则产生的冲突。  相似文献   

12.
刘丽 《人民论坛》2020,(12):60-61
人工智能技术发展如火如荼,也引发了相关法律问题的激烈讨论。面对人工智能带来的新型权利分配和责任承担问题,有人提出应赋予强人工智能,甚至是特定的弱人工智能以某种形式的法律主体地位来应对。然而这一路径看似便捷,却忽视了人工智能无法充分承担责任的情形,也未充分考虑人工智能发展与人类中心主义的社会规则产生的冲突。  相似文献   

13.
人工智能为社会治理带来了新的机遇,能为社会热点难点问题提供新的解决方案,其将全面提升社会治理的现代化水平,精准预测公共需求,助推公共服务供给侧改革,提高公共服务质量和效率;但人工智能也给社会治理带来了新的挑战,人工智能发展的不确定性对现有社会伦理和法律规范产生了冲击,对信息安全也提出了更高的要求,还可能导致失业率上升而引发社会问题。因此,人工智能与社会治理的结合是社会治理系统优化的一项庞大工程,需要科学的系统框架,这一框架主要由现代化的治理理念、有利AI健康发展的环境、完善的信息资源体系架构、科学合理的AI技术架构、广泛应用的AI社会治理平台五个部分构成。  相似文献   

14.
顺应形势把握住人工智能和第四次工业革命带来的重大历史机遇,能够为转型期的中国经济社会发展提供新动能。人工智能时代机遇与挑战同在,应当加强人工智能技术发展研判和预测,增强风险意识,更好应对人工智能技术可能导致的失控风险、伦理挑战、就业影响,促进科技治理能力现代化。处理好"善治"与"善智"的关系,走向技术与社会的"良性互构"。  相似文献   

15.
伴随以ChatGPT为代表的生成式人工智能的多场景应用,技术迭代升级背后的潜在异化风险带来全新的监管挑战。本文系统梳理当前主要经济体人工智能监管实践动态,分析典型监管模式路径及其现实困境,尝试在此基础上提出应对举措。研究发现,伴随人工智能技术广泛应用,供应链安全、隐私保护、数字产权、数字伦理、数字鸿沟和算法偏见等深层问题逐渐凸显,给监管带来挑战,各国在人工智能监管的基础概念、价值理念及路径策略选择等多方面也存在诸多分歧,人工智能监管缺乏全球统一、协调一致的监管框架。当前主要经济体在人工智能监管方向上不断寻求创新和规制的平衡点,形成以欧盟和美英为代表的典型监管模式。未来人工智能监管将在“保持人的主体性”前提下,通过“限制”和“促进”双重手段,实现安全与发展之间的最佳平衡。我国应牢牢把握人工智能监管的规律和趋势,进一步统筹发展和安全,坚持问题导向和目标导向相结合,充分运用人工智能领域的新技术,适当借鉴美欧发达国家的经验做法,逐步构建起符合我国实际的人工智能监管模式。  相似文献   

16.
吴育珊  杜昕 《岭南学刊》2023,(5):105-112
由专用向通用迈进是生成式人工智能的发展现状,由赋能向赋智转变对应了生成式人工智能的应用场景。然而,生成式人工智能带来变革的同时,也存在安全风险,包括人机关系暗藏的伦理风险、人机交互面临的侵权风险、生成内容潜在的失控风险。防范化解风险的法律规制路径,应将辅助原则确立为规范人工智能研发和应用的基本原则、运用比例原则平衡人机交互的价值冲突、健全生成式人工智能的标准化安全评估体系。  相似文献   

17.
地方立法应用人工智能可以在立法资料检索、立法项目论证、法律草案编纂、法律备案和立法后评估等方面降低立法成本,提高地方立法的质量和效率。随着技术进步,人工智能在地方立法程序的参与程度将会愈加深入。然而,在享受和展望人工智能带来的技术红利的同时,更要警惕地方立法在应用人工智能过程中给立法本身带来的的合法性、民主性和科学性风险以及给数据管理造成的挑战,并以审慎科学的态度接纳负面影响,在协同治理框架的基础上,适度使用智能立法产品,坚持人工智能的辅助地位,构建伦理算法,实现人工智能辅助地方立法安全与发展价值的平衡。  相似文献   

18.
马兰 《前沿》2012,(13):18-20,57
相对于神经科学的发展,相关的伦理关注还很滞后。鉴于克隆技术、器官移植等生命科学技术发展带来的社会伦理冲击的先例,因此在神经科学技术还没有从实验室进入市场之前,需要考虑相关的道德决策问题。论文探析了脑成像中的思想隐私以及神经增强中安全与公正等实践伦理问题,还讨论了自由意志与道德责任等概念层面的伦理问题。  相似文献   

19.
正确认识智能时代的人机关系是防范人工智能伦理风险的重要前提,而对人机关系伦理本质的认识存在着人本主义与技术主义的分野。从人本主义的伦理立场出发,尽管出现了超人工智能,但人类的伦理世界是不可能被颠覆的,因为人伦关系、伦理法则及伦理秩序是人类所“独有”的。机器人也许会“参与”到社会伦理生活中来,这种“参与”源于机器人内部被预先设定的程序,机器人无法成为真正意义上的伦理主体。从责任的基本规定看,机器人也承担不了伦理责任,因为它天然不具有行动的自知性和可解释性,人类对人工智能负有完全责任,而不仅仅是责任的分担者之一。当我们说要强化机器人伦理的时候,绝非意指关于机器的伦理,而是人类对智能机器人进行设计、开发、应用与运营的伦理。坚持人本主义的伦理观念,是讨论人工智能伦理的前提,可以避免思想认识上的模糊与混乱。  相似文献   

20.
人工智能是全球科技关注的热点,但作为前沿技术也是把"双刃剑",面对人与机器间的关系引发社会秩序、管理体制以及伦理规范等方面的问题,必须用法律手段予以规制。要在充分理顺好科技创新和法律制度的关系基础上,出台针对人工智能的法律法规,厘清人工智能开发主体的法律责任,做好人工智能社会运用的法制监督。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号