首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  免费   3篇
工人农民   1篇
外交国际关系   2篇
  2023年   3篇
排序方式: 共有3条查询结果,搜索用时 78 毫秒
1
1.
生成性人工智能 ChatGPT 一经出场,便迅速获得了全球用户的广泛使用和高度认可。该技术在 为人类日常生活和学习教育提供便捷的同时,也存在着诸多问题。智能依赖会弱化劳动观念养成,信息茧房会 淡化劳动理论学习,技术沉溺会简化劳动技能锻炼,规范失控会虚化劳动教育环境。这一系列隐藏在技术背后 的潜在风险必将深刻影响我们的教育领域,尤其是劳动教育领域。对此,需要凭借一种递进逻辑来寻求应对之策, 从而有效纾解 ChatGPT 介入劳动教育导致的潜在风险。这就要加强劳动观念引领,实现对错误劳动观念的精准 纠治;增强劳动理论学习,清理错误理论渗透的存在空间;注重劳动技能锻炼,筑牢抵御体力与脑力退化的身 体防线;优化劳动教育环境,加强对算法伦理监管的刚性约束。  相似文献   
2.
ChatGPT作为人工智能发展新的里程碑,在语言表达、自我强化等方面表现突出,展现出生成式人工智能的广泛运用前景,在多领域引起广泛关注,以ChatGPT为代表的生成式人工智能将会可预期地改变国家安全态势。在意识形态安全层面,对生成式人工智能的恶意运用使渗透方式更加多元,渗透效能更加显著。在国际舆论层面,对生成式人工智能的大规模使用将进一步使舆论场复杂化。在国家实力发展层面,生成式人工智能将继续拉大国家实力差距,国内公共权力与权威进一步分散。在军事安全层面,生成式人工智能赋能战场信息收集和战场指挥,国家之间的认知战对抗能力重要性日益提升。在法律规范层面,当前生成式人工智能的责任主体不明晰,现有法律法规难以约束基于该技术开展的犯罪行为。在社会稳定方面,生成式人工智能冲击劳动力市场,重塑人才发展模式。面对新技术冲击下急剧变化的新安全态势,应建立更多元协同的创新和应用体系,在国际上共享发展成果,完善法律体系,推动该技术服务于国家利益发展与人类命运共同体的构建。  相似文献   
3.
在人工智能时代,以ChatGPT为代表的人工智能通用大模型将可能冲击全球安全互动中的“主体责任制”,造成安全主体的模糊化与责任缺失、安全客体责任的离散化与安全责任追责难等一系列问题。由于人工智能技术由弱向强、迭代演进的技术发展逻辑,不同技术阶段的“主体性危机”与“责任危机”的形态和程度各异。在弱人工智能时代,低智性通用大模型的赋能作用可能会强化安全互动场域中的边缘安全主体责任。安全互动呈现出多重安全主体并存与安全客体责任离散的互动模式。在强人工智能时代,通用大模型被拟造为“类人”主体,成为多重安全主体中的一分子,安全互动呈现出无秩序形态。既有安全主体可能会表现出过度依赖算法和主体权力被侵蚀的特征,而安全客体则表现为普遍卸责和主体责任终结的特点。为解决上述问题,需要从安全主体互动的“主体间性”层面入手,在弱人工智能时代,可利用区块链与人工智能技术形成合力,并细化事前责任;而在强人工智能时代,则可凭借大国协调,在确立智能体“半主体”身份后,建立一种“监护人”制度,在主体间性的逻辑上开展全球安全实践。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号