首页 | 本学科首页   官方微博 | 高级检索  
     检索      

象脑与共情:ChatGPT的伦理风险发微与纠偏
引用本文:王英明,汪怀君.象脑与共情:ChatGPT的伦理风险发微与纠偏[J].理论导刊,2023(7):108-113.
作者姓名:王英明  汪怀君
作者单位:中国石油大学(华东)马克思主义学院
基金项目:中央高校基本科研业务费专项资金资助项目“数字时代的资本主义新变化研究”(22CX04023B)阶段性成果;
摘    要:ChatGPT的出现使得社会伦理价值面临诸多风险。其通过抽象描述与高度符号化信息,描摹人的思考、决策、行动、反馈过程,使人的思想、情感、价值选择犹如数字化的虚拟镜像,进而使传统的信任机制、协同方式与行动模式被颠覆。ChatGPT在深度学习时,造成“不知情同意”,侵犯用户隐私,强化心理偏见;存在“无意识”价值,延伸出道德、公平、效率、秩序等意识形态偏差,形成价值误导;迈向后人类时代,技术对人的身体进行重塑,技术即人体,造成人与技术边界模糊。为规避上述风险,必须树立“数字人权”的立法理念,明确伦理风险的边界;建立对话的道德准则,遵循基本道德原则和价值观;加强行业监管与监督,提高公众的应用素养。

关 键 词:ChatGPT  数字镜像  伦理风险  数字人权
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号