象脑与共情:ChatGPT的伦理风险发微与纠偏 |
| |
引用本文: | 王英明,汪怀君.象脑与共情:ChatGPT的伦理风险发微与纠偏[J].理论导刊,2023(7):108-113. |
| |
作者姓名: | 王英明 汪怀君 |
| |
作者单位: | 中国石油大学(华东)马克思主义学院 |
| |
基金项目: | 中央高校基本科研业务费专项资金资助项目“数字时代的资本主义新变化研究”(22CX04023B)阶段性成果; |
| |
摘 要: | ChatGPT的出现使得社会伦理价值面临诸多风险。其通过抽象描述与高度符号化信息,描摹人的思考、决策、行动、反馈过程,使人的思想、情感、价值选择犹如数字化的虚拟镜像,进而使传统的信任机制、协同方式与行动模式被颠覆。ChatGPT在深度学习时,造成“不知情同意”,侵犯用户隐私,强化心理偏见;存在“无意识”价值,延伸出道德、公平、效率、秩序等意识形态偏差,形成价值误导;迈向后人类时代,技术对人的身体进行重塑,技术即人体,造成人与技术边界模糊。为规避上述风险,必须树立“数字人权”的立法理念,明确伦理风险的边界;建立对话的道德准则,遵循基本道德原则和价值观;加强行业监管与监督,提高公众的应用素养。
|
关 键 词: | ChatGPT 数字镜像 伦理风险 数字人权 |
|
|