生成式人工智能与政策失灵:规避工具还是隐蔽诱因? |
| |
引用本文: | 向玉琼.生成式人工智能与政策失灵:规避工具还是隐蔽诱因?[J].探索,2023(5):39-50. |
| |
作者姓名: | 向玉琼 |
| |
作者单位: | 南京农业大学公共管理学院 |
| |
基金项目: | 国家社会科学基金项目“我国政策过程中共识构建的政治哲学研究”(20BZZ077),项目负责人:向玉琼; |
| |
摘 要: | ChatGPT的出现意味着生成式人工智能阶段的到来,对政策过程产生一定的影响。ChatGPT可以提高政策信息的完整度、扩大政策系统与技术之间的友好接口、更大程度代替人类决策并提高效率、推动政策系统升级并提高政策系统与环境之间的适应性。基于生成式人工智能的预设功能,人们对其寄予厚望,认为人工智能将有助于政策优化,甚至成为政策失灵的规避工具。但现实中,生成式人工智能在政策过程中的应用并不一定带来政策优化的结果,相反,也可能正因为人工智能等信息技术的应用而诱发更为复杂的政策失灵。原因在于:人工智能隐蔽的算法偏见会带来偏狭的政策信息,对信息生成与传播的隐蔽控制会带来政策观点的极化,决策过程对机器的依赖会加剧政策系统的封闭性,社会监控系统隐形带来政策目标的自反等。人工智能并不一定保证政策目标的达成,反而可能成为政策失灵的推动力量。由于决策责任体系的复杂化,人工智能的影响难以确定,具体表现为:人工智能中技术“黑箱”的存在模糊了对生成式人工智能责任判定的标准;决策系统复杂化导致责任主体不明确;人类与机器之间的避责策略致使决策责任被稀释;追责路径特殊化带来责任链条的断裂等。生成式人工智能因为技术上的特...
|
关 键 词: | 人工智能 ChatGPT 政策失灵 决策责任 |
|
|