可信任:人工智能伦理未来图景的一种有效描绘 |
| |
作者姓名: | 闫宏秀 |
| |
作者单位: | 上海交通大学,上海,200240 |
| |
基金项目: | 上海市社会科学基金规划一般项目 |
| |
摘 要: | 可信任人工智能的构建发端于人对技术伦理旨趣的审度,可信任的存在逻辑在于人工智能创建了基于任务和基于目标信任得以产生的可能条件,并在与人类的交互之中呈现出某种关联性的信任。可信任人工智能应基于信任边界厘清的前提下,兼顾技术伦理学的通用原则和人工智能自身的技术特性,在有效监督和对技术动态的发展与应用的审慎批判中,确保人工智能向善。反观欧盟的"可信任人工智能的伦理框架",其所阐述的技术与非技术两个方面的构建路径、判别标准为可信任人工智能实现提供了有效的实践保障,但其对信任边界问题的搁置或排除则使其有效性遭遇质疑。
|
关 键 词: | 信任度 人工智能 伦理 |
本文献已被 CNKI 万方数据 等数据库收录! |
|