可解释人工智能问题北大核心 |
| |
作者姓名: | 顿新国 |
| |
作者单位: | 1.南京大学当代智能哲学与人类未来研究中心210023; |
| |
基金项目: | 国家社科基金重大项目“新一代人工智能驱动的逻辑学研究”(20&ZD047);南京大学文科卓越研究计划中长期专项“形式知识论研究”的阶段性成果。 |
| |
摘 要: | 当代人工智能技术在给人类带来多方面福利的同时,面临黑箱、鲁棒性和可解释性等问题,发展值得信赖的可解释人工智能已成为人工智能领域的核心关切。论文在论证可解释人工智能为什么重要的基础上,对可解释人工智能的内涵进行界定,进而提出发展可解释人工智能需遵循的一些原则,它们也可看作可解释人工智能需达致的目标和要求。论文最后提出了两点关于实现可解释人工智能途径的构想.
|
关 键 词: | 人工智能 可解释性 可信赖性 透明性 可达性 |
本文献已被 维普 等数据库收录! |
|