首页 | 本学科首页   官方微博 | 高级检索  
     

可解释人工智能问题北大核心
作者姓名:顿新国
作者单位:1.南京大学当代智能哲学与人类未来研究中心210023;
基金项目:国家社科基金重大项目“新一代人工智能驱动的逻辑学研究”(20&ZD047);南京大学文科卓越研究计划中长期专项“形式知识论研究”的阶段性成果。
摘    要:当代人工智能技术在给人类带来多方面福利的同时,面临黑箱、鲁棒性和可解释性等问题,发展值得信赖的可解释人工智能已成为人工智能领域的核心关切。论文在论证可解释人工智能为什么重要的基础上,对可解释人工智能的内涵进行界定,进而提出发展可解释人工智能需遵循的一些原则,它们也可看作可解释人工智能需达致的目标和要求。论文最后提出了两点关于实现可解释人工智能途径的构想.

关 键 词:人工智能  可解释性  可信赖性  透明性  可达性
本文献已被 维普 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号