排序方式: 共有3条查询结果,搜索用时 0 毫秒
1
1.
2.
可信任人工智能的构建发端于人对技术伦理旨趣的审度,可信任的存在逻辑在于人工智能创建了基于任务和基于目标信任得以产生的可能条件,并在与人类的交互之中呈现出某种关联性的信任。可信任人工智能应基于信任边界厘清的前提下,兼顾技术伦理学的通用原则和人工智能自身的技术特性,在有效监督和对技术动态的发展与应用的审慎批判中,确保人工智能向善。反观欧盟的"可信任人工智能的伦理框架",其所阐述的技术与非技术两个方面的构建路径、判别标准为可信任人工智能实现提供了有效的实践保障,但其对信任边界问题的搁置或排除则使其有效性遭遇质疑。 相似文献
3.
基于数据科学与数据技术的人类行为所带来的道德责任问题是数据时代必须面对的一个核心问题。数据的智能化、多代理、全球化等特征使得关于道德责任问题的探讨从以人为中心的路径,走向人与技术的复合体,并将道德责任与人类对技术的信任问题关联在一起,由此引发了关于道德责任主体界定的争议。基于数据科学与数据技术的分布式道德责任虽然呈现出了数据时代道德责任的新特征,但尚未能有效诠释数据科学与数据技术的全球化与网络化特征,且不能满足充分释放数据要素潜能的需求。因此,需要从顶层逻辑的视角,构建一种动态的、基于多元代理的结构式道德责任,并与分布式道德责任相融合,共同构筑良好的数字生态环境,助推数据潜能的激活。 相似文献
1