排序方式: 共有38条查询结果,搜索用时 0 毫秒
21.
我国的数字化转型正进入数字孪生时代,现实世界与虚拟世界出现"虚实相生"甚至"以虚运实"的趋势.在数字孪生系统的分层体系下,通过算法黑箱将模型和数据封装于交互界面之后是一种常见的工程模式,在化简技术复杂性的同时也导致"规则隔音"现象日益严重.决策规则的隐而不显致使事后法律问责难以奏效,而追求算法透明的披露手段在与技术复杂性和商业秘密的冲突中不断妥协,逐渐成为强弩之末.实际上,无论事前规制还是事后问责都需要以法律系统与算法系统的良性互动为前提.借助技术标准的场景性、灵活性、技术性等优势,可以制定信息交换的结构性元规则促进算法与法律的跨系统沟通.此外,应当通过算法标准自我声明机制推动软法的"硬化",规范算法贴标逐渐消灭"无标生产",构建软法硬法混合算法规制模式. 相似文献
22.
透明度作为人工智能风险治理的一项基本要求,其现实基础在于人工智能应用引发的信息不对称以及这种不对称所蕴含的对个体受保护利益或社会秩序的侵害风险。当下,信息不对称主要存在于人工智能系统分别作为产品、交互性媒介及自动化决定系统而影响现实世界等三类场景之中。相应地,透明度规则的主体内容应为人工智能系统提供者、运营者为满足相对人透明度需求而负有的信息披露义务。考虑到技术保密性对于产业发展的关键作用,且对外披露亦不是增加系统安全性的有效方式,对人工智能技术应以不强制披露为原则。诸项透明度规则既可归于“人工智能风险治理”主题之下,同时又分别属于个人信息保护法、消费者权益保护法、产品质量法、合同法、程序法乃至网络安全法规则,彰显出人工智能法的领域法特征。 相似文献
23.
人工智能因具备医疗领域所需的精确性、灵敏性等特点,在医疗领域获得良好融合发展机遇.目前,我国医疗人工智能已然深入医疗决策过程中,构成了"患者—医疗人工智能—医疗机构"的医患关系.在医疗人工智能致人损害发生时,如何在三方之间分配责任,保障各方的利益,是一个较为重要的问题.应当明确各方在医疗过程中的注意标准,明晰各方承担责... 相似文献
24.
25.
算法作为人类利用机器抓取、处理并输出数据的手段,其所得结果受到编写者主观偏差,技术偏差等多种影响.因算法编写的高度专业性,用户无法知悉有关于自身信息数据被抓取,处理以及应用的细节,这样的不透明性显然对用户的权益与社会秩序造成影响,对我国的法律机制也带来极大挑战.针对算法的运行模式,剖析算法黑箱带来的个人信息数据侵权、算法偏见及司法救济三重危机.通过对欧盟《通用数据保护条例》与欧洲《人工智能伦理与数据保护宣言》对算法黑箱的治理条款,针对上述三重危机从技术角度、法律角度与伦理角度对算法黑箱进行法治化管理,以实现算法黑箱法治化治理层面的合法性与最佳性耦合. 相似文献
26.
27.
28.
智慧司法中的忧虑:想象、剖析与展望 总被引:1,自引:0,他引:1
智慧司法建设如火如荼的同时,学术界对智慧司法可能带来的负面效应过分忧虑:担忧对诉讼参与人贴标签会出现主观偏见、担心裁判算法黑箱可能会产生歧视、忧心人工智能代替法官思考甚至取代法官。上述忧虑乃是基于对智慧司法的想象。事实上,贴标签并不会产生偏见;智慧司法确实充满了黑箱,但并不构成逻辑困扰;智慧司法并没有增加裁判过程中的歧视,而是限制了本就存在的歧视行为;算法没有能力代替法官思考,更不可能取代法官。未来在讨论智慧司法建设时应当破除对新鲜事物的恐惧,摘除针对算法的有色眼镜,关注算法对司法带来的各种冲击。 相似文献
29.
在新的科技革命的推动下,科技成果总是以科技黑箱的形式出现,科技黑箱也促进了知识的传播和增长.在科技黑箱的引导下,高校必须转变IT人才培养模式.探讨出科学的IT人才培养模式是一项系统工程. 相似文献
30.