全文获取类型
收费全文 | 520篇 |
免费 | 8篇 |
国内免费 | 1篇 |
专业分类
各国政治 | 2篇 |
工人农民 | 2篇 |
世界政治 | 18篇 |
法律 | 233篇 |
中国共产党 | 27篇 |
中国政治 | 150篇 |
政治理论 | 34篇 |
综合类 | 63篇 |
出版年
2024年 | 24篇 |
2023年 | 98篇 |
2022年 | 99篇 |
2021年 | 73篇 |
2020年 | 45篇 |
2019年 | 45篇 |
2018年 | 5篇 |
2017年 | 3篇 |
2016年 | 4篇 |
2015年 | 8篇 |
2014年 | 13篇 |
2013年 | 24篇 |
2012年 | 8篇 |
2011年 | 9篇 |
2010年 | 10篇 |
2009年 | 9篇 |
2008年 | 16篇 |
2007年 | 10篇 |
2006年 | 9篇 |
2005年 | 5篇 |
2004年 | 4篇 |
2003年 | 1篇 |
2001年 | 2篇 |
1999年 | 3篇 |
1996年 | 1篇 |
1994年 | 1篇 |
排序方式: 共有529条查询结果,搜索用时 15 毫秒
101.
在智能楼宇可视对讲系统中,Android可以提供一个高效的开发平台,在主控芯片的出色算法和编解码能力的配合下,通过选用合适的网络协议,将建立起支撑整个系统的基础构架. 相似文献
102.
103.
我国刑事司法人工智能建设已初具规模,能够确保刑事诉讼定性更为准确、查证更具针对性、程序更为高效、办案质量标准化,但随着技术的发展,也会产生削弱司法自主权、将被控告人降为诉讼客体、使证据审查出现不当倾向以及导致隐性歧视等负面风险,累积着发生刑事错案的潜在风险,与避免刑事错案的设计初衷形成"刑事错案悖论"。从悖论成因看,人工智能建设存在对人工智能地位定位不准、源头数据存在瑕疵、算法模型封闭难懂、保障机制建设缓慢、交叉领域人才紧缺等问题。要消解该悖论,应尝试从人工智能定位、数据、算法、学习技术、保障机制等角度建构刑事错案风险防范机制。 相似文献
104.
魏丽 《山西警官高等专科学校学报》2012,20(4):50-54
基于SCL-90的心理健康数据的传统Apriori算法在应用上有其不足,而基于客观兴趣度和频繁闭项两方面改进的Apriori算法,克服了传统Apriori的不足,避免了关联规则的不相关性和冗余性,实验也证实了改进算法的必要性和可行性。这种改进的Apriori算法在监狱警察心理健康调查中具有应用价值。 相似文献
105.
算法设计与分析是计算机相关专业一门重要的专业基础课程。在分析传统教学方法特点的基础上,针对软件工程专业培养目标和学生特点,探讨了如何针对软件工程专业学生开展算法设计与分析课程,以培养学生的算法设计能力为目标,并充分运用任务驱动教学和案例教学。实践表明该方法能有效激发学生自主学习潜能。 相似文献
106.
智能推荐旨在提供更针对性产品或服务,解决信息过载问题。但这一服务也产生用户画像获取了用户隐私,限制个人选择和发展,算法偏见导致不公平等诸多问题。本文在分析目前我国智能推荐的问题基础上,提出加强对平台关于用户隐私、用户信息的保护,严格遵循用户知情、同意使用的原则;引入平衡推荐机制以及提高算法的透明度与维度,加入人工审查等多项建议。以求平衡人工智能发展与个人权利保护的矛盾,更好的应用科技促进发展。 相似文献
107.
立法性算法是有权机关依照一定程序使用的、能够对公民权利义务产生实质性影响的公共决策算法。与传统立法一样,立法性算法会改变社会资源的分配格局以及人们行为的活动空间,甚至能对公民的权利和义务产生实质性影响。但是,立法性算法所固有的技术性特征,规避了公众对立法性算法程序设计的参与和监督。一方面,构成立法性算法的人工语言与普通公众熟知的自然语言之间存在巨大鸿沟,普通公众因不具备人工语言相关基础知识,难以在算法程序设计中与之进行平等对话和有效沟通,从而使得作为民主性补充渠道的公众参与难以有效进行,进而可能引发监督失效、权责失衡的问题。另一方面,立法性算法会不自觉地嵌入设计者的个人偏好和价值判断,它并不能完全展现“技术中立”理想下的客观和真实,甚至还会出现偏差,从而可能引发算法寻租和算法滥用的问题。要克服立法性算法的缺陷,就要求算法程序的设计必须以透明度和问责制为主要原则,确保公众对立法性算法的充分参与和必要的权利救济途径。 相似文献
108.
算法的透明规则、反歧视规则和自动化决策解释规则,基本构成了《个人信息保护法》的算法治理规则体系。但是,算法商业秘密的权利保护与相对人知情权之间的矛盾、算法歧视的合理性标准与治理模式选择,以及自动化决策权和拒绝权的矛盾,在该算法治理规则体系中并没有得到解决。在合理解释上述规则的基础上,应通过治理算法黑箱实现对算法透明的制度构建,差异化治理算法歧视以选择适宜的监管模式,规制算法自动化决策和重点权利保障领域来完善算法的反自动化决策规则。 相似文献
109.
人工智能在司法领域获得诸多应用。智能司法应用通常具有的不可解释性存在过程审查无法进行、加剧算法歧视等内部隐忧,以及司法系统内部关联断裂的外部风险,因而遭遇诸多质疑。究其根本,算法技术的内在机理以及法律与技术的职业障碍、智慧司法的技术瓶颈是人工智能司法决策可解释性缺失的缘由。随着世界范围内智能司法可解释性相关制度文件的出台,以及算法可解释性与准确性可兼容并存的认知革新,人工智能司法决策的解释路径与透明化势在必行。提高技术应用深度、借鉴已有的技术解释路径针对性研发智慧司法应用的解释方法,能够促进人工智能司法决策可解释性的有效提升,助力司法公正。 相似文献
110.
作为一种运用人工智能让计算机“教会”自己不断进阶并寻找新数据以做出判断的“聪明技术”,算法推荐技术内蕴着摆脱人类控制的倾向和“从人指向物”的特定关系模式,具有高度伦理敏感性,并带来认知性与规范性两个方面的伦理风险。应对技术伦理挑战,展开算法推荐的伦理治理有三方面要求:一是以伦理先行的自觉,明确算法推荐的伦理规制原则,发挥伦理原则的路标作用;二是确立分布式道德责任,重塑算法推荐的责任主体,促进算法的负责任创新;三是优化算法推荐的伦理治理结构,展开敏捷治理,实现技术向善与技术赋能的契合。 相似文献