首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   655篇
  免费   20篇
  国内免费   1篇
各国政治   5篇
工人农民   4篇
世界政治   19篇
法律   311篇
中国共产党   36篇
中国政治   173篇
政治理论   41篇
综合类   87篇
  2024年   25篇
  2023年   98篇
  2022年   92篇
  2021年   72篇
  2020年   41篇
  2019年   42篇
  2018年   5篇
  2017年   3篇
  2016年   7篇
  2015年   9篇
  2014年   20篇
  2013年   32篇
  2012年   22篇
  2011年   19篇
  2010年   33篇
  2009年   22篇
  2008年   30篇
  2007年   25篇
  2006年   23篇
  2005年   15篇
  2004年   12篇
  2003年   8篇
  2002年   3篇
  2001年   5篇
  2000年   5篇
  1999年   5篇
  1997年   1篇
  1996年   1篇
  1994年   1篇
排序方式: 共有676条查询结果,搜索用时 15 毫秒
311.
312.
算法治理是算法时代的核心议题。然而,当下算法治理的实效不彰,算法治理的理论亦分歧重重。鉴古而知今,20世纪60年代以降的算法治理史不但展现了丰富的制度实践,也为我国算法治理体系的建构提供了深邃洞见。聚焦于关键场景算法透明公平的“法律”、趋于共识的算法伦理“规范”和迈向算法可解释的“代码”,贯穿了长达半个世纪的算法治理进程。政府(法律)、社会(规范)、市场(代码)的耦合,以及工具性/自主性算法和高/低风险算法的类型化,共同塑造了理一分殊的“模块化”算法治理体系,为分类分级的算法治理奠定了稳固的理论之基。  相似文献   
313.
314.
315.
316.
生成式人工智能(Generative AI)作为最新一代的人工智能技术,一经问世便引发各行各业的关注和担忧。就行政决策而言,生成式人工智能能够帮助行政主体实施社会数据采集分析、行为预测、方案演绎,进而辅助行政决策的信息采集、关键问题识别以及决策方案的最优化实现。但是,在生成式人工智能参与行政决策的三个阶段也存在不同程度的隐患:训练数据库的片面性可能会导致信息的不公正、对技术的过度依赖可能会导致安全风险、算法黑箱可能会引发公众对行政决策透明性的质疑。若要最大限度发挥生成式人工智能辅助行政决策的积极作用,应当强化算法歧视治理、明确技术的辅助性地位、增强算法的参与性,以此规范生成式人工智能在行政决策中的作用,促进生成式人工智能与行政决策的深度融合。  相似文献   
317.
张涛 《中外法学》2024,(1):261-279
自动化决策并非纯粹的技术工具,而是一种社会技术系统,由社会子系统和技术子系统构成,其引发的风险具备社会性,有必要进行规制。以个体赋权、信息规制、技术问责为代表的传统规制路径缺乏社会技术思维,容易陷入“破损谬误”泥淖,难以因应自动化决策的风险与挑战,无法有效实现法律及伦理规范提出的规制目标。算法审计作为一种社会技术方法,能够很好地契合自动化决策的社会技术系统属性,具备诸多方法论优势和国际实践经验。从建构社会技术系统工程的角度出发,根据审计学的一般原理,我国可以从规范指引、实施主体、方法选择和实施结果四个方面推动算法审计实现制度化发展,并在此基础上探索基于场景的算法审计,实现可信赖的自动化决策。  相似文献   
318.
企业与学术界为了实现共同的创新目标,从而形成一种合作交流活动——产学研合作。知识获取能力是企业利用外部知识不断创新并保持竞争优势的关键。在此背景下,借助知识管理和知识流程理论,从企业向学研方获取技术知识的角度,探讨其知识流程的建模,引入粒子群优化算法(ParticleSwarmOptimization,PSO)对相应的模型矩阵进行优化,从而为企业加强知识获取能力,进而提高知识转化的效率提供现实的理论借鉴。  相似文献   
319.
介绍微博信息挖掘系统中实现微博信息文字处理和转化等核心功能的算法及模型构建,以获取微博信息挖掘过程中各个环节所需的信息对象,为微博监控平台实现监测预警提供依据.  相似文献   
320.
透明度作为人工智能风险治理的一项基本要求,其现实基础在于人工智能应用引发的信息不对称以及这种不对称所蕴含的对个体受保护利益或社会秩序的侵害风险。当下,信息不对称主要存在于人工智能系统分别作为产品、交互性媒介及自动化决定系统而影响现实世界等三类场景之中。相应地,透明度规则的主体内容应为人工智能系统提供者、运营者为满足相对人透明度需求而负有的信息披露义务。考虑到技术保密性对于产业发展的关键作用,且对外披露亦不是增加系统安全性的有效方式,对人工智能技术应以不强制披露为原则。诸项透明度规则既可归于“人工智能风险治理”主题之下,同时又分别属于个人信息保护法、消费者权益保护法、产品质量法、合同法、程序法乃至网络安全法规则,彰显出人工智能法的领域法特征。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号