全文获取类型
收费全文 | 532篇 |
免费 | 8篇 |
国内免费 | 1篇 |
专业分类
各国政治 | 2篇 |
工人农民 | 2篇 |
世界政治 | 18篇 |
法律 | 234篇 |
中国共产党 | 27篇 |
中国政治 | 152篇 |
政治理论 | 35篇 |
综合类 | 71篇 |
出版年
2024年 | 24篇 |
2023年 | 98篇 |
2022年 | 100篇 |
2021年 | 73篇 |
2020年 | 45篇 |
2019年 | 45篇 |
2018年 | 5篇 |
2017年 | 3篇 |
2016年 | 4篇 |
2015年 | 8篇 |
2014年 | 13篇 |
2013年 | 24篇 |
2012年 | 8篇 |
2011年 | 9篇 |
2010年 | 10篇 |
2009年 | 10篇 |
2008年 | 19篇 |
2007年 | 11篇 |
2006年 | 9篇 |
2005年 | 5篇 |
2004年 | 6篇 |
2003年 | 2篇 |
2002年 | 1篇 |
2001年 | 3篇 |
1999年 | 4篇 |
1996年 | 1篇 |
1994年 | 1篇 |
排序方式: 共有541条查询结果,搜索用时 0 毫秒
441.
算法统治(algocracy)是公共部门利用算法技术创造的一种新型统治秩序和治理形态。政务算法化正席卷各类政体,不断放大国家的规制性权力、强制性权力和分配性权力,重塑权利与权力、自由与秩序、公平与效率之间的平衡关系。当前,算法统治在算法输入、运算和输出环节存在授权、问责、回应方面的实质性代表性问题,造成公民声音的不在场性和公民权益的损失风险。同时,算法统治倾向于不断沉积、固化、强化乃至结构化特定群体的弱势地位,排斥少数群体的平等出场和权益实现。建构“算法代表性”有助于约束“算法利维坦”的权力边界和运行方式,保障公民特别是弱势群体的算法权益,提升算法统治的合法性,同时拓展新技术环境下的代表理论。 相似文献
442.
443.
面对汹汹疫情,以移动互联网为基础,大数据、人工智能算法、WIFI指纹等技术综合运用的精准防控,在确保严控疫情的前提下,尽可能把对社会经济、民众生活的负面影响降到最低.但此次抗疫大考也暴露出诸多问题。在党的十九届四中全会提出治理体系和治理能力现代化的背景下,如何让数字治理进一步发挥效力、释放潜力,值得城市管理者深入思考和实践。 相似文献
444.
人工智能算法辅助行政决策契合行政决策体制改革方向,能够应用于行政决策的全过程和多领域。其意义在于通过辅助公众参与、识别公众需求、自动收集数据、深度学习自主推导、评估风险预测行为、全面收集和深度分析大数据,以提升行政决策的民主性、科学性。但人工智能算法辅助行政决策可能存在法治风险:算法隐匿和算法偏差可能危及利害关系人的实体权利,包括利害关系人的真实权益关切、隐私保护和平等对待要求;算法代表和算法至上可能危及利害关系人的程序权利,包括不符合正当程序原则的基本要求、不利于利害关系人的真实意愿表达、不利于利害关系人的真实程序性参与;当出现算法决策错误时责任承担主体不明确。这在一定程度上违背了行政法治原理中的良法善治要求。因此,应当围绕人工智能算法问题,从人工智能算法自身、行政机关、利害关系人三个方向寻找法治出路,完善人工智能算法的合法化设计,加强行政机关对人工智能算法的合法性、伦理性和合规性审查,完善算法公开制度,健全算法辅助决策的行政责任制度,从而契合行政法治原理的要求。 相似文献
445.
本文系统分析了上海J区“一网统管”模式如何对接市民“12345”民情诉求热线,如何处置网格员通过政务APP以及传感器设备发现的城市治理问题,旨在揭示技术提升城市公共问题解决效率的内在机制。研究发现:这一过程主要通过算法化观测、算法化决策、算法化控制、算法化考核等四个环节得以实现。算法平台拟合出城市公共问题解决的“最优”方案并对行政过程进行标准化控制,促使行政过程按照“最优”方案执行,以此实现城市公共问题的高效解决。在此过程中,算法全面嵌入公共行政系统,挑战了传统公共行政中人—人交互的关系样态,构建了人—机互动的新样态,全方位重塑了传统公共行政中的权力关系、组织关系和运行过程。然而,受限于技术基础设施和制度等因素,技术提升城市公共问题解决效率的作用并未充分发挥。未来行政改革应注重数字化转型的技术和制度配套,推动传统管理模式与数字治理模式的协同。 相似文献
446.
伴随着算法应用中个人自治价值不断被消解、社会秩序价值受到侵害以及传统治理框架频繁失灵,尤其是以ChatGPT为代表的基于统计学习神经网络的典型黑箱模型对现有问责机制带来了极大挑战,算法透明引发各国立法者高度关注。然而,提升算法透明度与保护商业秘密的规范目标之间存在紧张关系。算法自动化决策背后存在多元价值诉求的叠加,这体现为不可避免地将个人利益、公共利益、经济效率、公平正义等价值相互交织在一起,使得实现算法透明与保护算法商业秘密二者之间的取舍成为难题。主流利益平衡理论仅从利益位序去协调二者之间冲突的思路,具有局限性,应当在“调和论”视角下以“促进算法经济的高质量发展”为目标相互协调:一方面,应选择适当的算法透明工具,构筑算法解释的体系化框架,同时辅以多元算法监督机制;另一方面,应合理保护算法商业秘密,完善商业秘密的权利限制制度。 相似文献
447.
互联网时代的发展与大数据算法技术的进步使“避风港”规则受到了巨大冲击,而引入网络平台版权过滤机制作为当下最具实施可能性的方案,将有效化解互联网版权侵权难题。通过运用文本分析、比较研究等方法,全面梳理欧美版权过滤义务的主要内容及运作方式,向我国平台版权过滤义务的构建,提供制度巧思。为了重新平衡互联网新环境下的各方主体之权利义务,并进一步增强对版权人保护。我国法律应积极着手于过滤义务之过滤主体、过滤前提、过滤标准的相关制度研究,同时注意辅以错误过滤的相关救济机制,以此为版权过滤义务的顺利实施奠定坚实的理论基础。 相似文献
448.
盛浩 《西南政法大学学报》2023,(4):122-136
以ChatGPT为代表的生成式人工智能在推动生产、生活方式发生颠覆性变革的同时,也给人类社会带来了巨大的技术风险。从刑事法治的角度来看,生成式人工智能数据处理不透明、生成过程不可控、输出内容复合性,以及技术滥用等蕴含着较大的犯罪风险,极易造成严重的危害结果。生成式人工智能带来的犯罪风险使刑法出现了行为规制缺漏、责任判断困难等问题,并对刑法人类中心主义造成了冲击。对此,刑法应当树立与智能时代相适应的基本理念,坚持刑法立法与刑法解释并重,兼顾安全保障与技术进步,在前瞻思考与现实理性之间实现有效平衡。在具体应对路径上,可以通过解释路径解决行为规制和责任归属问题,立法路径弥补现有规范的行为规制漏洞,并在刑法中明确服务提供者的保证人地位和刑事监管义务。 相似文献
449.
在美国算法辅助量刑的司法实践中,就算法的辅助地位、法官自由裁量权与被告人诉讼地位等问题,存在争议。算法固有偏见及其程序不透明等内在风险,以及算法辅助量刑规范体系缺位的制度性风险,不仅严重限制了被告人的算法知情权,而且使经由算法辅助的量刑裁量权不受约束,有碍程序公正的实现。为从实体与程序上实现公正量刑,应对辅助量刑的算法进行规范化。在算法层面,应当坚持算法公开原则,明确商业秘密不得阻碍算法披露,并以一致性标准与算法留痕促进算法公平。在诉讼层面,应当对算法知情权构建具体的权利束,在算法证据规则上区分由检察机关提出与被告人异议而分配不同的证明标准与证明责任。 相似文献
450.
算法决策应用的外部风险具有聚合性和累积性特征,侧重算法行为端,在技术运用过程中向多数不特定群体扩散,将其类型化后包括社会公共利益和实质正义受损、人的主体性地位和合法权益受挑战两方面。外部风险不同于一般侵权行为的损害后果,无法适用传统归责原则。为了有效促进算法技术和监管的良性互动,以公共治理路径为视角,将算法决策嵌入网络社会架构中分析当下治理的局限性,并提出较完善的治理方案。在思路上,应遵循分类分级的精准化治理方法,选择“软”“硬”法为协同治理工具,坚持安全和发展并重的治理理念。在路径上,应着眼于算法决策应用的生命全周期,用算法解释机制解决算法备案制失灵的问题,以风险比例确立算法决策系统的分类与规制方向,并以平台为主体多途径构建算法综合性问责体系,形成治理合力。 相似文献