全文获取类型
收费全文 | 476篇 |
免费 | 16篇 |
专业分类
各国政治 | 2篇 |
工人农民 | 2篇 |
世界政治 | 14篇 |
法律 | 220篇 |
中国共产党 | 19篇 |
中国政治 | 144篇 |
政治理论 | 34篇 |
综合类 | 57篇 |
出版年
2024年 | 24篇 |
2023年 | 97篇 |
2022年 | 76篇 |
2021年 | 67篇 |
2020年 | 37篇 |
2019年 | 42篇 |
2018年 | 5篇 |
2017年 | 3篇 |
2016年 | 4篇 |
2015年 | 8篇 |
2014年 | 13篇 |
2013年 | 24篇 |
2012年 | 8篇 |
2011年 | 9篇 |
2010年 | 10篇 |
2009年 | 10篇 |
2008年 | 16篇 |
2007年 | 10篇 |
2006年 | 9篇 |
2005年 | 5篇 |
2004年 | 4篇 |
2003年 | 1篇 |
2001年 | 2篇 |
2000年 | 1篇 |
1999年 | 3篇 |
1996年 | 1篇 |
1995年 | 2篇 |
1994年 | 1篇 |
排序方式: 共有492条查询结果,搜索用时 625 毫秒
341.
新型互联网金融犯罪案件中,传统侦查技术已经无法应对海量资金数据,大数据侦查因势而生。大数据侦查通过回溯、分析海量资金数据,穿透识别资金来源与流向,成为该类案件办理的“杀手锏”。与此同时,大数据侦查也给大数据证据的审查运用带来新的挑战。司法机关有必要从实践出发,将大数据技术特征和证据法理论相融合,构建互联网金融犯罪案件大数据证据的审查运用规则。在证据种类上,未来有必要将大数据证据单列为独立证据种类,在此之前,将大数据证据作为侦查实验笔录更为适宜。现阶段,可以采取印证证明、抽样证明等方法验证大数据结论真实可靠性。 相似文献
342.
算法自动化决策在招聘、任务分配、劳动评估甚至解雇决策中发挥着日益重要的作用,但其对于职场性别平等影响的研究尚未展开。本文尝试通过对国内外职场算法性别歧视案例的分析,探讨算法在数字经济时代就业劳动市场不同阶段发挥的重要作用,分析算法自动化决策可能嵌入既有的性别偏见,成为隐藏性别歧视的分配手段,并且造成难以觉察的性别歧视后果。应对算法自动化决策带来的职场性别歧视,应扩大传统劳动法关于性别平等制度的适用,并具体化算法自动化决策规制的相关制度。此外,还应积极构建性别平等的算法伦理,建设覆盖算法生命周期的性别平等制度,并发展针对算法性别偏见的审计与评估制度,通过制度设计和社会支持系统促进数字经济时代的职场性别平等。 相似文献
343.
作为一种新型的权力形态,平台权力是指伴随平台经济的快速发展和超级平台企业在国民经济和社会发展中影响力和控制力的不断增强而出现的,由少数超级平台企业所掌握的影响和支配平台空间内的经营者、消费者等平台主体行为的能力。依据平台权力的运行过程,可以将平台权力分为平台准立法权、平台准行政权和平台准司法权三种主要类型。伴随平台权力的不断扩张,超级平台企业所拥有的平台权力在塑造平台空间治理秩序和改善平台治理绩效的同时,也对国家机关的立法权、行政权和司法权等国家公权力构成了一定威胁,进而对由政府主导的国家治理秩序和由国家主导的全球治理格局产生了深刻的影响和一定的冲击,对平台权力进行规制的重要性正日渐提升。平台权力的规制,需要从明确划定平台权力的边界、不断强化对平台权力运行过程的监管、规范平台数据的使用和算法的运行、依法依规保护平台用户数据安全以及严厉打击平台企业滥用垄断和优势地位的行为等方面着手。 相似文献
344.
随着算法的广泛应用,公众在决策过程中多了一种选择:可以信任专家,也可以信任算法。算法是在软件中提供控制加逻辑的工具,具有不透明性、不确定性和权威性等特征。算法自主性程度、任务风险大小以及人类和算法的交互程度影响着公众选择信任算法还是专家。媒介算法中的内容生产使专家识别变得困难,面对众多“专家意见”,人们无所适从;搜索、推荐算法带来的“以自我为中心的偏见”和“回声室”效应,使个人更加固执己见;咨询算法、人机虚拟团队提高了专家能力,但不必然带来公众对专家的更高评价;执行算法则加深了公众对专家的依赖。当前的智能社会,公众需要认识专家地位及其认知局限性,不盲从、不苛责,更需要提升自身算法素养,校准人机信任。 相似文献
345.
人工智能使用于司法涉及到突出的伦理问题,智能司法与司法伦理既有紧密关系又有紧张关系.司法公正的一个很重要因素是证据的获取,证据的获取与知识智慧有很大的关联性,人工智能使用于司法在证据获取等方面具有相对于人工的以下优势:准确性、重复性、快速性、抉择性、无私性.智能司法与司法伦理的紧张关系是指智能司法可能损害司法公正:算法... 相似文献
346.
在算法时代,法律领域正在经历一场深刻变革。新的公共治理和控制系统将从数据收集、传输和分析中产生,基于大数据驱动机器学习的算法治理模式符合社会管理的基本原则,并能够以更为有效的方式做出决策从而改善人们的生活。但是,受制于数据输入的主观性和偏见性以及系统自身的封闭性、不确定性和不可预测性,算法在提升公共治理效能和降低社会监管成本的同时,也会对传统法律秩序的合法性、公共性和民主性造成冲击。对此,需要明确立法性算法的合法性地位,强化对立法性算法的审查和风险评估,以及保障公众对算法程序的参与和监督权,在算法程序正式被应用到公共领域之前,行政人员还必须对算法程序应用的全过程进行监管,通过建立有效的可预测性和可解释性度量标准,使算法程序的设计和应用有章可循,并建立相应的算法问责制度和程序,以确保立法性算法的发展符合法定的公共性和合法性基本要求。 相似文献
347.
崔靖梓 《法律科学-西北政法大学学报》2019,(3)
基于大数据和人工智能的算法服务日益扩大,算法正以一种悄然又迅猛的方式渗透于我们的日常生活和社会运转之中。算法并不是客观的,它会以算法歧视的形式给传统的平等权保护带来危机,包括平等理念危机、歧视识别危机和平等权保护模式危机。危机的根源在于算法权力正在逐渐形成一种“准公权力”,使得传统的权力格局发生了权力主体去中心化、权力作用范围的延展化和权力互动的双向化之变迁;而算法设计的效率导向、作为算法运行基础的数据之偏差与算法黑箱造成的透明度缺失共同触发了算法歧视。为了应对平等权保护危机、破解算法歧视的谜题,从法律体系外部框架切入的大破大立研究与立基于法律体系内部的精致作业同时进行,推动人工智能时代法律的自觉型发展以规制算法歧视、保障平等权就显得尤为必要。我们可通过建构人工智能学习权和借鉴美国平等权保护领域中的差别性影响标准以识别算法歧视,同时采用法律与代码相结合的双重保护模式,把握平等权保护与科技创新之间的平衡。 相似文献
348.
《北方法学》2021,(2):137-145
法治必须学会对接人工智能和算法。如何面对经由算法的法治、如何达至算法正义,将成为未来时代法治进化的核心主题。在人工智能时代,算法不再仅仅是一种单纯的数学工具和一般的技术应用,它将成为一种调和法治内在结构与机理的本质性力量,即成为未来法治世界中的隐形运行秩序。算法注入法治、改变正义将是根本性的,对法治的助力和对正义的彰显又具有显著优势。面对这场技术革新,中国法学需要作出理论回应与学术设计,为已经到来的算法法治与算法正义构建理论基础,寻找与算法对接的切口,获得与人工智能保持某种契合的力量,以此形成作用于社会治理的合力,进而完成法治现代化的转型。 相似文献
349.
受益于大数据、人工智能等信息技术的快速发展,行政裁量数字化在政务服务的不同场景中得到应用,发挥着辅助决策的功能.行政裁量数字化具有提升裁量结果一致性的技术优势,然而也潜藏着风险,裁量的个案正义可能受到侵蚀.裁量的格式化与特定个案之间始终处于一定的张力之中,数字化裁量所代表的技术理性容易诱发执法者的路径依赖,数字化行政可能引发裁量控制程序逃逸.行政裁量的载体变化,预示着裁量治理的理念转换:通过法律保留框定行政裁量数字化的适用范围,以技术正当程序构建数字化裁量的外部沟通方式,以系统控制程序促进数字化裁量的内部人机融合,进而构建数字化裁量过程的人机协同机制. 相似文献
350.
智能量刑算法的司法适用,既推动了我国传统司法的结构性转向,又开拓了"同案同判"的技术化裁判路径.这主要归功于智能量刑算法的主体性逻辑、量化规范逻辑以及经验规范逻辑.但结合当前的司法实践与社会反馈却发现,暗箱裁判、算法歧视并非当前智能量刑算法司法适用的最大难题,反而是公众的可接受性、经验归纳的周延性以及"系统性偏差"等难题极大地困扰着算法裁判的实践效果.为了更好地推动智能量刑算法的司法适用,我国应在现行司法程序的基础上,建立司法听证程序、算法选择程序、算法判决申诉程序,并面向三类刑事变通事项建立主审法官的伴随性审查程序,以消除智能量刑算法的技术性缺陷. 相似文献