首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   439篇
  免费   16篇
各国政治   2篇
工人农民   2篇
世界政治   12篇
法律   198篇
中国共产党   15篇
中国政治   134篇
政治理论   34篇
综合类   58篇
  2024年   24篇
  2023年   86篇
  2022年   49篇
  2021年   64篇
  2020年   36篇
  2019年   42篇
  2018年   5篇
  2017年   3篇
  2016年   4篇
  2015年   8篇
  2014年   13篇
  2013年   24篇
  2012年   8篇
  2011年   9篇
  2010年   10篇
  2009年   10篇
  2008年   16篇
  2007年   10篇
  2006年   9篇
  2005年   7篇
  2004年   5篇
  2003年   4篇
  2002年   2篇
  2001年   2篇
  1999年   3篇
  1996年   1篇
  1994年   1篇
排序方式: 共有455条查询结果,搜索用时 31 毫秒
431.
就业性别歧视对女性求职者受宪法所保护的平等权、劳动权造成现实的侵害风险。对就业性别歧视判定标准问题,学界已有较为丰富的研究,但传统判定标准在算法时代遭遇适用困境。算法掩盖下的就业性别歧视具有自主性、隐蔽性、延续性和结构性等特征,这不仅可能对求职者的权利主张造成过重的举证负担,亦无法解决算法供应商等第三方主体的归责问题。因此,应当从事前与事后两个维度,探讨对算法就业性别歧视进行有效规制的路径。在概念界定上,应通过扩充就业性别歧视概念的外延,将算法就业性别歧视纳入到反歧视法的规制范围内,使新加入的算法供应商等第三方主体参与到责任分担过程。通过在算法决策过程中引入技术性正当程序理论及其机制框架,搭建起权力主体配合下的“理解—参与”模式,借助合规审计追踪、算法解释等方式,有效控制算法就业性别歧视的风险,保障女性求职者平等权和人格尊严等权益。  相似文献   
432.
程乐 《政法论丛》2023,(4):69-80
以ChatGPT为代表的生成式人工智能技术落地与大规模应用,改变了人类与人工智能的传统交互模式,对社会生产方式产生了重大变革。国际国内都出现了对人工智能主体地位及法律规制等方面的学术探讨,以应对生成式人工智能引发的伦理道德、知识产权保护、隐私与数据保护、市场垄断、网络犯罪和数据安全等一系列风险。在现阶段,我国生成式人工智能治理,应坚持安全与发展相平衡的理念,在以人为本的原则统领下设计人工智能伦理准则,推动构建以通用人工智能立法为基础,以生成式人工智能专门性管理办法为补充,以既有法律规范为根本的系统性人工智能法律规范体系。  相似文献   
433.
自动化行政作为一项新型行政活动方式,因其运行机理的特殊性,加之理论研究的薄弱,在司法实践中出现“不愿审查”“形式审查”和“审查不能”等问题,因而备受争议。本文基于自动化行政的运行机理,提炼总结出主体、内容和程序等三方面合法性审查要件之特殊性,并分析了实施合法性审查的对象范围。司法裁判应跳出传统行政行为的固有审查逻辑,秉持“功能主义”“行政过程论”和“人类中心主义”的理念,在厘清自动化行政各方主体的角色定位与责任划分之前提下,坚持对自动化行政决策过程进行整体性审查。为避免对自动化行政造成过度冲击,在个案裁判中还应当引入利益衡量机制、拓宽变更判决的适用范围。  相似文献   
434.
非羁码系为了弥补传统审前非羁押措施的不足、依托大数据算法而产生的新型替代性羁押措施。分析《对刑事诉讼非羁押人员开展数字监控的规定》,发现非羁码仅作为监视居住和取保候审的技术性辅助手段,缺乏对犯罪嫌疑人、被告人个人信息保护的考量。基于刑事诉讼法有关强制措施适用的基本原则和个人信息保护法关于个人信息保护的制度和理念,以个人信息保护为重心,夯实非羁码的基础法理,明确其使用过程中所涉个人信息保护的范围和对象,健全非羁码有效实施的制度体系,以此实现非羁码制度的合法性、合理性和实践正当性。  相似文献   
435.
算法行政作为一种新型的政府购买服务,其隐秘性、自主决策性、多元主体间行为的不可分性给传统责任框架造成了巨大挑战,可能产生责任鸿沟与治理缝隙。现有治理体系多采取主体行为协同、责任分离的逻辑,容易导致责任逃逸与代理洗白等问题,理想型意义上的穿透式责任面临集合行为与科层制难以穿透的实施困境,因此提出分布式责任对二者进行调和。分布式责任有较为严格的前置适用条件,可视为疑难案件的有效解决方案。分布式责任意味着从中心式的控制风格向全流程参与式问责的转换,在无法明确主观故意的算法致害中实现了对多主体间共同责任的简化。  相似文献   
436.
周翔 《比较法研究》2023,(3):188-200
算法可解释性,是被现有算法规制理论所忽略的技术概念。由于缺乏对这一概念的引入和诠释,算法风险的准确判断与归纳、规制工具的主次位阶性、设置合理的规制效果目标等方面,均存在不同程度的认识偏差。对这一概念的技术视角分析确有必要,算法解释有两大差异较大的技术类型,算法解释的技术能力划定了可解释的最大边界,当前技术条件不一定满足算法规制的需求,原因是解释技术的开发并不是为算法规制专门设计的。这一论断有助于厘清既有的算法规制理论,在算法风险层面,解释技术直接破解的只是算法黑箱问题;在规制工具层面,一切制度工具应考虑解释技术的可行性;在规制目标层面,要结合解释针对的用户、场景和用途设置预期。  相似文献   
437.
数字时代的宪法监督本质上仍然是一种价值维护机制。数字技术的发展让算法产生了类似法律的规制作用,这种规制作用加深了政府公权力对基本权利的干预程度,同时让大型公司和平台成为了事实上的社会性权力。然而,算法自身的规制功能和法律层面的监督无法克服公权力和社会性权力运行中产生的“数字鸿沟”“算法歧视”“信息茧房”等问题,解决这些问题仍然需要宪法层面的监督。数字时代的宪法监督要维护社会主义原则和基本权利客观价值秩序,以特定问题调查权和合宪性问题专项报告机制为制度依托,实现宪法监督从针对文本的合宪性审查到全方位监督的转变。  相似文献   
438.
公共机构适用算法进行决策对国家治理能力有明显赋能,但可能对个人权利的保障带来新的挑战。既有的算法规制多侧重正当程序的控制,缺乏公共决策适用算法技术的实体边界。尽管各国对算法技术应用于公共决策的实体边界尚未有相对一致的规范,但传统法律保留原则仍可成为思考这一问题的基本框架。法律保留确定了公共决策适用算法时“原则禁止,例外允许”的关系模式,也科以立法者在政府效能与权利保护之间的具体权衡义务。基本权利保障、风险的可控性、价值判断和自由裁量作为禁区以及算法类型和所涉数据等都应成为法律可否例外授权的考虑因素。有效的算法影响评估制度作为有助于划定决策边界的预防性手段,同样可在源头处补强算法纳入公共决策的民主性和可问责性。  相似文献   
439.
在智能化浪潮下,检察监督正发生着由案件监督向数据监督转变、事后监督向全程监督转变、人力监督向算法监督转变的内嵌式变革,其中也存在着诸多发展隐忧,具体表现为数据共享的实现困境、全程监督的潜在危机与算法运用的公正遮蔽。执法司法数据共享是检察监督智能化的前提,需要从数据共享规则设计、数据共享平台建设、数据共享实施保障等方面进行机制建构。检察监督智能化应采取以行政违法行为的智能化线索挖掘、立案侦查和刑罚执行的智能化审查、司法裁判的智能化类案监督为主要应用场景的“场景式监督”,并通过算法歧视的防范与修正、算法公开与解释、全过程的算法参与、算法责任追究等方式展开技术正当程序规制。  相似文献   
440.
第三次分配对于实现全体人民共同富裕的目标有重要意义。当前,我国第三次分配实践过程中面临主体认知与参与范围有限、实践与制度安排协调不足、主体偏好与差异难以协同等困境,而算法给予了第三次分配新的实践选择和实现机遇。本文构建了算法赋能第三次分配的三层逻辑框架,阐释了算法技术与第三次分配在价值逻辑、实践逻辑和主体逻辑上的契合性,二者结合有助于促进第三次分配的发展并规制算法,促进效率与公平的实现。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号