首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   720篇
  免费   21篇
  国内免费   2篇
各国政治   6篇
工人农民   5篇
世界政治   18篇
外交国际关系   3篇
法律   250篇
中国共产党   60篇
中国政治   219篇
政治理论   78篇
综合类   104篇
  2024年   27篇
  2023年   94篇
  2022年   52篇
  2021年   70篇
  2020年   41篇
  2019年   49篇
  2018年   8篇
  2017年   8篇
  2016年   9篇
  2015年   17篇
  2014年   28篇
  2013年   46篇
  2012年   22篇
  2011年   21篇
  2010年   30篇
  2009年   37篇
  2008年   38篇
  2007年   35篇
  2006年   28篇
  2005年   18篇
  2004年   12篇
  2003年   9篇
  2002年   15篇
  2001年   9篇
  2000年   6篇
  1999年   7篇
  1998年   4篇
  1996年   1篇
  1994年   1篇
  1993年   1篇
排序方式: 共有743条查询结果,搜索用时 412 毫秒
691.
王倩 《法学》2023,(11):155-170
“网约工”由于身份属性多元不能全部被认定为劳动者,现有的劳动法机制无法完全解决平台用工中算法管理和数据处理带来的新问题,所以需要另辟蹊径,探索通过数据法保护其劳动权益。为了保障算法透明,设置平台算法信息披露义务有其必要性。预防算法压榨则需将“网约工”的劳动权益保障作为算法的核心指标,并提供工作条件影响评估等制度支持。而应对算法歧视,不仅要从算法设计入手,避免对“网约工”的透视,还需要有对重大决策的人工干预和审查机制。平台用工的整个过程伴随着各种“网约工”个人信息的处理行为,“网约工”可通过主张各项数据权,包括就“黑箱”行使知情权和算法解释权、就违法差评行使删除权、就用户评价行使可携带权、就证据材料行使查阅复制权,依法与平台抗衡。  相似文献   
692.
生成式人工智能技术塑造了人机共生的新型关系,不能简单等同于深度合成技术、智能交互技术、高风险人工智能。新型的人机关系中,既存在人的自主性危机,也有被放大的人工智能治理风险。在风险应对的逻辑中,生成式人工智能的定位应从“老师”转向“伙伴”,不应对服务提供者提出过高要求并作简单的结果评价;同时,应将治理维度从算法治理拓展到用户治理之中。在具体的治理路径上,首先应坚持包容审慎原则,设置过程义务及对应的责任豁免规则;其次,在高风险场景中,应持续进行风险影响评估、充分保证人类监督并提升算法透明度;最后,应通过伦理审查、行业自律、数字素养提升的伦理治理方案以捍卫人的自主性。  相似文献   
693.
当前,关于人工智能规则的讨论主要是两个视角,一是站在哲学和公共管理层面,从理论上对人工智能的发展进行研究;另一个则是站在纯粹的技术层面,从技术规则上讨论人工智能的应用。而目前全球各国或国际组织出台的准则也比较宽泛,无法形成有效的指导。本文抽象出了人工智能的运行逻辑,根据人工智能运行的侧重点不同将人工智能应用分为以数据为核心、以算法为核心和以行动为核心三类,并基于此构建人工智能运行的规则框架,提出人工智能伦理规则的具体内容。  相似文献   
694.
算法的实践性包含算法的“物质—能动性”、算法关联行动者的使用文化和算法实践的后果三个方面的内容。通过考察“数字灵工”的算法实践可以发现,推荐算法具有数据依赖性、平台化和个性化特征,差异化的推荐列表展现的算法能动性,勾勒出以算法主导的内容可见性管理逻辑。“数字灵工”通过多元的算法知识来源和跨平台的媒介使用,形成了不同模式的算法感受和行动策略,揭示出用户与算法之间的互动逻辑。算法实践带来的主体不确定性后果及其对算法建构的影响,体现了算法与使用者之间的相互建构。算法实践的“互构性”为迈向算法的多维治理提供了新思路。  相似文献   
695.
“深度伪造”是一种基于深度学习的内容合成技术,具有高度真实和简易操作的技术特征。“深度伪造”虽然在教育、医疗、文创和娱乐等领域具有极大的应用价值,但其潜在风险也给公民隐私、社会秩序和国家安全带来巨大隐患和威胁。当前“深度伪造”的法律规制主要秉持“技术—经济”范式,而相对忽视了技术和资本对社会及公民的负面影响,导致现有规制体系存在监管缺位、责任不明、技术异化等问题。“深度伪造”技术的协同规制要跨入“技术—经济—社会”新范式,需要构建和完善“深度伪造”技术的新规制体系,即底层个人生物识别信息要合法使用,中层“深度伪造”算法须合规审查,上层“深度伪造”应用场景应具有合理限度。  相似文献   
696.
张琳琳 《当代法学》2023,(5):100-111
人工智能在司法裁判领域中的应用对于提高司法效率、促进司法公正具有显著效果。然而,新技术与传统审判领域的碰撞融合不可避免地冲击着原有的审判责任与产品责任体系。在责任的衔接、认定和承担方面存在着责任衔接链条中断、主观心理判断困难、因果关系证明困难以及责任推诿加剧的困境。责任归结困境的形成源于算法权力对审判权的冲击、主体自身存在卸责倾向、算法的固有缺陷等因素。破解当前人工智能司法应用中的责任归结困境的出路在于理顺不同责任之间的衔接。在此基础上,针对责任认定困难和责任推诿加剧的具体情况,对原有责任框架进行调适。  相似文献   
697.
朱婉菁 《探索》2023,(2):64-75
算法激化了数字劳动在经验发生与理论建构之间的张力,这一结构性冲突要求对数字劳动批判性和经验性的注意力,需要集中到对算法正义的实现策略上。数字劳动在“算法神话”的加持下被构建为一种超越工业劳动的时代产物,同时也陷入了劳动异化的困境,而从作为人类存在方式的技术中寻求解决困境的可能性成为一条值得期待的重要道路。区块链能够以规则内嵌与监管外控两种技术进路实现对算法的有效规制,并通过价值共享、主体性复归以及监管与自主的平衡这三种策略,实现数字剩余价值的再分配、数据生产关系的重构以及劳动情境的透明化。这不失为一种既“下通”技术演进的社会选择,又“上达”技术政治规则顶层创新的治理之道。最终,作为一种“负责任的中介”,区块链对数字劳动异化的矫正推动算法正义的实现。  相似文献   
698.
彭兰 《人民论坛》2023,(17):42-47
数字时代的新生存特征,既体现为数字化生存,也体现为数据化生存。数字化生存是人们在虚拟空间中主动用数字化符号进行的自我塑造,随着技术的发展,人们历经了文字化生存、视觉化生存和化身式生存等不同的形态,数字化生存与现实生存之间也存在着远与近的摇摆。数据化生存是人们的现实生活及虚拟生活被各种技术转换为数据的新生存状态,特别是在数据与算法的共同作用下,数据化也意味着人被数据所控制和塑造。今天,人们同时经历着数字化生存与数据化生存两种状态,这两者相互纠结,共同建构着数字自我。  相似文献   
699.
常鑫 《政治与法律》2023,(4):97-112
UBI车险通过监测驾驶人的驾驶里程以及驾驶行为从而判定个体驾驶人的风险水平进而确定保险费率。此种“一车一价”的保险费定价方式,是保险法“对价平衡原则”的进一步实现。传统保险法律制度中的潜在风险能够在UBI车险中得到抑制,UBI车险能够挑选出更加安全的驾驶人以及激励驾驶人做出更加安全的驾驶行为,是更加公平的保险险种。从法律上看,UBI车险的潜在风险包括个人信息保护风险、定价规则不透明风险、引发反向逆向选择风险等。未来我国法对UBI车险的规制方案主要包括使UBI车险仅限于商业保险、改造风险信息披露规则、加强保险消费者保护、加强个人信息保护以及建立算法审查评议机制。  相似文献   
700.
彭诚信 《中国法学》2023,(1):85-106
数字法学是研究数字社会中可数字化之客体、行为及相关权利义务关系的学科。其前提性命题是数字社会的存在、对数据(含个人信息)的算法处理以及数字伦理对算法的约束,而作为数字社会物质基础的数据及其上的基本法律问题,如个人信息的客体属性、权益属性、权利归属等,构成了数字法学的核心范式。个人信息客体属性、权益属性、权利归属的复合性及基于算法的可计算性特征,决定了数字领域法律关系的多元性、法律救济的特殊性。数字法学的这些特征决定了不能简单将其定性并归入线下社会的某一部门法,而应定位为纵(公法、私法)横(国内法、国际法)兼具、横跨多个法部门的综合性、交叉性、融合性法学学科。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号