全文获取类型
收费全文 | 783篇 |
免费 | 8篇 |
国内免费 | 1篇 |
专业分类
各国政治 | 3篇 |
工人农民 | 3篇 |
世界政治 | 24篇 |
外交国际关系 | 4篇 |
法律 | 310篇 |
中国共产党 | 76篇 |
中国政治 | 214篇 |
政治理论 | 45篇 |
综合类 | 113篇 |
出版年
2024年 | 25篇 |
2023年 | 105篇 |
2022年 | 102篇 |
2021年 | 81篇 |
2020年 | 56篇 |
2019年 | 46篇 |
2018年 | 5篇 |
2017年 | 7篇 |
2016年 | 6篇 |
2015年 | 12篇 |
2014年 | 24篇 |
2013年 | 45篇 |
2012年 | 24篇 |
2011年 | 40篇 |
2010年 | 30篇 |
2009年 | 31篇 |
2008年 | 35篇 |
2007年 | 19篇 |
2006年 | 28篇 |
2005年 | 12篇 |
2004年 | 18篇 |
2003年 | 12篇 |
2002年 | 7篇 |
2001年 | 7篇 |
2000年 | 3篇 |
1999年 | 4篇 |
1998年 | 4篇 |
1997年 | 2篇 |
1996年 | 1篇 |
1994年 | 1篇 |
排序方式: 共有792条查询结果,搜索用时 15 毫秒
61.
自动驾驶汽车是人类研发、制造、使用和管理的智能产品,不是犯罪主体或刑事责任主体。在自动驾驶汽车自主控制状态下发生交通事故的,其生产者、使用者和其他人员难以按照我国现有刑法的罪名定罪处罚。除非道路交通安全法和刑法有专门的规定,驾驶位人员不接管汽车或接管后无力改变交通事故结果的,不构成交通肇事罪或其他管理过失犯罪。驾驶位人员的注意义务是阻止自动驾驶汽车自主控制下发生交通事故,其注意义务不应过高。允许的风险、紧急避险理论不能为自动驾驶汽车紧急路况处理算法的生产与应用提供合法、合理的解决方案,生产者遵守算法安全标准仅可以使生产行为合法化。鉴于现行刑法不适应自动驾驶汽车应用的特性,我国应当建立以生产者全程负责为中心的新刑事责任体系,使之在自动驾驶汽车生产和应用两个阶段承担安全管理责任,生产者拒不履行自动驾驶汽车应用安全管理义务且情节严重的,应当承担刑事责任。 相似文献
63.
“网约工”由于身份属性多元不能全部被认定为劳动者,现有的劳动法机制无法完全解决平台用工中算法管理和数据处理带来的新问题,所以需要另辟蹊径,探索通过数据法保护其劳动权益。为了保障算法透明,设置平台算法信息披露义务有其必要性。预防算法压榨则需将“网约工”的劳动权益保障作为算法的核心指标,并提供工作条件影响评估等制度支持。而应对算法歧视,不仅要从算法设计入手,避免对“网约工”的透视,还需要有对重大决策的人工干预和审查机制。平台用工的整个过程伴随着各种“网约工”个人信息的处理行为,“网约工”可通过主张各项数据权,包括就“黑箱”行使知情权和算法解释权、就违法差评行使删除权、就用户评价行使可携带权、就证据材料行使查阅复制权,依法与平台抗衡。 相似文献
64.
“深度伪造”是一种基于深度学习的内容合成技术,具有高度真实和简易操作的技术特征。“深度伪造”虽然在教育、医疗、文创和娱乐等领域具有极大的应用价值,但其潜在风险也给公民隐私、社会秩序和国家安全带来巨大隐患和威胁。当前“深度伪造”的法律规制主要秉持“技术—经济”范式,而相对忽视了技术和资本对社会及公民的负面影响,导致现有规制体系存在监管缺位、责任不明、技术异化等问题。“深度伪造”技术的协同规制要跨入“技术—经济—社会”新范式,需要构建和完善“深度伪造”技术的新规制体系,即底层个人生物识别信息要合法使用,中层“深度伪造”算法须合规审查,上层“深度伪造”应用场景应具有合理限度。 相似文献
65.
自动化决策算法应受知识产权保护的正当性,可以通过功利主义的激励论与对价论予以证成。但现有知识产权制度中的确权模式与客体审查规则却不能容纳自动化决策算法成为知识产权之客体。“保证公开”与“确认保密”的既有知识产权确权模式妨碍算法监管。同时,算法客体属性决定了其难以在知识产权制度中完成客体识别。通过建构注册算法专有权制度对自动化决策算法予以知识产权保护,且能够协同促进算法监管。具体而言,首先,注册算法专有权制度可凭借注册制,满足知识产权确权与多元化社会监管对信息披露的差异化需求。其次,以注册制为手段,实施自动化决策算法社会化利用管制,可帮助专有权人对自动化决策算法社会化利用行为进行专有控制。最后,注册算法专有权制度以专有性权利为对价换取知识公开,能够有效促进算法知识信息的传播。 相似文献
66.
算法的实践性包含算法的“物质—能动性”、算法关联行动者的使用文化和算法实践的后果三个方面的内容。通过考察“数字灵工”的算法实践可以发现,推荐算法具有数据依赖性、平台化和个性化特征,差异化的推荐列表展现的算法能动性,勾勒出以算法主导的内容可见性管理逻辑。“数字灵工”通过多元的算法知识来源和跨平台的媒介使用,形成了不同模式的算法感受和行动策略,揭示出用户与算法之间的互动逻辑。算法实践带来的主体不确定性后果及其对算法建构的影响,体现了算法与使用者之间的相互建构。算法实践的“互构性”为迈向算法的多维治理提供了新思路。 相似文献
67.
张爱军 《天津行政学院学报》2023,(2):45-53
资本、权力和权利是算法政治“三角”关系构成的基本要素。网民对算法政治编程、算法政治画像、算法政治建模、算法政治“瞄准”、算法政治推荐的无知使其在“三角”关系中处于相对弱势地位。政治权力与资本在算法上的运用,强化了“弱三角”关系。“弱三角”关系导致强化政治思维与弱化政治思维并存、强化政治价值与弱化政治价值并存、推动政治利益实现与阻碍政治利益实现并存、普及政治忠诚与固化政治圈层并存、算法黑箱与算法透明并存、精准投喂与算法失误投喂并存。应通过“强三角”构建、“强三角”粘连、“强三角”牵引、“强三角”移动建构“强三角”稳定型关系。 相似文献
68.
算法证据主要指通过算法对大数据进行分析后所产生的证据。在刑事诉讼中,算法证据面临的紧迫难题是其应不应该独立以及应该如何独立的问题。就算法证据的独立问题,目前学界主要存在“相对独立说”“反对独立说”和“完全独立说”等观点,但均存有不足。司法实践中的算法证据可分为基于案内大数据的算法证据和基于案外大数据的算法证据,它们与传统证据之间存在本质区别。法定证据种类制度虽有缺陷,但其的存在具有现实必要性。考虑到算法证据的复杂性及其规制方案的特殊性,建议在刑事诉讼法中将算法证据独立为一种新的法定证据类型,与鉴定意见并列,同时由相关部门制定有关算法证据的专门性司法解释,以保障其实质独立。 相似文献
69.
生成式人工智能技术塑造了人机共生的新型关系,不能简单等同于深度合成技术、智能交互技术、高风险人工智能。新型的人机关系中,既存在人的自主性危机,也有被放大的人工智能治理风险。在风险应对的逻辑中,生成式人工智能的定位应从“老师”转向“伙伴”,不应对服务提供者提出过高要求并作简单的结果评价;同时,应将治理维度从算法治理拓展到用户治理之中。在具体的治理路径上,首先应坚持包容审慎原则,设置过程义务及对应的责任豁免规则;其次,在高风险场景中,应持续进行风险影响评估、充分保证人类监督并提升算法透明度;最后,应通过伦理审查、行业自律、数字素养提升的伦理治理方案以捍卫人的自主性。 相似文献
70.
算法在提供诸多利好的同时,也产生了算法歧视和偏见、算法过度窥探个人隐私、算法推荐滥用、算法合谋实施垄断等算法失范现象。现阶段软法和硬法都通过相应路径对算法失范现象予以矫正,以期保障算法正义。算法正义的硬法保障路径虽对突出问题及时反应,但仍存在回应性不足、治理手段单一、规制成本较高等局限性。软法的开放性、灵活性、低成本等特点与算法正义高度契合,使算法正义的软法保障路径具有及时回应性、高度共治性、成本较低等优越性。鉴于现阶段软法保障路径较为原则化,建议从算法伦理审查中引入多方伦理审查机制、算法行业加强行业自律、软法文本增加权利激励内容等路径予以具化。同时提出,唯有软法和硬法相耦合的保障路径才能真正满足算法正义的实现需求。 相似文献