全文获取类型
收费全文 | 499篇 |
免费 | 15篇 |
国内免费 | 1篇 |
专业分类
各国政治 | 2篇 |
工人农民 | 2篇 |
世界政治 | 14篇 |
法律 | 225篇 |
中国共产党 | 24篇 |
中国政治 | 153篇 |
政治理论 | 34篇 |
综合类 | 61篇 |
出版年
2024年 | 24篇 |
2023年 | 97篇 |
2022年 | 91篇 |
2021年 | 70篇 |
2020年 | 37篇 |
2019年 | 42篇 |
2018年 | 5篇 |
2017年 | 3篇 |
2016年 | 4篇 |
2015年 | 8篇 |
2014年 | 13篇 |
2013年 | 24篇 |
2012年 | 8篇 |
2011年 | 9篇 |
2010年 | 10篇 |
2009年 | 10篇 |
2008年 | 16篇 |
2007年 | 10篇 |
2006年 | 9篇 |
2005年 | 7篇 |
2004年 | 5篇 |
2003年 | 4篇 |
2002年 | 2篇 |
2001年 | 2篇 |
1999年 | 3篇 |
1996年 | 1篇 |
1994年 | 1篇 |
排序方式: 共有515条查询结果,搜索用时 15 毫秒
461.
刘佳明 《天津行政学院学报》2022,(5):87-95
算法对整个社会尤其是对公民具有较强的影响力和控制力。私营主体通过对算法程序的开发和设计有助于提升行政管理的社会化水平,弥补行政机关专业性知识的不足。但其对技术的垄断和控制也容易遭到滥用,算法程序设计的私营化程度越高,其权力滥用的机会就越大。除了借助市场竞争机制和传统私法规范约束私营主体之外,有必要引入公法的价值和原理对算法行政的私法化发展进行适度干预。行政机关采用私营主体设计的算法程序之时,应当遵循法律优先和法律保留的基本原则。立法机关应制定专门的法律法规来对算法行政的程序设计进行指引,通过建立专业的算法审查规制主体来对程序设计进行监管,以确保设计主体的可问责性。私营主体设计算法行政程序应遵循基本的程序正义要求,保证算法不偏离法治轨道,以确保算法程序设计的合法性和正当性。 相似文献
462.
463.
许亚飞 《安徽警官职业学院学报》2022,(3):34-38
算法是人工智能的核心,随着算法应用场景的扩大,算法歧视问题日益突出。通过梳理算法歧视的概念和表现形式,分析算法歧视的类型,将法律规制的重点落在深度学习的算法歧视上面,以算法公平为基本原则,从数据和算法两个角度对算法歧视进行规制,并建立算法问责制度以应对算法歧视的危害结果,从而减少算法歧视的产生。 相似文献
464.
赵希午李敏 《中共山西省委党校学报》2023,(3):113-117
算法使人机共存的网络世界进一步融合,搭建了主流意识形态传播新平台,助推主流意识形态传播内容精准化和传播形式多样化,提升了主流意识形态的宣传成效。然而,日渐强大的算法技术暗藏着意识形态安全风险,如算法黑箱阻碍主流意识形态的传播、算法偏见削减主流优质内容的供给、算法沉迷干扰主流价值观念的形成等,对主流意识形态传播带来严峻挑战。鉴于此,应建立政府、企业、个人多方参与、多向交流、多元治理的协同工作体系,推动算法技术为主流意识形态传播提供更好的服务。 相似文献
465.
自动化决策算法应受知识产权保护的正当性,可以通过功利主义的激励论与对价论予以证成。但现有知识产权制度中的确权模式与客体审查规则却不能容纳自动化决策算法成为知识产权之客体。“保证公开”与“确认保密”的既有知识产权确权模式妨碍算法监管。同时,算法客体属性决定了其难以在知识产权制度中完成客体识别。通过建构注册算法专有权制度对自动化决策算法予以知识产权保护,且能够协同促进算法监管。具体而言,首先,注册算法专有权制度可凭借注册制,满足知识产权确权与多元化社会监管对信息披露的差异化需求。其次,以注册制为手段,实施自动化决策算法社会化利用管制,可帮助专有权人对自动化决策算法社会化利用行为进行专有控制。最后,注册算法专有权制度以专有性权利为对价换取知识公开,能够有效促进算法知识信息的传播。 相似文献
466.
“网约工”由于身份属性多元不能全部被认定为劳动者,现有的劳动法机制无法完全解决平台用工中算法管理和数据处理带来的新问题,所以需要另辟蹊径,探索通过数据法保护其劳动权益。为了保障算法透明,设置平台算法信息披露义务有其必要性。预防算法压榨则需将“网约工”的劳动权益保障作为算法的核心指标,并提供工作条件影响评估等制度支持。而应对算法歧视,不仅要从算法设计入手,避免对“网约工”的透视,还需要有对重大决策的人工干预和审查机制。平台用工的整个过程伴随着各种“网约工”个人信息的处理行为,“网约工”可通过主张各项数据权,包括就“黑箱”行使知情权和算法解释权、就违法差评行使删除权、就用户评价行使可携带权、就证据材料行使查阅复制权,依法与平台抗衡。 相似文献
467.
生成式人工智能技术塑造了人机共生的新型关系,不能简单等同于深度合成技术、智能交互技术、高风险人工智能。新型的人机关系中,既存在人的自主性危机,也有被放大的人工智能治理风险。在风险应对的逻辑中,生成式人工智能的定位应从“老师”转向“伙伴”,不应对服务提供者提出过高要求并作简单的结果评价;同时,应将治理维度从算法治理拓展到用户治理之中。在具体的治理路径上,首先应坚持包容审慎原则,设置过程义务及对应的责任豁免规则;其次,在高风险场景中,应持续进行风险影响评估、充分保证人类监督并提升算法透明度;最后,应通过伦理审查、行业自律、数字素养提升的伦理治理方案以捍卫人的自主性。 相似文献
468.
469.
算法的实践性包含算法的“物质—能动性”、算法关联行动者的使用文化和算法实践的后果三个方面的内容。通过考察“数字灵工”的算法实践可以发现,推荐算法具有数据依赖性、平台化和个性化特征,差异化的推荐列表展现的算法能动性,勾勒出以算法主导的内容可见性管理逻辑。“数字灵工”通过多元的算法知识来源和跨平台的媒介使用,形成了不同模式的算法感受和行动策略,揭示出用户与算法之间的互动逻辑。算法实践带来的主体不确定性后果及其对算法建构的影响,体现了算法与使用者之间的相互建构。算法实践的“互构性”为迈向算法的多维治理提供了新思路。 相似文献
470.
“深度伪造”是一种基于深度学习的内容合成技术,具有高度真实和简易操作的技术特征。“深度伪造”虽然在教育、医疗、文创和娱乐等领域具有极大的应用价值,但其潜在风险也给公民隐私、社会秩序和国家安全带来巨大隐患和威胁。当前“深度伪造”的法律规制主要秉持“技术—经济”范式,而相对忽视了技术和资本对社会及公民的负面影响,导致现有规制体系存在监管缺位、责任不明、技术异化等问题。“深度伪造”技术的协同规制要跨入“技术—经济—社会”新范式,需要构建和完善“深度伪造”技术的新规制体系,即底层个人生物识别信息要合法使用,中层“深度伪造”算法须合规审查,上层“深度伪造”应用场景应具有合理限度。 相似文献