全文获取类型
收费全文 | 503篇 |
免费 | 15篇 |
国内免费 | 1篇 |
专业分类
各国政治 | 2篇 |
工人农民 | 2篇 |
世界政治 | 14篇 |
法律 | 226篇 |
中国共产党 | 24篇 |
中国政治 | 149篇 |
政治理论 | 35篇 |
综合类 | 67篇 |
出版年
2024年 | 24篇 |
2023年 | 97篇 |
2022年 | 93篇 |
2021年 | 71篇 |
2020年 | 37篇 |
2019年 | 42篇 |
2018年 | 5篇 |
2017年 | 3篇 |
2016年 | 4篇 |
2015年 | 8篇 |
2014年 | 13篇 |
2013年 | 24篇 |
2012年 | 8篇 |
2011年 | 9篇 |
2010年 | 10篇 |
2009年 | 10篇 |
2008年 | 18篇 |
2007年 | 11篇 |
2006年 | 9篇 |
2005年 | 5篇 |
2004年 | 6篇 |
2003年 | 2篇 |
2002年 | 1篇 |
2001年 | 3篇 |
1999年 | 4篇 |
1996年 | 1篇 |
1994年 | 1篇 |
排序方式: 共有519条查询结果,搜索用时 15 毫秒
261.
算法技术已借助大数据技术被广泛应用,成为影响人们日常生活的重要角色,其也因技术中立性不断遭受现实挑战而呈现出事实上的歧视性。重新审视算法歧视及其治理路径是发挥算法积极作用、避免算法消极影响的重要前提。传统伦理观念影响下的算法歧视治理模式存在价值观念偏航、治理结构失衡及技术治理落后的问题,影响算法歧视治理实效。社会发展促进了伦理观念的革新,积极伦理观的树立可以为算法技术向善的实现提供理论指引。算法治理结构的优化及反歧视技术水平的提高是纠正算法歧视的重要前提,理念、制度及技术三维措施的综合运用方可在算法领域实现科技向善的伦理目标。 相似文献
262.
每一种传播机制的出现,都在信息传播容量和传播速度上实现数量级的提升,对旧有传播格局形成颠覆性冲击。基于人工智能、心理学和控制论等基础学科之上的算法认知战,其底层逻辑依然是社会信息传播机制和范式的变革。本文系统梳理与总结算法认知战的表现、效果和特点,从全球社会信息传播变革的视角展开分析研究,总结运作机制,研判未来趋势。 相似文献
263.
伴随着算法日益介入人类社会生活,被算法不透明所遮蔽的算法不公平问题日趋严重,特别是在算法被应用于公权力行使的场合,它加剧了社会不平等、侵害个人权利等问题。沿着算法促进社会正义的逻辑,本文着重对算法公平的方法论变革进行了刻画。首先,通过探究“公平的不可能性”的基本内涵与核心范畴,以算法公平的概念图式及其类型为阐释思路,归纳导致算法运行陷入“公平的不可能性”的现实困境。其次,从法律与哲学的视角出发,指出形式算法公平方法论无法在具有关系性与结构性不平等的政策环境中促进公平与正义,进一步突出了形式算法公平在应对“公平的不可能性”困境时的局限性。最后,实质性算法公平方法论作为一种替代方案,能够从更广泛的范围或框架中分析不公正问题,超越“公平的不可能性”困境,为治理和规约算法偏见提供了必要的方法论指引和行动指南。进而,实质性算法公平为算法公平的实现提出新的路径选择:摒弃旧的“公平”决策的形式数学模型,积极转向对算法是否以及如何在实践中促进正义的实质性评估。 相似文献
264.
数字经济时代,对消费者的“算计”无处不在。算法推荐技术通过收集海量消费者数据建立消费者用户标签,进而向消费者输出信息服务。在此过程中,消费者可能会因数据被过度收集,导致个人信息与隐私泄露;可能会因算法歧视导致公平交易权受损;也可能会因被滥用了用户标签,导致自主选择权受到侵扰;更可能会因算法的不透明,致使知情权遭受损害。为应对算法对消费者权益带来的冲击,域外采取了诸如数据赋权、建立算法影响评估报告等措施进行规制。与之对应的,我国以《中华人民共和国消费者权益保护法》和《互联网信息服务算法推荐管理规定》为规范基础,通过落实消费者数据与个人信息保护机制、建立算法协同治理路径、设置消费者权益保护制度和构建算法评估制度等措施,规范算法推荐技术,维护网络信息服务生态。 相似文献
265.
算法决策正成为“互联网+税务”以及智慧税务建设的一部分,一方面它提升了税收征管的效率,另一方面受算法规则不透明、“黑箱”属性以及难于解释等因素的影响,国家税权呈现扩张趋势。纳税人的基本权利,如知情权、陈述与申辩权以及救济权在一定程度上受到侵害。我国《个人信息保护法》规定了自然人对算法的解释权,但这在税收征管领域因双方主体地位不平等而难以直接适用。为此,可以引入税权均衡理论,考量如何在算法自动化决策场景下,平衡纳税人税权与国家税权的关系,并通过权利制约权力、权力制约权力、纳税人救济制度三个方面对其进行回应。 相似文献
266.
加强对人工智能司法发展及风险的研究是时代课题,其中人工智能司法的可解释性困境尤为关键。人工智能司法可解释性指的是司法决策或行为的可理解与透明性,涉及基础数据、目标任务、算法模型以及人的认知这四类关键要素。不可解释困境主要是由数据失效、算法黑箱、智能技术局限、决策程序和价值缺失等因素所致。但是,人工智能司法的不可解释困境其实是一个伪命题,可解释性具备认知层面和制度层面两方面基础。纾解困境的具体策略包括:构建司法信息公开共享制度,提高有用数据的甄别与利用效率;从软硬法结合视角建构司法系统的运行标准与制度规则;从全过程视角强化主体之间的协同治理;通过指导性案例和司法解释赋权法官的司法解释空间,提高法律解释技术;强化交叉学科人才建设,提高对人工智能司法决策模型的引领;发挥法官的自律与能动性,实现司法智能决策的人机协同。未来,不仅需要把握司法价值与技术理性的平衡,还需考虑人工智能对司法的差异化介入,推动人工智能司法战略目标实现。 相似文献
267.
人工智能的发展让经营者基于消费者信息精准预测其支付意愿从而进行价格歧视成为可能。从经济学角度,算法价格歧视能够提高静态效率,且在特定市场条件下,能够促进动态效率,提升消费者福利。然而,如果科技巨头利用价格歧视滥用市场支配地位,可能会产生排他性和剥削性效果,引发反垄断担忧。因此,是否对其规制以及如何规制需要反垄断执法机构从法和经济学角度综合权衡。我国《反垄断法》及其配套规范为监管数字垄断市场上的价格歧视提供了事后救济路径,而《价格法》等作为反垄断规制的补充,通过价格调控、个人信息保护和消费者权益保护方式,为规范竞争市场上的违法价格歧视提供事前监管路径。该监管体系为解决数字市场上价格歧视反垄断担忧提供了理论上的可能,但执法效果仍需实践检验。 相似文献
268.
徐海琳 《江苏警官学院学报》2006,21(5):154-157
数字水印技术为多媒体版权保护提供了一种崭新的方法。根据多媒体版权保护的目的和要求,嵌入多媒体数据的数字水印应具有较强的鲁棒性。作为实现静态图像的一种基于m-序列的DCT变换域数字水印算法,具有较强的鲁棒性。 相似文献
269.
人工智能技术给各行各业带来了新的可能和挑战,其在传媒领域的应用以及传媒技术自身的快速迭代给传媒人带来了前所未有的焦虑。从人工智能发展进路来看,无论是模仿人类思维而生还是进行深度学习的智能增强,人工智能本质仍然是人类用来延展和实现人类目的的技术手段,是一种工具理性的存在,而人类对待其的不同态度彰显人作为主体的价值理性判断,需要用沟通理性来达成两者的和谐统一。 相似文献
270.
自动决策算法既属于专业技术,又具有赋能属性,可以和既有技术相结合催化新的应用技术和场景。与之相应,立法认识论既要注意到自动决策算法作为科学技术内含的伦理性风险,同时也需要识别不同应用场景中的复数价值以及利益冲突。为了规范内生性科技风险,立法应当根据风险程度强化对算法活动的程序性控制,确立记录和报告义务,细化算法风险评估规则,完善以个人信息保护负责人为核心的二元监管体系。为了管控因赋能导致的衍生性应用风险,立法一方面应当强调人的主体性,另一方面应根据各类应用场景中的利益顺位,灵活配置权利。我国个人信息保护法规定的算法解释权在公共管理领域和商业领域意义不同,相应的规则应有能力区分公权力应用与商业应用以及是否包含知识产权等不同场景;算法结果拒绝权旨在实现个人利益、商业利益和公共利益之间的平衡,应通过例外规则保持制度弹性。如果自动决策算法在公共管理和特殊社会治理领域中的应用可能带来高风险,法秩序应施加更多的应用要求或限制,以防止算法赋能导致原有秩序功能异化。 相似文献