首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   2537篇
  免费   104篇
  国内免费   312篇
教育   1235篇
科学研究   690篇
各国文化   8篇
体育   128篇
综合类   84篇
文化理论   2篇
信息传播   806篇
  2024年   3篇
  2023年   23篇
  2022年   50篇
  2021年   73篇
  2020年   95篇
  2019年   42篇
  2018年   94篇
  2017年   98篇
  2016年   84篇
  2015年   100篇
  2014年   192篇
  2013年   189篇
  2012年   210篇
  2011年   241篇
  2010年   170篇
  2009年   160篇
  2008年   199篇
  2007年   192篇
  2006年   162篇
  2005年   134篇
  2004年   100篇
  2003年   90篇
  2002年   70篇
  2001年   65篇
  2000年   27篇
  1999年   27篇
  1998年   22篇
  1997年   13篇
  1996年   11篇
  1995年   3篇
  1994年   3篇
  1993年   2篇
  1992年   3篇
  1990年   2篇
  1989年   1篇
  1985年   1篇
  1982年   1篇
  1981年   1篇
排序方式: 共有2953条查询结果,搜索用时 15 毫秒
41.
电子资源使用评估与E-Metrics   总被引:5,自引:0,他引:5  
张玲  孙坦 《图书馆杂志》2005,24(3):24-27
E—Metrics项目是美国研究图书馆协会新评估计划的5个子项目之一。本文对E—Metrics项目的产生背景及发展历程进行较为详细的介绍,并对整个项目进行简要的评价。  相似文献   
42.
图书馆数字资源访问统计研究   总被引:10,自引:0,他引:10  
分析了国内外图书馆数字资源访问统计的研究现状,探讨了进行图书馆数字资源访问统计的方法,比较了数字资源访问统计的指标,并就目前我国图书馆数字资源访问统计存在的问题进行了讨论。  相似文献   
43.
电子资源服务绩效评估的含义及影响因素分析   总被引:12,自引:1,他引:12  
本文在对国内外研究现状分析的基础上,对电子资源服务绩效的含义与作用,以及其影响因素等进行了系统的分析。  相似文献   
44.
企业信息能力及其评价方法研究   总被引:16,自引:0,他引:16  
介绍了企业信息能力的基本概念,指出了企业信息能力评价的必要性与可行性,构建了企业信息能力评价的指标体系,分析了企业信息能力评价的具体研究方法,以期为企业信息能力的培养和提高提供理论和方法上的指导。  相似文献   
45.
期刊论文被引用及其Web全文下载的文献计量分析   总被引:31,自引:0,他引:31  
运用《中国学术期刊综合引证报告》及《中国学术期刊全文数据库Web下载统计报告》的文献计量数据分析了期刊论文网上下载频次的年代分布和被引用频次的年代分布,对比了它们的峰值(百分数)和峰值与统计年的年限差,得到“去年发表的论文被下载多,前年发表的论文被引用多,当年发表的论文下载频次与被引频次的比值高”这一规律性认识。研究了文献的网上下载频次分布和被引用频次的分布,对比了它们的集中系数。鉴于文献网上下载指标的排序与被引用指标的排序并不完全一致,建议将它们都作为独立指标在综合评价中予以适当考虑。  相似文献   
46.
介绍了国内外数字参考咨询服务质量评价体系的研究与应用概况。结合国家科学数字图书馆网络联合数字参考咨询服务的质量控制需要,在项目一期建设基础上选取部分指标建立了实际操作的评价体系,并制定了制度化的系统评价方案。  相似文献   
47.
网站规模是决定网站信息资源丰裕度和用户信息检索效率的重要因素,网站的字节数、总文件数、页面文件数和总链接数是目前用于衡量网站规模最重要的指标。本研究以美国101所著名商学院和医学院的网站,以及国内7所知名财经院校的网站为研究对象,通过对中、美网站以及美国商学院与医学院网站的比较分析,不仅明确了中、美网站在规模上的差异,更重要的是为大学网站建设和评价提出了具有重要价值的参考数据。  相似文献   
48.
对Altmetrics的发展过程及现状进行了较为系统的总结,主要包括Altmetrics工具的起源、危机和转型三方面,厘清Altmetrics工具的产生背景,系统阐释了其面对来自科学共同体内、外的质疑和挑战,采取的积极应答、改进和发展的具体策略。  相似文献   
49.
Altmetrics from Altmetric.com are widely used by publishers and researchers to give earlier evidence of attention than citation counts. This article assesses whether Altmetric.com scores are reliable early indicators of likely future impact and whether they may also reflect non-scholarly impacts. A preliminary factor analysis suggests that the main altmetric indicator of scholarly impact is Mendeley reader counts, with weaker news, informational and social network discussion/promotion dimensions in some fields. Based on a regression analysis of Altmetric.com data from November 2015 and Scopus citation counts from October 2017 for articles in 30 narrow fields, only Mendeley reader counts are consistent predictors of future citation impact. Most other Altmetric.com scores can help predict future impact in some fields. Overall, the results confirm that early Altmetric.com scores can predict later citation counts, although less well than journal impact factors, and the optimal strategy is to consider both Altmetric.com scores and journal impact factors. Altmetric.com scores can also reflect dimensions of non-scholarly impact in some fields.  相似文献   
50.
Citation averages, and Impact Factors (IFs) in particular, are sensitive to sample size. Here, we apply the Central Limit Theorem to IFs to understand their scale-dependent behavior. For a journal of n randomly selected papers from a population of all papers, we expect from the Theorem that its IF fluctuates around the population average μ, and spans a range of values proportional to σ/n, where σ2 is the variance of the population's citation distribution. The 1/n dependence has profound implications for IF rankings: The larger a journal, the narrower the range around μ where its IF lies. IF rankings therefore allocate an unfair advantage to smaller journals in the high IF ranks, and to larger journals in the low IF ranks. As a result, we expect a scale-dependent stratification of journals in IF rankings, whereby small journals occupy the top, middle, and bottom ranks; mid-sized journals occupy the middle ranks; and very large journals have IFs that asymptotically approach μ. We obtain qualitative and quantitative confirmation of these predictions by analyzing (i) the complete set of 166,498 IF & journal-size data pairs in the 1997–2016 Journal Citation Reports of Clarivate Analytics, (ii) the top-cited portion of 276,000 physics papers published in 2014–2015, and (iii) the citation distributions of an arbitrarily sampled list of physics journals. We conclude that the Central Limit Theorem is a good predictor of the IF range of actual journals, while sustained deviations from its predictions are a mark of true, non-random, citation impact. IF rankings are thus misleading unless one compares like-sized journals or adjusts for these effects. We propose the Φ index, a rescaled IF that accounts for size effects, and which can be readily generalized to account also for different citation practices across research fields. Our methodology applies to other citation averages that are used to compare research fields, university departments or countries in various types of rankings.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号