首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   331篇
  免费   2篇
  国内免费   40篇
教育   142篇
科学研究   125篇
体育   9篇
综合类   10篇
文化理论   1篇
信息传播   86篇
  2023年   5篇
  2022年   2篇
  2021年   3篇
  2020年   2篇
  2019年   9篇
  2018年   4篇
  2017年   1篇
  2016年   5篇
  2015年   8篇
  2014年   23篇
  2013年   22篇
  2012年   35篇
  2011年   35篇
  2010年   16篇
  2009年   20篇
  2008年   32篇
  2007年   38篇
  2006年   20篇
  2005年   23篇
  2004年   16篇
  2003年   19篇
  2002年   11篇
  2001年   2篇
  2000年   10篇
  1999年   2篇
  1998年   3篇
  1997年   4篇
  1994年   2篇
  1993年   1篇
排序方式: 共有373条查询结果,搜索用时 15 毫秒
1.
网络环境信息标引的测评与比较研究   总被引:1,自引:1,他引:0  
网络环境下,文献信息具有数量多、增长快、新词层出不穷等特点。标引是对信息资源进行组织的有效手段和重要环节,标引的质量和效率直接影响信息组织的质量和速度。对受控标引、自由标引和自动标引三种标引方式进行了相符度、专指度、标引深度及通用词数的测试对比.得出自由标引优于受控标引,自动标引优于自由标引及受控标引的结论。  相似文献   
2.
本文介绍了美国国会图书馆自动生成元数据应用计划AMeGA的一些基本情况,包括自动生成元数据的方法、AMeGA计划的研究方法和研究结果、自动生成元数据应用软件的功能需求等,并指出它对我国网络信息资源自动编目的借鉴意义.  相似文献   
3.
领域本体的关系抽取研究   总被引:3,自引:0,他引:3  
利用机器学习和自然语言处理技术中的有关方法,研究从语料中抽取概念关系为领域本体构建服务。对等级关系以及领域关系的抽取方法作详细阐述,并通过实验证明该方法是有效的。  相似文献   
4.
基于标题的中文新闻网页自动分类   总被引:1,自引:0,他引:1  
借鉴tf-idf加权思想,利用新闻标题来做中文新闻网页自动分类的依据,构建基于标题的中文新闻自动分类方法,并设计多个实验对各种基于标题的中文新闻网页自动分类方法进行评测。实验结果表明,基于标题对中文新闻网页进行自动分类,可以大大缩短判断处理时间,节省存储空间,且准确率较高,特别是改进的类目加权法分类效果最好。  相似文献   
5.
天津市高校图书馆馆际互借自动化管理的实现   总被引:1,自引:0,他引:1  
天津高校图书馆用天津高校统一使用的自动化管理系统来实现馆际互借的自动化管理,实现方法包括馆际互借的原则、自动化管理系统参数的设置以及馆际互借的服务流程。影响天津地区高校图书馆馆际互借的因素包括服务理念;宣传力度;馆藏文献质量、数量和种类;地理位置及院校之间专业设置的相近度。为了更好地提供馆际互借服务,天津高校图书馆联盟应该加强4个方面的工作。  相似文献   
6.
提出了Web页面信息的自动抽取思想,并使用WebBrowser和DOM技术实现了Web页面上网页元素查找、表单自动填写、表单自动提交、自动获得查询结果并自动抽取所需信息的技术,从而实现了Web页面信息的自动抽取。文中还给出了这一方法的实现细节和示例代码。  相似文献   
7.
提出了将支持向量机应用于文本自动分类的研究,与常用的K-最邻近法相比,无论是对训练数据集还是测试数据集均具有一定的优势,而且不同特征选择方法对支持向量机的影响要比K-最邻近法小。此外,从研究中的不同特征选择的评价函数来看,它们对分类有一定的影响,应用X2统计进行特征选择的分类正确率最高,其次是文本证据权,而期望交叉熵的效果最差,说明特征选择在文本自动分类中也是相当重要的。  相似文献   
8.
蒋小耘 《图书馆杂志》2005,24(11):18-20
本文对ECIP计划中自动编目的MARC标准设定问题及自动编目系统实现的设计思想提出了自己的不同见解。  相似文献   
9.
汉语自动分词是计算机中文信息处理中的难题。文章通过对现有分词方法的探讨,指出了汉语自动分词研究未来的发展趋势,即传统文本的有效切分,计算机技术的快速发展,改造书面汉语书写规则。参考文献35。  相似文献   
10.
Automatic Chinese text summarization for dialogue style is a relatively new research area. In this paper, Latent Semantic Analysis (LSA) is first used to extract semantic knowledge from a given document, all question paragraphs are identified, an automatic text segmentation approach analogous to Text'filing is exploited to improve the precision of correlating question paragraphs and answer paragraphs, and finally some "important" sentences are extracted from the generic content and the question-answer pairs to generate a complete summary. Experimental results showed that our approach is highly efficient and improves significantly the coherence of the summary while not compromising informativeness.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号