共查询到18条相似文献,搜索用时 140 毫秒
1.
语义检索能克服传统的基于关键词匹配检索的缺点,是信息检索的发展趋势。本文主要探讨两种实现语义检索的索引:潜语义索引和其修正形式。首先介绍了潜语义索引的基本思想和检索过程,并在分析潜语义索引的不足的基础上,介绍了其修正形式———残差迭代变换。 相似文献
2.
搜索引擎的工作机制与Web信息检索技术 总被引:6,自引:0,他引:6
论述了搜索引擎的工作机制,包括索引系统、关键词检索与概念检索的区别、复合检索、检索结果的相关性排名情况以及搜索引擎如何利用网页文档中的META标记来做索引;还涉及了如何让用户的网站在检索结果中排名靠前的诀窍;同时对如何更简单、有效地检索信息提出了自己的观点。 相似文献
3.
单汉字索引是中文全文检索索引技术中一个主要方法,此方法在索引的空问和检索的效率方面都存在不足。本文引入单元词索引,并分析试验数据,表明引入单元词索引后,索引的空间效率和检索的时间效率均有提高。 相似文献
4.
一种智能型的信息检索方法:隐含语义索引法 总被引:3,自引:0,他引:3
介绍了一种新的自动索引和检索方法——隐含语义索引法。隐含语义索引法是一种全自动的智能索引方法,通过挖掘文本与词汇之间的隐含关系来达到提高检索效率的目的。 相似文献
5.
地方文献因为具有地方特点的关键词众多而成为自动索引编制的难点。通过方志索引编制的一个实例,探讨了在没有现成关键词表的前提下,根据地方文献的特点和索引编制的规范,实现地方文献索引计算机辅助编制的方法,并详细阐述了系统的设计思路和系统功能。 相似文献
6.
信息检索技术是数字图书馆的一个关键技术。传统的检索方法主要借助于目录、索引和关键词等方法来实现的,其优点是简单、快捷;缺点是无法挖掘信息之间的内在联系,检索的结果不能准确、全面地反映用户的需求:在数字图书馆建设中,将Agents技术引入信息检索中,可以改善传统的检索方法,提高信息查找的命中率. 相似文献
7.
以“知识管理”为关键词,对中国社会科学引文索引(CSSCI)数据库进行检索,采用CiteSpaceⅡ分析工具,对检索出的引文数据进行转换、分析和处理,以知识图谱的方式梳理了知识管理研究的脉络. 相似文献
8.
9.
10.
本文指出了美国化学文摘化学物质索引的检索难点和使用技能。通过检索实例分析以及检索策略优化,以最大限度提高化学物质索引的检索效率。 相似文献
11.
论数据库检索系统用于文献计量分析 总被引:6,自引:1,他引:5
笔者自建了一个CDS/ISIS软件支持的、包括6万多篇文献记录的图书馆学、情报学、文献学、档案学的书目数据库,该库不仅收录期刊论文,而且也收录专著、教材、工具书、会议文献、学位论文以及大型手册、教材中的部分篇章子目,使之形成包含多种类型文献的综合性数据库,并开发利用检索软件中固有的功能,例如建立子库法、编辑倒排文件法、关键词标引与题名中单汉字检索相结合以增强检索语言性能的方法、后控词表(ANY词表)法、对文献发表年代的数值字段函数检索法等等,就80年代以来我国图书情报学科群的文献进行了各种指标的文献计量分析。笔者认为,基于包含多种类型文献、时间跨度较长的数据库检索系统,并应用各种软件功能的文献计量方法,是我国文献计量分析的发展方向。 相似文献
12.
本文从构字、书写、词语结构、构词方法和使用等5个方面阐述了汉字的性质与特点,并说明以此为基础实现单汉字全标引情报检索系统的可能。从已开发的一些系统来看,这种系统能显著地提高情报检索系统的总体效率,与西文检索软件相比,在检索效率、一致性匹配、书写适应性、响应时间、用户接口、空间开销等方面表现出许多优点和独特的检索风格,是一种发扬我国民族语言特色的高效率的情报检索系统。 相似文献
13.
14.
中国专利数据库标引质量测评 总被引:1,自引:0,他引:1
专利信息资源的建设,对进行创新型国家的建设起着重要的作用。专利数据库的标引工作,对专利信息的情报挖掘起着基础性的作用。通过对检索的相关主题数据进行分析,对专利标引的深度、非题名关键词、先组度、一致性、相对等同率进行探讨,对专利数据库标引现状进行测评,为我国专利数据库建设提供了依据。 相似文献
15.
本文首先分析了传统主题检索系统的弊端,然后提出了针对这些弊端的优化技术,包括全文主题词标引、概念标引、检索式语义分析、模式匹配等相关技术,使用这些技术可以发挥主题检索语言和自然语言检索各自的优点,使传统主题检索系统成为智能化,高层次的检索系统. 相似文献
16.
自然语言检索中的中文分词技术研究进展及应用 总被引:1,自引:0,他引:1
中文分词技术是实现自然语言检索的重要基础,是信息检索领域研究的关键课题,无论是专业信息检索系统还是搜索引擎都依赖于分词技术的研究成果。本文通过在国内外著名数据库中进行相关检索,分析了研究中文分词技术及其在著名搜索引擎中的应用。 相似文献
17.
The Defense Documentation Center (DDC), a field activity of the Defense Supply Agency, implemented an automated indexing procedure in October 1973. This Machine-Aided Indexing (MAI) System [1] had been under development since 1969. The following is a report of several comparisons designed to measure the retrieval effectiveness of MAI and manual indexing procedures under normal operational conditions.Several definitions are required in order to clarify the MAI process as it pertains to these investigations. The MAI routines scan unedited text in the form of titles and abstracts. The output of these routines is called Candidate Index Terms. These word strings are matched by computer against an internal file of manually screened and cross-referenced terms called a Natural Language Data Base (NLDB). The NLDB differs from a standard thesaurus in that there is no related term category. Word strings which match the NLDB are accepted as valid MAI output. The mismatches are manually screened for suitability. Those accepted are added to the NLDB. If now, the original set of Candidate Index Terms is matched against the updated NLDB, the matched output is unedited MAI. If both the unedited matches and mismatches are further structured in accession order and sent to technical analysts for review, the output of that process is called edited MAI.The tests were designed to (a) compare unedited MAI with manual indexing, holding the indexing language and the retrieval technique constant; (b) compare edited MAI with unedited MAI, holding both the indexing and the retrieval technique constant; and (c) compare two different retrieval techniques, called simple and complex, while holding the indexing constant. 相似文献
18.
The Defense Documentation Center (DDC), a field activity of the Defense Supply Agency, implemented an automated indexing procedure in October 1973. This Machine-Aided Indexing (MAI) System [1] had been under development since 1969. The following is a report of several comparisons designed to measure the retrieval effectiveness of MAI and manual indexing procedures under normal operational conditions.Several definitions are required in order to clarify the MAI process as it pertains to these investigations. The MAI routines scan unedited text in the form of titles and abstracts. The output of these routines is called Candidate Index Terms. These word strings are matched by computer against an internal file of manually screened and cross-referenced terms called a Natural Language Data Base (NLDB). The NLDB differs from a standard thesaurus in that there is no related term category. Word strings which match the NLDB are accepted as valid MAI output. The mismatches are manually screened for suitability. Those accepted are added to the NLDB. If now, the original set of Candidate Index Terms is matched against the updated NLDB, the matched output is unedited MAI. If both the unedited matches and mismatches are further structured in accession order and sent to technical analysts for review, the output of that process is called edited MAI.The tests were designed to (a) compare unedited MAI with manual indexing, holding the indexing language and the retrieval technique constant; (b) compare edited MAI with unedited MAI, holding both the indexing and the retrieval technique constant; and (c) compare two different retrieval techniques, called simple and complex, while holding the indexing constant. 相似文献