首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 218 毫秒
1.
针对面向结构特性的科技文献分类问题,通过关联规则的分类方法将科技文献划分为不同的类型:综述型、理论型和应用型。首先对科技文献数据分词等进行预处理;然后通过PredictiveApriori关联算法挖掘关于类别特征项的频繁项集,构造科技文献分类的分类器;接着对分类科技文献进行分类规则匹配,判定所属类别;最后通过实验对分类性能进行评估,并通过对比证明了本方法的有效性。  相似文献   

2.
中文文献自动分类中的知识库构造及其仿人算法   总被引:4,自引:2,他引:2  
刁倩  张惠惠  王永成  何骥 《情报学报》2000,19(3):248-253
本文阐述了自动分类中的仿人思想 ,并用分类域模型来描述中文信息自动分类中的分类法 ,通过计算类别特征项在分类域中的Hamming距离 ,对类别特征项依据其在分类域中的类别分布进行聚类 ,从而实现对向量分类法中的特征向量维数的压缩 ,并进一步构造用于中文自动分类的知识库。  相似文献   

3.
基于在线评论的消费者模糊情感计算与推理   总被引:1,自引:0,他引:1  
针对Web 2.0时代大量主观性文本的出现,消费者在线评论描述了消费者关于某一产品或服务的观点或经历。本文基于模糊理论讨论了在线评论中的情感挖掘问题。以消费者心理行为学理论为基础,根据在线评论的自然语言模糊本质属性,建立了消费者心理模糊库群,包括特征、感知、情绪、评价等4个模糊库;结合评论语句的句法分析,给出了消费者态度情感的模糊计算算法(FSCA-OR);并依据消费者的决策过程,进行了推理规则库的构建;最后通过实验验证了所提方法的有效性。  相似文献   

4.
针对科技基础性工作项目汇交数据质量审查人工效率低、易出错的现状,设计了基于自定义约束规则的项 目汇交数据质量审查模型。模型由构建器、规则库和判断器3个部分构成,其中构建器主要是用于约束规则的配置;规 则库由一系列规则集构成,每个规则集都从数据的完整性、一致性和约束性3个方面进行约束规则的定义,完成定义的 规则集构成一个审查模板;判断器主要是将审查模板应用于一个数据集进行审查并输出审查意见。实践证明,该模型 能够满足科技基础性工作项目汇交数据质量审查的工作要求,提高了科技基础性工作项目汇交数据质量审查的质量和 效率,同时也为其他类似数据质量审查工作提供了技术参考。  相似文献   

5.
文书立卷中的文件分类与档案整理中的案卷分类 ,二者之间有着明显区别 ,同时 ,也存在着一定的联系。认识并处理好文书与案卷两种分类问题 ,对于提高文书档案案卷质量 ,便于档案管理 ,有着重要意义。一、文件和案卷的两种分类1 .文件分类文件鉴定 (决定着文件归档范围 )之后 ,马上面临着归档文件分类问题。文件分类就是把存在着某些联系的若干文件按照一定的规则划分成若干的类别。文件分类规则规定着分类方式、分类类目划分和文件分类表等项内容。一般的文件分类是按照分类表 ,将一年的全部文件依次划入到各个类别中去。文件分类的作用 ,在…  相似文献   

6.
基于带语义差别的模糊Taxonomy的交易数据库关联规则聚类   总被引:1,自引:0,他引:1  
关联规则聚类是大量关联规则的一种有效组织方式,本文针对基于商品分类信息的规则聚类方法存在的不足进行了改进,同时考虑了不同层次间的项目语义差别,以及具有不同隶属度的项目细致语义差别,将商品分类树改进为模糊Taxonomy的有向无环图结构,该结构可以处理一个项目同时属于多个父结点的情况.我们充分考虑了有向无环图的性质,提出了带细致语义差别的模糊Taxonomy结构构建方法和相应的规则距离计算方法,其中,规则距离计算过程中的项集距离计算方法无需计算最佳匹配,因此,具有较小的时间开销.规则距离计算和聚类可视化试验结果表明了该方法的可扩展性和有效性,在规则的聚类计算上取得了较为满意的结果.  相似文献   

7.
改进TF-IDF算法的文本特征项权值计算方法   总被引:4,自引:0,他引:4  
首先,从特征项重要性和类别区分能力的角度出发,通过分析传统的权重函数TF-IDF(term frequency-inverse document frequency)及其相关改进算法,研究文本分类中向量化时的特征权重计算,构建权重修正函数TW。其次,通过对特征词的卡方分布和TW作对比实验,验证TW能提高类别中专有词汇的权值,降低常见但对分类不重要的特征的权值。最后,将TW与TF-IDF结合作为新的特征权重算法,通过在中文分类语料库上的实际分类实验,与其他权重算法比较,验证此种算法的有效性。  相似文献   

8.
为了提高图书馆服务平台的工作效率,本文利用Web数据流连续、动态和实效的优势,通过数据挖掘技术设计了更利于读者的工作模式.系统通过对样本库的分类分析,将分类后的相应数据进行处理,从而构建了基于Web数据挖掘的图书馆服务平台,通过分类挖掘的方法实现了图书馆资源的有效利用.  相似文献   

9.
传统编目分类和规则匹配方法存在工作效能低、过度依赖专家知识、缺乏对古籍文本自身语义的深层次挖掘、编目主题边界模糊、较难实现对古籍文本领域主题的精准推荐等问题。为此,本文结合古籍语料特征探究如何实现精准推荐符合研究者需求的文本主题内容的方法,以推动数字人文研究的进一步发展。首先,选取本课题组前期标注的古籍语料数据进行主题类别标注和视图分类;其次,构建融合BERT (bidirectional encoder representation from transformers)预训练模型、改进卷积神经网络、循环神经网络和多头注意力机制的语义挖掘模型;最后,融入“主体-关系-客体”多视图的语义增强模型,构建DJ-TextRCNN (DianJi-recurrent convolutional neural networks for text classification)模型实现对典籍文本更细粒度、更深层次、更多维度的语义挖掘。研究结果发现,DJ-TextRCNN模型在不同视图下的古籍主题推荐任务的准确率均为最优。在“主体-关系-客体”视图下,精确率达到88.54%,初步实现了对古籍文本的精准...  相似文献   

10.
【目的】通过构建个性化分类体系,研究面向TRIZ应用的专利自动分类方法。【方法】基于主题模型,从宏观、中观、微观三个层面构建面向TRIZ个性化分类体系;通过对不同分类特征项与算法进行组合,挑选分类准确率最高的组合构建初始分类器;采用平滑非平衡数据与特征项降维方式对分类器进行优化,完成对专利的自动分类。【结果】实现半自动构建面向TRIZ的个性化分类体系及基于该分类体系的专利自动分类。在中等数据量级场景下(千条),实现专利自动分类,分类效果综合评价指标高达90.2%。【局限】该方法不适用于数据量较小(百条)时的专利分类;在较大数据量(万条)场景下,该方法的有效性尚未得到验证。【结论】对中等规模专利数据,能快速构建面向TRIZ的分类体系,并实现自动分类。  相似文献   

11.
赵辉  刘怀亮 《图书情报工作》2013,57(11):120-124
为解决短文本特征词少、概念信号弱的问题,结合维基百科进行特征扩展以辅助中文短文本分类。通过维基百科概念及链接等信息进行词语相关概念集合抽取、概念间相关度计算,利用消歧页结合短文本上下文信息解决一词多义问题,进而以词语间语义相关关系为基础进行特征扩展,以补充文本特征语义信息。最后,给出基于维基百科的中文短文本分类算法,并对其进行实验验证。结果表明,该算法能有效提高中文短文本分类效果。  相似文献   

12.
[目的/意义] 在人文计算兴起这一背景下,针对先秦诸子典籍进行自动分类的探究,以更加深入和精准地从古代典籍中挖掘出相应的知识。[方法/过程] 基于《论语》《老子》《管子》《庄子》《孙子》《韩非子》《孟子》《荀子》和《墨子》9种先秦诸子典籍构成的训练和测试语料,采用支持向量机技术,提取TF-IDF、信息增益、卡方统计和互信息为特征,完成针对先秦诸子典籍的自动分类实验。[结果/结论] 基于先秦诸子典籍得到的自动分类模型调和平均值能达到99.21%,效果较好,具有较强的推广和应用价值。  相似文献   

13.
基于OCC模型和LSTM模型的财经微博文本情感分类研究   总被引:1,自引:0,他引:1  
吴鹏  李婷  仝冲  沈思 《情报学报》2020,39(1):81-89
为了解决财经微博文本中网民情感状态转移的时序数据分析问题,本文提出一个基于认知情感评价模型(Ortony,Clore&Collins,OCC)和长短期记忆模型(long short term memory,LSTM)的财经微博文本情感分类模型(OCC-LSTM)。基于OCC模型从网民认知角度建立情感规则,对财经微博文本进行情感标注,并作为LSTM模型进行深度学习的训练集;基于LSTM模型,使用深度学习中的TensorFlow框架和Keras模块建立相应的实验模型,进行海量微博数据情感分类,并结合13家上市公司3年的微博文本数据进行实证研究和模型验证对比。实证研究结果发现本文提出的模型取得了89.45%的准确率,高于采用传统的机器学习方式的支持向量机方法 (support vector machine,SVM)和基于深度学习的半监督RAE方法 (semi-supervised recursive auto encoder)。  相似文献   

14.
王效岳  白如江 《情报学报》2006,25(4):475-480
结合粗糙集的属性约简和神经网络的分类机理,提出了一种混合算法。首先应用粗糙集理论的属性约简作为预处理器,把冗余的属性从决策表中删去,然后运用神经网络进行分类。这样可以大大降低向量维数,克服粗糙集对于决策表噪声比较敏感的缺点。试验结果表明,与朴素贝叶斯、SVM、KNN传统分类方法相比,该方法在保持分类精度的基础上,分类速度有明显的提高,体现出较好的稳定性和容错性,尤其适用于特征向量多且难以分类的文本。  相似文献   

15.
肖升 《图书情报工作》2010,54(10):114-29
在基于本体的智能检索框架中引入本体视图,提出一种基于本体视图的特征项提取方法,通过利用中文信息结构提取器对文本进行特征提取,并进行类型映射,得到可计算的特征项。此方法比单纯的词汇信息更能体现概念信息特征,能提高检索系统的性能,提高检索的准确率和效率。  相似文献   

16.
特征降维是文本分类面临的主要问题之一。首先通过 分布对特征项进行选择,然后使用一种改进的基于密度聚类方法对选择后的特征项进行聚类,借助类别分布信息,在尽量减少信息缺失的前提下先后两次对文本特征维数进行了压缩;在基于类别概率分布的模式下实现文本的矩阵表示,借助矩阵理论进行文本分类。试验结果表明,该方法的分类效率较高。  相似文献   

17.
基于SUMO和WordNet本体集成的文本分类模型研究   总被引:1,自引:0,他引:1  
针对传统文本分类方法和目前语义分类方法中存在的问题,提出基于SUMO和WordNet本体集成的文本分类模型,该模型利用WordNet同义词集与SUMO本体概念之间的映射关系,将文档-词向量空间中的词条映射成本体中相应的概念,形成文档-概念向量空间进行文本自动分类。实验表明,该方法能够极大降低向量空间维度,提高文本分类性能。  相似文献   

18.
结合粗糙集的属性约简和RBF神经网络的分类机理,提出一种新的文本分类混合算法。试验结果表明,与朴素贝叶斯、SVM、kNN传统分类方法相比,该方法在保持分类精度的基础上,分类速度有明显提高,体现出较好的稳定性和容错性,尤其适用于特征向量多且难以分类的文本。  相似文献   

19.
在智慧政务的应用背景下,利用深度学习的方法对海量的科技政策文本数据进行自动分类,可以降低人工处理的成本,提高政策匹配的效率。利用BERT深度学习模型对科技政策进行自动分类实验,通过TextRank算法和TF-IDF算法提取政策文本关键词,将关键词与政策标题融合后输入BERT模型中以优化实验,并对比不同深度学习模型的分类效果来验证该方法的有效性。结果表明,通过BERT模型,融合标题和TF-IDF政策关键词的分类效果最佳,其准确率可达94.41%,证明利用BERT模型在标题的基础上加入政策关键词能够提高政策文本自动分类的准确率,实现对科技政策文本的有效分类。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号