首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 140 毫秒
1.
基于卷积神经网络(CNNs)的区域建议生成方法(PRN)是通过实例级注释进行训练所得,也是当前全监督目标检测(FSOD)的重要组成部分.由于实例级注释耗时耗力,而图像级注释相比之下更容易收集,因此仅使用图像级注释的弱监督目标检测(WSOD)引起了众多研究者的关注.当前,WSOD依赖于诸如选择性搜索之类标准的区域建议生成...  相似文献   

2.
针对道路图像语义分割效果不够精确的问题,提出一种基于深度学习的道路图像语义分割的改进方法,并与传统的全卷积神经网络模型(FCN)相结合实现道路图像语义分割.先验概率层利用道路图像的先验知识,在所有道路图像训练标签的基础上构建二维数组表示像素点的分类概率,并将它结合传统全卷积神经网络模型对道路图像进行语义分割.实验结果表明:提出的先验概率层的后处理算法能够优化传统全卷积神经网络模型的分割效果,使像素精确度由88.8%提高到91.3%,平均像素精确度由82.9%提高到85.7%,平均交并比值由72.5%提高到77.9%.  相似文献   

3.
卷积神经网络(Convolutional Neural Networks,CNNs)具有强大的特征自学习与抽象表达能力,在图像分类领域有着广泛应用。但是,各模块较为固定的几何结构完全限制了卷积神经网络对空间变换的建模,难以避免地受到数据空间多样性的影响。在卷积网络中引入自学习的空间变换结构,或是引入可变形的卷积,使卷积核形状可以发生变化,以适应不同的输入特征图,丰富了卷积网络的空间表达能力。对现有卷积神经网络进行了改进,结果表明其在公共图像库和自建图像库上都表现出了更好的分类效果。  相似文献   

4.
许启贤  黄健  李凡 《中国科技论文》2022,(3):240-245,259
针对高光谱图像语义分割中空间信息利用不充分的问题,提出了一种基于多任务学习的语义分割算法,分别为语义分割及基于遥感指数的图像重建任务.网络主要由3D卷积和2D卷积组成,通过主成分分析(principal component analysis,PCA)来减少冗余信息,通过不同任务的重要程度优化两者的损失函数权重.2个特征...  相似文献   

5.
针对语音情感识别的特征提取和分类模型构建问题,首先提出了一种基于语谱图的特征提取方法,将语谱图进行归一灰度化后,利用Gabor滤波器进行纹理特征提取,并采用主成分分析(principal component analysis,PCA)对特征矩阵进行降维;然后分析了卷积神经网络(convolutional neural networks,CNNs)并把其作为情感识别分类器;最后在Emo DB和CASIA库进行了不同的比对实验.实验结果取得了较高情感识别率,表明了所提特征提取方法的有效性以及CNNs用作情感分类的可行性.  相似文献   

6.
卢旭  刘钊 《教育技术导刊》2021,20(1):242-244
图像分割是计算机视觉领域的一个重要方向,是图像处理的核心环节。伴随深度学习技术的发展,结合深度学习的图像分割技术在精确度上远超传统图像分割方法。卷积神经网络(CNN)与全卷积神经网络(FCN)的提出极大促进了图像语义分割技术发展,研究人员提出了很多新型网络模型,分割精准度大幅度提升。从传统语义分割方法、深度学习与传统方法相结合的图像语义分割、基于深度学习的语义分割3个方面阐述图像语义分割技术研究进展,为基于深度学习的图像语义分割技术研究提供参考。  相似文献   

7.
SAR(合成孔径雷达)图像包含有相干斑噪声,因此对图像的分割异常困难.本文通过遗传算法选取最优的阈值,并和边缘检测结合起来,实现图像的分割.  相似文献   

8.
本文对物体表面缺陷进行研究和检测.而检测的方法是采用LED环形灯光直接暗视场正面照明方式来提取插座面板划痕图像.具体过程是使用动态阈值分割图像,并采用放射变换、区域特征处理及连通区域提取等技术来检测出插座面板划痕.  相似文献   

9.
为实现对超声图像病灶的分割并提高目标分割精度,提出一种残差结构的深层尺度融合的分割网络模型RDFA-Net。使用改进的网络模型并使用可变形卷积来增大采样范围,使用通道和空间注意力机制捕获特征,融入深层尺度特征进行融合以捕获深层次图像特征,成功将视网膜脱落病灶的超声图片进行分割,并有了更好的分割结果。使用合作医院提供的眼底超声图像作为数据自制分割数据集来评价RDFA-Net。通过实验结果对比显示,RDFA-Net是有效的,可以对视网膜脱落进行图像分割,并实现了较好的分割精度。  相似文献   

10.
卷积神经网络在图像语义分割与边缘提取中得到广泛研究,但是在实际应用中存在传统识别器无法抹除域间差异所产生的误差问题。研究针对鉴别器网络性能对整体图像分割存在结果权重较高的问题,提出基于空洞卷积的域识别网络,并将其应用于图像边缘提取中。结果表明,所提出的模型可以在不增加额外训练参数的前提下明显增大感受视野,有效地提升图像分割与边缘提取性能,在GTA5与SYNTHINA公开数据上mIoU分别为44.1%和44.9%。  相似文献   

11.
In the split-attention effect spatial proximity is frequently considered to be pivotal. The transition from a spatially separated to a spatially integrated format not only involves changes in spatial proximity, but commonly necessitates text segmentation and picture labelling as well. In an experimental study, we investigated the influence of spatial proximity, text segmentation, and picture labelling on learning performance. A total of 165 students, divided into five groups, participated in the study. Four of the groups learned from spatially separated texts and pictures in a 2 × 2 design with the factors text segmentation (continuous vs. segmented text) and picture labelling (unlabelled vs. labelled picture). The fifth group learned from a spatially integrated text and picture. Retention and comprehension of the learning material were assessed. Students' working memory capacity and spatial ability were also assessed. The results replicated the split-attention effect with respect to retention only. This effect is attributed mainly to text segmentation and only partially to picture labelling. Spatial integration, however, did not enhance learning.  相似文献   

12.
Automatic character detection and segmentation in natural scene images   总被引:6,自引:0,他引:6  
INTRODUCTION Text detection and segmentation from a naturalscene is very useful in many applications. With theincreasing availability of high performance, lowpriced, portable digital imaging devices, the applica-tion of scene text recognition is rapidly expanding. Byusing cameras attached to cellular phones, PDAs, orstandalone digital cameras, we can easily capture thetext occurrences around us, such as street signs, ad-vertisements, traffic warnings or restaurant menus.Automatic recogn…  相似文献   

13.
This paper proposes a learning-based method for text detection and text segmentation in natural scene images. First, the input image is decomposed into multiple connected-components (CCs) by Niblack clustering algorithm. Then all the CCs including text CCs and non-text CCs are verified on their text features by a 2-stage classification module, where most non-text CCs are discarded by an attentional cascade classifier and remaining CCs are further verified by an SVM. All the accepted CCs are output to result in text only binary image. Experiments with many images in different scenes showed satisfactory performance of our proposed method.  相似文献   

14.
1 Introduction MPEG 4videocodingstandard providesobject basedfunctionalitiesbyintroducingtheconceptofvideoobject plane (VOP) .Withtheextractionofvideoobjectsandallocatingdifferentnumberofbitsordifferentframe ratesfordifferentobjects ,thestan dardcansupportobject basedscalabilitythatisusefulinmanypracticalapplications[1] .However,MPEG 4alwaysassumesthatthevideocontentstobecodedarewellrepresentedinvideoobjectswithoutmandatinganyspecifictechniques;sovideoobjectsegmentationbecomesanimportant…  相似文献   

15.
Research into picture effects on encoding of verbal material has paid little attention to the effects of picture changes. In this experiment, it was found that adults’ recall of the spoken text in a TV news item was impaired by mid‐sentence picture editing. In contrast, both 11‐12 year old and 14‐15 year old children's recall was enhanced by rapid cutting, so long as the accompanying pictures were relevant to the verbal text. Both adults’ and younger children's recall was better with some of the experimentally‐manipulated material than it was with the original broadcast version of the news item. However, 14‐15 year olds performed best with the original version.

It is suggested that viewers are differentially sensitive to unintended production effects and that their processing of verbal information can be disrupted by inappropriately‐timed picture cuts. Research on picture‐text relationships in audio‐visual material needs to take account of picture‐timing, as well as picture content, and television editing procedures may need to be tailored more specifically to suit the intended audience.  相似文献   


16.
为解决海量数据导致用户信息过载问题,通过分析人民网、新浪网等网站的新闻网页数据,将传统方法与深度学习方法相结合,提出基于特征融合、CNN和GRU的多文档摘要方法(M-C-G)。首先对30种不同主题的新闻网页进行数据清洗,使用word2vec工具训练词向量模型,根据多种特征计算得到初步摘要结果;然后把8.3万条搜狐新闻语料文本数据输入带有CNN和GRU的Seq2Seq模型上训练;最后把初步摘要结果输入模型进行测试,得到最终摘要结果。实验结果表明,在ROUGE评测体系中采用该方法比现有方法准确率至少提高约2%,可有效帮助用户寻找有价值的文本信息。  相似文献   

17.
乳制品纸包装上的生产批号在喷码过程中由于各种原因部分字符出现粘连或缺失,影响字符的自动化识别。针对这一问题,提出了一种基于改进的CNN喷码式不规则字符识别与提取方法。首先,利用yolov3算法对生产日期区域进行提取;其次,对图像进行预处理;再次,通过一种基于字宽的分割算法结合投影法,利用相邻字符间的像素差异实现对粘连字符的分割;最后,对分割后的单个字符利用改进的CNN进行多标签分类训练得到模型。实验结果表明,改进后的模型对粘连字符和半或残缺字符的识别准确率分别为97.89%和96.71%,相较于模板匹配法、传统的LeNet-5模型、fast R-CNN+NMS模型和yolov3+K-means算法都有所提高。基于该方法设计的字符识别系统,提高了生产日期的在线识别准确率。  相似文献   

18.
分析了粘连气泡的分割对PIV技术的重要性,提出了气泡分割的具体步骤,首先对粘连气泡图像进行二值化特征提取、区域填充、图像相减得到气泡亮点,随后通过对图像亮点的加厚得到粘连气泡的分割线,从而得到气泡的像面尺寸.将其与水线分割法相对比,证明了该方法的适时性.  相似文献   

19.
中文分词是地质大数据智能化知识挖掘难以回避的第一道基本工序。基于统计的分词方法受语料影响,跨领域适应性较差。基于词典的分词方法可以直接利用领域词典进行分词,但不能解决未登录词识别问题。在领域语料不足的情况下,为提高地质文本分词的准确率和未登录词识别率,提出一种基于统计的中文地质词语识别方法。该方法基于质串思想构建了地质基本词典库,用以改善统计分词方法在地质文本分词上的适应性。采用重复串查找方法得到地质词语候选集,并使用上下文邻接以及基于位置成词的概率词典,对地质词语候选集进行过滤,最终实现地质词语识别。实验结果表明,使用该方法对地质专业词语识别准确率达到81.6%,比通用统计分词方法提高了近60%。该方法能够识别地质文本中的未登录词,并保证地质分词的准确率,可以应用到地质文本分词工作中。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号