首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 171 毫秒
1.
《内江科技》2020,(1):59-60
5G时代的到来,加速了互联网应用的更多元化发展,web前端的应用复杂性也在逐步增强,对页面交互性需求也越来越多样化。Web页面加载的速度将直接影响用户的良好体验,在此分析影响web页面加载性能的多种因素,并提出优化方案,最后以实际案例进行剖析对比。  相似文献   

2.
随着微软.net的流行,Asp.net技术越来越为广大开发人员所接受。在用Asp.net开发网站时,性能优化又是极为重要的一个因素。如果一个网站仅有美观的页面设计和完善的服务功能,但网站性能却无法满足要求,导致页面延迟过长,最终仍会被用户放弃。从Web前端技术、Asp.net控件运用以及数据库等方面的优化进行了分析研究。  相似文献   

3.
基于网上新闻语料的Web页面自动分类研究   总被引:1,自引:0,他引:1  
Web页面由于其在表达信息的丰富性方面远胜于纯文本文件,因此Web页面分类与纯文本分类不同。针对网上中文新闻页面特点,我们提出了一种无需词典的从Web页面中抽取主题的实用算法。并将提取出的类主题概念融入分类用知识库,然后用我们研究小组提出的混合分类算法进行分类,实验语料取自新华网财经新闻。实验结果表明:与不使用Web页面特征,仅用全文相比较,分类性能有所提高。  相似文献   

4.
JavaScript传统上是单线程的,在HTML页面中执行一个需较长时间运行的脚本会阻塞所有的页面功能直至脚本完成。Web Worker是HTML5提供的JavaScript多线程解决方案。解析了Web Worker的工作原理和过程;提供了Web Worker代码示例和代码调试方法;说明了使用Web Worker如何提高Web应用的性能。由于Web Worker相对较新,目前关于Web Worker的示例和文献非常有限。该研究院提供了Web Worker的参考应用场景及进一步研究和应用的方向。  相似文献   

5.
王云英 《情报杂志》2013,(1):141-144
高效的Web页面语义标注方法是提高Web信息资源利用效率和知识创新的关键。针对当前Web页面语义标注方法存在的问题和Web页面表现出的结构特征和文本特征及其主题分布规律,设计了基于PLSA主题模型的Web页面语义标注算法。该算法分别对Web页面的结构特征和文本特征构建独立的PLSA主题模型,采用自适应不对称学习算法对这些独立的PLSA主题模型进行集成和优化,最终形成新的综合性的PLSA主题模型进行未知Web页面的自动语义标注。实验结果表明,该算法能够显著提高Web页面语义标注的准确率和效率,可以有效地解决大规模Web页面语义标注问题。  相似文献   

6.
在Asp.net程序中,各个Web页面是相互孤立的,信息不能进行传递,如何高效地交换数据,是一个值得研究的问题。Web页面之间传值的方法较多,但多数对性能消耗较大,利用Microsoft Visual Studio 2010开发平台,精选出三种性能高效的传值方法。  相似文献   

7.
对B2C网站的用户浏览行为进行了系统的研究。通过建立基于Markov链的动态模型,对用户浏览行为进行了深入的分析。进一步综合利用Web日志文件信息和Web站点的拓扑结构,对用户有关某页面的兴趣度进行了计算。提出了相关页面的聚类矩阵,对页面进行相关性聚类;对于相关的页面集合进一步挖掘,可以发现网站的频繁访问路径。  相似文献   

8.
开发Web应用程序时,最重要的就是需要处理浏览器和Web服务器之间的交互,其中Web页面之间的值传递就显得更为关键。在ASP.NET框架所提供的用以页面间传值的方法有很多种,每种方法都有自己的特点,详细了解其方法的特点,并在程序开发中灵活应用,对优化程序的性能有很大帮助。就ASP.NET开发环境所提供的页面间传值的方法进行阐述与讨论。  相似文献   

9.
谢松 《科技广场》2013,(7):63-67
Ajax是异步JavaScript+XML的缩写,是一种客户端技术,它使用XMLHttpRequest对象向服务器发出异步请求,对服务器的响应作出处理并显示在当前Web页面上。本文对Ajax的交互模式和传统Web的交互模式进行了比较,并用一个具体的例子说明Ajax的工作原理以及XMLHttpRequest对象与服务器通信的步骤。  相似文献   

10.
邱金鹏 《科技通报》2019,35(10):133-136
传统Web页面语义标注方法需手工处理,或只可将Web页面中有属性的标签赋予数据,针对无属性标签数据不进行标注,不适于大规模Web页面信息标注,且标注结果不可靠。为此,提出一种新的基于集成学习的动态Web页面语义标注方法。给出动态Web页面语义标注流程。将Web页面转换成DOM树,识别待标注文本。选取抽取信息特征与训练Web页面特征,将含有语义信息的内容分配至概念抽象化的本体上,采用多分类器集成学习方法进行分类,区分待标注信息是属性标签还是数据元素,通过不同分类器预测结果的一致性对相应样本被准确标注的置信度进行衡量。通过训练页面中涵盖的属性标注规则集与抽取信息中的属性名称实现语义标注。实验结果表明,所提方法适于大规模动态Web页面语义标注,标注结果可靠。  相似文献   

11.
数据挖掘就是从大量的数据中发现隐含的规律性的内容。本文从Web数据挖掘方面入手,对网站优化的个性化推荐方法进行了较为系统地研究,并且通过采用适当的关联规则,对用户所浏览网页之间的关联性进行了分析,最后对个性化推荐服务的性能进行了验证。  相似文献   

12.
针对传统的基于Web图的垂直搜索策略Authorities and Hubs,提出了一种融合了网页内容评价和Web图的启发式垂直搜索策略,此外,引入向量空间模型进行针对网页内容的主题相关度判断,进一步提高主题网页下载的准确率.实验表明,文中算法有效地提高了主题网页的聚合程度,且随着网页下载数量的增加,垂直搜索引擎的准确率逐渐递增,并在下载网页达到一定数量后,准确率趋于稳定,算法具有较好的鲁棒性,可以应用到相关垂直搜索引擎系统中.  相似文献   

13.
随着网络的飞速发展,网页数量急剧膨胀,近几年来更是以指数级进行增长,搜索引擎面临的挑战越来越严峻,很难从海量的网页中准确快捷地找到符合用户需求的网页。网页分类是解决这个问题的有效手段之一,基于网页主题分类和基于网页体裁分类是网页分类的两大主流,二者有效地提高了搜索引擎的检索效率。网页体裁分类是指按照网页的表现形式及其用途对网页进行分类。介绍了网页体裁的定义,网页体裁分类研究常用的分类特征,并且介绍了几种常用特征筛选方法、分类模型以及分类器的评估方法,为研究者提供了对网页体裁分类的概要性了解。  相似文献   

14.
网络蜘蛛搜索策略的研究是近年来专业搜索引擎研究的焦点之一,如何使搜索引擎快速准确地从庞大的网页数据中获取所需资源的需求是目前所面临的重要问题。重点阐述了搜索引擎的Web Spider(网络蜘蛛)的搜索策略和搜索优化措施,提出了一种简单的基于广度优先算法的网络蜘蛛设计方案,并分析了设计过程中的优化措施。  相似文献   

15.
Web信息检索系统中的网页质量分析方法评价   总被引:1,自引:0,他引:1  
李树青  崔慧智 《情报科学》2008,26(5):729-734
改进对高质量网页的检索精度,将会极大提高Web信息检索系统的用户满意度。首先提出了信息检索中的“有用性”指标,并据此论述了基于网页质量分析方法的Web信息检索模型,然后提出了网页质量直接测度指标和网页质量间接测度指标。最后,详细介绍了各种网页质量指标的相关研究内容和方法,并做出了针对性的评价。  相似文献   

16.
随着Web信息抽取的研究和发展,抽取技术已经逐渐成熟,通过软件来实现从Web页中抽取所需要的信息已成为可能。对基于.NET技术实现的Web信息抽取系统进行了研究,分析并提出了HTML文档下载和清理、HTML到XML格式转换、数据定位及抽取、抽取数据的保存等需要研究解决的关键技术问题,并探讨了相应的解决方案。  相似文献   

17.
基于Web使用挖掘的用户个性化服务研究   总被引:5,自引:0,他引:5  
万维网是一个巨大的全球性的信息服务中心。随着诸如新闻、广告、消费信息、金融管理、远程教育、政府网站、电子商务等的日益普及 ,提供网络信息服务的竞争日益激烈。谁能更方便地为用户提供所需要的网络资源 ;谁能提供更贴近用户的个性化服务 ;谁能更快捷抓住用户新的需求 ,是能否成功为用户提供网络业务的关键。现代社会的竞争趋势要求对因特网上大量出现和产生的信息进行实时和深层次的分析 ,虽然借助于强大的搜索引擎和搜索技术 ,用户仍然在分析和使用这些信息时面临许多困难。同时基于WWW的Web站点设计、Web服务设计、Web…  相似文献   

18.
A substantial amount of research has focused on the persistence or availability of Web citations. The present study analyzes Web citation distributions. Web citations are defined as the mentions of the URLs of Web pages (Web resources) as references in academic papers. The present paper primarily focuses on the analysis of the URLs of Web citations and uses three sets of data, namely, Set 1 from the Humanities and Social Science Index in China (CSSCI, 1998–2009), Set 2 from the publications of two international computer science societies, Communications of the ACM and IEEE Computer (1995–1999), and Set 3 from the medical science database, MEDLINE, of the National Library of Medicine (1994–2006). Web citation distributions are investigated based on Web site types, Web page types, URL frequencies, URL depths, URL lengths, and year of article publication. Results show significant differences in the Web citation distributions among the three data sets. However, when the URLs of Web citations with the same hostnames are aggregated, the distributions in the three data sets are consistent with the power law (the Lotka function).  相似文献   

19.
Search Engine for South-East Europe (SE4SEE) is a socio-cultural search engine running on the grid infrastructure. It offers a personalized, on-demand, country-specific, category-based Web search facility. The main goal of SE4SEE is to attack the page freshness problem by performing the search on the original pages residing on the Web, rather than on the previously fetched copies as done in the traditional search engines. SE4SEE also aims to obtain high download rates in Web crawling by making use of the geographically distributed nature of the grid. In this work, we present the architectural design issues and implementation details of this search engine. We conduct various experiments to illustrate performance results obtained on a grid infrastructure and justify the use of the search strategy employed in SE4SEE.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号