共查询到19条相似文献,搜索用时 171 毫秒
1.
2.
3.
4.
JavaScript传统上是单线程的,在HTML页面中执行一个需较长时间运行的脚本会阻塞所有的页面功能直至脚本完成。Web Worker是HTML5提供的JavaScript多线程解决方案。解析了Web Worker的工作原理和过程;提供了Web Worker代码示例和代码调试方法;说明了使用Web Worker如何提高Web应用的性能。由于Web Worker相对较新,目前关于Web Worker的示例和文献非常有限。该研究院提供了Web Worker的参考应用场景及进一步研究和应用的方向。 相似文献
5.
高效的Web页面语义标注方法是提高Web信息资源利用效率和知识创新的关键。针对当前Web页面语义标注方法存在的问题和Web页面表现出的结构特征和文本特征及其主题分布规律,设计了基于PLSA主题模型的Web页面语义标注算法。该算法分别对Web页面的结构特征和文本特征构建独立的PLSA主题模型,采用自适应不对称学习算法对这些独立的PLSA主题模型进行集成和优化,最终形成新的综合性的PLSA主题模型进行未知Web页面的自动语义标注。实验结果表明,该算法能够显著提高Web页面语义标注的准确率和效率,可以有效地解决大规模Web页面语义标注问题。 相似文献
6.
在Asp.net程序中,各个Web页面是相互孤立的,信息不能进行传递,如何高效地交换数据,是一个值得研究的问题。Web页面之间传值的方法较多,但多数对性能消耗较大,利用Microsoft Visual Studio 2010开发平台,精选出三种性能高效的传值方法。 相似文献
7.
对B2C网站的用户浏览行为进行了系统的研究。通过建立基于Markov链的动态模型,对用户浏览行为进行了深入的分析。进一步综合利用Web日志文件信息和Web站点的拓扑结构,对用户有关某页面的兴趣度进行了计算。提出了相关页面的聚类矩阵,对页面进行相关性聚类;对于相关的页面集合进一步挖掘,可以发现网站的频繁访问路径。 相似文献
8.
开发Web应用程序时,最重要的就是需要处理浏览器和Web服务器之间的交互,其中Web页面之间的值传递就显得更为关键。在ASP.NET框架所提供的用以页面间传值的方法有很多种,每种方法都有自己的特点,详细了解其方法的特点,并在程序开发中灵活应用,对优化程序的性能有很大帮助。就ASP.NET开发环境所提供的页面间传值的方法进行阐述与讨论。 相似文献
9.
Ajax是异步JavaScript+XML的缩写,是一种客户端技术,它使用XMLHttpRequest对象向服务器发出异步请求,对服务器的响应作出处理并显示在当前Web页面上。本文对Ajax的交互模式和传统Web的交互模式进行了比较,并用一个具体的例子说明Ajax的工作原理以及XMLHttpRequest对象与服务器通信的步骤。 相似文献
10.
传统Web页面语义标注方法需手工处理,或只可将Web页面中有属性的标签赋予数据,针对无属性标签数据不进行标注,不适于大规模Web页面信息标注,且标注结果不可靠。为此,提出一种新的基于集成学习的动态Web页面语义标注方法。给出动态Web页面语义标注流程。将Web页面转换成DOM树,识别待标注文本。选取抽取信息特征与训练Web页面特征,将含有语义信息的内容分配至概念抽象化的本体上,采用多分类器集成学习方法进行分类,区分待标注信息是属性标签还是数据元素,通过不同分类器预测结果的一致性对相应样本被准确标注的置信度进行衡量。通过训练页面中涵盖的属性标注规则集与抽取信息中的属性名称实现语义标注。实验结果表明,所提方法适于大规模动态Web页面语义标注,标注结果可靠。 相似文献
11.
12.
针对传统的基于Web图的垂直搜索策略Authorities and Hubs,提出了一种融合了网页内容评价和Web图的启发式垂直搜索策略,此外,引入向量空间模型进行针对网页内容的主题相关度判断,进一步提高主题网页下载的准确率.实验表明,文中算法有效地提高了主题网页的聚合程度,且随着网页下载数量的增加,垂直搜索引擎的准确率逐渐递增,并在下载网页达到一定数量后,准确率趋于稳定,算法具有较好的鲁棒性,可以应用到相关垂直搜索引擎系统中. 相似文献
13.
随着网络的飞速发展,网页数量急剧膨胀,近几年来更是以指数级进行增长,搜索引擎面临的挑战越来越严峻,很难从海量的网页中准确快捷地找到符合用户需求的网页。网页分类是解决这个问题的有效手段之一,基于网页主题分类和基于网页体裁分类是网页分类的两大主流,二者有效地提高了搜索引擎的检索效率。网页体裁分类是指按照网页的表现形式及其用途对网页进行分类。介绍了网页体裁的定义,网页体裁分类研究常用的分类特征,并且介绍了几种常用特征筛选方法、分类模型以及分类器的评估方法,为研究者提供了对网页体裁分类的概要性了解。 相似文献
14.
网络蜘蛛搜索策略的研究是近年来专业搜索引擎研究的焦点之一,如何使搜索引擎快速准确地从庞大的网页数据中获取所需资源的需求是目前所面临的重要问题。重点阐述了搜索引擎的Web Spider(网络蜘蛛)的搜索策略和搜索优化措施,提出了一种简单的基于广度优先算法的网络蜘蛛设计方案,并分析了设计过程中的优化措施。 相似文献
15.
Web信息检索系统中的网页质量分析方法评价 总被引:1,自引:0,他引:1
改进对高质量网页的检索精度,将会极大提高Web信息检索系统的用户满意度。首先提出了信息检索中的“有用性”指标,并据此论述了基于网页质量分析方法的Web信息检索模型,然后提出了网页质量直接测度指标和网页质量间接测度指标。最后,详细介绍了各种网页质量指标的相关研究内容和方法,并做出了针对性的评价。 相似文献
16.
17.
基于Web使用挖掘的用户个性化服务研究 总被引:5,自引:0,他引:5
万维网是一个巨大的全球性的信息服务中心。随着诸如新闻、广告、消费信息、金融管理、远程教育、政府网站、电子商务等的日益普及 ,提供网络信息服务的竞争日益激烈。谁能更方便地为用户提供所需要的网络资源 ;谁能提供更贴近用户的个性化服务 ;谁能更快捷抓住用户新的需求 ,是能否成功为用户提供网络业务的关键。现代社会的竞争趋势要求对因特网上大量出现和产生的信息进行实时和深层次的分析 ,虽然借助于强大的搜索引擎和搜索技术 ,用户仍然在分析和使用这些信息时面临许多困难。同时基于WWW的Web站点设计、Web服务设计、Web… 相似文献
18.
A substantial amount of research has focused on the persistence or availability of Web citations. The present study analyzes Web citation distributions. Web citations are defined as the mentions of the URLs of Web pages (Web resources) as references in academic papers. The present paper primarily focuses on the analysis of the URLs of Web citations and uses three sets of data, namely, Set 1 from the Humanities and Social Science Index in China (CSSCI, 1998–2009), Set 2 from the publications of two international computer science societies, Communications of the ACM and IEEE Computer (1995–1999), and Set 3 from the medical science database, MEDLINE, of the National Library of Medicine (1994–2006). Web citation distributions are investigated based on Web site types, Web page types, URL frequencies, URL depths, URL lengths, and year of article publication. Results show significant differences in the Web citation distributions among the three data sets. However, when the URLs of Web citations with the same hostnames are aggregated, the distributions in the three data sets are consistent with the power law (the Lotka function). 相似文献
19.
B. Barla Cambazoglu Evren Karaca Tayfun Kucukyilmaz Ata Turk Cevdet Aykanat 《Information processing & management》2007
Search Engine for South-East Europe (SE4SEE) is a socio-cultural search engine running on the grid infrastructure. It offers a personalized, on-demand, country-specific, category-based Web search facility. The main goal of SE4SEE is to attack the page freshness problem by performing the search on the original pages residing on the Web, rather than on the previously fetched copies as done in the traditional search engines. SE4SEE also aims to obtain high download rates in Web crawling by making use of the geographically distributed nature of the grid. In this work, we present the architectural design issues and implementation details of this search engine. We conduct various experiments to illustrate performance results obtained on a grid infrastructure and justify the use of the search strategy employed in SE4SEE. 相似文献