首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
Mit den XML-basierten Sprachen GML, XSLT und SVG lassen sich Geodaten nicht nur anwendungsorientiert modellieren, sondern auch karten?hnlich visualisieren. In dieser Fallstudie zeigen wir das, indem wir realistische Geodatenbest?nde der Landesvermessungs?mter zun?chst mit der Geography Markup Language (GML) nachmodellieren. So mit GML strukturierte Daten werden dann mit der Extensible Stylesheet Language for Transformation (XSLT) auf Elemente der Sprache Scalable Vector Graphics (SVG) abgebildet. Dabei wird der Prozess der kartografischen Visualisierung durch XSLT-Konstrukte modelliert und auch gleichzeitig implementiert. Als Ergebnis erhalten wir Grafiken, die den entsprechenden Karten der Landes?mter zumindest nicht un?hnlich sind.  相似文献   

2.
XML及SVG在图像信息表示中的应用及研究现状分析   总被引:1,自引:0,他引:1  
XML具有良好的数据存储格式、可扩展性、高度结构化、便于网络传输等优势。XML对图像对象的标识主要通过SVG来实现。SVG的特点是:对矢量图的支持、对图像过滤操作的支持、对动画的支持、由文本构成图像、对点阵图的兼容。完全基于XML的SVG同时继承了XML的特性。XML和SVG技术相结合,前景是广阔的。参考文献7。  相似文献   

3.
文章探讨了XML/RDF在实现DC元数据交互中的应用,并以网络信息资源的著录为例,阐述了具体的实现方法及其应用特点.  相似文献   

4.
Zusammenfassung.   Die Modellierung komplexer informationsverarbeitender Systeme erfolgt typischerweise durch Gliederung in voneinander unabh?ngige Einheiten, die über ihre Schnittstellen Meldungen austauschen. Deren Beschreibung wird heute haupts?chlich mit 2D-graphischen Werkzeugen durchgeführt. In diesem Beitrag identifizieren wir Probleme, wie sie bei der Modellierung solcher Systeme als Systeme kommunizierender sequentieller Prozesse (CSP) auftreten. CSP selbst, sowie GRAPES und Occam als CSP-Abk?mmlinge sind dabei die Ausgangsbasis der Problemanalyse. Als Probleml?sung schlagen wir eine 2D-graphische Proze?sprache vor. Es wird au?erdem das Werkzeug GRADE-3D beschrieben, welches die Diagramme der Proze?sprache r?umlich darstellt. Es verfügt über Funktionalit?t zur Interaktion mit der Darstellung, zur Analyse und Anzeige von Kommunikationsstrukturen sowie zur Modellbearbeitung. Es werden ferner L?sungen für typische Probleme von 3D-Werkzeugen vorgestellt. Den Abschlu? bildet eine Bewertung der 3D-Werkzeuge unter den Aspekten Text vs. 2D vs. 3D sowie aus der Sicht von GRAPES-Modellierern. Eingegangen am 9. August 1996/Angenommen am 6. Juni 1997  相似文献   

5.
Zusammenfassung.   Mit der zunehmenden Verbreitung mobiler Endger?te w?chst auch der Bedarf in mobilen Umgebungen auf entfernt gespeicherte Informationen zuzugreifen. Da dieser Informationszugriff meist über drahtlose Netzwerke erfolgt, treten in mobilen Informationssystemen h?ufig Probleme wie geringe Bandbreite, gro?e Verz?gerungen oder Verbindungsausf?lle auf. Hoarding-Verfahren versuchen diese Probleme zu l?sen, indem sie Informationen, auf die der Benutzer voraussichtlich zugreifen wird, im voraus übertragen. Dazu müssen sie jedoch vorhersagen, welche Informationen der Benutzer ben?tigen wird. In diesem Beitrag stellen wir ein Hoarding-Verfahren vor, das für diese Vorhersage die Ortsabh?ngigkeit von Informationszugriffen ausnutzt. Wie wir durch Simulationen zeigen, wird der Speicherplatz auf dem Endger?t dadurch sehr effizient genutzt. (Die hier vorgestellte Arbeit ist mit Unterstützung der DFG im Rahmen der Forschergruppe Nexus sowie des Graduiertenkollegs Parallele und Verteilte Systeme entstanden. Eingegangen am 2. Februar 2001 / Angenommen am 1. Juni 2001  相似文献   

6.
Zusammenfassung.   Eine Restrukturierung eines gegebenen Datenbankschemas kann aus unterschiedlichen Gründen notwendig werden. So kann dadurch z.B. die Verst?ndlichkeit des Schemas verbessert werden. Im Bereich der relationalen Datenbanken steht die Normalisierungstheorie zur Verfügung, um z.B. Redundanz zu vermeiden. Der Normalisierung liegt dabei ein Begriff der ?quivalenz von Datenbankschemata zugrunde. Im Bereich der objektorientierten Datenbanken gibt es bislang kaum vergleichbare Ans?tze. In diesem Beitrag pr?sentieren wir daher einen Ansatz, mit dem Klassenhierarchien in objektorientierten Datenbankschemata in eine „normalisierte” Form transformiert werden k?nnen. Dazu mu? zun?chst eine extensionale Analyse durchgeführt werden, die die notwendigen Informationen über extensionale Beziehungen zwischen den gegebenen Klassen liefert. Anschlie?end wenden wir Konzepte der formalen Begriffsanalyse an, um eine „normalisierte” Klassenhierarchie abzuleiten. Eingegangen am 16. Januar 1999 / Angenommen am 3. Oktober 1999  相似文献   

7.
Zusammenfassung Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken, oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch, da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling) zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt. CR Subject Classification H.2.4,H.2.5,D.3.4  相似文献   

8.
Zusammenfassung. Die Programmierung von Algorithmenschemata durch die Parameterisierung von Programmteilen ist eine M?glichkeit der Wiederverwendung von Software. Dieser Ansatz wird insbesondere von der funktionalen Programmiersprache ML durch eine sehr ausgereifte Modulsprache mit Signaturen, Strukturen und strukturabbildenden Funktoren unterstützt. In diesem Artikel demonstrieren wir, wie man auf diese Weise Parameterisierung und Wiederverwendung realisieren kann. Dabei wird eine Anwendung, n?mlich schematischer Graphdurchlauf mit Vererbung und Synthese als Verallgemeinerung des vom übersetzerbau her bekannten Prinzips, im Detail vorgestellt; einige weitere Anwendungsbereiche werden skizziert. Eingegangen am 21. Februar 1996 / Angenommen am 20. August 1996  相似文献   

9.
Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken, oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch, da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling) zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt.  相似文献   

10.
Stetig wachsende Datenmengen und hohe Verfügbarkeitsanforderungen an Datenbanken führen dazu, dass Wartungsarbeiten (wie z.B. Datenbankreorganisationen) oft nicht mehr (oder nicht mehr vollst?ndig) offline in zur Verfügung stehenden Zeitfenstern durchgeführt werden k?nnen bzw. dass die Kosten oder die Behinderungen des normalen Datenbankbetriebs bei online durchgeführten Wartungsarbeiten nicht mehr vernachl?ssigt werden k?nnen. Deshalb sollte vorab bestimmt (quantifiziert) werden, ob der zu erwartende Nutzen den mit der Reorganisation verbundenen Aufwand rechtfertigt. Es ist daher wichtig, die Datenbankobjekte zu lokalisieren und einzugrenzen, bei denen ein hoher Wartungsbedarf besteht. Weiterhin ist es wünschenswert, zun?chst den durch Wartungsma?nahmen erreichbaren Nutzen vor ihrer Durchführung quantifizieren zu k?nnen. Dieser Nutzen ist auch von der Workload abh?ngig, also von den gegen die Datenbankobjekte gerichteten Datenbankanweisungen und deren Ausführungsh?ufigkeiten. Insbesondere der zur Workload-Abarbeitung anfallende I/O-Aufwand, der einen dominierenden Anteil am Gesamtaufwand ausmacht, l?sst sich mit einer Datenbankreorganisation u.U. wesentlich beeinflussen (reduzieren). In diesem Beitrag wird eine Methode vorgestellt, die es erm?glicht, die Auswirkungen einer Datenbankreorganisation auf den zur Workload-Abarbeitung notwendigen I/O-Aufwand abzusch?tzen und damit den haupts?chlichen Nutzen der Reorganisation zu quantifizieren. über erste Erfahrungen mit der Methode, die anhand von Beispielen gesammelt wurden, wird berichtet. The permanent increasing amount of data and the requirement of high availability cause that maintenance of databases (e.g. database reorganizations) often is not or not completely (off-line) possible in the available time spans. On-line database reorganizations are often expensive and cumbersome during the normal database processing. To reduce performance impacts it is important to locate the database objects that have a high level of disorganization and so a high need of maintenance. Furthermore, it is desirable to be able to estimate the benefit of expensive maintenance operations before their processing. This benefit depends on the degree of disorganization and on the instructions that are processed on the database objects (workload). In particular, the costs for I/O-operations dominate the total costs for database operations. With database reorganizations it is possible to reduce the I/O-costs. In this paper we present a method to calculate the benefit of database reorganizations before the processing. The presented method allows to calculate the possible reduction of the I/O-cost for processing a given workload caused by a database reorganization.
CR Subject Classification E.2,H.2.7,H.3.2,H.3.3  相似文献   

11.
This paper aims to integrate a library system so that it becomes intelligent. We use swarm intelligence to develop friendly human-computer interface software for readers using a personal or notebook computer. We program the system and software with Extensible Markup Language (XML) and C Sharp language. The kernel library automatically communicates with other libraries by agents, so readers can search from the closest library. This study adds only one component to the kernel library, and the other libraries do not add this component. They maintain their original status. Readers do not use a browser; they directly communicate with the library search system, saving much time. Readers without IT skills can also easily search for books in the library system.  相似文献   

12.
Zusammenfassung.   Im Rahmen des F?rderprogramms Neue Medien in der Bildung f?rdert das BMBF das Vorhaben „MuSofT – Multimedia in der Softwaretechnik”. Dieses Vorhaben soll in den n?chsten drei Jahren multimediale Lehr- und Lerneinheiten in die softwaretechnische Lehre einführen und insbesondere drei Aspekte der Softwaretechnik-Ausbildung unterstützen. Im ersten Aspekt wird die objektorientierte Modellierung als eine Folge von Phasen betrachtet, innerhalb deren Software-Produkte schrittweise konstruiert werden. Hierzu geh?ren insbesondere die Analysephase mit dem Erfassen von Benutzeranforderungen und die anschlie?ende Entwurfsphase mit dem Umsetzen dieser Anforderungen in technische Modelle. Ein zweiter Aspekt ist die Auseinandersetzung mit dem Entwicklungsprozess selbst und den dazugeh?renden übergreifenden T?tigkeiten wie dem Projektmanagement und der Qualit?tssicherung. Ein dritter Aspekt ist die fachdidaktische Herangehensweise an die softwaretechnische Ausbildung, die insbesondere für die Informatiklehrerausbildung von gro?er Bedeutung ist.   相似文献   

13.
Zusammenfassung Viele Innovationen bauen auf Erfindungen auf. Das l?sst sich an einigen wichtigen Produktlinien aus der Informatik zeigen. Immer mehr Entwickler lassen inzwischen ihre neuen Ideen durch Patente schützen. Das gilt auch für software-bezogene Erfindungen. Dies geschieht trotz, und weitgehend unbehelligt von der in Europa geführten ?ffentlichen Debatte über den Wert von software-bezogenen Patenten. Dass hier gro?e Interessenkonflikte aufeinander sto?en, ist unübersehbar. Da diese Diskussionen teilweise auf Fehleinsch?tzungen beruhen, ist es m?glich, dass dadurch die entwickelnde und exportierende Industrie Schaden erleidet. Auch in der Informatik ben?tigen wir ein politisches und gesellschaftliches Klima, das Erfindungen und Innovationen f?rdert.
Many innovations are based on inventions. This can be shown for several important product lines in the computing field. More and more, developers protect their new ideas by means of patents. This also applies to software related inventions. It occurs in spite of, and largely unimpaired, by the debates going on in Europe concerning the value of software patents. Here significant conflicts of interest are visible. Since some of the discussions are based on misconceptions, this may cause damage to the developing and exporting industry. Also in computing, a political and social climate is needed that fosters inventions and innovations.
  相似文献   

14.
15.
Zusammenfassung. Der Softwareanteil in technischen Systemen bekommt einen immer h?heren Stellenwert. Für einen durchg?ngigen und wartbaren Entwurf der Software sind Spezifikationstechniken erforderlich, die von ingenieurwissenschaftlichen Ablaufbeschreibungen bis zu (objektorientierten) Softwaremodellen reichen. Wesentlich ist dabei, solche Techniken zu integrieren, um zu einem durchg?ngigen Systemmodell zu gelangen. Dies ist Gegenstand des DFG-Schwerpunktprogramms „Integration von Techniken der Softwarespezifikation für ingenieurwissenschaftliche An- wendungen”, in dem Ingenieure und Informatiker in vierzehn Forschungsprojekten gemeinsam an der Entwicklung integrierter Methoden zur Softwarespezifkation vornehmlich in den Bereichen Produktionsautomatisierung und Verkehrsleittechnik arbeiten. In diesem Artikel geben wir einen überblick über die Ergebnisse der ersten zwei Jahre des Schwerpunktprogramms und dessen Ziele für den weiteren Verlauf von vier Jahren.   相似文献   

16.
Zusammenfassung.   Bei der iterativen, inkrementellen Software-Entwicklung werden Klassen sukzessive spezifiziert, implementiert bzw. ge?ndert oder erweitert, klassengetestet und zu einem ausführbaren Anwendungssystem integriert. Integrations- und Regressionstest stellen dabei besonders wichtige und h?ufig ausgeführte Testaktivit?ten dar, die zudem aufgrund der vielf?ltigen Interaktionsm?glichkeiten in objektorientierten Programmen sehr komplex sind. Integrations- und Regressionstest werden in der Literatur stets separat behandelt, obwohl sie durchaus ?hnliche Teilaktivit?ten beinhalten. Bestehende Ans?tze zum objektorientierten Integrationstest betrachten entweder strukturelle oder verhaltensorientierte Systembeschreibungen. In diesem Beitrag stellen wir das Klassen-Botschaftsdiagramm (KBD) vor, ein Struktur und Verhalten objektorientierter Programme gleicherma?en berücksichtigendes interaktionsbasiertes (Test-)Modell. Wir skizzieren Algorithmen zur ?nderungsanalyse, Ableitung einer Integrationsstrategie und Auswahl von Regressionstestf?llen nach der Modifikation bestehender Klassen. Abschlie?end werden die Ergebnisse einiger mit Smalltalk-80 Klassen durchgeführter Experimente zur Evaluierung des Verfahrens vorgestellt. Eingegangen am 14. Dezember 1999 / Angenommen am 19. Juni 2000  相似文献   

17.
基于XML/RDF的MARC元数据描述技术   总被引:42,自引:1,他引:41  
黄伟红  张福炎 《情报学报》2000,19(4):326-332
由W3C推出的元数据标准可扩展标记语言XML和资源描述框架RDF分别规范了Internet上资源描述的语法和语义,为元数据的编码、交换和重用提供了基础架构。本文针对目前广泛存在于图书馆系统中的MARC格式的大量书目数据,研究了基于XML/RDF的MARC元数据描述技术,重点解决了MARC元数据的XML描述问题和基于RDF的MARC元数据描述问题,从而使得专用的MARC规范格式的书目数据转换成通用的机器可读和机器可理解的元数据成为可能。本文的研究成果对于现有MARC数据在未来数字图书馆中的利用具有重要意义。  相似文献   

18.
Zusammenfassung. Der Burrows-Wheeler-Kompressionsalgorithmus hat als ein universelles Kompressionsverfahren in den letzten Jahren aufgrund seiner hervorragenden Kompressionsraten und hohen Verarbeitungsgeschwindigkeiten eine bemerkenswerte Beachtung erfahren. Das Herzstück des Algorithmus stellt die sogenannte Burrows-Wheeler-Transformation dar. Es handelt sich bei dieser Transformation um eine Permutation der Eingabedaten, welche Zeichen mit ähnlichem Kontext nahe beieinander anordnet. Die Transformation sowie die zugehörige Rücktransformation werden zusammen mit den weiteren Stufen des Algorithmus in einer gegenüber der Standardversion verbesserten Variante vorgestellt und die Ergebnisse mit denen anderer Datenkompressionsalgorithmen verglichen. Eingegangen am 12. April 2003, Angenommen am 7. November 2003CR Subject Calssification: E4, H1.1  相似文献   

19.
20.
Zusammenfassung. Die Spezifikation ist die Grundlage für den Erfolg eines Software-Projekts. Der Praktiker konzentriert sich hier i.d.R. auf die größte Herausforderung: die vollständige und inhaltlich korrekte Erfassung aller Anforderungen an das zu erstellende Software-System. Dass Spezifikationen für große Systeme aus vielen Dokumenten verschiedener Ausprägung in Form und Inhalt bestehen, tritt dabei meist in den Hintergrund. Ihre Konsistenz wird meist mit hohem manuellem Aufwand sichergestellt. Der Erstellung formal korrekter und konsistenter Software-Spezifikationen widmen sich zahlreiche theoretische Arbeiten. In der Praxis sind sie jedoch meist nicht mit der gewohnten Arbeitsweise vereinbar. In diesem Artikel stellen wir einen Mittelweg vor: Wir nutzen die Spezifikationsbausteine von sd&m für die Spezifikation, die als Ergebnisse Dokumente in natürlicher Sprache sowie semi-formale Darstellungen umfasst. Für Spezifikationen, die nach diesen Bausteinen erstellt wurden, definieren wir Konsistenz durch formale zeitbehaftete Konsistenzregeln. Ein von uns entwickeltes Auswertungswerkzeug ermittelt Inkonsistenzen präzise. Unterstützt von einem solchen Werkzeug kann sich der Software-Ingenieur wieder ganz auf das Hauptanliegen der Spezifikation konzentrieren: ihre inhaltliche Korrektheit und Vollständigkeit.Eingegangen am 19. August 2003, Angenommen am 10. März 2004, CR Subject Classification: D.2.1, D.3.1, H.3.1, I.7.1  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号