共查询到20条相似文献,搜索用时 31 毫秒
1.
Brigitte Mathiak Andreas Kupfer Karl Neumann 《Informatik - Forschung und Entwicklung》2005,6(2):24-32
Mit den XML-basierten Sprachen GML, XSLT und SVG lassen sich Geodaten nicht nur anwendungsorientiert modellieren, sondern
auch karten?hnlich visualisieren. In dieser Fallstudie zeigen wir das, indem wir realistische Geodatenbest?nde der Landesvermessungs?mter
zun?chst mit der Geography Markup Language (GML) nachmodellieren. So mit GML strukturierte Daten werden dann mit der Extensible
Stylesheet Language for Transformation (XSLT) auf Elemente der Sprache Scalable Vector Graphics (SVG) abgebildet. Dabei wird
der Prozess der kartografischen Visualisierung durch XSLT-Konstrukte modelliert und auch gleichzeitig implementiert. Als Ergebnis
erhalten wir Grafiken, die den entsprechenden Karten der Landes?mter zumindest nicht un?hnlich sind. 相似文献
2.
XML及SVG在图像信息表示中的应用及研究现状分析 总被引:1,自引:0,他引:1
XML具有良好的数据存储格式、可扩展性、高度结构化、便于网络传输等优势。XML对图像对象的标识主要通过SVG来实现。SVG的特点是:对矢量图的支持、对图像过滤操作的支持、对动画的支持、由文本构成图像、对点阵图的兼容。完全基于XML的SVG同时继承了XML的特性。XML和SVG技术相结合,前景是广阔的。参考文献7。 相似文献
3.
文章探讨了XML/RDF在实现DC元数据交互中的应用,并以网络信息资源的著录为例,阐述了具体的实现方法及其应用特点. 相似文献
4.
Frank Steinfath Brigitta Lange und Klaus B?hm 《Informatik - Forschung und Entwicklung》1997,12(3):128-142
Zusammenfassung. Die Modellierung komplexer informationsverarbeitender Systeme erfolgt typischerweise durch Gliederung in voneinander unabh?ngige
Einheiten, die über ihre Schnittstellen Meldungen austauschen. Deren Beschreibung wird heute haupts?chlich mit 2D-graphischen
Werkzeugen durchgeführt. In diesem Beitrag identifizieren wir Probleme, wie sie bei der Modellierung solcher Systeme als
Systeme kommunizierender sequentieller Prozesse (CSP) auftreten. CSP selbst, sowie GRAPES und Occam als CSP-Abk?mmlinge sind
dabei die Ausgangsbasis der Problemanalyse. Als Probleml?sung schlagen wir eine 2D-graphische Proze?sprache vor. Es wird
au?erdem das Werkzeug GRADE-3D beschrieben, welches die Diagramme der Proze?sprache r?umlich darstellt. Es verfügt über Funktionalit?t
zur Interaktion mit der Darstellung, zur Analyse und Anzeige von Kommunikationsstrukturen sowie zur Modellbearbeitung. Es
werden ferner L?sungen für typische Probleme von 3D-Werkzeugen vorgestellt. Den Abschlu? bildet eine Bewertung der 3D-Werkzeuge
unter den Aspekten Text vs. 2D vs. 3D sowie aus der Sicht von GRAPES-Modellierern.
Eingegangen am 9. August 1996/Angenommen am 6. Juni 1997 相似文献
5.
Uwe Kubach und Kurt Rothermel 《Informatik - Forschung und Entwicklung》2001,16(4):189-199
Zusammenfassung. Mit der zunehmenden Verbreitung mobiler Endger?te w?chst auch der Bedarf in mobilen Umgebungen auf entfernt gespeicherte
Informationen zuzugreifen. Da dieser Informationszugriff meist über drahtlose Netzwerke erfolgt, treten in mobilen Informationssystemen
h?ufig Probleme wie geringe Bandbreite, gro?e Verz?gerungen oder Verbindungsausf?lle auf. Hoarding-Verfahren versuchen diese
Probleme zu l?sen, indem sie Informationen, auf die der Benutzer voraussichtlich zugreifen wird, im voraus übertragen. Dazu
müssen sie jedoch vorhersagen, welche Informationen der Benutzer ben?tigen wird. In diesem Beitrag stellen wir ein Hoarding-Verfahren
vor, das für diese Vorhersage die Ortsabh?ngigkeit von Informationszugriffen ausnutzt. Wie wir durch Simulationen zeigen,
wird der Speicherplatz auf dem Endger?t dadurch sehr effizient genutzt. (Die hier vorgestellte Arbeit ist mit Unterstützung
der DFG im Rahmen der Forschergruppe Nexus sowie des Graduiertenkollegs Parallele und Verteilte Systeme entstanden.
Eingegangen am 2. Februar 2001 / Angenommen am 1. Juni 2001 相似文献
6.
Ingo Schmitt und Stefan Conrad 《Informatik - Forschung und Entwicklung》1999,14(4):218-226
Zusammenfassung. Eine Restrukturierung eines gegebenen Datenbankschemas kann aus unterschiedlichen Gründen notwendig werden. So kann dadurch
z.B. die Verst?ndlichkeit des Schemas verbessert werden. Im Bereich der relationalen Datenbanken steht die Normalisierungstheorie
zur Verfügung, um z.B. Redundanz zu vermeiden. Der Normalisierung liegt dabei ein Begriff der ?quivalenz von Datenbankschemata
zugrunde. Im Bereich der objektorientierten Datenbanken gibt es bislang kaum vergleichbare Ans?tze. In diesem Beitrag pr?sentieren
wir daher einen Ansatz, mit dem Klassenhierarchien in objektorientierten Datenbankschemata in eine „normalisierte” Form transformiert
werden k?nnen. Dazu mu? zun?chst eine extensionale Analyse durchgeführt werden, die die notwendigen Informationen über extensionale
Beziehungen zwischen den gegebenen Klassen liefert. Anschlie?end wenden wir Konzepte der formalen Begriffsanalyse an, um eine
„normalisierte” Klassenhierarchie abzuleiten.
Eingegangen am 16. Januar 1999 / Angenommen am 3. Oktober 1999 相似文献
7.
Stephan Ewen Michael Ortega-Binderberger und Volker Markl 《Informatik - Forschung und Entwicklung》2005,20(3):138-151
Zusammenfassung Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt.
CR Subject Classification H.2.4,H.2.5,D.3.4 相似文献
8.
Rudolf Berghammer 《Informatik - Forschung und Entwicklung》1996,11(4):179-190
Zusammenfassung. Die Programmierung von Algorithmenschemata durch die Parameterisierung von Programmteilen ist eine M?glichkeit der Wiederverwendung
von Software. Dieser Ansatz wird insbesondere von der funktionalen Programmiersprache ML durch eine sehr ausgereifte Modulsprache
mit Signaturen, Strukturen und strukturabbildenden Funktoren unterstützt. In diesem Artikel demonstrieren wir, wie man auf
diese Weise Parameterisierung und Wiederverwendung realisieren kann. Dabei wird eine Anwendung, n?mlich schematischer Graphdurchlauf
mit Vererbung und Synthese als Verallgemeinerung des vom übersetzerbau her bekannten Prinzips, im Detail vorgestellt; einige
weitere Anwendungsbereiche werden skizziert.
Eingegangen am 21. Februar 1996 / Angenommen am 20. August 1996 相似文献
9.
Stephan Ewen Michael Ortega-Binderberger Volker Markl 《Informatik - Forschung und Entwicklung》2005,10(4):138-151
Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt. 相似文献
10.
Stefan Dorendorf 《Informatik - Forschung und Entwicklung》2005,20(1-2):72-89
Stetig wachsende Datenmengen und hohe Verfügbarkeitsanforderungen an Datenbanken führen dazu, dass Wartungsarbeiten (wie z.B.
Datenbankreorganisationen) oft nicht mehr (oder nicht mehr vollst?ndig) offline in zur Verfügung stehenden Zeitfenstern durchgeführt werden k?nnen bzw. dass die Kosten oder die Behinderungen des normalen
Datenbankbetriebs bei online durchgeführten Wartungsarbeiten nicht mehr vernachl?ssigt werden k?nnen. Deshalb sollte vorab bestimmt (quantifiziert) werden,
ob der zu erwartende Nutzen den mit der Reorganisation verbundenen Aufwand rechtfertigt. Es ist daher wichtig, die Datenbankobjekte
zu lokalisieren und einzugrenzen, bei denen ein hoher Wartungsbedarf besteht. Weiterhin ist es wünschenswert, zun?chst den
durch Wartungsma?nahmen erreichbaren Nutzen vor ihrer Durchführung quantifizieren zu k?nnen. Dieser Nutzen ist auch von der
Workload abh?ngig, also von den gegen die Datenbankobjekte gerichteten Datenbankanweisungen und deren Ausführungsh?ufigkeiten.
Insbesondere der zur Workload-Abarbeitung anfallende I/O-Aufwand, der einen dominierenden Anteil am Gesamtaufwand ausmacht,
l?sst sich mit einer Datenbankreorganisation u.U. wesentlich beeinflussen (reduzieren). In diesem Beitrag wird eine Methode
vorgestellt, die es erm?glicht, die Auswirkungen einer Datenbankreorganisation auf den zur Workload-Abarbeitung notwendigen
I/O-Aufwand abzusch?tzen und damit den haupts?chlichen Nutzen der Reorganisation zu quantifizieren. über erste Erfahrungen
mit der Methode, die anhand von Beispielen gesammelt wurden, wird berichtet.
The permanent increasing amount of data and the requirement of high availability cause that maintenance of databases (e.g.
database reorganizations) often is not or not completely (off-line) possible in the available time spans. On-line database
reorganizations are often expensive and cumbersome during the normal database processing. To reduce performance impacts it
is important to locate the database objects that have a high level of disorganization and so a high need of maintenance. Furthermore,
it is desirable to be able to estimate the benefit of expensive maintenance operations before their processing. This benefit
depends on the degree of disorganization and on the instructions that are processed on the database objects (workload). In
particular, the costs for I/O-operations dominate the total costs for database operations. With database reorganizations it
is possible to reduce the I/O-costs. In this paper we present a method to calculate the benefit of database reorganizations
before the processing. The presented method allows to calculate the possible reduction of the I/O-cost for processing a given
workload caused by a database reorganization.
CR Subject Classification E.2,H.2.7,H.3.2,H.3.3 相似文献
11.
This paper aims to integrate a library system so that it becomes intelligent. We use swarm intelligence to develop friendly human-computer interface software for readers using a personal or notebook computer. We program the system and software with Extensible Markup Language (XML) and C Sharp language. The kernel library automatically communicates with other libraries by agents, so readers can search from the closest library. This study adds only one component to the kernel library, and the other libraries do not add this component. They maintain their original status. Readers do not use a browser; they directly communicate with the library search system, saving much time. Readers without IT skills can also easily search for books in the library system. 相似文献
12.
Zusammenfassung. Im Rahmen des F?rderprogramms Neue Medien in der Bildung f?rdert das BMBF das Vorhaben „MuSofT – Multimedia in der Softwaretechnik”. Dieses Vorhaben soll in den n?chsten drei Jahren
multimediale Lehr- und Lerneinheiten in die softwaretechnische Lehre einführen und insbesondere drei Aspekte der Softwaretechnik-Ausbildung
unterstützen. Im ersten Aspekt wird die objektorientierte Modellierung als eine Folge von Phasen betrachtet, innerhalb deren
Software-Produkte schrittweise konstruiert werden. Hierzu geh?ren insbesondere die Analysephase mit dem Erfassen von Benutzeranforderungen
und die anschlie?ende Entwurfsphase mit dem Umsetzen dieser Anforderungen in technische Modelle. Ein zweiter Aspekt ist die
Auseinandersetzung mit dem Entwicklungsprozess selbst und den dazugeh?renden übergreifenden T?tigkeiten wie dem Projektmanagement
und der Qualit?tssicherung. Ein dritter Aspekt ist die fachdidaktische Herangehensweise an die softwaretechnische Ausbildung,
die insbesondere für die Informatiklehrerausbildung von gro?er Bedeutung ist.
相似文献
13.
Albert Endres 《Informatik - Forschung und Entwicklung》2006,20(4):230-235
Zusammenfassung Viele Innovationen bauen auf Erfindungen auf. Das l?sst sich an einigen wichtigen Produktlinien aus der Informatik zeigen.
Immer mehr Entwickler lassen inzwischen ihre neuen Ideen durch Patente schützen. Das gilt auch für software-bezogene Erfindungen.
Dies geschieht trotz, und weitgehend unbehelligt von der in Europa geführten ?ffentlichen Debatte über den Wert von software-bezogenen
Patenten. Dass hier gro?e Interessenkonflikte aufeinander sto?en, ist unübersehbar. Da diese Diskussionen teilweise auf Fehleinsch?tzungen
beruhen, ist es m?glich, dass dadurch die entwickelnde und exportierende Industrie Schaden erleidet. Auch in der Informatik
ben?tigen wir ein politisches und gesellschaftliches Klima, das Erfindungen und Innovationen f?rdert.
Many innovations are based on inventions. This can be shown for several important product lines in the computing field. More and more, developers protect their new ideas by means of patents. This also applies to software related inventions. It occurs in spite of, and largely unimpaired, by the debates going on in Europe concerning the value of software patents. Here significant conflicts of interest are visible. Since some of the discussions are based on misconceptions, this may cause damage to the developing and exporting industry. Also in computing, a political and social climate is needed that fosters inventions and innovations.
相似文献
14.
15.
Hartmut Ehrig und Martin Gro?e-Rhode 《Informatik - Forschung und Entwicklung》2001,16(2):110-117
Zusammenfassung. Der Softwareanteil in technischen Systemen bekommt einen immer h?heren Stellenwert. Für einen durchg?ngigen und wartbaren
Entwurf der Software sind Spezifikationstechniken erforderlich, die von ingenieurwissenschaftlichen Ablaufbeschreibungen bis
zu (objektorientierten) Softwaremodellen reichen. Wesentlich ist dabei, solche Techniken zu integrieren, um zu einem durchg?ngigen
Systemmodell zu gelangen. Dies ist Gegenstand des DFG-Schwerpunktprogramms „Integration von Techniken der Softwarespezifikation
für ingenieurwissenschaftliche An- wendungen”, in dem Ingenieure und Informatiker in vierzehn Forschungsprojekten gemeinsam
an der Entwicklung integrierter Methoden zur Softwarespezifkation vornehmlich in den Bereichen Produktionsautomatisierung
und Verkehrsleittechnik arbeiten. In diesem Artikel geben wir einen überblick über die Ergebnisse der ersten zwei Jahre des
Schwerpunktprogramms und dessen Ziele für den weiteren Verlauf von vier Jahren.
相似文献
16.
Mario Winter 《Informatik - Forschung und Entwicklung》2000,15(3):121-132
Zusammenfassung. Bei der iterativen, inkrementellen Software-Entwicklung werden Klassen sukzessive spezifiziert, implementiert bzw. ge?ndert
oder erweitert, klassengetestet und zu einem ausführbaren Anwendungssystem integriert. Integrations- und Regressionstest stellen
dabei besonders wichtige und h?ufig ausgeführte Testaktivit?ten dar, die zudem aufgrund der vielf?ltigen Interaktionsm?glichkeiten
in objektorientierten Programmen sehr komplex sind. Integrations- und Regressionstest werden in der Literatur stets separat
behandelt, obwohl sie durchaus ?hnliche Teilaktivit?ten beinhalten. Bestehende Ans?tze zum objektorientierten Integrationstest
betrachten entweder strukturelle oder verhaltensorientierte Systembeschreibungen. In diesem Beitrag stellen wir das Klassen-Botschaftsdiagramm
(KBD) vor, ein Struktur und Verhalten objektorientierter Programme gleicherma?en berücksichtigendes interaktionsbasiertes
(Test-)Modell. Wir skizzieren Algorithmen zur ?nderungsanalyse, Ableitung einer Integrationsstrategie und Auswahl von Regressionstestf?llen
nach der Modifikation bestehender Klassen. Abschlie?end werden die Ergebnisse einiger mit Smalltalk-80 Klassen durchgeführter
Experimente zur Evaluierung des Verfahrens vorgestellt.
Eingegangen am 14. Dezember 1999 / Angenommen am 19. Juni 2000 相似文献
17.
基于XML/RDF的MARC元数据描述技术 总被引:42,自引:1,他引:41
由W3C推出的元数据标准可扩展标记语言XML和资源描述框架RDF分别规范了Internet上资源描述的语法和语义,为元数据的编码、交换和重用提供了基础架构。本文针对目前广泛存在于图书馆系统中的MARC格式的大量书目数据,研究了基于XML/RDF的MARC元数据描述技术,重点解决了MARC元数据的XML描述问题和基于RDF的MARC元数据描述问题,从而使得专用的MARC规范格式的书目数据转换成通用的机器可读和机器可理解的元数据成为可能。本文的研究成果对于现有MARC数据在未来数字图书馆中的利用具有重要意义。 相似文献
18.
Jürgen Abel 《Informatik - Forschung und Entwicklung》2004,18(2):80-87
Zusammenfassung. Der Burrows-Wheeler-Kompressionsalgorithmus hat als ein universelles Kompressionsverfahren in den letzten Jahren aufgrund seiner hervorragenden Kompressionsraten und hohen Verarbeitungsgeschwindigkeiten eine bemerkenswerte Beachtung erfahren. Das Herzstück des Algorithmus stellt die sogenannte Burrows-Wheeler-Transformation dar. Es handelt sich bei dieser Transformation um eine Permutation der Eingabedaten, welche Zeichen mit ähnlichem Kontext nahe beieinander anordnet. Die Transformation sowie die zugehörige Rücktransformation werden zusammen mit den weiteren Stufen des Algorithmus in einer gegenüber der Standardversion verbesserten Variante vorgestellt und die Ergebnisse mit denen anderer Datenkompressionsalgorithmen verglichen. Eingegangen am 12. April 2003, Angenommen am 7. November 2003CR Subject Calssification:
E4, H1.1 相似文献
19.
20.
Jan Scheffczyk Christiane Stutz Uwe M. Borghoff und Johannes Siedersleben 《Informatik - Forschung und Entwicklung》2004,19(1):17-29
Zusammenfassung. Die Spezifikation ist die Grundlage für den Erfolg eines Software-Projekts. Der Praktiker konzentriert sich hier i.d.R. auf die größte Herausforderung: die vollständige und inhaltlich korrekte Erfassung aller Anforderungen an das zu erstellende Software-System. Dass Spezifikationen für große Systeme aus vielen Dokumenten verschiedener Ausprägung in Form und Inhalt bestehen, tritt dabei meist in den Hintergrund. Ihre Konsistenz wird meist mit hohem manuellem Aufwand sichergestellt. Der Erstellung formal korrekter und konsistenter Software-Spezifikationen widmen sich zahlreiche theoretische Arbeiten. In der Praxis sind sie jedoch meist nicht mit der gewohnten Arbeitsweise vereinbar. In diesem Artikel stellen wir einen Mittelweg vor: Wir nutzen die Spezifikationsbausteine von sd&m für die Spezifikation, die als Ergebnisse Dokumente in natürlicher Sprache sowie semi-formale Darstellungen umfasst. Für Spezifikationen, die nach diesen Bausteinen erstellt wurden, definieren wir Konsistenz durch formale zeitbehaftete Konsistenzregeln. Ein von uns entwickeltes Auswertungswerkzeug ermittelt Inkonsistenzen präzise. Unterstützt von einem solchen Werkzeug kann sich der Software-Ingenieur wieder ganz auf das Hauptanliegen der Spezifikation konzentrieren: ihre inhaltliche Korrektheit und Vollständigkeit.Eingegangen am 19. August 2003, Angenommen am 10. März 2004, CR Subject Classification:
D.2.1, D.3.1, H.3.1, I.7.1 相似文献