共查询到20条相似文献,搜索用时 33 毫秒
1.
Theo H?rder und Klaudia Hergula 《Informatik - Forschung und Entwicklung》2002,17(3):135-148
Zusammenfassung. Mit der zunehmenden Zahl an Anwendungssystemen, welche Datenbank und zugeh?rige Anwendung kapseln, ist die reine Datenintegration
nicht mehr ausreichend. Stattdessen k?nnen die Daten des Anwendungssystems nur noch über vordefinierte Funktionen abgefragt
werden. Sollen Daten und Funktionen integriert werden, so ist eine Kombination von deklarativen Anfragen und dem Zugriff auf
Funktionen erforderlich. In diesem Aufsatz stellen wir einen Middleware-Ansatz vor, der diese erweiterte und neuartige Form
der Integration unterstützt. Hierzu werden zun?chst die Probleme der Funktionsintegration er?rtert und eine Spezifikationssprache
eingeführt, die f?derierte Funktionen zu bilden und diese mehreren lokalen Funktionen der zu integrierenden Anwendungssysteme
zuzuordnen erlaubt. Anschlie?end zeigen wir, wie die zugeh?rige Ausführungskomponente – in unserem Fall ein Workflow-Managementsystem
– an ein F?deriertes Datenbanksystem mittels eines Wrappers gekoppelt wird, um die Integration von Daten und Funktionen zu
erm?glichen. Dabei wird die zu unterstützende Funktionalit?t innerhalb des Wrappers sowie deren Auswirkungen auf die Anfrageverarbeitung
als auch das zugeh?rige Kostenmodell untersucht. Abschlie?end wird ein Eindruck von der Performanz der vorgestellten Architektur
vermittelt.
Eingegangen am 19. Februar 2002 / Angenommen am 31. Mai 2002 相似文献
2.
Albert Endres 《Informatik - Forschung und Entwicklung》2006,20(4):236-237
Zusammenfassung So wie viele andere Fachgebiete erzielt die Informatik-Paxis ihre methodischen Fortschritte prim?r dadurch, dass sie aus Erfahrungen
lernt. Das gilt zun?chst und vor allem für die eigene Firma. Welche Erfahrungen zwischen Firmen übertragen werden k?nnen,
ist nicht immer genau vorherzusagen, da der Kontext, für den sie gelten, oft nicht vorhanden ist. Dennoch ist es eine Aufgabe
der Fachgesellschaften und der Fachmedien, in dieser Hinsicht Hilfen und Foren anzubieten. Die Herausgeber der Zeitschrift
Informatik – Forschung und Entwicklung (IFE) fühlen sich diesem Ziel verpflichtet und m?chten den Ideenaustausch zwischen
den Lesern f?rdern. Die folgenden Fragen k?nnen Projektbeteiligten helfen, einen Erfahrungsbericht so zu strukturieren, dass
er auch für Kollegen aus anderen Firmen von Interesse ist. Nicht alle Fragen treffen bei jedem Projekt zu. Ein derartiger
Bericht kann nach jeder Phase eines Projektes erstellt werden, sp?testens jedoch am Ende. Man spricht dann auch von einem
Post mortem. Die Herausgeber von IFE laden dazu ein, in dieser Rubrik weiterhin geeignete Berichte sowohl über Forschungs-
wie über Entwicklungsprojekte zu ver?ffentlichen. Bitte schicken Sie diese an das Sekretariat der Hauptherausgeber (Adresse:
siehe Autorenhinweise). 相似文献
3.
Wolfgang K?fer Norbert Ritter und Harald Sch?ning 《Informatik - Forschung und Entwicklung》1998,13(1):1-17
Zusammenfassung . Schwerpunkte einer Datenbank-Unterstützung von technischen Entwurfsanwendungen sind eine geeignete Ablaufkontrolle sowie
ein geeignetes Datenmodell. Letzteres mu? Versionen komplexer Objekte verwalten k?nnen. Um aus der Gesamtmenge der in einer
Datenbank enthaltenen Versionen konsistente Einheiten (Mengen ‚kompatibler’ Versionen) hervorheben zu k?nnen, werden geeignete
Konfigurierungskonzepte ben?tigt. Dieses Papier gibt eine Klassifikation verschiedener DB-bezogener Konfigurierungsans?tze,
bewertet diese und begründet damit die Wahl, die im Rahmen des Objekt- und Versionsdatenmodells OVM hinsichtlich des zu unterstützenden
Konfigurierungskonzeptes getroffen wurde. Wir werden argumentieren, da? insbesondere die Flexibilit?t, die das gew?hlte Konzept
sowohl hinsichtlich der Definition von Konfigurationstypen als auch hinsichtlich des Anlegens von Konfigurationen bietet,
zu einer besseren Unterstützung von technischen Entwurfsanwendungen als in bestehenden objekt-orientierten Systemen führt.
Eingegangen am 14. Oktober 1996/Angenommen am 27. Oktober 1997 相似文献
4.
Thomas Bauer Manfred Reichert und Peter Dadam 《Informatik - Forschung und Entwicklung》2001,16(2):76-92
Zusammenfassung. Zur Unterstützung von unternehmensweiten und -übergreifenden Gesch?ftsprozessen muss ein Workflow-Management-System (WfMS)
eine gro?e Anzahl von Workflow-Instanzen steuern k?nnen. Daraus resultiert eine hohe Last für die Workflow-Server und das
zugrunde liegende Kommunikationssystem. Ein in der Workflow-Literatur viel diskutierter Ansatz zur Bew?ltigung der Last ist
es, die Workflow-Instanzen verteilt durch mehrere Workflow-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei
Workflow-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen Workflow-Instanz vom Quell- zum Zielserver
übertragen werden müssen, um dort mit der Steuerung fortfahren zu k?nnen. Deshalb belasten Migrationen das Kommunikationssystem
zus?tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert
werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls Gesch?ftsbereiche aus Kostengründen nur
über langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS überhaupt erst erm?glicht.
Eingegangen am 22. Juni 2000 / Angenommen am 25. Januar 2001 相似文献
5.
Otto Rauh 《Informatik - Forschung und Entwicklung》1995,10(3):128-138
Zusammenfassung. Traditionelle und deduktive Informationssysteme werden heute immer noch isoliert voneinander modelliert und implementiert.
Für die meisten Benutzer sind jedoch Systeme wichtig, die ihren allt?glichen Informationsbedarf decken und darüber hinaus
deduktive F?higkeiten besitzen. Der bekannte Entity-Relationship-Ansatz zur konzeptionellen Datenmodellierung wird in dieser
Arbeit so erweitert, da? damit solche integrierten Systeme modelliert werden k?nnen. Au?erdem wird eine Klassifizierung ableitbarer
Daten eingeführt, die dem Analytiker Hilfestellung bei der Frage gibt, welche ableitbaren Daten bei der Modellierung berücksichtigt
werden sollen und welche nicht.
Eingegangen am 2. November 1994 / Angenommen am 30. M?rz 1995 相似文献
6.
Stefan Dorendorf 《Informatik - Forschung und Entwicklung》2005,20(1-2):72-89
Stetig wachsende Datenmengen und hohe Verfügbarkeitsanforderungen an Datenbanken führen dazu, dass Wartungsarbeiten (wie z.B.
Datenbankreorganisationen) oft nicht mehr (oder nicht mehr vollst?ndig) offline in zur Verfügung stehenden Zeitfenstern durchgeführt werden k?nnen bzw. dass die Kosten oder die Behinderungen des normalen
Datenbankbetriebs bei online durchgeführten Wartungsarbeiten nicht mehr vernachl?ssigt werden k?nnen. Deshalb sollte vorab bestimmt (quantifiziert) werden,
ob der zu erwartende Nutzen den mit der Reorganisation verbundenen Aufwand rechtfertigt. Es ist daher wichtig, die Datenbankobjekte
zu lokalisieren und einzugrenzen, bei denen ein hoher Wartungsbedarf besteht. Weiterhin ist es wünschenswert, zun?chst den
durch Wartungsma?nahmen erreichbaren Nutzen vor ihrer Durchführung quantifizieren zu k?nnen. Dieser Nutzen ist auch von der
Workload abh?ngig, also von den gegen die Datenbankobjekte gerichteten Datenbankanweisungen und deren Ausführungsh?ufigkeiten.
Insbesondere der zur Workload-Abarbeitung anfallende I/O-Aufwand, der einen dominierenden Anteil am Gesamtaufwand ausmacht,
l?sst sich mit einer Datenbankreorganisation u.U. wesentlich beeinflussen (reduzieren). In diesem Beitrag wird eine Methode
vorgestellt, die es erm?glicht, die Auswirkungen einer Datenbankreorganisation auf den zur Workload-Abarbeitung notwendigen
I/O-Aufwand abzusch?tzen und damit den haupts?chlichen Nutzen der Reorganisation zu quantifizieren. über erste Erfahrungen
mit der Methode, die anhand von Beispielen gesammelt wurden, wird berichtet.
The permanent increasing amount of data and the requirement of high availability cause that maintenance of databases (e.g.
database reorganizations) often is not or not completely (off-line) possible in the available time spans. On-line database
reorganizations are often expensive and cumbersome during the normal database processing. To reduce performance impacts it
is important to locate the database objects that have a high level of disorganization and so a high need of maintenance. Furthermore,
it is desirable to be able to estimate the benefit of expensive maintenance operations before their processing. This benefit
depends on the degree of disorganization and on the instructions that are processed on the database objects (workload). In
particular, the costs for I/O-operations dominate the total costs for database operations. With database reorganizations it
is possible to reduce the I/O-costs. In this paper we present a method to calculate the benefit of database reorganizations
before the processing. The presented method allows to calculate the possible reduction of the I/O-cost for processing a given
workload caused by a database reorganization.
CR Subject Classification E.2,H.2.7,H.3.2,H.3.3 相似文献
7.
Michael Beyer Andreas Rose Emanuel Jank J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,18(4):147-160
Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen. 相似文献
8.
Zusammenfassung. Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste
analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten
der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend
auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen
Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die
bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein
Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System
nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen,
da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt.
Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um
zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen
als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten
und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen
Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test
nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt.
In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische
Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von
Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern
und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen.
Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000 相似文献
9.
Ulrich Thiel André Everts Barbara Lutes und Kostas Tzeras 《Informatik - Forschung und Entwicklung》1998,13(3):147-158
Zusammenfassung. In diesem Beitrag wird eine „digitale Bibliothek” definiert als informationelle Umgebung, in der in integrierter Form verteilte
Informationsquellen zug?nglich sind. Die Suche ist normalerweise ein interaktiver Proze?, in dem verfügbare Informationen
in unterschiedlichen Formaten und in unterschiedlichen Kontexten benutzt werden. Ein wichtiges Forschungsthema im Bereich
digitaler Bibliotheken ist daher der Entwurf anwendungsspezifischer Methoden für den Zugang zu heterogenen Wissensquellen,
die sich bzgl. Thema, Format, Verfügbarkeit, Qualit?t und vieler anderer Eigenschaften stark unterscheiden k?nnen. Um dieser
Anforderung gerecht zu werden, müssen die eingesetzten Information-Retrieval-Systeme eine sehr pr?zise Suche erm?glichen.
Dabei reicht es nicht aus, lediglich Dokumente und Daten nachzuweisen, vielmehr müssen die gefundenen Informationen im Kontext
des Informationsbedarfs des Benutzers eingebunden sein. Für diese Aufgabe schlagen wir Retrieval-Methoden vor, die auf abduktiver
Logik basieren.
Eingegangen am 19. Januar 1998 / Angenommen am 28. Juli 1998 相似文献
10.
Michael Beyer Andreas Rose Emanuel Jank und J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,22(3):147-160
Zusammenfassung Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen.
CR subject classification J.3 ; I.6.5 相似文献
11.
Jede Datenbankprogrammierschnittstelle mu? sich daran messen lassen, inwieweit sie die Vorteile der durch sie integrierten Sprachen (Datenbank- und Programmiersprache) erh?lt. Neben dieser allgemeinen Zielsetzung müssen heutzutage neuere Konzepte in den Bereichen Programmiersprachen und Datenbanksysteme sowie die Anforderungen komplexer Anwendungsbereiche (z. B. CAD oder Software-Entwicklung) beachtet werden. Unser Ansatz der generierten Aufrufschnittstellen soll dazu beitragen, Datenmodelle objekt- relationaler Datenbanksysteme und Typsysteme objektorientierter Programmiersprachen n?her zusammenzurücken. Er erlaubt neben der Schnittstellengenerierung ihre anwendungsspezifische Konfigurierung, um die DB-Verarbeitung spezieller Anwendungen gezielt optimieren zu k?nnen. Wir werden neben Aspekten der Generierung/Konfigurierung die Nutzung von generierten Aufrufschnittstellen beschreiben und Experimente vorstellen, die den durch diesen Ansatz erzielbaren Leistungsgewinn verdeutlichen. Letzterer kann durch gezielten, auf die jeweilige Anwendung zugeschnittenen Einsatz von frühen Bindungen für Datenmanipulationsoperationen sowie von Pointer-Swizzling-/Prefetching-Mechanismen erreicht werden. 相似文献
12.
Fan Dai 《Informatik - Forschung und Entwicklung》1998,13(1):18-25
Zusammenfassung. Virtuelle Welten stellen Abstraktionen unserer realen Welt bzw. unserer Erfahrung mit der realen Umgebung dar. Diese Abstraktionen
k?nnen Computeranimationen und interaktive 3D-Simulationen, aber auch Geschichten, Erz?hlungen und Tr?ume sein. Wir wollen
sie in diesem Beitrag aus Sicht der Informatik betrachten, wo virtuelle Welten 3D-Szenen sind, die mit rechnerbasierten Techniken
erzeugt werden. Die Anf?nge der rechnergenerierten virtuellen Welten waren Computeranimationen, die seit einigen Jahren kommerziell
verfügbar sind. In den letzten wenigen Jahren hat sich die Technik der virtuellen Realit?t soweit entwickelt, da? zahlreiche
Anwendungen zur visuellen Echtzeitpr?sentation von 3D-Objekten/R?umen realisiert werden k?nnen, die Walkthroughs genannt werden.
Die Entwicklung geht nun in Richtung lebendiger virtueller Welten, in denen sich die virtuellen Objekte bewegen, ver?ndern
und auf die Umgebung, inklusive den Benutzer, reagieren. Dieser Beitrag diskutiert diese Entwicklung und stellt die dazugeh?rigen
Techniken und Methoden vor.
Eingegangen am 5. September 1997 / Angenommen am 3. Februar 1998 相似文献
13.
Steffen E. Seufert 《Informatik - Forschung und Entwicklung》2002,17(1):1-11
Zusammenfassung. In diesem Beitrag wird ein formaler Ansatz zur Ableitung von Zugriffsrechten auf der Basis eines formalen Organisationsmodells
vorgestellt. Hierzu wird der Ansatz der rollenbasierten Zugriffskontrolle (engl. Role-Based Access Control, kurz RBAC) um die M?glichkeit erweitert, Aufbauorganisationen zu modellieren. Der Vorteil gegenüber rollenbasierten Ans?tzen mit einfachen
Rollenhierarchien ist die klare Struktur, die einem Zugriffskontrollmodell durch die Organisationsform aufgepr?gt wird. Des
Weiteren k?nnen organisatorische Regelungen, wie z.B. Urlaubsvertretung oder Weisungsbefugnis, direkt im Modell hinterlegt
werden. Aufwendig zu pflegende und h?ufig inkonsistente Rollenkataloge werden obsolet. Sicherheitsstrategien mit unpr?zisen
Vorgaben lassen sich mittels der vorgestellten Technik der sog. `Kompetenzerweiterung' umsetzen. Das zugrundeliegende Paradigma
des vorgestellten Ansatzes unterscheidet sich stark von anderen Ans?tzen mit statischer Autorisation. Nutzer k?nnen sich Zugriffsrechte
in fest definierten Grenzen selbstverantwortlich zuteilen, wobei jedoch eine nachtr?gliche Kontrolle stark vereinfacht und
damit praktikabel wird.
Eingegangen am 22. Februar 2001 / Angenommen am 22. Mai 2001 相似文献
14.
Stephan Ewen Michael Ortega-Binderberger und Volker Markl 《Informatik - Forschung und Entwicklung》2005,20(3):138-151
Zusammenfassung Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt.
CR Subject Classification H.2.4,H.2.5,D.3.4 相似文献
15.
Stephan Ewen Michael Ortega-Binderberger Volker Markl 《Informatik - Forschung und Entwicklung》2005,10(4):138-151
Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt. 相似文献
16.
Der gleichzeitige Betrieb mehrerer Gast-Betriebssysteme auf einem einzigen physischen Rechner unter einem Host-Betriebssystem ist eine leistungsfähige moderne Entwicklung. Bekannte Beispiele sind VMware für die IA32-Architektur sowie das Betriebssystem z/VM und die PR/SM-LPAR Einrichtungen der zSeries-Architektur. Die Nutzung eines Betriebssystems als Gast bedingt einen Leistungsverlust. Die als Partitionierung bezeichnete Zuordnung von Systemressourcen zu den einzelnen Gast-Betriebssysteme ist schwierig, wenn eine dynamische Anpassung an sich ändernde Lastprofile erforderlich ist. Diese Probleme lassen sich mittels Erweiterungen der Hardwarearchitektur adressieren, sowie durch Softwarestrukturen, welche diese Erweiterungen nutzen. Die Erweiterungen der Hardwarearchitektur gehen über das hinaus, was auf heutigen Rechnerarchitekturen wie IA32 oder Mips verfügbar ist. Der vorliegende Beitrag erläutert den optimalen Betrieb von Gast-Betriebssystemen und die begleitenden Partitionierungsmöglichkeiten auf der zSeries-Plattform und beschreibt die zusätzlichen Hardware- und Software-Einrichtungen, welche dies ermöglichen. 相似文献
17.
Otto Rauh 《Informatik - Forschung und Entwicklung》1997,12(3):117-127
Zusammenfassung. Redundante Komponenten in Entity-Relationship-Schemata führen zu Speicherverschwendung und Fehlern bei der Nutzung der aus
dem Schema gewonnenen Datenbanken. Zwischen Schemaredundanz und dem Konzept der ableitbaren Komponenten besteht eine enge
Verbindung, denn redundante Schemakomponenten sind stets ableitbar. Andererseits ist nicht jede ableitbare Komponente auch
redundant. Es wird deshalb zun?chst das Verh?ltnis zwischen redundanten und ableitbaren Komponenten diskutiert und eine Klassifizierung
eingeführt, welche die Modellierer bef?higt, entbehrliche von nicht entbehrlichen Komponenten zu unterscheiden. Eine spezielle
Art ableitbarer Komponenten, die Verkettung von Beziehungsarten, wird anschlie?end mit allen ihren Erscheinungsformen vorgestellt.
Au?erdem werden Methoden diskutiert, die helfen k?nnen, Verkettungen aufzudecken.
Eingegangen am 30. Mai 1996 / Angenommen am 8. April 1997 相似文献
18.
Markus Keidl Alfons Kemper Donald Kossmann Alexander Kreutz 《Informatik - Forschung und Entwicklung》2002,10(1):123-134
Wir pr?sentieren in dieser Arbeit das ObjectGlobe-System, ein offenes und verteiltes Anfragebearbeitungssystem auf Internet-Datenquellen. ObjectGlobe erweitert die begrenzten F?higkeiten des Internets bezüglich Anfragebearbeitung, indem es einen offenen Marktplatz schafft, in dem eine Vielzahl von Anbietern Rechenzeit, Daten und Anfrageoperatoren bereitstellen. Den Schwerpunkt dieses Beitrags bildet die im Rahmen des ObjectGlobe-Projekts entwickelte Metadatenverwaltung MDV, ein verteiltes Metadaten-Management-System. Es besitzt eine 3-schichtige Architektur und unterstützt Caching und Replikation in der Mittelschicht, so dass Anfragen lokal ausgewertet werden k?nnen. Benutzer spezifizieren die Informationen, die sie ben?tigen und die repliziert werden, mit Hilfe einer besonderen Regelsprache. Um Replikate aktuell zu halten und die Replikation von neuen und relevanten Informationen anzusto?en, verwendet das MDV-System einen neuartigen Publish & Subscribe-Algorithmus. Wir beschreiben diesen Algorithmus im Detail und zeigen, wie er mit Hilfe eines normalen relationalen Datenbanksystems implementiert werden kann. 相似文献
19.
Markus Keidl Alfons Kemper Donald Kossmann und Alexander Kreutz 《Informatik - Forschung und Entwicklung》2002,17(3):123-134
Zusammenfassung. Wir pr?sentieren in dieser Arbeit das ObjectGlobe-System, ein offenes und verteiltes Anfragebearbeitungssystem auf Internet-Datenquellen.
ObjectGlobe erweitert die begrenzten F?higkeiten des Internets bezüglich Anfragebearbeitung, indem es einen offenen Marktplatz
schafft, in dem eine Vielzahl von Anbietern Rechenzeit, Daten und Anfrageoperatoren bereitstellen. Den Schwerpunkt dieses
Beitrags bildet die im Rahmen des ObjectGlobe-Projekts entwickelte Metadatenverwaltung MDV, ein verteiltes Metadaten-Management-System.
Es besitzt eine 3-schichtige Architektur und unterstützt Caching und Replikation in der Mittelschicht, so dass Anfragen lokal
ausgewertet werden k?nnen. Benutzer spezifizieren die Informationen, die sie ben?tigen und die repliziert werden, mit Hilfe
einer besonderen Regelsprache. Um Replikate aktuell zu halten und die Replikation von neuen und relevanten Informationen anzusto?en,
verwendet das MDV-System einen neuartigen Publish & Subscribe-Algorithmus. Wir beschreiben diesen Algorithmus im Detail und
zeigen, wie er mit Hilfe eines normalen relationalen Datenbanksystems implementiert werden kann.
Eingegangen am 19. November 2001 / Angenommen am 30. Juli 2002 相似文献
20.
Rainer Koschke 《Informatik - Forschung und Entwicklung》2005,6(6):127-140
Software-Architekturen werden aus verschiedenen Sichten beschrieben, die abh?ngig von den Anliegen sind, die mit der Beschreibung
verfolgt werden. In vielen F?llen ist die Software-Architektur eines Systems nicht ausreichend beschrieben. Sichten müssen
dann rekonstruiert werden, um für Planung von ?nderungen zur Verfügung zu stehen.
Dieser Artikel fasst die in der wissenschaftlichen Literatur vorgeschlagenen Techniken zur Rekonstruktion von Software-Architektursichten
zusammen und stellt sie den Sichten des Architekturentwurfs gegenüber. Anhand der Gegenüberstellung identifiziert er Forschungsbedarf. 相似文献