首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 234 毫秒
1.
Eine Vernetzung der Dienstleister im Gesundheitswesen wird aus Effizienzgründen immer wichtiger. Schwierigkeiten bereitet jedoch die Interoperabilität, womit die korrekte Kommunikation von beteiligten Softwaresystemen verschiedener Herkunft gemeint ist. Dieser Beitrag konzentriert sich auf die Interoperabilitätsproblematik auf der Ebene der Anwendungsarchitekturen. Mit Hilfe von Standards und Integrationstechniken bemühen sich verschiedene Lösungsansätze die Heterogenität zu überwinden, die einer umfassenden Interoperabilität im Wege steht. Die Frage, die sich uns in diesem Zusammenhang nun stellt ist, ob diverse Standards im Gesundheitswesen sinnvoll kombiniert werden können bzw. zwischen ihnen vermittelt werden kann. In diesem Artikel stellen wir die Grundzüge einer Architektur vor, die auf der Basis von Standards eine institutionsübergreifende Interoperabilität im Gesundheitswesen ermöglichen soll. Die Strukturen der relevanten Standards werden einheitlich als Instanzen des Meta-Object Facility (MOF) spezifiziert und dann geeignet zueinander in Beziehung gesetzt. Die resultierenden Modelle und Metamodelle bilden einen Leitfaden zur Strukturanalyse der Standards und helfen so beim Entwurf der Transformationen zwischen den verschiedenen Standards. Architektur und Metamodelle dienen als Grundlage für eine prototypische Implementierung am Beispiel des Epidemiologischen Krebsregisters Niedersachsen zur Evaluation des vorgestellten Konzeptes.  相似文献   

2.
    
Zusammenfassung. Eine Vernetzung der Dienstleister im Gesundheitswesen wird aus Effizienzgründen immer wichtiger. Schwierigkeiten bereitet jedoch die Interoperabilität, womit die korrekte Kommunikation von beteiligten Softwaresystemen verschiedener Herkunft gemeint ist. Dieser Beitrag konzentriert sich auf die Interoperabilitätsproblematik auf der Ebene der Anwendungsarchitekturen. Mit Hilfe von Standards und Integrationstechniken bemühen sich verschiedene Lösungsansätze die Heterogenität zu überwinden, die einer umfassenden Interoperabilität im Wege steht. Die Frage, die sich uns in diesem Zusammenhang nun stellt ist, ob diverse Standards im Gesundheitswesen sinnvoll kombiniert werden können bzw. zwischen ihnen vermittelt werden kann. In diesem Artikel stellen wir die Grundzüge einer Architektur vor, die auf der Basis von Standards eine institutionsübergreifende Interoperabilität im Gesundheitswesen ermöglichen soll. Die Strukturen der relevanten Standards werden einheitlich als Instanzen des Meta-Object Facility (MOF) spezifiziert und dann geeignet zueinander in Beziehung gesetzt. Die resultierenden Modelle und Metamodelle bilden einen Leitfaden zur Strukturanalyse der Standards und helfen so beim Entwurf der Transformationen zwischen den verschiedenen Standards. Architektur und Metamodelle dienen als Grundlage für eine prototypische Implementierung am Beispiel des Epidemiologischen Krebsregisters Niedersachsen zur Evaluation des vorgestellten Konzeptes.Eingegangen am 14. März 2003, Angenommen am 9. Januar 2004, CR Subject Classification: H.2.1, H.2.5, J.3.  相似文献   

3.
Zusammenfassung.   Die automatische Erkennung und Lokalisation von Objekten in digitalen Bildern ist ein wesentlicher Bestandteil vieler praktisch relevanter Anwendungen. In diesem Artikel wird ein erscheinungsbasiertes Verfahren zur Erkennung starrer zwei- oder dreidimensionaler Objekte vorgestellt, dem eine statistische Modellierung zugrundeliegt. Im Gegensatz zu segmentierungsbasierten Verfahren, wie sie vor allem im Bereich der 3D-Objekterkennung eingesetzt werden, erm?glicht der erscheinungsbasierte Ansatz aufgrund der Modellierung der Intensit?tswerte oder davon abgeleiteter lokaler Merkmale eines Bildes die Erkennung komplexer Objekte. Die statistische Formulierung der Problemstellung bildet den mathematischen Kontext zur Bestimmung optimaler L?sungen. Die Form der Modellierung erlaubt neben der Einzelobjekterkennung auch die Berücksichtigung von heterogenem Bildhintergrund und Mehrobjektszenen. Die dazu ben?tigten lokalen Merkmale entstehen durch r?umlich begrenzte Transformationen des Bildes, wie beispielsweise Gabor- oder Wavelet-Transformationen. Die statistische Modellierung beschreibt die Verteilung dieser lokalen Merkmale anhand einer Dichtefunktion, die sich bei der Hintergrund- und Mehrobjektmodellierung als Mischungsverteilung der Einzelobjektverteilungen ergibt. Die Aufgabenstellungen des Erlernens und Erkennens von Objekten sind damit als Parametersch?tzprobleme formal darstellbar. Dabei werden im einen Fall die Modellparameter und im anderen Fall die Lageparameter beziehungsweise die Klassen von Objekten gesch?tzt. Die experimentelle überprüfung des Ansatzes anhand realer Objektaufnahmen durch CCD-Kameras zeigt seine Brauchbarkeit zur Erkennung von 2D- und 3D-Objekten bei homogenem und heterogenem Hintergrund. Eingegangen am 5. April 2000 / Angenommen am 20. Juli 2001  相似文献   

4.
Während Projekt-Management-Systeme zur Planung fast jedes Projekts eingesetzt werden, gewinnen Workflow-Management-Systeme für die Realisierung von prozessorientierten Anwendungen zunehmend an Bedeutung. Da sich beide Systemarten um das Management von Abläufen kümmern, ist eine Kooperation entsprechender Systeme für die Praxis sehr relevant. In diesem Beitrag stellen wir die einschlägigen wissenschaftlichen und kommerziellen Ansätze vor und untersuchen sie ausführlich. Da diese nur über eine unzureichende Funktionalität verfügen, entwickeln wir anschließend Architekturen, die ein besseres Zusammenspiel der beiden Systemarten erlauben. Dabei gehen wir auch auf den in der Literatur bisher nicht betrachteten Fall ein, dass die Projektplanung auf einem höheren Abstraktionsniveau erfolgt als die Modellierung und Ausführung der Workflows. Wir zeigen für diesen in der Praxis häufig anzutreffenden Fall auf, wie eine Kooperation der beiden Systemarten mit einer auf Event-Condition-Action-Rules basierenden generischen Kopplungsarchitektur realisiert werden kann.  相似文献   

5.
Zusammenfassung. Während Projekt-Management-Systeme zur Planung fast jedes Projekts eingesetzt werden, gewinnen Workflow-Management-Systeme für die Realisierung von prozessorientierten Anwendungen zunehmend an Bedeutung. Da sich beide Systemarten um das Management von Abläufen kümmern, ist eine Kooperation entsprechender Systeme für die Praxis sehr relevant. In diesem Beitrag stellen wir die einschlägigen wissenschaftlichen und kommerziellen Ansätze vor und untersuchen sie ausführlich. Da diese nur über eine unzureichende Funktionalität verfügen, entwickeln wir anschließend Architekturen, die ein besseres Zusammenspiel der beiden Systemarten erlauben. Dabei gehen wir auch auf den in der Literatur bisher nicht betrachteten Fall ein, dass die Projektplanung auf einem höheren Abstraktionsniveau erfolgt als die Modellierung und Ausführung der Workflows. Wir zeigen für diesen in der Praxis häufig anzutreffenden Fall auf, wie eine Kooperation der beiden Systemarten mit einer auf Event-Condition-Action-Rules basierenden generischen Kopplungsarchitektur realisiert werden kann.CR Subject Classification: K.6.1, H.4.1Eingegangen am 9. Dezember 2003 / Agenommen am 24. März 2004, Online publiziert: 1. Juli 2004  相似文献   

6.
Zusammenfassung.   Ein zentrales Problem bei der Integration heterogener Datenquellen ist die Bestimmung einer gesamtheitlichen Beschreibung des integrierten Datenbestands. Ausgehend von den Beschreibungen (Datenbankschemata) der vorhandenen Datenbest?nde ist ein integriertes Schema zu bilden, das als konzeptionelles Schema des Gesamtdatenbestands dient. Dieser Prozess wird als Schemaintegration bezeichnet. Ausgehend von einer abstrakten Systemarchitektur für f?derierte Datenbanksysteme, die als Basis für vielf?ltige Integrationszenarien verwendet werden kann, stellen wir zun?chst eine Schema-Referenzarchitektur vor, die den Prozess der Schemaintegration darzustellen hilft. Anschlie?end wird eine einfache Klassifikation von Integrationskonflikten wiedergegeben, bevor wir die gemeinsamen Grundprinzipien vieler Schemaintegrationsverfahren vorstellen. Wir analysieren dann die St?rken und Schw?chen der bekannten Schemaintegrationsverfahren. Aus dieser Analyse ergeben sich verschiedene Fragestellungen, die aktuell Gegenstand der Forschung sind bzw. noch erforscht werden müssen. Mit einer kurzen Darstellung ausgew?hlter Fragen schlie?t dieser Beitrag. Eingegangen am 20. November 2001 / Angenommen am 21. M?rz 2002  相似文献   

7.
Der Beitrag stellt AutoFocus vor, einen Werkzeugprototyp zur Entwicklung verteilter, eingebetteter Systeme auf der Grundlage formaler Techniken. AutoFocus unterstützt die Systementwicklung mit integrierten, im wesentlichen graphischen Beschreibungstechniken, mit deren Hilfe sowohl unterschiedliche Sichten als auch verschiedene Abstraktionsebenen eines Systems beschrieben werden. Um konsistente und vollst?ndige Beschreibungen sicherzustellen, bietet AutoFocus die M?glichkeit, Konsistenzbedingungen zu formulieren und Systembeschreibungen daraufhin zu überprüfen. Aus ausführbaren Spezifikationen k?nnen Prototypen des entwickelten Systems erzeugt werden und in einer Simulationsumgebung ausgeführt und visualisiert werden. Zur formalen Verifikation von Systemeigenschaften verfügt AutoFocusüber Anbindungen an Modellprüfungswerkzeuge wie -cke oder SMV.  相似文献   

8.
Zusammenfassung. In der Arbeit werden klausale Spezifikationen zur Beschreibung von Programmen auf der Ebene des funktionalen Entwurfs betrachtet. Die Axiome solch einer Spezifikation bestehen aus positiv/negativ bedingten Gleichungen, die neue Operatoren über einer fest eingebauten Algebra definieren. Wir definieren als Semantik von eine Algebra , die initial in der Klasse aller Modelle ist. Es wird ein Inferenzsystem angegeben, mit dem man die Gültigkeit von positiv/negativ bedingten Gleichungen in beweisen kann. Dieses Inferenzsystem erlaubt es auch, die Gültigkeit von Behauptungen zu widerlegen. Eingegangen am 19. Juli 1994 / Angenommen am 7. November 1995  相似文献   

9.
Der gleichzeitige Betrieb mehrerer Gast-Betriebssysteme auf einem einzigen physischen Rechner unter einem Host-Betriebssystem ist eine leistungsfähige moderne Entwicklung. Bekannte Beispiele sind VMware für die IA32-Architektur sowie das Betriebssystem z/VM und die PR/SM-LPAR Einrichtungen der zSeries-Architektur. Die Nutzung eines Betriebssystems als Gast bedingt einen Leistungsverlust. Die als Partitionierung bezeichnete Zuordnung von Systemressourcen zu den einzelnen Gast-Betriebssysteme ist schwierig, wenn eine dynamische Anpassung an sich ändernde Lastprofile erforderlich ist. Diese Probleme lassen sich mittels Erweiterungen der Hardwarearchitektur adressieren, sowie durch Softwarestrukturen, welche diese Erweiterungen nutzen. Die Erweiterungen der Hardwarearchitektur gehen über das hinaus, was auf heutigen Rechnerarchitekturen wie IA32 oder Mips verfügbar ist. Der vorliegende Beitrag erläutert den optimalen Betrieb von Gast-Betriebssystemen und die begleitenden Partitionierungsmöglichkeiten auf der zSeries-Plattform und beschreibt die zusätzlichen Hardware- und Software-Einrichtungen, welche dies ermöglichen.  相似文献   

10.
Zusammenfassung.   Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen, da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt. Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt. In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen. Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000  相似文献   

11.
Zusammenfassung. Kollektionen wie Mengen, Listen und Felder spielen in objektorientierten Anwendungen und Datenbanken eine wichtige Rolle. Dementsprechend sollten sie zusammen mit anderen objektrelationalen Konzepten auch in die aktuelle Datenbanknorm SQL:1999 eingebracht werden. Aus Aufwands- und Zeitgründen wurden jedoch vom Normungsgremium, zu dem auch die Vertreter wichtiger Hersteller kommerzieller (objekt-)relationaler Datenbankmanagementsysteme gehören, zunächst nur Felder (Arrays) berücksichtigt; andere Kollektionsarten sollen erst später folgen. Auch in wichtigen DBMS-Produkten werden Kollektionen bislang nur unzureichend und auf heterogene Art und Weise unterstützt. Dieser Beitrag beschäftigt sich mit den Möglichkeiten einer Ergänzung von SQL:1999 um wichtige Kollektionsarten. Basierend auf dem aktuellen Stand von Norm und Produkten werden prinzipielle Fragen der Integration in SQL diskutiert und die Grundlagen einer adäquaten Unterstützung von Kollektionen erörtert. Der formale Sprachvorschlag auf Basis von SQL:1999 kann hier aus Platzgründen nicht näher vorgestellt werden, einige Beispiele sollen aber die Anwendung der neuen Modellierungsmöglichkeiten verdeutlichen. Eingegangen am 15. Februar 2002/Angenommen am 10. September 2002CR Subject Classification H.2.1, H.2.3, H.2.4, D.3.3  相似文献   

12.
Dieser Beitrag erl?utert neue Ans?tze und Ergebnisse der statistischen Lerntheorie. Nach einer Einleitung wird zun?chst das Lernen aus Beispielen vorgestellt und erkl?rt, dass neben dem Erkl?ren der Trainingdaten die Komplexit?t von Lernmaschinen wesentlich für den Lernerfolg ist. Weiterhin werden Kern-Algorithmen in Merkmalsr?umen eingeführt, die eine elegante und effiziente Methode darstellen, verschiedene Lernmaschinen mit kontrollierbarer Komplexit?t durch Kernfunktionen zu realisieren. Beispiele für solche Algorithmen sind Support-Vektor-Maschinen (SVM), die Kernfunktionen zur Sch?tzung von Funktionen verwenden, oder Kern-PCA (principal component analysis), die Kernfunktionen zur Extraktion von nichtlinearen Merkmalen aus Datens?tzen verwendet. Viel wichtiger als jedes einzelne Beispiel ist jedoch die Einsicht, dass jeder Algorithmus, der sich anhand von Skalarprodukten formulieren l?sst, durch Verwendung von Kernfunktionen nichtlinear verallgemeinert werden kann. Die Signifikanz der Kernalgorithmen soll durch einen kurzen Abriss einiger industrieller und akademischer Anwendungen unterstrichen werden. Hier konnten wir Rekordergebnisse auf wichtigen praktisch relevanten Benchmarks erzielen.  相似文献   

13.
    
Zusammenfassung. Die Erfassung und Umsetzung von Anforderungen an ein Software-Produkt stellt in interdisziplinären Projekten hohe Anforderungen an die Kommunikation zwischen den Projektpartnern. Das Requirements Engineering bietet zwar genügend systematische Ansätze, Anforderungen zu explorieren, zu validieren oder auf Konsistenz zu testen, sodass eine angemessene Umsetzung zum Beispiel durch inkrementelles Prototyping folgen kann. Diese Systematik zielt jedoch auf Entwurf und Implementierung von Software ab. Wir stellen einen Ansatz vor, der eine geeignete Auswahl kommerzieller Werkzeuge schrittweise, also inkrementell nutzt, um in einem interdisziplinären Projekt Anforderungen an webbasierte Studieneinheiten für die klassischen Altertumswissenschaften zu erheben, prototypisch zu gestalten und den Entwicklungsprozess der Studieneinheiten mit Hilfe eines Content Management Systems zu organisieren und zu strukturieren. Hierbei treten bemerkenswerte Parallelen zum klassischen Prototyping auf. Das methodische Vorgehen wird als Ergänzung zur klassischen Anforderungserfassung im Falle nicht-technisch ausgerichteter Projektpartner diskutiert.Eingegangen am 1. Oktober 2002, Angenommen am 16. Januar 2004, CR Subject Classification: D.2.1, H.5.1, I.7.2, K.3.1, K.4.3, J.5, H.1.2  相似文献   

14.
Zusammenfassung.   Moderne Software-Entwicklungsumgebungen arbeiten mit einer Vielzahl von Editoren und Anzeigewerkzeugen, wobei der Informationsgehalt mehrerer Fenster überlappen kann. Wenn nun irgendein Werkzeug Dokumente ?ndert, müssen alle betroffenen Anzeigen korrigiert werden. Hierzu werden heute in mehrbenutzerf?higen, verteilten Software-Entwicklungsumgebungen überwiegend Kommunikationssysteme wie z.B. ToolTalk™ eingesetzt. Diese verursachen einen relativ hohen Programmier- und Laufzeitaufwand und sind insofern unsicher, als Anzeigewerkzeuge nicht von allen Ver?nderungen an den Daten informiert werden, u.a. von ?nderungen durch nicht integrierte Werkzeuge. Dieses Papier stellt einen Benachrichtigungsmechanismus für Software-Entwicklungsumgebungen vor, der effizient, leicht benutzbar und sicher ist, sowie seine Implementierung im Objektmanagementsystem H-PCTE. Eingegangen am 24. Dezember 1996 / Angenommen am 19. September 1997  相似文献   

15.
Zusammenfassung.   Der Beitrag stellt AutoFocus vor, einen Werkzeugprototyp zur Entwicklung verteilter, eingebetteter Systeme auf der Grundlage formaler Techniken. AutoFocus unterstützt die Systementwicklung mit integrierten, im wesentlichen graphischen Beschreibungstechniken, mit deren Hilfe sowohl unterschiedliche Sichten als auch verschiedene Abstraktionsebenen eines Systems beschrieben werden. Um konsistente und vollst?ndige Beschreibungen sicherzustellen, bietet AutoFocus die M?glichkeit, Konsistenzbedingungen zu formulieren und Systembeschreibungen daraufhin zu überprüfen. Aus ausführbaren Spezifikationen k?nnen Prototypen des entwickelten Systems erzeugt werden und in einer Simulationsumgebung ausgeführt und visualisiert werden. Zur formalen Verifikation von Systemeigenschaften verfügt AutoFocusüber Anbindungen an Modellprüfungswerkzeuge wie -cke oder SMV. Eingegangen am 23. Dezember 1998 / Angenommen am 16. Juni 1999  相似文献   

16.
Aspekt-orientierte Programmierung kann die Komplexit“at von Softwaresystemen reduzieren und damit deren Wartbarkeit und Erweiterbarkeit verbessern. Dies wird durch die Kapselung von kompo“-nenten-“uber“-greifenden Elementen der Implementierung (sogenannten systemweiten Belangen oder „‘crosscutting concerns”) in spezielle Module oder Aspekte erreicht. Aspekt-Mining versucht diese Elemente in existierenden Softwaresystemen zu identifizieren und so die Anpassung an ein aspekt-orientiertes Design zu unterst“utzen. Die vorliegende Arbeit beschreibt Methoden und Ergebnisse mehrerer Fallstudien, in denen das dynamische Analyse-Verfahren von [?, ?] untersucht wurde; sie umfa“st ausserdem auch die Beschreibung der Algorithmen. Das Verfahren basiert auf der Analyse von Programmtraces, die in verschiedenen Programml“aufen erzeugt und dann in Ausf“uhrungsrelationen abstrahiert werden. Diese so erhaltene Datenbasis wird auf wiederkehrende Muster untersucht. Die genaue Bedeutung von „‘wiederkehrenden Mustern” wird dabei durch eine Reihe von Bedingungen an die Struktur der Ausf“uhrungsrelationen festgelegt. Dieses Verfahren wurde in dem vollautomatischen Analysewerkzeug DynAMiT implementiert und auf Softwaresystemen von mehr als 80 kLoC evaluiert. DynAMiT fand dabei sowohl systemweite Belange, die schon im System enthalten waren, als auch solche, die durch die Anwendung von AspectJ systematisch hinzugef“ugt wurden.  相似文献   

17.
Zusammenfassung. Der graphische Debugger DDD ist mit mehr als 250.000 Anwendern ein weitverbreitetes Werkzeug zur Softwarevisualisierung. Neben der für Debuggerüblichen Funktionalit?t erm?glicht DDD die Visualisierung von Datenstrukturen im laufenden Programm. DDD kann verzeigerte Strukturen (wie Listen oder B?ume) als Graphen darstellen, aber auch numerische Felder zwei- oder dreidimensional darstellen und im Programmlauf animieren. Dieser Beitrag beschreibt die technischen Grundlagen der Visualisierung, die verwendeten Plazierungsverfahren und die Animation von Algorithmen. Eingegangen am 13. Oktober 2000 / Angenommen am 19. Dezember 2000  相似文献   

18.
Wir pr?sentieren in dieser Arbeit das ObjectGlobe-System, ein offenes und verteiltes Anfragebearbeitungssystem auf Internet-Datenquellen. ObjectGlobe erweitert die begrenzten F?higkeiten des Internets bezüglich Anfragebearbeitung, indem es einen offenen Marktplatz schafft, in dem eine Vielzahl von Anbietern Rechenzeit, Daten und Anfrageoperatoren bereitstellen. Den Schwerpunkt dieses Beitrags bildet die im Rahmen des ObjectGlobe-Projekts entwickelte Metadatenverwaltung MDV, ein verteiltes Metadaten-Management-System. Es besitzt eine 3-schichtige Architektur und unterstützt Caching und Replikation in der Mittelschicht, so dass Anfragen lokal ausgewertet werden k?nnen. Benutzer spezifizieren die Informationen, die sie ben?tigen und die repliziert werden, mit Hilfe einer besonderen Regelsprache. Um Replikate aktuell zu halten und die Replikation von neuen und relevanten Informationen anzusto?en, verwendet das MDV-System einen neuartigen Publish & Subscribe-Algorithmus. Wir beschreiben diesen Algorithmus im Detail und zeigen, wie er mit Hilfe eines normalen relationalen Datenbanksystems implementiert werden kann.  相似文献   

19.
Zusammenfassung. Im Data-Warehouse-Bereich gibt es sowohl auf der konzeptuellen als auch auf der logischen Ebene unterschiedliche Modellierungsansätze, deren Entwicklung sich in der Regel an typischen Fragestellungen aus dem Bereich des Online Analytical Processing (OLAP) orientierte. Daneben spielen aber auch andere Ansätze zur Analyse der Daten in einem Data Warehouse eine bedeutende Rolle. Ein wichtiger Vertreter ist Data Mining, mit dessen Hilfe bislang unbekannte Muster und Zusammenhänge in Daten identifiziert werden können. Im vorliegenden Artikel wird untersucht, inwieweit sich die in der Literatur vorgeschlagenen konzeptuellen Datenmodelle für ein Data Warehouse eignen, das OLAP- und Data-Mining-Analysen gleichermaßen unterstützt. Hierzu wird das COCOM-Modell, das auf den Modellierungsmöglichkeiten verschiedener publizierter Modelle aufbaut, vorgestellt und bewertet. Für das logische Schema eines Data Warehouse wird häufig ein sogenanntes Star-Schema oder ein Snowflake-Schema erstellt. Für diese und weitere Schematypen wird analysiert, welchen Einfluss die Wahl des logischen Schemas auf Anwendungen aus den Bereichen OLAP und Data Mining hat. Wichtige Kriterien sind hier unter anderem der Informationsgehalt und die Performanz. Insgesamt zeigt dieser Beitrag, dass das COCOM-Modell und das Star-Schema eine gute Grundlage für den integrierten Einsatz von OLAP und Data-Mining bilden.Eingegangen am 30. April 2002, Angenommen am 25. Juni 2003 CR Subject Classification: H.2.1, H.2.7, H.2.8  相似文献   

20.
Bei relationalen Datenbanksystemen haben sich de-jure-Normen für SQL stetig weiterentwickelt; mit diesen Normen wird es einfacher, portable Datenbankanwendungen zu entwickeln. Die SQL-Norm ruht auf zwei S?ulen, zum einen auf der Datenbanksprache SQL, zum anderen auf einer Vorgabe eines Datenbankkatalogs, welcher die gespeicherten Daten beschreiben soll. Im vorliegenden Beitrag wird derjenige Teilbereich des Datenbankkatalogs der aktuellen SQL99-Norm dargestellt, der bereits in der SQL92-Norm (ISO/IEC 9075:1992 bzw. DIN 66315) definiert ist und die klassischen (nicht objektrelationalen) Elemente einer relationalen Datenbank beschreibt. In dieser Darstellung nimmt der zweischichtige Spezifikationsansatz (Informationsschema, Definitionsschema) einigen Raum ein; mit seiner Hilfe weist SQL einen eleganten Weg, auf dem existierende Datenbanksysteme normkonforme Datenbankkataloge bereitstellen k?nnen. Anhand des Datenbankmanagementsystems DB2 wird anschlie?end untersucht, wie ein normkonformer Datenbankkatalog (das sogenannte Informationsschema) „oberhalb” des verfügbaren DB2-Katalogs realisiert werden kann, d. h. wie die vom Informationsschema geforderten Sichten auf DB2-Katalogtabellen abgebildet werden k?nnen. Auf generelle Schwierigkeiten und M?glichkeiten einer solchen Abbildung (ein- oder zweistufig) wird ebenso eingegangen wie auf Probleme, die sich speziell bei DB2 ergeben. In einer prototypischen Realisierung konnte das Informationsschema bis auf wenige Einschr?nkungen komplett umgesetzt werden. Damit wurde die Machbarkeit normkonformer Kataloge nachgewiesen. In heute verfügbaren DBMS-Produkten sind Datenbankkataloge in dieser konsequent normkonformen Gestalt leider immer noch nicht anzutreffen.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号