共查询到20条相似文献,搜索用时 968 毫秒
1.
Jürgen Abel 《Informatik - Forschung und Entwicklung》2004,18(2):80-87
Zusammenfassung. Der Burrows-Wheeler-Kompressionsalgorithmus hat als ein universelles Kompressionsverfahren in den letzten Jahren aufgrund seiner hervorragenden Kompressionsraten und hohen Verarbeitungsgeschwindigkeiten eine bemerkenswerte Beachtung erfahren. Das Herzstück des Algorithmus stellt die sogenannte Burrows-Wheeler-Transformation dar. Es handelt sich bei dieser Transformation um eine Permutation der Eingabedaten, welche Zeichen mit ähnlichem Kontext nahe beieinander anordnet. Die Transformation sowie die zugehörige Rücktransformation werden zusammen mit den weiteren Stufen des Algorithmus in einer gegenüber der Standardversion verbesserten Variante vorgestellt und die Ergebnisse mit denen anderer Datenkompressionsalgorithmen verglichen. Eingegangen am 12. April 2003, Angenommen am 7. November 2003CR Subject Calssification:
E4, H1.1 相似文献
2.
Holger Schwarz 《Informatik - Forschung und Entwicklung》2004,18(2):53-67
Zusammenfassung. Im Data-Warehouse-Bereich gibt es sowohl auf der konzeptuellen als auch auf der logischen Ebene unterschiedliche Modellierungsansätze, deren Entwicklung sich in der Regel an typischen Fragestellungen aus dem Bereich des Online Analytical Processing (OLAP) orientierte. Daneben spielen aber auch andere Ansätze zur Analyse der Daten in einem Data Warehouse eine bedeutende Rolle. Ein wichtiger Vertreter ist Data Mining, mit dessen Hilfe bislang unbekannte Muster und Zusammenhänge in Daten identifiziert werden können. Im vorliegenden Artikel wird untersucht, inwieweit sich die in der Literatur vorgeschlagenen konzeptuellen Datenmodelle für ein Data Warehouse eignen, das OLAP- und Data-Mining-Analysen gleichermaßen unterstützt. Hierzu wird das COCOM-Modell, das auf den Modellierungsmöglichkeiten verschiedener publizierter Modelle aufbaut, vorgestellt und bewertet. Für das logische Schema eines Data Warehouse wird häufig ein sogenanntes Star-Schema oder ein Snowflake-Schema erstellt. Für diese und weitere Schematypen wird analysiert, welchen Einfluss die Wahl des logischen Schemas auf Anwendungen aus den Bereichen OLAP und Data Mining hat. Wichtige Kriterien sind hier unter anderem der Informationsgehalt und die Performanz. Insgesamt zeigt dieser Beitrag, dass das COCOM-Modell und das Star-Schema eine gute Grundlage für den integrierten Einsatz von OLAP und Data-Mining bilden.Eingegangen am 30. April 2002, Angenommen am 25. Juni 2003 CR Subject Classification:
H.2.1, H.2.7, H.2.8 相似文献
3.
Markus Keidl Alfons Kemper Donald Kossmann Alexander Kreutz 《Informatik - Forschung und Entwicklung》2002,10(1):123-134
Wir pr?sentieren in dieser Arbeit das ObjectGlobe-System, ein offenes und verteiltes Anfragebearbeitungssystem auf Internet-Datenquellen. ObjectGlobe erweitert die begrenzten F?higkeiten des Internets bezüglich Anfragebearbeitung, indem es einen offenen Marktplatz schafft, in dem eine Vielzahl von Anbietern Rechenzeit, Daten und Anfrageoperatoren bereitstellen. Den Schwerpunkt dieses Beitrags bildet die im Rahmen des ObjectGlobe-Projekts entwickelte Metadatenverwaltung MDV, ein verteiltes Metadaten-Management-System. Es besitzt eine 3-schichtige Architektur und unterstützt Caching und Replikation in der Mittelschicht, so dass Anfragen lokal ausgewertet werden k?nnen. Benutzer spezifizieren die Informationen, die sie ben?tigen und die repliziert werden, mit Hilfe einer besonderen Regelsprache. Um Replikate aktuell zu halten und die Replikation von neuen und relevanten Informationen anzusto?en, verwendet das MDV-System einen neuartigen Publish & Subscribe-Algorithmus. Wir beschreiben diesen Algorithmus im Detail und zeigen, wie er mit Hilfe eines normalen relationalen Datenbanksystems implementiert werden kann. 相似文献
4.
Markus Keidl Alfons Kemper Donald Kossmann und Alexander Kreutz 《Informatik - Forschung und Entwicklung》2002,17(3):123-134
Zusammenfassung. Wir pr?sentieren in dieser Arbeit das ObjectGlobe-System, ein offenes und verteiltes Anfragebearbeitungssystem auf Internet-Datenquellen.
ObjectGlobe erweitert die begrenzten F?higkeiten des Internets bezüglich Anfragebearbeitung, indem es einen offenen Marktplatz
schafft, in dem eine Vielzahl von Anbietern Rechenzeit, Daten und Anfrageoperatoren bereitstellen. Den Schwerpunkt dieses
Beitrags bildet die im Rahmen des ObjectGlobe-Projekts entwickelte Metadatenverwaltung MDV, ein verteiltes Metadaten-Management-System.
Es besitzt eine 3-schichtige Architektur und unterstützt Caching und Replikation in der Mittelschicht, so dass Anfragen lokal
ausgewertet werden k?nnen. Benutzer spezifizieren die Informationen, die sie ben?tigen und die repliziert werden, mit Hilfe
einer besonderen Regelsprache. Um Replikate aktuell zu halten und die Replikation von neuen und relevanten Informationen anzusto?en,
verwendet das MDV-System einen neuartigen Publish & Subscribe-Algorithmus. Wir beschreiben diesen Algorithmus im Detail und
zeigen, wie er mit Hilfe eines normalen relationalen Datenbanksystems implementiert werden kann.
Eingegangen am 19. November 2001 / Angenommen am 30. Juli 2002 相似文献
5.
Michael Beyer Andreas Rose Emanuel Jank J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,18(4):147-160
Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen. 相似文献
6.
Zusammenfassung. Im Zentrum der Betrachtungen zum DNA-Computing steht die Frage nach den Chancen und Grenzen dieses neuen Berechnungsmodells,
nachdem in den letzten Jahren eine rasante Entwicklung auf das Thema aufmerksam machte. Neben beachtlichen theoretischen Untersuchungen
zum “Rechnen im Reagenzglas” werden auch laborpraktische Implementierungen favorisiert. An der TU Dresden wurde in interdisziplin?rer
Arbeit ein Integer-Rucksackproblem mittels eines DNA-Algorithmus im Labor gel?st und dabei eine Vielzahl molekularbiologischer
Operationen analysiert. Mit Hilfe dieses Satzes von Operationen gelang eine universelle und labornahe Modellierung des DNA-Computing.
Hierbei angewandte Techniken und Methoden werden vorgestellt und bewertet. Die Beschreibung des DNA-Algorithmus zeigt, wie
sich Einzeloperationen vorteilhaft zu Operationsfolgen zusammensetzen lassen und gemeinsam mit einer geeigneten DNA-Kodierung
der Eingangsdaten zur L?sung des Problems im Labor führen. Erstmalig wurden hierbei natürliche Zahlen verarbeitet. Die Arbeitsgemeinschaft
DNA-Computing Dresden konzentriert sich auf Aufgabenstellungen, die formale Modelle des DNA-Computing mit überzeugenden Laborimplementierungen
verbinden.
Eingegangen am 14. Februar 2000 / Angenommen am 26. Oktober 2000 相似文献
7.
Dirk Siebert Patrick Neumann Armin Schulz Gabriele Faulkner Thomas Tolxdorff 《Informatik - Forschung und Entwicklung》2001,4(3):93-102
Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen 3D-Trackingsystems. 相似文献
8.
Michael Beyer Andreas Rose Emanuel Jank und J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,22(3):147-160
Zusammenfassung Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen.
CR subject classification J.3 ; I.6.5 相似文献
9.
Ralph Depke Gregor Engels Katharina Mehner Stefan Sauer Annika Wagner 《Informatik - Forschung und Entwicklung》1999,2(3):83-94
Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert. 相似文献
10.
Dirk Siebert Patrick Neumann Armin Schulz Gabriele Faulkner und Thomas Tolxdorff 《Informatik - Forschung und Entwicklung》2001,16(2):93-102
Zusammenfassung. Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung
von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und
Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer
Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte
Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch
Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung
für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen
mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung
werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung
der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen
3D-Trackingsystems.
Eingegangen am 27. April 2000 / Angenommen am 21. Februar 2001 相似文献
11.
Eine Vernetzung der Dienstleister im Gesundheitswesen wird aus Effizienzgründen immer wichtiger. Schwierigkeiten bereitet jedoch die Interoperabilität, womit die korrekte Kommunikation von beteiligten Softwaresystemen verschiedener Herkunft gemeint ist. Dieser Beitrag konzentriert sich auf die Interoperabilitätsproblematik auf der Ebene der Anwendungsarchitekturen. Mit Hilfe von Standards und Integrationstechniken bemühen sich verschiedene Lösungsansätze die Heterogenität zu überwinden, die einer umfassenden Interoperabilität im Wege steht. Die Frage, die sich uns in diesem Zusammenhang nun stellt ist, ob diverse Standards im Gesundheitswesen sinnvoll kombiniert werden können bzw. zwischen ihnen vermittelt werden kann. In diesem Artikel stellen wir die Grundzüge einer Architektur vor, die auf der Basis von Standards eine institutionsübergreifende Interoperabilität im Gesundheitswesen ermöglichen soll. Die Strukturen der relevanten Standards werden einheitlich als Instanzen des Meta-Object Facility (MOF) spezifiziert und dann geeignet zueinander in Beziehung gesetzt. Die resultierenden Modelle und Metamodelle bilden einen Leitfaden zur Strukturanalyse der Standards und helfen so beim Entwurf der Transformationen zwischen den verschiedenen Standards. Architektur und Metamodelle dienen als Grundlage für eine prototypische Implementierung am Beispiel des Epidemiologischen Krebsregisters Niedersachsen zur Evaluation des vorgestellten Konzeptes. 相似文献
12.
Jürgen Kalinski 《Informatik - Forschung und Entwicklung》1999,14(1):36-45
Zusammenfassung. Wir untersuchen Techniken des Text-Retrievals mit relationalen Datenbanken. Den Tests zum Booleschen Retrieval liegen reale
Bibliotheksdaten und Bibliothekarsanfragen zugrunde. Es werden drei Realisierungen mittels SQL miteinander verglichen, von
denen der Nested Loops Join mit vorsortierter Wortfolge am besten abschneidet. Dessen Effizienz beruht auf den signifikant
unterschiedlichen Vorkommensh?ufigkeiten der Anfragew?rter. Um diese Beobachtung auch bei einer Implementierung mit komprimierten
Bitlisten effizienzsteigernd zu nutzen, wird eine zus?tzliche Zugriffsstruktur für Lookup-Operationen in den Bitlisten aufgebaut.
Im Gegensatz zum Booleschen Retrieval zeigt sich beim Retrieval mit Ranking, da? eine Ergebnisberechnung mittels eines geschlossenen
SQL-Ausdrucks einer L?sung, die im Anwendungsprogramm die invertierten Listen durchl?uft und zu einem Ranking kombiniert,
hinsichtlich der Effizienz unterlegen ist. Als Grundlage für Abbruchheuristiken wird hier au?erdem eine Indexstruktur aufgebaut,
die den Zugriff auf invertierte Listen sortiert nach Within-Document-Frequencies erlaubt.
Eingegangen am 12. M?rz 1998 / Angenommen am 31. Oktober 1998 相似文献
13.
Thomas Bauer 《Informatik - Forschung und Entwicklung》2004,4(Z1):74-86
Während Projekt-Management-Systeme zur Planung fast jedes Projekts eingesetzt werden, gewinnen Workflow-Management-Systeme für die Realisierung von prozessorientierten Anwendungen zunehmend an Bedeutung. Da sich beide Systemarten um das Management von Abläufen kümmern, ist eine Kooperation entsprechender Systeme für die Praxis sehr relevant. In diesem Beitrag stellen wir die einschlägigen wissenschaftlichen und kommerziellen Ansätze vor und untersuchen sie ausführlich. Da diese nur über eine unzureichende Funktionalität verfügen, entwickeln wir anschließend Architekturen, die ein besseres Zusammenspiel der beiden Systemarten erlauben. Dabei gehen wir auch auf den in der Literatur bisher nicht betrachteten Fall ein, dass die Projektplanung auf einem höheren Abstraktionsniveau erfolgt als die Modellierung und Ausführung der Workflows. Wir zeigen für diesen in der Praxis häufig anzutreffenden Fall auf, wie eine Kooperation der beiden Systemarten mit einer auf Event-Condition-Action-Rules basierenden generischen Kopplungsarchitektur realisiert werden kann. 相似文献
14.
Stefan Biffl 《Informatik - Forschung und Entwicklung》2001,16(3):145-158
Zusammenfassung. Inspektion hilft bereits in frühen Phasen der Softwareentwicklung, die Qualit?t von Softwareprodukten zu bestimmen und Nachbearbeitungsaufwand
einzusparen. Lesetechniken sind ein Ansatz, der die Aufmerksamkeit von Inspektoren beim individuellen Lesen auf bestimmte
Fehlermengen lenken und dadurch die Arbeit mehrerer Inspektoren untereinander koordinieren soll.
Diese Arbeit berichtet über ein Experiment, das einerseits die Effektivit?t und Effizienz mehrerer Lesetechniken auf individueller
und auf Teamebene miteinander vergleicht und andererseits Zusammenh?nge der Verwendung von Lesezeit mit der Effektivit?t von
bestimmten Inspektorengruppen untersucht.
Die Ergebnisse unterstützen den gezielten Einsatz von Lesetechniken bei der Planung einer Inspektion, um Inspektoren beim
Finden von Fehlern in bestimmten Mengen bzw. Dokumentteilen anzuleiten und um die Effektivit?t und Effizienz im Team durch
Minimieren der Anzahl mehrfach gefundener Fehler zu optimieren.
Die betr?chtlichen Schwankungen der Leistungen von Inspektoren, die eine bestimmte Lesetechnik verwendeten, im Vergleich zu
den Unterschieden der Mittelwerte verschiedener Lesetechniken verdient eine detailliertere Untersuchung. Bei der Untersuchung
des Zeitverlaufs für Inspektorengruppen mit unterschiedlicher Gesamteffektivit?t zeigten sich betr?chtliche Leistungsunterschiede
schon nach den ersten drei Stunden der Inspektion. Das Design von Lesetechniken sollte angepa?t werden, um dynamisch auf Inspektoren
mit deutlich unterschiedlichen F?higkeiten abgestimmt zu werden.
Eingegangen am 31. Oktober 2000 / Angenommen am 10. April 2001 相似文献
15.
Zusammenfassung. Im Rahmen des F?rderprogramms Neue Medien in der Bildung f?rdert das BMBF das Vorhaben „MuSofT – Multimedia in der Softwaretechnik”. Dieses Vorhaben soll in den n?chsten drei Jahren
multimediale Lehr- und Lerneinheiten in die softwaretechnische Lehre einführen und insbesondere drei Aspekte der Softwaretechnik-Ausbildung
unterstützen. Im ersten Aspekt wird die objektorientierte Modellierung als eine Folge von Phasen betrachtet, innerhalb deren
Software-Produkte schrittweise konstruiert werden. Hierzu geh?ren insbesondere die Analysephase mit dem Erfassen von Benutzeranforderungen
und die anschlie?ende Entwurfsphase mit dem Umsetzen dieser Anforderungen in technische Modelle. Ein zweiter Aspekt ist die
Auseinandersetzung mit dem Entwicklungsprozess selbst und den dazugeh?renden übergreifenden T?tigkeiten wie dem Projektmanagement
und der Qualit?tssicherung. Ein dritter Aspekt ist die fachdidaktische Herangehensweise an die softwaretechnische Ausbildung,
die insbesondere für die Informatiklehrerausbildung von gro?er Bedeutung ist.
相似文献
16.
Susanne Pedersen und Wilhelm Hasselbring 《Informatik - Forschung und Entwicklung》2004,18(3-4):174-188
Zusammenfassung. Eine Vernetzung der Dienstleister im Gesundheitswesen wird aus Effizienzgründen immer wichtiger. Schwierigkeiten bereitet jedoch die Interoperabilität, womit die korrekte Kommunikation von beteiligten Softwaresystemen verschiedener Herkunft gemeint ist. Dieser Beitrag konzentriert sich auf die Interoperabilitätsproblematik auf der Ebene der Anwendungsarchitekturen. Mit Hilfe von Standards und Integrationstechniken bemühen sich verschiedene Lösungsansätze die Heterogenität zu überwinden, die einer umfassenden Interoperabilität im Wege steht. Die Frage, die sich uns in diesem Zusammenhang nun stellt ist, ob diverse Standards im Gesundheitswesen sinnvoll kombiniert werden können bzw. zwischen ihnen vermittelt werden kann. In diesem Artikel stellen wir die Grundzüge einer Architektur vor, die auf der Basis von Standards eine institutionsübergreifende Interoperabilität im Gesundheitswesen ermöglichen soll. Die Strukturen der relevanten Standards werden einheitlich als Instanzen des Meta-Object Facility (MOF) spezifiziert und dann geeignet zueinander in Beziehung gesetzt. Die resultierenden Modelle und Metamodelle bilden einen Leitfaden zur Strukturanalyse der Standards und helfen so beim Entwurf der Transformationen zwischen den verschiedenen Standards. Architektur und Metamodelle dienen als Grundlage für eine prototypische Implementierung am Beispiel des Epidemiologischen Krebsregisters Niedersachsen zur Evaluation des vorgestellten Konzeptes.Eingegangen am 14. März 2003, Angenommen am 9. Januar 2004, CR Subject Classification:
H.2.1, H.2.5, J.3. 相似文献
17.
Thomas Bauer 《Informatik - Forschung und Entwicklung》2004,19(2):74-86
Zusammenfassung. Während Projekt-Management-Systeme zur Planung fast jedes Projekts eingesetzt werden, gewinnen Workflow-Management-Systeme für die Realisierung von prozessorientierten Anwendungen zunehmend an Bedeutung. Da sich beide Systemarten um das Management von Abläufen kümmern, ist eine Kooperation entsprechender Systeme für die Praxis sehr relevant. In diesem Beitrag stellen wir die einschlägigen wissenschaftlichen und kommerziellen Ansätze vor und untersuchen sie ausführlich. Da diese nur über eine unzureichende Funktionalität verfügen, entwickeln wir anschließend Architekturen, die ein besseres Zusammenspiel der beiden Systemarten erlauben. Dabei gehen wir auch auf den in der Literatur bisher nicht betrachteten Fall ein, dass die Projektplanung auf einem höheren Abstraktionsniveau erfolgt als die Modellierung und Ausführung der Workflows. Wir zeigen für diesen in der Praxis häufig anzutreffenden Fall auf, wie eine Kooperation der beiden Systemarten mit einer auf Event-Condition-Action-Rules basierenden generischen Kopplungsarchitektur realisiert werden kann.CR Subject Classification:
K.6.1, H.4.1Eingegangen am 9. Dezember 2003 / Agenommen am 24. März 2004, Online publiziert: 1. Juli 2004 相似文献
18.
Ralph Depke Gregor Engels Katharina Mehner Stefan Sauer und Annika Wagner 《Informatik - Forschung und Entwicklung》1999,14(2):83-94
Zusammenfassung. Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt
zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau
unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert
sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen
wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung
von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung
der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung
und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell
auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch
für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert.
Eingegangen am 2. November 1998 / Angenommen am 18. M?rz 1999 相似文献
19.
Zusammenfassung. Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste
analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten
der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend
auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen
Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die
bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein
Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System
nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen,
da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt.
Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um
zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen
als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten
und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen
Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test
nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt.
In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische
Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von
Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern
und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen.
Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000 相似文献
20.
Hans-Jürgen Siegert 《Informatik - Forschung und Entwicklung》2008,22(4):237-266
Zusammenfassung Zusammen mit drei weiteren Artikeln, die den übergang vom Batch- zum Timesharing-Betrieb, das
Unternehmen und die Hardware des TR440 beschreiben, gibt dieser Text einen Rückblick auf Entwicklung
und Realisierung des deutschen Gro?rechners TR440 bei AEG-Telefunken und den Nachfolgefirmen. Dieser
Teil des Rückblicks besch?ftigt sich mit der Software und der Software-Entwicklung für den
TR440, insbesondere in den Jahren 1965 bis 1974. Es werden technische Highlights der Software behandelt
und Einblicke in die Software-Entwicklung selbst gegeben, insbesondere auch Hintergrundinformationen zu
Einflüssen, Verantwortungen und Entscheidungen. Der Artikel beginnt mit dem TR4, dem Vorg?nger
des TR440, und endet mit den Aktivit?ten für einen TR440-Nachfolger.
CR subject classification K.1 ; K.2 ; K.6 ; D.2 ; D.3 ; D.4 ; D.2.9 相似文献