共查询到20条相似文献,搜索用时 174 毫秒
1.
Ralph Depke Gregor Engels Katharina Mehner Stefan Sauer Annika Wagner 《Informatik - Forschung und Entwicklung》1999,2(3):83-94
Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert. 相似文献
2.
Ralph Depke Gregor Engels Katharina Mehner Stefan Sauer und Annika Wagner 《Informatik - Forschung und Entwicklung》1999,14(2):83-94
Zusammenfassung. Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt
zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau
unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert
sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen
wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung
von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung
der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung
und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell
auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch
für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert.
Eingegangen am 2. November 1998 / Angenommen am 18. M?rz 1999 相似文献
3.
Thomas Bauer Manfred Reichert und Peter Dadam 《Informatik - Forschung und Entwicklung》2001,16(2):76-92
Zusammenfassung. Zur Unterstützung von unternehmensweiten und -übergreifenden Gesch?ftsprozessen muss ein Workflow-Management-System (WfMS)
eine gro?e Anzahl von Workflow-Instanzen steuern k?nnen. Daraus resultiert eine hohe Last für die Workflow-Server und das
zugrunde liegende Kommunikationssystem. Ein in der Workflow-Literatur viel diskutierter Ansatz zur Bew?ltigung der Last ist
es, die Workflow-Instanzen verteilt durch mehrere Workflow-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei
Workflow-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen Workflow-Instanz vom Quell- zum Zielserver
übertragen werden müssen, um dort mit der Steuerung fortfahren zu k?nnen. Deshalb belasten Migrationen das Kommunikationssystem
zus?tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert
werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls Gesch?ftsbereiche aus Kostengründen nur
über langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS überhaupt erst erm?glicht.
Eingegangen am 22. Juni 2000 / Angenommen am 25. Januar 2001 相似文献
4.
Alexander Schill Thomas Springer und Thomas Ziegert 《Informatik - Forschung und Entwicklung》2001,16(4):200-212
Zusammenfassung. Die Integration mobiler Rechner in bestehende Netze erfordert eine umfassende Unterstützung. Die Hauptgründe dafür sind die
Vielfalt der eingesetzten Technologien sowie fehlende Konzepte in den bestehenden Systemen. In diesem Artikel werden M?glichkeiten
zur system- und anwendungsseitigen Unterstützung mobiler verteilter Systeme diskutiert. Nach einer kurzen Einführung in die
Problemstellungen des Forschungsgebietes werden Ans?tze für eine systemseitige Unterstützung mobiler Anwendungen und Dienste
anhand einer Softwareplattform beschrieben. Danach wird ein Modell zur Aufteilung mobiler Anwendungen vorgestellt, das verschiedene
system- und anwendungsseitige Unterstützungsmechanismen integriert. Abschlie?end wird das Modell zu einem Ansatz auf Basis
von Software-Komponenten verallgemeinert. Die Darstellung erfolgt anhand von Beispielsystemen, an deren Entwicklung die Autoren
ma?geblich beteiligt waren und sind.
Eingegangen am 31. Januar 2001 / Angenommen am 6. September 2001 相似文献
5.
W. Pfannenstiel 《Informatik - Forschung und Entwicklung》1999,14(4):179-192
Zusammenfassung. Datenparallele Programmiermodelle sind derzeit die erfolgreichsten Programmiermodelle für Parallelrechner, sowohl was die
Effizienz der Ausführung als auch die Komplexit?t der Programmierung angeht. Es ist bisher jedoch nicht gelungen, ein paralleles
Programmiermodell zu entwickeln, das sowohl konzeptionell einfach und abstrakt ist, als auch effizient auf die Fülle paralleler
Rechnerarchitekturen zu übertragen ist. Das verschachtelt datenparallele Programmiermodell besitzt einige der gewünschten Eigenschaften eines parallelen Programmiermodells. Im Gegensatz zu den g?ngigen flach datenparallelen
Modellen gibt es in verschachtelt datenparallelen Modellen Mechanismen, die irregul?re Datenstrukturen und Berechnungen direkt
unterstützen. Dieser Artikel stellt einen kollektionsbasierten Ansatz für verschachtelten Datenparallelismus vor, gibt einen
überblick über den Stand der Forschung und zeigt offene Fragen in diesem Gebiet auf.
Eingegangen am 8. Januar 1999 / Angenommen am 24. Juni 1999 相似文献
6.
Dirk Siebert Patrick Neumann Armin Schulz Gabriele Faulkner Thomas Tolxdorff 《Informatik - Forschung und Entwicklung》2001,4(3):93-102
Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen 3D-Trackingsystems. 相似文献
7.
Michael Beyer Andreas Rose Emanuel Jank J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,18(4):147-160
Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen. 相似文献
8.
Stefan Biffl 《Informatik - Forschung und Entwicklung》2001,16(3):145-158
Zusammenfassung. Inspektion hilft bereits in frühen Phasen der Softwareentwicklung, die Qualit?t von Softwareprodukten zu bestimmen und Nachbearbeitungsaufwand
einzusparen. Lesetechniken sind ein Ansatz, der die Aufmerksamkeit von Inspektoren beim individuellen Lesen auf bestimmte
Fehlermengen lenken und dadurch die Arbeit mehrerer Inspektoren untereinander koordinieren soll.
Diese Arbeit berichtet über ein Experiment, das einerseits die Effektivit?t und Effizienz mehrerer Lesetechniken auf individueller
und auf Teamebene miteinander vergleicht und andererseits Zusammenh?nge der Verwendung von Lesezeit mit der Effektivit?t von
bestimmten Inspektorengruppen untersucht.
Die Ergebnisse unterstützen den gezielten Einsatz von Lesetechniken bei der Planung einer Inspektion, um Inspektoren beim
Finden von Fehlern in bestimmten Mengen bzw. Dokumentteilen anzuleiten und um die Effektivit?t und Effizienz im Team durch
Minimieren der Anzahl mehrfach gefundener Fehler zu optimieren.
Die betr?chtlichen Schwankungen der Leistungen von Inspektoren, die eine bestimmte Lesetechnik verwendeten, im Vergleich zu
den Unterschieden der Mittelwerte verschiedener Lesetechniken verdient eine detailliertere Untersuchung. Bei der Untersuchung
des Zeitverlaufs für Inspektorengruppen mit unterschiedlicher Gesamteffektivit?t zeigten sich betr?chtliche Leistungsunterschiede
schon nach den ersten drei Stunden der Inspektion. Das Design von Lesetechniken sollte angepa?t werden, um dynamisch auf Inspektoren
mit deutlich unterschiedlichen F?higkeiten abgestimmt zu werden.
Eingegangen am 31. Oktober 2000 / Angenommen am 10. April 2001 相似文献
9.
Zusammenfassung. Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste
analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten
der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend
auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen
Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die
bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein
Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System
nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen,
da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt.
Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um
zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen
als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten
und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen
Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test
nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt.
In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische
Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von
Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern
und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen.
Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000 相似文献
10.
Ulrich John und Ulrich Geske 《Informatik - Forschung und Entwicklung》2002,17(4):167-176
Zusammenfassung. Industrielle Konfigurationsprozesse sind, bedingt durch die vorherrschende Variantenvielfalt, sehr komplex. Aufgrund der
inh?renten Potentiale ist die Realisierung von effizienten, flexiblen Konfigurationsprozessen ein zentrales Ziel vieler Unternehmen.
Wir haben einen Ansatz für die Konfiguration und Rekonfiguration von Produkten entwickelt, der auf Constraint-basierter Modellierung
über endlichen Dom?nen basiert. Das auf diesem Ansatz beruhende System ConBaCon deckt eine breite Palette von Konfigurationsproblemen
ab und erm?glicht eine effiziente L?sung, die sowohl automatisch als auch gesteuert durch hoch flexible Nutzerinteraktion
erfolgen kann. Wendet man das System jedoch auf gro?e Konfigurationsprozesse an, so treten Performanzprobleme auf. Als zwei
wesentliche Modellerweiterungen, die diesem Mangel entgegenwirken, stellen wir in dieser Arbeit einerseits eine Modell-Clusterung
und andererseits die Behandlung gro?er Netze arithmetischer Constraints vor.
Eingegangen am 11. Februar 2002 / Angenommen am 18. Juli 2002 相似文献
11.
Dirk Siebert Patrick Neumann Armin Schulz Gabriele Faulkner und Thomas Tolxdorff 《Informatik - Forschung und Entwicklung》2001,16(2):93-102
Zusammenfassung. Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung
von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und
Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer
Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte
Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch
Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung
für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen
mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung
werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung
der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen
3D-Trackingsystems.
Eingegangen am 27. April 2000 / Angenommen am 21. Februar 2001 相似文献
12.
Michael Beyer Andreas Rose Emanuel Jank und J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,22(3):147-160
Zusammenfassung Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen.
CR subject classification J.3 ; I.6.5 相似文献
13.
Matthias Bender Sebastian Michel Gerhard Weikum Christian Zimmer 《Informatik - Forschung und Entwicklung》2005,12(5):152-166
In diesem Artikel wird MINERVA pr?sentiert, eine prototypische Implementierung einer verteilten Suchmaschine basierend auf
einer Peer-to-Peer (P2P)-Architektur. MINERVA setzt auf die in der P2P-Welt verbreitete Technik verteilter Hash-Tabellen auf
und benutzt diese zum Aufbau eines verteilten Verzeichnisses. Peers in unserem Ansatz entsprechen v?llig autonomen Benutzern mit ihren lokalen Suchm"oglichkeiten, die bereit sind, ihr lokales
Wissen und ihre lokalen Suchm?glichkeiten im Rahmen einer Kollaboration zur Verfügung zu stellen. Wir formalisieren unsere
Systemarchitektur und beschreiben das zentrale Problem einer effizienten Suche nach vielversprechenden Peers für eine konkrete
Anfrage innerhalb des Verbundes. Wir greifen dabei auf existierende Methoden zurück and passen diese an unseren Systemkontext
an. Wir pr?sentieren Experimente auf realen Daten, die verschiedene dieser Ans?tze vergleichen. Diese Experimente zeigen,
dass die Qualit?t der Ans?tze variiert und untermauern damit die Wichtigkeit und den Einfluss einer leistungsstarken Methode
zur Auswahl guter Datenbanken. Unsere Experimente deuten an, dass eine geringe Anzahl sorgf?ltig ausgew?hlter Datenbanken
typischerweise bereits einen Gro?teil aller relevanten Ergebnisse des Gesamtsystems liefert. 相似文献
14.
Albert Endres 《Informatik - Forschung und Entwicklung》2006,20(4):236-237
Zusammenfassung So wie viele andere Fachgebiete erzielt die Informatik-Paxis ihre methodischen Fortschritte prim?r dadurch, dass sie aus Erfahrungen
lernt. Das gilt zun?chst und vor allem für die eigene Firma. Welche Erfahrungen zwischen Firmen übertragen werden k?nnen,
ist nicht immer genau vorherzusagen, da der Kontext, für den sie gelten, oft nicht vorhanden ist. Dennoch ist es eine Aufgabe
der Fachgesellschaften und der Fachmedien, in dieser Hinsicht Hilfen und Foren anzubieten. Die Herausgeber der Zeitschrift
Informatik – Forschung und Entwicklung (IFE) fühlen sich diesem Ziel verpflichtet und m?chten den Ideenaustausch zwischen
den Lesern f?rdern. Die folgenden Fragen k?nnen Projektbeteiligten helfen, einen Erfahrungsbericht so zu strukturieren, dass
er auch für Kollegen aus anderen Firmen von Interesse ist. Nicht alle Fragen treffen bei jedem Projekt zu. Ein derartiger
Bericht kann nach jeder Phase eines Projektes erstellt werden, sp?testens jedoch am Ende. Man spricht dann auch von einem
Post mortem. Die Herausgeber von IFE laden dazu ein, in dieser Rubrik weiterhin geeignete Berichte sowohl über Forschungs-
wie über Entwicklungsprojekte zu ver?ffentlichen. Bitte schicken Sie diese an das Sekretariat der Hauptherausgeber (Adresse:
siehe Autorenhinweise). 相似文献
15.
Albrecht Schmidt und Hans-Werner Gellersen 《Informatik - Forschung und Entwicklung》2001,16(4):213-224
Zusammenfassung. In mobilen Systemen findet Kontext zunehmend Berücksichtigung, um Komponenten mit Informationen zur umgebenden Situation
auszustatten. Dieser Beitrag führt ein neues semantisches Modell und eine Architektur für die Nutzung von Kontext in verteilten
Systemen ein. Ausgangspunkt ist die Analyse grundlegender Eigenschaften von Kontext, zu denen vor allem orts- und zeitbezogene
Relevanz z?hlt. Kontext wird entsprechend als allgemeine Datenstruktur modelliert, in der beliebige Kontextinformation mit
Ursprungsort und –zeit sowie r?umlich-zeitlicher Ausbreitungscharakteristik beschrieben wird. Zur Modellierung der Ausbreitung
und Verteilung von Kontext im Zeit-Raum-Kontinuum wird das Prinzip der unscharfen Mengen (Fuzzy Logic) herangezogen. Darauf
aufbauend wird ein FuzzySpace als Kommunikationsplattform eingeführt, der auf einem Tupelraum aufbaut, für Elemente aber zus?tzlich
eine r?umlich-zeitlich definierte Relevanz einführt. über diese Plattform k?nnen Kontextlieferanten, -konsumenten undabstraktoren
Kontextinformationen austauschen. Die Verteilung von Kontext im FuzzySpace bleibt für diese Komponenten transparent, was zur
Vereinfachung der Anwendungsentwicklung beitr?gt.
Eingegangen am 14. Februar 2001 / Angenommen am 22. August 2001 相似文献
16.
Stephan Ewen Michael Ortega-Binderberger und Volker Markl 《Informatik - Forschung und Entwicklung》2005,20(3):138-151
Zusammenfassung Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt.
CR Subject Classification H.2.4,H.2.5,D.3.4 相似文献
17.
Stephan Ewen Michael Ortega-Binderberger Volker Markl 《Informatik - Forschung und Entwicklung》2005,10(4):138-151
Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt. 相似文献
18.
Stefanie Rinderle Manfred Reichert Peter Dadam 《Informatik - Forschung und Entwicklung》2002,16(1):177-197
Sollen Workflow-Management-Systeme (WfMS) in umfassender Weise für die rechnerbasierte Verwaltung und Steuerung von Gesch?ftsprozessen einsetzbar sein, müssen die von ihnen verwalteten Workflow-Schemata und -Instanzen bei Bedarf rasch anpassbar sein. Dabei müssen die auf Basis eines (alten) Workflow-Schemas erzeugten Instanzen auch nach dessen ?nderung ungest?rt weiterlaufen k?nnen, etwa durch Bereitstellung geeigneter Versionskonzepte. Sehr viel schwieriger wird es, wenn die angewandten Schema?nderungen – wo gewünscht und m?glich – auch auf die bereits (vielleicht in gro?er Zahl) laufenden Workflow-Instanzen übertragen werden sollen. Dies bei Bedarf zu k?nnen – und zwar ohne Inkonsistenzen oder Fehler zu verursachen – ist aber ungemein wichtig, wenn ein WfMS breit und flexibel einsetzbar sein soll. In diesem Beitrag wird ein Ansatz zur effizienten Prüfung der Vertr?glichkeit von Workflow-Instanzen mit einem ge?nderten Workflow-Schema vorgestellt. Durch Einbeziehung aller Beschreibungskonstrukte (z.B. auch Schleifen und Datenflüsse) und damit zusammenh?ngender Fragestellungen wird darüber hinaus zum ersten Mal die Grundlage für ein umfassendes ?nderungsmanagement geschaffen. Au?erdem wird aufgezeigt, wie der Benutzer bei der Migration vertr?glicher Instanzen auf das neue Schema konkret unterstützt werden kann. 相似文献
19.
Andreas Bauer Jan Romberg Bernhard Sch?tz 《Informatik - Forschung und Entwicklung》2005,49(3):194-205
Zur Beherrschung der komplexen vernetzten und verteilten Funktionen von Automotive-Software ist eine Beschreibung des zu erstellenden
Systems auf verschiedenen Abstraktionsebenen und schrittweise überg?nge zwischen diesen Ebenen notwendig. Neben der Definition
geeigneter Ebenen werden zur Unterstützung echtzeitkritischer Systemanteile ein einheitliches Berechnungsmodell, ebenenspezifische
Beschreibungstechniken, sowie methodische Regeln für diese Abstraktionsebenen eingeführt und in den Werkzeugprototypen AutoFocus integriert. 相似文献
20.
Andreas Bauer Manfred Broy Jan Romberg Bernhard Sch?tz Peter Braun Ulrich Freund Nuria Mata Robert Sandner Pierre Mai Dirk Ziegenbein 《Informatik - Forschung und Entwicklung》2007,48(2):45-57
Die Entwicklung eingebetteter Software für Automobile ist inh?rent komplex und vereint verschiedene
Entwicklungsphasen, mehrere fachliche Disziplinen, sowie verschiedene Akteure in beteiligten Unternehmen.
Der AutoMoDe-Ansatz zur Entwicklung automotiver Software beschreibt Systeme auf verschiedenen Abstraktionsebenen
und definiert schrittweise überg?nge zwischen diesen Ebenen. Neben der Definition geeigneter
Ebenen werden zur Modellierung von Echtzeitsystemen ein einheitliches Berechnungsmodell sowie dom?nenspezifische
Beschreibungstechniken verwendet. Automatisierte Anbindungen für Analyse und Synthese komplexer Softwaresysteme
mit dem Ziel eines konsistenzbetonten Entwicklungsprozesses wurden realisiert. Die beschriebenen Techniken
wurden in den Werkzeugprototypen AutoFocus integriert und im Zusammenspiel
mit einer Werkzeugkette demonstriert. 相似文献