共查询到20条相似文献,搜索用时 31 毫秒
1.
Rainer Koschke 《Informatik - Forschung und Entwicklung》2005,6(6):127-140
Software-Architekturen werden aus verschiedenen Sichten beschrieben, die abh?ngig von den Anliegen sind, die mit der Beschreibung
verfolgt werden. In vielen F?llen ist die Software-Architektur eines Systems nicht ausreichend beschrieben. Sichten müssen
dann rekonstruiert werden, um für Planung von ?nderungen zur Verfügung zu stehen.
Dieser Artikel fasst die in der wissenschaftlichen Literatur vorgeschlagenen Techniken zur Rekonstruktion von Software-Architektursichten
zusammen und stellt sie den Sichten des Architekturentwurfs gegenüber. Anhand der Gegenüberstellung identifiziert er Forschungsbedarf. 相似文献
2.
Ulrich Thiel André Everts Barbara Lutes und Kostas Tzeras 《Informatik - Forschung und Entwicklung》1998,13(3):147-158
Zusammenfassung. In diesem Beitrag wird eine „digitale Bibliothek” definiert als informationelle Umgebung, in der in integrierter Form verteilte
Informationsquellen zug?nglich sind. Die Suche ist normalerweise ein interaktiver Proze?, in dem verfügbare Informationen
in unterschiedlichen Formaten und in unterschiedlichen Kontexten benutzt werden. Ein wichtiges Forschungsthema im Bereich
digitaler Bibliotheken ist daher der Entwurf anwendungsspezifischer Methoden für den Zugang zu heterogenen Wissensquellen,
die sich bzgl. Thema, Format, Verfügbarkeit, Qualit?t und vieler anderer Eigenschaften stark unterscheiden k?nnen. Um dieser
Anforderung gerecht zu werden, müssen die eingesetzten Information-Retrieval-Systeme eine sehr pr?zise Suche erm?glichen.
Dabei reicht es nicht aus, lediglich Dokumente und Daten nachzuweisen, vielmehr müssen die gefundenen Informationen im Kontext
des Informationsbedarfs des Benutzers eingebunden sein. Für diese Aufgabe schlagen wir Retrieval-Methoden vor, die auf abduktiver
Logik basieren.
Eingegangen am 19. Januar 1998 / Angenommen am 28. Juli 1998 相似文献
3.
Michael Beyer Andreas Rose Emanuel Jank und J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,22(3):147-160
Zusammenfassung Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen.
CR subject classification J.3 ; I.6.5 相似文献
4.
Albert Endres 《Informatik - Forschung und Entwicklung》2006,20(4):236-237
Zusammenfassung So wie viele andere Fachgebiete erzielt die Informatik-Paxis ihre methodischen Fortschritte prim?r dadurch, dass sie aus Erfahrungen
lernt. Das gilt zun?chst und vor allem für die eigene Firma. Welche Erfahrungen zwischen Firmen übertragen werden k?nnen,
ist nicht immer genau vorherzusagen, da der Kontext, für den sie gelten, oft nicht vorhanden ist. Dennoch ist es eine Aufgabe
der Fachgesellschaften und der Fachmedien, in dieser Hinsicht Hilfen und Foren anzubieten. Die Herausgeber der Zeitschrift
Informatik – Forschung und Entwicklung (IFE) fühlen sich diesem Ziel verpflichtet und m?chten den Ideenaustausch zwischen
den Lesern f?rdern. Die folgenden Fragen k?nnen Projektbeteiligten helfen, einen Erfahrungsbericht so zu strukturieren, dass
er auch für Kollegen aus anderen Firmen von Interesse ist. Nicht alle Fragen treffen bei jedem Projekt zu. Ein derartiger
Bericht kann nach jeder Phase eines Projektes erstellt werden, sp?testens jedoch am Ende. Man spricht dann auch von einem
Post mortem. Die Herausgeber von IFE laden dazu ein, in dieser Rubrik weiterhin geeignete Berichte sowohl über Forschungs-
wie über Entwicklungsprojekte zu ver?ffentlichen. Bitte schicken Sie diese an das Sekretariat der Hauptherausgeber (Adresse:
siehe Autorenhinweise). 相似文献
5.
Michael Beyer Andreas Rose Emanuel Jank J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,18(4):147-160
Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen. 相似文献
6.
Theo H?rder und Klaudia Hergula 《Informatik - Forschung und Entwicklung》2002,17(3):135-148
Zusammenfassung. Mit der zunehmenden Zahl an Anwendungssystemen, welche Datenbank und zugeh?rige Anwendung kapseln, ist die reine Datenintegration
nicht mehr ausreichend. Stattdessen k?nnen die Daten des Anwendungssystems nur noch über vordefinierte Funktionen abgefragt
werden. Sollen Daten und Funktionen integriert werden, so ist eine Kombination von deklarativen Anfragen und dem Zugriff auf
Funktionen erforderlich. In diesem Aufsatz stellen wir einen Middleware-Ansatz vor, der diese erweiterte und neuartige Form
der Integration unterstützt. Hierzu werden zun?chst die Probleme der Funktionsintegration er?rtert und eine Spezifikationssprache
eingeführt, die f?derierte Funktionen zu bilden und diese mehreren lokalen Funktionen der zu integrierenden Anwendungssysteme
zuzuordnen erlaubt. Anschlie?end zeigen wir, wie die zugeh?rige Ausführungskomponente – in unserem Fall ein Workflow-Managementsystem
– an ein F?deriertes Datenbanksystem mittels eines Wrappers gekoppelt wird, um die Integration von Daten und Funktionen zu
erm?glichen. Dabei wird die zu unterstützende Funktionalit?t innerhalb des Wrappers sowie deren Auswirkungen auf die Anfrageverarbeitung
als auch das zugeh?rige Kostenmodell untersucht. Abschlie?end wird ein Eindruck von der Performanz der vorgestellten Architektur
vermittelt.
Eingegangen am 19. Februar 2002 / Angenommen am 31. Mai 2002 相似文献
7.
8.
Arne Frick Rainer Neumann und Wolf Zimmermann 《Informatik - Forschung und Entwicklung》1997,12(4):186-195
Zusammenfassung. In diesem Beitrag wird eine Methode zur Konstruktion robuster Klassenhierarchien vorgestellt. Hierzu wird aus den überlegungen
bezüglich der polymorphen Verwendung von Klassen [2] eine Vorgehensweise zur Konstruktion von Klassenhierarchien abgeleitet.
Die Begriffe Konformit?t und Spezialisierung werden verfeinert, indem nicht mehr s?mtliche Methoden einer Klasse, sondern
Teilmengen davon betrachtet werden. Dies führt zum Begriff der partiellen Konformit?t. In Erweiterung von [2] sind partiell konforme Klassen dann polymorph verwendbar, wenn der Anwendungskontext, der sich aus der Benutzung der Klasse ergibt, sich ausschlie?lich auf konforme Methoden erstreckt. Diese Eigenschaft ist
statisch zur übersetzungszeit überprüfbar. Damit k?nnen Fehlbenutzungen bereits zur übersetzungszeit ausgeschlossen werden.
Eingegangen am 24. Dezember 1996 / Angenommen am 15. Oktober 1997 相似文献
9.
Zusammenfassung. Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste
analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten
der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend
auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen
Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die
bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein
Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System
nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen,
da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt.
Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um
zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen
als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten
und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen
Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test
nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt.
In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische
Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von
Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern
und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen.
Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000 相似文献
10.
Judith Gebauer und Markus Raupp 《Informatik - Forschung und Entwicklung》2000,15(4):215-225
Zusammenfassung. Das Internet und darauf aufbauende Technologien er?ffnen neue Potentiale für zwischenbetriebliche Informationssysteme und
f?rdern die elektronische Unterstützung von Gesch?ftsbeziehungen. Dabei bleibt jedoch das grunds?tzliche Problem bestehen,
da? der Hauptinvestor jeweils eine gewisse Anzahl an Teilnehmern ben?tigt, um eine angemessene Verzinsung der für die Systementwicklung
und -implementierung eingesetzten Ressourcen zu erreichen. Da es sich im zwischenbetrieblichen Kontext bei den Transaktionspartnern
in der Regel um entscheidungsautonome Organisationseinheiten handelt, kann davon ausgegangen werden, da? die kritische Masse
nur dann erreicht wird, wenn sich für die Teilnehmer selbst wiederum eine angemessene Verzinsung der für Anbindung und Systemanpassung
notwendigen individuellen Aufwendungen ergibt.
Dem Hauptinvestor stehen dabei eine Reihe von Gestaltungsoptionen zur Verfügung, denen jeweils unterschiedliche Erfolgsfaktoren
zuzuordnen sind. In der Vergangenheit dominierten einerseits auf Zwang ausgerichtete, stark kompetitive Vorgehensweisen und
andererseits kooperative Strategien, wie etwa die freiwillige Beschr?nkung der Anzahl an Zulieferbeziehungen im Rahmen vertrauensbildender
Ma?nahmen. Mit dem Aufkommen offener Kommunikationsstandards und neuer Technologien lassen sich diese von relativ geringen
zus?tzlichen finanziellen Belastungen gekennzeichneten Strategien m?glicherweise nicht mehr aufrechterhalten, und es wird
notwendig, neue Optionen in Betracht zu ziehen, wie etwa die Subventionierung einzelner Systemteilnehmer oder die Verbesserung
des Gesamtsystems, die jeweils sowohl kompetitive als auch kooperative Elemente aufweisen.
Der vorliegende Beitrag diskutiert diese These am Beispiel zwischenbetrieblicher elektronischer Katalogsysteme, wie sie in
jüngster Zeit im Kontext elektronischer Absatz- und Beschaffungssysteme sowie elektronischer M?rkte an Bedeutung gewinnen.
Eingegangen am 16. Dezember 1999 / Angenommen am 15. April 2000 相似文献
11.
Christoph Gollmick und Uta St?rl 《Informatik - Forschung und Entwicklung》2002,17(4):157-166
Zusammenfassung. Die st?ndig wachsende Menge der in Datenbanksystemen verwalteten Daten und steigende Verfügbarkeitsanforderungen verlangen
die Entwicklung immer schnellerer und effizienterer Backup- und Re-covery-Verfahren. Die Ausnutzung von Parallelit?t beim
Backup und Restore ist dabei einer von verschiedenen “intelligenten” L?sungsans?tzen, die nicht allein auf schnellere Hardware
setzen, sondern helfen, eine bestehende Infrastruktur optimal auszunutzen. Der Beitrag stellt ein Puffer-Proze?-Modell vor,
mit dessen Hilfe parallele Backup- und Restore-Algorithmen systematisch abgeleitet werden k?nnen. Eine definierte Auswahl
von Algorithmen wird anhand praxisbezogener Kriterien bewertet und klassifiziert (inklusive Einordnung der wichtigsten DBMS-Produkte).
Me?ergebnisse prototypisch implementierter Algorithmen schlie?lich belegen die Anwendbarkeit des Puffer-Proze?-Modells zur
Implementierung effizienter paralleler Backup- und Restore-Algorithmen.
Eingegangen am 31. Januar 2002 / Angenommen am 5. Juli 2002 相似文献
12.
Karsten Weihe 《Informatik - Forschung und Entwicklung》1998,13(2):61-71
Zusammenfassung. In diesem Artikel wird ein Konzept besprochen, mit dem flexible Algorithmen zur Auswertung von Anfragen an tabellarische
Datenstrukturen typsicher in objektorientierten Programmiersprachen implementiert werden k?nnen. Kernpunkt ist eine strikte
Trennung zwischen dem Zugriff auf Zeilen und Spalten. Gegenüber einem reinem Iteratormodell werden Anwendungsprogramme damit
nicht nur von der internen Organisation der zugrundeliegenden Sequenzen entkoppelt, sondern auch von den Tupeltypen der Tabellen.
Dadurch wird es m?glich, hohe Laufzeitflexibilit?t mit weitgehender statischer Typsicherheit zu verbinden.
Eingegangen am 1. August 1997 / Angenommen am 7. M?rz 1998 相似文献
13.
Otto Rauh 《Informatik - Forschung und Entwicklung》1997,12(3):117-127
Zusammenfassung. Redundante Komponenten in Entity-Relationship-Schemata führen zu Speicherverschwendung und Fehlern bei der Nutzung der aus
dem Schema gewonnenen Datenbanken. Zwischen Schemaredundanz und dem Konzept der ableitbaren Komponenten besteht eine enge
Verbindung, denn redundante Schemakomponenten sind stets ableitbar. Andererseits ist nicht jede ableitbare Komponente auch
redundant. Es wird deshalb zun?chst das Verh?ltnis zwischen redundanten und ableitbaren Komponenten diskutiert und eine Klassifizierung
eingeführt, welche die Modellierer bef?higt, entbehrliche von nicht entbehrlichen Komponenten zu unterscheiden. Eine spezielle
Art ableitbarer Komponenten, die Verkettung von Beziehungsarten, wird anschlie?end mit allen ihren Erscheinungsformen vorgestellt.
Au?erdem werden Methoden diskutiert, die helfen k?nnen, Verkettungen aufzudecken.
Eingegangen am 30. Mai 1996 / Angenommen am 8. April 1997 相似文献
14.
Ingo Schmitt und Stefan Conrad 《Informatik - Forschung und Entwicklung》1999,14(4):218-226
Zusammenfassung. Eine Restrukturierung eines gegebenen Datenbankschemas kann aus unterschiedlichen Gründen notwendig werden. So kann dadurch
z.B. die Verst?ndlichkeit des Schemas verbessert werden. Im Bereich der relationalen Datenbanken steht die Normalisierungstheorie
zur Verfügung, um z.B. Redundanz zu vermeiden. Der Normalisierung liegt dabei ein Begriff der ?quivalenz von Datenbankschemata
zugrunde. Im Bereich der objektorientierten Datenbanken gibt es bislang kaum vergleichbare Ans?tze. In diesem Beitrag pr?sentieren
wir daher einen Ansatz, mit dem Klassenhierarchien in objektorientierten Datenbankschemata in eine „normalisierte” Form transformiert
werden k?nnen. Dazu mu? zun?chst eine extensionale Analyse durchgeführt werden, die die notwendigen Informationen über extensionale
Beziehungen zwischen den gegebenen Klassen liefert. Anschlie?end wenden wir Konzepte der formalen Begriffsanalyse an, um eine
„normalisierte” Klassenhierarchie abzuleiten.
Eingegangen am 16. Januar 1999 / Angenommen am 3. Oktober 1999 相似文献
15.
Xiaorong Huang Manfred Kerber Michael Kohlhase Erica Melis Dan Nesmith J?rn Richts und J?rg Siekmann 《Informatik - Forschung und Entwicklung》1996,11(1):20-26
Zusammenfassung.
Die Beweisentwicklungsumgebung -Mkrpsoll
Mathematiker bei einer ihrer
Hauptt?tigkeiten, n?mlich dem Beweisen mathematischer Theoreme
unterstützen. Diese Unterstützung mu? so komfortabel sein,
da? die
rechnergestützte Suche nach formalen Beweisen leichter und insbesondere
weniger aufwendig ist, als ohne das System. Dazu mu? die verwendete
Objektsprache ausdrucksstark sein, man mu? die M?glichkeit haben, abstrakt
über Beweispl?ne zu reden, die gefundenen Beweise müssen in einer am
Menschen orientierte Form pr?sentiert werden und vor allem mu? eine
effiziente Unterstützung beim Füllen von Beweislücken zur Verfügung
stehen. Das im folgenden vorgestellte $\Omega$-Mkrp-System ist
der Versuch einer
Synthese der Ans?tze des vollautomatischen, des interaktiven und des
planbasierten Beweisens. Dieser Artikel soll eine übersicht über unsere
Arbeit an diesem System geben.
Eingegangen am 24. Juni 1994 / Angenommen am 3. November 1995 相似文献
16.
Stefanie Rinderle Manfred Reichert Peter Dadam 《Informatik - Forschung und Entwicklung》2002,16(1):177-197
Sollen Workflow-Management-Systeme (WfMS) in umfassender Weise für die rechnerbasierte Verwaltung und Steuerung von Gesch?ftsprozessen einsetzbar sein, müssen die von ihnen verwalteten Workflow-Schemata und -Instanzen bei Bedarf rasch anpassbar sein. Dabei müssen die auf Basis eines (alten) Workflow-Schemas erzeugten Instanzen auch nach dessen ?nderung ungest?rt weiterlaufen k?nnen, etwa durch Bereitstellung geeigneter Versionskonzepte. Sehr viel schwieriger wird es, wenn die angewandten Schema?nderungen – wo gewünscht und m?glich – auch auf die bereits (vielleicht in gro?er Zahl) laufenden Workflow-Instanzen übertragen werden sollen. Dies bei Bedarf zu k?nnen – und zwar ohne Inkonsistenzen oder Fehler zu verursachen – ist aber ungemein wichtig, wenn ein WfMS breit und flexibel einsetzbar sein soll. In diesem Beitrag wird ein Ansatz zur effizienten Prüfung der Vertr?glichkeit von Workflow-Instanzen mit einem ge?nderten Workflow-Schema vorgestellt. Durch Einbeziehung aller Beschreibungskonstrukte (z.B. auch Schleifen und Datenflüsse) und damit zusammenh?ngender Fragestellungen wird darüber hinaus zum ersten Mal die Grundlage für ein umfassendes ?nderungsmanagement geschaffen. Au?erdem wird aufgezeigt, wie der Benutzer bei der Migration vertr?glicher Instanzen auf das neue Schema konkret unterstützt werden kann. 相似文献
17.
Thomas Bauer und Peter Dadam 《Informatik - Forschung und Entwicklung》1999,14(4):203-217
Zusammenfassung. In unternehmensweiten Workflow-Management-Systemen (WfMS) kann die von der WF-Engine zu bew?ltigende Last sehr gro? werden.
Au?erdem werden hohe Anforderungen an die Verfügbarkeit eines solchen Systems gestellt. Deshalb wurden in der Literatur zahlreiche
Architekturen für skalierbare WfMS vorgeschlagen, die auf unterschiedlichen Verteilungsmodellen für die WF-Engine basieren.
Im vorliegenden Beitrag werden diese Verteilungsmodelle analysiert, verglichen und klassifiziert. Aufbauend auf diese Klassifikation
wird für zwei Beispielszenarien die bei den verschiedenen Verteilungsmodellen entstehende Last simuliert und verglichen.
Eingegangen am 12. M?rz 1999 / Angenommen am 8. Oktober 1999 相似文献
18.
Stefanie Rinderle Manfred Reichert und Peter Dadam 《Informatik - Forschung und Entwicklung》2002,17(4):177-197
Zusammenfassung. Sollen Workflow-Management-Systeme (WfMS) in umfassender Weise für die rechnerbasierte Verwaltung und Steuerung von Gesch?ftsprozessen
einsetzbar sein, müssen die von ihnen verwalteten Workflow-Schemata und -Instanzen bei Bedarf rasch anpassbar sein. Dabei
müssen die auf Basis eines (alten) Workflow-Schemas erzeugten Instanzen auch nach dessen ?nderung ungest?rt weiterlaufen k?nnen,
etwa durch Bereitstellung geeigneter Versionskonzepte. Sehr viel schwieriger wird es, wenn die angewandten Schema?nderungen
– wo gewünscht und m?glich – auch auf die bereits (vielleicht in gro?er Zahl) laufenden Workflow-Instanzen übertragen werden
sollen. Dies bei Bedarf zu k?nnen – und zwar ohne Inkonsistenzen oder Fehler zu verursachen – ist aber ungemein wichtig, wenn
ein WfMS breit und flexibel einsetzbar sein soll. In diesem Beitrag wird ein Ansatz zur effizienten Prüfung der Vertr?glichkeit
von Workflow-Instanzen mit einem ge?nderten Workflow-Schema vorgestellt. Durch Einbeziehung aller Beschreibungskonstrukte
(z.B. auch Schleifen und Datenflüsse) und damit zusammenh?ngender Fragestellungen wird darüber hinaus zum ersten Mal die Grundlage
für ein umfassendes ?nderungsmanagement geschaffen. Au?erdem wird aufgezeigt, wie der Benutzer bei der Migration vertr?glicher
Instanzen auf das neue Schema konkret unterstützt werden kann.
ID="*" Diese Arbeit wurde im Rahmen des Projekts „?nderungsmanagement in adaptiven Workflow-Management-Systemen” der Deutschen
Forschungsgemeinschaft (DFG) erstellt. 相似文献
19.
Otto Rauh 《Informatik - Forschung und Entwicklung》1995,10(3):128-138
Zusammenfassung. Traditionelle und deduktive Informationssysteme werden heute immer noch isoliert voneinander modelliert und implementiert.
Für die meisten Benutzer sind jedoch Systeme wichtig, die ihren allt?glichen Informationsbedarf decken und darüber hinaus
deduktive F?higkeiten besitzen. Der bekannte Entity-Relationship-Ansatz zur konzeptionellen Datenmodellierung wird in dieser
Arbeit so erweitert, da? damit solche integrierten Systeme modelliert werden k?nnen. Au?erdem wird eine Klassifizierung ableitbarer
Daten eingeführt, die dem Analytiker Hilfestellung bei der Frage gibt, welche ableitbaren Daten bei der Modellierung berücksichtigt
werden sollen und welche nicht.
Eingegangen am 2. November 1994 / Angenommen am 30. M?rz 1995 相似文献
20.
Dietrich Boles Markus Dreger Kai Gro?johann Cornelia Haber Andreas Kusserow Stefan Lohrum Dirk Menke Jochen Meyer Gerhard M?ller und Ricarda Weber 《Informatik - Forschung und Entwicklung》1998,13(3):110-121
Zusammenfassung. Ziele des MeDoc-Projektes waren die Konzeption, prototypische Entwicklung und Erprobung volltextbasierter Informations- und
Publikationsdienste für die Informatik, um den Informationsaustausch und die Literaturversorgung in der Wissenschaft effektiver
gestalten zu k?nnen. Dazu wurde im Rahmen des Projektes ein internet-basiertes System entwickelt, in dem Informatik & Fachinformation
im Volltext gespeichert, recherchiert, abgerufen und gelesen werden kann und das die Suche nach Informatik-Literatur in heterogenen,
verteilten Informationsquellen im Internet unterstützt. Das Informationsangebot ist dabei teilweise kostenpflichtig. In diesem
Artikel werden Ziele, Funktionalit?t und Architektur des MeDoc-Systems beschrieben.
Eingegangen am 19. Januar 1998 / Angenommen am 27. April 1998 相似文献