首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
Zusammenfassung.   Zur Unterstützung von unternehmensweiten und -übergreifenden Gesch?ftsprozessen muss ein Workflow-Management-System (WfMS) eine gro?e Anzahl von Workflow-Instanzen steuern k?nnen. Daraus resultiert eine hohe Last für die Workflow-Server und das zugrunde liegende Kommunikationssystem. Ein in der Workflow-Literatur viel diskutierter Ansatz zur Bew?ltigung der Last ist es, die Workflow-Instanzen verteilt durch mehrere Workflow-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei Workflow-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen Workflow-Instanz vom Quell- zum Zielserver übertragen werden müssen, um dort mit der Steuerung fortfahren zu k?nnen. Deshalb belasten Migrationen das Kommunikationssystem zus?tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls Gesch?ftsbereiche aus Kostengründen nur über langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS überhaupt erst erm?glicht. Eingegangen am 22. Juni 2000 / Angenommen am 25. Januar 2001  相似文献   

2.
Zusammenfassung.   Inspektion hilft bereits in frühen Phasen der Softwareentwicklung, die Qualit?t von Softwareprodukten zu bestimmen und Nachbearbeitungsaufwand einzusparen. Lesetechniken sind ein Ansatz, der die Aufmerksamkeit von Inspektoren beim individuellen Lesen auf bestimmte Fehlermengen lenken und dadurch die Arbeit mehrerer Inspektoren untereinander koordinieren soll. Diese Arbeit berichtet über ein Experiment, das einerseits die Effektivit?t und Effizienz mehrerer Lesetechniken auf individueller und auf Teamebene miteinander vergleicht und andererseits Zusammenh?nge der Verwendung von Lesezeit mit der Effektivit?t von bestimmten Inspektorengruppen untersucht. Die Ergebnisse unterstützen den gezielten Einsatz von Lesetechniken bei der Planung einer Inspektion, um Inspektoren beim Finden von Fehlern in bestimmten Mengen bzw. Dokumentteilen anzuleiten und um die Effektivit?t und Effizienz im Team durch Minimieren der Anzahl mehrfach gefundener Fehler zu optimieren. Die betr?chtlichen Schwankungen der Leistungen von Inspektoren, die eine bestimmte Lesetechnik verwendeten, im Vergleich zu den Unterschieden der Mittelwerte verschiedener Lesetechniken verdient eine detailliertere Untersuchung. Bei der Untersuchung des Zeitverlaufs für Inspektorengruppen mit unterschiedlicher Gesamteffektivit?t zeigten sich betr?chtliche Leistungsunterschiede schon nach den ersten drei Stunden der Inspektion. Das Design von Lesetechniken sollte angepa?t werden, um dynamisch auf Inspektoren mit deutlich unterschiedlichen F?higkeiten abgestimmt zu werden. Eingegangen am 31. Oktober 2000 / Angenommen am 10. April 2001  相似文献   

3.
Zusammenfassung.   Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen, da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt. Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt. In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen. Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000  相似文献   

4.
Zusammenfassung.   Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert. Eingegangen am 2. November 1998 / Angenommen am 18. M?rz 1999  相似文献   

5.
Zusammenfassung. In mobilen Systemen findet Kontext zunehmend Berücksichtigung, um Komponenten mit Informationen zur umgebenden Situation auszustatten. Dieser Beitrag führt ein neues semantisches Modell und eine Architektur für die Nutzung von Kontext in verteilten Systemen ein. Ausgangspunkt ist die Analyse grundlegender Eigenschaften von Kontext, zu denen vor allem orts- und zeitbezogene Relevanz z?hlt. Kontext wird entsprechend als allgemeine Datenstruktur modelliert, in der beliebige Kontextinformation mit Ursprungsort und –zeit sowie r?umlich-zeitlicher Ausbreitungscharakteristik beschrieben wird. Zur Modellierung der Ausbreitung und Verteilung von Kontext im Zeit-Raum-Kontinuum wird das Prinzip der unscharfen Mengen (Fuzzy Logic) herangezogen. Darauf aufbauend wird ein FuzzySpace als Kommunikationsplattform eingeführt, der auf einem Tupelraum aufbaut, für Elemente aber zus?tzlich eine r?umlich-zeitlich definierte Relevanz einführt. über diese Plattform k?nnen Kontextlieferanten, -konsumenten undabstraktoren Kontextinformationen austauschen. Die Verteilung von Kontext im FuzzySpace bleibt für diese Komponenten transparent, was zur Vereinfachung der Anwendungsentwicklung beitr?gt. Eingegangen am 14. Februar 2001 / Angenommen am 22. August 2001  相似文献   

6.
Zusammenfassung. Das Internet und darauf aufbauende Technologien er?ffnen neue Potentiale für zwischenbetriebliche Informationssysteme und f?rdern die elektronische Unterstützung von Gesch?ftsbeziehungen. Dabei bleibt jedoch das grunds?tzliche Problem bestehen, da? der Hauptinvestor jeweils eine gewisse Anzahl an Teilnehmern ben?tigt, um eine angemessene Verzinsung der für die Systementwicklung und -implementierung eingesetzten Ressourcen zu erreichen. Da es sich im zwischenbetrieblichen Kontext bei den Transaktionspartnern in der Regel um entscheidungsautonome Organisationseinheiten handelt, kann davon ausgegangen werden, da? die kritische Masse nur dann erreicht wird, wenn sich für die Teilnehmer selbst wiederum eine angemessene Verzinsung der für Anbindung und Systemanpassung notwendigen individuellen Aufwendungen ergibt. Dem Hauptinvestor stehen dabei eine Reihe von Gestaltungsoptionen zur Verfügung, denen jeweils unterschiedliche Erfolgsfaktoren zuzuordnen sind. In der Vergangenheit dominierten einerseits auf Zwang ausgerichtete, stark kompetitive Vorgehensweisen und andererseits kooperative Strategien, wie etwa die freiwillige Beschr?nkung der Anzahl an Zulieferbeziehungen im Rahmen vertrauensbildender Ma?nahmen. Mit dem Aufkommen offener Kommunikationsstandards und neuer Technologien lassen sich diese von relativ geringen zus?tzlichen finanziellen Belastungen gekennzeichneten Strategien m?glicherweise nicht mehr aufrechterhalten, und es wird notwendig, neue Optionen in Betracht zu ziehen, wie etwa die Subventionierung einzelner Systemteilnehmer oder die Verbesserung des Gesamtsystems, die jeweils sowohl kompetitive als auch kooperative Elemente aufweisen. Der vorliegende Beitrag diskutiert diese These am Beispiel zwischenbetrieblicher elektronischer Katalogsysteme, wie sie in jüngster Zeit im Kontext elektronischer Absatz- und Beschaffungssysteme sowie elektronischer M?rkte an Bedeutung gewinnen. Eingegangen am 16. Dezember 1999 / Angenommen am 15. April 2000  相似文献   

7.
Zusammenfassung.   Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen 3D-Trackingsystems. Eingegangen am 27. April 2000 / Angenommen am 21. Februar 2001  相似文献   

8.
Zusammenfassung.   Kommunikationsumgebungen und die damit verbundenen Datenverarbeitungsprozesse werden von Tag zu Tag komplexer. Nur der hochqualifizierte Systemtechniker durchschaut noch die Prozesse, die sich hinter heutigen Kommunikationssystemen verstecken. Der Anwender bleibt zunehmend auf der Strecke. Um diesem Prozess entgegenzuwirken, wurde am Lehrstuhl für Offene Kommunikationssysteme der TU Berlin eine Plattform entwickelt, die „I-centric Communications” unterstützt. Die Plattform stellt bei der Bearbeitung von Aufgaben nicht die Technik sondern Dienstpr?ferenzen der Benutzer in den Mittelpunkt. In diesem Papier werden die Idee „I-centric Communications” und die entwickelte I-centric-Plattform vorgestellt. Auf Basis der entwickelten Plattform realisierte Anwendungen und Dienste schlie?en das Papier ab. Eingegangen am 30. Januar 2001 / Angenommen am 3. Juli 2001  相似文献   

9.
Zusammenfassung.   Ein zentrales Problem bei der Integration heterogener Datenquellen ist die Bestimmung einer gesamtheitlichen Beschreibung des integrierten Datenbestands. Ausgehend von den Beschreibungen (Datenbankschemata) der vorhandenen Datenbest?nde ist ein integriertes Schema zu bilden, das als konzeptionelles Schema des Gesamtdatenbestands dient. Dieser Prozess wird als Schemaintegration bezeichnet. Ausgehend von einer abstrakten Systemarchitektur für f?derierte Datenbanksysteme, die als Basis für vielf?ltige Integrationszenarien verwendet werden kann, stellen wir zun?chst eine Schema-Referenzarchitektur vor, die den Prozess der Schemaintegration darzustellen hilft. Anschlie?end wird eine einfache Klassifikation von Integrationskonflikten wiedergegeben, bevor wir die gemeinsamen Grundprinzipien vieler Schemaintegrationsverfahren vorstellen. Wir analysieren dann die St?rken und Schw?chen der bekannten Schemaintegrationsverfahren. Aus dieser Analyse ergeben sich verschiedene Fragestellungen, die aktuell Gegenstand der Forschung sind bzw. noch erforscht werden müssen. Mit einer kurzen Darstellung ausgew?hlter Fragen schlie?t dieser Beitrag. Eingegangen am 20. November 2001 / Angenommen am 21. M?rz 2002  相似文献   

10.
Zusammenfassung.   Die Integration mobiler Rechner in bestehende Netze erfordert eine umfassende Unterstützung. Die Hauptgründe dafür sind die Vielfalt der eingesetzten Technologien sowie fehlende Konzepte in den bestehenden Systemen. In diesem Artikel werden M?glichkeiten zur system- und anwendungsseitigen Unterstützung mobiler verteilter Systeme diskutiert. Nach einer kurzen Einführung in die Problemstellungen des Forschungsgebietes werden Ans?tze für eine systemseitige Unterstützung mobiler Anwendungen und Dienste anhand einer Softwareplattform beschrieben. Danach wird ein Modell zur Aufteilung mobiler Anwendungen vorgestellt, das verschiedene system- und anwendungsseitige Unterstützungsmechanismen integriert. Abschlie?end wird das Modell zu einem Ansatz auf Basis von Software-Komponenten verallgemeinert. Die Darstellung erfolgt anhand von Beispielsystemen, an deren Entwicklung die Autoren ma?geblich beteiligt waren und sind. Eingegangen am 31. Januar 2001 / Angenommen am 6. September 2001  相似文献   

11.
Zusammenfassung.   Die moderne und hoch komplexe Fertigung, z.B. in der Halbleiterindustrie, erfordert für die dabei anfallenden Messdaten der Anlagen- bzw. Prozessparameter multivariate Analysemethoden. Eine dieser m?glichen Analysemethoden ist Projection Pursuit (PP). Dieses Verfahren ist durch geschickte Wahl des so genannten Projektionsindex in der Lage, verschiedenste Datencharakteristika zu detektieren und diese auf anschauliche Weise zu visualisieren. Bei den Projektionsindizes handelt es sich um Funktionen, die eine Projektion auf unterschiedliche Merkmale hin bewerten und dabei jeder Projektion einen Funktionswert zuweisen. Dieser Funktionswert spiegelt die Aussagekraft der Projektion (in Abh?ngigkeit vom verwendeten Index) wider. Die Auswahl bzw. der Aufbau dieser Indizes ist hierbei von entscheidender Bedeutung. Alle hier vorgestellten Indizes zeichnen sich vor allem durch ihren robusten Charakter gegenüber durch Ausrei?er kontaminierte Daten, wie sie in realen Datenszenarien vorkommen, aus. Die durch Anwendung dieser Indizes gewonnenen Einblicke in die komplexe Struktur der Daten erm?glichen es, hochdimensionale Parameterabweichungen und komplexe Zusammenh?nge innerhalb der Daten zu finden. Eingegangen am 11. Februar 2002 / Angenommen am 14. Mai 2002  相似文献   

12.
Zusammenfassung.   Wir untersuchen Techniken des Text-Retrievals mit relationalen Datenbanken. Den Tests zum Booleschen Retrieval liegen reale Bibliotheksdaten und Bibliothekarsanfragen zugrunde. Es werden drei Realisierungen mittels SQL miteinander verglichen, von denen der Nested Loops Join mit vorsortierter Wortfolge am besten abschneidet. Dessen Effizienz beruht auf den signifikant unterschiedlichen Vorkommensh?ufigkeiten der Anfragew?rter. Um diese Beobachtung auch bei einer Implementierung mit komprimierten Bitlisten effizienzsteigernd zu nutzen, wird eine zus?tzliche Zugriffsstruktur für Lookup-Operationen in den Bitlisten aufgebaut. Im Gegensatz zum Booleschen Retrieval zeigt sich beim Retrieval mit Ranking, da? eine Ergebnisberechnung mittels eines geschlossenen SQL-Ausdrucks einer L?sung, die im Anwendungsprogramm die invertierten Listen durchl?uft und zu einem Ranking kombiniert, hinsichtlich der Effizienz unterlegen ist. Als Grundlage für Abbruchheuristiken wird hier au?erdem eine Indexstruktur aufgebaut, die den Zugriff auf invertierte Listen sortiert nach Within-Document-Frequencies erlaubt. Eingegangen am 12. M?rz 1998 / Angenommen am 31. Oktober 1998  相似文献   

13.
Zusammenfassung.   Wir stellen die neue Methode vor, die auf die formale Entwicklung sequentieller, objektorientierter Softwaresysteme abzielt. ist eine synergetische Kombination aus der semiformalen Methode Fusion und der formalen Spezifikationssprache Object-Z. Die Methode unterscheidet ausdrücklich Analyse und Entwurf, um die Komplexit?t und die unterschiedlichen Aufgaben der Softwareentwicklung zu bew?ltigen. In jeder Entwicklungsphase werden Zustands- und Verhaltensspezifikationen in graphischer oder textueller Form erstellt. Wir geben Beweisverpflichtungen an, um zu gew?hrleisten, da? die entwickelten Spezifikationen formal konsistent und vollst?ndig sind, und da? das resultierende System zur Ausgangsspezifikation konform ist. Wir illustrieren die Anwendung von an einem einfachen Beispiel, einem Grapheditor. Eingegangen am 24. Dezember 1996 / Angenommen am 8.10.1997  相似文献   

14.
Zusammenfassung.   Softwareentwicklungsprozesse auf Basis von Phasenmodellen verlangen eine Ermittlung der Anforderungen zu Beginn der Entwicklung. Die Anforderungen bilden die Basis für die nachfolgenden T?tigkeiten in der Entwicklung. Daher sind die Verfolgbarkeit der Anforderungen durch die Softwareentwicklung und die überprüfung der korrekten Realisierung der Anforderungen wichtig. Dies gilt insbesondere in sicherheitskritischen Anwendungsbereichen. Einerseits ist die Unified Modeling Language (UML) zur Zeit der Standard im Bereich der objektorientierten Software-Modellierung. Andererseits weist die UML Defizite in Bezug auf die Verfolgbarkeit von Anforderungen auf. Im Folgenden werden mehrere L?sungsm?glichkeiten zur Behebung dieses Problems diskutiert. Die Erweiterung des UML-Meta-Modells um eine Meta-Klasse Requirement wird im Detail vorgestellt. Eingegangen am 22. Februar 2002 / Angenommen am 8. Mai 2002  相似文献   

15.
Zusammenfassung.   Datenparallele Programmiermodelle sind derzeit die erfolgreichsten Programmiermodelle für Parallelrechner, sowohl was die Effizienz der Ausführung als auch die Komplexit?t der Programmierung angeht. Es ist bisher jedoch nicht gelungen, ein paralleles Programmiermodell zu entwickeln, das sowohl konzeptionell einfach und abstrakt ist, als auch effizient auf die Fülle paralleler Rechnerarchitekturen zu übertragen ist. Das verschachtelt datenparallele Programmiermodell besitzt einige der gewünschten Eigenschaften eines parallelen Programmiermodells. Im Gegensatz zu den g?ngigen flach datenparallelen Modellen gibt es in verschachtelt datenparallelen Modellen Mechanismen, die irregul?re Datenstrukturen und Berechnungen direkt unterstützen. Dieser Artikel stellt einen kollektionsbasierten Ansatz für verschachtelten Datenparallelismus vor, gibt einen überblick über den Stand der Forschung und zeigt offene Fragen in diesem Gebiet auf. Eingegangen am 8. Januar 1999 / Angenommen am 24. Juni 1999  相似文献   

16.
Zusammenfassung.   In unternehmensweiten Workflow-Management-Systemen (WfMS) kann die von der WF-Engine zu bew?ltigende Last sehr gro? werden. Au?erdem werden hohe Anforderungen an die Verfügbarkeit eines solchen Systems gestellt. Deshalb wurden in der Literatur zahlreiche Architekturen für skalierbare WfMS vorgeschlagen, die auf unterschiedlichen Verteilungsmodellen für die WF-Engine basieren. Im vorliegenden Beitrag werden diese Verteilungsmodelle analysiert, verglichen und klassifiziert. Aufbauend auf diese Klassifikation wird für zwei Beispielszenarien die bei den verschiedenen Verteilungsmodellen entstehende Last simuliert und verglichen. Eingegangen am 12. M?rz 1999 / Angenommen am 8. Oktober 1999  相似文献   

17.
Zusammenfassung.   In diesem Beitrag wird eine „digitale Bibliothek” definiert als informationelle Umgebung, in der in integrierter Form verteilte Informationsquellen zug?nglich sind. Die Suche ist normalerweise ein interaktiver Proze?, in dem verfügbare Informationen in unterschiedlichen Formaten und in unterschiedlichen Kontexten benutzt werden. Ein wichtiges Forschungsthema im Bereich digitaler Bibliotheken ist daher der Entwurf anwendungsspezifischer Methoden für den Zugang zu heterogenen Wissensquellen, die sich bzgl. Thema, Format, Verfügbarkeit, Qualit?t und vieler anderer Eigenschaften stark unterscheiden k?nnen. Um dieser Anforderung gerecht zu werden, müssen die eingesetzten Information-Retrieval-Systeme eine sehr pr?zise Suche erm?glichen. Dabei reicht es nicht aus, lediglich Dokumente und Daten nachzuweisen, vielmehr müssen die gefundenen Informationen im Kontext des Informationsbedarfs des Benutzers eingebunden sein. Für diese Aufgabe schlagen wir Retrieval-Methoden vor, die auf abduktiver Logik basieren. Eingegangen am 19. Januar 1998 / Angenommen am 28. Juli 1998  相似文献   

18.
Zusammenfassung.   Ziele des MeDoc-Projektes waren die Konzeption, prototypische Entwicklung und Erprobung volltextbasierter Informations- und Publikationsdienste für die Informatik, um den Informationsaustausch und die Literaturversorgung in der Wissenschaft effektiver gestalten zu k?nnen. Dazu wurde im Rahmen des Projektes ein internet-basiertes System entwickelt, in dem Informatik & Fachinformation im Volltext gespeichert, recherchiert, abgerufen und gelesen werden kann und das die Suche nach Informatik-Literatur in heterogenen, verteilten Informationsquellen im Internet unterstützt. Das Informationsangebot ist dabei teilweise kostenpflichtig. In diesem Artikel werden Ziele, Funktionalit?t und Architektur des MeDoc-Systems beschrieben. Eingegangen am 19. Januar 1998 / Angenommen am 27. April 1998  相似文献   

19.
Zusammenfassung.   Software-Entwurfsmuster sind eine intuitiv einleuchtende Idee, die viele Befürworter hat. Als Forscher dürfen wir die behaupteten Wirkungen von Entwurfsmustern jedoch nicht einfach glauben, sondern müssen sie gründlich prüfen. Dieser Artikel beschreibt die wichtigsten Behauptungen und entwickelt daraus zugeh?rige Forschungsfragen. Wir diskutieren die Methodik für ein Forschungsprogramm, das die Fragen beantworten soll, und skizzieren praktische Beschr?nkungen, unter denen diese Forschung ablaufen mu?. Es folgt eine kurze Beschreibung von drei kontrollierten Experimenten und den Hauptfolgerungen aus ihren Ergebnissen. So sollte man zum Beispiel die Benutzung von Entwurfsmustern in einem Entwurf genau dokumentieren und Entwurfsmuster nicht einsetzen, ohne alternative Entwürfe zu prüfen. Abschlie?end diskutieren wir ein im Rahmen des Forschungsprogramms geplantes viertes Experiment. Der Beitrag dieses Artikels liegt vorrangig in einer Beschreibung und Diskussion wichtiger methodischer Aspekte kontrollierter Experimente in der Softwaretechnik. Eingegangen am 27. Oktober 1998 / Angenommen am 13. M?rz 1999  相似文献   

20.
Zusammenfassung.   Aus Modellierungs- und Implementationssicht ergeben sich unterschiedliche Anforderungen an das Objektmodell in verteilten Systemen. Einerseits stehen Objekteigenschaften wie Datenabstraktion, Datenkapselung, Modularit?t und Zugriffschutz im Vordergrund. Andererseits stellen sich Fragen der implementationstechnischen Umsetzung der r?umlichen und zeitlichen Entkopplung, der Parallelit?t, der Substitution, der Konstruktion und der Evolution von Objekten bzw. von Teilen eines Objektes. Letztgenannte Anforderungen resultieren aus der Verteilung und der Systemdynamik, die nicht nur verteilten Systemen eigen ist. Wir stellen in diesem Beitrag ein Konzept vor, das es erlaubt, Objekte in verteilten Systemen flexibel implementieren und konfigurieren zu k?nnen. Besonderes Gewicht legen wir auf die Unterstützung des Objektentwicklers und -implementierers, ohne auf die Modellierungsvorzüge des Objektmodells zu verzichten. Wir diskutieren die Anforderungen und leiten daraus unser Entkopplungskonzept für verteilte Objektsysteme ab. Auf der Basis der CORBA wurde ein Prototyp erstellt, der die Umsetzung dieser Anforderungen demonstriert. Eingegangen am 1. Juli 1997 / Angenommen am 6. Februar 1998  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号