首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
Während Projekt-Management-Systeme zur Planung fast jedes Projekts eingesetzt werden, gewinnen Workflow-Management-Systeme für die Realisierung von prozessorientierten Anwendungen zunehmend an Bedeutung. Da sich beide Systemarten um das Management von Abläufen kümmern, ist eine Kooperation entsprechender Systeme für die Praxis sehr relevant. In diesem Beitrag stellen wir die einschlägigen wissenschaftlichen und kommerziellen Ansätze vor und untersuchen sie ausführlich. Da diese nur über eine unzureichende Funktionalität verfügen, entwickeln wir anschließend Architekturen, die ein besseres Zusammenspiel der beiden Systemarten erlauben. Dabei gehen wir auch auf den in der Literatur bisher nicht betrachteten Fall ein, dass die Projektplanung auf einem höheren Abstraktionsniveau erfolgt als die Modellierung und Ausführung der Workflows. Wir zeigen für diesen in der Praxis häufig anzutreffenden Fall auf, wie eine Kooperation der beiden Systemarten mit einer auf Event-Condition-Action-Rules basierenden generischen Kopplungsarchitektur realisiert werden kann.  相似文献   

2.
    
Zusammenfassung. Eine Vernetzung der Dienstleister im Gesundheitswesen wird aus Effizienzgründen immer wichtiger. Schwierigkeiten bereitet jedoch die Interoperabilität, womit die korrekte Kommunikation von beteiligten Softwaresystemen verschiedener Herkunft gemeint ist. Dieser Beitrag konzentriert sich auf die Interoperabilitätsproblematik auf der Ebene der Anwendungsarchitekturen. Mit Hilfe von Standards und Integrationstechniken bemühen sich verschiedene Lösungsansätze die Heterogenität zu überwinden, die einer umfassenden Interoperabilität im Wege steht. Die Frage, die sich uns in diesem Zusammenhang nun stellt ist, ob diverse Standards im Gesundheitswesen sinnvoll kombiniert werden können bzw. zwischen ihnen vermittelt werden kann. In diesem Artikel stellen wir die Grundzüge einer Architektur vor, die auf der Basis von Standards eine institutionsübergreifende Interoperabilität im Gesundheitswesen ermöglichen soll. Die Strukturen der relevanten Standards werden einheitlich als Instanzen des Meta-Object Facility (MOF) spezifiziert und dann geeignet zueinander in Beziehung gesetzt. Die resultierenden Modelle und Metamodelle bilden einen Leitfaden zur Strukturanalyse der Standards und helfen so beim Entwurf der Transformationen zwischen den verschiedenen Standards. Architektur und Metamodelle dienen als Grundlage für eine prototypische Implementierung am Beispiel des Epidemiologischen Krebsregisters Niedersachsen zur Evaluation des vorgestellten Konzeptes.Eingegangen am 14. März 2003, Angenommen am 9. Januar 2004, CR Subject Classification: H.2.1, H.2.5, J.3.  相似文献   

3.
Zusammenfassung. Im Data-Warehouse-Bereich gibt es sowohl auf der konzeptuellen als auch auf der logischen Ebene unterschiedliche Modellierungsansätze, deren Entwicklung sich in der Regel an typischen Fragestellungen aus dem Bereich des Online Analytical Processing (OLAP) orientierte. Daneben spielen aber auch andere Ansätze zur Analyse der Daten in einem Data Warehouse eine bedeutende Rolle. Ein wichtiger Vertreter ist Data Mining, mit dessen Hilfe bislang unbekannte Muster und Zusammenhänge in Daten identifiziert werden können. Im vorliegenden Artikel wird untersucht, inwieweit sich die in der Literatur vorgeschlagenen konzeptuellen Datenmodelle für ein Data Warehouse eignen, das OLAP- und Data-Mining-Analysen gleichermaßen unterstützt. Hierzu wird das COCOM-Modell, das auf den Modellierungsmöglichkeiten verschiedener publizierter Modelle aufbaut, vorgestellt und bewertet. Für das logische Schema eines Data Warehouse wird häufig ein sogenanntes Star-Schema oder ein Snowflake-Schema erstellt. Für diese und weitere Schematypen wird analysiert, welchen Einfluss die Wahl des logischen Schemas auf Anwendungen aus den Bereichen OLAP und Data Mining hat. Wichtige Kriterien sind hier unter anderem der Informationsgehalt und die Performanz. Insgesamt zeigt dieser Beitrag, dass das COCOM-Modell und das Star-Schema eine gute Grundlage für den integrierten Einsatz von OLAP und Data-Mining bilden.Eingegangen am 30. April 2002, Angenommen am 25. Juni 2003 CR Subject Classification: H.2.1, H.2.7, H.2.8  相似文献   

4.
Zusammenfassung. Die Spezifikation ist die Grundlage für den Erfolg eines Software-Projekts. Der Praktiker konzentriert sich hier i.d.R. auf die größte Herausforderung: die vollständige und inhaltlich korrekte Erfassung aller Anforderungen an das zu erstellende Software-System. Dass Spezifikationen für große Systeme aus vielen Dokumenten verschiedener Ausprägung in Form und Inhalt bestehen, tritt dabei meist in den Hintergrund. Ihre Konsistenz wird meist mit hohem manuellem Aufwand sichergestellt. Der Erstellung formal korrekter und konsistenter Software-Spezifikationen widmen sich zahlreiche theoretische Arbeiten. In der Praxis sind sie jedoch meist nicht mit der gewohnten Arbeitsweise vereinbar. In diesem Artikel stellen wir einen Mittelweg vor: Wir nutzen die Spezifikationsbausteine von sd&m für die Spezifikation, die als Ergebnisse Dokumente in natürlicher Sprache sowie semi-formale Darstellungen umfasst. Für Spezifikationen, die nach diesen Bausteinen erstellt wurden, definieren wir Konsistenz durch formale zeitbehaftete Konsistenzregeln. Ein von uns entwickeltes Auswertungswerkzeug ermittelt Inkonsistenzen präzise. Unterstützt von einem solchen Werkzeug kann sich der Software-Ingenieur wieder ganz auf das Hauptanliegen der Spezifikation konzentrieren: ihre inhaltliche Korrektheit und Vollständigkeit.Eingegangen am 19. August 2003, Angenommen am 10. März 2004, CR Subject Classification: D.2.1, D.3.1, H.3.1, I.7.1  相似文献   

5.
Zusammenfassung. Zusammenfassung Der Softwaremarkt für Data-Warehouse-Systeme hat in den letzten Jahren stark zugenommen. Da Standards fehlen, bringen Softwaresysteme jeweils eigene multidimensionale Datenmodelle und (physische) Entwurfswerkzeuge mit, sodass der Entwurf von Data-Warehouse-Datenbanken verfrüht auf die eingesetzten Systeme zugeschnitten ist. In diesem Beitrag präsentieren wir ein werkzeuggestütztes Entwurfsvorgehen, das ausgehend von einem Drei-Ebenen-Entwurf die zielplattformunabhängige, konzeptionelle Modellierung multidimensionaler Data-Warehouse-Schemata und anschliesend eine Transformation und Optimierung dieser Schemata für konkrete Zielplattformen ermöglicht. Durch die konzeptionelle Modellierung wird gewährleistet, dass Implementierungsdetails nicht zu früh in den Entwurfsprozess einfliesen und stattdessen fachliche Anforderungen im Vordergrund stehen.CR Subject Classification: D.2.2, H.2.1Arne Harren: Die hier beschriebene Arbeit entstand während unserer gemeinsamen Tätigkeit am Oldenburger Forschungsinstitut OFFIS (http: //www.offis.de).Eingegangen am 25. Juli 2003 / Angenommen am 1. Juni 2004, Online publiziert 6. September 2004  相似文献   

6.
Eine Vernetzung der Dienstleister im Gesundheitswesen wird aus Effizienzgründen immer wichtiger. Schwierigkeiten bereitet jedoch die Interoperabilität, womit die korrekte Kommunikation von beteiligten Softwaresystemen verschiedener Herkunft gemeint ist. Dieser Beitrag konzentriert sich auf die Interoperabilitätsproblematik auf der Ebene der Anwendungsarchitekturen. Mit Hilfe von Standards und Integrationstechniken bemühen sich verschiedene Lösungsansätze die Heterogenität zu überwinden, die einer umfassenden Interoperabilität im Wege steht. Die Frage, die sich uns in diesem Zusammenhang nun stellt ist, ob diverse Standards im Gesundheitswesen sinnvoll kombiniert werden können bzw. zwischen ihnen vermittelt werden kann. In diesem Artikel stellen wir die Grundzüge einer Architektur vor, die auf der Basis von Standards eine institutionsübergreifende Interoperabilität im Gesundheitswesen ermöglichen soll. Die Strukturen der relevanten Standards werden einheitlich als Instanzen des Meta-Object Facility (MOF) spezifiziert und dann geeignet zueinander in Beziehung gesetzt. Die resultierenden Modelle und Metamodelle bilden einen Leitfaden zur Strukturanalyse der Standards und helfen so beim Entwurf der Transformationen zwischen den verschiedenen Standards. Architektur und Metamodelle dienen als Grundlage für eine prototypische Implementierung am Beispiel des Epidemiologischen Krebsregisters Niedersachsen zur Evaluation des vorgestellten Konzeptes.  相似文献   

7.
Zusammenfassung. Mit der zunehmenden Zahl an Anwendungssystemen, welche Datenbank und zugeh?rige Anwendung kapseln, ist die reine Datenintegration nicht mehr ausreichend. Stattdessen k?nnen die Daten des Anwendungssystems nur noch über vordefinierte Funktionen abgefragt werden. Sollen Daten und Funktionen integriert werden, so ist eine Kombination von deklarativen Anfragen und dem Zugriff auf Funktionen erforderlich. In diesem Aufsatz stellen wir einen Middleware-Ansatz vor, der diese erweiterte und neuartige Form der Integration unterstützt. Hierzu werden zun?chst die Probleme der Funktionsintegration er?rtert und eine Spezifikationssprache eingeführt, die f?derierte Funktionen zu bilden und diese mehreren lokalen Funktionen der zu integrierenden Anwendungssysteme zuzuordnen erlaubt. Anschlie?end zeigen wir, wie die zugeh?rige Ausführungskomponente – in unserem Fall ein Workflow-Managementsystem – an ein F?deriertes Datenbanksystem mittels eines Wrappers gekoppelt wird, um die Integration von Daten und Funktionen zu erm?glichen. Dabei wird die zu unterstützende Funktionalit?t innerhalb des Wrappers sowie deren Auswirkungen auf die Anfrageverarbeitung als auch das zugeh?rige Kostenmodell untersucht. Abschlie?end wird ein Eindruck von der Performanz der vorgestellten Architektur vermittelt. Eingegangen am 19. Februar 2002 / Angenommen am 31. Mai 2002  相似文献   

8.
Zusammenfassung. Multimedia-Metacomputing ist ein neuer Ansatz zur Verwaltung und Verarbeitung multimedialer Daten in Web-basierten Informationssystemen. Dabei wird sowohl eine hohe Flexibilität und Offenheit des Systems als auch eine maximale Abschirmung der Anwendungen von systeminternen Gegebenheiten angestrebt. Ausgehend von der Vision eines völlig offenen, global verteilten Multimedia-Informationssystems betrachten wir in diesem Aufsatz die hierfür erforderlichen Abstraktionskonzepte, insbesondere Transformationsunabhängigkeit, ein darauf abgestimmtes semantisches Modell sowie Realisierungsmöglichkeiten auf der Grundlage des bekannten Peer-to-Peer-Paradigmas. Eingegangen am 13. November 2002/Angenommen am 14. Mai 2003CR Subject Classification: C.2.4, D.2.11, H.2.4, H.3.5  相似文献   

9.
    
Zusammenfassung. Die Erfassung und Umsetzung von Anforderungen an ein Software-Produkt stellt in interdisziplinären Projekten hohe Anforderungen an die Kommunikation zwischen den Projektpartnern. Das Requirements Engineering bietet zwar genügend systematische Ansätze, Anforderungen zu explorieren, zu validieren oder auf Konsistenz zu testen, sodass eine angemessene Umsetzung zum Beispiel durch inkrementelles Prototyping folgen kann. Diese Systematik zielt jedoch auf Entwurf und Implementierung von Software ab. Wir stellen einen Ansatz vor, der eine geeignete Auswahl kommerzieller Werkzeuge schrittweise, also inkrementell nutzt, um in einem interdisziplinären Projekt Anforderungen an webbasierte Studieneinheiten für die klassischen Altertumswissenschaften zu erheben, prototypisch zu gestalten und den Entwicklungsprozess der Studieneinheiten mit Hilfe eines Content Management Systems zu organisieren und zu strukturieren. Hierbei treten bemerkenswerte Parallelen zum klassischen Prototyping auf. Das methodische Vorgehen wird als Ergänzung zur klassischen Anforderungserfassung im Falle nicht-technisch ausgerichteter Projektpartner diskutiert.Eingegangen am 1. Oktober 2002, Angenommen am 16. Januar 2004, CR Subject Classification: D.2.1, H.5.1, I.7.2, K.3.1, K.4.3, J.5, H.1.2  相似文献   

10.
Zusammenfassung. Dadurch, dass Literaturnachweise und Publikationen zunehmend in elektronischer und auch vernetzter Form angeboten werden, haben Anzahl und Größe der von wissenschaftlichen Bibliotheken angebotenen Datenbanken erheblich zugenommen. In den verbreiteten Metasuchen über mehrere Datenbanken sind Suchen mit natürlichsprachlichen Suchbegriffen heute der kleinste gemeinsame Nenner. Sie führen aber wegen der bekannten Mängel des booleschen Retrievals häufig zu Treffermengen, die entweder zu speziell oder zu lang und zu unspezifisch sind. Die Technische Fakultät der Universität Bielefeld und die Universitätsbibliothek Bielefeld haben einen auf Fuzzy- Suchlogik basierenden Rechercheassistenten entwickelt, der die Suchanfragen der Benutzer in Teilsuchfragen an die externen Datenbanken zerlegt und die erhaltenen Teilsuchergebnisse in einer nach Relevanz sortierten Liste kumuliert. Es ist möglich, Suchbegriffe zu gewichten und durch Fuzzy- Aggregationsoperatoren zu verknüpfen, die auf der Benutzeroberfläche durch natürlichsprachliche Fuzzy-Quantoren wie möglichst viele, einige u.a. repräsentiert werden. Die Suchparameter werden in der intuitiv bedienbaren einfachen Suche automatisch nach heuristischen Regeln ermittelt, können in einer erweiterten Suche aber auch explizit eingestellt werden. Die Suchmöglichkeiten werden durch Suchen nach ähnlichen Dokumenten und Vorschlagslisten für weitere Suchbegriffe ergänzt. Wir beschreiben die Ausgangssituation, den theoretischen Ansatz, die Benutzeroberfläche und berichten über eine Evalution zur Benutzung und einen Vergleichstest betreffend die Effizienz der Retrievalmethodik.CR Subject Classification: H.3.3, H.3.5Eingegangen am 3. März 2004 / Angenommen am 19. August 2004, Online publiziert am 18. Oktober 2004  相似文献   

11.
    
Zusammenfassung. Alle Informationssysteme ben?tigen und erzeugen Daten. Kurz: Jedes System ben?tigt eine Datenversorgung. In dieser Arbeit charakterisieren wir deshalb Informationssysteme hinsichtlich ihrer Datenversorgung und diskutieren m?gliche Ans?tze. Der Schwerpunkt liegt auf datenintensiven Systemen, die viele Daten lesen und schreiben. Als Anwendungsszenario dienen uns Entwurfsumgebungen und die Modellierung von Produktdaten über den STEP-Standard (ISO 10303). Nach einer Klassifikation von Datenquellen stellen wir verschiedene Datenversorgungsstrategien vor, die auf dem OMG-Standard CORBA basieren. Sie werden Java-basierten Verfahren im Bereich des Intra-/Internets gegenübergestellt. Zur Evaluierung ausgew?hlter Verfahren dient uns ein modularer Prototyp, der auf der von uns entwickelten und mittlerweile standardisierten Anbindung der SDAI-Schnittstelle von STEP an die Sprache Java basiert. Eingegangen am 12. Januar 2000 / Angenommen am 23. M?rz 2000  相似文献   

12.
Zusammenfassung.   Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert. Eingegangen am 2. November 1998 / Angenommen am 18. M?rz 1999  相似文献   

13.
Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert.  相似文献   

14.
Zusammenfassung. Caching ist ein bewährtes Mittel, um die Skalier- und Verfügbarkeit von Systemen zu steigern sowie die Latenzzeit für Benutzeranforderungen zu verkürzen. Im Gegensatz zum Web-Caching, bei dem einzelne Web-Objekte irgendwo längs ihres Aufrufpfades in der Proxy-Kette vorgehalten werden, setzt Datenbank-Caching ausgewachsene Datenbanksysteme als Caches ein, um dort Satzmengen entfernter Datenbanken möglichst adaptiv verwalten und Anfragen darauf auswerten zu können. Verfahren dazu reichen von separat verwalteten materialisierten Sichten über überlappende, aber replikationsfrei gespeicherte Sichten bis hin zu Cache-Groups, in denen parametrisierte Cache-Constraints den Cache-Inhalt spezifizieren. Wir untersuchen anschaulich die verschiedenen Ansätze und ermitteln daraus eine Klassifikation, die den Lösungsraum zu enthüllen hilft. Im Mittelpunkt steht das Konzept der Prädikatsvollständigkeit: Ein Datenbank-Cache verwaltet vollständige Extensionen von Prädikaten, was ihm ermöglicht, Schlüsse über beantwortbare Anfragen zu ziehen.Eingegangen am 14. Januar 2004, Angenommen am 13. Februar 2004, CR Subject Classification: C.2.4, D.4.4, H.2.4, H.2.8  相似文献   

15.
Zusammenfassung. Kollektionen wie Mengen, Listen und Felder spielen in objektorientierten Anwendungen und Datenbanken eine wichtige Rolle. Dementsprechend sollten sie zusammen mit anderen objektrelationalen Konzepten auch in die aktuelle Datenbanknorm SQL:1999 eingebracht werden. Aus Aufwands- und Zeitgründen wurden jedoch vom Normungsgremium, zu dem auch die Vertreter wichtiger Hersteller kommerzieller (objekt-)relationaler Datenbankmanagementsysteme gehören, zunächst nur Felder (Arrays) berücksichtigt; andere Kollektionsarten sollen erst später folgen. Auch in wichtigen DBMS-Produkten werden Kollektionen bislang nur unzureichend und auf heterogene Art und Weise unterstützt. Dieser Beitrag beschäftigt sich mit den Möglichkeiten einer Ergänzung von SQL:1999 um wichtige Kollektionsarten. Basierend auf dem aktuellen Stand von Norm und Produkten werden prinzipielle Fragen der Integration in SQL diskutiert und die Grundlagen einer adäquaten Unterstützung von Kollektionen erörtert. Der formale Sprachvorschlag auf Basis von SQL:1999 kann hier aus Platzgründen nicht näher vorgestellt werden, einige Beispiele sollen aber die Anwendung der neuen Modellierungsmöglichkeiten verdeutlichen. Eingegangen am 15. Februar 2002/Angenommen am 10. September 2002CR Subject Classification H.2.1, H.2.3, H.2.4, D.3.3  相似文献   

16.
Zusammenfassung. In diesem Artikel werden die für Internet-Anwendungen relevanten Qualit?tsziele und die sich daraus ergebenen Qualit?tssicherungs- (QS-) und Testaufgaben dargestellt. Zun?chst werden die besonderen Architekturmerkmale von Internet-Anwendungen, sofern sie Einflu?auf die QS haben, erl?utert. Auf der Basis eines in der Praxis bew?hrten generellen Vorgehens für die Qualit?tssicherung und den Test bei der Software-Anwendungsentwicklung werden dann spezielle Vorgehensweisen für die QS und den Test von Internet-Anwendungen eingeführt. Erkenntnisse aus der Praxis zum Thema Testwerkzeuge, Testautomatisierung und Testorganisation runden den Beitrag ab. Eingegangen am 14. Dezember 1999 / Angenommen am 31. M?rz 2000  相似文献   

17.
Ohne ZusammenfassungIn dieser Rubrik erscheinen in unregelmäßiger Folge Kurzdarstellungen geplanter, laufender oder abgeschlossener Projekte. Die Darstellungen werden in der Regel von den Projektbeteiligten geliefert. Die Auswahl erfolgt durch die Herausgeber. Dabei wird die Bedeutung des Projekts für die Fortentwicklung der Informatik das Hauptkriterium sein. Bei geplanten und laufenden Projekten ist ein wichtiges Kriterium der Wunsch, Kontakte zu etablieren und die Zusammenarbeit zwischen verschiedenen Gruppen zu fördern. Bei abgeschlossenen Projekten geht es primär um die Vermittlung von Erfahrungen und Ergebnissen, die sich nicht für die Veröffentlichung in redaktionellen Beiträgen eignen.  相似文献   

18.
Zusammenfassung.   Industrielle Konfigurationsprozesse sind, bedingt durch die vorherrschende Variantenvielfalt, sehr komplex. Aufgrund der inh?renten Potentiale ist die Realisierung von effizienten, flexiblen Konfigurationsprozessen ein zentrales Ziel vieler Unternehmen. Wir haben einen Ansatz für die Konfiguration und Rekonfiguration von Produkten entwickelt, der auf Constraint-basierter Modellierung über endlichen Dom?nen basiert. Das auf diesem Ansatz beruhende System ConBaCon deckt eine breite Palette von Konfigurationsproblemen ab und erm?glicht eine effiziente L?sung, die sowohl automatisch als auch gesteuert durch hoch flexible Nutzerinteraktion erfolgen kann. Wendet man das System jedoch auf gro?e Konfigurationsprozesse an, so treten Performanzprobleme auf. Als zwei wesentliche Modellerweiterungen, die diesem Mangel entgegenwirken, stellen wir in dieser Arbeit einerseits eine Modell-Clusterung und andererseits die Behandlung gro?er Netze arithmetischer Constraints vor. Eingegangen am 11. Februar 2002 / Angenommen am 18. Juli 2002  相似文献   

19.
Der gleichzeitige Betrieb mehrerer Gast-Betriebssysteme auf einem einzigen physischen Rechner unter einem Host-Betriebssystem ist eine leistungsfähige moderne Entwicklung. Bekannte Beispiele sind VMware für die IA32-Architektur sowie das Betriebssystem z/VM und die PR/SM-LPAR Einrichtungen der zSeries-Architektur. Die Nutzung eines Betriebssystems als Gast bedingt einen Leistungsverlust. Die als Partitionierung bezeichnete Zuordnung von Systemressourcen zu den einzelnen Gast-Betriebssysteme ist schwierig, wenn eine dynamische Anpassung an sich ändernde Lastprofile erforderlich ist. Diese Probleme lassen sich mittels Erweiterungen der Hardwarearchitektur adressieren, sowie durch Softwarestrukturen, welche diese Erweiterungen nutzen. Die Erweiterungen der Hardwarearchitektur gehen über das hinaus, was auf heutigen Rechnerarchitekturen wie IA32 oder Mips verfügbar ist. Der vorliegende Beitrag erläutert den optimalen Betrieb von Gast-Betriebssystemen und die begleitenden Partitionierungsmöglichkeiten auf der zSeries-Plattform und beschreibt die zusätzlichen Hardware- und Software-Einrichtungen, welche dies ermöglichen.  相似文献   

20.
Zusammenfassung.   Inspektion hilft bereits in frühen Phasen der Softwareentwicklung, die Qualit?t von Softwareprodukten zu bestimmen und Nachbearbeitungsaufwand einzusparen. Lesetechniken sind ein Ansatz, der die Aufmerksamkeit von Inspektoren beim individuellen Lesen auf bestimmte Fehlermengen lenken und dadurch die Arbeit mehrerer Inspektoren untereinander koordinieren soll. Diese Arbeit berichtet über ein Experiment, das einerseits die Effektivit?t und Effizienz mehrerer Lesetechniken auf individueller und auf Teamebene miteinander vergleicht und andererseits Zusammenh?nge der Verwendung von Lesezeit mit der Effektivit?t von bestimmten Inspektorengruppen untersucht. Die Ergebnisse unterstützen den gezielten Einsatz von Lesetechniken bei der Planung einer Inspektion, um Inspektoren beim Finden von Fehlern in bestimmten Mengen bzw. Dokumentteilen anzuleiten und um die Effektivit?t und Effizienz im Team durch Minimieren der Anzahl mehrfach gefundener Fehler zu optimieren. Die betr?chtlichen Schwankungen der Leistungen von Inspektoren, die eine bestimmte Lesetechnik verwendeten, im Vergleich zu den Unterschieden der Mittelwerte verschiedener Lesetechniken verdient eine detailliertere Untersuchung. Bei der Untersuchung des Zeitverlaufs für Inspektorengruppen mit unterschiedlicher Gesamteffektivit?t zeigten sich betr?chtliche Leistungsunterschiede schon nach den ersten drei Stunden der Inspektion. Das Design von Lesetechniken sollte angepa?t werden, um dynamisch auf Inspektoren mit deutlich unterschiedlichen F?higkeiten abgestimmt zu werden. Eingegangen am 31. Oktober 2000 / Angenommen am 10. April 2001  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号