首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
Zusammenfassung. Die Spezifikation ist die Grundlage für den Erfolg eines Software-Projekts. Der Praktiker konzentriert sich hier i.d.R. auf die größte Herausforderung: die vollständige und inhaltlich korrekte Erfassung aller Anforderungen an das zu erstellende Software-System. Dass Spezifikationen für große Systeme aus vielen Dokumenten verschiedener Ausprägung in Form und Inhalt bestehen, tritt dabei meist in den Hintergrund. Ihre Konsistenz wird meist mit hohem manuellem Aufwand sichergestellt. Der Erstellung formal korrekter und konsistenter Software-Spezifikationen widmen sich zahlreiche theoretische Arbeiten. In der Praxis sind sie jedoch meist nicht mit der gewohnten Arbeitsweise vereinbar. In diesem Artikel stellen wir einen Mittelweg vor: Wir nutzen die Spezifikationsbausteine von sd&m für die Spezifikation, die als Ergebnisse Dokumente in natürlicher Sprache sowie semi-formale Darstellungen umfasst. Für Spezifikationen, die nach diesen Bausteinen erstellt wurden, definieren wir Konsistenz durch formale zeitbehaftete Konsistenzregeln. Ein von uns entwickeltes Auswertungswerkzeug ermittelt Inkonsistenzen präzise. Unterstützt von einem solchen Werkzeug kann sich der Software-Ingenieur wieder ganz auf das Hauptanliegen der Spezifikation konzentrieren: ihre inhaltliche Korrektheit und Vollständigkeit.Eingegangen am 19. August 2003, Angenommen am 10. März 2004, CR Subject Classification: D.2.1, D.3.1, H.3.1, I.7.1  相似文献   

2.
Zusammenfassung. Im Data-Warehouse-Bereich gibt es sowohl auf der konzeptuellen als auch auf der logischen Ebene unterschiedliche Modellierungsansätze, deren Entwicklung sich in der Regel an typischen Fragestellungen aus dem Bereich des Online Analytical Processing (OLAP) orientierte. Daneben spielen aber auch andere Ansätze zur Analyse der Daten in einem Data Warehouse eine bedeutende Rolle. Ein wichtiger Vertreter ist Data Mining, mit dessen Hilfe bislang unbekannte Muster und Zusammenhänge in Daten identifiziert werden können. Im vorliegenden Artikel wird untersucht, inwieweit sich die in der Literatur vorgeschlagenen konzeptuellen Datenmodelle für ein Data Warehouse eignen, das OLAP- und Data-Mining-Analysen gleichermaßen unterstützt. Hierzu wird das COCOM-Modell, das auf den Modellierungsmöglichkeiten verschiedener publizierter Modelle aufbaut, vorgestellt und bewertet. Für das logische Schema eines Data Warehouse wird häufig ein sogenanntes Star-Schema oder ein Snowflake-Schema erstellt. Für diese und weitere Schematypen wird analysiert, welchen Einfluss die Wahl des logischen Schemas auf Anwendungen aus den Bereichen OLAP und Data Mining hat. Wichtige Kriterien sind hier unter anderem der Informationsgehalt und die Performanz. Insgesamt zeigt dieser Beitrag, dass das COCOM-Modell und das Star-Schema eine gute Grundlage für den integrierten Einsatz von OLAP und Data-Mining bilden.Eingegangen am 30. April 2002, Angenommen am 25. Juni 2003 CR Subject Classification: H.2.1, H.2.7, H.2.8  相似文献   

3.
Während Projekt-Management-Systeme zur Planung fast jedes Projekts eingesetzt werden, gewinnen Workflow-Management-Systeme für die Realisierung von prozessorientierten Anwendungen zunehmend an Bedeutung. Da sich beide Systemarten um das Management von Abläufen kümmern, ist eine Kooperation entsprechender Systeme für die Praxis sehr relevant. In diesem Beitrag stellen wir die einschlägigen wissenschaftlichen und kommerziellen Ansätze vor und untersuchen sie ausführlich. Da diese nur über eine unzureichende Funktionalität verfügen, entwickeln wir anschließend Architekturen, die ein besseres Zusammenspiel der beiden Systemarten erlauben. Dabei gehen wir auch auf den in der Literatur bisher nicht betrachteten Fall ein, dass die Projektplanung auf einem höheren Abstraktionsniveau erfolgt als die Modellierung und Ausführung der Workflows. Wir zeigen für diesen in der Praxis häufig anzutreffenden Fall auf, wie eine Kooperation der beiden Systemarten mit einer auf Event-Condition-Action-Rules basierenden generischen Kopplungsarchitektur realisiert werden kann.  相似文献   

4.
Zusammenfassung. Während Projekt-Management-Systeme zur Planung fast jedes Projekts eingesetzt werden, gewinnen Workflow-Management-Systeme für die Realisierung von prozessorientierten Anwendungen zunehmend an Bedeutung. Da sich beide Systemarten um das Management von Abläufen kümmern, ist eine Kooperation entsprechender Systeme für die Praxis sehr relevant. In diesem Beitrag stellen wir die einschlägigen wissenschaftlichen und kommerziellen Ansätze vor und untersuchen sie ausführlich. Da diese nur über eine unzureichende Funktionalität verfügen, entwickeln wir anschließend Architekturen, die ein besseres Zusammenspiel der beiden Systemarten erlauben. Dabei gehen wir auch auf den in der Literatur bisher nicht betrachteten Fall ein, dass die Projektplanung auf einem höheren Abstraktionsniveau erfolgt als die Modellierung und Ausführung der Workflows. Wir zeigen für diesen in der Praxis häufig anzutreffenden Fall auf, wie eine Kooperation der beiden Systemarten mit einer auf Event-Condition-Action-Rules basierenden generischen Kopplungsarchitektur realisiert werden kann.CR Subject Classification: K.6.1, H.4.1Eingegangen am 9. Dezember 2003 / Agenommen am 24. März 2004, Online publiziert: 1. Juli 2004  相似文献   

5.
Eine Vernetzung der Dienstleister im Gesundheitswesen wird aus Effizienzgründen immer wichtiger. Schwierigkeiten bereitet jedoch die Interoperabilität, womit die korrekte Kommunikation von beteiligten Softwaresystemen verschiedener Herkunft gemeint ist. Dieser Beitrag konzentriert sich auf die Interoperabilitätsproblematik auf der Ebene der Anwendungsarchitekturen. Mit Hilfe von Standards und Integrationstechniken bemühen sich verschiedene Lösungsansätze die Heterogenität zu überwinden, die einer umfassenden Interoperabilität im Wege steht. Die Frage, die sich uns in diesem Zusammenhang nun stellt ist, ob diverse Standards im Gesundheitswesen sinnvoll kombiniert werden können bzw. zwischen ihnen vermittelt werden kann. In diesem Artikel stellen wir die Grundzüge einer Architektur vor, die auf der Basis von Standards eine institutionsübergreifende Interoperabilität im Gesundheitswesen ermöglichen soll. Die Strukturen der relevanten Standards werden einheitlich als Instanzen des Meta-Object Facility (MOF) spezifiziert und dann geeignet zueinander in Beziehung gesetzt. Die resultierenden Modelle und Metamodelle bilden einen Leitfaden zur Strukturanalyse der Standards und helfen so beim Entwurf der Transformationen zwischen den verschiedenen Standards. Architektur und Metamodelle dienen als Grundlage für eine prototypische Implementierung am Beispiel des Epidemiologischen Krebsregisters Niedersachsen zur Evaluation des vorgestellten Konzeptes.  相似文献   

6.
Der Burrows-Wheeler-Kompressionsalgorithmus hat als ein universelles Kompressionsverfahren in den letzten Jahren aufgrund seiner hervorragenden Kompressionsraten und hohen Verarbeitungsgeschwindigkeiten eine bemerkenswerte Beachtung erfahren. Das Herzstück des Algorithmus stellt die sogenannte Burrows-Wheeler-Transformation dar. Es handelt sich bei dieser Transformation um eine Permutation der Eingabedaten, welche Zeichen mit ähnlichem Kontext nahe beieinander anordnet. Die Transformation sowie die zugehörige Rücktransformation werden zusammen mit den weiteren Stufen des Algorithmus in einer gegenüber der Standardversion verbesserten Variante vorgestellt und die Ergebnisse mit denen anderer Datenkompressionsalgorithmen verglichen.  相似文献   

7.
    
Zusammenfassung. Eine Vernetzung der Dienstleister im Gesundheitswesen wird aus Effizienzgründen immer wichtiger. Schwierigkeiten bereitet jedoch die Interoperabilität, womit die korrekte Kommunikation von beteiligten Softwaresystemen verschiedener Herkunft gemeint ist. Dieser Beitrag konzentriert sich auf die Interoperabilitätsproblematik auf der Ebene der Anwendungsarchitekturen. Mit Hilfe von Standards und Integrationstechniken bemühen sich verschiedene Lösungsansätze die Heterogenität zu überwinden, die einer umfassenden Interoperabilität im Wege steht. Die Frage, die sich uns in diesem Zusammenhang nun stellt ist, ob diverse Standards im Gesundheitswesen sinnvoll kombiniert werden können bzw. zwischen ihnen vermittelt werden kann. In diesem Artikel stellen wir die Grundzüge einer Architektur vor, die auf der Basis von Standards eine institutionsübergreifende Interoperabilität im Gesundheitswesen ermöglichen soll. Die Strukturen der relevanten Standards werden einheitlich als Instanzen des Meta-Object Facility (MOF) spezifiziert und dann geeignet zueinander in Beziehung gesetzt. Die resultierenden Modelle und Metamodelle bilden einen Leitfaden zur Strukturanalyse der Standards und helfen so beim Entwurf der Transformationen zwischen den verschiedenen Standards. Architektur und Metamodelle dienen als Grundlage für eine prototypische Implementierung am Beispiel des Epidemiologischen Krebsregisters Niedersachsen zur Evaluation des vorgestellten Konzeptes.Eingegangen am 14. März 2003, Angenommen am 9. Januar 2004, CR Subject Classification: H.2.1, H.2.5, J.3.  相似文献   

8.
Zusammenfassung. Der Burrows-Wheeler-Kompressionsalgorithmus hat als ein universelles Kompressionsverfahren in den letzten Jahren aufgrund seiner hervorragenden Kompressionsraten und hohen Verarbeitungsgeschwindigkeiten eine bemerkenswerte Beachtung erfahren. Das Herzstück des Algorithmus stellt die sogenannte Burrows-Wheeler-Transformation dar. Es handelt sich bei dieser Transformation um eine Permutation der Eingabedaten, welche Zeichen mit ähnlichem Kontext nahe beieinander anordnet. Die Transformation sowie die zugehörige Rücktransformation werden zusammen mit den weiteren Stufen des Algorithmus in einer gegenüber der Standardversion verbesserten Variante vorgestellt und die Ergebnisse mit denen anderer Datenkompressionsalgorithmen verglichen. Eingegangen am 12. April 2003, Angenommen am 7. November 2003CR Subject Calssification: E4, H1.1  相似文献   

9.
Zusammenfassung.   Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen, da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt. Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt. In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen. Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000  相似文献   

10.
Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert.  相似文献   

11.
Ohne ZusammenfassungIn dieser Rubrik erscheinen in unregelmäßiger Folge Kurzdarstellungen geplanter, laufender oder abgeschlossener Projekte. Die Darstellungen werden in der Regel von den Projektbeteiligten geliefert. Die Auswahl erfolgt durch die Herausgeber. Dabei wird die Bedeutung des Projekts für die Fortentwicklung der Informatik das Hauptkriterium sein. Bei geplanten und laufenden Projekten ist ein wichtiges Kriterium der Wunsch, Kontakte zu etablieren und die Zusammenarbeit zwischen verschiedenen Gruppen zu fördern. Bei abgeschlossenen Projekten geht es primär um die Vermittlung von Erfahrungen und Ergebnissen, die sich nicht für die Veröffentlichung in redaktionellen Beiträgen eignen.  相似文献   

12.
Zusammenfassung. Zusammenfassung Der Softwaremarkt für Data-Warehouse-Systeme hat in den letzten Jahren stark zugenommen. Da Standards fehlen, bringen Softwaresysteme jeweils eigene multidimensionale Datenmodelle und (physische) Entwurfswerkzeuge mit, sodass der Entwurf von Data-Warehouse-Datenbanken verfrüht auf die eingesetzten Systeme zugeschnitten ist. In diesem Beitrag präsentieren wir ein werkzeuggestütztes Entwurfsvorgehen, das ausgehend von einem Drei-Ebenen-Entwurf die zielplattformunabhängige, konzeptionelle Modellierung multidimensionaler Data-Warehouse-Schemata und anschliesend eine Transformation und Optimierung dieser Schemata für konkrete Zielplattformen ermöglicht. Durch die konzeptionelle Modellierung wird gewährleistet, dass Implementierungsdetails nicht zu früh in den Entwurfsprozess einfliesen und stattdessen fachliche Anforderungen im Vordergrund stehen.CR Subject Classification: D.2.2, H.2.1Arne Harren: Die hier beschriebene Arbeit entstand während unserer gemeinsamen Tätigkeit am Oldenburger Forschungsinstitut OFFIS (http: //www.offis.de).Eingegangen am 25. Juli 2003 / Angenommen am 1. Juni 2004, Online publiziert 6. September 2004  相似文献   

13.
Zusammenfassung.   Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert. Eingegangen am 2. November 1998 / Angenommen am 18. M?rz 1999  相似文献   

14.
Zusammenfassung. In mobilen Systemen findet Kontext zunehmend Berücksichtigung, um Komponenten mit Informationen zur umgebenden Situation auszustatten. Dieser Beitrag führt ein neues semantisches Modell und eine Architektur für die Nutzung von Kontext in verteilten Systemen ein. Ausgangspunkt ist die Analyse grundlegender Eigenschaften von Kontext, zu denen vor allem orts- und zeitbezogene Relevanz z?hlt. Kontext wird entsprechend als allgemeine Datenstruktur modelliert, in der beliebige Kontextinformation mit Ursprungsort und –zeit sowie r?umlich-zeitlicher Ausbreitungscharakteristik beschrieben wird. Zur Modellierung der Ausbreitung und Verteilung von Kontext im Zeit-Raum-Kontinuum wird das Prinzip der unscharfen Mengen (Fuzzy Logic) herangezogen. Darauf aufbauend wird ein FuzzySpace als Kommunikationsplattform eingeführt, der auf einem Tupelraum aufbaut, für Elemente aber zus?tzlich eine r?umlich-zeitlich definierte Relevanz einführt. über diese Plattform k?nnen Kontextlieferanten, -konsumenten undabstraktoren Kontextinformationen austauschen. Die Verteilung von Kontext im FuzzySpace bleibt für diese Komponenten transparent, was zur Vereinfachung der Anwendungsentwicklung beitr?gt. Eingegangen am 14. Februar 2001 / Angenommen am 22. August 2001  相似文献   

15.
Die plattformunabh?ngige und organisationsübergreifende Web Services-Interoperabilit?t setzt ein leistungsf?higes und flexibles Autorisierungssystem voraus. In diesem Beitrag wird ein Zugriffskontrollsystem vorgestellt, welches sich durch das Zusammenspiel lokaler und verteilter Autorisierung auszeichnet. Im Zusammenhang mit lokaler Zugriffskontrolle, bei der Rechte innerhalb einer Organisation ausgewertet werden, stellt sich insbesondere die Herausforderung, Autorisierungsregeln zu konsolidieren: Da die Funktionalit?t von Web Services h?ufig auf weitere Anwendungen und Betriebsmittel wie Datenbanksystemen aufsetzt, ergeben sich Abh?ngigkeiten bezüglich der Autorisierung, die überprüft und eingehalten werden müssen. über eine verteilte Zugriffskontrolle wird der Aufbau von Kollaborationsnetzwerken erm?glicht. Der Augenmerk liegt im Folgenden auf schwach gekoppelten Zusammenschlüssen, die die Autonomie der beteiligten Organisationen beibeh?lt. Skalierbarkeit und Effizenz werden durch den Einsatz von rollenbasierter Zugriffskontrolle einerseits und dem Caching ?hnlicher, wiederkehrender Autorisierungen andererseits erreicht.  相似文献   

16.
Zusammenfassung. Neben Information ist Wissen ein Begriff, der in der Informatik eine große Rolle spielt. Beim Menschen ist Wissen ein Teil seiner Gedächtnisleistung. Erwerben und Nutzen von Wissen ist eng verwandt mit dem Begriff Denken. Das Ziel der Informatik ist es, Leistungen des Menschen im Bereich von Gedächtnis und Denken mit maschinellen Mitteln zu unterstützen. Deshalb ist eine klare begriffliche Abgrenzung zwischen dem, was Menschen tun, und dem, was Maschinen leisten oder zu leisten vermögen, für Informatikerinnen und Informatiker sehr wichtig. Maschinen sind Menschen heute bereits überlegen, wenn es um das Speichern und Wiederfinden von Information geht, oder bei sehr speziellen Aufgaben wie dem Schachspielen. Anders ist es bei Denkprozessen wie Generalisieren, Abstrahieren und dem analogen Schließen, sowie bei der Lösung alltäglicher und wenig strukturierter Probleme.CR Subject Classification: E.4, H.1, I.2  相似文献   

17.
Zusammenfassung. Kollektionen wie Mengen, Listen und Felder spielen in objektorientierten Anwendungen und Datenbanken eine wichtige Rolle. Dementsprechend sollten sie zusammen mit anderen objektrelationalen Konzepten auch in die aktuelle Datenbanknorm SQL:1999 eingebracht werden. Aus Aufwands- und Zeitgründen wurden jedoch vom Normungsgremium, zu dem auch die Vertreter wichtiger Hersteller kommerzieller (objekt-)relationaler Datenbankmanagementsysteme gehören, zunächst nur Felder (Arrays) berücksichtigt; andere Kollektionsarten sollen erst später folgen. Auch in wichtigen DBMS-Produkten werden Kollektionen bislang nur unzureichend und auf heterogene Art und Weise unterstützt. Dieser Beitrag beschäftigt sich mit den Möglichkeiten einer Ergänzung von SQL:1999 um wichtige Kollektionsarten. Basierend auf dem aktuellen Stand von Norm und Produkten werden prinzipielle Fragen der Integration in SQL diskutiert und die Grundlagen einer adäquaten Unterstützung von Kollektionen erörtert. Der formale Sprachvorschlag auf Basis von SQL:1999 kann hier aus Platzgründen nicht näher vorgestellt werden, einige Beispiele sollen aber die Anwendung der neuen Modellierungsmöglichkeiten verdeutlichen. Eingegangen am 15. Februar 2002/Angenommen am 10. September 2002CR Subject Classification H.2.1, H.2.3, H.2.4, D.3.3  相似文献   

18.
Caching ist ein bewährtes Mittel, um die Skalier- und Verfügbarkeit von Systemen zu steigern sowie die Latenzzeit für Benutzeranforderungen zu verkürzen. Im Gegensatz zum Web-Caching, bei dem einzelne Web-Objekte irgendwo längs ihres Aufrufpfades in der Proxy-Kette vorgehalten werden, setzt Datenbank-Caching ausgewachsene Datenbanksysteme als Caches ein, um dort Satzmengen entfernter Datenbanken möglichst adaptiv verwalten und Anfragen darauf auswerten zu können. Verfahren dazu reichen von separat verwalteten materialisierten Sichten über überlappende, aber replikationsfrei gespeicherte Sichten bis hin zu Cache-Groups, in denen parametrisierte Cache-Constraints den Cache-Inhalt spezifizieren. Wir untersuchen anschaulich die verschiedenen Ansätze und ermitteln daraus eine Klassifikation, die den Lösungsraum zu enthüllen hilft. Im Mittelpunkt steht das Konzept der Prädikatsvollständigkeit: Ein Datenbank-Cache verwaltet vollständige Extensionen von Prädikaten, was ihm ermöglicht, Schlüsse über beantwortbare Anfragen zu ziehen.  相似文献   

19.
Zusammenfassung. Multimedia-Metacomputing ist ein neuer Ansatz zur Verwaltung und Verarbeitung multimedialer Daten in Web-basierten Informationssystemen. Dabei wird sowohl eine hohe Flexibilität und Offenheit des Systems als auch eine maximale Abschirmung der Anwendungen von systeminternen Gegebenheiten angestrebt. Ausgehend von der Vision eines völlig offenen, global verteilten Multimedia-Informationssystems betrachten wir in diesem Aufsatz die hierfür erforderlichen Abstraktionskonzepte, insbesondere Transformationsunabhängigkeit, ein darauf abgestimmtes semantisches Modell sowie Realisierungsmöglichkeiten auf der Grundlage des bekannten Peer-to-Peer-Paradigmas. Eingegangen am 13. November 2002/Angenommen am 14. Mai 2003CR Subject Classification: C.2.4, D.2.11, H.2.4, H.3.5  相似文献   

20.
Zusammenfassung. Das Internet und darauf aufbauende Technologien er?ffnen neue Potentiale für zwischenbetriebliche Informationssysteme und f?rdern die elektronische Unterstützung von Gesch?ftsbeziehungen. Dabei bleibt jedoch das grunds?tzliche Problem bestehen, da? der Hauptinvestor jeweils eine gewisse Anzahl an Teilnehmern ben?tigt, um eine angemessene Verzinsung der für die Systementwicklung und -implementierung eingesetzten Ressourcen zu erreichen. Da es sich im zwischenbetrieblichen Kontext bei den Transaktionspartnern in der Regel um entscheidungsautonome Organisationseinheiten handelt, kann davon ausgegangen werden, da? die kritische Masse nur dann erreicht wird, wenn sich für die Teilnehmer selbst wiederum eine angemessene Verzinsung der für Anbindung und Systemanpassung notwendigen individuellen Aufwendungen ergibt. Dem Hauptinvestor stehen dabei eine Reihe von Gestaltungsoptionen zur Verfügung, denen jeweils unterschiedliche Erfolgsfaktoren zuzuordnen sind. In der Vergangenheit dominierten einerseits auf Zwang ausgerichtete, stark kompetitive Vorgehensweisen und andererseits kooperative Strategien, wie etwa die freiwillige Beschr?nkung der Anzahl an Zulieferbeziehungen im Rahmen vertrauensbildender Ma?nahmen. Mit dem Aufkommen offener Kommunikationsstandards und neuer Technologien lassen sich diese von relativ geringen zus?tzlichen finanziellen Belastungen gekennzeichneten Strategien m?glicherweise nicht mehr aufrechterhalten, und es wird notwendig, neue Optionen in Betracht zu ziehen, wie etwa die Subventionierung einzelner Systemteilnehmer oder die Verbesserung des Gesamtsystems, die jeweils sowohl kompetitive als auch kooperative Elemente aufweisen. Der vorliegende Beitrag diskutiert diese These am Beispiel zwischenbetrieblicher elektronischer Katalogsysteme, wie sie in jüngster Zeit im Kontext elektronischer Absatz- und Beschaffungssysteme sowie elektronischer M?rkte an Bedeutung gewinnen. Eingegangen am 16. Dezember 1999 / Angenommen am 15. April 2000  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号