共查询到20条相似文献,搜索用时 531 毫秒
1.
Ralph Depke Gregor Engels Katharina Mehner Stefan Sauer und Annika Wagner 《Informatik - Forschung und Entwicklung》1999,14(2):83-94
Zusammenfassung. Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt
zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau
unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert
sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen
wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung
von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung
der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung
und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell
auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch
für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert.
Eingegangen am 2. November 1998 / Angenommen am 18. M?rz 1999 相似文献
2.
Thomas Bauer Manfred Reichert und Peter Dadam 《Informatik - Forschung und Entwicklung》2001,16(2):76-92
Zusammenfassung. Zur Unterstützung von unternehmensweiten und -übergreifenden Gesch?ftsprozessen muss ein Workflow-Management-System (WfMS)
eine gro?e Anzahl von Workflow-Instanzen steuern k?nnen. Daraus resultiert eine hohe Last für die Workflow-Server und das
zugrunde liegende Kommunikationssystem. Ein in der Workflow-Literatur viel diskutierter Ansatz zur Bew?ltigung der Last ist
es, die Workflow-Instanzen verteilt durch mehrere Workflow-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei
Workflow-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen Workflow-Instanz vom Quell- zum Zielserver
übertragen werden müssen, um dort mit der Steuerung fortfahren zu k?nnen. Deshalb belasten Migrationen das Kommunikationssystem
zus?tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert
werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls Gesch?ftsbereiche aus Kostengründen nur
über langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS überhaupt erst erm?glicht.
Eingegangen am 22. Juni 2000 / Angenommen am 25. Januar 2001 相似文献
3.
Albrecht Schmidt und Hans-Werner Gellersen 《Informatik - Forschung und Entwicklung》2001,16(4):213-224
Zusammenfassung. In mobilen Systemen findet Kontext zunehmend Berücksichtigung, um Komponenten mit Informationen zur umgebenden Situation
auszustatten. Dieser Beitrag führt ein neues semantisches Modell und eine Architektur für die Nutzung von Kontext in verteilten
Systemen ein. Ausgangspunkt ist die Analyse grundlegender Eigenschaften von Kontext, zu denen vor allem orts- und zeitbezogene
Relevanz z?hlt. Kontext wird entsprechend als allgemeine Datenstruktur modelliert, in der beliebige Kontextinformation mit
Ursprungsort und –zeit sowie r?umlich-zeitlicher Ausbreitungscharakteristik beschrieben wird. Zur Modellierung der Ausbreitung
und Verteilung von Kontext im Zeit-Raum-Kontinuum wird das Prinzip der unscharfen Mengen (Fuzzy Logic) herangezogen. Darauf
aufbauend wird ein FuzzySpace als Kommunikationsplattform eingeführt, der auf einem Tupelraum aufbaut, für Elemente aber zus?tzlich
eine r?umlich-zeitlich definierte Relevanz einführt. über diese Plattform k?nnen Kontextlieferanten, -konsumenten undabstraktoren
Kontextinformationen austauschen. Die Verteilung von Kontext im FuzzySpace bleibt für diese Komponenten transparent, was zur
Vereinfachung der Anwendungsentwicklung beitr?gt.
Eingegangen am 14. Februar 2001 / Angenommen am 22. August 2001 相似文献
4.
Frank Steinfath Brigitta Lange und Klaus B?hm 《Informatik - Forschung und Entwicklung》1997,12(3):128-142
Zusammenfassung. Die Modellierung komplexer informationsverarbeitender Systeme erfolgt typischerweise durch Gliederung in voneinander unabh?ngige
Einheiten, die über ihre Schnittstellen Meldungen austauschen. Deren Beschreibung wird heute haupts?chlich mit 2D-graphischen
Werkzeugen durchgeführt. In diesem Beitrag identifizieren wir Probleme, wie sie bei der Modellierung solcher Systeme als
Systeme kommunizierender sequentieller Prozesse (CSP) auftreten. CSP selbst, sowie GRAPES und Occam als CSP-Abk?mmlinge sind
dabei die Ausgangsbasis der Problemanalyse. Als Probleml?sung schlagen wir eine 2D-graphische Proze?sprache vor. Es wird
au?erdem das Werkzeug GRADE-3D beschrieben, welches die Diagramme der Proze?sprache r?umlich darstellt. Es verfügt über Funktionalit?t
zur Interaktion mit der Darstellung, zur Analyse und Anzeige von Kommunikationsstrukturen sowie zur Modellbearbeitung. Es
werden ferner L?sungen für typische Probleme von 3D-Werkzeugen vorgestellt. Den Abschlu? bildet eine Bewertung der 3D-Werkzeuge
unter den Aspekten Text vs. 2D vs. 3D sowie aus der Sicht von GRAPES-Modellierern.
Eingegangen am 9. August 1996/Angenommen am 6. Juni 1997 相似文献
5.
Steffen E. Seufert 《Informatik - Forschung und Entwicklung》2002,17(1):1-11
Zusammenfassung. In diesem Beitrag wird ein formaler Ansatz zur Ableitung von Zugriffsrechten auf der Basis eines formalen Organisationsmodells
vorgestellt. Hierzu wird der Ansatz der rollenbasierten Zugriffskontrolle (engl. Role-Based Access Control, kurz RBAC) um die M?glichkeit erweitert, Aufbauorganisationen zu modellieren. Der Vorteil gegenüber rollenbasierten Ans?tzen mit einfachen
Rollenhierarchien ist die klare Struktur, die einem Zugriffskontrollmodell durch die Organisationsform aufgepr?gt wird. Des
Weiteren k?nnen organisatorische Regelungen, wie z.B. Urlaubsvertretung oder Weisungsbefugnis, direkt im Modell hinterlegt
werden. Aufwendig zu pflegende und h?ufig inkonsistente Rollenkataloge werden obsolet. Sicherheitsstrategien mit unpr?zisen
Vorgaben lassen sich mittels der vorgestellten Technik der sog. `Kompetenzerweiterung' umsetzen. Das zugrundeliegende Paradigma
des vorgestellten Ansatzes unterscheidet sich stark von anderen Ans?tzen mit statischer Autorisation. Nutzer k?nnen sich Zugriffsrechte
in fest definierten Grenzen selbstverantwortlich zuteilen, wobei jedoch eine nachtr?gliche Kontrolle stark vereinfacht und
damit praktikabel wird.
Eingegangen am 22. Februar 2001 / Angenommen am 22. Mai 2001 相似文献
6.
Gunter Schlageter und Silke Mittrach 《Informatik - Forschung und Entwicklung》1998,13(3):159-162
Zusammenfassung. Im Projekt „Virtuelle Universit?t“ an der FernUniversit?t Hagen wird eine netzbasierte Universit?tsumgebung entwickelt, die
s?mtliche Funktionen einer Universit?t in integrierter Form über elektronische Kommunikationsnetze verfügbar macht. Der Ansatz
bietet eine v?llig neue Qualit?t flexiblen, bedarfsorientierten und dennoch betreuten Lernens. Das Projekt wird seit Mitte
1996 durch das Land Nordrhein-Westfalen sowie durch Sachspenden der Firmen Oracle, Sun Microsystems und Sybase gef?rdert.
Seit dem Wintersemester 1996/97 wird die Virtuelle Universit?t im praktischen Betrieb auf Grundlage eines ersten Prototypen
mit Studierenden der FernUniversit?t und im Rahmen von Industrieveranstaltungen erprobt.
相似文献
7.
Otto Rauh 《Informatik - Forschung und Entwicklung》1997,12(3):117-127
Zusammenfassung. Redundante Komponenten in Entity-Relationship-Schemata führen zu Speicherverschwendung und Fehlern bei der Nutzung der aus
dem Schema gewonnenen Datenbanken. Zwischen Schemaredundanz und dem Konzept der ableitbaren Komponenten besteht eine enge
Verbindung, denn redundante Schemakomponenten sind stets ableitbar. Andererseits ist nicht jede ableitbare Komponente auch
redundant. Es wird deshalb zun?chst das Verh?ltnis zwischen redundanten und ableitbaren Komponenten diskutiert und eine Klassifizierung
eingeführt, welche die Modellierer bef?higt, entbehrliche von nicht entbehrlichen Komponenten zu unterscheiden. Eine spezielle
Art ableitbarer Komponenten, die Verkettung von Beziehungsarten, wird anschlie?end mit allen ihren Erscheinungsformen vorgestellt.
Au?erdem werden Methoden diskutiert, die helfen k?nnen, Verkettungen aufzudecken.
Eingegangen am 30. Mai 1996 / Angenommen am 8. April 1997 相似文献
8.
Ralph Depke Gregor Engels Katharina Mehner Stefan Sauer Annika Wagner 《Informatik - Forschung und Entwicklung》1999,2(3):83-94
Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert. 相似文献
9.
Jürgen Kalinski 《Informatik - Forschung und Entwicklung》1999,14(1):36-45
Zusammenfassung. Wir untersuchen Techniken des Text-Retrievals mit relationalen Datenbanken. Den Tests zum Booleschen Retrieval liegen reale
Bibliotheksdaten und Bibliothekarsanfragen zugrunde. Es werden drei Realisierungen mittels SQL miteinander verglichen, von
denen der Nested Loops Join mit vorsortierter Wortfolge am besten abschneidet. Dessen Effizienz beruht auf den signifikant
unterschiedlichen Vorkommensh?ufigkeiten der Anfragew?rter. Um diese Beobachtung auch bei einer Implementierung mit komprimierten
Bitlisten effizienzsteigernd zu nutzen, wird eine zus?tzliche Zugriffsstruktur für Lookup-Operationen in den Bitlisten aufgebaut.
Im Gegensatz zum Booleschen Retrieval zeigt sich beim Retrieval mit Ranking, da? eine Ergebnisberechnung mittels eines geschlossenen
SQL-Ausdrucks einer L?sung, die im Anwendungsprogramm die invertierten Listen durchl?uft und zu einem Ranking kombiniert,
hinsichtlich der Effizienz unterlegen ist. Als Grundlage für Abbruchheuristiken wird hier au?erdem eine Indexstruktur aufgebaut,
die den Zugriff auf invertierte Listen sortiert nach Within-Document-Frequencies erlaubt.
Eingegangen am 12. M?rz 1998 / Angenommen am 31. Oktober 1998 相似文献
10.
Stefan Biffl 《Informatik - Forschung und Entwicklung》2001,16(3):145-158
Zusammenfassung. Inspektion hilft bereits in frühen Phasen der Softwareentwicklung, die Qualit?t von Softwareprodukten zu bestimmen und Nachbearbeitungsaufwand
einzusparen. Lesetechniken sind ein Ansatz, der die Aufmerksamkeit von Inspektoren beim individuellen Lesen auf bestimmte
Fehlermengen lenken und dadurch die Arbeit mehrerer Inspektoren untereinander koordinieren soll.
Diese Arbeit berichtet über ein Experiment, das einerseits die Effektivit?t und Effizienz mehrerer Lesetechniken auf individueller
und auf Teamebene miteinander vergleicht und andererseits Zusammenh?nge der Verwendung von Lesezeit mit der Effektivit?t von
bestimmten Inspektorengruppen untersucht.
Die Ergebnisse unterstützen den gezielten Einsatz von Lesetechniken bei der Planung einer Inspektion, um Inspektoren beim
Finden von Fehlern in bestimmten Mengen bzw. Dokumentteilen anzuleiten und um die Effektivit?t und Effizienz im Team durch
Minimieren der Anzahl mehrfach gefundener Fehler zu optimieren.
Die betr?chtlichen Schwankungen der Leistungen von Inspektoren, die eine bestimmte Lesetechnik verwendeten, im Vergleich zu
den Unterschieden der Mittelwerte verschiedener Lesetechniken verdient eine detailliertere Untersuchung. Bei der Untersuchung
des Zeitverlaufs für Inspektorengruppen mit unterschiedlicher Gesamteffektivit?t zeigten sich betr?chtliche Leistungsunterschiede
schon nach den ersten drei Stunden der Inspektion. Das Design von Lesetechniken sollte angepa?t werden, um dynamisch auf Inspektoren
mit deutlich unterschiedlichen F?higkeiten abgestimmt zu werden.
Eingegangen am 31. Oktober 2000 / Angenommen am 10. April 2001 相似文献
11.
Arne Frick Rainer Neumann und Wolf Zimmermann 《Informatik - Forschung und Entwicklung》1997,12(4):186-195
Zusammenfassung. In diesem Beitrag wird eine Methode zur Konstruktion robuster Klassenhierarchien vorgestellt. Hierzu wird aus den überlegungen
bezüglich der polymorphen Verwendung von Klassen [2] eine Vorgehensweise zur Konstruktion von Klassenhierarchien abgeleitet.
Die Begriffe Konformit?t und Spezialisierung werden verfeinert, indem nicht mehr s?mtliche Methoden einer Klasse, sondern
Teilmengen davon betrachtet werden. Dies führt zum Begriff der partiellen Konformit?t. In Erweiterung von [2] sind partiell konforme Klassen dann polymorph verwendbar, wenn der Anwendungskontext, der sich aus der Benutzung der Klasse ergibt, sich ausschlie?lich auf konforme Methoden erstreckt. Diese Eigenschaft ist
statisch zur übersetzungszeit überprüfbar. Damit k?nnen Fehlbenutzungen bereits zur übersetzungszeit ausgeschlossen werden.
Eingegangen am 24. Dezember 1996 / Angenommen am 15. Oktober 1997 相似文献
12.
Dirk Siebert Patrick Neumann Armin Schulz Gabriele Faulkner und Thomas Tolxdorff 《Informatik - Forschung und Entwicklung》2001,16(2):93-102
Zusammenfassung. Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung
von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und
Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer
Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte
Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch
Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung
für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen
mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung
werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung
der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen
3D-Trackingsystems.
Eingegangen am 27. April 2000 / Angenommen am 21. Februar 2001 相似文献
13.
Karsten Weihe 《Informatik - Forschung und Entwicklung》1998,13(2):61-71
Zusammenfassung. In diesem Artikel wird ein Konzept besprochen, mit dem flexible Algorithmen zur Auswertung von Anfragen an tabellarische
Datenstrukturen typsicher in objektorientierten Programmiersprachen implementiert werden k?nnen. Kernpunkt ist eine strikte
Trennung zwischen dem Zugriff auf Zeilen und Spalten. Gegenüber einem reinem Iteratormodell werden Anwendungsprogramme damit
nicht nur von der internen Organisation der zugrundeliegenden Sequenzen entkoppelt, sondern auch von den Tupeltypen der Tabellen.
Dadurch wird es m?glich, hohe Laufzeitflexibilit?t mit weitgehender statischer Typsicherheit zu verbinden.
Eingegangen am 1. August 1997 / Angenommen am 7. M?rz 1998 相似文献
14.
Dirk Platz und Udo Kelter 《Informatik - Forschung und Entwicklung》1997,12(4):196-205
Zusammenfassung. Moderne Software-Entwicklungsumgebungen arbeiten mit einer Vielzahl von Editoren und Anzeigewerkzeugen, wobei der Informationsgehalt
mehrerer Fenster überlappen kann. Wenn nun irgendein Werkzeug Dokumente ?ndert, müssen alle betroffenen Anzeigen korrigiert
werden. Hierzu werden heute in mehrbenutzerf?higen, verteilten Software-Entwicklungsumgebungen überwiegend Kommunikationssysteme
wie z.B. ToolTalk™ eingesetzt. Diese verursachen einen relativ hohen Programmier- und Laufzeitaufwand und sind insofern unsicher,
als Anzeigewerkzeuge nicht von allen Ver?nderungen an den Daten informiert werden, u.a. von ?nderungen durch nicht integrierte
Werkzeuge. Dieses Papier stellt einen Benachrichtigungsmechanismus für Software-Entwicklungsumgebungen vor, der effizient,
leicht benutzbar und sicher ist, sowie seine Implementierung im Objektmanagementsystem H-PCTE.
Eingegangen am 24. Dezember 1996 / Angenommen am 19. September 1997 相似文献
15.
J. Raczkowsky J. Münchenberg I. Bertovic und C. Burghart 《Informatik - Forschung und Entwicklung》1999,14(1):24-35
Zusammenfassung. In industriellen Anwendungen bew?hren sich Roboter durch ihre hohe Pr?zision und Wiederholgenauigkeit. Ihr Einsatz in neuen
Gebieten, wie z.B. in der Chirurgie unterliegt aber anderen Randbedingungen. Die Datenakquisition und Planung jedes Eingriffs
mu? individuell für einen Patienten ausgeführt werden. Die pr?operative Planung einer Operation auf den komplexen Freiformfl?chen
des Patienten ist nur mit der Unterstützung eines rechnerbasierten Planungssystems durchführbar. Durch eine integrierte intraoperative
Instrumentennavigation wird sichergestellt, da? die geplanten Vorg?nge auch geometrisch richtig ausgeführt werden. Eine prototypische
Roboterarbeitszelle dient zur Evaluierung der untersuchten Methoden und entwickelten Subsysteme. Die vorgestellten Arbeiten
finden im Rahmen des Sonderforschungsbereiches 414: “Rechner- und sensorgestützte Chirurgie” statt, der eine enge interdisziplin?re
Zusammenarbeit zwischen Ingenieuren, Medizinern und Naturwissenschaftlern erm?glicht.
Eingegangen am 11. Juli 1998 / Angenommen am 21. Januar 1999 相似文献
16.
Martin Wimmer Pia Ehrnlechner Armin Fischer Alfons Kemper 《Informatik - Forschung und Entwicklung》2005,92(3):167-181
Die plattformunabh?ngige und organisationsübergreifende Web Services-Interoperabilit?t setzt ein leistungsf?higes und flexibles
Autorisierungssystem voraus. In diesem Beitrag wird ein Zugriffskontrollsystem vorgestellt, welches sich durch das Zusammenspiel
lokaler und verteilter Autorisierung auszeichnet. Im Zusammenhang mit lokaler Zugriffskontrolle, bei der Rechte innerhalb
einer Organisation ausgewertet werden, stellt sich insbesondere die Herausforderung, Autorisierungsregeln zu konsolidieren:
Da die Funktionalit?t von Web Services h?ufig auf weitere Anwendungen und Betriebsmittel wie Datenbanksystemen aufsetzt, ergeben
sich Abh?ngigkeiten bezüglich der Autorisierung, die überprüft und eingehalten werden müssen. über eine verteilte Zugriffskontrolle
wird der Aufbau von Kollaborationsnetzwerken erm?glicht. Der Augenmerk liegt im Folgenden auf schwach gekoppelten Zusammenschlüssen,
die die Autonomie der beteiligten Organisationen beibeh?lt. Skalierbarkeit und Effizenz werden durch den Einsatz von rollenbasierter
Zugriffskontrolle einerseits und dem Caching ?hnlicher, wiederkehrender Autorisierungen andererseits erreicht. 相似文献
17.
Zusammenfassung. Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste
analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten
der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend
auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen
Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die
bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein
Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System
nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen,
da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt.
Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um
zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen
als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten
und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen
Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test
nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt.
In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische
Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von
Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern
und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen.
Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000 相似文献
18.
Volker Gruhn 《Informatik - Forschung und Entwicklung》1996,11(2):94-101
Zusammenfassung. In diesem Artikel wird ein Ansatz zur Entwicklung von Software, die auf die Unterstützung interpersoneller Gesch?ftsprozesse
abzielt, vorgestellt. Dieser Ansatz basiert auf der Modellierung der zu unterstützenden Gesch?ftsprozesse, auf der Analyse
von Gesch?ftsproze?modellen und auf der Durchführung realer Gesch?ftsprozesse auf Basis dieser Modelle. Der FUNSOFT-Netz-Ansatz
wird als Realisierung des genannten Vorgehens vorgestellt. Seine Anwendung wird mit Hilfe eines Beispiels aus dem Bereich
der Bau- und Wohnungswirtschaft er?rtert.
Eingegangen am 15. April 1995 / Angenommen am 11. Dezember 1995 相似文献
19.
Theo H?rder und Klaudia Hergula 《Informatik - Forschung und Entwicklung》2002,17(3):135-148
Zusammenfassung. Mit der zunehmenden Zahl an Anwendungssystemen, welche Datenbank und zugeh?rige Anwendung kapseln, ist die reine Datenintegration
nicht mehr ausreichend. Stattdessen k?nnen die Daten des Anwendungssystems nur noch über vordefinierte Funktionen abgefragt
werden. Sollen Daten und Funktionen integriert werden, so ist eine Kombination von deklarativen Anfragen und dem Zugriff auf
Funktionen erforderlich. In diesem Aufsatz stellen wir einen Middleware-Ansatz vor, der diese erweiterte und neuartige Form
der Integration unterstützt. Hierzu werden zun?chst die Probleme der Funktionsintegration er?rtert und eine Spezifikationssprache
eingeführt, die f?derierte Funktionen zu bilden und diese mehreren lokalen Funktionen der zu integrierenden Anwendungssysteme
zuzuordnen erlaubt. Anschlie?end zeigen wir, wie die zugeh?rige Ausführungskomponente – in unserem Fall ein Workflow-Managementsystem
– an ein F?deriertes Datenbanksystem mittels eines Wrappers gekoppelt wird, um die Integration von Daten und Funktionen zu
erm?glichen. Dabei wird die zu unterstützende Funktionalit?t innerhalb des Wrappers sowie deren Auswirkungen auf die Anfrageverarbeitung
als auch das zugeh?rige Kostenmodell untersucht. Abschlie?end wird ein Eindruck von der Performanz der vorgestellten Architektur
vermittelt.
Eingegangen am 19. Februar 2002 / Angenommen am 31. Mai 2002 相似文献
20.
Zusammenfassung. Die automatische Erkennung und Lokalisation von Objekten in digitalen Bildern ist ein wesentlicher Bestandteil vieler praktisch
relevanter Anwendungen. In diesem Artikel wird ein erscheinungsbasiertes Verfahren zur Erkennung starrer zwei- oder dreidimensionaler
Objekte vorgestellt, dem eine statistische Modellierung zugrundeliegt. Im Gegensatz zu segmentierungsbasierten Verfahren,
wie sie vor allem im Bereich der 3D-Objekterkennung eingesetzt werden, erm?glicht der erscheinungsbasierte Ansatz aufgrund
der Modellierung der Intensit?tswerte oder davon abgeleiteter lokaler Merkmale eines Bildes die Erkennung komplexer Objekte.
Die statistische Formulierung der Problemstellung bildet den mathematischen Kontext zur Bestimmung optimaler L?sungen.
Die Form der Modellierung erlaubt neben der Einzelobjekterkennung auch die Berücksichtigung von heterogenem Bildhintergrund
und Mehrobjektszenen. Die dazu ben?tigten lokalen Merkmale entstehen durch r?umlich begrenzte Transformationen des Bildes,
wie beispielsweise Gabor- oder Wavelet-Transformationen. Die statistische Modellierung beschreibt die Verteilung dieser lokalen
Merkmale anhand einer Dichtefunktion, die sich bei der Hintergrund- und Mehrobjektmodellierung als Mischungsverteilung der
Einzelobjektverteilungen ergibt. Die Aufgabenstellungen des Erlernens und Erkennens von Objekten sind damit als Parametersch?tzprobleme
formal darstellbar. Dabei werden im einen Fall die Modellparameter und im anderen Fall die Lageparameter beziehungsweise die
Klassen von Objekten gesch?tzt. Die experimentelle überprüfung des Ansatzes anhand realer Objektaufnahmen durch CCD-Kameras
zeigt seine Brauchbarkeit zur Erkennung von 2D- und 3D-Objekten bei homogenem und heterogenem Hintergrund.
Eingegangen am 5. April 2000 / Angenommen am 20. Juli 2001 相似文献