共查询到20条相似文献,搜索用时 46 毫秒
1.
Zusammenfassung. Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste
analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten
der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend
auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen
Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die
bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein
Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System
nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen,
da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt.
Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um
zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen
als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten
und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen
Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test
nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt.
In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische
Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von
Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern
und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen.
Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000 相似文献
2.
Wolfgang Wahlster J?rg Baus Christian Kray und Antonio Krüger 《Informatik - Forschung und Entwicklung》2001,16(4):233-241
Zusammenfassung. Die intelligente Ressourcenadaption ist eine der gro?en Herausforderungen für die n?chste Generation mobiler Navigationssysteme.
Da man typischerweise mehrere Fortbewegungsarten oder Verkehrsmittel kombinieren muss, um an einen Zielort zu gelangen, muss
sichergestellt werden, dass mobile, allgegenw?rtige Navigationshilfen dies über eine jeweils situationsangepasste Benutzerschnittstelle
unterstützen. Der notwendige Wechsel zwischen verschiedenen Positionierungstechnologien soll für den Endbenutzer m?glichst
unbemerkt bleiben. Im folgenden wird ein hybrides Personennavigationssystem vorgestellt, das die in bestimmten Fortbewegungssituationen
verfügbaren Positionierungstechnologien und deren Genauigkeit optimal nutzt, um die Pr?sentation der Wegbeschreibung auf verschiedene
Endger?te und Ausgabemodalit?ten sowie die kognitive Ressourcenlage des Benutzers zu adaptieren.
Eingegangen am 28. Februar 2001 / Angenommen am 8. August 2001 相似文献
3.
Klaus Achatz und Wolfram Schulte 《Informatik - Forschung und Entwicklung》1997,12(4):174-185
Zusammenfassung. Wir stellen die neue Methode vor, die auf die formale Entwicklung sequentieller, objektorientierter Softwaresysteme abzielt. ist eine synergetische Kombination aus der semiformalen Methode Fusion und der formalen Spezifikationssprache Object-Z. Die
Methode unterscheidet ausdrücklich Analyse und Entwurf, um die Komplexit?t und die unterschiedlichen Aufgaben der Softwareentwicklung
zu bew?ltigen. In jeder Entwicklungsphase werden Zustands- und Verhaltensspezifikationen in graphischer oder textueller Form
erstellt. Wir geben Beweisverpflichtungen an, um zu gew?hrleisten, da? die entwickelten Spezifikationen formal konsistent
und vollst?ndig sind, und da? das resultierende System zur Ausgangsspezifikation konform ist. Wir illustrieren die Anwendung
von an einem einfachen Beispiel, einem Grapheditor.
Eingegangen am 24. Dezember 1996 / Angenommen am 8.10.1997 相似文献
4.
Marc Beyerle Joachim Franz und Wilhelm G. Spruth 《Informatik - Forschung und Entwicklung》2005,20(1-2):102-111
Zusammenfassung Die Nutzung von Java zur Entwicklung von Anwendungen für Hochleistungstransaktionssysteme stellt besondere Anforderungen an
die Isolation und das Leistungsverhalten in der transaktionalen Ausführung.
In dem vorliegenden Beitrag wird eine neuartige Technologie beschrieben, die verbesserte Isolationseigenschaften und eine
erhebliche Leistungssteigerung erm?glicht. Die Persistent Reusable Java Virtual Machine erweitert eine normale Java Virtual Machine um gemeinsam genutzte Klassen und um eine Reset-Funktionalit?t, die eine serielle
Wiederverwendbarkeit erm?glicht.
In einer Benchmark-Untersuchung unter z/OS wurde hiermit ein Performance-Gewinn um einen Faktor 325 im Vergleich mit einer
normalen JVM erreicht. Für das Erstellen von Transaktionsanwendungen unter dem Betriebssystem z/OS sind Enterprise Java Beans
damit eine ernstzunehmende Alternative zu bisherigen Programmiermodellen.
The use of Java for the development of new applications in high-end transaction systems generates special isolation and performance requirements. A new technology offering improved isolation and a significant performance improvement is discussed in this article. The Persistent Reusable Java Virtual Machine extends a regular Java Virtual Machine by adding the facility to share classes and by providing a reset functionality, which permits serial reuse of the JVM. A z/OS benchmark demonstrated a performance improvement by a factor of 325, compared to a regular JVM. Thus the use of Enterprise Java Beans has to be considered as a serious alternative when developing new transactional applications under the z/OS operating system.
相似文献
5.
Stephan Ewen Michael Ortega-Binderberger und Volker Markl 《Informatik - Forschung und Entwicklung》2005,20(3):138-151
Zusammenfassung Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt.
CR Subject Classification H.2.4,H.2.5,D.3.4 相似文献
6.
Stephan Ewen Michael Ortega-Binderberger Volker Markl 《Informatik - Forschung und Entwicklung》2005,10(4):138-151
Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt. 相似文献
7.
Michael Beyer Andreas Rose Emanuel Jank und J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,22(3):147-160
Zusammenfassung Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen.
CR subject classification J.3 ; I.6.5 相似文献
8.
Alfred Winter 《Informatik - Forschung und Entwicklung》2008,22(3):137-146
Zusammenfassung Die Medizin ist gepr?gt sowohl durch ihren besonderen unmittelbaren und existenziellen Bezug
zu Menschen als auch durch ihre zunehmende ?konomische Bedeutung. Ein Medizinisches Informationssystem
ist das umfassende System aller Informationsverarbeitung einer medizinischen Einrichtung oder Region. W?hrend
die Architekturprinzipien des rechnerbasierten Teils solcher Informationssysteme wenige Besonderheiten aufweist,
bündelt das Management dieser Informationssysteme viele Herausforderungen und Probleme, die wegen der
besonderen Bedeutung der Medizin besondere Priorit?t bei der L?sung haben müssen.
CR subject classification C.2.4 ; J.3 ; J.1 ; K.4.3 ; K.6 相似文献
9.
Henrik Loeser 《Informatik - Forschung und Entwicklung》1998,13(4):196-216
Zusammenfassung. Die rasche Verbreitung und einfache Nutzungsm?glichkeit des World Wide Web (WWW) hat heute schon zu einer Vielzahl Web-basierter
Datenbankanwendungen geführt. Man geht jedoch davon aus, da? das eigentliche Wachstum des WWW und seiner Anwendungen durch
die Fortschritte in der Kommunikations- und Informationstechnik erst noch bevorsteht [10]. In diesem Beitrag stellen wir die
bei der Realisierung Web-basierter DB-Anwendungen eingesetzten Techniken vor. Hierzu untersuchen wir zun?chst typische DB-Anwendungen,
die über das WWW abgewickelt werden, um sie anhand ihrer Kriterien charakterisieren zu k?nnen. Daran anschlie?end diskutieren
und analysieren wir nach einem überblick die unterschiedlichen Realisierungstechniken im Detail.
Eingegangen am 22. Juli 1998 / Angenommen am 22. Oktober 1998 相似文献
10.
Michael Philippsen Matthias Jacob und Martin Karrenbach 《Informatik - Forschung und Entwicklung》1998,13(2):72-78
Zusammenfassung. Der Programmiersprache Java wird oft nachgesagt, da? sie zu langsam für ernsthafte Softwareentwicklung sei, besonders im
Bereich des wissenschaftlichen Rechnens. Das Ergebnis dieser Fallstudie zeigt jedoch, da? bei parallelen geophysikalischen
Anwendungen eine Verlangsamung von weniger als Faktor 4 im Vergleich zu einer ?quivalenten Realisierung in Fortran90 bzw.
High Performance Fortran (HPF) erreicht werden kann. Dieses Resultat wurde sowohl auf einer parallelen Maschine mit gemeinsamem
Speicher (SGI Origin2000) als auch auf einer Maschine mit verteiltem Speicher (IBM SP/2) erreicht. Der Geschwindigkeitseinbu?e
stehen sprachspezifische Vorteile von Java gegenüber Fortran90/HPF gegenüber: Objekt-orientierter Java-Code ist leichter zu
warten und wiederzuverwenden als Fortran-Code und darüberhinaus vollst?ndig portabel, sogar zwischen Parallelrechnern mit
unterschiedlichen Speicherkonzepten. Ferner ist zu erwarten, da? bessere übersetzertechnologien den Leistungsunterschied zwischen
Java und Fortran weiter verkleinern werden.
Eingegangen am 24. Dezember 1997 / Angenommen am 2. April 1998 相似文献
11.
Zusammenfassung. Softwareentwicklungsprozesse auf Basis von Phasenmodellen verlangen eine Ermittlung der Anforderungen zu Beginn der Entwicklung.
Die Anforderungen bilden die Basis für die nachfolgenden T?tigkeiten in der Entwicklung. Daher sind die Verfolgbarkeit der
Anforderungen durch die Softwareentwicklung und die überprüfung der korrekten Realisierung der Anforderungen wichtig. Dies
gilt insbesondere in sicherheitskritischen Anwendungsbereichen. Einerseits ist die Unified Modeling Language (UML) zur Zeit der Standard im Bereich der objektorientierten Software-Modellierung. Andererseits weist die UML Defizite in Bezug
auf die Verfolgbarkeit von Anforderungen auf. Im Folgenden werden mehrere L?sungsm?glichkeiten zur Behebung dieses Problems
diskutiert. Die Erweiterung des UML-Meta-Modells um eine Meta-Klasse Requirement wird im Detail vorgestellt.
Eingegangen am 22. Februar 2002 / Angenommen am 8. Mai 2002 相似文献
12.
Tobias Rohatsch Gerhard P?ppel und Heinrich Werner 《Informatik - Forschung und Entwicklung》2002,17(2):53-59
Zusammenfassung. Die moderne und hoch komplexe Fertigung, z.B. in der Halbleiterindustrie, erfordert für die dabei anfallenden Messdaten der
Anlagen- bzw. Prozessparameter multivariate Analysemethoden. Eine dieser m?glichen Analysemethoden ist Projection Pursuit
(PP). Dieses Verfahren ist durch geschickte Wahl des so genannten Projektionsindex in der Lage, verschiedenste Datencharakteristika
zu detektieren und diese auf anschauliche Weise zu visualisieren. Bei den Projektionsindizes handelt es sich um Funktionen,
die eine Projektion auf unterschiedliche Merkmale hin bewerten und dabei jeder Projektion einen Funktionswert zuweisen. Dieser
Funktionswert spiegelt die Aussagekraft der Projektion (in Abh?ngigkeit vom verwendeten Index) wider. Die Auswahl bzw. der
Aufbau dieser Indizes ist hierbei von entscheidender Bedeutung. Alle hier vorgestellten Indizes zeichnen sich vor allem durch
ihren robusten Charakter gegenüber durch Ausrei?er kontaminierte Daten, wie sie in realen Datenszenarien vorkommen, aus. Die
durch Anwendung dieser Indizes gewonnenen Einblicke in die komplexe Struktur der Daten erm?glichen es, hochdimensionale Parameterabweichungen
und komplexe Zusammenh?nge innerhalb der Daten zu finden.
Eingegangen am 11. Februar 2002 / Angenommen am 14. Mai 2002 相似文献
13.
Zusammenfassung. Die automatische Erkennung und Lokalisation von Objekten in digitalen Bildern ist ein wesentlicher Bestandteil vieler praktisch
relevanter Anwendungen. In diesem Artikel wird ein erscheinungsbasiertes Verfahren zur Erkennung starrer zwei- oder dreidimensionaler
Objekte vorgestellt, dem eine statistische Modellierung zugrundeliegt. Im Gegensatz zu segmentierungsbasierten Verfahren,
wie sie vor allem im Bereich der 3D-Objekterkennung eingesetzt werden, erm?glicht der erscheinungsbasierte Ansatz aufgrund
der Modellierung der Intensit?tswerte oder davon abgeleiteter lokaler Merkmale eines Bildes die Erkennung komplexer Objekte.
Die statistische Formulierung der Problemstellung bildet den mathematischen Kontext zur Bestimmung optimaler L?sungen.
Die Form der Modellierung erlaubt neben der Einzelobjekterkennung auch die Berücksichtigung von heterogenem Bildhintergrund
und Mehrobjektszenen. Die dazu ben?tigten lokalen Merkmale entstehen durch r?umlich begrenzte Transformationen des Bildes,
wie beispielsweise Gabor- oder Wavelet-Transformationen. Die statistische Modellierung beschreibt die Verteilung dieser lokalen
Merkmale anhand einer Dichtefunktion, die sich bei der Hintergrund- und Mehrobjektmodellierung als Mischungsverteilung der
Einzelobjektverteilungen ergibt. Die Aufgabenstellungen des Erlernens und Erkennens von Objekten sind damit als Parametersch?tzprobleme
formal darstellbar. Dabei werden im einen Fall die Modellparameter und im anderen Fall die Lageparameter beziehungsweise die
Klassen von Objekten gesch?tzt. Die experimentelle überprüfung des Ansatzes anhand realer Objektaufnahmen durch CCD-Kameras
zeigt seine Brauchbarkeit zur Erkennung von 2D- und 3D-Objekten bei homogenem und heterogenem Hintergrund.
Eingegangen am 5. April 2000 / Angenommen am 20. Juli 2001 相似文献
14.
Christian Weidauer 《Informatik - Forschung und Entwicklung》2000,15(2):83-91
Zusammenfassung. Multimedia-Anwendungen und Animationen sind durch Dynamik gekennzeichnet. Die Dynamik muss sich in der Architektur der Anwendung
niederschlagen. Eine M?glichkeit hierbei besteht darin, die Dynamik in einer speziellen Softwareschicht innerhalb einer Mehrschichtenarchitektur
zu realisieren. Dieses Papier stellt ein Animations-Framework in Java vor, das diese Architektur JavaBeans-konform als muster-orientiertes
Framework realisiert und somit die systematische Entwicklung von animierten Multimedia-Anwendungen in Java unterstützt.
Eingegangen am 12. November 1999 / Angenommen am 2. Mai 2000 相似文献
15.
Stefan Biffl 《Informatik - Forschung und Entwicklung》2001,16(3):145-158
Zusammenfassung. Inspektion hilft bereits in frühen Phasen der Softwareentwicklung, die Qualit?t von Softwareprodukten zu bestimmen und Nachbearbeitungsaufwand
einzusparen. Lesetechniken sind ein Ansatz, der die Aufmerksamkeit von Inspektoren beim individuellen Lesen auf bestimmte
Fehlermengen lenken und dadurch die Arbeit mehrerer Inspektoren untereinander koordinieren soll.
Diese Arbeit berichtet über ein Experiment, das einerseits die Effektivit?t und Effizienz mehrerer Lesetechniken auf individueller
und auf Teamebene miteinander vergleicht und andererseits Zusammenh?nge der Verwendung von Lesezeit mit der Effektivit?t von
bestimmten Inspektorengruppen untersucht.
Die Ergebnisse unterstützen den gezielten Einsatz von Lesetechniken bei der Planung einer Inspektion, um Inspektoren beim
Finden von Fehlern in bestimmten Mengen bzw. Dokumentteilen anzuleiten und um die Effektivit?t und Effizienz im Team durch
Minimieren der Anzahl mehrfach gefundener Fehler zu optimieren.
Die betr?chtlichen Schwankungen der Leistungen von Inspektoren, die eine bestimmte Lesetechnik verwendeten, im Vergleich zu
den Unterschieden der Mittelwerte verschiedener Lesetechniken verdient eine detailliertere Untersuchung. Bei der Untersuchung
des Zeitverlaufs für Inspektorengruppen mit unterschiedlicher Gesamteffektivit?t zeigten sich betr?chtliche Leistungsunterschiede
schon nach den ersten drei Stunden der Inspektion. Das Design von Lesetechniken sollte angepa?t werden, um dynamisch auf Inspektoren
mit deutlich unterschiedlichen F?higkeiten abgestimmt zu werden.
Eingegangen am 31. Oktober 2000 / Angenommen am 10. April 2001 相似文献
16.
Uwe Kubach und Kurt Rothermel 《Informatik - Forschung und Entwicklung》2001,16(4):189-199
Zusammenfassung. Mit der zunehmenden Verbreitung mobiler Endger?te w?chst auch der Bedarf in mobilen Umgebungen auf entfernt gespeicherte
Informationen zuzugreifen. Da dieser Informationszugriff meist über drahtlose Netzwerke erfolgt, treten in mobilen Informationssystemen
h?ufig Probleme wie geringe Bandbreite, gro?e Verz?gerungen oder Verbindungsausf?lle auf. Hoarding-Verfahren versuchen diese
Probleme zu l?sen, indem sie Informationen, auf die der Benutzer voraussichtlich zugreifen wird, im voraus übertragen. Dazu
müssen sie jedoch vorhersagen, welche Informationen der Benutzer ben?tigen wird. In diesem Beitrag stellen wir ein Hoarding-Verfahren
vor, das für diese Vorhersage die Ortsabh?ngigkeit von Informationszugriffen ausnutzt. Wie wir durch Simulationen zeigen,
wird der Speicherplatz auf dem Endger?t dadurch sehr effizient genutzt. (Die hier vorgestellte Arbeit ist mit Unterstützung
der DFG im Rahmen der Forschergruppe Nexus sowie des Graduiertenkollegs Parallele und Verteilte Systeme entstanden.
Eingegangen am 2. Februar 2001 / Angenommen am 1. Juni 2001 相似文献
17.
Die Sch?tzung des Aufwands für die Erstellung oder die überarbeitung von grossen Softwaresystemen stellt immer noch ein betr?chtliches
Risiko dar. Dieses versch?rft sich noch weiter, wenn wie im vorliegenden Fall das Projekt auf Festpreisbasis, d.h. ohne M?glichkeit
zu Budgetnachforderungen w?hrend des Projekts selbst, abzuwickeln ist. Dieser Beitrag beschreibt die Erfahrungen mit der Sch?tzung
und vor allem der Nutzung der detailliert ermittelten Produktivit?tsmasse in einem grossen Konversionsprojekt, bei dem 350
Assembler-Programme aus dem Wertpapierbereich einer Bankorgansiation mit unver?nderter Funktionalit?t nach COBOL zu konvertieren
waren. Dabei wurden w?hrend des Projekts die bereits vorliegenden Produktivit?tszahlen genutzt, um neben einer weiteren Optimierung
der Verfahren und Abl?ufe auch die Sch?tzung bez. der noch zu bearbeitenden Arbeitspakete weiter zu verbessern. Es hat sich
auch in diesem Projekt gezeigt, dass auch einfachere Sch?tzans?tze tragen, wenn sie denn auf den Erfahrungen der eigenen Projektorganisation
basieren. Allgemeine algorithmische Ans?tze sind zwar als grober Anhaltspunkt brauchbar, ersetzen aber nicht die eigenen Zahlenbasen.
Diese in jedem Projekt immer wieder konsequent und detailliert zu ermitteln, bleibt die vorrangige Aufgabe zur Unterstützung
der Sch?tzung weiterer Projekte. 相似文献
18.
Dirk Siebert Patrick Neumann Armin Schulz Gabriele Faulkner und Thomas Tolxdorff 《Informatik - Forschung und Entwicklung》2001,16(2):93-102
Zusammenfassung. Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung
von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und
Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer
Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte
Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch
Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung
für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen
mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung
werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung
der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen
3D-Trackingsystems.
Eingegangen am 27. April 2000 / Angenommen am 21. Februar 2001 相似文献
19.
Thomas Bauer Manfred Reichert und Peter Dadam 《Informatik - Forschung und Entwicklung》2001,16(2):76-92
Zusammenfassung. Zur Unterstützung von unternehmensweiten und -übergreifenden Gesch?ftsprozessen muss ein Workflow-Management-System (WfMS)
eine gro?e Anzahl von Workflow-Instanzen steuern k?nnen. Daraus resultiert eine hohe Last für die Workflow-Server und das
zugrunde liegende Kommunikationssystem. Ein in der Workflow-Literatur viel diskutierter Ansatz zur Bew?ltigung der Last ist
es, die Workflow-Instanzen verteilt durch mehrere Workflow-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei
Workflow-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen Workflow-Instanz vom Quell- zum Zielserver
übertragen werden müssen, um dort mit der Steuerung fortfahren zu k?nnen. Deshalb belasten Migrationen das Kommunikationssystem
zus?tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert
werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls Gesch?ftsbereiche aus Kostengründen nur
über langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS überhaupt erst erm?glicht.
Eingegangen am 22. Juni 2000 / Angenommen am 25. Januar 2001 相似文献
20.
Albert Endres 《Informatik - Forschung und Entwicklung》2007,21(3-4):213-218
Zusammenfassung Das Denken von Ingenieuren und Informatikern ist typischerweise auf die Zukunft gerichtet. Sie stellen sich vor, welche Antworten
zu unseren Fragen und welche L?sungen zu heutigen Problemen wohl demn?chst m?glich sind. Je nachdem, ob es dabei mehr um die
L?sungen als um die Probleme geht, spricht man entweder von Visionen oder von Herausforderungen. Auch in Deutschland fehlt
es nicht an entsprechenden Bemühungen. Einige ver?ffentlichte Beispiele zeigen M?glichkeiten und Schw?chen. über Visionen
zu reden ist nützlich; noch besser ist es, sie umzusetzen. Das technische und wirtschaftliche Potenzial, das die Informatik
bietet, ist enorm. Wir haben erst gerade damit begonnen, es zu nutzen.
The thinking of engineers and computer scientists is typically about the future. They envision answers to our questions and solutions for today’s problems that will be possible in the near future. Depending whether the emphasis is more on the solutions or on the problems, we talk of visions or challenges respectively. In Germany, we do not lack appropriate attempts. Some published examples show possibilities and weaknesses. To talk about visions is useful; it is better though to realize them. The technical and economic potential offered by computing is immense. We have just started to exploit it.相似文献