共查询到20条相似文献,搜索用时 609 毫秒
1.
Zusammenfassung. Im Rahmen des F?rderprogramms Neue Medien in der Bildung f?rdert das BMBF das Vorhaben „MuSofT – Multimedia in der Softwaretechnik”. Dieses Vorhaben soll in den n?chsten drei Jahren
multimediale Lehr- und Lerneinheiten in die softwaretechnische Lehre einführen und insbesondere drei Aspekte der Softwaretechnik-Ausbildung
unterstützen. Im ersten Aspekt wird die objektorientierte Modellierung als eine Folge von Phasen betrachtet, innerhalb deren
Software-Produkte schrittweise konstruiert werden. Hierzu geh?ren insbesondere die Analysephase mit dem Erfassen von Benutzeranforderungen
und die anschlie?ende Entwurfsphase mit dem Umsetzen dieser Anforderungen in technische Modelle. Ein zweiter Aspekt ist die
Auseinandersetzung mit dem Entwicklungsprozess selbst und den dazugeh?renden übergreifenden T?tigkeiten wie dem Projektmanagement
und der Qualit?tssicherung. Ein dritter Aspekt ist die fachdidaktische Herangehensweise an die softwaretechnische Ausbildung,
die insbesondere für die Informatiklehrerausbildung von gro?er Bedeutung ist.
相似文献
2.
Dirk Siebert Patrick Neumann Armin Schulz Gabriele Faulkner und Thomas Tolxdorff 《Informatik - Forschung und Entwicklung》2001,16(2):93-102
Zusammenfassung. Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung
von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und
Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer
Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte
Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch
Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung
für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen
mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung
werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung
der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen
3D-Trackingsystems.
Eingegangen am 27. April 2000 / Angenommen am 21. Februar 2001 相似文献
3.
Eike Jessen Dieter Michel Hans-Jürgen Siegert und Heinz Voigt 《Informatik - Forschung und Entwicklung》2008,22(4):217-225
Zusammenfassung AEG-Telefunken entwickelte seit 1957 Rechner. Neben den Prozessrechnern spielten die Gro?rechner
TR 4 und TR 440 eine wichtige Rolle. Von 1969 bis 1976 wurden 46 TR 440 installiert, bei einem Gesamtumsatz
von 730 Mio. DM (370 Mio. Euro) [2]. In der Produktpolitik spielten die Rechner keine zentrale Rolle,
obwohl eine ausgezeichnete technologische Ausgangsposition bestanden hatte und die Telefunkenrechner sp?ter
nachdrückliche technologiepolitische Unterstützung erhielten. Die Entwicklung des Systems TR
440 hatte mit wesentlichen konzeptionellen und technologischen Schwierigkeiten zu k?mpfen, wozu der
Mangel an qualifizierten Zulieferern und erfahrenen Mitabeitern kam. Trotzdem gelang es, bis 1970 den bislang
schnellsten in Europa entwickelten Rechner [6] fertig zu stellen und Systemsoftware zu entwickeln [9],
die den Produkten der Mitbewerber um Jahre voraus war. Von Anfang an hatte das Unternehmen nach geeigneten
Kooperationspartnern gesucht. Mit dem Verkauf des Gro?rechnergesch?ftes an Siemens gingen die
bereits laufenden Planungen für einen TR 440-Nachfolger zu Ende.
AEG-Telefunken developed computers since 1957. Besides process control computers, the large scale computers, TR 4 and TR 440, played an important role. 46 TR 440 computers were installed from 1969 to 1976, summing up to a sales volume of 730 Mio. DM (370 Mio. Euro) [2]. AEG-Telefunken did not consider computers as a strategic part of its product policy, though the company had had an excellent technological position for this business and the Telefunken computers got vigorous political support. The development of the TR 440 system had to defeat essential conceptual and technological difficulties, besides lack of qualified suppliers and experienced personnel. Nevertheless, the company could, by 1970, develop the fastest European computer so far [6], with system software ahead of competitors by years [9]. From the beginning, the company had been looking for business partners. With the sale of the large scale computer business to Siemens, all activities on a TR 440 successor were stopped. AEG-Telefunken computer business strategy is also subject of a paper to appear in the IEEE Annals of the History of Computing.相似文献
4.
Hartmut Ehrig und Martin Gro?e-Rhode 《Informatik - Forschung und Entwicklung》2001,16(2):110-117
Zusammenfassung. Der Softwareanteil in technischen Systemen bekommt einen immer h?heren Stellenwert. Für einen durchg?ngigen und wartbaren
Entwurf der Software sind Spezifikationstechniken erforderlich, die von ingenieurwissenschaftlichen Ablaufbeschreibungen bis
zu (objektorientierten) Softwaremodellen reichen. Wesentlich ist dabei, solche Techniken zu integrieren, um zu einem durchg?ngigen
Systemmodell zu gelangen. Dies ist Gegenstand des DFG-Schwerpunktprogramms „Integration von Techniken der Softwarespezifikation
für ingenieurwissenschaftliche An- wendungen”, in dem Ingenieure und Informatiker in vierzehn Forschungsprojekten gemeinsam
an der Entwicklung integrierter Methoden zur Softwarespezifkation vornehmlich in den Bereichen Produktionsautomatisierung
und Verkehrsleittechnik arbeiten. In diesem Artikel geben wir einen überblick über die Ergebnisse der ersten zwei Jahre des
Schwerpunktprogramms und dessen Ziele für den weiteren Verlauf von vier Jahren.
相似文献
5.
Michael Beyer Andreas Rose Emanuel Jank und J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,22(3):147-160
Zusammenfassung Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen.
CR subject classification J.3 ; I.6.5 相似文献
6.
Eike Jessen Dieter Michel und Heinz Voigt 《Informatik - Forschung und Entwicklung》2008,22(4):227-235
Zusammenfassung Der Telefunkenrechner TR 440 war bei seiner Fertigstellung 1970 die schnellste bisher in Europa entwickelte
und produzierte Maschine. 46 Maschinen wurden in Wissenschaftseinrichtungen, bei Beh?rden und in der
Industrie installiert. Der TR 440 folgte dem 1962 fertig gestellten TR 4, der auf demselben Markt durch
Leistungsf?higkeit und sein innovatives Compilerkonzept eine wichtige Stellung erobert hatte. Der
TR 440 wurde als Maschine für den Teilnehmerbetrieb entwickelt. Die Maschine war einer der ersten
gro?en Rechner mit integrierten Schaltungen. Sie verfügte über Seitenadressierung und ein
ausgefeiltes System von privilegierten Funktionen. Die Leistung des Prozessors betrug knapp 1 Mips, die
Hauptspeicherkapazit?t 1.5 MB. Ausgangspunkt, Struktur und Technologie werden aus heutiger Sicht
beschrieben. Ein Nachfolgeprodukt, TR 550, wurde konzipiert, aber nicht mehr entwickelt. Die Wertsch?tzung
des TR 440 bei den Nutzern ging wesentlich auf die Systemsoftware zurück, die Gegenstand eines anderen
Beitrages ist [6].
The Telefunken TR 440 Computer was, at its deployment in 1970, the fastest machine developed and manufactured so far in Europe. 46 of them were installed in scientific institutions, agencies, and industry. The TR 440 was the successor of the TR 4 of 1962, which on the same market had gained an important position by its performance and its innovative compiler concept. TR 440 was designed for timesharing operation. The machine was one of the first large scale computers to use integrated circuits. It had page addressing and a refined system of privileged functions. The instruction rate approached 1 Mips, the main memory had a capacity of 1.5 MB. Point of departure, structure and technology are described from the point of view of today. A follow-on product, TR 550, was conceived but not developed. The appreciation TR 440 gained among its users was primarily due to its system software, which is described in a further paper [6]. TR 440 structure and technology is also subject of a paper submitted to the IEEE Annals of the History of Computing.相似文献
7.
Dirk Siebert Patrick Neumann Armin Schulz Gabriele Faulkner Thomas Tolxdorff 《Informatik - Forschung und Entwicklung》2001,4(3):93-102
Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen 3D-Trackingsystems. 相似文献
8.
Zusammenfassung. Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste
analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten
der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend
auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen
Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die
bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein
Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System
nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen,
da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt.
Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um
zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen
als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten
und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen
Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test
nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt.
In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische
Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von
Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern
und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen.
Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000 相似文献
9.
10.
Wolfgang Reif 《Informatik - Forschung und Entwicklung》1999,14(4):193-202
Zusammenfassung. Im Spektrum der qualit?tssichernden Ma?nahmen im Software-Entwurf geh?ren formale Spezifikations- und Verifikationsmethoden
heute zweifellos zu den st?rksten Waffen in puncto Fehlererkennung und Nachweis von Korrektheitseigenschaften. Mit zunehmender
Wirtschaftlichkeit formaler Methoden und in Kombination mit klassischen Techniken der Qualit?tssicherung ergeben sich dadurch
neue, weitreichende M?glichkeiten. Die Wirksamkeit formaler Methoden beruht im wesentlichen auf der Mathematisierung von Teilen
der Software-Entwicklung und dem damit verbundenen Zwang zur Pr?zision. Auf dieser Basis k?nnen Fehler entdeckt, Korrektheits-
und Sicherheitseigenschaften nachgewiesen und die Auswirkungen von System?nderungen formal analysiert werden. Diese Methoden
eignen sich besonders für Anwendungen, an die traditionell h?chste Zuverl?ssigkeits- und Qualit?tsanforderungen gestellt werden.
Dieser Artikel gibt einen überblicküber verschiedene Einsatzm?glichkeiten formaler Spezifikations- und Verifikationsmethoden
und stellt das KIV System vor, ein fortgeschrittenes Werkzeug zur Anwendung formaler Methoden. Am Beispiel von KIV wird der
aktuelle Leistungsstand und die Wirtschaftlichkeit der Technologie erl?utert.
Eingegangen am 2. Februar 1999 / Angenommen am 10. Juli 1999 相似文献
11.
Michael Beyer Andreas Rose Emanuel Jank J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,18(4):147-160
Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen. 相似文献
12.
Marc Hassenzahl und Jochen Prümper 《Informatik - Forschung und Entwicklung》1999,14(3):145-153
Zusammenfassung. Die vorliegende Arbeit gibt Einblick in ein software- ergonomisches Beratungsprojekt zur Entwicklung eines internetbasierten
Informationssystems. Sie beschreibt projektspezifische Probleme und die darauf aufbauende Konzeption des Beratungsprojekts.
Es galt, insbesondere drei Problembereiche zu berücksichtigen: (1) Zusammenarbeit von Software-Entwicklern und Ergonomen,
(2) Integration von Grundprinzipien software-ergonomischer Gestaltung in ein klassisches Vorgehensmodell der Software-Entwicklung
(V-Modell) und (3) Wahl des Zeitpunkts für den Beginn der Beratung. Der konkrete Beratungsproze? unterteilte sich in drei
Phasen: Analyse, Gestaltung und Bewertung des Informationssystems. In jeder dieser Phasen kamen verschiedene software-ergonomische
Methoden (Schriftliche Benutzerbefragung, Gebrauchstauglichkeitsstudien etc.) zum Einsatz, die an die Bedingungen des Projektes
angepa?t wurden. Der besondere Schwerpunkt lag dabei auf der Analysephase.
Eingegangen am 23. November 1998 / Angenommen am 25. M?rz 1999 相似文献
13.
Stephan Ewen Michael Ortega-Binderberger und Volker Markl 《Informatik - Forschung und Entwicklung》2005,20(3):138-151
Zusammenfassung Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt.
CR Subject Classification H.2.4,H.2.5,D.3.4 相似文献
14.
Ralph Depke Gregor Engels Katharina Mehner Stefan Sauer und Annika Wagner 《Informatik - Forschung und Entwicklung》1999,14(2):83-94
Zusammenfassung. Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt
zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau
unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert
sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen
wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung
von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung
der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung
und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell
auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch
für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert.
Eingegangen am 2. November 1998 / Angenommen am 18. M?rz 1999 相似文献
15.
《Informatik - Forschung und Entwicklung》1995,10(4):171-179
Zusammenfassung.
Wissenschaftler schreiben ihre
Arbeiten schon seit langem mit Hilfe von Textsystemen.
Noch für 1989 jedoch belegen Studien, da? Verlage
eher selten diese Vorlagen elektronisch übernommen und
weiterverarbeitet haben. Erst recht rar waren Publikationen
in elektronischer Form. Hier zeichnet sich ein Umbruch ab,
bedingt nicht zuletzt durch neue verteilte Informationsdienste
im Internet, die es den Autoren erm?glichen,
selbst und unmittelbar als Informationsanbieter zu agieren.
Diese Entwicklung wird hier im Rahmen der besonderen
Gegebenheiten wissenschaftlichen Publizierens
dargestellt und analysiert. Der Beitrag
gibt einen überblick über Basistechnologie,
Werkzeuge und Modelle elektronischen Publizierens,
er?rtert die neuen M?glichkeiten insbesondere
des Online-Publizierens und zeigt auf, wo die heutigen
Werkzeuge zu kurz greifen. Der Schwerpunkt liegt auf
wissenschaftlichen Zeitschriften.
Eingegangen am 25. August 1995 / Angenommen am 9. Oktober 1995 相似文献
16.
Stephan Ewen Michael Ortega-Binderberger Volker Markl 《Informatik - Forschung und Entwicklung》2005,10(4):138-151
Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt. 相似文献
17.
18.
Jürgen Kalinski 《Informatik - Forschung und Entwicklung》1999,14(1):36-45
Zusammenfassung. Wir untersuchen Techniken des Text-Retrievals mit relationalen Datenbanken. Den Tests zum Booleschen Retrieval liegen reale
Bibliotheksdaten und Bibliothekarsanfragen zugrunde. Es werden drei Realisierungen mittels SQL miteinander verglichen, von
denen der Nested Loops Join mit vorsortierter Wortfolge am besten abschneidet. Dessen Effizienz beruht auf den signifikant
unterschiedlichen Vorkommensh?ufigkeiten der Anfragew?rter. Um diese Beobachtung auch bei einer Implementierung mit komprimierten
Bitlisten effizienzsteigernd zu nutzen, wird eine zus?tzliche Zugriffsstruktur für Lookup-Operationen in den Bitlisten aufgebaut.
Im Gegensatz zum Booleschen Retrieval zeigt sich beim Retrieval mit Ranking, da? eine Ergebnisberechnung mittels eines geschlossenen
SQL-Ausdrucks einer L?sung, die im Anwendungsprogramm die invertierten Listen durchl?uft und zu einem Ranking kombiniert,
hinsichtlich der Effizienz unterlegen ist. Als Grundlage für Abbruchheuristiken wird hier au?erdem eine Indexstruktur aufgebaut,
die den Zugriff auf invertierte Listen sortiert nach Within-Document-Frequencies erlaubt.
Eingegangen am 12. M?rz 1998 / Angenommen am 31. Oktober 1998 相似文献
19.
Wolfgang Wahlster J?rg Baus Christian Kray und Antonio Krüger 《Informatik - Forschung und Entwicklung》2001,16(4):233-241
Zusammenfassung. Die intelligente Ressourcenadaption ist eine der gro?en Herausforderungen für die n?chste Generation mobiler Navigationssysteme.
Da man typischerweise mehrere Fortbewegungsarten oder Verkehrsmittel kombinieren muss, um an einen Zielort zu gelangen, muss
sichergestellt werden, dass mobile, allgegenw?rtige Navigationshilfen dies über eine jeweils situationsangepasste Benutzerschnittstelle
unterstützen. Der notwendige Wechsel zwischen verschiedenen Positionierungstechnologien soll für den Endbenutzer m?glichst
unbemerkt bleiben. Im folgenden wird ein hybrides Personennavigationssystem vorgestellt, das die in bestimmten Fortbewegungssituationen
verfügbaren Positionierungstechnologien und deren Genauigkeit optimal nutzt, um die Pr?sentation der Wegbeschreibung auf verschiedene
Endger?te und Ausgabemodalit?ten sowie die kognitive Ressourcenlage des Benutzers zu adaptieren.
Eingegangen am 28. Februar 2001 / Angenommen am 8. August 2001 相似文献
20.
Joachim Hornegger Joachim Rei? und Torsten Kuwert 《Informatik - Forschung und Entwicklung》2008,22(3):161-171
Zusammenfassung Dieser Beitrag gibt einen überblick über unterschiedliche Bildgebungs- und Bildverarbeitungsverfahren,
die heute in den Kliniken verwendet werden. Es wird die gesamte Bildkette von der Bildverarbeitung über
die Bildverbesserung bis hin zur Rekonstruktion und Bildregistrierung beschrieben. Die einzelnen Themenkomplexe
werden dabei aus medizinischer und technischer Sicht diskutiert. Aus den klinischen Anforderungen und den
gesetzlichen Randbedingungen folgen wichtige Grunds?tze für die Architekturkonzepte und den Entwicklungsprozess
medizinischer Bildverarbeitungssysteme.
CR subject classification I.4.3; I.4.5; I.4.6; I.5.5 相似文献