共查询到20条相似文献,搜索用时 31 毫秒
1.
Martin Wimmer Pia Ehrnlechner Armin Fischer Alfons Kemper 《Informatik - Forschung und Entwicklung》2005,92(3):167-181
Die plattformunabh?ngige und organisationsübergreifende Web Services-Interoperabilit?t setzt ein leistungsf?higes und flexibles
Autorisierungssystem voraus. In diesem Beitrag wird ein Zugriffskontrollsystem vorgestellt, welches sich durch das Zusammenspiel
lokaler und verteilter Autorisierung auszeichnet. Im Zusammenhang mit lokaler Zugriffskontrolle, bei der Rechte innerhalb
einer Organisation ausgewertet werden, stellt sich insbesondere die Herausforderung, Autorisierungsregeln zu konsolidieren:
Da die Funktionalit?t von Web Services h?ufig auf weitere Anwendungen und Betriebsmittel wie Datenbanksystemen aufsetzt, ergeben
sich Abh?ngigkeiten bezüglich der Autorisierung, die überprüft und eingehalten werden müssen. über eine verteilte Zugriffskontrolle
wird der Aufbau von Kollaborationsnetzwerken erm?glicht. Der Augenmerk liegt im Folgenden auf schwach gekoppelten Zusammenschlüssen,
die die Autonomie der beteiligten Organisationen beibeh?lt. Skalierbarkeit und Effizenz werden durch den Einsatz von rollenbasierter
Zugriffskontrolle einerseits und dem Caching ?hnlicher, wiederkehrender Autorisierungen andererseits erreicht. 相似文献
2.
Ulrich John und Ulrich Geske 《Informatik - Forschung und Entwicklung》2002,17(4):167-176
Zusammenfassung. Industrielle Konfigurationsprozesse sind, bedingt durch die vorherrschende Variantenvielfalt, sehr komplex. Aufgrund der
inh?renten Potentiale ist die Realisierung von effizienten, flexiblen Konfigurationsprozessen ein zentrales Ziel vieler Unternehmen.
Wir haben einen Ansatz für die Konfiguration und Rekonfiguration von Produkten entwickelt, der auf Constraint-basierter Modellierung
über endlichen Dom?nen basiert. Das auf diesem Ansatz beruhende System ConBaCon deckt eine breite Palette von Konfigurationsproblemen
ab und erm?glicht eine effiziente L?sung, die sowohl automatisch als auch gesteuert durch hoch flexible Nutzerinteraktion
erfolgen kann. Wendet man das System jedoch auf gro?e Konfigurationsprozesse an, so treten Performanzprobleme auf. Als zwei
wesentliche Modellerweiterungen, die diesem Mangel entgegenwirken, stellen wir in dieser Arbeit einerseits eine Modell-Clusterung
und andererseits die Behandlung gro?er Netze arithmetischer Constraints vor.
Eingegangen am 11. Februar 2002 / Angenommen am 18. Juli 2002 相似文献
3.
Dirk Siebert Patrick Neumann Armin Schulz Gabriele Faulkner Thomas Tolxdorff 《Informatik - Forschung und Entwicklung》2001,4(3):93-102
Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen 3D-Trackingsystems. 相似文献
4.
Dirk Siebert Patrick Neumann Armin Schulz Gabriele Faulkner und Thomas Tolxdorff 《Informatik - Forschung und Entwicklung》2001,16(2):93-102
Zusammenfassung. Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung
von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und
Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer
Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte
Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch
Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung
für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen
mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung
werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung
der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen
3D-Trackingsystems.
Eingegangen am 27. April 2000 / Angenommen am 21. Februar 2001 相似文献
5.
Tobias Rohatsch Gerhard P?ppel Heinrich Werner 《Informatik - Forschung und Entwicklung》2002,4(1):53-59
Die moderne und hoch komplexe Fertigung, z.B. in der Halbleiterindustrie, erfordert für die dabei anfallenden Messdaten der Anlagen- bzw. Prozessparameter multivariate Analysemethoden. Eine dieser m?glichen Analysemethoden ist Projection Pursuit (PP). Dieses Verfahren ist durch geschickte Wahl des so genannten Projektionsindex in der Lage, verschiedenste Datencharakteristika zu detektieren und diese auf anschauliche Weise zu visualisieren. Bei den Projektionsindizes handelt es sich um Funktionen, die eine Projektion auf unterschiedliche Merkmale hin bewerten und dabei jeder Projektion einen Funktionswert zuweisen. Dieser Funktionswert spiegelt die Aussagekraft der Projektion (in Abh?ngigkeit vom verwendeten Index) wider. Die Auswahl bzw. der Aufbau dieser Indizes ist hierbei von entscheidender Bedeutung. Alle hier vorgestellten Indizes zeichnen sich vor allem durch ihren robusten Charakter gegenüber durch Ausrei?er kontaminierte Daten, wie sie in realen Datenszenarien vorkommen, aus. Die durch Anwendung dieser Indizes gewonnenen Einblicke in die komplexe Struktur der Daten erm?glichen es, hochdimensionale Parameterabweichungen und komplexe Zusammenh?nge innerhalb der Daten zu finden. 相似文献
6.
Ingo Stürmer und Mirko Conrad 《Informatik - Forschung und Entwicklung》2005,19(4):213-223
Zusammenfassung Die im Rahmen der Modell-basierten Entwicklung eingebetteter Steuerungs- und Regelungssoftware eingesetzten optimierenden
Codegeneratoren müssen einer intensiven Qualit?tssicherung unterzogen werden. Dem Einsatz von Testsuiten kommt dabei eine
zentrale Rolle zu. Der Beitrag beschreibt den Aufbau einer modularen Testsuite für Codegeneratoren und schl?gt einen Testansatz
vor, der eine systematische Prüfung der vom Codegenerator angewendeten Optimierungstechniken erm?glicht.
The optimising code generators employed as part of the model-based development of embedded control software must undergo intensive quality assurance. The use of test suites plays a central role in this process. This article describes the construction of a modular test suite for code generators and proposes a testing approach which makes a systematic test of the optimisations employed by the code generator possible.
CR Subject Classification I.6.4 I.6.5,D.2.5,I.2.2,D.3.4,D.3.4 相似文献
7.
Marc Beyerle Joachim Franz und Wilhelm G. Spruth 《Informatik - Forschung und Entwicklung》2005,20(1-2):102-111
Zusammenfassung Die Nutzung von Java zur Entwicklung von Anwendungen für Hochleistungstransaktionssysteme stellt besondere Anforderungen an
die Isolation und das Leistungsverhalten in der transaktionalen Ausführung.
In dem vorliegenden Beitrag wird eine neuartige Technologie beschrieben, die verbesserte Isolationseigenschaften und eine
erhebliche Leistungssteigerung erm?glicht. Die Persistent Reusable Java Virtual Machine erweitert eine normale Java Virtual Machine um gemeinsam genutzte Klassen und um eine Reset-Funktionalit?t, die eine serielle
Wiederverwendbarkeit erm?glicht.
In einer Benchmark-Untersuchung unter z/OS wurde hiermit ein Performance-Gewinn um einen Faktor 325 im Vergleich mit einer
normalen JVM erreicht. Für das Erstellen von Transaktionsanwendungen unter dem Betriebssystem z/OS sind Enterprise Java Beans
damit eine ernstzunehmende Alternative zu bisherigen Programmiermodellen.
The use of Java for the development of new applications in high-end transaction systems generates special isolation and performance requirements. A new technology offering improved isolation and a significant performance improvement is discussed in this article. The Persistent Reusable Java Virtual Machine extends a regular Java Virtual Machine by adding the facility to share classes and by providing a reset functionality, which permits serial reuse of the JVM. A z/OS benchmark demonstrated a performance improvement by a factor of 325, compared to a regular JVM. Thus the use of Enterprise Java Beans has to be considered as a serious alternative when developing new transactional applications under the z/OS operating system.
相似文献
8.
Gunter Schlageter und Silke Mittrach 《Informatik - Forschung und Entwicklung》1998,13(3):159-162
Zusammenfassung. Im Projekt „Virtuelle Universit?t“ an der FernUniversit?t Hagen wird eine netzbasierte Universit?tsumgebung entwickelt, die
s?mtliche Funktionen einer Universit?t in integrierter Form über elektronische Kommunikationsnetze verfügbar macht. Der Ansatz
bietet eine v?llig neue Qualit?t flexiblen, bedarfsorientierten und dennoch betreuten Lernens. Das Projekt wird seit Mitte
1996 durch das Land Nordrhein-Westfalen sowie durch Sachspenden der Firmen Oracle, Sun Microsystems und Sybase gef?rdert.
Seit dem Wintersemester 1996/97 wird die Virtuelle Universit?t im praktischen Betrieb auf Grundlage eines ersten Prototypen
mit Studierenden der FernUniversit?t und im Rahmen von Industrieveranstaltungen erprobt.
相似文献
9.
Tobias Rohatsch Gerhard P?ppel und Heinrich Werner 《Informatik - Forschung und Entwicklung》2002,17(2):53-59
Zusammenfassung. Die moderne und hoch komplexe Fertigung, z.B. in der Halbleiterindustrie, erfordert für die dabei anfallenden Messdaten der
Anlagen- bzw. Prozessparameter multivariate Analysemethoden. Eine dieser m?glichen Analysemethoden ist Projection Pursuit
(PP). Dieses Verfahren ist durch geschickte Wahl des so genannten Projektionsindex in der Lage, verschiedenste Datencharakteristika
zu detektieren und diese auf anschauliche Weise zu visualisieren. Bei den Projektionsindizes handelt es sich um Funktionen,
die eine Projektion auf unterschiedliche Merkmale hin bewerten und dabei jeder Projektion einen Funktionswert zuweisen. Dieser
Funktionswert spiegelt die Aussagekraft der Projektion (in Abh?ngigkeit vom verwendeten Index) wider. Die Auswahl bzw. der
Aufbau dieser Indizes ist hierbei von entscheidender Bedeutung. Alle hier vorgestellten Indizes zeichnen sich vor allem durch
ihren robusten Charakter gegenüber durch Ausrei?er kontaminierte Daten, wie sie in realen Datenszenarien vorkommen, aus. Die
durch Anwendung dieser Indizes gewonnenen Einblicke in die komplexe Struktur der Daten erm?glichen es, hochdimensionale Parameterabweichungen
und komplexe Zusammenh?nge innerhalb der Daten zu finden.
Eingegangen am 11. Februar 2002 / Angenommen am 14. Mai 2002 相似文献
10.
Michael Beyer Andreas Rose Emanuel Jank J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,18(4):147-160
Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen. 相似文献
11.
Michael Beyer Andreas Rose Emanuel Jank und J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,22(3):147-160
Zusammenfassung Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen.
CR subject classification J.3 ; I.6.5 相似文献
12.
Zusammenfassung. Softwareentwicklungsprozesse auf Basis von Phasenmodellen verlangen eine Ermittlung der Anforderungen zu Beginn der Entwicklung.
Die Anforderungen bilden die Basis für die nachfolgenden T?tigkeiten in der Entwicklung. Daher sind die Verfolgbarkeit der
Anforderungen durch die Softwareentwicklung und die überprüfung der korrekten Realisierung der Anforderungen wichtig. Dies
gilt insbesondere in sicherheitskritischen Anwendungsbereichen. Einerseits ist die Unified Modeling Language (UML) zur Zeit der Standard im Bereich der objektorientierten Software-Modellierung. Andererseits weist die UML Defizite in Bezug
auf die Verfolgbarkeit von Anforderungen auf. Im Folgenden werden mehrere L?sungsm?glichkeiten zur Behebung dieses Problems
diskutiert. Die Erweiterung des UML-Meta-Modells um eine Meta-Klasse Requirement wird im Detail vorgestellt.
Eingegangen am 22. Februar 2002 / Angenommen am 8. Mai 2002 相似文献
13.
Andreas Reuys Erik Kamsties Klaus Pohl und Sacha Reis 《Informatik - Forschung und Entwicklung》2005,20(1-2):33-44
Zusammenfassung In der Produktfamilienentwicklung werden durch zwei Entwicklungsprozesse, Domain und Application Engineering, zun"achst wiederverwendbare
Entwicklungsartefakte produziert, um diese anschlie?end zur Konstruktion von kundenspezifischen Applikationen einzusetzen.
Die Wiederverwendbarkeit wird durch die explizite Definition der Variabilit"at der geplanten Applikationen einer Produktfamilie
erzielt. Diese proaktive Wiederverwendung ist bisher in den konstruktiven Entwicklungsphasen realisiert, jedoch noch nicht
im Test. Mit ScenTED (Scen_ario based TE_st Case D_erivation) wird in diesem Beitrag eine wiederverwendungsorientierte Technik
zur Testfallerstellung f"ur den Systemtest, dem Test eines ausf"uhrbaren Systems gegen spezifizierte Use-Cases, von Produktfamilien
vorgestellt. ScenTED basiert auf zwei Kernideen: der Erhaltung der Variabilit"at in Testf"allen und der Szenario-basierten
Verfeinerung der Testf"alle. Durch die Erhaltung der Variabilit"at wird die Wiederverwendbarkeit von Testf"allen gesichert;
die Szenario-basierte Verfeinerung erm"oglicht Nachvollziehbarkeit durch die durchg"angige Nutzung von Szenarien. In diesem
Beitrag wird die ScenTED-Technik an einem Beispiel erl"autert und Erfahrungen aus dem industriellen Einsatz diskutiert.
Product family engineering consists of two development processes: Domain engineering and application engineering. Reuseable artefacts are created in the domain engineering process. These artefacts are used for the creation of customer specific applications during the application engineering process. Reusability is achieved with the explicit definition of variability that specifies the potential applications of the product family. The proactive reuse has been realized in the construnction phases of the development process, but not within the test phases. We propose ScenTED (Scen_ario based TE_st Case D_erivation) for the creation of reusable test cases for a use case based system testing in product family engineering. ScenTED has two key ideas: The first is the preservation of variability in test cases and the second idea is the scenario-based refinement of test cases. The preservation of variability ensures the reusability of test cases. The scenario-based refinement enables the traceability from requirements to test cases. We present the ScenTED technique in this article with an example and discuss an industrial case study.
CR Subject Classification D2.5 相似文献
14.
Stephan Ewen Michael Ortega-Binderberger und Volker Markl 《Informatik - Forschung und Entwicklung》2005,20(3):138-151
Zusammenfassung Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt.
CR Subject Classification H.2.4,H.2.5,D.3.4 相似文献
15.
In diesem Artikel werden zwei generative Ans?tze für animierte Berechnungsmodelle vorgestellt und im Kontext von Lernsoftware für den Compilerbau angewandt. Zuerst wird eine Implementierung für den ersten Ansatz beschrieben. Basierend auf der Erfahrung mit diesem Prototypen wurde der zweite Ansatz entwickelt und das Ganimal Rahmenwerk entworfen. Es handelt sich dabei um ein generisches Algorithmenanimationssystem, das eine für ein solches System einzigartige Fülle an M?glichkeiten durch sein graphisches Basispaket, das nebenl?ufige Laufzeitsystem mit graphischer Benutzeroberfl?che und die Programmier- und Animationsbeschreibungssprache Ganila bietet. 相似文献
16.
Stephan Ewen Michael Ortega-Binderberger Volker Markl 《Informatik - Forschung und Entwicklung》2005,10(4):138-151
Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt. 相似文献
17.
Rudolf Berghammer 《Informatik - Forschung und Entwicklung》1996,11(4):179-190
Zusammenfassung. Die Programmierung von Algorithmenschemata durch die Parameterisierung von Programmteilen ist eine M?glichkeit der Wiederverwendung
von Software. Dieser Ansatz wird insbesondere von der funktionalen Programmiersprache ML durch eine sehr ausgereifte Modulsprache
mit Signaturen, Strukturen und strukturabbildenden Funktoren unterstützt. In diesem Artikel demonstrieren wir, wie man auf
diese Weise Parameterisierung und Wiederverwendung realisieren kann. Dabei wird eine Anwendung, n?mlich schematischer Graphdurchlauf
mit Vererbung und Synthese als Verallgemeinerung des vom übersetzerbau her bekannten Prinzips, im Detail vorgestellt; einige
weitere Anwendungsbereiche werden skizziert.
Eingegangen am 21. Februar 1996 / Angenommen am 20. August 1996 相似文献
18.
Stefan Biffl 《Informatik - Forschung und Entwicklung》2001,16(3):145-158
Zusammenfassung. Inspektion hilft bereits in frühen Phasen der Softwareentwicklung, die Qualit?t von Softwareprodukten zu bestimmen und Nachbearbeitungsaufwand
einzusparen. Lesetechniken sind ein Ansatz, der die Aufmerksamkeit von Inspektoren beim individuellen Lesen auf bestimmte
Fehlermengen lenken und dadurch die Arbeit mehrerer Inspektoren untereinander koordinieren soll.
Diese Arbeit berichtet über ein Experiment, das einerseits die Effektivit?t und Effizienz mehrerer Lesetechniken auf individueller
und auf Teamebene miteinander vergleicht und andererseits Zusammenh?nge der Verwendung von Lesezeit mit der Effektivit?t von
bestimmten Inspektorengruppen untersucht.
Die Ergebnisse unterstützen den gezielten Einsatz von Lesetechniken bei der Planung einer Inspektion, um Inspektoren beim
Finden von Fehlern in bestimmten Mengen bzw. Dokumentteilen anzuleiten und um die Effektivit?t und Effizienz im Team durch
Minimieren der Anzahl mehrfach gefundener Fehler zu optimieren.
Die betr?chtlichen Schwankungen der Leistungen von Inspektoren, die eine bestimmte Lesetechnik verwendeten, im Vergleich zu
den Unterschieden der Mittelwerte verschiedener Lesetechniken verdient eine detailliertere Untersuchung. Bei der Untersuchung
des Zeitverlaufs für Inspektorengruppen mit unterschiedlicher Gesamteffektivit?t zeigten sich betr?chtliche Leistungsunterschiede
schon nach den ersten drei Stunden der Inspektion. Das Design von Lesetechniken sollte angepa?t werden, um dynamisch auf Inspektoren
mit deutlich unterschiedlichen F?higkeiten abgestimmt zu werden.
Eingegangen am 31. Oktober 2000 / Angenommen am 10. April 2001 相似文献
19.
Theo H?rder und Klaudia Hergula 《Informatik - Forschung und Entwicklung》2002,17(3):135-148
Zusammenfassung. Mit der zunehmenden Zahl an Anwendungssystemen, welche Datenbank und zugeh?rige Anwendung kapseln, ist die reine Datenintegration
nicht mehr ausreichend. Stattdessen k?nnen die Daten des Anwendungssystems nur noch über vordefinierte Funktionen abgefragt
werden. Sollen Daten und Funktionen integriert werden, so ist eine Kombination von deklarativen Anfragen und dem Zugriff auf
Funktionen erforderlich. In diesem Aufsatz stellen wir einen Middleware-Ansatz vor, der diese erweiterte und neuartige Form
der Integration unterstützt. Hierzu werden zun?chst die Probleme der Funktionsintegration er?rtert und eine Spezifikationssprache
eingeführt, die f?derierte Funktionen zu bilden und diese mehreren lokalen Funktionen der zu integrierenden Anwendungssysteme
zuzuordnen erlaubt. Anschlie?end zeigen wir, wie die zugeh?rige Ausführungskomponente – in unserem Fall ein Workflow-Managementsystem
– an ein F?deriertes Datenbanksystem mittels eines Wrappers gekoppelt wird, um die Integration von Daten und Funktionen zu
erm?glichen. Dabei wird die zu unterstützende Funktionalit?t innerhalb des Wrappers sowie deren Auswirkungen auf die Anfrageverarbeitung
als auch das zugeh?rige Kostenmodell untersucht. Abschlie?end wird ein Eindruck von der Performanz der vorgestellten Architektur
vermittelt.
Eingegangen am 19. Februar 2002 / Angenommen am 31. Mai 2002 相似文献
20.
Bernhard Sch?lkopf Klaus-Robert Müller Alexander J. Smola 《Informatik - Forschung und Entwicklung》1999,50(4):154-163
Dieser Beitrag erl?utert neue Ans?tze und Ergebnisse der statistischen Lerntheorie. Nach einer Einleitung wird zun?chst das Lernen aus Beispielen vorgestellt und erkl?rt, dass neben dem Erkl?ren der Trainingdaten die Komplexit?t von Lernmaschinen wesentlich für den Lernerfolg ist. Weiterhin werden Kern-Algorithmen in Merkmalsr?umen eingeführt, die eine elegante und effiziente Methode darstellen, verschiedene Lernmaschinen mit kontrollierbarer Komplexit?t durch Kernfunktionen zu realisieren. Beispiele für solche Algorithmen sind Support-Vektor-Maschinen (SVM), die Kernfunktionen zur Sch?tzung von Funktionen verwenden, oder Kern-PCA (principal component analysis), die Kernfunktionen zur Extraktion von nichtlinearen Merkmalen aus Datens?tzen verwendet. Viel wichtiger als jedes einzelne Beispiel ist jedoch die Einsicht, dass jeder Algorithmus, der sich anhand von Skalarprodukten formulieren l?sst, durch Verwendung von Kernfunktionen nichtlinear verallgemeinert werden kann. Die Signifikanz der Kernalgorithmen soll durch einen kurzen Abriss einiger industrieller und akademischer Anwendungen unterstrichen werden. Hier konnten wir Rekordergebnisse auf wichtigen praktisch relevanten Benchmarks erzielen. 相似文献