Filtern
Erscheinungsjahr
- 2006 (61) (entfernen)
Dokumenttyp
- Studienarbeit (26)
- Diplomarbeit (22)
- Dissertation (6)
- Masterarbeit (4)
- Bachelorarbeit (2)
- Buch (Monographie) (1)
Schlagworte
- XML (3)
- GPU (2)
- Logistik (2)
- Netzwerkmanagement (2)
- Pestizid (2)
- Pflanzenschutzmittel (2)
- Stereosehen (2)
- Visualisierung (2)
- Volumendaten (2)
- 3D-Modelle (1)
Institut
- Institut für Computervisualistik (28)
- Institut für Softwaretechnik (9)
- Institut für Informatik (7)
- Institut für Wirtschafts- und Verwaltungsinformatik (5)
- Fachbereich 7 (4)
- Institut für Management (4)
- An-Institute (1)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (1)
- Institut für Mathematik (1)
Currently more than 850 biological databases exist. The majority of biological knowledge is not in these databases but rather contained as free text in scientific literature. For systems biology tasks it is often necessary to integrate and extract data from heterogeneous databases and free text as well as to analyse the information in the context of experimental data. ONDEX is an integration framework which aims to address these challenges by combining features of database integration, text mining and sequence analysis with methods for graph-based data analysis and visualisation. The main topics of this diploma thesis are the redesign of the ONDEX backend, the development of a data exchange format, the development of a query environment and the allocation of Web services for data integration, data exchange and queries. These Web services allow backend workflow control from both local and remote workstations.
Fehler in der Anforderungsanalyse führen häufig zu Misserfolgen in der Entwicklung von Softwaresystemen. Seit einiger Zeit wird versucht, diesem Problem durch Requirements- Engineering zu begegnen. Durch die frühe Beteiligung aller Stakeholder an der Entwicklung eines Systems sowie eine strukturierte Vorgehensweise zur Ermittlung und Analyse von Anforderungen an ein zu erstellendes System hat es als erster Schritt in der Entwicklung von Softwaresystemen zunehmend an Bedeutung gewonnen. Die steigende Komplexität moderner Softwaresysteme bringt jedoch eine gewaltige Menge an Informationen mit sich, die während der Analyse erfasst und verwaltet werden müssen. Dieser Informationsflut ist ohne Unterstützung durch entsprechende Software kaum beizukommen. Vor allem in größeren, räumlich verteilten Projekten wäre ein effektives Requirements-Engineering sonst kaum möglich. Es gibt inzwischen eine Vielzahl von Tools, die das Requirements-Engineering unterstützen. Diese Tools sind bereits seit geraumer Zeit im Einsatz und setzen in ihren aktuellsten Versionen die wichtigsten Konzepte des Requirements-Engineering um. Im Rahmen dieser Arbeit werden einige dieser Tools im Hinblick auf Funktionsumfang und Verzeichnisstruktur untersucht. Besonderes Interesse galt der Verwaltung von Anforderungen und deren Abhängigkeiten untereinander. Die gewonnenen Erkenntnisse werden anschließend in ein Referenzmodell integriert.
Das Grundwasser unterliegt zahlreichen Nutzungen, gleichzeitig ist es Lebensraum einer artenreichen, hoch angepaßten Fauna. Verunreinigungen des Grundwassers mit Kontaminationen unterschiedlichsten Ursprungs stellen eine wachsende Problematik dar. Für das Monitoring von Altlastflächen werden bisher überwiegend physiko-chemische Methoden eingesetzt. Als weitere Möglichkeit bietet sich ein grundwasserfaunistisch begründetes Monitoring an. Da Freilanduntersuchungen über das Auftreten und die Verteilung von Grundwasserfauna in Altlastflächen bisher fehlen, widmet sich die vorliegende Dissertation dieser Thematik. Ein grundsätzliches Problem grundwasserfaunistischer Untersuchungen ist das Fehlen standardisierter Sammelmethoden. Daher erwies es sich als notwendig, die für die Untersuchung der Altlastflächen optimale Sammelmethode zu identifizieren. Insoweit liefert ein vorangehender Methodenvergleich die Grundlage für das Altlasten-Projekt. Ziel des Methodenvergleichs war es herauszufinden, ob die in Kluftgrundwasserleitern im Vergleich mit Lockergesteinsleitern festgestellte Artenarmut und die meist niedrigen Abundanzen habitat- oder auch methodenbedingt sind. Unter Verwendung eines phreatobiologischen Netzsammlers, einer pneumatischen Kolbenhubpumpe (System NIEDERREITER) und eines Quellnetzes wurden im Naturraum Pfälzerwald 16 Grundwasser-meßstellen (je 8 in den Kluftaquiferen des Buntsandsteins und den sandig-kiesigen Aquiferen der Talauen) und 8 Quellen, sowie 4 Grundwassermeßstellen in der pfälzischen Rheinebene hydrochemisch und faunistisch beprobt. Die Grundwässer beider Naturräume unterschieden sich sowohl hydrochemisch wie auch in ihrer faunistischen Zusammensetzung signifikant voneinander. Aus methodischer Sicht zeigten alle Sammeltechniken, mit Ausnahme der Quellbeprobung, trotz gewisser Unterschiede, qualitativ vergleichbare Ergebnisse. Ziel des Hauptteils der Arbeit " dem Altlasten-Projekt " war die Gewinnung erster empirischer Daten über das Vorkommen und die Verteilung von Grundwasserfauna in Abhängigkeit von Altlasten. Des weiteren sollten über die Korrelation der Grundwasserfauna mit hydrochemischen Parametern und den Koloniezahlen erste Ansätze für eine bioindikative Eignung gefunden werden. Basierend auf den Ergebnissen des methodischen Teils wurden unter Verwendung des phreatobiologischen Netzsammlers fünf in der pfälzischen Rheinebene liegende Untersuchungsstandorte (sechs Einzelschäden), die Kontaminationen unterschiedlicher Art aufwiesen, untersucht. Dabei handelte es sich um drei militärische und zwei industrielle Altlasten sowie eine Hausmülldeponie. Insgesamt wurden 91 Meßstellen, die sich im Zustrom, direkt im Schaden sowie im Abstrom befanden, zweimalig beprobt. Trotz der ausgeprägten Heterogenität der untersuchten Altlaststandorte sowie geringer Arten- und Taxazahlen und Abundanzen weisen die Verteilungsmuster auf Sensitivitäten der Fauna gegenüber Grundwasserverunreinigungen hin. In bezug auf einzelne Schadstoffe (LCKW, PCE, AKW) deuten sich schadstoffspezifische Verteilungsmuster der Fauna an. Das abundanteste Taxon der Untersuchung - die Nematoda - traten an den LCKW / PCE- kontaminierten Standorten nur in geringsten Abundanzen auf, ebenso wie die Parastenocaridae (Crustacea). Oligochaeta und einzelne Cyclopoida-Arten (Crustacea) scheinen hingegen deutlich höhere Konzentrationen dieses Schadstoffs zu tolerieren. Eine gegensätzliche Faunenverteilung wurde an den AKW- kontaminierten Standorten beobachtet. Hier zeigten sich die Nematoda wesentlich toleranter als alle anderen Taxa, ebenso wie die Parastenocaridae. Hingegen traten die Oligochaeta und Cyclopoida oberhalb geringer Konzentrationen nur noch sporadisch auf. Die abundanteste Cyclopoida-Art der gesamten Untersuchung, Diacyclops languidoides, konnte in Anwesenheit von AKW nicht nachgewiesen werden.
Interactive video retrieval
(2006)
The goal of this thesis is to develop a video retrieval system that supports relevance feedback. One research approach of the thesis is to find out if a combination of implicit and explicit relevance feedback returns better retrieval results than a system using explicit feedback only. Another approach is to identify a model to weight existing feature categories. For this purpose, a state-of-the-art analysis is presented and two systems implemented, which run under the conditions of the international TRECVID workshop. It will be a basis system for further research approaches in the field of interactive video retrieval. Amongst others, it shall participate in the 2006 search task of the mentioned workshop.
Die hohen Infrastrukturkosten machen das Überprüfen von Theorien bezüglich großer Rechnernetze zu einer schwierigen und teuren Aufgabe. Ein möglicher Ansatz dieses Problem zu beheben ist die Verwendung von virtueller anstelle von physikalischer Infrastrukur. OPNets IT Guru ist ein Programm, das entworfen wurde zur Simulation großer Netze und zur Repräsentation relevanter Informationen. Es gestattet großflächige Änderungen zu testen oder Theorien zu überpruefen ohne den Aufwand einer physikalischen Infrastruktur.
XDOMEA-Fachkonzept
(2006)
Die AG "IT-gestützte Vorgangsbearbeitung" des Kooperationsausschusses Automatisierte Datenverarbeitung (koopA ADV) hat zur Verwirklichung der Interoperabilität in der öffentlichen Verwaltung den Datenaustauschstandard XDOMEA entwickelt. Das vorliegende Dokument beschreibt das Fachkonzept zur XML-Schema-Spezifikation. Es wendet sich vorrangig an verantwortliche Organisatoren im IT-Bereich und an potentielle Anwender von XDOMEA. In diesem Dokument werden Hintergründe, Einsatzmöglichkeiten und Informationen zum Einsatzgebiet von XDOMEA erläutert, die Vorteile des Standards diskutiert und Erweiterungsmöglichkeiten vorgestellt. Weiters werden Beteiligungs- und Protokollinformationen spezifiziert und detailliert. Zu diesem Zweck werden verschiedene Szenarien erarbeitet, die anhand von Prozessmodellen die praktische Anwendung des Standards veranschaulichen. Gleichzeitig werden die Möglichkeiten fachspezifischer Erweiterungen im Standard verdeutlicht und Grenzen der Anwendung aufgezeigt.
Die Leistungsfähigkeit moderner Graphikkarten steigt zur Zeit schneller an, als die von CPUs. Dabei kann diese Leistung nicht nur zur Darstellung von 3D Welten, sondern auch für allgemeine Berechnungen (GPGPU) verwendet werden. Diese Diplomarbeit untersucht daher, ob mit Hilfe der GPU Volumendaten schneller gefiltert werden können, als mit der CPU. Dies soll insbesondere am Beispiel von Rausch-Filtern, die auf Videosequenzen angewendet werden, untersucht werden. Dabei soll das Video als Volumen repräsentiert und mit Volumenfiltern gefiltert werden. So soll eine höhere Qualität und eine kürzere Berechnungszeit als mit herkömmlichen CPU und Frame-basierten Verfahren erreicht werden, insbesondere auch bei den z.Z. stark aufkommenden hochauflösenden HDTV-Standards. Das Framework soll jedoch nicht auf Videosequenz-Bearbeitung beschränkt sein, sondern so konzipiert werden, dass es z.B. in bestehende Volumenvisualisierungssysteme integriert werden kann. Das Ziel der Arbeit ist die Einarbeitung in die notwendigen theoretischen Grundlagen, daran anschließend die prototypische Implementierung des Frameworks mit abschließender Bewertung der erreichten Ergebnisse insbesondere der Geschwindigkeit im Vergleich zu existierenden Systemen.
Die moderne Bildgebung in der Medizin arbeitet oft mit Daten höheren Tonwertumfangs. So haben beispielsweise Bilder aus CT-Geräten einen Dynamikbereich von 12 Bit, was 4096 Graustufen entspricht. Im Bereich der photorealistischen Computergrafik und zunehmend in der Bildverarbeitung sind Bilddaten viel höheren Tonwertumfangs üblich, die als HDR-Bilder (High Dynamic Range) bezeichnet werden. Diese haben eine Bittiefe von 16, oftmals sogar 32 Bit und können dadurch sehr viel mehr Informationen speichern, als herkömmliche 8-Bit-Bilder. Um diese Bilder auf üblichen Monitoren darstellen zu können, muss man die Bildinformation auf den Tonwertumfang des Ausgabegerätes abbilden, was man als Tonemapping bezeichnet. Es existieren zahlreiche solcher Tonemapping-Verfahren, die sich durch ihre Arbeitsweise, Geschwindigkeit und visuelle Qualität unterscheiden lassen. Im Rahmen dieser Studienarbeit sollen Tonemapping-Verfahren auf medizinische Bilddaten angewendet werden. Dabei soll sowohl die visuelle Qualität, als auch die Geschwindigkeit im Vordergrund stehen.
Ein Interpreter für GReQL 2
(2006)
Im Rahmen dieser Diplomarbeit wird die Auswertungskomponente fuer die Graphanfragesprache GREQL 2, welche von Katrin Marchewka beschrieben wurde, entworfen, welche Anfragen diese Sprache interpretiert. Die Auswertungskomponente besteht aus den Bausteinen Auswerter, Parser, Optimierer, Funktionsbibliothek und dem Containerframework JValue. Der Parser wurde bereits von Katrin Marchewka implementiert, der Optimierer bleibt einer Anschlußarbeit vorbehalten. Innerhalb dieser Arbeit werden die Bausteine Auswerter, Funktionsbibliothek und JValue als Prototypen implementiert. Aufgrund der Erfahrungen mit der Auswertungskomponente fuer den GREQL 2-Vorgaenger GREQL 1 ist das Primaerziel dieser Arbeit der Entwurf einer sauberen, klaren, erweiterbaren und zukunftsfähigen Architektur, wobei die aktuellen Prinzipien der Softwaretechnik beüecksichtigt werden sollen.
BinaryGXL
(2006)
XML ist aus der heutigen IT-Welt nicht mehr wegzudenken und wird für vielfältige Zwecke verwendet. Die Befürworter von XML führen insbesondere die Menschenlesbarkeit und leichte Editierbarkeit als Gründe für diesen Erfolg an. Allerdings hat XML gerade dadurch auch in manchen Anwendungsgebieten gravierende Nachteile: XML ist sehr verbos, und das Parsen von XML-Dateien ist relativ langsam im Vergleich zu binären Dateiformaten. Deshalb gibt es Bestrebungen ein binäres XML-Format zu schaffen und gegebenenfalls zu standardisieren. Die vorliegende Studienarbeit beschreibt einige schon existierende binäre XML-Formate und zeigt auf, wie weit der Entwurf und die Standardisierung eines allgemein akzeptierten Binary-XML-Formats fortgeschritten sind. Der praktische Teil der Studienarbeit umfasst den Entwurf und die Implementierung eines eigenen Binärformats für den XML-Dialekt GXL. Zur Bewertung der entwickelten Lösung wird diese mit den heute üblichen Kompressionstools verglichen.
Zielsetzung: Für die Feuerwehr- und Katastrophenschutzschule Rheinland - Pfalz (LFKS) sollen auf der Basis von Flash und XML interaktive Quizzes realisiert werden, die im Rahmen des Gruppenführerlehrgangs als Lernerfolgskontrolle dienen sollen. Als Grundlage wird ein selbstentwickeltes MVC Framework und Adobe (ehemals Macromedia) Flash herangezogen.
Entwicklung: Bei der Entwicklung der Quizzes wurde sehr viel Wert auf eine systemunabhängige, bestmöglich standardisierte Datenhaltung gelegt. Hier war die Verbindung von Flash und XML eine optimale Lösung.
Technik: Mit der Kombination aus ActionScript2, XML und Flash ist es möglich, innerhalb kürzester Zeit unterschiedliche Quizzes zu erstellen. Der Grundgedanke bei dieser Technik ist es, Daten und ihre Repräsentation zu trennen. Die Flash Entwicklungsumgebung wird für die Erstellung der Views (Darstellungselemente) verwendet. Die Views werden anhand von dynamischen Textfeldern, interaktiven Animationen und weiteren Darstellungselementen definiert. Diese Views werden über das MVC-Framework mit Actionscript2 angesprochen und mit Inhalten aus einer externen XML Datei gefüllt. Der Vorteil dabei ist, dass die Inhalte und zum Teil auch das Design recht schnell ausgewechselt werden können, ohne an der Applikation Änderungen vornehmen zu müssen. Die XML Dateien werden mit Hilfe der Software Infopath der Firma Microsoft erstellt. Eine weitere Möglichkeit die Daten zu standardisieren ist das IMS Question and Test Interoperability (IMS QTI) Datenformat, welches explizit für solche Anwendungen entwickelt wurde. Dieses Format wird jedoch nur am Rande behandelt. Diese Flashapplikationen können sowohl als eigenständige Programme betrachtet oder als Elemente einer HTML Datei in einem Browser dargestellt werden. Aus diesem Grund ist es möglich, auf fast jedem Gerät (PC, Notebook, Handheld und Mobiltelefon) und auf jedem Betriebssystem (Windows, Mac OS, Linux, etc.) eine Flashapplikation zum Laufen zu bringen.
Ausblick: Durch das selbstentwickelte MVC-Framework kann die Applikation schnell und einfach erweitert werden. Es wurde jedoch drauf geachtet, dass die Applikation auch ohne den Quellcode neu zu kompilieren vom Aussehen verändert werden kann.