Refine
Year of publication
- 2006 (61) (remove)
Document Type
- Study Thesis (26)
- Diploma Thesis (22)
- Doctoral Thesis (6)
- Master's Thesis (4)
- Bachelor Thesis (2)
- Book (1)
Keywords
- XML (3)
- GPU (2)
- Logistik (2)
- Netzwerkmanagement (2)
- Pestizid (2)
- Pflanzenschutzmittel (2)
- Stereosehen (2)
- Visualisierung (2)
- Volumendaten (2)
- 3D-Modelle (1)
- Abdrift <Pflanzenbau> (1)
- Adaptive Abtastung (1)
- Adobe Flash (1)
- Altlast (1)
- Altlasten (1)
- Aquatische Makrophyten (1)
- Auchenorrhyncha (1)
- Augmented Reality (1)
- Aussagenlogik (1)
- Awareness (1)
- Axis Aligned Bounding Box (AABB) (1)
- BGV A1 (1)
- Besuchersoftware (1)
- Bildverarbeitung (1)
- Binäre XML-Formate (1)
- Biomonitoring (1)
- Border Gateway Protocol (1)
- Border Gateway Protocol 4 (1)
- C-Socketbibliothek (1)
- CAD-System (1)
- CSG (1)
- Cg (1)
- Chronischer Schmerz (1)
- Circumscription (1)
- Communication System (1)
- Computeranimation (1)
- Computergrafik (1)
- Computergraphik (1)
- Computersimulation (1)
- Corruption (1)
- DCMTK (1)
- DICOM (1)
- DIN EN ISO 9241 (1)
- DNNF (1)
- DPLL (1)
- Data-Mining (1)
- Datenaustausch (1)
- Datenaustauschstandard (1)
- Datenstruktur (1)
- Diffuse Quellen (1)
- Digital Rights Management (1)
- Diskrete Simulation (1)
- Diskursmeter (1)
- Diskursverständnis (1)
- Drahtmodell (1)
- Drainagegräben (1)
- Dreidimensionale Visualisierung (1)
- Dynamische Programmierung (1)
- E-Demokratie (1)
- Echtzeitanimationssystem (1)
- Echtzeitfähigkeit (1)
- Eclipse (1)
- Emulation (1)
- Epipolargeometrie (1)
- Fahrerassistenzsystem (1)
- Fehlerverhütung (1)
- Feuchtgebiet (1)
- Fließgewässer (1)
- Fluid-Struktur Wechselwirkung (1)
- Flächenmodell (1)
- Fragmentshader (1)
- Framework (1)
- Funkerkennung (1)
- GDS (1)
- GPGPU-Programmierung (1)
- GPU-Programmierung (1)
- GReQL 2 (1)
- Geländemodell (1)
- Geschäftsprozessmodellierung (1)
- Gradientenanalyse (1)
- Graphikprozessor (1)
- Grundwasserfauna (1)
- Grünlandbewirtschaftung (1)
- HDR-Bild (1)
- High-Traffic (1)
- IT Guru (1)
- Information system (1)
- Information-Retrieval (1)
- Inkompressible Fluide (1)
- Innovation (1)
- Innovationsmanagement (1)
- Insektizid (1)
- Interactive Video Retrieval (1)
- Interaktives Quiz (1)
- Interior Gateway Protokoll (1)
- J2EE (1)
- J2ME (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Kalkmagerrasen (1)
- Klimawandel (1)
- Klimaänderung (1)
- Knowledge Compilation (1)
- Korruption (1)
- Korrutionsprävention (1)
- Landschaftsebene (1)
- Landwirtschaft (1)
- Linienkorrelationen (1)
- Lumbago (1)
- Lumbalgie (1)
- MTASC (1)
- Makroinvertebraten (1)
- Maya (1)
- Media Asset Management (1)
- Methodenvergleich (1)
- Mind Maps (1)
- Mobile Kommunikation (1)
- Mobiles Informatinssystem (1)
- Modellbasiertes Tracking (1)
- Modellierung (1)
- Modelltransformation (1)
- Moderierte Diskussionen (1)
- Modulares Softwaresystem (1)
- Multimediale Assets (1)
- Myokard (1)
- Navier-Stokes Gleichungen (1)
- Navier-Stokes equations (1)
- Netzwerk (1)
- Netzwerkanalyse (1)
- Netzwerkchip (1)
- Netzwerkmonitoring (1)
- Netzwerktechnik (1)
- Nicht-photorealistisches Rendering (1)
- Nutzungsanalyse (1)
- ONDEX (1)
- OPNET (1)
- OVTK (1)
- OWL (1)
- Oberflächen-Runoff (1)
- Oktonärbäume (1)
- Onlinesucht (1)
- Ontologie <Wissensverarbeitung> (1)
- PACS- Picture Archiving (1)
- PBRT (1)
- Partizipation (1)
- Pestizide (1)
- Phantom Omni (1)
- Phosphorsäureester (1)
- Physikalische Therapie (1)
- Potenzialfeld (1)
- Prevention (1)
- Program Slicing (1)
- Propositional Logic (1)
- Prozessmanagement (1)
- Prävention (1)
- Präventivmedizin (1)
- Psychohygiene (1)
- Punktkorrelationen (1)
- Pyrethroide (1)
- Query Expansion (1)
- RFID (1)
- Randstreifen (1)
- Ray casting (1)
- Rechtemanagement (1)
- Relationale Datenbank (1)
- Relativitätstheorie (1)
- Relevance Feedback (1)
- Requirement-Engineering (1)
- Risiko-Beurteilung (1)
- Risiko-Minimierung (1)
- Risikomanagement (1)
- Risikominimierung (1)
- Roboter (1)
- Robotik (1)
- Rothe's method (1)
- Rothe-Methode (1)
- Runoff (1)
- Rückfahrkamera (1)
- SOA (1)
- Schatten (1)
- Schmerzbewältigung (1)
- Schmerztherapie (1)
- Schmerzveränderung (1)
- Schwache Lösungen (1)
- Selbstlokalisation (1)
- Separating-Axis-Theorem (1)
- Shader (1)
- Shaderhochsprache (1)
- Simulation (1)
- Software- Ergonomie (1)
- Stereografie (1)
- Stereoskopie (1)
- Strategie (1)
- Strategy (1)
- Supply Chain Management (1)
- Szeneneditor (1)
- TQM (1)
- TRECVID (1)
- Tanzspiel (1)
- Technologiemanagement (1)
- Technology Management (1)
- Tenneco Automotive (1)
- Tiefenbild (1)
- Tiefenkarte (1)
- Tonemapping (1)
- Tonemapping-Verfahren (1)
- Total Quality Management (1)
- Trajektorien (1)
- Transport (1)
- Triangulierungsverfahren (1)
- Uniforme Raumunterteilung (1)
- Untersuchungsmethode (1)
- Video (1)
- Volumen-Rendering (1)
- Volumenmodell (1)
- Vorbeugung (1)
- WSDL (1)
- Web Services (1)
- Webcam (1)
- Wertschöpfungskette (1)
- Wiederbesiedlung (1)
- Wiki (1)
- Wissenskompilation (1)
- XML-Dokument (1)
- YAWL (1)
- Zikaden (1)
- Zirkumskription (1)
- agriculture (1)
- aquatic macrophytes (1)
- biomonitoring (1)
- buffer zones (1)
- chalk grassland (1)
- climate change (1)
- contaminated sites (1)
- data warehouse (1)
- data-mining (1)
- depth map (1)
- disparity map (1)
- dynamic programming (1)
- fluid-structure interaction (1)
- groundwater fauna (1)
- high-traffic (1)
- image processing (1)
- incompressible fluids (1)
- land use (1)
- landscape level (1)
- leafhoppers (1)
- low back pain (1)
- macroinvertebrates (1)
- medizinische Bilddaten (1)
- methodical comparison (1)
- modeling (1)
- modellgetriebene Softwareentwicklung (1)
- non-point source (1)
- organophosphate (1)
- pesticides (1)
- physical therapy (1)
- planthoppers (1)
- prevention (1)
- pyrethroids (1)
- recolonisation (1)
- relativity (1)
- risk assessment (1)
- runoff (1)
- simulation (1)
- sport therapy (1)
- spray-drift (1)
- stereo vision (1)
- usage-mining (1)
- visualization (1)
- weak solution (1)
- Öffentliche Verwaltung (1)
Institute
- Institut für Computervisualistik (28)
- Institut für Softwaretechnik (9)
- Institut für Informatik (7)
- Institut für Wirtschafts- und Verwaltungsinformatik (5)
- Fachbereich 7 (4)
- Institut für Management (4)
- An-Institute (1)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (1)
- Institut für Mathematik (1)
Prävention von Korruption
(2006)
The known methods of the prevention of corruption are set into context of comparable ways to obviate accidences during working processes, environmental pollution by organisations and the options to ensure quality for manufactured goods. The aim was to find out if and in which degree the different methods of prevention in the area of corruption and the mentioned aspects of the TQM support each other.
Shadows add a level of realism to a rendered image. Furthermore, they support the user of an augmented reality application through the interactions of virtual objects. The reason for this is that shadows make it easier to judge the position and the size of a virtual object. In 1978, Lance Williams published the shadow mapping algorithm with the aim to render a shadow of objects in a virtual scene. This master thesis presents a modified shadow mapping approach that can additionally be used in Augmented/Mixed Reality applications. First of all the standard algorithm ist extended by a PCF-filter. This filter is used to handle the aliasing-problem on the edges of the shadow and also to soften the shadow. Phantom objects are necessary to be able to operate this approach in a Mixed Reality application. These objects simulate the position and the geometry of the real objects for the algorithm. The approach consists of three steps: First the camera image is drawn into the framebuffer. After that a shadow map, of the virtual objects only, is created. When rendering these objects shadow mapping creates the shadows of virtual objects onto other virtual objects and on themselves. Afterwards the phantom objects are rendered. The depth test is performed on the fragment shader. If a fragment lies in a shadowed region it will get the color of the shadow. However, if it is beeing lit its transpareny value will be set to 1 so that it will not be seen. By applying this procedure all shadows from the virtual objects onto the real objects will be drawn. The results show that the approach can be used in real time in Mixed Reality environments. Additionally a comparison with a modified version of a shadow volume algorithm that can also be used for Mixed Reality applications shows that the approach of this master thesis casts a more realistic shadow in a shorter period of time. All in all this approach increases the level of realism in augmented reality applications and it helps the user measure distances and sizes of the virtual objects more easily.
Emotion Video
(2006)
Gefühle durch ein Medium übertragen, das klingt unglaublich und doch hat es einen grossen Reiz. Was könnten wir alles machen? Wir könnten dabei sein, wenn ein Astronaut in den Weltraum fliegt oder einen Sonnenaufgang in der Südsee erleben ohne dort zu sein. Man könnte die Gefühle eines Gewinners ebenso weitergeben, wie die einer Person, die Angst hat. Aber auch andere Aspekte, wie die Arbeit aus Sicht eines Profis zu betrachten oder etwas Neues kennenzulernen wäre möglich. Den eigenen Tag, die letzte Woche oder sogar weit zurückliegende Ereignisse aus dem eigenen Leben noch einmal erleben, das alles macht den Anreiz an diesem Thema aus. Der Aufbau dieser Arbeit soll die Entwicklung von der Entstehung von Emotionen beim Menschen über die technischen Möglichkeiten zur Aufzeichnung von Sinneswahrnehmungen bis zum Gesamtkonzept mit prototypischer Umsetzung zeigen. Zunächst soll geklärt werden, was nötig ist um Emotionen "einzufangen" und zu konservieren und welche Möglichkeiten sich für die Wiedergabe dieser anbieten. Zentral soll ein Konzept sein, welches die momentanen technischen Möglichkeiten berücksichtigt, aber auch darüber hinaus aufzeigt, was wichtig und nötig wäre um dem Ziel möglichst nahe zu kommen, Emotionen zu übertragen. Dieses Konzept soll im Anschluss prototypisch umgesetzt werden um es so zu evaluieren. Dabei soll eine erweiterbare Plattform zunächst zur Aufzeichnung visueller und auditiver Reize entwickelt werden.
Zielsetzung: Für die Feuerwehr- und Katastrophenschutzschule Rheinland - Pfalz (LFKS) sollen auf der Basis von Flash und XML interaktive Quizzes realisiert werden, die im Rahmen des Gruppenführerlehrgangs als Lernerfolgskontrolle dienen sollen. Als Grundlage wird ein selbstentwickeltes MVC Framework und Adobe (ehemals Macromedia) Flash herangezogen.
Entwicklung: Bei der Entwicklung der Quizzes wurde sehr viel Wert auf eine systemunabhängige, bestmöglich standardisierte Datenhaltung gelegt. Hier war die Verbindung von Flash und XML eine optimale Lösung.
Technik: Mit der Kombination aus ActionScript2, XML und Flash ist es möglich, innerhalb kürzester Zeit unterschiedliche Quizzes zu erstellen. Der Grundgedanke bei dieser Technik ist es, Daten und ihre Repräsentation zu trennen. Die Flash Entwicklungsumgebung wird für die Erstellung der Views (Darstellungselemente) verwendet. Die Views werden anhand von dynamischen Textfeldern, interaktiven Animationen und weiteren Darstellungselementen definiert. Diese Views werden über das MVC-Framework mit Actionscript2 angesprochen und mit Inhalten aus einer externen XML Datei gefüllt. Der Vorteil dabei ist, dass die Inhalte und zum Teil auch das Design recht schnell ausgewechselt werden können, ohne an der Applikation Änderungen vornehmen zu müssen. Die XML Dateien werden mit Hilfe der Software Infopath der Firma Microsoft erstellt. Eine weitere Möglichkeit die Daten zu standardisieren ist das IMS Question and Test Interoperability (IMS QTI) Datenformat, welches explizit für solche Anwendungen entwickelt wurde. Dieses Format wird jedoch nur am Rande behandelt. Diese Flashapplikationen können sowohl als eigenständige Programme betrachtet oder als Elemente einer HTML Datei in einem Browser dargestellt werden. Aus diesem Grund ist es möglich, auf fast jedem Gerät (PC, Notebook, Handheld und Mobiltelefon) und auf jedem Betriebssystem (Windows, Mac OS, Linux, etc.) eine Flashapplikation zum Laufen zu bringen.
Ausblick: Durch das selbstentwickelte MVC-Framework kann die Applikation schnell und einfach erweitert werden. Es wurde jedoch drauf geachtet, dass die Applikation auch ohne den Quellcode neu zu kompilieren vom Aussehen verändert werden kann.
Szeneneditor für ein Echtzeitanimationssystem und andere XML konfigurierte und erweiterbare Systeme
(2006)
The high cost of routing infrastructure makes checking theories about larger nets a very difficult and expensive task. One possible approach to fight this problem is the use of virtual instead of physical infrastructure. OPNet- IT Guru software is a suite designed to simulate large nets and present relevant information. This allows validating extensive changes before actually implementing them on a productive network or testing theories without the overhead of a physical infrastructure.
Due to their confinement to specific host plants or restricted habitat types, Auchenorrhyncha are suitable biological indicators to measure the quality of chalk grassland under different management practices for nature conservation. They can especially be used as a tool to assess the success of restoring chalk grassland on ex-arable land. One objective of this study was to identify the factors which most effectively conserve and enhance biological diversity of existing chalk grasslands or allow the creation of new areas of such species-rich grassland on ex-arable land. A second objective was to link Auchenorrhyncha communities to the different grassland communities occurring on chalk according to the NVC (National Vegetation Classification). Altogether 100 chalk grassland and arable reversion sites were sampled between 1998 and 2002. Some of the arable reversion sites had been under certain grazing or mowing regimes for up to ten years by 2002. Vegetation structure and composition were recorded, and Auchenorrhyncha were sampled three times during the summer of each year using a "vortis" suction sampler. Altogether 110 leafhopper species were recorded during the study. Two of the species, Kelisia occirrega and Psammotettix helvolus, although widespread within the area studied, had not previously been recognized as part of the British fauna. By displaying insect frequency and dominance as it is commonly done for vegetation communities, it was possible to classify preferential and differential species of distinct Auchenorrhyncha communities. The linking of the entomological data with vegetation communities defined by the NVC showed that different vegetation communities were reflected by distinct Auchenorrhyncha communities. Significant differences were observed down to the level of sub-communities. The data revealed a strong positive relationship between the diversity of leafhoppers species and the vegetation height. There was also a positive correlation between the species richness of Auchenorrhyncha and the diversity of plant species. In that context it is remarkable that there was no correlation between vegetation height and botanical diversity. There is a substantial decrease in Auchenorrhyncha species richness from unimproved grassland to improved grassland and arable reversion. The decline of typical chalk grassland and general dry grassland species is especially notable. Consequently, the number of stenotopic Auchenorrhyncha species which are confined to only a few habitat types, are drastically reduced with the improvement of chalk grassland. Improved grassland and arable reversion fields are almost exclusively inhabited by common habitat generalists. The decrease in typical chalk grassland plants due to improvement is mirrored in the decline of Auchenorrhyncha species, which rely monophagously or oligophagously on specific host plants. But even where suitable host plants re-colonize arable reversion sites quickly, there is a considerable delay before leafhoppers follow. That becomes especially obvious with polyphagous leafhoppers like Turrutus socialis or Mocydia crocea, which occur on improved grassland or arable reversion sites only in low frequency and abundance, despite wide appearance or even increased dominance of their host plants. These species can be considered as the most suitable indicators to measure success or failure of long term grassland restoration. A time period of ten years is not sufficient to restore species-rich invertebrate communities on grassland, even if the flora indicates an early success.
In dieser Studienarbeit wird ein Verfahren zur Extraktion eines Oberflächenbegrenzungsmodells aus einem Tiefenbild vorgestellt. Das Modell beschreibt die im Tiefenbild dargestellte Szene durch die Geometrie und die Topologie der planaren Flächen, die in der Szene gefunden werden. Die Geometrie ist gegeben durch die Angabe der Ebenengleichungen der gefundenen Flächen sowie der 3D-Koordinaten der Eckpunkte der Polygone, die diese Flächen beschreiben. Die Informationen über die Topologie der Szene besteht aus einer Nachbarschaftsliste, die für jede Flaeche angibt, über welche Kante diese Fläche mit welcher anderen Fläche verbunden ist. Aufbauend auf einem Algorithmus zur Tiefenbildsegmentierung aus PUMA werden die Polygone bestimmt, die die Flächen der Szene beschreiben. Anschließend wird versucht, diese Polygone über Kanten und Eckpunkte zu verbinden, um ein möglichst geschlossenes Modell der Szene zu erhalten.
XDOMEA-Fachkonzept
(2006)
Die AG "IT-gestützte Vorgangsbearbeitung" des Kooperationsausschusses Automatisierte Datenverarbeitung (koopA ADV) hat zur Verwirklichung der Interoperabilität in der öffentlichen Verwaltung den Datenaustauschstandard XDOMEA entwickelt. Das vorliegende Dokument beschreibt das Fachkonzept zur XML-Schema-Spezifikation. Es wendet sich vorrangig an verantwortliche Organisatoren im IT-Bereich und an potentielle Anwender von XDOMEA. In diesem Dokument werden Hintergründe, Einsatzmöglichkeiten und Informationen zum Einsatzgebiet von XDOMEA erläutert, die Vorteile des Standards diskutiert und Erweiterungsmöglichkeiten vorgestellt. Weiters werden Beteiligungs- und Protokollinformationen spezifiziert und detailliert. Zu diesem Zweck werden verschiedene Szenarien erarbeitet, die anhand von Prozessmodellen die praktische Anwendung des Standards veranschaulichen. Gleichzeitig werden die Möglichkeiten fachspezifischer Erweiterungen im Standard verdeutlicht und Grenzen der Anwendung aufgezeigt.
Die Zeitschrift c't stellte in der Ausgabe 02/2006 einen Bausatz für einen kleinen mobilen Roboter vor, den c't-Bot, der diese Studienarbeit inspirierte. Dieser Bausatz sollte die Basis eines Roboters darstellen, der durch eine Kamera erweitert und mit Hilfe von Bildverarbeitung in der Lage sein sollte, am RoboCupSoccer-Wettbewerb teilzunehmen. Während der Planungsphase veränderten sich die Ziele: Statt einem Fußballroboter sollte nun ein Roboter für die neu geschaffene RoboCup-Rescue-League entwickelt werden. In diesem Wettbewerb sollen Roboter in einer für sie unbekannten Umgebung selbstständig Wege erkunden, bzw. Personen in dieser Umgebung finden. Durch diese neue Aufgabenstellung war sofort klar, dass der c't-Bot nicht ausreichte, und es musste ein neuer Roboter entwickelt werden, der mittels Sensoren die Umgebung wahrnehmen, durch eine Kamera Objekte erkennen und mit Hilfe eines integrierten Computers diese Bilder verarbeiten sollte. Die Entstehung dieses Roboters ist das Thema dieser Studienarbeit.
iProcess
(2006)
Das performante Rendering großer Volumendaten stellt trotz stetig gestiegener Prozessorleistungen nach wie vor hohe Anforderungen an jedes zugrunde liegende Visualisierungssystem. Insbesondere trifft dies auf direkte Rendering-Methoden mithilfe des Raycasting-Verfahrens zu, welches zum einen eine sehr hohe Qualität und Genauigkeit der generierten Bilder bietet, zum anderen aber aufgrund der dafür nötigen hohen Abtastrate relativ langsam ist. In dieser Studienarbeit wird ein Verfahren zur Beschleunigung des Raycasting- Visualierungsansatzes vorgestellt, das auf adaptivem Sampling beruht. Dabei werden statische Volumendaten zunächst in einem Vorverarbeitungsschritt einer Gradientenanalyse unterzogen, um so ein Interessensvolumen zu erstellen, das wichtige und weniger wichtige Bereiche kennzeichnet. Dieses Volumen wird anschließend von einem Raycaster genutzt, um adaptiv für jeden Abtaststrahl die Schrittweite zu bestimmen.
Currently more than 850 biological databases exist. The majority of biological knowledge is not in these databases but rather contained as free text in scientific literature. For systems biology tasks it is often necessary to integrate and extract data from heterogeneous databases and free text as well as to analyse the information in the context of experimental data. ONDEX is an integration framework which aims to address these challenges by combining features of database integration, text mining and sequence analysis with methods for graph-based data analysis and visualisation. The main topics of this diploma thesis are the redesign of the ONDEX backend, the development of a data exchange format, the development of a query environment and the allocation of Web services for data integration, data exchange and queries. These Web services allow backend workflow control from both local and remote workstations.
Die Leistungsfähigkeit moderner Graphikkarten steigt zur Zeit schneller an, als die von CPUs. Dabei kann diese Leistung nicht nur zur Darstellung von 3D Welten, sondern auch für allgemeine Berechnungen (GPGPU) verwendet werden. Diese Diplomarbeit untersucht daher, ob mit Hilfe der GPU Volumendaten schneller gefiltert werden können, als mit der CPU. Dies soll insbesondere am Beispiel von Rausch-Filtern, die auf Videosequenzen angewendet werden, untersucht werden. Dabei soll das Video als Volumen repräsentiert und mit Volumenfiltern gefiltert werden. So soll eine höhere Qualität und eine kürzere Berechnungszeit als mit herkömmlichen CPU und Frame-basierten Verfahren erreicht werden, insbesondere auch bei den z.Z. stark aufkommenden hochauflösenden HDTV-Standards. Das Framework soll jedoch nicht auf Videosequenz-Bearbeitung beschränkt sein, sondern so konzipiert werden, dass es z.B. in bestehende Volumenvisualisierungssysteme integriert werden kann. Das Ziel der Arbeit ist die Einarbeitung in die notwendigen theoretischen Grundlagen, daran anschließend die prototypische Implementierung des Frameworks mit abschließender Bewertung der erreichten Ergebnisse insbesondere der Geschwindigkeit im Vergleich zu existierenden Systemen.
Die moderne Bildgebung in der Medizin arbeitet oft mit Daten höheren Tonwertumfangs. So haben beispielsweise Bilder aus CT-Geräten einen Dynamikbereich von 12 Bit, was 4096 Graustufen entspricht. Im Bereich der photorealistischen Computergrafik und zunehmend in der Bildverarbeitung sind Bilddaten viel höheren Tonwertumfangs üblich, die als HDR-Bilder (High Dynamic Range) bezeichnet werden. Diese haben eine Bittiefe von 16, oftmals sogar 32 Bit und können dadurch sehr viel mehr Informationen speichern, als herkömmliche 8-Bit-Bilder. Um diese Bilder auf üblichen Monitoren darstellen zu können, muss man die Bildinformation auf den Tonwertumfang des Ausgabegerätes abbilden, was man als Tonemapping bezeichnet. Es existieren zahlreiche solcher Tonemapping-Verfahren, die sich durch ihre Arbeitsweise, Geschwindigkeit und visuelle Qualität unterscheiden lassen. Im Rahmen dieser Studienarbeit sollen Tonemapping-Verfahren auf medizinische Bilddaten angewendet werden. Dabei soll sowohl die visuelle Qualität, als auch die Geschwindigkeit im Vordergrund stehen.
Die Planung in Form eines visuellen Entwurfs ist schon seit jeher Bestandteil des Prozesses der Entwicklung von Artefakten aller Art. Heutzutage wird der visuelle Entwurf zukuenftiger Produkte mithilfe von CAD-Systemen umgesetzt. Im ersten Teil der Arbeit wird daher ein einfaches System implementiert und erlaeutert, das die grundlegenden Funktionen umsetzt, die auch in professionellen CAD-Systemen unerlaesslich sind. Im zweiten Teil werden ueber die Grundfunktionen hinaus ausgewaehlte Algorithmen der parametrischen Modellierung vorgestellt, die die Grundlage fuer die leistungsfaehigen, flexiblen und produktiven Systeme im modernen computer-unterstuetzten Entwurf bilden.
Program slicing is a technique for extracting that parts of a program which influence a previously defined, so-called slicing criterion. The latter mostly takes the form of a source code statement and a set of variables. Over the years an abundance of variants and enhancements has evolved from the original notion of a program slice. One of these developments is called chopping. A chop only contains those statements which are necessary to sustain the effects of a certain statement on another statement. Corresponding to the slicing criterion, the two statements have to be available in advance. This diploma thesis deals with the development of a service model in order to support the computation of a slice or a chop, given an original program and a slicing or chopping criterion respectively. A service model is a framework of communicating services so that each service performs a specific task within the concept of program slicing. The three main tasks, without considering further decomposition, are the mapping of program code into a representation suitable for slicing, the slicing itself and the display of the slice as code. The key benefit of service-orientation is that a service encapsulates the underlying algorithms. Hence the possibility of improving or substituting them without changing the interfaces of the related service relieves the developer of the need of adapting adjoining services. Thus, service-orientation fosters maintainability and improvability. Besides the definition of the services, this thesis also partially formally defines the data flow between them, i.e. their interfaces. It also features graph class definitions for most data structures. An accurate description of the interfaces encourages reuse, provided the services are of adequate granularity.
Interactive video retrieval
(2006)
The goal of this thesis is to develop a video retrieval system that supports relevance feedback. One research approach of the thesis is to find out if a combination of implicit and explicit relevance feedback returns better retrieval results than a system using explicit feedback only. Another approach is to identify a model to weight existing feature categories. For this purpose, a state-of-the-art analysis is presented and two systems implemented, which run under the conditions of the international TRECVID workshop. It will be a basis system for further research approaches in the field of interactive video retrieval. Amongst others, it shall participate in the 2006 search task of the mentioned workshop.
This work represents a quantitative analysis and visualisation of scar tissue of the left ventricular myocard. The scar information is shown in the late enhancement data, that highlights the avitale tissue with the help of a contrast agent. Through automatic methods, the scar is extracted from the image data and quantifies the size, location and transmurality. The transmurality shows a local measurement between the heart wall und the width of the scar. The developed methods help the cardiologist to analyse the measurement, the reason and the degree of the heart failure in a short time period. He can further control the results by several visual presentations. The deformation of the scar tissue over the heart cycle is implemented in another scientific work. A visual improvement of the deformation result which extracts the scar out of the data is aspired. The avital tissue is shown in a more comfortable way by eliminating the unnecessary image information and therefore improves the visual analysis of the pumping heart. Both methods show a detailed analysis of the scar tissue. This supports the clinic practical throughout the manual analysis.
Ein Interpreter für GReQL 2
(2006)
Im Rahmen dieser Diplomarbeit wird die Auswertungskomponente fuer die Graphanfragesprache GREQL 2, welche von Katrin Marchewka beschrieben wurde, entworfen, welche Anfragen diese Sprache interpretiert. Die Auswertungskomponente besteht aus den Bausteinen Auswerter, Parser, Optimierer, Funktionsbibliothek und dem Containerframework JValue. Der Parser wurde bereits von Katrin Marchewka implementiert, der Optimierer bleibt einer Anschlußarbeit vorbehalten. Innerhalb dieser Arbeit werden die Bausteine Auswerter, Funktionsbibliothek und JValue als Prototypen implementiert. Aufgrund der Erfahrungen mit der Auswertungskomponente fuer den GREQL 2-Vorgaenger GREQL 1 ist das Primaerziel dieser Arbeit der Entwurf einer sauberen, klaren, erweiterbaren und zukunftsfähigen Architektur, wobei die aktuellen Prinzipien der Softwaretechnik beüecksichtigt werden sollen.
Viele Probleme in der Aussagenlogik sind nur sehr aufwändig lösbar. Ist beispielsweise eine Wissensbasis gegeben, an die wir Anfragen stellen, wollen, so kann dies mitunter sehr mühsam sein. Um trotzdem effizient Anfragen beantworten zu können, hat sich die Vorgehensweise der Wissenskompilation entwickelt. Dabei wird die Lösung der Aufgabe in eine Offline- und eine Online-Phase aufgeteilt. In der Offline-Phase wird die Wissensbasis präkompiliert. Dabei wird sie in eine bestimmte Form umgewandelt, auf der sich die erwarteten Anfragen effizient beantworten lassen. Diese Transformation der Wissensbasis ist meist sehr aufwändig, muss jedoch nur einmalig durchgeführt werden. In der darauffolgenden Online-Phase können nun effizient Anfragen beantwortet werden. In dieser Diplomarbeit wird eine spezielle Normalform, die sich als Zielsprache der Präkompilation anbietet, untersucht. Außerdem wird die Präkompilation so in einzelne Schritte unterteilt, dass möglicherweise bereits nach einigen Teilschritten Anfragen beantwortet werden können.
This document presents a concept of a "web usage mining system". The main purpose of this work is to cover situations, in which high traffic will cause traditional approaches to collapse. Therefore, it presents several measuring methods and acquisition techniques, and provides strategies that allow pertinent storage and querying complexity even in high traffic domains.
In the last years the e-government concentrated on the administrative aspects of administrative modernisation. In the next step the e-discourses will gain in importance as an instrument of the public-friendliness and means of the e-democracy/e-participation. With growing acceptance of such e-discourses, these will fastly reach a complexity, which could not be mastered no more by the participants. Many impressions, which could be won from presence discussions, will be lacking now. Therefore the exposed thesis has the objective of the conception and the prototypical implementation of an instrument (discourse meter), by which the participants, in particular the moderators of the e-discourse, are capable to overlook the e-discourse at any time and by means of it, attain their discourse awareness. Discourse awareness of the present informs about the current action in the e-discourse and discourse awareness of the past about the past action, by which any trends become visible. The focus of the discourse awareness is located in the quantitative view of the action in the e-discourse. From the model of e-discourse, which is developed in this thesis, the questions of discourse awareness are resulting, whose concretion is the basis for the implementation of the discourse meter. The discourse sensors attached to the model of the e-discourse are recording the actions of the e-discourse, showing events of discourse, which are represented by the discourse meter in various forms of visualizations. The concept of discourse meter offers the possibility of discourse awareness relating to the present as monitoring and the discourse awareness relating to the past as query (quantitative analysis) to the moderators of the e-discourse.
Die Arbeit stellt die Frage nach den Effekten einer tertiären Präventionsmaßnahme in Bezug auf Schmerzbewältigung und Schmerzveränderung bei chronischen Lumbalgiepatienten. Im Rahmen der Überprüfung werden ausdifferenzierte psychophysische Interventionsmaßnahmen aus den Bereichen der Physiotherapie/Krankengymnastik und Psychologie eingesetzt. Die Gruppenunterteilung erfolgt in eine behandelte Versuchsgruppe und eine unbehandelte Warte-Kontrollgruppe mit jeweils 100 Probanden (N=200). Die Ergebnisse der tertiären Präventionsmaßnahme zeigen statistisch und klinisch relevante sowie positive Veränderungen in den Bereichen der Schmerzbewältigung und Schmerzveränderung.
Das Grundwasser unterliegt zahlreichen Nutzungen, gleichzeitig ist es Lebensraum einer artenreichen, hoch angepaßten Fauna. Verunreinigungen des Grundwassers mit Kontaminationen unterschiedlichsten Ursprungs stellen eine wachsende Problematik dar. Für das Monitoring von Altlastflächen werden bisher überwiegend physiko-chemische Methoden eingesetzt. Als weitere Möglichkeit bietet sich ein grundwasserfaunistisch begründetes Monitoring an. Da Freilanduntersuchungen über das Auftreten und die Verteilung von Grundwasserfauna in Altlastflächen bisher fehlen, widmet sich die vorliegende Dissertation dieser Thematik. Ein grundsätzliches Problem grundwasserfaunistischer Untersuchungen ist das Fehlen standardisierter Sammelmethoden. Daher erwies es sich als notwendig, die für die Untersuchung der Altlastflächen optimale Sammelmethode zu identifizieren. Insoweit liefert ein vorangehender Methodenvergleich die Grundlage für das Altlasten-Projekt. Ziel des Methodenvergleichs war es herauszufinden, ob die in Kluftgrundwasserleitern im Vergleich mit Lockergesteinsleitern festgestellte Artenarmut und die meist niedrigen Abundanzen habitat- oder auch methodenbedingt sind. Unter Verwendung eines phreatobiologischen Netzsammlers, einer pneumatischen Kolbenhubpumpe (System NIEDERREITER) und eines Quellnetzes wurden im Naturraum Pfälzerwald 16 Grundwasser-meßstellen (je 8 in den Kluftaquiferen des Buntsandsteins und den sandig-kiesigen Aquiferen der Talauen) und 8 Quellen, sowie 4 Grundwassermeßstellen in der pfälzischen Rheinebene hydrochemisch und faunistisch beprobt. Die Grundwässer beider Naturräume unterschieden sich sowohl hydrochemisch wie auch in ihrer faunistischen Zusammensetzung signifikant voneinander. Aus methodischer Sicht zeigten alle Sammeltechniken, mit Ausnahme der Quellbeprobung, trotz gewisser Unterschiede, qualitativ vergleichbare Ergebnisse. Ziel des Hauptteils der Arbeit " dem Altlasten-Projekt " war die Gewinnung erster empirischer Daten über das Vorkommen und die Verteilung von Grundwasserfauna in Abhängigkeit von Altlasten. Des weiteren sollten über die Korrelation der Grundwasserfauna mit hydrochemischen Parametern und den Koloniezahlen erste Ansätze für eine bioindikative Eignung gefunden werden. Basierend auf den Ergebnissen des methodischen Teils wurden unter Verwendung des phreatobiologischen Netzsammlers fünf in der pfälzischen Rheinebene liegende Untersuchungsstandorte (sechs Einzelschäden), die Kontaminationen unterschiedlicher Art aufwiesen, untersucht. Dabei handelte es sich um drei militärische und zwei industrielle Altlasten sowie eine Hausmülldeponie. Insgesamt wurden 91 Meßstellen, die sich im Zustrom, direkt im Schaden sowie im Abstrom befanden, zweimalig beprobt. Trotz der ausgeprägten Heterogenität der untersuchten Altlaststandorte sowie geringer Arten- und Taxazahlen und Abundanzen weisen die Verteilungsmuster auf Sensitivitäten der Fauna gegenüber Grundwasserverunreinigungen hin. In bezug auf einzelne Schadstoffe (LCKW, PCE, AKW) deuten sich schadstoffspezifische Verteilungsmuster der Fauna an. Das abundanteste Taxon der Untersuchung - die Nematoda - traten an den LCKW / PCE- kontaminierten Standorten nur in geringsten Abundanzen auf, ebenso wie die Parastenocaridae (Crustacea). Oligochaeta und einzelne Cyclopoida-Arten (Crustacea) scheinen hingegen deutlich höhere Konzentrationen dieses Schadstoffs zu tolerieren. Eine gegensätzliche Faunenverteilung wurde an den AKW- kontaminierten Standorten beobachtet. Hier zeigten sich die Nematoda wesentlich toleranter als alle anderen Taxa, ebenso wie die Parastenocaridae. Hingegen traten die Oligochaeta und Cyclopoida oberhalb geringer Konzentrationen nur noch sporadisch auf. Die abundanteste Cyclopoida-Art der gesamten Untersuchung, Diacyclops languidoides, konnte in Anwesenheit von AKW nicht nachgewiesen werden.
The impact of innovation in order to secure a company- existence is increasing. Especially in the field of information and communication systems, modified conditions, reduced product life cycles (in some markets e.g. in the software market down to a few months), and increased competition force many companies to adapt their innovation speed. Long-term profit will just be obtained by those companies that will manage to consolidate or further to enlarge their competitive position with technological innovation. The increasing relevance of new developments requires a separate treatment of technological innovations and demands for a technology and innovation management. Not every innovation is thereby a result of a single, spontaneous idea. Many innovations evolve from the integration or combination of already existing technologies. Especially in markets with insignificant growing rates, this kind of innovation is quite important. The purpose of this thesis is the identification of existing deficiencies within established recommendations for a strategic technology and innovation management concerning technological integration. Based on the technological innovation, a possibility for the exposure to the developed innovations will be formulated. Finally, this thesis provides an own approach about this kind of innovation that will be examined.
Fate and effects of insecticides in vegetated agricultural drainage ditches and constructed wetlands
(2006)
Studies have shown that runoff and spray-drift are important sources of nonpoint-source pesticide pollution of surface waters. Owing to this, public concern over the presence of pesticides in surface and ground water has resulted in intensive scientific efforts to find economical, yet environmentally sound solutions to the problem. The primary objective of this research was to assess the effectiveness of vegetated aquatic systems in providing buffering between natural aquatic ecosystems and agricultural landscape following insecticide associated runoff and spray-drift events. The first set of studies were implemented using vegetated agricultural ditches, one in Mississippi, USA, using pyrethroids (bifenthrin, lambda-cyhalothrin) under simulated runoff conditions and the other in the Western Cape, South Africa using the organophosphate insecticide, azinphos-methyl (AZP), under natural runoff and spray-drift conditions. The second set of studies were implemented using constructed wetlands, one in the Western Cape using AZP under natural spray-drift conditions and the other in Mississippi, USA using the organophosphate MeP under simulated runoff conditions. Results from the Mississippi-ditch study indicated that ditch lengths of less than 300 m would be sufficient to mitigate bifenthrin and lambda-cyhalothrin. In addition, data from mass balance calculations determined that the ditch plants were the major sink (generally > 90%) and/or sorption site for the rapid dissipation of the above pyrethroids from the water column. Similarly, results from the ditch study in South Africa showed that a 180 m vegetated system was effective in mitigating AZP after natural spray drift and low flow runoff events. Analytical results from the first wetland study show that the vegetated wetland was more effective than the non-vegetated wetland in reducing loadings of MeP. Mass balance calculations indicated approximately 90% of MeP mass was associated with the plant compartment. Ninety-six hours after the contamination, a significant negative acute effect of contamination on abundances was found in 8 out of the 15 macroinvertebrate species in both wetland systems. Even with these toxic effects, the overall reaction of macroinvertebrates clearly demonstrated that the impact of MeP in the vegetated wetland was considerably lower than in the non-vegetated wetland. Results from the constructed wetland study in South Africa revealed that concentrations of AZP at the inlet of the 134 m wetland system were reduced by 90% at the outlet. Overall, results from all of the studies in this thesis indicate that the presence of the plant compartment was essential for the effective mitigation of insecticide contamination introduced after both simulated and natural runoff or spray-drift events. Finally, both the vegetated agricultural drainage ditch and vegetated constructed wetland systems studied would be effective in mitigating pesticide loadings introduced from either runoff or spray-drift, in turn lowering or eliminating potential pesticide associated toxic effects in receiving aquatic ecosystems. Data produced in this research provide important information to reduce insecticide risk in exposure assessment scenarios. It should be noted that incorporating these types of best management practices (BMPs) will decrease the risk of acute toxicity, but chronic exposure may still be an apparent overall risk.
The estimation of the potential risk of pesticide entries into streams - and therefore the potential risk for the ecosystems - is an important requirement for the planning of risk mitigation strategies. Especially on the landscape level the required event triggered sampling methods are conjuncted with considerable efforts with regard to input data, time and personnel. To circumvent these problems simulation models form a reasonable alternative. The aims of this work were (A) the development of a simulation tool for the estimation of pesticide entries into surface waters on the landscape level, and (B) the application of the simulator for an exposure- and risk-assessment as well as the assessment of negative effects of pesticides on aquatic communities. Section 1 - Exposure-, Risk- and Effects In sections 1.1 and 1.2 the simulation model was applied to a multitude of small and medium sized streams in an agricultural impacted study area around the city of Braunschweig, Germany. Section 1.3 gives an overview of the simulators field of application and the general system structure. Section 1.1 - Scenario based simulation of runoff-related pesticide entries into small streams on a landscape level (English publication, p. 27): In this paper we present a simulation tool for the simulation of pesticide entry from arable land into adjacent streams. We used the ratio of exposure to toxicity (REXTOX) model proposed by the OECD which was extended to calculate pesticide concentrations in adjacent streams. We simulated the pesticide entry on the landscape level at 737 sites in small streams situated in the central lowland of Germany. The most significant model parameters were the width of the no-application-zone and the degree of plant-interception. The simulation was carried out using eight different environmental scenarios, covering variation of the width of the no-application-zone, climate and seasonal scenarios. The highest in-stream concentrations were predicted at a scenario using no (0 m) buffer zone in conjunction with increased precipitation. According to the predicted concentrations, the risk for the aquatic communities was estimated based on standard toxicity tests and the application of a safety factor. Section 1.2 - Linking land use variables and invertebrate taxon richness in small and medium-sized agricultural streams on a landscape level (English publication, p. 50): In this study the average numbers of invertebrate species across an arable landscape in central Germany (surveys from 15 years in 90 streams at 202 sites) were assessed for their correlation with environmental factors such as stream width, land use (arable land, forest, pasture, settlement), soil type and agricultural derived stressors. The stress originating from arable land was estimated by the factor "risk of runoff", which was derived from a runoff-model (rainfall induced surface runoff). Multivariate analysis explained 39.9% of the variance in species number, revealing stream width as the most important factor (25.3%) followed by risk of runoff (9.7%). Section 1.3 - Informationssystem zur ökotoxikologischen Bewertung der Gewässergüte in Bezug auf Pflanzenschutzmitteleinträge aus der Landwirtschaft - Systemaufbau und Anwendungsmöglichkeiten (German publication, p. 61): Section 1.3 contains a short overview of the simulation tool, the field of application and some examples of use, covering the effects of the width of the buffer zone as well as the creation of risk maps on the landscape level. Section 2 - The simulation tool An important aspect for the employment of a simulation model in the context of risk assessment is the applicability in practice: the accessibility of the needed input data, the conversion of the mathematical model into a software application that can be run on any current personnel computer and also an appropriate end-user documentation of the system. Section 1.4 - Informationssystem zur ökotoxikologischen Bewertung der Gewässergüte in Bezug auf Pflanzenschutzmitteleinträge aus der Landwirtschaft - Simulationsmodell und Systemaufbau (German report, p. 67): In this section a general overview of the simulation model as well as the schematic system structure given. Section 1.5 - Benutzerhandbuch (German report, p. 71): The user manual contains details concerning the installation of the system, generation of the required input data and the general use of the system. Moreover it presents some application examples (what-if analyses). Section 1.6 - Technical documentation (German report, p. 104): The technical documentation describes internal structures and processes of the simulation system. Section 1.6 provides information regarding the required structure of input/output tables.