Refine
Year of publication
Document Type
- Doctoral Thesis (451)
- Part of Periodical (345)
- Bachelor Thesis (273)
- Diploma Thesis (196)
- Master's Thesis (184)
- Study Thesis (137)
- Conference Proceedings (12)
- Article (9)
- Other (8)
- Report (8)
Language
- German (1112)
- English (517)
- Multiple languages (4)
- Spanish (2)
Has Fulltext
- yes (1635) (remove)
Keywords
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computersimulation (9)
- Computervisualistik (9)
Institute
- Institut für Computervisualistik (334)
- Fachbereich 4 (294)
- Zentrale Einrichtungen (171)
- Institut für Wirtschafts- und Verwaltungsinformatik (146)
- Institut für Informatik (141)
- Institut für Management (111)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (56)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
iProcess
(2006)
Das performante Rendering großer Volumendaten stellt trotz stetig gestiegener Prozessorleistungen nach wie vor hohe Anforderungen an jedes zugrunde liegende Visualisierungssystem. Insbesondere trifft dies auf direkte Rendering-Methoden mithilfe des Raycasting-Verfahrens zu, welches zum einen eine sehr hohe Qualität und Genauigkeit der generierten Bilder bietet, zum anderen aber aufgrund der dafür nötigen hohen Abtastrate relativ langsam ist. In dieser Studienarbeit wird ein Verfahren zur Beschleunigung des Raycasting- Visualierungsansatzes vorgestellt, das auf adaptivem Sampling beruht. Dabei werden statische Volumendaten zunächst in einem Vorverarbeitungsschritt einer Gradientenanalyse unterzogen, um so ein Interessensvolumen zu erstellen, das wichtige und weniger wichtige Bereiche kennzeichnet. Dieses Volumen wird anschließend von einem Raycaster genutzt, um adaptiv für jeden Abtaststrahl die Schrittweite zu bestimmen.
Die Leistungsfähigkeit moderner Graphikkarten steigt zur Zeit schneller an, als die von CPUs. Dabei kann diese Leistung nicht nur zur Darstellung von 3D Welten, sondern auch für allgemeine Berechnungen (GPGPU) verwendet werden. Diese Diplomarbeit untersucht daher, ob mit Hilfe der GPU Volumendaten schneller gefiltert werden können, als mit der CPU. Dies soll insbesondere am Beispiel von Rausch-Filtern, die auf Videosequenzen angewendet werden, untersucht werden. Dabei soll das Video als Volumen repräsentiert und mit Volumenfiltern gefiltert werden. So soll eine höhere Qualität und eine kürzere Berechnungszeit als mit herkömmlichen CPU und Frame-basierten Verfahren erreicht werden, insbesondere auch bei den z.Z. stark aufkommenden hochauflösenden HDTV-Standards. Das Framework soll jedoch nicht auf Videosequenz-Bearbeitung beschränkt sein, sondern so konzipiert werden, dass es z.B. in bestehende Volumenvisualisierungssysteme integriert werden kann. Das Ziel der Arbeit ist die Einarbeitung in die notwendigen theoretischen Grundlagen, daran anschließend die prototypische Implementierung des Frameworks mit abschließender Bewertung der erreichten Ergebnisse insbesondere der Geschwindigkeit im Vergleich zu existierenden Systemen.
Die moderne Bildgebung in der Medizin arbeitet oft mit Daten höheren Tonwertumfangs. So haben beispielsweise Bilder aus CT-Geräten einen Dynamikbereich von 12 Bit, was 4096 Graustufen entspricht. Im Bereich der photorealistischen Computergrafik und zunehmend in der Bildverarbeitung sind Bilddaten viel höheren Tonwertumfangs üblich, die als HDR-Bilder (High Dynamic Range) bezeichnet werden. Diese haben eine Bittiefe von 16, oftmals sogar 32 Bit und können dadurch sehr viel mehr Informationen speichern, als herkömmliche 8-Bit-Bilder. Um diese Bilder auf üblichen Monitoren darstellen zu können, muss man die Bildinformation auf den Tonwertumfang des Ausgabegerätes abbilden, was man als Tonemapping bezeichnet. Es existieren zahlreiche solcher Tonemapping-Verfahren, die sich durch ihre Arbeitsweise, Geschwindigkeit und visuelle Qualität unterscheiden lassen. Im Rahmen dieser Studienarbeit sollen Tonemapping-Verfahren auf medizinische Bilddaten angewendet werden. Dabei soll sowohl die visuelle Qualität, als auch die Geschwindigkeit im Vordergrund stehen.
Die Planung in Form eines visuellen Entwurfs ist schon seit jeher Bestandteil des Prozesses der Entwicklung von Artefakten aller Art. Heutzutage wird der visuelle Entwurf zukuenftiger Produkte mithilfe von CAD-Systemen umgesetzt. Im ersten Teil der Arbeit wird daher ein einfaches System implementiert und erlaeutert, das die grundlegenden Funktionen umsetzt, die auch in professionellen CAD-Systemen unerlaesslich sind. Im zweiten Teil werden ueber die Grundfunktionen hinaus ausgewaehlte Algorithmen der parametrischen Modellierung vorgestellt, die die Grundlage fuer die leistungsfaehigen, flexiblen und produktiven Systeme im modernen computer-unterstuetzten Entwurf bilden.
Program slicing is a technique for extracting that parts of a program which influence a previously defined, so-called slicing criterion. The latter mostly takes the form of a source code statement and a set of variables. Over the years an abundance of variants and enhancements has evolved from the original notion of a program slice. One of these developments is called chopping. A chop only contains those statements which are necessary to sustain the effects of a certain statement on another statement. Corresponding to the slicing criterion, the two statements have to be available in advance. This diploma thesis deals with the development of a service model in order to support the computation of a slice or a chop, given an original program and a slicing or chopping criterion respectively. A service model is a framework of communicating services so that each service performs a specific task within the concept of program slicing. The three main tasks, without considering further decomposition, are the mapping of program code into a representation suitable for slicing, the slicing itself and the display of the slice as code. The key benefit of service-orientation is that a service encapsulates the underlying algorithms. Hence the possibility of improving or substituting them without changing the interfaces of the related service relieves the developer of the need of adapting adjoining services. Thus, service-orientation fosters maintainability and improvability. Besides the definition of the services, this thesis also partially formally defines the data flow between them, i.e. their interfaces. It also features graph class definitions for most data structures. An accurate description of the interfaces encourages reuse, provided the services are of adequate granularity.
Interactive video retrieval
(2006)
The goal of this thesis is to develop a video retrieval system that supports relevance feedback. One research approach of the thesis is to find out if a combination of implicit and explicit relevance feedback returns better retrieval results than a system using explicit feedback only. Another approach is to identify a model to weight existing feature categories. For this purpose, a state-of-the-art analysis is presented and two systems implemented, which run under the conditions of the international TRECVID workshop. It will be a basis system for further research approaches in the field of interactive video retrieval. Amongst others, it shall participate in the 2006 search task of the mentioned workshop.
This work represents a quantitative analysis and visualisation of scar tissue of the left ventricular myocard. The scar information is shown in the late enhancement data, that highlights the avitale tissue with the help of a contrast agent. Through automatic methods, the scar is extracted from the image data and quantifies the size, location and transmurality. The transmurality shows a local measurement between the heart wall und the width of the scar. The developed methods help the cardiologist to analyse the measurement, the reason and the degree of the heart failure in a short time period. He can further control the results by several visual presentations. The deformation of the scar tissue over the heart cycle is implemented in another scientific work. A visual improvement of the deformation result which extracts the scar out of the data is aspired. The avital tissue is shown in a more comfortable way by eliminating the unnecessary image information and therefore improves the visual analysis of the pumping heart. Both methods show a detailed analysis of the scar tissue. This supports the clinic practical throughout the manual analysis.
Ein Interpreter für GReQL 2
(2006)
Im Rahmen dieser Diplomarbeit wird die Auswertungskomponente fuer die Graphanfragesprache GREQL 2, welche von Katrin Marchewka beschrieben wurde, entworfen, welche Anfragen diese Sprache interpretiert. Die Auswertungskomponente besteht aus den Bausteinen Auswerter, Parser, Optimierer, Funktionsbibliothek und dem Containerframework JValue. Der Parser wurde bereits von Katrin Marchewka implementiert, der Optimierer bleibt einer Anschlußarbeit vorbehalten. Innerhalb dieser Arbeit werden die Bausteine Auswerter, Funktionsbibliothek und JValue als Prototypen implementiert. Aufgrund der Erfahrungen mit der Auswertungskomponente fuer den GREQL 2-Vorgaenger GREQL 1 ist das Primaerziel dieser Arbeit der Entwurf einer sauberen, klaren, erweiterbaren und zukunftsfähigen Architektur, wobei die aktuellen Prinzipien der Softwaretechnik beüecksichtigt werden sollen.
Viele Probleme in der Aussagenlogik sind nur sehr aufwändig lösbar. Ist beispielsweise eine Wissensbasis gegeben, an die wir Anfragen stellen, wollen, so kann dies mitunter sehr mühsam sein. Um trotzdem effizient Anfragen beantworten zu können, hat sich die Vorgehensweise der Wissenskompilation entwickelt. Dabei wird die Lösung der Aufgabe in eine Offline- und eine Online-Phase aufgeteilt. In der Offline-Phase wird die Wissensbasis präkompiliert. Dabei wird sie in eine bestimmte Form umgewandelt, auf der sich die erwarteten Anfragen effizient beantworten lassen. Diese Transformation der Wissensbasis ist meist sehr aufwändig, muss jedoch nur einmalig durchgeführt werden. In der darauffolgenden Online-Phase können nun effizient Anfragen beantwortet werden. In dieser Diplomarbeit wird eine spezielle Normalform, die sich als Zielsprache der Präkompilation anbietet, untersucht. Außerdem wird die Präkompilation so in einzelne Schritte unterteilt, dass möglicherweise bereits nach einigen Teilschritten Anfragen beantwortet werden können.
This document presents a concept of a "web usage mining system". The main purpose of this work is to cover situations, in which high traffic will cause traditional approaches to collapse. Therefore, it presents several measuring methods and acquisition techniques, and provides strategies that allow pertinent storage and querying complexity even in high traffic domains.
In the last years the e-government concentrated on the administrative aspects of administrative modernisation. In the next step the e-discourses will gain in importance as an instrument of the public-friendliness and means of the e-democracy/e-participation. With growing acceptance of such e-discourses, these will fastly reach a complexity, which could not be mastered no more by the participants. Many impressions, which could be won from presence discussions, will be lacking now. Therefore the exposed thesis has the objective of the conception and the prototypical implementation of an instrument (discourse meter), by which the participants, in particular the moderators of the e-discourse, are capable to overlook the e-discourse at any time and by means of it, attain their discourse awareness. Discourse awareness of the present informs about the current action in the e-discourse and discourse awareness of the past about the past action, by which any trends become visible. The focus of the discourse awareness is located in the quantitative view of the action in the e-discourse. From the model of e-discourse, which is developed in this thesis, the questions of discourse awareness are resulting, whose concretion is the basis for the implementation of the discourse meter. The discourse sensors attached to the model of the e-discourse are recording the actions of the e-discourse, showing events of discourse, which are represented by the discourse meter in various forms of visualizations. The concept of discourse meter offers the possibility of discourse awareness relating to the present as monitoring and the discourse awareness relating to the past as query (quantitative analysis) to the moderators of the e-discourse.