Filtern
Erscheinungsjahr
- 2007 (32) (entfernen)
Dokumenttyp
- Studienarbeit (32) (entfernen)
Schlagworte
- Bildverarbeitung (3)
- Computersimulation (3)
- Augenbewegung (2)
- Augmented Reality (2)
- Computer (2)
- Computergraphik (2)
- Gaze Tracker (2)
- Interaktion (2)
- Rettungsroboter (2)
- Robotik (2)
- Software (2)
- 3-D-Scanning (1)
- 3D-Darstellung (1)
- AMIRE (1)
- ARToolkit (1)
- ARToolkitPlus (1)
- Anhängerfahrzeug (1)
- Autonome Exploration (1)
- Autonome Robotik (1)
- Autonomous Exploration (1)
- Benutzerverhalten (1)
- Bild (1)
- BildKlang (1)
- Bildaufloesung (1)
- Bildauflösung (1)
- Bildregistrierung (1)
- Billard (1)
- Biometrie (1)
- Color Structure Code (1)
- Computerspiel (1)
- Computertomografie (1)
- ESSA (1)
- Evaluation (1)
- Explorationstransformation (1)
- Exporation Transform (1)
- Fahrzeugverhalten (1)
- Fedora (1)
- Feuer (1)
- Fire (1)
- Funknetzwerk (1)
- GLSL (1)
- GPGPU (1)
- GPU basiert (1)
- Gespann (1)
- Grafikprozessor (1)
- Graphikprozessor (1)
- Industrial-CT (1)
- Internetzugang (1)
- Java (1)
- Kartographie (1)
- Kraftfahrzeug (1)
- Laserscanner (1)
- Lenkassistenzsystem (1)
- Lenkung (1)
- MP3 Player (1)
- Mobile Roboter (1)
- Mobile Robots (1)
- Mobiler Roboter (1)
- Multidimensional (1)
- Mustererkennung (1)
- Netzwerkmanagment (1)
- Nintendo DS (1)
- Oberflächenentwurf (1)
- Oberflächengestaltung (1)
- Ornamentik (1)
- Partikelsimulation (1)
- Partikelsystem (1)
- Path transformation (1)
- Personenidentifizierung (1)
- Pfadtransformation (1)
- Radiosity (1)
- Registrierung <Bildverarbeitung> (1)
- Rescue League (1)
- Rescue Robots (1)
- RoboCup Rescue (1)
- Rückwärtsfahrt (1)
- SIFT-Verfahren (1)
- SNMP (1)
- Sand (1)
- Semantik (1)
- Simulations-Wiki (1)
- Skript (1)
- Skript <Programm> (1)
- SocSimNet (1)
- SpoGA (1)
- Tastatur (1)
- Tastatureingabeverhalten (1)
- Ton (1)
- Transferfunction (1)
- Transferfunktion (1)
- USARSim (1)
- Visualisierungstechniken (1)
- Volumen-Rendering (1)
- W-LAN (1)
- WLAN (1)
- Wiki (1)
- keystroke biometric recognition (1)
- multidimensional (1)
- virtual network user mode linux (1)
Computed tomography (CT) and magnetic resonance imaging (MRI) in the medical area deliver huge amounts of data, which doctors have to handle in a short time. These data can be visualised efficiently with direct volume rendering. Consequently most direct volume rendering applications on the market are specialised on medical tasks or integrated in medical visualisa- tion environments. Highly evolved applications for tasks like diagnosis or surgery simulation are available in this area. In the last years, however, another area is making increasing use of com- puted tomography. Companies like phoenix |x-ray, founded in 1999 pro- duce CT-scanners especially dedicated to industrial applications like non destructive material testing (NDT). Of course an application like NDT has different demands on the visualisation than a typical medical application. For example a typical task for non destructive testing would be to high- light air inclusions (pores) in a casting. These inclusions usually cover a very small area and are very hard to classify only based on their density value as this would also highlight the air around the casting. This thesis presents multiple approaches to improve the rendering of in- dustrial CT data, most of them based on higher dimensional transfer func- tions. Therefore the existing volume renderer application of VRVis was extended with a user interface to create such transfer functions and exist- ing render modes were adapted to profit from the new transfer functions. These approaches are especially suited to improve the visualisation of sur- faces and material boundaries as well as pores. The resulting renderings make it very easy to identify these features while preserving interactive framerates.
Der Hokuyo URG-04LX Laserscanner wird auf der mobilen Roboterplattform "Robbie" der Arbeitsgruppe Aktives Sehen zur Kartenerstellung und Kollisionsvermeidung eingesetzt. Die Navigation auf Grundlage der 2D-Scans wird den gewachsenen Anforderungen der Rescue-Arenen nicht mehr gerecht. Eine Verwendung von kommerziellen 3D-Laserscannern kommt wegen der hohen Anschaffungskosten nicht in Frage. Idee: Einsatz von mehreren günstigen 2D-Laserscannern mit unterschiedlichen Blickwinkeln oder aber die aktive Veränderung der Scanebene. Das Variieren der Scanebene erfolgt durch Schwenken oder Drehen des Laserscanners. Die Orientierung des Laserscanners im Raum liefert die dritte Dimension. Im Rahmen dieser Arbeit soll eine Plattform entwickelt werden, die es durch rotative Lagerung des Laserscanners ermöglicht, 3D-Laserscans der Umgebung zu erzeugen. Hierbei soll ein möglichst einfacher Aufbau erreicht werden, der es weiterhin ermöglicht, den Laserscanner zur Erzeugung von 2D-Karten zu benutzen. Um das Stereokamerasystem des Roboters nicht zu beeinträchtigen, wird zusätzlich ein sehr kompakter Aufbau angestrebt.
Design und Implementierung einer Anwendung zum Visualisieren von Relationen zwischen Lernobjekten
(2007)
Das in der Arbeitsgruppe Echtzeitsysteme im Projekt EZlenk entwickelte optische Lenkassistenzsystem zur Unterstützung der Rückwärtsfahrt von Fahrzeugen mit Anhänger soll im Rahmen dieser Studienarbeit auf seine Alltagstauglichkeit getestet werden. Ferner wurden die Implementierungen des Lenkassistenzsystems auf einem Fahrsimulator und einer PC-Version von Probanden evaluiert. Hierbei sollen mithilfe von Berufskraftfahrern, Fahrlehrern und Laien Schwachstellen, Stärken, genereller Nutzen, eventuelle Verbesserungsmöglichkeiten, Realitätsnähe und Auwirkungen auf den Fahrer bzw. Benutzer sowohl im Fahrsimulator als auch in der PC-Version herausgefunden werden unter Zugrundelegung der anerkannten Kriterien Effizienz, Effektivität und Zufriedenheit. Außerdem werden beide Implementierungsarten des Simulators sowohl mit als auch ohne Berücksichtigung des Lenkassistenzsystems im Hinblick auf die Alltagstauglichkeit für die Kraftfahrerausbildung in Fahrschulen diskutiert.
In dieser Arbeit wurde die Erstellung eines Demonstrators für gaze tracking Systeme beschrieben. Dabei wurde zunächst die Funktionsweise eines gaze trackers beschrieben, sowie auf bereits existierende Anwendungen für Menschen mit körperlicher Behinderung eingegangen. Die Einsatzgebiete für eine Benutzerschnittstelle über die Augen sind vielfältig und bietet noch viel Raum für weitere Anwendungen.
Das Hauptziel dieser Studienarbeit war die Entwicklung eines Überführungstools, das sowohl den Repository Inhalt eines EA Projektes in einen TGraphen als auch einen TGraphen in ein EA Projekt überführen kann. Außerdem sollte das application programming interface des Enterprise Architects analysiert und beschrieben werden. Diese beiden Ziele konnten erfüllt werden und wurden in den vorherigen Kapiteln beschrieben. Zusätzlich beinhaltet die Studienarbeit noch eine Beschreibung und ein Anwendungsbeispiel zu JGraLab.
In dieser Arbeit werden mehrere Verfahren zur Superresolution, die zwei unterschiedlichen Ansätzen zuzuordnen sind, implementiert und miteinander verglichen. IBP, ein Verfahren, welches der Tomographie ähnelt, stellt den klassischen Ansatz der Superresolution dar. Das Prinzip von IBP ist leicht verständlich und relativ einfach zu implementieren, hat aber den Nachteil, keine eindeutigen Lösungen zu produzieren, da es schwer ist, Vorwissen mit einfließen zu lassen. Bei den statistischen Verfahren erweist es sich als äußerst zeitkritisch, die Systemmatrix M vorzuberechnen. Capel und Zisserman haben beim Maximum-Likelihood-Verfahren eine starke Rauschanfälligkeit festgestellt. Der Vergleich ergibt, dass IBP in punkto Bildqualität Maßstäbe setzt, zumindest bei kaum verrauschten Eingangsbildern und guter Registrierung. Allerdings stellen viele Eingangsbilder wegen des linearen Laufzeitverhaltens ein Problem dar. Die statistischen Verfahren liefern bei stark verrauschten Eingangsbildern bessere Ergebnisse als IBP. Durch viele Eingangsbilder lassen sich diese noch weiter verbessern. Die bei vorberechneten Systemmatrizen nahezu konstante Laufzeit und ihre Robustheit bei Rauschen prädestinieren die statistischen Verfahren für solche Bildserien. Ungenau registrierte Eingangsbilder wiederum führen bei allen Verfahren zu unscharfen Ergebnissen.
Der Schwerpunkt dieser Arbeit soll auf der schnellen sowie einfachen Umsetzung eigener Ideen von AR-Anwendungen liegen. Damit ein gewisser zeitlicher Rahmen bei der Umsetzung nicht überschritten wird, wurden Lösungen, die eine große Einarbeitungszeit oder fundierte Kenntnisse einer oder mehrer Programmiersprachen erfordern, nicht genauer betrachtet. Unter einer einfachen Umsetzung ist nicht zuletzt auch zu verstehen, dass diese auch dem Kreis der nicht-professionellen Anwender möglich sein soll. Dies beinhaltet, dass das gesuchte Programm auf normalen dem durchschnittlichen derzeitigen Stand der Technik entsprechenden Computersystemen lauffähig sein sollte. Auch wurden kommerzielle Produkte außer Acht gelassen, da die oft nicht unerheblichen Kosten einer nicht-professionellen Nutzung im Wege stehen.
Ziel der Arbeit war es, ein audiovisuelles System aufzubauen, das die Interaktion mit Bild und Ton ermöglicht und die Natur der synästhetischen Wahrnehmung nutzt. Seit der Antike beschäftigen sich Menschen mit der Frage nach dem Zusammenhang und der Verwandtschaft von Tönen und visuellen Elementen wie Farben oder geometrischen Formen. Welches Bild baut sich beim Hören von Musik mit Hilfe der synästhetischen Wahrnehmung in unserer Vorstellung auf? Ein Musikstück kann "weich" oder "kantig" klingen, ein Klang wird als "warm" oder "kühl" empfunden. Die Umkehr dieser Frage stellt die Grundlage dieser Studienarbeit dar: Welchen Klang erzeugt ein Bild?