Refine
Year of publication
Document Type
- Study Thesis (138) (remove)
Keywords
- Robotik (9)
- Bildverarbeitung (5)
- Computergraphik (4)
- Computersimulation (4)
- VNUML (4)
- Augmented Reality (3)
- Mustererkennung (3)
- Netzwerksimulation (3)
- SPARQL (3)
- Semantic Web (3)
- Augenbewegung (2)
- Autonomes Robotersystem (2)
- Computer (2)
- Computerspiel (2)
- Computertomografie (2)
- E-IMS (2)
- GLSL (2)
- GPU (2)
- Gaze Tracker (2)
- Graphikprozessor (2)
- Interaktion (2)
- Internetzugang (2)
- Java (2)
- Mikrocontroller AVR (2)
- Netzwerk (2)
- OWL <Informatik> (2)
- Programmierung (2)
- Rettungsroboter (2)
- Software (2)
- SpoGA (2)
- Stereosehen (2)
- UML (2)
- Visualisierung (2)
- Volumen-Rendering (2)
- WLAN (2)
- Webcam (2)
- Wiki (2)
- XML (2)
- 3-D-Laserscannen (1)
- 3-D-Scanning (1)
- 3D-Darstellung (1)
- 3D-Modell (1)
- 3D-Videospiel (1)
- AMIRE (1)
- ARToolkit (1)
- ARToolkitPlus (1)
- ATMega 16 (1)
- ATmega644 (1)
- ATtiny2313 (1)
- Abfragesprache (1)
- Adaptive Abtastung (1)
- Adobe Flash (1)
- Algolib (1)
- Algorithmus (1)
- Anhängerfahrzeug (1)
- Anwendungssoftware (1)
- Austausch (1)
- Auszeichnungssprache (1)
- Automatische Klassifikation (1)
- Automatisches Beweisverfahren (1)
- Autonome Exploration (1)
- Autonome Robotik (1)
- Autonomous Exploration (1)
- BPMN (1)
- Bachelor (1)
- Backtrack (1)
- Balancetheorie (1)
- Benutzerverhalten (1)
- Bild (1)
- BildKlang (1)
- Bildaufloesung (1)
- Bildauflösung (1)
- Bildregistrierung (1)
- Billard (1)
- Binäre XML-Formate (1)
- Biometrie (1)
- Blinder Fleck (1)
- Border Gateway Protocol (1)
- Border Gateway Protocol 4 (1)
- Burg (1)
- C-Socketbibliothek (1)
- CAD-System (1)
- CB2 (1)
- Cascada (1)
- Cg (1)
- Cheops (1)
- Color Structure Code (1)
- ColorSym (1)
- Computational logic (1)
- Computeranimation (1)
- Computergrafik (1)
- Computermodell (1)
- CosiMail (1)
- DCMTK (1)
- DHCPv6 (1)
- DICOM (1)
- DTI (1)
- Datenaustausch (1)
- Datenaustauschstandard (1)
- Datenstruktur (1)
- Diabetes (1)
- Diabetische Retinopathie (1)
- Digital Rights Management (1)
- Digitale Steuerung (1)
- Dimensionality Reduction (1)
- Dimensionsreduzierung (1)
- Diskrete Simulation (1)
- Dynamische Programmierung (1)
- E-KRHyper (1)
- E-Learning (1)
- E-Mail (1)
- EEPROM (1)
- EPC (1)
- EPK (1)
- EPROM (1)
- ESSA (1)
- Echtzeit Anwendung (1)
- Echtzeitanimationssystem (1)
- Eclipse <Programmierumgebung> (1)
- Einchip-Computer (1)
- Electronic Government (1)
- Emulation (1)
- Enterprise Architect (1)
- Ergonomic Principles (1)
- Erweiterte Realität (1)
- Evaluation (1)
- Explorationstransformation (1)
- Exporation Transform (1)
- Extension (1)
- Eye-Tracking (1)
- Fahrerassistenzsystem (1)
- Fahrzeugverhalten (1)
- Farbkalibrierung (1)
- Farbsymmetrie (1)
- FastSLAM Algorithmus (1)
- Feature Extraction (1)
- Fedora (1)
- Feuer (1)
- Field programmable gate array (1)
- Fire (1)
- Fluid Simulation (1)
- Fluid dynamics (1)
- Foils <Programm> (1)
- Formale Ontologie (1)
- Fragmentshader (1)
- Funknetzwerk (1)
- GPGPU (1)
- GPU - Raycasting (1)
- GPU Programmierung (1)
- GPU basiert (1)
- GPU-Programmierung (1)
- GReQL2 (1)
- Gaze-Tracking (1)
- Geländemodell (1)
- Generative Modellierung (1)
- Geometrie-Shader (1)
- Geometryshader (1)
- Geschäftsprozess (1)
- Geschäftsprozessmodellierung (1)
- Gespann (1)
- Glaukom (1)
- Globale Beleuchtung (1)
- Gradientenanalyse (1)
- Grafikprozessor (1)
- Graph (1)
- Graphpipes (1)
- Gupro (1)
- HDR-Bild (1)
- HNF-Algorithmus (1)
- Hand-based Gestures (1)
- Handelsvertretung (1)
- Headerdaten Netzwerkpaket SOCK_RAW SOCK_PACKET (1)
- Headtracking (1)
- Heidelberg Retina Tomograph (1)
- Hermite-Normalform (1)
- Heuristiken (1)
- High dynamic Range (1)
- Hyperspace-Modell (1)
- ICP-Algorithmus (1)
- IPv6 (1)
- IT Guru (1)
- Industrial-CT (1)
- Informatik (1)
- Information-Retrieval (1)
- Informationssystem (1)
- Interaktives Quiz (1)
- Interpretierer (1)
- Intranet-Zugang (1)
- Iterative Closest Points (1)
- Iterative Dual Correspondences (1)
- JGraLab (1)
- Java-Quelltext (1)
- Kantenverfolgung (1)
- Kartographie (1)
- Klassifikationsframework (1)
- Klausellogik (1)
- Kondertal (1)
- Kraftfahrzeug (1)
- Laserscanner (1)
- Lenkassistenzsystem (1)
- Lenkung (1)
- Linux (1)
- Logging (1)
- Lokalisierung (1)
- Lookup-Algorithmen (1)
- MP3 Player (1)
- MTASC (1)
- Mail-Filter (1)
- Master (1)
- Matching-Verfahren (1)
- Maya (1)
- Medical Image Analysis (1)
- Medizinische Bildanalyse (1)
- Medizinische Bildverarbeitung (1)
- Medizinische Visualisierung (1)
- Merkmalsextrahierung (1)
- Metamodel (1)
- Metric based Icp (1)
- Mikrocontroller (1)
- Mind Maps (1)
- Mobile Roboter (1)
- Mobile Robots (1)
- Mobiler Roboter (1)
- Mobiles Multiplayerspiel (1)
- Modul (1)
- Modulare Softwarearchitektur (1)
- Modulares Softwaresystem (1)
- Modulhandbuch (1)
- Montageablauf (1)
- Morphologische Operatoren (1)
- Mouse Gestures (1)
- Multidimensional (1)
- Musteranalyse (1)
- Nagios (1)
- Navier"Stokes equations (1)
- Navier-Stokes-Gleichungen (1)
- Network (1)
- Network Monitoring (1)
- Network Simulation (1)
- Networked Graphs (1)
- Netzwerk Protokollen (1)
- Netzwerkanalyse (1)
- Netzwerkchip (1)
- Netzwerkmanagment (1)
- Netzwerkschicht (1)
- Netzwerküberwachung (1)
- Neuronales Netz (1)
- Nicht-photorealistisches Rendering (1)
- Nintendo DS (1)
- OCL <Programmiersprache> (1)
- ODRLv2 (1)
- OGRE (1)
- OPNET (1)
- OWL (1)
- OWL-DL (1)
- Oberflächenentwurf (1)
- Oberflächengestaltung (1)
- Objekterkennung (1)
- Objektverfolgung (1)
- Onlinespiele (1)
- Ontologie <Wissensverarbeitung> (1)
- Ontology (1)
- Open Digital Rights Language (1)
- Open Source 3D Graphics Engine (1)
- OpenGL (1)
- Oracle Generation (1)
- Oraklegenerierung (1)
- Ornamentik (1)
- Ornamentklassifikation (1)
- PBRT (1)
- Packet Header SOCK_RAW SOCK_PACKET (1)
- Partikelsimulation (1)
- Partikelsystem (1)
- Path transformation (1)
- Personenidentifizierung (1)
- Personentracking (1)
- Personenverfolgungssystem (1)
- Pfadplanung (1)
- Pfadtransformation (1)
- Phantom Omni (1)
- Physik (1)
- Physikengine (1)
- Plug in (1)
- Pointing Devices (1)
- Potenzialfeld (1)
- Primus (1)
- Programmiergerät (1)
- Programmierumgebung (1)
- Protocol (1)
- Prädikatenlogik (1)
- Qt/C++ (1)
- RDF <Informatik> (1)
- Radiosity (1)
- Ray casting (1)
- Real-time computing (1)
- Rechnernetz (1)
- Rechnernetze (1)
- Reengineering (1)
- Referenzmetamodell (1)
- Registrierung <Bildverarbeitung> (1)
- Relativitätstheorie (1)
- Rescue League (1)
- Rescue Robots (1)
- Retina Befundbilder (1)
- Retina Fundus Bilder (1)
- Retina Fundus Images (1)
- Riss (1)
- Rissmusteranalyse (1)
- RoboCup (1)
- RoboCup Rescue (1)
- Roboter (1)
- Robotersystem (1)
- Route Planning (1)
- Routenplanung (1)
- Routing (1)
- Routing- und Forwarding Tabellen (1)
- Rückfahrkamera (1)
- Rückwärtsfahrt (1)
- SAC (1)
- SIFT-Verfahren (1)
- SNMP (1)
- Sales Ageny (1)
- Sand (1)
- Scanmatching (1)
- Semantic Desktop (1)
- Semantik (1)
- Sesame (1)
- Shader (1)
- Shaderhochsprache (1)
- Simulations-Wiki (1)
- Skript (1)
- Skript <Programm> (1)
- Skriptsprache (1)
- SocSimNet (1)
- Socket (1)
- Socket-Schnittstelle (1)
- Software Engineering (1)
- Softwareentwicklung (1)
- Softwaremodellierung (1)
- Softwaretest (1)
- Softwaretesting (1)
- Spam-Mail (1)
- Specification (1)
- Spezifikation (1)
- Spiel (1)
- Spieleentwicklung (1)
- Spielkonsole (1)
- SpoGa (1)
- Stereografie (1)
- Stereoskopie (1)
- Szeneneditor (1)
- TGraphen (1)
- Tableau <Logik> (1)
- Tageslichtprojektor (1)
- Taktstraße (1)
- Tanzspiel (1)
- Tastatur (1)
- Tastatureingabeverhalten (1)
- Test Generation (1)
- Testgenerierung (1)
- Thunderbird <Programm> (1)
- Tiefenbild (1)
- Tiefenkarte (1)
- Ton (1)
- Tone Mapping (1)
- Tonemapping (1)
- Tonemapping-Verfahren (1)
- Trajektorien (1)
- Transferfunction (1)
- Transferfunktion (1)
- Transform Feedback (1)
- Transportschicht (1)
- UML Activity Diagrams (1)
- UML Aktivitätsdiagramm (1)
- USARSim (1)
- Universitäre Lehrveranstaltung (1)
- Universität Koblenz-Landau (1)
- Usability (1)
- Usage Rights Management (1)
- VHDL (1)
- Veranstaltung (1)
- Verbindungsschicht (1)
- Verwaltungsautomation (1)
- Video (1)
- Video-Installation (1)
- Videospielentwicklung (1)
- Virtual network user mode Linux (1)
- Virtuelle Welt (1)
- Virtueller Raum (1)
- Visualisierungstechniken (1)
- Visuelle Installation (1)
- Volume Rendering (1)
- Volumendaten (1)
- Volumenrendering (1)
- Volumenvisualisierung (1)
- W-LAN (1)
- Web Services (1)
- Webservice Sail (1)
- Weiterentwicklung (1)
- Wii (1)
- Wii-Balance Board (1)
- Wii-Kamera (1)
- Wiimote (1)
- Wireshark (1)
- X-Cosim (1)
- XTPeer (1)
- YAWL (1)
- andLinux (1)
- andLinux. (1)
- bachelor (1)
- backpropagation (1)
- bias (1)
- business process (1)
- colour calibration (1)
- computer science (1)
- depth map (1)
- diabetic retinopathy (1)
- disparity map (1)
- dreidimensionale Computergraphik (1)
- dynamic programming (1)
- eGroupware (1)
- edge linking (1)
- engine (1)
- game (1)
- geometry shader (1)
- image processing (1)
- information system (1)
- interactive (1)
- interaktiv (1)
- keystroke biometric recognition (1)
- master (1)
- medical image processing (1)
- medizinische Bilddaten (1)
- module handbook (1)
- morphological operators (1)
- multidimensional (1)
- networks (1)
- neural (1)
- path planning (1)
- physics (1)
- recurrent (1)
- reference meta model (1)
- relativity (1)
- retina fundus images (1)
- robotics (1)
- stereo vision (1)
- transform feedback (1)
- virtual network user mode linux (1)
- visualization (1)
- Öffentliche Verwaltung (1)
Institute
- Institut für Computervisualistik (76)
- Institut für Informatik (19)
- Institut für Softwaretechnik (13)
- Institut für Wirtschafts- und Verwaltungsinformatik (12)
- Fachbereich 4 (9)
- Institute for Web Science and Technologies (5)
- Institut für Integrierte Naturwissenschaften (3)
- An-Institute (1)
- Institut für Kulturwissenschaft (1)
Die Idee, die dieser Arbeit zugrunde liegt, ist es, die Augmented Reality auch in anderen Bereichen voranzutreiben. In der Filmindustrie beispielsweise behilft man sich schon seit langem mit sowohl virtuellen als auch realen Methoden (computergestützten Visualisierungen, Miniatur-Kulissen), um eine Vorvisualisierung der Dreharbeiten zu erhalten, welche zur Planung des Arbeitsablaufs verwendet werden können. Die Idee liegt hierbei darin, dass durch ein Werkzeug, welches sich der Augmented Reality bedient, zum Beispiel Belichtungsverhältnisse bereits im Voraus ausgetestet werden könnten, oder der Kameramann seine Einstellungen proben kann. So können hierfür mitunter virtuelle Objekte in eine Miniaturszene eingeblendet werden, mit denen die realen Voraussetzungen des Drehorts nachgeahmt werden. Um diese Vorstellung von einem Werkzeug für die Filmindustrie zu ermöglichen, wird ein gutes und stabiles Tracking benötigt, das die nötigen Eigenschaften zur Verfügung stellt. Um ein solches Trackingsystem geht es in dieser Studienarbeit.
Das Ziel dieser Arbeit ist die Entwicklung eines MP3-Players mit SD-Karten-Slot. Zudem soll er ein Farbdisplay besitzen und über eine komfortable Bedienmöglichkeit verfügen. In dieser Dokumentation wird die verwendete Hardware und ihr Zusammenspiel erklärt. Die für die Realisierung notwendige Software wird vorgestellt und deren Benutzung mithilfe von Codebeispielen verdeutlicht. Insbesondere wird auf die extra für dieses Projekt entworfenen Codebausteine eingegangen. Dies soll die Wiederverwendung der Bausteine in anderen Projekten vereinfachen.
In dieser Arbeit geht es darum, einen Einblick in das Thema Wireless LAN zu vermitteln. Es werden zunächst einmal die gängigsten Standards und weitere wichtige Aspekte aus diesem Bereich vorgestellt. Das Hauptaugenmerk dieser Arbeit liegt jedoch darauf, wie die Kommunikation in Funknetzwerken sicherer gestaltet werden kann. Im Zuge dessen werden einige Mechanismen vorgestellt, mit denen es möglich ist, die Kommunikation zu verschlüsseln oder nur bestimmte Teilnehmer an der Kommunikation teilnehmen zu lassen. Mit diesen Mechanismen ist es dann möglich eine hohes Maß an Sicherheit in Funknetzwerken zu erreichen. Abschließend wird in einem Tutorial beschrieben, wie die zuvor vorgestellten Mechanismen eingerichtet und angewendet werden können.
Im Vordergrund dieser Arbeit stehen die Geschäftsprozessmodelle und deren Überführung in das für eine Weiterverarbeitung in JGraLab benötigte TGraph-Format. Für die Modellierung der Geschäftsprozesse im SOAMIG-Projekt fiel die Auswahl, aus Gründen der Verbreitung und der Kompetenzen der SOAMIG-Partner, zugunsten der drei bereits erwähnten Modellierungssprachen UML Aktivitätsdiagramme, BPMN und EPK aus. Obwohl sich diese drei Notationen allesamt für die Erstellung von Geschäftsprozessmodellen bewährt haben und auch in Kombination in der Praxis eingesetzt werden, so differenzieren sie sich dennoch durch verschiedene Zielsetzungen bei ihrer Entwicklung. Die aufgrund der Zielsetzungen und der hohen Funktionsvielfalt resultierenden Unterschiede und Inkompatibilitäten der Sprachen untereinander bei der Modellierung von Geschäftsprozessen erschweren eine einheitliche Transformation nach JGraLab und die Behandlung der zu erhebenden Geschäftsprozessmodelle in JGraLab. Für jede Sprache müsste ein eigener Regelsatz und eine maßgeschneiderte Konvertierungsmöglichkeit festgelegt werden. Um eine sprach- und werkzeugunabhängige Geschäftsprozessmodellierung zu ermöglichen werden in dieser Arbeit zuerst die im SOAMIG-Projekt benötigten Sprachkonzepte und -elemente für die Modellierung von Geschäftsprozessen der UML Aktivitätsdiagramme, der BPMN und der EPK vorgestellt. Im nächsten Schritt werden notationsübergreifende Abbildungen der Srachkonzepte und -elemente aufeinander beschrieben, Defizite und Lücken der Sprachen aufgedeckt und durch eigene Auslegungen der Notationen gefüllt, und schließlich Metamodelle der drei Sprachen, aufgrund der gewonnen Erkentnisse sowie ein Referenzmetamodell auf Basis dieser Metamodelle erstellt und dargestellt. Im letzten Teil dieser Arbeit wird die exemplarische Realisierung eines Modell-zu-Referenzmodell Konverters auf Basis der BPMN und des Modellierungswerkzeuges BizAgi Process Modeler der Firma BizAgi Ltd vorgestellt, und der Lösungsansatz anhand des Beispiels eines Geschäftsprozesses validiert. Die Konvertierer ermöglichen die Abbildung eines Geschäftsprozessmodelles auf ein semantisch-äquivalentes Referenzmetamodell-konformes Modell, auf dessen Basis weitere Arbeitsschritte vor der/ für die Migration, unabhängig von der ursprünglich eingesetzten Modellierungssprache, definiert werden können.
Der Hokuyo URG-04LX Laserscanner wird auf der mobilen Roboterplattform "Robbie" der Arbeitsgruppe Aktives Sehen zur Kartenerstellung und Kollisionsvermeidung eingesetzt. Die Navigation auf Grundlage der 2D-Scans wird den gewachsenen Anforderungen der Rescue-Arenen nicht mehr gerecht. Eine Verwendung von kommerziellen 3D-Laserscannern kommt wegen der hohen Anschaffungskosten nicht in Frage. Idee: Einsatz von mehreren günstigen 2D-Laserscannern mit unterschiedlichen Blickwinkeln oder aber die aktive Veränderung der Scanebene. Das Variieren der Scanebene erfolgt durch Schwenken oder Drehen des Laserscanners. Die Orientierung des Laserscanners im Raum liefert die dritte Dimension. Im Rahmen dieser Arbeit soll eine Plattform entwickelt werden, die es durch rotative Lagerung des Laserscanners ermöglicht, 3D-Laserscans der Umgebung zu erzeugen. Hierbei soll ein möglichst einfacher Aufbau erreicht werden, der es weiterhin ermöglicht, den Laserscanner zur Erzeugung von 2D-Karten zu benutzen. Um das Stereokamerasystem des Roboters nicht zu beeinträchtigen, wird zusätzlich ein sehr kompakter Aufbau angestrebt.
iProcess
(2006)
Ziel dieser Studienarbeit war es, Erfahrungen in der Grafik- und Spieleprogrammierung zu sammeln. Als Grundidee kam dabei die Erstellung eines 3-dimensionalen Terrains auf. Solche Terrains werden heutzutage nicht nur in der Spielebranche eingesetzt, wo sie in beinahe jedem Genre vertreten sind, sondern auch z.B. in der Geologie zur Erstellung von Simulationen von Plattentektonik. Die simple Erstellung eines 3-dimensionalen Terrains wäre für eine Studienarbeit jedoch zu trivial, daher sollte das Terrain spezielle Anforderungen erfüllen. Zum einen sollte das Terrain dynamisch erzeugt werden, d.h. der Benutzer des Programms hat Einfluss darauf, wie sich das Terrain entwickelt. Dies sollte vorzugsweise spielerisch eingebracht werden. Zum anderen sollte das Terrain zufällig generiert werden. Dies bedeutet, dass keine vormodellierte Landschaft genutzt, sondern jede Erhebung/- Vertiefung des Terrains mittels Zufallsfaktoren erzeugt werden sollte. Zusätzlich sollte das Terrain endlos erzeugt werden. Bei einer Bewegung über das Terrain sollte also niemals ein Ende erreicht werden. Also auch keine Kreistrecke, sondern ein wirklich endloses und stets anders aussehendes Terrain. Desweiteren sollte es dem Benutzer møglich sein, ein Fluggerät über das Terrain zu steuern. Dies gab dann auch die Chance, aus der oben genannten dynamischen Anforderung ein spielerisches Element zu machen, indem der Benutzer das Terrain durch Einsammeln von sogenannten TerraformItems beeinflussen kann. Die Steuerung eines Fluggerätes spielt auch für die geforderte Endlosigkeit des Terrains eine wichtige Rolle, da diese ohne eine Möglichkeit der Fortbewegung gar nicht nachprüfbar wäre. Das Problem mit der Endlosigkeit ist dabei, dass kein System endlosen Speicher zur Verfügung hat um das Terrain komplett zu speichern und dem Benutzer somit die Option zu bieten, die gleiche Strecke zurückzufliegen. Eine Lösung für diese Problematik wäre bei einer Kehrtwende das Terrain auch rückwärts wieder neu zu generieren. Der Einfachheit halber sollte stattdessen ein komplette Kehrtwende einfach nicht zugelassen werden. Eine Kollisionserkennung musste dann natürlich auch implementiert werden. Zum einen weil das Fluggerät ja nicht einfach wie ein Geist durch das Terrain hindurchgleiten sollte, zum anderen muss das Programm ja irgendwie das Einsammeln der oben angesprochenen TerraformItem-Objekte registrieren können. Weitere Objekte wie Bäume oder Felsen sollten das Terrain optisch aufwerten. Zu guter Letzt sollte noch eine simple Benutzeroberfläche erstellt werden, um dem Benutzer diverse Bedienelemente und Rückmeldungen zu bieten. Damit sollte es z.B. auch möglich sein dass Terrain direkt zu verändern.
Das sichere Befahren von komplexen und unstruktierten Umgebungen durch autonome Roboter ist seit den Anfängen der Robotik ein Problem und bis heute eine Herausforderung geblieben. In dieser Studienarbeit werden drei Verfahren basierend auf 3-D-Laserscans, Höhenvarianz, der Principle Component Analysis (PCA) und Tiefenbildverarbeitung vorgestellt, die es Robotern ermöglichen, das sie umgebende Terrain zu klassifizieren und die Befahrbarkeit zu bewerten, sodass eine sichere Navigation auch in Bereichen möglich wird, die mit reinen 2-D-Laserscannern nicht sicher befahren werden können. Hierzu werden 3-D-Laserscans mit einem 2-D-Laserscanner erstellt, der auf einer Roll-Tilt-Einheit basierend auf Servos montiert ist, und gleichzeitig auch zur Kartierung und Navigation eingesetzt wird. Die einzeln aufgenommenen 2-D-Scans werden dann anhand des Bewegungsmodells der Roll-Tilt-Einheit in ein emeinsames 3-D-Koordinatensystem transformiert und mit für die 3-D-Punktwolkenerarbeitung üblichen Datenstrukturen (Gittern, etc.) und den o.g. Methoden klassifiziert. Die Verwendung von Servos zur Bewegung des 2-D-Scanners erfordert außerdem eine Kalibrierung und Genauigkeitsbetrachtung derselben, um zuverlässige Ergebnisse zu erzielen und Aussagen über die Qualität der 3-D-Scans treffen zu können. Als Ergebnis liegen drei Implementierungen vor, welche evolutionär entstanden sind. Das beschriebene Höhenvarianz-Verfahren wurde im Laufe dieser Studienarbeit von einem Principle Component Analysis basierten Verfahren, das bessere Ergebnisse insbesondere bei schrägen Untergründen und geringer Punktdichte bringt, abgelöst. Die Verfahren arbeiten beide zuverlässig, sind jedoch natürlich stark von der Genauigkeit der zur Erstellung der Scans verwendeten Hardware abhängig, die oft für Fehlklassifikationen verantwortlich war. Die zum Schluss entwickelte Tiefenbildverarbeitung zielt darauf ab, Abgründe zu erkennen und tut dies bei entsprechender Erkennbarkeit des Abgrunds im Tiefenbild auch zuverlässig.
Im Rahmen der Glaukomdiagnostik sind Größe und Position des Sehnervkopfes wichtige Parameter zur Klassifikation des Auges. Das Finden und exakte Markieren der Papille ist ein subjektiver Vorgang und kann von Arzt zu Arzt stark variieren. Ziel der Arbeit ist die Entwicklung eines automatischen Verfahrens zur Detektion der Papille. Zunächst wird der medizinische Hintergrund erläutert (Aufbau des Auges, Glaukom) und das bildgebende Verfahren, der Heidelberg Retina Tomograph, dargestellt. Nach einer Diskussion bisheriger Ansätze zur Detektion der Papille wird ein eigenes Verfahren entwickelt und detailliert beschrieben. Für bei der Implementation aufgetretene Probleme werden Ansätze zur Optimierung vorgeschlagen.
In Zeiten, in denen ein Notebook so selbstverständlich wie ein Taschenrechner ist und als Arbeitsgerät, oder zur Kommunikation bzw. Recherche im Internet genutzt wird, ist es für Gäste von enormem Vorteil, schnell und unkompliziert einen Zugriff auf die vorhandene Netzinfrastruktur einer gastgebenden Firma zu erlangen. Dies erspart einerseits Arbeitsaufwand von Seiten der Administratoren, bzw. wenn es sich um eine kleinere Firma handelt, die nicht über eine eigene IT-Abteilung verfügt, ermöglicht es, ohne die Dienste von Dritten in Anspruch zu nehmen, einen zeitlich begrenzten Zugang für Gäste. Andererseits lassen sich Kosten für die sonst nötigen Arbeitsschritte einsparen, und die Administratoren können sich ihren eigentlichen Aufgaben widmen. Und das Ganze unabhängig von Arbeits- und Urlaubszeiten, frei von lästigen Formalitäten und ohne Vorlaufzeit, um nur einige der Vorteile gegenüber einer manuellen Freischaltung zu nennen. Ein weiterer wichtiger Punkt ist, dabei die Sicherheit der IT-Netzinfrastruktur nicht zu beeinträchtigen. Ein spontaner Zugang sollte zeitlich begrenzt (z.B. für die Dauer einer Veranstaltung) und personenbezogen sein. Genau diese Funktionalität ermöglicht das in diesem Projekt entwickelte SpoGA-System.
Diese Arbeit behandelt verschiedene Ansätze zur Ermittlung einer Heuristik, welche zur Bestimmung einer optimalen Konfiguration des Theorembeweisers E-KRHyper eingesetzt werden soll. Es wird erläutert, wie der Beweiser durch eine angepasste Voreinstellung optimiert werden kann und die erarbeiteten Ansätze zur Ermittlung dieser Voreinstellung werden vorgestellt. Anhand der erzielten Ergebnisse werden die Ansätze anschließend bewertet und für eines der vorgestellten Verfahren wird außerdem eine Idee zur Implementierung vorgestellt.
Headtracking mit Wii-Cam
(2010)
Ziel der Studienarbeit war es, mit der Kamera aus der Wii-Fernbedienung die Kopfbewegungen eines Menschen anhand von Infrarot-LEDs bestimmen zu können. Daraus sollte dann die Blickrichtung des Menschen ermittelt und in einem kleinen Demonstrationsprogramm dargestellt werden. Besondere Herausforderung dabei war das mathematische Problem zur Errechnung der Kopfbewegung. Der erste Ansatz scheiterte, da sich die einzelnen Bewegungen gegenseitig bedingten. Deshalb wurde als Lösungshilfe der POSIT-Algorithmus von DeMenthon hinzugezogen. Er macht es möglich von einem bekannten Objekt die Rotationsmatrix zu bestimmen. Daraus können dann die einzelnen Drehungen des Kopfes berechnet werden. Der OpenGL-Raum ist natürlich nur ein Beispiel für eine Anwendung des Programms. Man könnte es auch für viele andere Anwendungen benutzen, wie beispielsweise für Flugsimulationen. Außerdem wird die Möglichkeit geboten, das LED-Objekt zu ändern und gegebenfalls zu optimieren. Durch die zusätzliche Ausgabe der Translation ist dieses Programm außerdem sehr gut für Weiterentwicklungen geeignet.
Die Diffusions-Tensor-Bildgebung (DTI) ist eine Technik aus der Magnet-Resonanz-Bildgebung (MRI) und basiert auf der Brownschen Molekularbewegung (Diffusion) der Wassermoleküle im menschlichen Gewebe. Speziell im inhomogenen Hirngewebe ist die Beweglichkeit der Moleküle stark eingeschränkt. Hier hindern die Zellmembranen der langgestreckten Axone die Diffusion entlang nicht-paralleler Richtungen. Besonderen Wert hat die Diffusions-Tensor-Bildgebung in der Neurochirugie bei der Intervention und Planung von Operationen. Basierend auf den mehrdimensionalen DTI-Tensor-Datensätzen kann für den jeweiligen Voxel das Diffsusionsverhalten abgeleitet werden. Der größte Eigenvektor des Tensors bestimmt dabei die Hauptrichtung der Diffusion und somit die Orientierung der entsprechenden Nervenfasern. Ziel der Studienarbeit ist die Erstellung einer Beispielapplikation zur Visualisierung von DTI-Daten mit Hilfe der Grafikhardware. Dazu werden zunächst die relevanten Informationen für die Erzeugung von geometrischen Repräsentationen (Streamlines, Tubes, Glyphen, Cluster...) aus den Eingabedaten berechnet. Für die interaktive Visualisierung sollen die Möglichkeiten moderner Grafikhardware, insbesondere Geometryshader ausgenutzt werden. Die erzeugten Repräsentationen sollen nach Möglichkeit in ein DVR (Cascada) integriert werden. Für die Arbeit wird eine eigene Applikation entwickelt, die bestehende Bausteine (Volumenrepräsentation, Volumenrendering, Shadersystem) aus Cascada analysiert und integriert.
Das performante Rendering großer Volumendaten stellt trotz stetig gestiegener Prozessorleistungen nach wie vor hohe Anforderungen an jedes zugrunde liegende Visualisierungssystem. Insbesondere trifft dies auf direkte Rendering-Methoden mithilfe des Raycasting-Verfahrens zu, welches zum einen eine sehr hohe Qualität und Genauigkeit der generierten Bilder bietet, zum anderen aber aufgrund der dafür nötigen hohen Abtastrate relativ langsam ist. In dieser Studienarbeit wird ein Verfahren zur Beschleunigung des Raycasting- Visualierungsansatzes vorgestellt, das auf adaptivem Sampling beruht. Dabei werden statische Volumendaten zunächst in einem Vorverarbeitungsschritt einer Gradientenanalyse unterzogen, um so ein Interessensvolumen zu erstellen, das wichtige und weniger wichtige Bereiche kennzeichnet. Dieses Volumen wird anschließend von einem Raycaster genutzt, um adaptiv für jeden Abtaststrahl die Schrittweite zu bestimmen.
XDOMEA-Fachkonzept
(2006)
Die AG "IT-gestützte Vorgangsbearbeitung" des Kooperationsausschusses Automatisierte Datenverarbeitung (koopA ADV) hat zur Verwirklichung der Interoperabilität in der öffentlichen Verwaltung den Datenaustauschstandard XDOMEA entwickelt. Das vorliegende Dokument beschreibt das Fachkonzept zur XML-Schema-Spezifikation. Es wendet sich vorrangig an verantwortliche Organisatoren im IT-Bereich und an potentielle Anwender von XDOMEA. In diesem Dokument werden Hintergründe, Einsatzmöglichkeiten und Informationen zum Einsatzgebiet von XDOMEA erläutert, die Vorteile des Standards diskutiert und Erweiterungsmöglichkeiten vorgestellt. Weiters werden Beteiligungs- und Protokollinformationen spezifiziert und detailliert. Zu diesem Zweck werden verschiedene Szenarien erarbeitet, die anhand von Prozessmodellen die praktische Anwendung des Standards veranschaulichen. Gleichzeitig werden die Möglichkeiten fachspezifischer Erweiterungen im Standard verdeutlicht und Grenzen der Anwendung aufgezeigt.
Diese Studienarbeit soll eine Einführung in die Arbeit mit virtual network user mode linux (VNUML) geben. Mit Hilfe dieser Arbeit möchte ich speziell die Version VNUML 1.6 näher bringen und die wesentlichen Unterschiede, Vor- und Nachteile zur Version 1.5 zeigen. In den nächsten zwei Kapiteln wird auf das Thema VNUML und UML oberflächlich eingegangen. Das darauffolgende Kapitel befasst sich mit der Installation von VNUML 1.6, der Vorraussetzung und den möglichen Fehlermeldungen. Wenn dies abgeschlossen ist, wird VNUML 1.6 mit eigenen Beispielen ausfürlich, praktisch und theoretisch vorgestellt. Danach werden die wesentlichen Unterschiede von VNUML 1.5 zu VNUML 1.6 beschrieben. Zum Abschluss sind noch ein Kapitel mit kurzen Begriffsdefinitionen und der Anhang mit allen XML-Dateien zu finden. Auf den Aufbau einer XML-Datei möchte ich in meiner Arbeit nicht weiter eingehen. Dazu verweise ich auf die Arbeit von Thomas Chmielowiec und Tim Keupen. In diesen Arbeiten sind die XML-Syntax und Semantik ausfürlich beschrieben.
This thesis introduces fnnlib, a C++ library for recurrent neural network simulations that I developed between October 2009 and March 2010 at Osaka University's Graduate School of Engineering. After covering the theory behind recurrent neural networks, backpropagation through time, recurrent neural networks with parametric bias, continuous-time recurrent neural networks, and echo state networks, the design of the library is explained. All of the classes as well as their interrelationships are presented along with reasons as to why certain design decisions were made. Towards the end of the thesis, a small practical example is shown. Also, fnnlib is compared to other neural network libraries.