Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (270)
- Bachelorarbeit (229)
- Dissertation (224)
- Diplomarbeit (169)
- Studienarbeit (127)
- Masterarbeit (97)
- Bericht (8)
- Sonstiges (5)
- Buch (Monographie) (4)
- Wissenschaftlicher Artikel (1)
Sprache
- Deutsch (1136) (entfernen)
Volltext vorhanden
- ja (1136) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Augmented Reality (14)
- Bildverarbeitung (12)
- Simulation (10)
- Computergrafik (9)
- Robotik (9)
- Computergraphik (8)
- Computersimulation (8)
- Computervisualistik (8)
- Routing (8)
Institut
- Institut für Computervisualistik (282)
- Fachbereich 4 (180)
- Zentrale Einrichtungen (175)
- Institut für Wirtschafts- und Verwaltungsinformatik (94)
- Institut für Management (86)
- Institut für Informatik (62)
- Institut für Softwaretechnik (39)
- Fachbereich 8 (27)
- Fachbereich 5 (25)
- Fachbereich 7 (21)
Fristete der Computer vor wenigen Jahrzehnten sein Dasein noch in Rechenzentren weniger, großer Universitäten und Firmen, so sind Computer und deren Rechenleistung heute allgemein verbreitet. Gerade in den letzten Jahren hat dabei auch die computergenerierte Bilderzeugung große Fortschritte gemacht, und die Entwicklung hält rasant an. Auf diese Weise erzeugte Bilder und Bildsequenzen sind aus den visuellen Medien nicht mehr wegzudenken, sie werden in denmeisten Film- oder Fernsehproduktionen eingesetzt. Dokumentationen, Wissenssendungen und Nachrichtenformate setzen solche Bilder zur Vermittlung von Inhalten ein. Spezialeffekte werden Filmen mit dem Computer hinzugefügt. Ausschließlich mit dem Rechner erstellte Filme, deren Entwicklung vor ungefähr dreißig Jahren mit einfachen und kurzen Sequenzen begann, stehen heute realen Filmen in Länge, visueller und erzählerischer Qualität kaum noch nach. Doch nicht nur bei der Erstellung von Filmen ist der Computer nicht mehr wegzudenken. Computerspiele stellen in vielen Bereichen die treibende Kraft hinter der Computerentwicklung dar. Sie sind die "Killerapplikation", denn es sind vor allem Spiele, die zur Zeit nach leistungsfähigeren Computerkomponenten für Heimcomputer,wie Prozessoren und Graphikkarten, verlangen. Auch die visuelle Qualität von Computerspielen nimmt stetig zu, und hat ein sehr realitätsnahes Niveau erreicht. Ob Dokumentation, Film oder Spiel, die Erzeugung computergenerierten Inhalts besteht aus vielen Teilen. Die Erzeugung der Bilder ist nur ein kleiner Teil davon. Der Begriff Computeranimationwird oft für den gesamten Prozess der Erstellung eines Films im Computer verwendet. Im Speziellen beschäftigt sich die Animation mit der Bewegung. Die Erstellung von Bewegungsabläufen wird für Animationsfilme, Computerspiele und auch für Spezialeffekte in realen Filmen benötigt. Heute existiert eine Vielzahl von Programmen und Werkzeugen, welche die Erstellung von Animationen im Computer ermöglichen. Verbreitete Applikationen wie MAYA1, LIGHTWAVE2 oder BLENDER3 stützen sich dabei auf grundlegende Konzepte, die hinter der Erstellung von Animationssequenzen im Computer stehen. Die Arbeit setzt sich mit diesen Grundlagen auseinander und entwickelt darauf aufbauend einen Animationseditor, der die notwendige Funktionalität für die Erstellung von Animationssequenzen bereitstellt.
Erweiterung der Spielegraphik von Cam2Dance durch den Einsatz von Shadern und komplexen Modellen
(2006)
Die Visualisierung von Volumendaten ist ein interessantes und aktuelles Forschungsgebiet. Volumendaten bezeichnen einen dreidimensionalen Datensatz, der durch Simulation oder Messungen generiert wird. Mit Hilfe der Visualisierung sollen interessante bzw. in einem gewissen Kontext bedeutsame Informationen aus einem Datensatz extrahiert und grafisch dargestellt werden. Diese Arbeit konzentriert sich auf die Visualisierung von Volumendaten, die in einem medizinischen Kontext erstellt worden sind. Dabei handelt es sich z.B. um Daten, die durch Computertomographie oder Magnet-Resonanz-Tomographie gewonnen wurden. Bei der Darstellung von Volumendaten hat man mehrere Möglichkeiten, welche Art von Beleuchtungsmodellen man einsetzen möchte. Ein Beleuchtungsmodell beschreibt, welche Art von Licht verwendet werden soll und wie dieses mit dem Volumendatensatz interagiert. Die Beleuchtungsmodelle unterscheiden sich in ihrer physikalischen Korrektheit und somit in ihrer Darstellungsqualität. Das einfachste Beleuchtungsmodell zieht keine Lichtquellen in Betracht. Das Volumen verfügt in diesem Fall nur über ein "Eigenleuchten" (Emission). Der Nachteil hierbei ist, dass z.B. keinerlei Schatten vorhanden sind und es somit schwierig ist, räumliche Tiefe zu erkennen. Ein Vorteil des Verfahrens ist, dass die benötigten Berechnungen sehr einfach sind und somit in Echtzeit ausgeführt werden können. Unter einem lokalen Beleuchtungsmodell hingegen versteht man ein Modell, bei dem das Licht berücksichtigt wird, welches direkt von der Lichtquelle auf den Volumendatensatz trifft. Hierbei können z.B. Schatten dargestellt werden, und der Betrachter kann eine räumliche Tiefe in der Darstellung erkennen. Der Berechnungsaufwand steigt, das Verfahren ist aber immer noch echtzeitfähig. Volumendaten haben aber die Eigenschaft, dass sie einen Teil des Lichts, welches durch sie hindurchgeht, in verschiedene Richtungen streuen. Dabei spricht man von indirektem Licht. Um sowohl das direkte als auch das indirekte Licht zu berücksichtigen, muss man eine sogenannte globale Beleuchtungssimulation durchführen. Es ist das am aufwendigsten zu berechnende Beleuchtungsmodell, führt aber zu photorealistischen und physikalisch korrekten Ergebnissen, denn eine globale Beleuchtungssimulation errechnet eine (angenähert) vollständige Lösung des in Abschnitt 4.2 vorgestellten Volumen-Rendering-Integrals (Gleichung (8)).
Das performante Rendering großer Volumendaten stellt trotz stetig gestiegener Prozessorleistungen nach wie vor hohe Anforderungen an jedes zugrunde liegende Visualisierungssystem. Insbesondere trifft dies auf direkte Rendering-Methoden mithilfe des Raycasting-Verfahrens zu, welches zum einen eine sehr hohe Qualität und Genauigkeit der generierten Bilder bietet, zum anderen aber aufgrund der dafür nötigen hohen Abtastrate relativ langsam ist. In dieser Studienarbeit wird ein Verfahren zur Beschleunigung des Raycasting- Visualierungsansatzes vorgestellt, das auf adaptivem Sampling beruht. Dabei werden statische Volumendaten zunächst in einem Vorverarbeitungsschritt einer Gradientenanalyse unterzogen, um so ein Interessensvolumen zu erstellen, das wichtige und weniger wichtige Bereiche kennzeichnet. Dieses Volumen wird anschließend von einem Raycaster genutzt, um adaptiv für jeden Abtaststrahl die Schrittweite zu bestimmen.
Die Planung in Form eines visuellen Entwurfs ist schon seit jeher Bestandteil des Prozesses der Entwicklung von Artefakten aller Art. Heutzutage wird der visuelle Entwurf zukuenftiger Produkte mithilfe von CAD-Systemen umgesetzt. Im ersten Teil der Arbeit wird daher ein einfaches System implementiert und erlaeutert, das die grundlegenden Funktionen umsetzt, die auch in professionellen CAD-Systemen unerlaesslich sind. Im zweiten Teil werden ueber die Grundfunktionen hinaus ausgewaehlte Algorithmen der parametrischen Modellierung vorgestellt, die die Grundlage fuer die leistungsfaehigen, flexiblen und produktiven Systeme im modernen computer-unterstuetzten Entwurf bilden.
Das Ziel dieser Arbeit war die Verbesserung einer Positions- und Orientierungsangabe einer Kamera mit Hilfe von bildbasierten Registrierungsverfahren. Des Weiteren sollte herausgefunden werden, inwieweit eine Beschleunigung der Registrierung erreicht werden kann, wenn die Berechnung der Abstandsmaße auf den Grafikprozessor ausgelagert wird. Für das in dieser Arbeit angestrebte System sollte herausgefunden werden, ob und in welchem Maße eine Verbesserung der ursprünglichen Positionsangabe eingetreten ist. Mit dieser Arbeit wurde erreicht, dass ein lauffähiges und in zahlreichen Tests evaluiertes System unter dem Betriebssystem Linux zur Verfügung steht.
In dieser Arbeit geht es darum, einen Einblick in das Thema Wireless LAN zu vermitteln. Es werden zunächst einmal die gängigsten Standards und weitere wichtige Aspekte aus diesem Bereich vorgestellt. Das Hauptaugenmerk dieser Arbeit liegt jedoch darauf, wie die Kommunikation in Funknetzwerken sicherer gestaltet werden kann. Im Zuge dessen werden einige Mechanismen vorgestellt, mit denen es möglich ist, die Kommunikation zu verschlüsseln oder nur bestimmte Teilnehmer an der Kommunikation teilnehmen zu lassen. Mit diesen Mechanismen ist es dann möglich eine hohes Maß an Sicherheit in Funknetzwerken zu erreichen. Abschließend wird in einem Tutorial beschrieben, wie die zuvor vorgestellten Mechanismen eingerichtet und angewendet werden können.
Diese Studienarbeit soll eine Einführung in die Arbeit mit virtual network user mode linux (VNUML) geben. Mit Hilfe dieser Arbeit möchte ich speziell die Version VNUML 1.6 näher bringen und die wesentlichen Unterschiede, Vor- und Nachteile zur Version 1.5 zeigen. In den nächsten zwei Kapiteln wird auf das Thema VNUML und UML oberflächlich eingegangen. Das darauffolgende Kapitel befasst sich mit der Installation von VNUML 1.6, der Vorraussetzung und den möglichen Fehlermeldungen. Wenn dies abgeschlossen ist, wird VNUML 1.6 mit eigenen Beispielen ausfürlich, praktisch und theoretisch vorgestellt. Danach werden die wesentlichen Unterschiede von VNUML 1.5 zu VNUML 1.6 beschrieben. Zum Abschluss sind noch ein Kapitel mit kurzen Begriffsdefinitionen und der Anhang mit allen XML-Dateien zu finden. Auf den Aufbau einer XML-Datei möchte ich in meiner Arbeit nicht weiter eingehen. Dazu verweise ich auf die Arbeit von Thomas Chmielowiec und Tim Keupen. In diesen Arbeiten sind die XML-Syntax und Semantik ausfürlich beschrieben.
Dynamisches Tone Mapping einer High Dynamic Range Echtzeit 3D-Umgebung mit der Grafik Hardware
(2007)
Seit dem 01. November 2005 ist in Deutschland der neue Reisepass erhältlich. Ein wesentliches Merkmal dieses neuen Passes ist die Einbindung von biometrischen Merkmalen, um den Besitzer des Dokumentes zu verifizieren. In anderen Bereichen, wie zum Beispiel der Abwicklung von Vielfliegern an einem Flughafen, halten ähnliche biometrisch gestützte Verfahren Einzug. Weitere Anwendungsmöglichkeiten wären die Absicherung des eigenen Arbeitsplatzes gegen den Zugriff unbefugter Personen, die Verfolgung von Straftätern oder die Verifikation eines Benutzers innerhalb des Internets. Der Wunsch nach Sicherheit in vielen Sektoren steigt zunehmend. Ein Weg, diese Sicherheit zu bieten, ergibt sich aus den Eigenschaften, die einen Menschen selbst als Unikat auszeichnen. Das Ziel dieser Studienarbeit besteht darin, sich das persönliche Verhalten eines Menschen im Umgang mit einer Tastatur zunutze zu machen, um eine Aussage treffen zu können, inwiefern eine Benutzereingabe mit einer vorher generierten Vergleichseingabe übereinstimmt. Der Schwerpunkt liegt dabei in der Erstellung eines Programms, welches in der Lage ist, verschiedene Parameter während einer Benutzereingabe zu sammeln, auszuwerten und zu sichern, um den entsprechenden Benutzer zu jeder beliebigen Zeit wieder anhand der abgespeicherten Informationen erkennen zu können. Dabei wird darauf geachtet, dass die entstehende Software auf möglichst vielen bestehenden Systemen ohne größere Probleme angewendet werden kann.
Der an der Universität Koblenz-Landau entwickelte RIP-MTI-Algorithmus stellt eine Modifikation des Routingalgorithmus RIP dar, die es dem RIP-Algorithmus ermöglichen soll, die Häufigkeit des Auftretens des Counting-to-infinity-Problems (CTI) zu reduzieren. Um die Korrektheit und Zuverlässigkeit dieses Algorithmus nachweisen, aber auch Schwächen aufdecken zu können, bedarf es der Möglichkeit, das Verhalten des Algorithmus zu testen. Ziel der Arbeit ist die Nutzbarmachung der von unter VNUML laufenden RIP-Routern dezentral verwalteten Routing-Informationen, um die Entstehung von CTIs zentral protokollieren und analysieren zu können. Zu diesem Zweck wird eine Software entwickelt, die Informationen zur Netzkonfiguration, zu Erreichbarkeiten und Update-Aufkommen sammelt, verwaltet und analysiert. So können neben den bereits bekannten problematischen Netztopologien weitere für die einzelnen RIP-Ausprägungen problematische Topologien ermittelt werden.
Ziel des Verbundprojektes 3D-RETISEG ist es, ein optimiertes echtzeitfähiges Soft- und Hardwarepaket zur 2D/3D-Segmentierung und Klassifizierung basierend auf hierarchischen Inselstrukturen, und zur schnellen Volumenvisualisierung sehr großer Volumendaten aus komprimierten Datensätzen zu entwickeln. Die Entwicklungen sollen in konkreten Anwendungsfällen der Forschung und der Wirtschaft als marktreifes Modul in das Softwarepaket VGStudioMax integriert werden. In der Medizin, speziell bei der Segmentierung von Volumendatensätzen, die durch unterschiedliche Tomographietechniken (z.B. CT und MRI) erzeugt werden, liefern zweidimensionale Verfahren häufig eine unzureichende Qualität aufgrund der anisotropen Berücksichtigung der Rauminformationen. Bisher entwickelte dreidimensionale Verfahren sind, neben der der schlechten Verfügbarkeit ihrer Implementierungen, häufig nur für bestimmte Fragestellungen dediziert und daher für andere Anwendungsfälle schlecht adaptierbar. Weiterhin benötigen Verfahren, die gute Ergebnisse liefern, meist eine hohe Laufzeit. Dies ist aber speziell in medizinischen Anwendungen von großem Nachteil, da hier die Qualität der Ergebnisse in letzter Instanz von einem Experten beurteilt wird. Damit das Ergebnis schnell zu benutzerdefinierten Optimierungen durch Veränderung der Verfahrensparameter zur Verfügung steht, sollte ein Verfahren nur sehr kurze Rechenzeiten benötigen. Weist ein Verfahren eine geringe Laufzeit auf, so kann es außerdem intra-operativ eingesetzt werden. Der hier im Projekt verwendete 3D-Color-Structure-Code verspricht, ein besseres und generisches Verfahren zu ermöglichen.
Mit dieser Arbeit werden die folgenden Ziele verfolgt: Eine repräsentative Auswahl und Sammlung von Beispielen für Mobile Ticketing Systeme (insbesondere aus dem deutschsprachigen Raum) zu recherchieren, die sich im praktischen Einsatz befinden. Eine Zusammenstellung sinnvoller Kategorien (Charakteristika) zu erarbeiten, anhand derer sich Mobile Ticketing Systeme unterscheiden oder strukturieren lassen. Eine Gegenüberstellung der Beispiele und Kategorien zu erstellen, um zu untersuchen, welche typischen Klassen bei Mobile Ticketing Systemen identifiziert werden können.
In dieser Studienarbeit wird ein Partikelsystem zur Feuersimulation vorgestellt, sowie die wichtigsten verwendeten Techniken.(z.B. FBO's, VBO's, MRT, etc...) Das Partikelsystem ist ausschliesslich auf der GPU implementiert, ist damit eine GPGPU Anwendung, und verwendet neuste Techniken, wie zum Beispiel Texturzugriffe im Vertexshader. Nach einem Überblick über verschiedene Arten von Partikelsystemen, werden auch viele nötige Techniken erklärt, bevor die eigentliche Implementation und das Programm dargelegt werden.
Im Rahmen dieser Arbeit wird eine Clusteranalyse-Umgebung durch Kopplung bestehender Lösungen entwickelt. Um Clusteranalysen auf Softwareelementen durchführen zu können, wird eine Software zur Clusteranalyse an das bestehende Reverse Engineering Tool GUPRO zur Extraktion von Informationen aus Softwareartefakten, wie z.B. Quellcode-Dateien, gekoppelt. Die entstehende Clusteranalyse-Umgebung soll alle Services einer Clusteranalyse auf Softwareelementen unter einer Oberfläche vereinen. Wichtiger Bestandteil der Arbeit ist sowohl die Aufbereitung der theoretischen Grundlagen der Clusteranalyse mit Blickpunkt auf das Softwareclustering, als auch ein strukturierter Auswahlprozess der für die zu entwickelnde Umgebung verwendeten Software zur Clusteranalyse. Letztendlich soll der Funktionalitätsumfang der Clusteranalyse-Umgebung auf ein im Voraus, in Form einer Anforderungsdefinition, festgelegtes Maß angehoben werden.
In den folgenden acht Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptographischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, besprechen im Detail den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens. Das erste Beispiel der Verschlüsselungsprotokolle ist noch nicht sehr konkret, sondern es bildet die Grundlage der folgenden Beispiele. Denn jede Anwendung setzt eines der beiden Typen von Verschlüsselungsprotokollen ein, die im ersten Beispiel erklärt werden. Dann folgen die Beispiele Sicheres World Wide Web mit SSL, die Verschlüsselung der Luftschnittstelle im Mobilfunk, die sichere Identifikation des Karteninhabers einer ec-Karte am Geldauszahlungsautomaten, der Schutz von WLANs gegen fremde Lauscher und Eindringlinge, die sichere Identifikation elektronischer Schlüssel, darunter der Funkschlüssel bei Autotüren, das kontaktlose Flugticket zum Ausdrucken einer Boardingkarte und schließlich die Verschlüsselung im Pay-TV. Die Beschreibung der kryptografischen Anwendungen dieses Kapitels wird in einem Arbeitspapier des Instituts für Wirtschafts- und Verwaltungsinformatik der Universität Koblenz-Landau weitergepflegt und dort stets aktuell zum Download bereitgehalten [Grimm, Hundacker, Meletiadou 2006]. http://www.uni-koblenz.de/FB4/Institutes/IWVI/AGGrimm/Downloads
Die folgende Arbeit soll einen Überblick über bestehende Lösungen zur Interaktion in Erweiterten Realitäten (Augmented Reality) schaffen. Hierzu werden anhand dreier grundlegender Betrachtungsweisen unterschiedliche Interaktionskonzepte und -umsetzungen sowohl von der technischen, als auch von der konzeptuellen Seite her, vorgestellt. Neben Fragen der Visualisierung werden unterschiedliche Typen von Benutzungsschnittstellen vorstellt. Den größten Teil nehmen die drei typischen Interaktionsaufgaben Selektion- und Manipulation, Navigation und Systemkontrolle und die damit verbundenen Interaktionstechniken ein. Die Inhalte des Arbeitsberichts beschränken sich auf den Einsatz von Interaktionelementen in Augmented Reality Umgebungen. Dies geschieht in Abgrenzung zu Forschungsarbeiten auf dem Gebiet zu Interaktionstechniken in Virtual Reality Umgebungen (vollimmersiv oder auch desktoporientiert). Zwar standen und stehen viele Interaktionstechniken aus dem Bereich VR in der AR Pate, doch haben sich gerade im Bereich der AR neue Techniken und Konzepte entwickelt. Folglich sollen VR Techniken nur dann betrachtet werden, wenn Sie in AR Anwendungen angewendet wurden bzw. wenn ihre Anwendung sinnvoll erscheint.
Unternehmen in Netzwerken
(2007)
Konzept und Umsetzung eines E-Learning Nähkurses mit Integration von 3D-Modellen und Animationen
(2007)
Die Vorlesung "Datenbanken für Informationsmanager" am Campus Koblenz der Universität Koblenz-Landau behandelte u.a. den Themenkomplex "Funktionale Abhängigkeiten und Normalisierung relationaler Datenbanken". Hierzu wird ein webbasiertes, multimediales Lernprogramm entwickelt, das den Studenten die Möglichkeit bieten soll, praktische Fertigkeiten in der Anwendung der behandelten Algorithmen zu festigen und auszubauen. Die Arbeit beschreibt das entwickelte Lernmodul und beschäftigt sich dabei mit didaktischen Theorien und Konzepten, deren Anwendung im Kontext des webbasierten Trainings und deren Umsetzung im Lernmodul Normalisierung. Darüber hinaus wird die Architektur und die Implementierung der Software erläutert sowie weitere Anwendungs- und Einsatzmöglichkeiten des Programms bzw. seiner Funktionalität beschrieben.
Ziel dieser Studienarbeit ist es, eine vorhandene video-see-through Augmented Reality Visualisierung (ARToolKit) anhand von Shaderprogrammierung mit der OpenGL Shading Language um nicht-photorealistische Renderingverfahren zu ergänzen. Dabei sollen nicht nur die virtuellen Objekte mit diesen Verfahren dargestellt, sondern auch die realen vom ARSystem gelieferten Bilder analog stilisiert werden, sodass die Unterscheidbarkeit zwischen Realität und Virtualität abnimmt.
Ziel der vorliegenden Studienarbeit war die Darstellung von Sand. Dabei wurde der Schwerpunkt weniger auf realitätsgetreue Visualisierung gelegt, sondern es wurde primär versucht, den Eindruck von fließendem Sand zu vermitteln. Dieser sollte durch die Simulation von Fließverhalten und Aufschüttung des Sandes erreicht werden. Modelliert werden die einzelnen Körner mithilfe eines Partikelsystems. Da die Simulation von Sand sehr aufwändig ist, sollten für diese Studienarbeit effiziente Datenstrukturen und Algorithmen für die Verwaltung der Sandkörner entwickelt werden. Die Kollisionserkennung ist bei derartigen Datenmengen ebenfalls sehr zeitraubend. Deshalb sollten auch hierfür geeignete Algorithmen erstellt werden. Um die Ergebnisse der Arbeit zu demonstrieren, sollte eine entsprechende, graphisch ansprechende Beispielanwendung implementiert werden.
Rescueanalyser
(2007)
Im Forschungsgebiet der Künstlichen Intelligenz und Multiagenten-Systeme stellt die Erkennung von Plänen eine besondere Herausforderung dar. Es gilt aus einer Menge von Beobachtungen Agentenpläne effektiv, zuverlässig und eindeutig zu identifizieren. Im Bereich des RoboCup ist es von entscheidender Bedeutung, dass Agenten über die Pläne und Intensionen anderer Agenten schlussfolgern können, um gemeinsame Ziele zu erreichen. Diese Diplomarbeit umfasst die Konzeption und Entwicklung eines Werkzeugs für die RoboCupRescue-Simulation, welches die Abläufe einer Rescue-Simulation analysiert und die beobachteten Aktionsfolgen Plänen einer vorspezifizierten Planbibliothek zuordnet. Das entwickelte Analysewerkzeug zeichnet sich einmal durch seine Unabhängigkeit von den verschiedenen Rescue-Agententeams aus, sowie durch die Verwendung neuester Methoden zur effektiven Planerkennung. Damit ermöglicht der entwickelte Rescueanalyser sowohl die Fehlersuche und Optimierung des eigenen Agententeams als auch die Erforschung und Auswertung unterschiedlicher Strategien der Rescue-Agenten konkurrierender Teams. Neben der Visualisierung der Ergebnisse mittels eines optimierten Monitors des Rescue-Simulators, können die Resultate und Auswertungen der Planerkennung auch durch textbasierte Ausgaben detailliert eingesehen werden.
Im Rahmen dieser Studienarbeit wurde zunächst ein State of the Art Bericht über fünf Softwareprodukte zur Visualisierung und Gestaltung von Oberflächenentwürfen erstellt. Aufbauend auf den daraus gewonnen Erkenntnissen wurde eine Benutzungsoberfläche entwickelt, mit welcher mittels eines Grafiktabletts oder Tablet PC erste Oberflächenentwürfe gestaltet werden können.
Im Rahmen dieser Studienarbeit wird eine Software zur Demonstration der Fähigkeiten eines Gaze Trackers beschrieben und im praktischen Teil auch implementiert. Den Anfang macht ein Überblick über vorhandene Anwendungen an der Universität Koblenz, sowie in der freien Wirtschaft. Anschließend kommt die Sprache auf die Funktionalität des Cursors, der Klicks anhand einer Dwell Time ermittelt und im gesamten Programm einsetzbar ist. Dazu werden verschiedene Optimierungen vorgestellt und mathematisch hergeleitet.
Zunächst soll das Thema Non-Photorealistic Rendering vorgestellt werden, bevor auf die Theorie der implementierten Verfahren eingegangen wird. Im Vergleich zur klassischen Graphik-Pipeline wird anschließend auf die Pipeline-Stufen eingegangen, die sich bei moderner Graphikhardware programmieren lassen. Mit Cg wird eine Shader-Hochsprache präsentiert, die zur Programmierung von Graphikkarten eingesetzt wird. Danach wird die Graphikbibliothek Direct3D und das Framework DXUT vorgestellt. Vom softwaretechnischen Entwurf ausgehend, wird die Implementierung der einzelnen Verfahren des Non-Photorealistic Rendering dargestellt. Anschließend wird die Planung und Realisierung der Benutzerschnittstelle erläutert. Die erzielten Ergebnisse werden anhand von Bildschirmphotos aufgezeigt und es wird kurz auf die Darstellungsgeschwindigkeit eingegangen. Abschließend sollen sinnvolle Erweiterungen des Programms und interessante Verfahren, die nicht implementiert wurden, erläutert werden.
Die Computergrafik befasst sich mit der Erzeugung von virtuellen Bildern. Im Bereich der 3D-Computergrafik werden die dargestellten Objekte im dreidimensionalen Raum beschrieben. Dazu bedient man sich diverser Generierungsverfahren. Einer dieser so genannten Renderer ist das Raytracing-Verfahren. Es erfreut sich in der Computergrafik wegen der erreichten Bildqualität bei ueberschaubarer Komplexität großer Beliebtheit. Dabei wird versucht, immer realistischere Ergebnisse zu erreichen. In der Vergangenheit wurde Raytracing deswegen beispielsweise um globale Beleuchtungsmodelle oder um reflektierende beziehungsweise um transparente Objekte erweitert. Dabei wurde aber ein wichtiger Punkt häufig vernachlässigt, welcher ebenfalls den Grad an Realismus deutlich erhöhen kann: die Kamera. Meistens geht man auch heutzutage von einem vereinfachten Lochkameramodell aus. Aus diesem Grund genügen solche Modelle nicht den Ansprüchen physikalisch-korrekter Renderingverfahren. Eine wirklich umfassend korrekte Abbildung von Szenen darf also nicht vernachlässigen, dass ein generiertes Bild durch ein Linsensystem noch einmal entscheidend beeinflusst wird. In dieser Arbeit wird deswegen ein physikalisch korrektes Kameramodell vorgestellt, welches die geometrischen Eigenschaften des Linsensystems berücksichtigt und die Belichtung auf der Bildebene korrekt berechnet.
Eine Art der Darstellung von Geschäftsprozessen sind die Modulnetze, eine spezielle Form von Petri-Netzen. Die Software Join ist in der Lage, Prozessdefinitionen textueller Art entgegenzunehmen und sie in ein Modulnetz zu überführen. In dieser Arbeit wird ein Layout-Modul für Join entwickelt, das eine grafische Darstellung der Modulnetze generiert und zur Anzeige aufbereitet. Zunächst werden einige Grundlagen der Graphentheorie erläutert. Sodann werden alle zum Netz gehörenden Elemente durch Zuteilung abstrakter Koordinaten auf einer gedachten Zeichenfläche verteilt. Dazu wurde der Graph in Flüsse, zusammenhängende Knotenfolgen, aufgeteilt und das gesamte Layout an diesen Flüssen ausgerichtet. Aus dem abstrakten Layout wird anschließend eine SVG-Datei generiert. Die Dokumentation der Implementation erfolgt zusammen mit einer Beschreibung der Architektur von Join und des neuen Layout-Moduls. Die Integration des Moduls in Join ist noch nicht vollständig. Später sollen z.B. Modulnetzbeschreibungen automatisch entgegengenommen und bearbeitet werden. Durch Modifikationen werden auch ereignisgesteuerte Prozessketten visualisierbar sein.
Der Hokuyo URG-04LX Laserscanner wird auf der mobilen Roboterplattform "Robbie" der Arbeitsgruppe Aktives Sehen zur Kartenerstellung und Kollisionsvermeidung eingesetzt. Die Navigation auf Grundlage der 2D-Scans wird den gewachsenen Anforderungen der Rescue-Arenen nicht mehr gerecht. Eine Verwendung von kommerziellen 3D-Laserscannern kommt wegen der hohen Anschaffungskosten nicht in Frage. Idee: Einsatz von mehreren günstigen 2D-Laserscannern mit unterschiedlichen Blickwinkeln oder aber die aktive Veränderung der Scanebene. Das Variieren der Scanebene erfolgt durch Schwenken oder Drehen des Laserscanners. Die Orientierung des Laserscanners im Raum liefert die dritte Dimension. Im Rahmen dieser Arbeit soll eine Plattform entwickelt werden, die es durch rotative Lagerung des Laserscanners ermöglicht, 3D-Laserscans der Umgebung zu erzeugen. Hierbei soll ein möglichst einfacher Aufbau erreicht werden, der es weiterhin ermöglicht, den Laserscanner zur Erzeugung von 2D-Karten zu benutzen. Um das Stereokamerasystem des Roboters nicht zu beeinträchtigen, wird zusätzlich ein sehr kompakter Aufbau angestrebt.
Design und Implementierung einer Anwendung zum Visualisieren von Relationen zwischen Lernobjekten
(2007)
IT-Risk-Management ist ein Bereich, der in den letzten 2 Jahren stark diskutiert und sich verändert hat. Die Anlässe findet man sowohl in den terroristischen Überfällen und entsprechenden Konsequenzen für Unternehmen als auch an die Naturkatastrophen oder Fehlinvestitionen und undurchsichtigen Geschäfte mancher Unternehmen. Daher wurden Richtlinien und Gesetze entworfen, die Vorstände verpflichten, das eigene Unternehmen gegen konkrete Risiken zu schützen. Der Detaillierungsgrad der Vorschläge ist je nach Bereich unterschiedlich. Sind aber Unternehmen bereit, die hohen Investitionen, die mit solchen umfangreichen Projekten zusammenhängen, auf sich zu nehmen um diese Richtlinien zu verfolgen? Wo sehen sie die Vorteile einer IT-Risk-Management-Strategie und wo die Herausforderungen? Welche Entwicklungen oder Veränderung wünschen sie sich? Das sind Fragen, die in der vorliegenden Studie, Experten des Bereich IT-Risk-Management gestellt wurden um die Zukunft des IT-Risk-Managements beeinflussen zu können. Diese Fragestellungen wurden in der vorliegenden Studie untersucht, dazu haben wir Experten des Bereichs IT-Risk-Managements mit Hilfe der Delphi-Methode befragt. Der vorliegende Bericht fasst die wichtigsten Ergebnisse zusammen.
In dieser Arbeit wird eine Softwarebibliothek zur Nutzung des USB-Hostmodus von Mikrocontrollern der Baureihe AT90USB entwickelt. Die Eigenschaften des USB werden erläutert und darauf aufbauend die Hardware des verwendeten Mikrocontrollers beschrieben. Anschließend wird die entwickelte Software und deren Funktionsweise erläutert. Abschließend werden Treiber für diverse Geräteklassen vorgestellt, die auch dem Test der entwickelten Bibliothek dienen.
Analyse TV-basierter Interaktion für Senioren: Umsetzung und Evaluation im Gesundheitsbereich
(2007)
Die vorliegende Diplomarbeit untersucht die Emergenz eines gemeinsam genutzten Lexikons anhand einer Implementierung des Modells von Edwin Hutchins und Brian Hazlehurst. Zunächst erläutert diese Arbeit das oben genannte Modell und analysiert sowohl verschiedene Simulationstechniken, insbesondere die der Multi-Agenten-Simulation, als auch den Aufbau und die Funktionalität künstlicher neuronaler Netze, welche als Hauptbestandteile des Modells angesehen werden können. Der Modellbeschreibung folgen Entwurf, Architektur und eine detaillierte Erläuterung der Implementierung des Werkzeugs LexLearn. LexLearn ist ein in Java komplett neu konzipiertes und implementiertes Programm und bietet dem Benutzer die Möglichkeit, die Emergenz einer gemeinsam genutzten Sprache innerhalb verschiedener Agentengemeinschaften zu simulieren und zu analysieren. In mehreren Simulationsdurchläufen werden sowohl die Ergebnisse von Edwin Hutchins und Brian Hazlehurst reproduziert als auch weitere Erkenntnisse durch neu erstellte Simulationen gewonnen.
Das in der Arbeitsgruppe Echtzeitsysteme im Projekt EZlenk entwickelte optische Lenkassistenzsystem zur Unterstützung der Rückwärtsfahrt von Fahrzeugen mit Anhänger soll im Rahmen dieser Studienarbeit auf seine Alltagstauglichkeit getestet werden. Ferner wurden die Implementierungen des Lenkassistenzsystems auf einem Fahrsimulator und einer PC-Version von Probanden evaluiert. Hierbei sollen mithilfe von Berufskraftfahrern, Fahrlehrern und Laien Schwachstellen, Stärken, genereller Nutzen, eventuelle Verbesserungsmöglichkeiten, Realitätsnähe und Auwirkungen auf den Fahrer bzw. Benutzer sowohl im Fahrsimulator als auch in der PC-Version herausgefunden werden unter Zugrundelegung der anerkannten Kriterien Effizienz, Effektivität und Zufriedenheit. Außerdem werden beide Implementierungsarten des Simulators sowohl mit als auch ohne Berücksichtigung des Lenkassistenzsystems im Hinblick auf die Alltagstauglichkeit für die Kraftfahrerausbildung in Fahrschulen diskutiert.
In dieser Arbeit wurde die Erstellung eines Demonstrators für gaze tracking Systeme beschrieben. Dabei wurde zunächst die Funktionsweise eines gaze trackers beschrieben, sowie auf bereits existierende Anwendungen für Menschen mit körperlicher Behinderung eingegangen. Die Einsatzgebiete für eine Benutzerschnittstelle über die Augen sind vielfältig und bietet noch viel Raum für weitere Anwendungen.
Die Arbeit befasst sich mit der Entwicklung und Umsetzung eines Prototyps, der einen Lebensmittelallergiker bei der Auswahl von Produkten beim Einkaufen unterstützen soll. Dazu wird die berührungslose RFID-Technologie zu Hilfe genommen, mit der es möglich ist RFID-Tags (die an Produkten angebracht sind) ohne direkten Sichtkontakt auszulesen. Die eingelesenen Produktnummern können dazu verwendet werden in einem Datenbank-System die Inhaltsstoffe des Produktes abzufragen. Ein Vergleich mit den Allergenen des Benutzers und eine entsprechende Warnung sind somit möglich.
Das Hauptziel dieser Studienarbeit war die Entwicklung eines Überführungstools, das sowohl den Repository Inhalt eines EA Projektes in einen TGraphen als auch einen TGraphen in ein EA Projekt überführen kann. Außerdem sollte das application programming interface des Enterprise Architects analysiert und beschrieben werden. Diese beiden Ziele konnten erfüllt werden und wurden in den vorherigen Kapiteln beschrieben. Zusätzlich beinhaltet die Studienarbeit noch eine Beschreibung und ein Anwendungsbeispiel zu JGraLab.
In dieser Arbeit werden mehrere Verfahren zur Superresolution, die zwei unterschiedlichen Ansätzen zuzuordnen sind, implementiert und miteinander verglichen. IBP, ein Verfahren, welches der Tomographie ähnelt, stellt den klassischen Ansatz der Superresolution dar. Das Prinzip von IBP ist leicht verständlich und relativ einfach zu implementieren, hat aber den Nachteil, keine eindeutigen Lösungen zu produzieren, da es schwer ist, Vorwissen mit einfließen zu lassen. Bei den statistischen Verfahren erweist es sich als äußerst zeitkritisch, die Systemmatrix M vorzuberechnen. Capel und Zisserman haben beim Maximum-Likelihood-Verfahren eine starke Rauschanfälligkeit festgestellt. Der Vergleich ergibt, dass IBP in punkto Bildqualität Maßstäbe setzt, zumindest bei kaum verrauschten Eingangsbildern und guter Registrierung. Allerdings stellen viele Eingangsbilder wegen des linearen Laufzeitverhaltens ein Problem dar. Die statistischen Verfahren liefern bei stark verrauschten Eingangsbildern bessere Ergebnisse als IBP. Durch viele Eingangsbilder lassen sich diese noch weiter verbessern. Die bei vorberechneten Systemmatrizen nahezu konstante Laufzeit und ihre Robustheit bei Rauschen prädestinieren die statistischen Verfahren für solche Bildserien. Ungenau registrierte Eingangsbilder wiederum führen bei allen Verfahren zu unscharfen Ergebnissen.
Der Schwerpunkt dieser Arbeit soll auf der schnellen sowie einfachen Umsetzung eigener Ideen von AR-Anwendungen liegen. Damit ein gewisser zeitlicher Rahmen bei der Umsetzung nicht überschritten wird, wurden Lösungen, die eine große Einarbeitungszeit oder fundierte Kenntnisse einer oder mehrer Programmiersprachen erfordern, nicht genauer betrachtet. Unter einer einfachen Umsetzung ist nicht zuletzt auch zu verstehen, dass diese auch dem Kreis der nicht-professionellen Anwender möglich sein soll. Dies beinhaltet, dass das gesuchte Programm auf normalen dem durchschnittlichen derzeitigen Stand der Technik entsprechenden Computersystemen lauffähig sein sollte. Auch wurden kommerzielle Produkte außer Acht gelassen, da die oft nicht unerheblichen Kosten einer nicht-professionellen Nutzung im Wege stehen.
In der Nutzung betrieblicher Informationssysteme ist die Wahrung ihrer Aktualität und Ausbaufähigkeit ein wichtiger Aspekt. Immer wieder ergeben sich aber Situationen, in denen mit dem alten System, dem Legacy-System, diese Ziele nicht mehr erreicht werden können. Als Ausweg bietet sich dessen Migration in eine neue Umgebung an. Die Software-Migration ist als Teilbereich der Software-Technik im Rahmen der Software-Wartung anzusiedeln. In dieser Arbeit wurde das in einer weiteren Abschlussarbeit des Instituts vorgestellte Referenz-Prozessmodell zur Software-Migration ReMiP angewandt. Ziel dieser Untersuchung ist es, das vorgestellte Referenz-Prozessmodell für den Fall der Migration einer Website praktisch umzusetzen und auf Gültigkeit zu überprüfen.1 Interessante Fragestellungen umfassen die Vollständigkeit und Allgemeingültigkeit des Modells für Migrationsprozesse als auch Erfahrungen mit der Intensität der Durchführung der einzelnen Migrationsaktivitäten. Als Zielumgebung der Website-Migration wird das Content Management System Plone verwendet. Im Rahmen der Arbeit wird es ausführlich beschrieben und schließlich die zu migrierende Website in die neue Zielumgebung überführt werden. Das Ergebnis dieser Arbeit ist die migrierte GXL-Website im Zielsystem Plone unter Anwendung des ReMiP. Durch diese Migration konnte der ReMiP als Referenz-Prozessmodell für Software-Migrationen erfolgreich validiert werden.
Ziel der Arbeit war es, ein audiovisuelles System aufzubauen, das die Interaktion mit Bild und Ton ermöglicht und die Natur der synästhetischen Wahrnehmung nutzt. Seit der Antike beschäftigen sich Menschen mit der Frage nach dem Zusammenhang und der Verwandtschaft von Tönen und visuellen Elementen wie Farben oder geometrischen Formen. Welches Bild baut sich beim Hören von Musik mit Hilfe der synästhetischen Wahrnehmung in unserer Vorstellung auf? Ein Musikstück kann "weich" oder "kantig" klingen, ein Klang wird als "warm" oder "kühl" empfunden. Die Umkehr dieser Frage stellt die Grundlage dieser Studienarbeit dar: Welchen Klang erzeugt ein Bild?