Filtern
Erscheinungsjahr
- 2007 (104) (entfernen)
Dokumenttyp
- Diplomarbeit (37)
- Studienarbeit (32)
- Ausgabe (Heft) zu einer Zeitschrift (25)
- Masterarbeit (5)
- Bachelorarbeit (3)
- Dissertation (2)
Sprache
- Deutsch (80)
- Englisch (23)
- Mehrsprachig (1)
Schlagworte
- Augmented Reality (6)
- Bildverarbeitung (4)
- Computersimulation (4)
- Robotik (3)
- Augenbewegung (2)
- Autonome Fahrzeuge (2)
- Bildregistrierung (2)
- Bluetooth (2)
- Campus Information System (2)
- Computer (2)
- Computergraphik (2)
- Computerspiel (2)
- E-Learning (2)
- Echtzeitsysteme (2)
- Enhanced Reality (2)
- Equality (2)
- Gaze Tracker (2)
- Interaktion (2)
- Knowledge Compilation (2)
- Laserscanner (2)
- Rettungsroboter (2)
- Security (2)
- Software (2)
- Theorem Proving (2)
- University (2)
- 2D/3D-Segmentierung (1)
- 3-D-Modelle (1)
- 3-D-Scanning (1)
- 3D-Color-Structure-Code (1)
- 3D-Darstellung (1)
- 3D-RETISEG (1)
- AMIRE (1)
- ARToolkit (1)
- ARToolkitPlus (1)
- Adaptive Services Grid (ASG) (1)
- Akzeptanz (1)
- Angiographiebilder (1)
- Anhängerfahrzeug (1)
- Animationsverfahren (1)
- Augmented Reality Szenario (1)
- Automated Theorem Proving (1)
- Automated Theorem Proving Systems (1)
- Autonome Exploration (1)
- Autonome Robotik (1)
- Autonomous Exploration (1)
- Avatar (1)
- Avatare (1)
- Bayes Procedures (1)
- Bedarfsanalyse (1)
- Bedarfsforschung (1)
- Benutzerorientierung (1)
- Benutzerverhalten (1)
- Bild (1)
- BildKlang (1)
- Bildaufloesung (1)
- Bildauflösung (1)
- Billard (1)
- Biometrie (1)
- Blog marketing (1)
- CTI -Problem (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Clusteranalyse (1)
- Color Structure Code (1)
- Computational biology (1)
- Computeranimation (1)
- Computerspiele (1)
- Computertomografie (1)
- Datenbanksystem (1)
- Datenbrille (1)
- Datensicherheit (1)
- Delphi-Studie (1)
- Designwerkzeug (1)
- Digital Storytelling (1)
- E-Commerce (1)
- E-KRHyper (1)
- ESSA (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Eclipse <Programmierumgebung> (1)
- Electronic Commerce (1)
- Elektronische Signaturen (1)
- Emergence in the Loop (EMIL) (1)
- Evaluation (1)
- Explorationstransformation (1)
- Exporation Transform (1)
- Fachinformationssysteme (1)
- Fahrerlose Transportsysteme (1)
- Fahrzeugverhalten (1)
- Fedora (1)
- Fernsehtechnik (1)
- Feuer (1)
- Fire (1)
- Frau (1)
- Funknetzwerk (1)
- GLSL (1)
- GPGPU (1)
- GPU basiert (1)
- GUPRO (1)
- Gebäudemodelle (1)
- Gefühl (1)
- Geodaten (1)
- Geschäftsprozessmodell (1)
- Gespann (1)
- Gesundheitswesen (1)
- Grafikprozessor (1)
- Graphikhardware (1)
- Graphikprozessor (1)
- HDR-Bilder (1)
- Haptik (1)
- Herzerkrankungen (1)
- Hirschkäfer (1)
- Horn Clauses (1)
- Human motion (1)
- Hyper Tableau Calculus (1)
- IASON (1)
- IK-Algorithmus (1)
- IT Security (1)
- IT-Risk-Management (1)
- Industrial-CT (1)
- Innovationsmanagement (1)
- Interaktionselemente (1)
- Internet Voting (1)
- Internetzugang (1)
- Inverse Kinematik (1)
- Java (1)
- Join (1)
- Kalibrierung (1)
- Kamera (1)
- Kartographie (1)
- Kirk-Coleman-Modell (1)
- Konvergenz (1)
- Kraftfahrzeug (1)
- Krankenhausinformationssystem (1)
- Kriterienkatalog (1)
- Kryptographie (1)
- Kulturlandschaft (1)
- Kunstpädagogik (1)
- Künstliche Intelligenz (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Layout (1)
- Layout <Mikroelektronik> (1)
- Lebensmittelallergie (1)
- Leitstandmodul (1)
- Lenkassistenzsystem (1)
- Lenkung (1)
- Lernen (1)
- Lernumgebung (1)
- LexLearn (1)
- Lexikon (1)
- Logistik (1)
- Lucanus cervus (1)
- MIA (1)
- MP3 Player (1)
- MPEG-7 (1)
- Matchingverfahren (1)
- Mediator framework (1)
- Mikrocontroller (1)
- Mobile Commerce (1)
- Mobile Health (1)
- Mobile Parking (1)
- Mobile Payment (1)
- Mobile Roboter (1)
- Mobile Robots (1)
- Mobile Ticketing (1)
- Mobiler Roboter (1)
- Mobilkommunikation (1)
- Modellieren (1)
- Modellierung (1)
- Modulnetze (1)
- Motion Capturing (1)
- Multi-robot System (1)
- Multiagent System (1)
- Multiagentensystem (1)
- Multidimensional (1)
- Mustererkennung (1)
- Netzhaut (1)
- Netzwerkmanagment (1)
- Nintendo DS (1)
- Oberflächenentwurf (1)
- Oberflächengestaltung (1)
- Ontology (1)
- Ornamentik (1)
- Partikelsimulation (1)
- Partikelsystem (1)
- Path transformation (1)
- Personalised Information Systems (1)
- Personenidentifizierung (1)
- Petri Nets (1)
- Petri-Netze (1)
- Pfadtransformation (1)
- Population (1)
- Positionsbestimmung (1)
- Preisbildung (1)
- Privacy (1)
- Probability (1)
- Propagation (1)
- Prozesskette (1)
- RDF Graphs (1)
- RFID (1)
- RIP-MTI (1)
- RIP-MTI Algorithmus (1)
- Radiosity (1)
- Raytracing (1)
- ReMiP (1)
- Realistisches Kameramodell (1)
- Registrierung <Bildverarbeitung> (1)
- Relationales Datenbanksystem (1)
- Rescue League (1)
- Rescue Robots (1)
- Rescueanalyser (1)
- Resource Description Framework (RDF) (1)
- Risk (1)
- RoboCup Rescue (1)
- Routing (1)
- Routing information protocol (1)
- Rückwärtsfahrt (1)
- SIFT-Verfahren (1)
- SNMP (1)
- SVG (1)
- Sand (1)
- Segmentierung (1)
- Selbstlokalisation (1)
- Semantics (1)
- Semantik (1)
- Service-oriented Architectures (SOA) (1)
- Sicherheit (1)
- Simulations-Wiki (1)
- Simulationswerkzeug (1)
- Skript (1)
- Skript <Programm> (1)
- SocSimNet (1)
- SpoGA (1)
- Stadtmodelle (1)
- Standortbestimmung (1)
- Stereobildfolgen (1)
- Stochastic Logic (1)
- Supply Chain Management (1)
- Systembiologie (1)
- Tableau Calculus (1)
- Tastatur (1)
- Tastatureingabeverhalten (1)
- Technologiemanagement (1)
- Ton (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tourismus (1)
- Transferfunction (1)
- Transferfunktion (1)
- UML (1)
- USARSim (1)
- USB (1)
- Unified Modeling Language (UML ) (1)
- Unternehmensnetzwerke (1)
- Virtual characters (1)
- Virtuelle Menschen (1)
- Virtuelle Realität (1)
- Visualisierungstechniken (1)
- Visuelle Odometrie (1)
- Volume Hatching (1)
- Volumen-Rendering (1)
- Volumendaten (1)
- Vorliebe (1)
- W-LAN (1)
- WLAN (1)
- Web Ontology Language (OWL) (1)
- Web log (1)
- Weblog (1)
- Webseiten (1)
- Wiki (1)
- XTPeer (1)
- Zukunftsszenario (1)
- directed acyclic graphs (1)
- eGovernment (1)
- elektronische Anwendung (1)
- finite state automata (1)
- keystroke biometric recognition (1)
- logistic (1)
- multidimensional (1)
- regular dag languages (1)
- requirements analysis (1)
- virtual human (1)
- virtual network user mode linux (1)
- Ökologie (1)
Institut
- Institut für Computervisualistik (51)
- Fachbereich 4 (26)
- Institut für Informatik (18)
- Institut für Wirtschafts- und Verwaltungsinformatik (18)
- Institut für Management (6)
- Institut für Softwaretechnik (6)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (1)
- Institut für Kunstwissenschaft (1)
Die Workshop-Reihe 'Algorithmen und Werkzeuge für Petrinetze' wurde 1994 mit dem Ziel initiiert, in der deutschsprachigen Petrinetz-Community den fachlichen Austausch und die inhaltliche Zusammenarbeit zwischen den mit der Entwicklung und Analyse von Algorithmen beschäftigten Arbeitsgruppen und den im Bereich der Implementierung von Werkzeugen tätigen Arbeitsgruppen zu fördern. Der vorliegende Sammelband enthält die Vorträge, die auf dem Workshop präsentiert worden sind. Um auch die Vorstellung von noch unfertigen Ideen oder von in Entwicklung befindlichen Werkzeugen zu ermöglichen, fand wie in den vergangenen Jahren kein formaler Begutachtungsprozess statt. Die eingereichten Beiträge wurden lediglich auf ihre Relevanz für das Workshop-Thema hin geprüft.
In dieser Arbeit werden jeweils ein Verfahren aus den beiden Bereichen der Bildregistrierung implementiert und beschrieben. Eine direkte und eine merkmalsbasierte Methode werden verglichen und auf ihre Grenzen hin überprüft. Die implementierten Verfahren funktionieren gut und registrieren beide verschiedene Bildserien subpixelgenau. Bei der direkten Methode ist vor allem die Wahl des Transformationsmodells ausschlaggebend. Auch das Einbetten der Methode in eine Gaußpyramidenstruktur hat sich als wichtig herausgestellt. Da die merkmalsbasierte Methode aus verschiedenen Komponenten aufgebaut ist, kann jeder einzelne Schritt durch unterschiedliche Verfahren ausgetauscht werden, so z.B. die Detektion der Merkmale durch Tomasi-Kanade, SIFT oder Moravec. In der direkten Methode kann die Genauigkeit der Ergebnisse zum einen durch den gewählten Schwellwert und zum anderen durch die Anzahl der Pyramidenstufen beeinflusst werden. Bei der merkmalsbasierten Methode wiederum können unterschiedlich viele Merkmale benutzt werden, die einen unterschiedlich hohen Schwellwert besitzen können. Es wird gezeigt, dass beide Methoden zu guten Ergebnissen führen, wenn davon ausgegangen wird, dass die Verschiebung sowie die Rotation gering sind. Bei stärkeren Veränderungen jedoch wird die direkte Methode recht ungenau, während die merkmalsbasierte Methode noch gute Ergebnisse erzielt. An ihre Grenze gerät sie erst, wenn entweder der Bildinhalt sich stark ändert, oder die Rotationen einen Winkel von 20° überschreitet. Beide Verfahren arbeiten also subpixelgenau, können aber unter verschiedenen Voraussetzungen zu Ungenauigkeiten führen. Werden die jeweiligen Probleme der beiden Methoden beachtet und am besten bei der Aufnahme oder vor der Registrierung eliminiert, so können sehr gute Ergebnisse erzielt werden.
Der Schwerpunkt dieser Arbeit soll auf der schnellen sowie einfachen Umsetzung eigener Ideen von AR-Anwendungen liegen. Damit ein gewisser zeitlicher Rahmen bei der Umsetzung nicht überschritten wird, wurden Lösungen, die eine große Einarbeitungszeit oder fundierte Kenntnisse einer oder mehrer Programmiersprachen erfordern, nicht genauer betrachtet. Unter einer einfachen Umsetzung ist nicht zuletzt auch zu verstehen, dass diese auch dem Kreis der nicht-professionellen Anwender möglich sein soll. Dies beinhaltet, dass das gesuchte Programm auf normalen dem durchschnittlichen derzeitigen Stand der Technik entsprechenden Computersystemen lauffähig sein sollte. Auch wurden kommerzielle Produkte außer Acht gelassen, da die oft nicht unerheblichen Kosten einer nicht-professionellen Nutzung im Wege stehen.
Semantic descriptions of non-textual media available on the web can be used to facilitate retrieval and presentation of media assets and documents containing them. While technologies for multimedia semantic descriptions already exist, there is as yet no formal description of a high quality multimedia ontology that is compatible with existing (semantic) web technologies. We explain the complexity of the problem using an annotation scenario. We then derive a number of requirements for specifying a formal multimedia ontology, including: compatibility with MPEG-7, embedding in foundational ontologies, and modularisation including separation of document structure from domain knowledge. We then present the developed ontology and discuss it with respect to our requirements.
In dieser Arbeit werden mehrere Verfahren zur Superresolution, die zwei unterschiedlichen Ansätzen zuzuordnen sind, implementiert und miteinander verglichen. IBP, ein Verfahren, welches der Tomographie ähnelt, stellt den klassischen Ansatz der Superresolution dar. Das Prinzip von IBP ist leicht verständlich und relativ einfach zu implementieren, hat aber den Nachteil, keine eindeutigen Lösungen zu produzieren, da es schwer ist, Vorwissen mit einfließen zu lassen. Bei den statistischen Verfahren erweist es sich als äußerst zeitkritisch, die Systemmatrix M vorzuberechnen. Capel und Zisserman haben beim Maximum-Likelihood-Verfahren eine starke Rauschanfälligkeit festgestellt. Der Vergleich ergibt, dass IBP in punkto Bildqualität Maßstäbe setzt, zumindest bei kaum verrauschten Eingangsbildern und guter Registrierung. Allerdings stellen viele Eingangsbilder wegen des linearen Laufzeitverhaltens ein Problem dar. Die statistischen Verfahren liefern bei stark verrauschten Eingangsbildern bessere Ergebnisse als IBP. Durch viele Eingangsbilder lassen sich diese noch weiter verbessern. Die bei vorberechneten Systemmatrizen nahezu konstante Laufzeit und ihre Robustheit bei Rauschen prädestinieren die statistischen Verfahren für solche Bildserien. Ungenau registrierte Eingangsbilder wiederum führen bei allen Verfahren zu unscharfen Ergebnissen.
Hyper tableaux with equality
(2007)
In most theorem proving applications, a proper treatment of equational theories or equality is mandatory. In this paper we show how to integrate a modern treatment of equality in the hyper tableau calculus. It is based on splitting of positive clauses and an adapted version of the superposition inference rule, where equations used for paramodulation are drawn (only) from a set of positive unit clauses, the candidate model. The calculus also features a generic, semantically justified simplification rule which covers many redundancy elimination techniques known from superposition theorem proving. Our main results are soundness and completeness, but we briefly describe the implementation, too.
Im Rahmen dieser Arbeit wird eine Clusteranalyse-Umgebung durch Kopplung bestehender Lösungen entwickelt. Um Clusteranalysen auf Softwareelementen durchführen zu können, wird eine Software zur Clusteranalyse an das bestehende Reverse Engineering Tool GUPRO zur Extraktion von Informationen aus Softwareartefakten, wie z.B. Quellcode-Dateien, gekoppelt. Die entstehende Clusteranalyse-Umgebung soll alle Services einer Clusteranalyse auf Softwareelementen unter einer Oberfläche vereinen. Wichtiger Bestandteil der Arbeit ist sowohl die Aufbereitung der theoretischen Grundlagen der Clusteranalyse mit Blickpunkt auf das Softwareclustering, als auch ein strukturierter Auswahlprozess der für die zu entwickelnde Umgebung verwendeten Software zur Clusteranalyse. Letztendlich soll der Funktionalitätsumfang der Clusteranalyse-Umgebung auf ein im Voraus, in Form einer Anforderungsdefinition, festgelegtes Maß angehoben werden.
Augmented Reality ist eine neuartige, auf vielen Gebieten einsetzbare Technologie. Eines dieser Gebiete ist die Touristeninformation. Hier ermöglicht die AR dem Anwender eine schier endlose Fülle der verschiedensten Möglichkeiten. Mit Ihrer Hilfe kann der Benutzer nicht nur die Zeit bereisen, er kann auch Unsichtbares sehen. Doch stellt sich die Frage, ob die AR auch für weiterreichende Zwecke geeignet ist. Ist es möglich mit ihrer Hilfe Wissen nachhaltig zu vermitteln? Und wenn ja, wie kann dies geschehen? In althergebrachter Form von Texten und Bildern, oder auf interaktive und spielerische Weise? Was muß beachtet werden bei dem Versuch eine AR Anwendung für die Wissensübermittlung zu erstellen? Wie kann der Benutzer mit Ihr umgehen? Weiss der Benutzer später auch wirklich mehr? Die vorliegende Diplomarbeit geht diesen Fragen nach, indem sie zuerst der AR einen genaueren Blick widmet. Sie betrachtet die möglichen einsetzbaren Medien und gibt Vorschläge für interaktive Anwendungen, die mit Hilfe von AR ausgeführt werden. Zum Schluß untersucht sie anhand einer erstellten Beispielanwendung, ob der Benutzer mit Hilfe der AR etwas lernen und auch behalten kann.
SNMP in VNUML Simulationen
(2007)
Das Simple Network Management Protocol (SNMP) gilt als die Universalsprache des Netzwerkmanagements. Bereits Anfang der 90er Jahre wurde die erste Version von SNMP durch die Internet Engineering Task Force (IETF) zum Standard-Internet Management Protocol erklärt und Teil der TCP/IP Protocol-Suite. Für die meisten Betriebssystemplattformen sind SNMP Implementierungen verfügbar und viele netzwerkfähige Geräte und Netzwerkmanagement-Programme unterstützen SNMP, das sich vor allem für die Verwaltung plattformübergreifender und herstellerunabhängiger Netzwerke bewährt. Virtual Network User Mode Linux (VNUML) ist ein mächtiges Netzwerk-Simulationsprogramm für Linux mit dem virtuelle Linux-Rechnernetze aufgebaut werden können, um darin Programmabläufe zu simulieren. Die VNUML Netzwerk-Simulationen sind in erster Linie für das Entwickeln, Analysieren und Testen von Linux Netzwerk-Software, wie zum Beispiel Netzwerk-Protokollen, geeignet. Das Simulationsprogramm entstand im Rahmen des Euro6IX-Projektes, zur Einführung des IPv6 Standards in Europa, am Telematics Engineering Department der Technischen Universität Madrid. Die Rechner der virtuellen Netze, die VNUML aufbaut, basieren auf User Mode Linux (UML), einer in breitem Spektrum eingesetzten Virtualisierung des Linux-Kernels. Diese Studienarbeit beschäftigt sich mit den Möglichkeiten und der Funktionsweise des Netzwerkmanagements mit SNMP. Dafür wird die SNMP-Software Net-SNMP in VNUML Simulationen eingesetzt, um die Möglichkeiten der Konfiguration und des Umgangs mit SNMP in einer praxisnahen Umgebung zu untersuchen. Der Einsatz von Net-SNMP in VNUML Simulationen kann dazu dienen, die Integration von Netzwerkmanagement mit SNMP für relevante Rechnernetze vorzubereiten und Möglichkeiten der Konfiguration und der Verwendung auszuloten oder VNUML Simulationen im Allgemeinen mit diesem bewährten Netzwerkmanagement-System zur Unterstützung auszustatten.
Die Computergrafik befasst sich mit der Erzeugung von virtuellen Bildern. Im Bereich der 3D-Computergrafik werden die dargestellten Objekte im dreidimensionalen Raum beschrieben. Dazu bedient man sich diverser Generierungsverfahren. Einer dieser so genannten Renderer ist das Raytracing-Verfahren. Es erfreut sich in der Computergrafik wegen der erreichten Bildqualität bei ueberschaubarer Komplexität großer Beliebtheit. Dabei wird versucht, immer realistischere Ergebnisse zu erreichen. In der Vergangenheit wurde Raytracing deswegen beispielsweise um globale Beleuchtungsmodelle oder um reflektierende beziehungsweise um transparente Objekte erweitert. Dabei wurde aber ein wichtiger Punkt häufig vernachlässigt, welcher ebenfalls den Grad an Realismus deutlich erhöhen kann: die Kamera. Meistens geht man auch heutzutage von einem vereinfachten Lochkameramodell aus. Aus diesem Grund genügen solche Modelle nicht den Ansprüchen physikalisch-korrekter Renderingverfahren. Eine wirklich umfassend korrekte Abbildung von Szenen darf also nicht vernachlässigen, dass ein generiertes Bild durch ein Linsensystem noch einmal entscheidend beeinflusst wird. In dieser Arbeit wird deswegen ein physikalisch korrektes Kameramodell vorgestellt, welches die geometrischen Eigenschaften des Linsensystems berücksichtigt und die Belichtung auf der Bildebene korrekt berechnet.
Das Hauptziel dieser Studienarbeit war die Entwicklung eines Überführungstools, das sowohl den Repository Inhalt eines EA Projektes in einen TGraphen als auch einen TGraphen in ein EA Projekt überführen kann. Außerdem sollte das application programming interface des Enterprise Architects analysiert und beschrieben werden. Diese beiden Ziele konnten erfüllt werden und wurden in den vorherigen Kapiteln beschrieben. Zusätzlich beinhaltet die Studienarbeit noch eine Beschreibung und ein Anwendungsbeispiel zu JGraLab.
Die Arbeit befasst sich mit der Entwicklung und Umsetzung eines Prototyps, der einen Lebensmittelallergiker bei der Auswahl von Produkten beim Einkaufen unterstützen soll. Dazu wird die berührungslose RFID-Technologie zu Hilfe genommen, mit der es möglich ist RFID-Tags (die an Produkten angebracht sind) ohne direkten Sichtkontakt auszulesen. Die eingelesenen Produktnummern können dazu verwendet werden in einem Datenbank-System die Inhaltsstoffe des Produktes abzufragen. Ein Vergleich mit den Allergenen des Benutzers und eine entsprechende Warnung sind somit möglich.
Die Selbstlokalisation von Robotern ist schon seit Jahren ein aktuelles Forschungsthema, das insbesondere durch immer weiterentwickelte Techniken und Verfahren verbessert werden kann. Insbesondere finden Laserscanner in der Robotik immer häufiger Anwendung. In dieser Arbeit wird untersucht, ob durch die Fusionierung von Kamerabildern und 3D-Laserscannerdaten eine robuste und schnelle Selbstlokalisation theoretisch sowie praktisch realisierbar ist.
Die Idee, die dieser Arbeit zugrunde liegt, ist es, die Augmented Reality auch in anderen Bereichen voranzutreiben. In der Filmindustrie beispielsweise behilft man sich schon seit langem mit sowohl virtuellen als auch realen Methoden (computergestützten Visualisierungen, Miniatur-Kulissen), um eine Vorvisualisierung der Dreharbeiten zu erhalten, welche zur Planung des Arbeitsablaufs verwendet werden können. Die Idee liegt hierbei darin, dass durch ein Werkzeug, welches sich der Augmented Reality bedient, zum Beispiel Belichtungsverhältnisse bereits im Voraus ausgetestet werden könnten, oder der Kameramann seine Einstellungen proben kann. So können hierfür mitunter virtuelle Objekte in eine Miniaturszene eingeblendet werden, mit denen die realen Voraussetzungen des Drehorts nachgeahmt werden. Um diese Vorstellung von einem Werkzeug für die Filmindustrie zu ermöglichen, wird ein gutes und stabiles Tracking benötigt, das die nötigen Eigenschaften zur Verfügung stellt. Um ein solches Trackingsystem geht es in dieser Studienarbeit.
In dieser Arbeit geht es darum, einen Einblick in das Thema Wireless LAN zu vermitteln. Es werden zunächst einmal die gängigsten Standards und weitere wichtige Aspekte aus diesem Bereich vorgestellt. Das Hauptaugenmerk dieser Arbeit liegt jedoch darauf, wie die Kommunikation in Funknetzwerken sicherer gestaltet werden kann. Im Zuge dessen werden einige Mechanismen vorgestellt, mit denen es möglich ist, die Kommunikation zu verschlüsseln oder nur bestimmte Teilnehmer an der Kommunikation teilnehmen zu lassen. Mit diesen Mechanismen ist es dann möglich eine hohes Maß an Sicherheit in Funknetzwerken zu erreichen. Abschließend wird in einem Tutorial beschrieben, wie die zuvor vorgestellten Mechanismen eingerichtet und angewendet werden können.
Rescueanalyser
(2007)
Im Forschungsgebiet der Künstlichen Intelligenz und Multiagenten-Systeme stellt die Erkennung von Plänen eine besondere Herausforderung dar. Es gilt aus einer Menge von Beobachtungen Agentenpläne effektiv, zuverlässig und eindeutig zu identifizieren. Im Bereich des RoboCup ist es von entscheidender Bedeutung, dass Agenten über die Pläne und Intensionen anderer Agenten schlussfolgern können, um gemeinsame Ziele zu erreichen. Diese Diplomarbeit umfasst die Konzeption und Entwicklung eines Werkzeugs für die RoboCupRescue-Simulation, welches die Abläufe einer Rescue-Simulation analysiert und die beobachteten Aktionsfolgen Plänen einer vorspezifizierten Planbibliothek zuordnet. Das entwickelte Analysewerkzeug zeichnet sich einmal durch seine Unabhängigkeit von den verschiedenen Rescue-Agententeams aus, sowie durch die Verwendung neuester Methoden zur effektiven Planerkennung. Damit ermöglicht der entwickelte Rescueanalyser sowohl die Fehlersuche und Optimierung des eigenen Agententeams als auch die Erforschung und Auswertung unterschiedlicher Strategien der Rescue-Agenten konkurrierender Teams. Neben der Visualisierung der Ergebnisse mittels eines optimierten Monitors des Rescue-Simulators, können die Resultate und Auswertungen der Planerkennung auch durch textbasierte Ausgaben detailliert eingesehen werden.
In der Nutzung betrieblicher Informationssysteme ist die Wahrung ihrer Aktualität und Ausbaufähigkeit ein wichtiger Aspekt. Immer wieder ergeben sich aber Situationen, in denen mit dem alten System, dem Legacy-System, diese Ziele nicht mehr erreicht werden können. Als Ausweg bietet sich dessen Migration in eine neue Umgebung an. Die Software-Migration ist als Teilbereich der Software-Technik im Rahmen der Software-Wartung anzusiedeln. In dieser Arbeit wurde das in einer weiteren Abschlussarbeit des Instituts vorgestellte Referenz-Prozessmodell zur Software-Migration ReMiP angewandt. Ziel dieser Untersuchung ist es, das vorgestellte Referenz-Prozessmodell für den Fall der Migration einer Website praktisch umzusetzen und auf Gültigkeit zu überprüfen.1 Interessante Fragestellungen umfassen die Vollständigkeit und Allgemeingültigkeit des Modells für Migrationsprozesse als auch Erfahrungen mit der Intensität der Durchführung der einzelnen Migrationsaktivitäten. Als Zielumgebung der Website-Migration wird das Content Management System Plone verwendet. Im Rahmen der Arbeit wird es ausführlich beschrieben und schließlich die zu migrierende Website in die neue Zielumgebung überführt werden. Das Ergebnis dieser Arbeit ist die migrierte GXL-Website im Zielsystem Plone unter Anwendung des ReMiP. Durch diese Migration konnte der ReMiP als Referenz-Prozessmodell für Software-Migrationen erfolgreich validiert werden.
Mit dieser Arbeit werden die folgenden Ziele verfolgt: Eine repräsentative Auswahl und Sammlung von Beispielen für Mobile Ticketing Systeme (insbesondere aus dem deutschsprachigen Raum) zu recherchieren, die sich im praktischen Einsatz befinden. Eine Zusammenstellung sinnvoller Kategorien (Charakteristika) zu erarbeiten, anhand derer sich Mobile Ticketing Systeme unterscheiden oder strukturieren lassen. Eine Gegenüberstellung der Beispiele und Kategorien zu erstellen, um zu untersuchen, welche typischen Klassen bei Mobile Ticketing Systemen identifiziert werden können.
Im Rahmen der Arbeit wurde ein mehrstufiger Algorithmus entwickelt, der es ermöglicht, aus Bildfolgen eine Trajektorie der Kamerabewegung zu rekonstruieren. Die Kalibrierung der Kamera beruht auf dem Verfahren von Zhang und ermöglicht den Ausgleich der durch das Objektiv entstehenden radialen Verzerrung der Bilder. Die sich anschließende Detektion prägnanter Merkmale wird durch den SIFT-Operator geleistet, welcher neben subpixelgenauer Lokalisation der Merkmale zusätzlich einen stark markanten Deskriptor zu deren Beschreibung liefert. Außerdem sind die Merkmale invariant gegenüber Rotationen, was für einige mögliche Anwendungsfälle sehr relevant ist. Die Suche nach Korrespondenzen wurde auf Basis der Distance Ratio ausgeführt. Hier wurde eine komplette Formalisierung der Korrelationsbeziehung zwischen Merkmalsvektoren präsentiert, welche eindeutig eine symmetrische Beziehung zwischen SIFT-Merkmalsvektoren definiert, die den an eine Korrespondenz gestellten Ansprüchen gerecht wird. Zusätzlich wurde motiviert, warum die sonst in der Bildverarbeitung gängige Methode der Hierarchisierung zur Reduktion des Aufwands in diesem speziellen Fall zu schlechteren Inlier-Raten in den gefundenen Korrespondenzen führen kann. Anschließend wurde ein genereller Überblick über den RANSAC-Algorithmus und die aus ihm entspringenden Derivate gegeben.