Filtern
Dokumenttyp
- Diplomarbeit (47) (entfernen)
Schlagworte
- Google App Engine (2)
- Google Web Toolkit (2)
- Interaktion (2)
- Visualisierung (2)
- WebGL (2)
- 101companies (1)
- API Analysis (1)
- API Migratiom (1)
- Adobe Flex (1)
- Ambient Occlusion (1)
- ArcGIS (1)
- Aspect-orientation (1)
- Aspekt-Orientierung (1)
- Augmented Reality (1)
- Automatisches Beweisverfahren (1)
- Beschreibungslogik (1)
- Bewegung (1)
- Bewegungssteuerung (1)
- Browser (1)
- CSMs (1)
- CamInSens (1)
- Casual Games (1)
- Computational biology (1)
- Computer Networks (1)
- Computergraphik (1)
- Defi-Now! (1)
- Defibrillator (1)
- Delta (1)
- Design Pattern (1)
- Distance Vector Routing (1)
- Distanz Vektor Routing (1)
- Dreidimensionale Bildverarbeitung (1)
- E-Hyper Tableau (1)
- E-KRHyper (1)
- E-Learning (1)
- E-Procurement (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Emil (1)
- Entwurfsmuster (1)
- Erste Hilfe (1)
- Facebook App (1)
- Facebook Application (1)
- Fahrzeug (1)
- First aid (1)
- GPGPU (1)
- Grails (1)
- Grails 1.2 (1)
- HTML 5.0 (1)
- Hypertableaux (1)
- Incremental Algorithms (1)
- JCryp-Tool (1)
- Java (1)
- Java <Programmiersprache> (1)
- JavaScript (1)
- Kamera (1)
- Kamerakalibrierung (1)
- Künstliche Intelligenz (1)
- Laser (1)
- Lernsoftware (1)
- Logik (1)
- Manöver-Visualisierung (1)
- MapReduce (1)
- Markov Zufallsfelder (1)
- Maschinelles Sehen (1)
- Matching (1)
- Mediator framework (1)
- Medizinische Visualisierung (1)
- Model View Presenter (1)
- Multiagentensystem (1)
- Natural Feature Tracking (1)
- Network Virtualization (1)
- Netzwerk Routing (1)
- Netzwerk Virtualisierung (1)
- Objective-C (1)
- Objektverfolgung (1)
- PHP (1)
- Personalausweis (1)
- Petri-Netze (1)
- Plugin (1)
- Public-Key-Infrastruktur (1)
- Raytracing (1)
- Realistisches Kameramodell (1)
- Rechnernetz (1)
- Rechnernetze (1)
- Reisedokument (1)
- Repast (1)
- Rescueanalyser (1)
- Routing Information Protocol (1)
- Routing Information Protokoll (1)
- Schlussfolgern (1)
- Security Routing (1)
- Sicherheit Routing (1)
- Simulation (1)
- Simulationswerkzeug (1)
- Smartphone Applikation (1)
- Social Games (1)
- Softwareentwicklung (1)
- Softwareentwurf (1)
- Softwareergonomie (1)
- Softwarespezifikation (1)
- Softwarewartung (1)
- Spielkonsole (1)
- Starrkörper (1)
- Stereosehen (1)
- Stomp (1)
- Systembiologie (1)
- Szenengraph (1)
- Tablet PC (1)
- Tarrain Klassifikation (1)
- Taxonomy (1)
- Transferfunktion (1)
- Umgebungslicht (1)
- Usability (1)
- Virtualisierung (1)
- Virtuelles Netz (1)
- Visibility Skeleton (1)
- Vocabulary Trainer (1)
- Volume Raycasting (1)
- Volumen-Rendering (1)
- Web-application framework (1)
- Web-programming technologies (1)
- Web3D (1)
- Webanwendung (1)
- Wii (1)
- Wikipedia (1)
- Wissensvermittlung (1)
- Xcode (1)
- agent-based model (1)
- agentenbasierte Modellierung (1)
- automatisierte Videoüberwachung (1)
- by-stander effect (1)
- camera calibration (1)
- description logic (1)
- distinct object identifiers (1)
- e-ID (1)
- eID (1)
- ePA (1)
- ethnic conflicts (1)
- ethnische Konflikte (1)
- hypertableaux (1)
- iOS (1)
- iOS 5 (1)
- iOS-SDK (1)
- id card (1)
- interaction (1)
- lineare Algebra (1)
- movement (1)
- nPA (1)
- shiq (1)
- smartphone app (1)
- stereotracking (1)
- travel document (1)
- unique name assumption (1)
- usability study (1)
- Überwachung (1)
- Überwachungstechnik (1)
Institut
- Fachbereich 4 (47) (entfernen)
Rescueanalyser
(2007)
Im Forschungsgebiet der Künstlichen Intelligenz und Multiagenten-Systeme stellt die Erkennung von Plänen eine besondere Herausforderung dar. Es gilt aus einer Menge von Beobachtungen Agentenpläne effektiv, zuverlässig und eindeutig zu identifizieren. Im Bereich des RoboCup ist es von entscheidender Bedeutung, dass Agenten über die Pläne und Intensionen anderer Agenten schlussfolgern können, um gemeinsame Ziele zu erreichen. Diese Diplomarbeit umfasst die Konzeption und Entwicklung eines Werkzeugs für die RoboCupRescue-Simulation, welches die Abläufe einer Rescue-Simulation analysiert und die beobachteten Aktionsfolgen Plänen einer vorspezifizierten Planbibliothek zuordnet. Das entwickelte Analysewerkzeug zeichnet sich einmal durch seine Unabhängigkeit von den verschiedenen Rescue-Agententeams aus, sowie durch die Verwendung neuester Methoden zur effektiven Planerkennung. Damit ermöglicht der entwickelte Rescueanalyser sowohl die Fehlersuche und Optimierung des eigenen Agententeams als auch die Erforschung und Auswertung unterschiedlicher Strategien der Rescue-Agenten konkurrierender Teams. Neben der Visualisierung der Ergebnisse mittels eines optimierten Monitors des Rescue-Simulators, können die Resultate und Auswertungen der Planerkennung auch durch textbasierte Ausgaben detailliert eingesehen werden.
Diese Diplomarbeit beschreibt die Entwicklung einer Web Service orientierten Umgebung zur Verarbeitung von Pegeldaten mehrerer Gewässer in Zusammenarbeit mit der Bundesanstalt für Gewässerkunde (BfG). Sie dokumentiert den gesamten Entwicklungsablauf und gibt eine Einführung in die verwendeten Technologien. Für XHydro, ein Austauschformat zum wirtschaftlichen und organisationsübergreifenden Austausch von Zeitreihen, wird zusätzlich eine Bewertung des Systems inklusive Verbesserungsvorschlägen gegeben.
Ein neueres Thema innerhalb des Forschungsbereichs Semantic Web behandelt die Verarbeitung von Anfragen über Linked Open Data (LOD). Wie in der Literatur bereits diskutiert wurde, lässt sich der losen Zergliederung innerhalb des "Web of Data" und dessen Datenquellen durch moderne föderierte Verarbeitungsstrategien bezüglich eingehender Anfragen begegnen. Dieser Ansatz ist jedoch umso mehr abhängig von aktuellen statistischen Informationen (Datenstatistiken) über sämtliche der benutzten Datenquellen einerseits, und genauen Schätzungen von Kardinalitäten und Selektivitäten andererseits. Da föderierte Datenquellen im Allgemeinen keine Auskunft über die Statistik der von ihnen verwalteten Daten geben, schlagen sich Änderungen an diesen Daten nicht automatisch in den zentralen Datenstatistikkatalogen nieder - die verwalteten Datenstatistiken werden obsolet. In der vorliegenden Arbeit wird die Erweiterung eines RDF-basierten Query-Federators beschrieben, die die Obsoleszenz von zentral verwalteten Datenstatistiken beurteilen und eine gegebenenfalls notwendige Aktualisierung einzelner Datenstatistiken unternehmen können soll. Als Grundlage dazu dient die Beobachtung auftretender Fehler in der Kardinalitätsschätzung ausgewerteter Queries. Eine Evaluation des Systems wird anschließend beschrieben. Die Ergebnisse zeigen die prinzipielle Richtigkeit der zugrundeliegenden Überlegungen, die praktische Anwendbarkeit kann jedoch nicht überzeugend demonstriert werden. Die Wiederverwendung der entwickelten Systemerweiterung für vielversprechendere Ansätze erscheint jedoch möglich und wird diskutiert.
Die Computergrafik befasst sich mit der Erzeugung von virtuellen Bildern. Im Bereich der 3D-Computergrafik werden die dargestellten Objekte im dreidimensionalen Raum beschrieben. Dazu bedient man sich diverser Generierungsverfahren. Einer dieser so genannten Renderer ist das Raytracing-Verfahren. Es erfreut sich in der Computergrafik wegen der erreichten Bildqualität bei ueberschaubarer Komplexität großer Beliebtheit. Dabei wird versucht, immer realistischere Ergebnisse zu erreichen. In der Vergangenheit wurde Raytracing deswegen beispielsweise um globale Beleuchtungsmodelle oder um reflektierende beziehungsweise um transparente Objekte erweitert. Dabei wurde aber ein wichtiger Punkt häufig vernachlässigt, welcher ebenfalls den Grad an Realismus deutlich erhöhen kann: die Kamera. Meistens geht man auch heutzutage von einem vereinfachten Lochkameramodell aus. Aus diesem Grund genügen solche Modelle nicht den Ansprüchen physikalisch-korrekter Renderingverfahren. Eine wirklich umfassend korrekte Abbildung von Szenen darf also nicht vernachlässigen, dass ein generiertes Bild durch ein Linsensystem noch einmal entscheidend beeinflusst wird. In dieser Arbeit wird deswegen ein physikalisch korrektes Kameramodell vorgestellt, welches die geometrischen Eigenschaften des Linsensystems berücksichtigt und die Belichtung auf der Bildebene korrekt berechnet.
In einigen Bereichen des automatischen Theorembeweisens benötigt man das Wissen, dass Konstanten paarweise ungleich sind. Um dieses zu erreichen, fügt man Fakten, die dieses Wissen explizit angeben, zu den Wissensbasen hinzu. Wenn man diese Eigenschaft für viele Konstanten definieren muss, wird die Klauselmenge der Wissensbasen schnell sehr umfangreich und wegen der vielen - eigentlich irrelevanten - Ungleichheiten kann man den Blick auf das eigentlich formalisierte Problem verlieren. Da die Größe der Wissensbasis in vielen Fällen Einfluss auf die Geschwindigkeit hat, ist es auch aus diesem Grund sinnvoll, die Anzahl dieser Fakten gering zu halten. Die unique name assumption erlaubt auf die Einführung der Ungleichheits-Fakten zu verzichten, da sie festlegt, dass zwei Konstanten genau dann gleich sind, wenn ihre Interpretationen identisch sind. Auf diesem Wege lässt sich das Aufblähen von Wissensbasen mit Ungleichheits-Fakten verhinde. In dieser Arbeit wird der E-Hyper-Tableau-Kalkül erweitert um die unique name assumption nutzen zu können. Der in dieser Arbeit entwickelte Kalkül ist vollständig und korrekt, was durch formale Beweise in dieser Arbeit belegt wird. Um zu zeigen, dass die native Behandlung von Ungleichheiten dem Einführen von Ungleichheits-Fakten überlegen ist, wird der Kalkül in den Theorembeweiser E-KRHyper implementieren. Der Theorembeweiser E-KRHyper ist ein etabliertes System und basiert in seiner ursprünglichen Version auf dem E-Hyper-Tableau. Mit systematischen Tests wird dann gezeigt, dass die entwickelte Implementierung des erweiterten Kalküls nie schlechter ist, als der original E-KRHyper, diesen aber in einigen Fällen in der Ausführungsgeschwindigkeit deutlich übertrifft.
Terrainklassifikation mit Markov-Zufallsfeldern auf Basis von fusionierten Kamera- und Laserdaten
(2011)
Ein mobiles System, das sich automatisiert im Outdoor-Bereich fortbewegen soll, muss dafür über ausreichende Kenntnisse des umliegenden Terrains verfügen. Zur Analyse des Terrains werden hierbei häufig ein oder mehrere Laserentfernungsmesser, teilweise auch in Kombination mit Kameras verwendet. Probleme entstehen bei lückenhaften oder verrauschten Daten, da dies zu einer fehlerhaften Bestimmung des Geländes führen kann.
Diese Arbeit hat das Ziel ein bereits vorhandenes Verfahren zu erweitern. Dieses basiert auf 3D-Daten, ermittelt durch einen 3D-Laserscanner und soll um eine kontextsensitive Komponente und Daten anderer Sensoren ergänzt werden. Die erste Erweiterung besteht aus einem Markov-Zufallsfeld, welches zum Modellieren der Nachbarschaftsbeziehungen der einzelnen Terrainabschnitte verwendet wird und somit zur Segmentierung eingesetzt werden kann.
Als zweite Erweiterung werden die Laserdaten mit Kamerabildern fusioniert,um so die Verwendung zusätzlicher Terrainmerkmale zu ermöglichen.