Filtern
Erscheinungsjahr
Dokumenttyp
- Diplomarbeit (196) (entfernen)
Schlagworte
- Augmented Reality (4)
- Bildverarbeitung (4)
- RIP-MTI (4)
- Routing (4)
- Analyse durch Synthese (3)
- Interaktion (3)
- Java (3)
- Kamera (3)
- Logistik (3)
- Markerloses Tracking (3)
- Modellbasiertes Tracking (3)
- Objektverfolgung (3)
- Volumendaten (3)
- API (2)
- Autonome Fahrzeuge (2)
- Computergrafik (2)
- Computergraphik (2)
- Computersimulation (2)
- Computerspiel (2)
- Delta (2)
- E-Learning (2)
- Echtzeitsysteme (2)
- Evaluation (2)
- Fahrzeug (2)
- Frau (2)
- GPGPU (2)
- GPS (2)
- Google App Engine (2)
- Google Web Toolkit (2)
- Konvergenz (2)
- Modelltransformation (2)
- Navigation (2)
- Petri-Netze (2)
- Program Slicing (2)
- RFID (2)
- RIP (2)
- RMTI (2)
- Routing Information Protocol (2)
- Schatten (2)
- Segmentierung (2)
- Selbstlokalisation (2)
- Shader (2)
- Simulation (2)
- TGraph (2)
- Textur-Mapping (2)
- Tracking (2)
- VOXEL (2)
- Virtuelle Realität (2)
- Visualisierung (2)
- WebGL (2)
- Whiteboard (2)
- Wikipedia (2)
- XTPeer (2)
- Zielverfolgung (2)
- 101companies (1)
- 2-D (1)
- 3-D-Modelle (1)
- 3D (1)
- 3D Painting (1)
- 3D-Abbildungen (1)
- 3D-Modelle (1)
- API Analysis (1)
- API Migratiom (1)
- ARIS (1)
- Administration (1)
- Adobe Flex (1)
- Agent (1)
- Algorithm Engineering (1)
- Ambient Occlusion (1)
- Analyse (1)
- Anforderungskatalog (1)
- Angiographiebilder (1)
- Anhänger (1)
- Animationsfilm (1)
- Animationsverfahren (1)
- Anwendungsintegration (1)
- Anzeige (1)
- ArcGIS (1)
- Architekturbewertung (1)
- Aspect-orientation (1)
- Aspekt-Orientierung (1)
- Augenblick-SDK (1)
- Augmented Reality Szenario (1)
- Aussagenlogik (1)
- Automatisches Beweisverfahren (1)
- Avatar (1)
- Avatare (1)
- Axis Aligned Bounding Box (AABB) (1)
- BPMS (1)
- Bedarfsanalyse (1)
- Beleuchtungsverfahren (1)
- Benutzerorientierung (1)
- Benutzerprofil (1)
- Benutzerschnittstelle (1)
- Beschreibungslogik (1)
- Besuchersoftware (1)
- Bewegung (1)
- Bewegungsmodell (1)
- Bewegungssteuerung (1)
- Bild (1)
- Bildanalyse-Verfahren (1)
- Bildregistrierung (1)
- Bildsensor (1)
- Bordinstrument (1)
- Bounding Volume Hierarchie (1)
- Browser (1)
- Business Continuity Management (1)
- Business Intelligence (1)
- CAD (1)
- CMS (1)
- CSG (1)
- CSMs (1)
- CSV (1)
- CT-Datensätze (1)
- CTI (1)
- CTI -Problem (1)
- CamInSens (1)
- Casual Game (1)
- Casual Games (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Circumscription (1)
- Cisco Catalyst 3500XL (1)
- Closed Source (1)
- Clusteranalyse (1)
- CodeBlue (1)
- CollaborativeWriting (1)
- Communication System (1)
- Computational biology (1)
- Computer Networks (1)
- Computer-aided diagnosis (1)
- Computeranimation (1)
- Computerbased Communication (1)
- Computerspiele (1)
- Computertomographie (1)
- Computerunterstützte Kommunikation (1)
- Content Management (1)
- Controlling (1)
- Counting-to-Infinity (1)
- DEMO_net (1)
- DIN EN ISO 9241 (1)
- DNNF (1)
- DPLL (1)
- Data-Mining (1)
- Datenanalyse (1)
- Datenaustausch (1)
- Datenschutz (1)
- Datenschutzpolicy (1)
- Defi-Now! (1)
- Defibrillator (1)
- Design Pattern (1)
- Designwerkzeug (1)
- Desktop (1)
- Digital Storytelling (1)
- Dijkstras Algorithmus (1)
- Disaster Recovery (1)
- Displacement Mapping (1)
- Display (1)
- Distance Vector Routing (1)
- Distanz Vektor Routing (1)
- Distanz-Vektor (1)
- Drahtmodell (1)
- Dreidimensionale Bildverarbeitung (1)
- Dreidimensionale Visualisierung (1)
- Dreidimensionales Modell (1)
- E-Commerce (1)
- E-Hyper Tableau (1)
- E-KRHyper (1)
- E-Partizipation (1)
- E-Procurement (1)
- EEG (1)
- EU-Dienstleistungsrichtlinie (1)
- Eating Disorder (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitfähigkeit (1)
- Echtzeitsystem (1)
- Eclipse (1)
- Eclipse <Programmierumgebung> (1)
- Electronic Commerce (1)
- Electronic Government (1)
- Elektroencephalographie (1)
- Elektronische Signaturen (1)
- EmIL (1)
- Emergence in the Loop (EMIL) (1)
- Emil (1)
- Empfehlung (1)
- Enterprise Architecture (1)
- Enterprise Architecture Frameworks (1)
- Enterprise Resource Planning (1)
- Entwurfsmuster (1)
- Epipolargeometrie (1)
- Erste Hilfe (1)
- Erweiterte Realität (1)
- Erweiterte Realität <Informatik> (1)
- Essstörung (1)
- Europäischer Binnenmarkt (1)
- Evaluierung (1)
- Event (1)
- FPIC (1)
- Facebook App (1)
- Facebook Application (1)
- Fachinformationssysteme (1)
- Fahrerlose Transportsysteme (1)
- Fahrsimulator (1)
- Fernsehtechnik (1)
- Filmdarstellung (1)
- Filmfiguren (1)
- Filmgestalt (1)
- Firewall (1)
- First aid (1)
- Flugkörper (1)
- Fluiddynamik (1)
- Flächenmodell (1)
- Framework (1)
- Framework <Informatik> (1)
- Frameworks (1)
- Frei Programmierbares Kombinationsinstrument (1)
- Funkerkennung (1)
- Funktionelle NMR-Tomographie (1)
- GPGPU-Programmierung (1)
- GPU (1)
- GReQL 2 (1)
- GReTL (1)
- GUPRO (1)
- Gaps (1)
- Gebäudemodelle (1)
- Gefühl (1)
- Geodaten (1)
- Geoinformation (1)
- Geometry (1)
- Geometry-Shader (1)
- Geschäftsmodell (1)
- Gittererzeugung (1)
- Globale Beleuchtung (1)
- Grafikkarte (1)
- Grafikprozessor (1)
- Grails (1)
- Grails 1.2 (1)
- Graphikhardware (1)
- HDR-Bilder (1)
- HDR-Kamera (1)
- HTML 5.0 (1)
- Handlungsempfehlungen (1)
- Haptik (1)
- Herzerkrankungen (1)
- High dynamic Range (1)
- High-Traffic (1)
- Hochgeschwindigkeitstracking (1)
- Human motion (1)
- Hypertableaux (1)
- IK-Algorithmus (1)
- InFO (1)
- Incremental Algorithms (1)
- Information Flow Ontology (1)
- Information Retrieval (1)
- Information system (1)
- Informationsvisualisierung (1)
- Inhaltsanalyse (1)
- Innovation (1)
- Innovationsmanagement (1)
- Inpainting-Verfahren (1)
- Interactive Video Retrieval (1)
- Interaktives Whiteboard (1)
- Interior Gateway Protokoll (1)
- Internet (1)
- Interoperabilität (1)
- Inverse Kinematik (1)
- Inverses Modell (1)
- J2EE (1)
- J2ME (1)
- JCryp-Tool (1)
- JGraLab (1)
- JGraph (1)
- JML (1)
- Java <Programmiersprache> (1)
- Java Modeling Language (1)
- Java. Programmiersprache (1)
- JavaScript (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Kalibrieren <Messtechnik> (1)
- Kalibrierung (1)
- Kamerakalibrierung (1)
- Katadioptrisches Stereosystem (1)
- Katastrophenschutz (1)
- Kirk-Coleman-Modell (1)
- Knowledge Compilation (1)
- Kohärenzanalyse (1)
- Kontinuität (1)
- Kontinuitätsmanagement (1)
- Krisenmanagement (1)
- Kriterienkatalog (1)
- Künstliche Intelligenz (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Laser (1)
- Laserscanner (1)
- Lebensmittelallergie (1)
- Leitstandmodul (1)
- Lernen (1)
- Lernsoftware (1)
- LexLearn (1)
- Lexikon (1)
- Lichttransport (1)
- Linienkorrelationen (1)
- Logik (1)
- Lokale Bildmerkmale (1)
- Malen (1)
- Mammographie (1)
- Manöver-Visualisierung (1)
- MapReduce (1)
- Markov Zufallsfelder (1)
- Marktanalyse (1)
- Maschinelles Sehen (1)
- Matching (1)
- Matchingverfahren (1)
- Mediator framework (1)
- Medizinische Visualisierung (1)
- Medizintechnik (1)
- Mensch-Maschine-Schnittstelle (1)
- Merkmalsbewertung (1)
- Metriken (1)
- Mikroanalytisches Modell (1)
- Mikroanalytisches Simulationsmodell (1)
- Mikrocontroller (1)
- Mikrosensus (1)
- Mikrosimulationsmodell (1)
- Mikroskopie (1)
- Mobile Health (1)
- Mobile Kommunikation (1)
- MobileFacets System (1)
- Mobiles Informatinssystem (1)
- Mobiltelefon (1)
- Model View Presenter (1)
- Modellfahrzeug (1)
- Modellieren (1)
- Modellierung (1)
- Monitoring (1)
- Motion Capturing (1)
- Multiagentensystem (1)
- Multivariate Datenanalyse (1)
- Mustererkennung (1)
- Myokard (1)
- NURBS (1)
- Natural Feature Tracking (1)
- Network Virtualization (1)
- Netzhaut (1)
- Netzwerk Routing (1)
- Netzwerk Virtualisierung (1)
- Netzwerkmanagement (1)
- Netzwerkmonitoring (1)
- Netzwerktechnik (1)
- Nintendo Wii Fernbedienung (1)
- Norm (1)
- Normentstehung (1)
- Notfall (1)
- Notfallmanagement (1)
- Notfallvorsorge (1)
- Nutzungsanalyse (1)
- Nutzungsrechte (1)
- OSS (1)
- Oberflächenorientierung (1)
- Oberflächenstruktur (1)
- Objective-C (1)
- Objektentfernung (1)
- Octree Textur (1)
- Oktalbaum (1)
- Oktonärbäume (1)
- Online-Befragung (1)
- Ontologie (1)
- Ontologie. Wissensverarbeitung (1)
- Ontology API model (1)
- Open Source (1)
- Open Source Software (1)
- Optisches Mikroskop (1)
- P2P (1)
- P3P (1)
- P3P-Policy-Generator (1)
- PACS- Picture Archiving (1)
- PDA (1)
- PHP (1)
- Personalausweis (1)
- Petri-Netz-Theorie (1)
- Planspiegel-System (1)
- Plugin (1)
- Point Rendering (1)
- Pollenanalyse (1)
- Posebestimmung (1)
- Poseschätzung (1)
- Positionsbestimmung (1)
- PostgreSQL (1)
- Preisbildung (1)
- Privacy (1)
- Programmanalyse (1)
- Programmiersprache (1)
- Propositional Logic (1)
- Prozessanalyse <Prozessmanagement> (1)
- Präsentation (1)
- Public-Key-Infrastruktur (1)
- Punktkorrelationen (1)
- Quantitative Inhaltsanalyse (1)
- Query Expansion (1)
- RCP (1)
- RDF <Informatik> (1)
- RFCO (1)
- RIP-MTI Algorithmus (1)
- RIP-XT (1)
- Radiales System (1)
- Ray Tracing (1)
- Ray tracing (1)
- Raytracing (1)
- Realistisches Kameramodell (1)
- Rechnernetz (1)
- Rechnernetze (1)
- Register (1)
- Registrierung <Bildverarbeitung> (1)
- Regler (1)
- Regulierung (1)
- Reisedokument (1)
- Relationale Datenbank (1)
- Relevance Feedback (1)
- Rendering (1)
- Repast (1)
- Rescueanalyser (1)
- Restrukturierung (1)
- Retinex-Algorithmus (1)
- Rich Internet Application (1)
- Risk (1)
- Robotik (1)
- Router (1)
- Router-based Flow Control Ontology (1)
- Routing Information Protokoll (1)
- Routing information protocol (1)
- Routing-Loop (1)
- SIFT-Algorithmus (1)
- SIFT-Merkmale (1)
- SIMD (1)
- SOA (1)
- STOR (1)
- STP (1)
- SURF-Algorithmus (1)
- Schleifenerkennung (1)
- Schlussfolgern (1)
- Schwachstellen (1)
- Security (1)
- Security Routing (1)
- Selbsthilfe (1)
- Self-help (1)
- Semantic Desktop (1)
- Semantic Web (1)
- Separating-Axis-Theorem (1)
- Serdar Ayalp (1)
- Shaderframework (1)
- Shaderprogramm (1)
- Sicherheit (1)
- Sicherheit Routing (1)
- Simulationswerkzeug (1)
- Smartphone Applikation (1)
- Social Games (1)
- Software Engineering (1)
- Software- Ergonomie (1)
- Softwareentwicklung (1)
- Softwareentwurf (1)
- Softwareergonomie (1)
- Softwarespezifikation (1)
- Softwarewartung (1)
- Soziale Netzwerke (1)
- Spielkonsole (1)
- Sprachverarbeitung (1)
- Stadtmodelle (1)
- Standortbestimmung (1)
- Starrkörper (1)
- Statistische Analyse (1)
- Stereobildfolgen (1)
- Stereosehen (1)
- Stilisierung (1)
- Stomp (1)
- Strategie (1)
- Strategy (1)
- Suat Algin (1)
- Subsurface Scattering (1)
- Supply Chain Management (1)
- Systembiologie (1)
- Szenengraph (1)
- TRECVID (1)
- Tablet PC (1)
- Tarrain Klassifikation (1)
- Taxonomy (1)
- Technologiemanagement (1)
- Technology Management (1)
- Telemedizin (1)
- Tenneco Automotive (1)
- Textur (1)
- Texturierung (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tourismus (1)
- Tracking-System (1)
- Trackingsystem (1)
- Transaction concept (1)
- Transaktion (1)
- Transaktionskonzept (1)
- Transferfunktion (1)
- Transform Feedback (1)
- Transport (1)
- Triangulierung (1)
- Triangulierungsverfahren (1)
- URM (1)
- Umgebungslicht (1)
- Ungarische Methode (1)
- Uniforme Raumunterteilung (1)
- Unternehmen (1)
- Unternehmensarchitektur (1)
- Unterwasser-Pipeline (1)
- Unterwasserfahrzeug (1)
- Unterwasserkabel (1)
- Usability (1)
- Usage Rights Management (1)
- User Interface (1)
- Uses and gratifications approach (1)
- VDE (1)
- VDE-Switch (1)
- VLAN (1)
- VTP (1)
- Verortung (1)
- Vertex Buffer Object (1)
- Vertex Buffer Objekt (1)
- Virtual Square (1)
- Virtual characters (1)
- Virtualisierung (1)
- Virtuelle Menschen (1)
- Virtuelles Netz (1)
- Visibility Skeleton (1)
- Visuelle Odometrie (1)
- Vocabulary Trainer (1)
- Volume Hatching (1)
- Volume Raycasting (1)
- Volumen (1)
- Volumen-Rendering (1)
- Volumenmodell (1)
- Volumenrendering (1)
- Vorliebe (1)
- Vorwärtsmodell (1)
- Voxel (1)
- WSN (1)
- Web-application framework (1)
- Web-programming technologies (1)
- Web3D (1)
- Webanwendung (1)
- Webseiten (1)
- Weibliches Publikum (1)
- Wertschöpfungskette (1)
- Wii (1)
- Wiimote (1)
- Wiki (1)
- Wissenskompilation (1)
- Wissensmanagement (1)
- Wissensvermittlung (1)
- Wolkensimulation (1)
- Workflow (1)
- World Wide Web (1)
- XML-Dokument (1)
- XTpeer (1)
- Xcode (1)
- Zeichentrickfilm (1)
- Zirkumskription (1)
- Zukunftsszenario (1)
- agent (1)
- agent-based model (1)
- agentenbasierte Modellierung (1)
- augmented reality (1)
- automatisierte Videoüberwachung (1)
- by-stander effect (1)
- camera calibration (1)
- convergence analysis (1)
- data-mining (1)
- description logic (1)
- distinct object identifiers (1)
- e-ID (1)
- eGovernment (1)
- eID (1)
- ePA (1)
- ediv (1)
- ethnic conflicts (1)
- ethnische Konflikte (1)
- evaluation (1)
- event (1)
- high-traffic (1)
- hypertableaux (1)
- iOS (1)
- iOS 5 (1)
- iOS-SDK (1)
- id card (1)
- interaction (1)
- java (1)
- lineare Algebra (1)
- logistic (1)
- markerless tracking (1)
- medical care (1)
- mobile health care (1)
- model-driven engineering (1)
- modellgetriebene Softwareentwicklung (1)
- movement (1)
- nPA (1)
- natural language processing (1)
- natürliche Sprache (1)
- octree texture (1)
- person (1)
- projektives Malen (1)
- requirements analysis (1)
- rip (1)
- rmti (1)
- shiq (1)
- smartphone app (1)
- stereotracking (1)
- syntaktische Analyse (1)
- texturing (1)
- travel document (1)
- unique name assumption (1)
- usability study (1)
- usage-mining (1)
- virtual human (1)
- vnuml (1)
- wireless sensor networks (1)
- xtpeer (1)
- Überwachung (1)
- Überwachungstechnik (1)
Institut
- Institut für Computervisualistik (81)
- Fachbereich 4 (47)
- Institut für Wirtschafts- und Verwaltungsinformatik (27)
- Institut für Informatik (24)
- Institut für Softwaretechnik (14)
- Institute for Web Science and Technologies (3)
- Institut für Kommunikationspsychologie und Medienpädagogik (2)
- Fachbereich 5 (1)
- Institut für Management (1)
Einige akademische Arbeiten behaupten, dass Software, die in einem offenen Prozess erstellt wurde, strukturierter ist, als Programme, die im geschlossenen Umfeld entstanden sind. Die Rede ist hier von Open Source und Closed Source. Der Nachweis dieser Annahme wird mit der Technik der so genannten Design Structure Matrix (DSM) erbracht. DSM erlauben die Visualisierung der Struktur einer Software und ermöglichen das Berechnen von Metriken, mit denen dann der Level an Modularität der einzelnen Open Source Software (OSS) verglichen werden kann. Unter zu Hilfename dieser Technik geht die Diplomarbeit der Frage nach, ob ein Zusammenhang zwischen Geschäftsmodell und OSS existiert.
Der an der Universität Koblenz-Landau entwickelte RIP-MTI-Algorithmus stellt eine Modifikation des Routingalgorithmus RIP dar, die es dem RIP-Algorithmus ermöglichen soll, die Häufigkeit des Auftretens des Counting-to-infinity-Problems (CTI) zu reduzieren. Um die Korrektheit und Zuverlässigkeit dieses Algorithmus nachweisen, aber auch Schwächen aufdecken zu können, bedarf es der Möglichkeit, das Verhalten des Algorithmus zu testen. Ziel der Arbeit ist die Nutzbarmachung der von unter VNUML laufenden RIP-Routern dezentral verwalteten Routing-Informationen, um die Entstehung von CTIs zentral protokollieren und analysieren zu können. Zu diesem Zweck wird eine Software entwickelt, die Informationen zur Netzkonfiguration, zu Erreichbarkeiten und Update-Aufkommen sammelt, verwaltet und analysiert. So können neben den bereits bekannten problematischen Netztopologien weitere für die einzelnen RIP-Ausprägungen problematische Topologien ermittelt werden.
Workflows und Logik
(2009)
In dieser Arbeit wurde gezeigt, wie die Netzdarstellung eines Workflows in eine aktionslogische, prädikatenlogische, transaktionslogische oder aktionslogische Formel umgeformt werden kann. Ebenso wurde der umgekehrte Weg beschrieben. So ist es jetzt möglich, Workflows auch mit Hilfe der verschiedenen Inferenztechniken der einzelnen Logiken zu untersuchen. Bei der Transformation wurden allerdings einige Einschränkungen getroffen. So wurde auf die Transformation von Quantoren sowie auf Zykel in den zu transformierenden Workflow-Netzen verzichtet. Außerdem wurden die möglichen Kantenlabels von pr/t-Netzen zur Umwandlung in eine prädikatenlogische Darstellung auf einzelne Tupel beschränkt.
Das Routing Information Protocol (RIP) ist ein Internet-Standard-Routing-Protokoll, das einst mit zu den am meisten eingesetzten Routing-Protokollen in IP-Netzwerken gehörte. Es basiert auf dem sogenannten Distanzvektoralgorithmus und ist in seiner Funktion und seinem Aufbau sehr einfach ausgelegt. Seit jeher leidet es allerdings unter dem sogenannten Counting-to-Infinity (CTI) Problem, bei dem die Erreichbarkeit einer eigentlich ausgefallenen Verbindung zu einem Ziel scheinbar aufrechterhalten wird. Die Distanz zu diesem Ziel wird aufgrund des fortwährenden Austauschs von nicht mehr gültigen Verbindungsinformationen zwischen in einem Ring geschalteten RIP-Routern hochgezählt, theoretisch bis ins Unendliche. Dabei entstehen Routingschleifen, die den Netzwerkbetrieb erheblich stören können, da die gesendeten Netzwerkpakete aufgrund der Schleife die selben Router immer wieder passieren und weder an ihr eigentliches Ziel gelangen noch verworfen werden können. Die Gefahr des Auftretens des CTI-Problems schränkt die Einsetzbarkeit von RIP enorm ein. Die Netzwerke, in denen RIP eingesetzt wird, können nicht beliebig wachsen, da die maximale Größe des Netzwerks auf eine relativ kleine Distanz zwischen den Routern begrenzt ist, um die Dauer und die Folgen des CTI-Problems im Falle des Auftretens gering zu halten. Je stärker auch die Topologie eines Netzwerks vermascht ist, um mit zusätzlichen, alternativen Verbindungen Ausfällen entgegenzuwirken, umso stärker steigt auch die Gefahr des Auftretens des CTI-Problems nach einem Ausfall. Bislang existierten für RIP lediglich Mechanismen, die das Risiko des Auftretens und die Auswirkungen des CTI-Problems verringern, das Problem selbst aber nicht beheben können. Mit "RIP with minimal topology information" (RIP-MTI) wurde in der AG Rechnernetze an der Universität Koblenz-Landau eine abwärtskompatible Erweiterung zu RIP geschaffen, die das CTI-Problem zu beheben verspricht. Der RIP-MTI-Algorithmus sammelt zusätzliche Informationen über die Topologie des Netzwerks und nutzt diese, um nach dem Ausfall einer Verbindung richtige Informationen über die Erreichbarkeit von Zielen von falschen Informationen unterscheiden zu können. In dieser Diplomarbeit wird die Implementierung des RIP-MTI-Algorithmus behandelt. Mit Hilfe der speziell entwickelten RIP-Netzwerk-Testumgebung XTPeer, in der das CTI-Problem kontrolliert provoziert werden kann, wird die Wirksamkeit der Implementierung eines Quagga RIP-MTI-Routers überprüft und entsprechend weiterentwickelt. Dafür wird der RIP-MTI-Algorithmus an die Implementierung des Quagga RIP-Routing-Software sowie an die der Netzwerk-Testumgebung XTPeer angepasst. Diese Diplomarbeit wird vom Autor selbst als fortgeschrittene Zwischenstation eingestuft, vor der Herstellung und Herausgabe der Implementierung einer RIP-MTI-Routing-Software, die auch in produktiven Netzwerken eingesetzt werden könnte.
Diese Arbeit beschreibt einen Ansatz zur webbasierten und GPU-unterstützten medizinischen Visualisierung. Der Schwerpunkt liegt auf der client-seitigen Ausführung von direktem Volumen-Rendering mittels WebGL und der Übertragung von medizinischen Datensätzen von Server zu Client. Die Motivation dieser Arbeit liegt vor allem in den neuesten Entwicklungen von Webtechnologien begründet, da es bisher nicht möglich war hardwarebeschleunigte 3D-Grafik direkt im Webbrowser darzustellen. Erst seit der Entwicklung der 3D-Grafik-Programmierschnittstelle WebGL besteht die Möglichkeit GPU-unterstütztes Volumenrendering im Browser-Kontext ohne den Einsatz zusätzlicher Software zu realisieren. Es wird ein webbasiertes Volumenrendering-System vorgestellt, das die Umsetzung von Volumen-Raycasting mit WebGL zur direkten Darstellung von Volumendaten in Echtzeit behandelt. Für die technische Umsetzung wurden das Google Web Toolkit und die Google App Engine als Infrastruktur verwendet.
In unserer heutigen Welt spielen soziale Netzwerke eine immer größere werdende Rolle. Im Internet entsteht fast täglich eine neue Anwendung in der Kategorie Web 2.0. Aufgrund dieser Tatsache wird es immer wichtiger die Abläufe in sozialen Netzwerken zu verstehen und diese für Forschungszwecke auch simulieren zu können. Da alle gängigen sozialen Netzwerke heute nur im eindimensionalen Bereich arbeiten, beschäftigt sich diese Diplomarbeit mit mehrdimensionalen sozialen Netzwerken. Mehrdimensionale soziale Netzwerke bieten die Möglichkeit verschiedene Beziehungsarten zu definieren. Beispielsweise können zwei Akteure nicht nur in einer "kennt"-Beziehung stehen, sondern diese Beziehungsart könnte auch in diverse Unterbeziehungsarten, wie z.B. Akteur A "ist Arbeitskollege von" Akteur B oder Akteur C "ist Ehepartner von" Akteur D, unterteilt werden. Auf diese Art und Weise können beliebig viele, völlig verschiedene Beziehungsarten nebeneinander existieren. Die Arbeit beschäftigt sich mit der Frage, in welchem Grad die Eigenschaften von eindimensionalen auch bei mehrdimensionalen sozialen Netzwerken gelten. Um das herauszufinden werden bereits bestehende Metriken weiterentwickelt. Diese Metriken wurden für eindimensionale soziale Netzwerke entwickelt und können nun auch für die Bewertung mehrdimensionaler sozialer Netzwerke benutzt werden. Eine zentrale Fragestellung ist hierbei wie gut sich Menschen finden, die sich etwas zu sagen haben. Um möglichst exakte Ergebnisse zu erhalten, ist es notwendig reale Daten zu verwenden. Diese werden aus einem Web 2.0-Projekt, in das Benutzer Links zu verschiedenen Themen einstellen, gewonnen (siehe Kapitel 4). Der erste praktische Schritte dieser Arbeit besteht daher darin, das soziale Netzwerk einzulesen und auf diesem Netzwerk eine Kommunikation, zwischen zwei Personen mit ähnlichen Themengebieten, zu simulieren. Die Ergebnisse der Simulation werden dann mit Hilfe der zuvor entwicklelten Metriken ausgewertet.
Für die realistische Betrachtung einer virtuellen Szene spielt neben der direkten Beleuchtung auch die Ausbreitung des indirekten Lichtes eine wichtige Rolle. Die Berechnung der indirekten Beleuchtung benötigt grundsätzlich Informationen über die gesamte Szene, nicht nur über den für die Kamera sichtbaren Ausschnitt, der in bildraumbasierten Techniken zum Einsatz kommt. Mittels Voxelisierung kann die Szene in eine dreidimensionale, diskrete und GPU-freundliche Repräsentation überführt werden. In dieser Arbeit werden Voxelrepräsentationen hinsichtlich ihrer Eignung für den globalen Lichtaustausch in dynamischen und großen Szenen untersucht. Nach einer Einführung und einem Literaturüberblick über existierende Voxelisierungs- und Beleuchtungsverfahren, die Voxel als Grundlage nutzen, wird ein Voxelisierungsverfahren entwickelt, das sich für Szenen mit dynamischen Objekten eignet. Auf der Grundlage des Strahlenschnitt-Tests mit binärer Voxelhierarchie werden dann zwei Beleuchtungsalgorithmen umgesetzt, implementiert und evaluiert: Monte-Carlo-Integration der Hemisphäre eines Szenenpunktes und Beleuchtung der Szenenpunkte mit virtuellen Punktlichtquellen.
This paper introduces Vocville, a causal online game for learning vocabularies. I am creating this application for my master thesis of my career as a "Computervisualist" (computer visions) for the University of Koblenz - Landau. The application is an online browser game based on the idea of the really successful Facebook game FarmVille. The application is seperated in two parts; a Grails application manages a database which holds the game objects like vocabulary, a Flex/Flash application generates the actual game by using these data. The user can create his own home with everything in it. For creating things, the user has to give the correct translation of the object he wants to create several times. After every query he has to wait a certain amount of time to be queried again. When the correct answer is given sufficient times, the object is builded. After building one object the user is allowed to build others. After building enough objects in one area (i.e. a room, a street etc.) the user can activate other areas by translating all the vocabularies of the previous area. Users can also interact with other users by adding them as neighbors and then visiting their homes or sending them gifts, for which they have to fill in the correct word in a given sentence.
In dieser Arbeit wurde die Realisierung einer mobilen Sicherheitslösung für Überwachungszwecke vorgestellt, welche unter Zuhilfenahme des staatlich geförderten Forschungsprojekts CamInSens entwickelt wurde. CamInSens soll erreichen, in überwachten Gefahrenbereichen die erhaltenen Video- und Sensorendaten so zu analysieren, dass Bedrohungen möglichst frühzeitig erkannt und behandelt werden können. Das Ziel dieser Arbeit war, auf Basis von verarbeiteten Daten aus CamInSens eine Interaktion und Visualisierung zu entwickeln, die bei einem späteren Praxiseinsatz mobilem Sicherheitspersonal dabei hilft, in Bedrohungssituationen fundierte Entscheidungen treffen zu können. Zu diesem Zweck wurde nicht nur eine Software implementiert, sondern auch eine Marktsichtung hinsichtlich geeigneter Geräte und einsetzbarer Softwarebibliotheken durchgeführt.
Die automatische Detektion der Lage und Ausrichtung von Unterwasser-Kabeln oder -Pipelines in Kamerabildern ermöglicht es, Unterwasserfahrzeuge autonome Kontrollfahrten durchführen zu lassen. Durch Pflanzenwuchs auf und in der Nähe von Kabeln bzw. Pipelines wird deren visuelle Erfassung jedoch erschwert: Die Bestimmug der Lage über die Detektion von Kanten mit anschließender Linien-Extraktion schlägt oft fehl. Probabilistische Ansätze sind hier den deterministischen überlegen. Durch die Modellierung von Wahrscheinlichkeiten kann trotz geringer Anzahl von extrahierten Merkmalen eine Aussage über den Zustand des Systems getroffen werden. Diese Arbeit stellt ein neues auf Partikelfiltern basierendes Tracking-System für die Verfolgung von Kabeln und Pipelines in Bildsequenzen vor. Umfangreiche Experimente auf realistischen Unterwasser-Videos zeigen die Robustheit und Performanz des gewählten Ansatzes sowie Vorteile gegenüber vorangegangenen Arbeiten.
Die Entwicklung von Algorithmen im Sinne des Algorithm Engineering geschieht zyklisch. Der entworfene Algorithmus wird theoretisch analysiert und anschließend implementiert. Nach der praktischen Evaluierung wird der Entwurf anhand der gewonnenen Kenntnisse weiter entwickelt. Formale Verifffizierung der Implementation neben der praktischen Evaluierung kann den Entwicklungsprozess verbessern. Mit der Java Modeling Language (JML) und dem KeY tool stehen eine einfache Spezififfkationssprache und ein benutzerfreundliches, automatisiertes Verififfkationstool zur Verfügung. Diese Arbeit untersucht, inwieweit das KeY tool für die Verifffizierung von komplexeren Algorithmen geeignet ist und welche Rückmeldungen für Algorithmiker aus der Verififfkation gewonnen werden können.Die Untersuchung geschieht anhand von Dijkstras Algorithmus zur Berechnung von kürzesten Wegen in einem Graphen. Es sollen eine konkrete Implementation des Standard-Algorithmus und anschließend Implementationen weiterer Varianten verifffiziert werden. Dies ahmt den Entwicklungsprozess des Algorithmus nach, um in jeder Iteration nach möglichen Rückmeldungen zu suchen. Bei der Verifffizierung der konkreten Implementation merken wir, dass es nötig ist, zuerst eine abstraktere Implementation mit einfacheren Datenstrukturen zu verififfzieren. Mit den dort gewonnenen Kenntnissen können wir dann die Verifikation der konkreten Implementation fortführen. Auch die Varianten des Algorithmus können dank der vorangehenden Verififfkationen verifiziert werden. Die Komplexität von Dijkstras Algorithmus bereitet dem KeY tool einige Schwierigkeiten bezüglich der Performanz, weswegen wir während der Verifizierung die Automatisierung etwas reduzieren müssen. Auf der anderenrn Seite zeigt sich, dass sich aus der Verifffikation einige Rückmeldungen ableiten lassen.
Diese Arbeit behandelt einen Vergleich verschiedener Algorithmen zur Vorhersage der Bewegung einer Person bei der Ausführung einer sportlichen Aktivität. Als Grundlage für die Vorhersage dienen Bildströme, welche mittels zweier Hochgeschwindigkeitskameras aufgezeichnet wurden. Im Laufe der Arbeit werden Vor- und Nachteile der umgesetzten Ansätze theoretisch erläutert und anschliessend an einer Reihe von Messergebnissen nachgewiesen. Für die Messungen wurde eine Anwendung eingesetzt, welche ebenfalls im Rahmen der Arbeit entwickelt wurde. Neben realen Aufnahmen, wurden zusätzlich synthetische Bildfolgen betrachtet, um Erkenntnisse über das Verhalten der betrachteten Algorithmen unter optimalen Bedingungen zu erlangen.
Das allgemeine Erreichbarkeitsproblem in Stellen/Transitions-Netzen behandelt die Frage, ob eine bestimmte Zielmarkierung aus einer anderen Markierung erreichbar ist. Die lineare Algebra als Teilgebiet der Mathematik kann zur Beschreibung und Analyse von Petri-Netzen herangezogen werden. Jedoch stellen Kreise in Netzen bei der Erreichbarkeitsanalyse ein Problem für sie dar: ob für bestimmte Transitionen erforderliche Marken sofort, erst nach dem Durchlaufen bestimmter Kreise oder gar nicht zur Verfügung stehen, ist nicht erkennbar, hat jedoch unmittelbare Auswirkungen auf die Erreichbarkeit. Es gibt verschiedene Möglichkeiten, dieses Problem linear-algebraisch anzugehen. In dieser Arbeit werden vorhandene Verfahren sowie neue Lösungsansätze auf Basis der Reproduzierbarkeit der leeren Markierung diskutiert.
Diese Arbeit befasst sich mit der Migration von Software-Systemen hin zur Verwendung des im Unicode-Standard definierten Zeichensatzes. Die Arbeit wird als Fallstudie am Dokumenten-Management-System PROXESS durchgeführt. Es wird ein Umstellungsprozess entworfen, der die Arbeitsschritte der Migration für das gesamte System und eine beliebige Zerlegung des Systems in einzelne Module definiert. Die Arbeitsschritte für die einzelnen Module können zu großen Teilen zeitlich unabhängig voneinander durchgeführt werden. Für die Umstellung der Implementierung wird ein Ansatz zur automatischen Erkennung von Verwendungsmustern eingesetzt. Im abstrakten Syntaxbaum werden Sequenzen von Anweisungen gesucht, die einem bestimmten Verwendungsmuster zugeordnet werden. Ein Verwendungsmuster definiert eine weitere Sequenz von Anweisungen, die eine Musterlösung für die Unicode-basierte Handhabung von Strings darstellt. Durch das Anwenden einer Transformationsregel wird die ursprüngliche Anweisungssequenz in die zum Verwendungsmuster gehörende Anweisungssequenz überführt. Dieser Mechanismus ist ein Ausgangspunkt für die Entwicklung von Tools, die Transformationen von Anweisungssequenzen automatisch durchführen.
Die Computergrafik befasst sich mit der Erzeugung von virtuellen Bildern. Im Bereich der 3D-Computergrafik werden die dargestellten Objekte im dreidimensionalen Raum beschrieben. Dazu bedient man sich diverser Generierungsverfahren. Einer dieser so genannten Renderer ist das Raytracing-Verfahren. Es erfreut sich in der Computergrafik wegen der erreichten Bildqualität bei ueberschaubarer Komplexität großer Beliebtheit. Dabei wird versucht, immer realistischere Ergebnisse zu erreichen. In der Vergangenheit wurde Raytracing deswegen beispielsweise um globale Beleuchtungsmodelle oder um reflektierende beziehungsweise um transparente Objekte erweitert. Dabei wurde aber ein wichtiger Punkt häufig vernachlässigt, welcher ebenfalls den Grad an Realismus deutlich erhöhen kann: die Kamera. Meistens geht man auch heutzutage von einem vereinfachten Lochkameramodell aus. Aus diesem Grund genügen solche Modelle nicht den Ansprüchen physikalisch-korrekter Renderingverfahren. Eine wirklich umfassend korrekte Abbildung von Szenen darf also nicht vernachlässigen, dass ein generiertes Bild durch ein Linsensystem noch einmal entscheidend beeinflusst wird. In dieser Arbeit wird deswegen ein physikalisch korrektes Kameramodell vorgestellt, welches die geometrischen Eigenschaften des Linsensystems berücksichtigt und die Belichtung auf der Bildebene korrekt berechnet.
Im Rahmen dieser Arbeit werden die Möglichkeiten und Grenzen des Geometry-Shaders in Bezug auf die Triangulierung von Freiformflächen untersucht. Dazu steht die Konzeption und Entwicklung eines Geometry-Shaders im Vordergrund, der Freiformflächen möglichst performant zur Laufzeit triangulieren kann. Hierzu werden NURBS-Datensätze eingelesen, trianguliert und dargestellt.
Im Rahmen dieser Diplomarbeit wird ein Transaktionskonzept für die aktuelle Implementationsversion der TGraphenbibliothek JGraLab Carnotaurus umgesetzt. Nach einer grundlegenden Einführung in das Konzept der TGraphen werden die relevanten Implementationsdetails der TGraphenbibliothek erläutert. Anschließend erfolgt ein konzeptueller Entwurf, in dem die formalen Grundlagen des Transaktionskonzepts beschrieben werden. Das aus der Datenbankwelt bekannte ACID-Paradigma für Transaktionen dient dabei als wissenschaftliche Grundlage. In einem nächsten Schritt erfolgt der objektorientierte Feinentwurf der Integration des zu entwickelnden Transaktionskonzepts in das vorhandene Gesamtsystem, anhand dessen die Implementation durchgeführt wird. Eine Analyse und Bewertung des umgesetzten Transaktionskonzepts (vor allem im Hinblick auf den Speicherverbrauch und das Laufzeitverhalten) schließen die Arbeit ab.