Diplomarbeit
Filtern
Erscheinungsjahr
Dokumenttyp
- Diplomarbeit (169) (entfernen)
Sprache
- Deutsch (169) (entfernen)
Schlagworte
- Augmented Reality (4)
- RIP-MTI (4)
- Routing (4)
- Analyse durch Synthese (3)
- Bildverarbeitung (3)
- Interaktion (3)
- Java (3)
- Kamera (3)
- Markerloses Tracking (3)
- Modellbasiertes Tracking (3)
- Objektverfolgung (3)
- Volumendaten (3)
- Autonome Fahrzeuge (2)
- Computergrafik (2)
- Computergraphik (2)
- Computersimulation (2)
- Computerspiel (2)
- E-Learning (2)
- Echtzeitsysteme (2)
- Evaluation (2)
- Fahrzeug (2)
- Frau (2)
- GPS (2)
- Google App Engine (2)
- Google Web Toolkit (2)
- Konvergenz (2)
- Modelltransformation (2)
- Navigation (2)
- Petri-Netze (2)
- Program Slicing (2)
- RFID (2)
- RIP (2)
- RMTI (2)
- Schatten (2)
- Segmentierung (2)
- Selbstlokalisation (2)
- Shader (2)
- Simulation (2)
- TGraph (2)
- Textur-Mapping (2)
- Tracking (2)
- VOXEL (2)
- Visualisierung (2)
- WebGL (2)
- Whiteboard (2)
- XTPeer (2)
- Zielverfolgung (2)
- 2-D (1)
- 3-D-Modelle (1)
- 3D (1)
- 3D Painting (1)
- 3D-Abbildungen (1)
- 3D-Modelle (1)
- ARIS (1)
- Administration (1)
- Agent (1)
- Ambient Occlusion (1)
- Analyse (1)
- Anforderungskatalog (1)
- Angiographiebilder (1)
- Anhänger (1)
- Animationsfilm (1)
- Animationsverfahren (1)
- Anwendungsintegration (1)
- Anzeige (1)
- ArcGIS (1)
- Architekturbewertung (1)
- Aspect-orientation (1)
- Aspekt-Orientierung (1)
- Augenblick-SDK (1)
- Augmented Reality Szenario (1)
- Aussagenlogik (1)
- Avatare (1)
- Axis Aligned Bounding Box (AABB) (1)
- Beleuchtungsverfahren (1)
- Benutzerorientierung (1)
- Benutzerprofil (1)
- Benutzerschnittstelle (1)
- Besuchersoftware (1)
- Bewegung (1)
- Bewegungsmodell (1)
- Bewegungssteuerung (1)
- Bild (1)
- Bildanalyse-Verfahren (1)
- Bildregistrierung (1)
- Bildsensor (1)
- Bordinstrument (1)
- Bounding Volume Hierarchie (1)
- Browser (1)
- Business Continuity Management (1)
- Business Intelligence (1)
- CAD (1)
- CMS (1)
- CSG (1)
- CSMs (1)
- CSV (1)
- CT-Datensätze (1)
- CTI (1)
- CTI -Problem (1)
- CamInSens (1)
- Casual Game (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Circumscription (1)
- Cisco Catalyst 3500XL (1)
- Closed Source (1)
- Clusteranalyse (1)
- CollaborativeWriting (1)
- Communication System (1)
- Computer Networks (1)
- Computer-aided diagnosis (1)
- Computerbased Communication (1)
- Computerspiele (1)
- Computertomographie (1)
- Computerunterstützte Kommunikation (1)
- Content Management (1)
- Controlling (1)
- Counting-to-Infinity (1)
- DEMO_net (1)
- DIN EN ISO 9241 (1)
- DNNF (1)
- DPLL (1)
- Data-Mining (1)
- Datenanalyse (1)
- Datenaustausch (1)
- Datenschutz (1)
- Datenschutzpolicy (1)
- Delta (1)
- Designwerkzeug (1)
- Desktop (1)
- Digital Storytelling (1)
- Disaster Recovery (1)
- Displacement Mapping (1)
- Display (1)
- Distanz-Vektor (1)
- Drahtmodell (1)
- Dreidimensionale Visualisierung (1)
- Dreidimensionales Modell (1)
- E-Commerce (1)
- E-Partizipation (1)
- E-Procurement (1)
- EEG (1)
- EU-Dienstleistungsrichtlinie (1)
- Eating Disorder (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitfähigkeit (1)
- Echtzeitsystem (1)
- Eclipse (1)
- Eclipse <Programmierumgebung> (1)
- Electronic Commerce (1)
- Electronic Government (1)
- Elektroencephalographie (1)
- Elektronische Signaturen (1)
- EmIL (1)
- Emergence in the Loop (EMIL) (1)
- Emil (1)
- Empfehlung (1)
- Enterprise Architecture (1)
- Enterprise Architecture Frameworks (1)
- Enterprise Resource Planning (1)
- Epipolargeometrie (1)
- Erweiterte Realität (1)
- Erweiterte Realität <Informatik> (1)
- Essstörung (1)
- Europäischer Binnenmarkt (1)
- Event (1)
- FPIC (1)
- Facebook App (1)
- Fachinformationssysteme (1)
- Fahrerlose Transportsysteme (1)
- Fahrsimulator (1)
- Fernsehtechnik (1)
- Filmdarstellung (1)
- Filmfiguren (1)
- Filmgestalt (1)
- Firewall (1)
- Flugkörper (1)
- Fluiddynamik (1)
- Flächenmodell (1)
- Framework (1)
- Framework <Informatik> (1)
- Frameworks (1)
- Frei Programmierbares Kombinationsinstrument (1)
- Funkerkennung (1)
- Funktionelle NMR-Tomographie (1)
- GPGPU (1)
- GPGPU-Programmierung (1)
- GPU (1)
- GReQL 2 (1)
- GReTL (1)
- GUPRO (1)
- Gaps (1)
- Gebäudemodelle (1)
- Geodaten (1)
- Geoinformation (1)
- Geometry (1)
- Geometry-Shader (1)
- Geschäftsmodell (1)
- Gittererzeugung (1)
- Globale Beleuchtung (1)
- Grafikkarte (1)
- Grafikprozessor (1)
- Graphikhardware (1)
- HDR-Bilder (1)
- HDR-Kamera (1)
- HTML 5.0 (1)
- Handlungsempfehlungen (1)
- Haptik (1)
- Herzerkrankungen (1)
- High dynamic Range (1)
- High-Traffic (1)
- Hochgeschwindigkeitstracking (1)
- IK-Algorithmus (1)
- InFO (1)
- Information Flow Ontology (1)
- Information Retrieval (1)
- Informationsvisualisierung (1)
- Inhaltsanalyse (1)
- Innovation (1)
- Innovationsmanagement (1)
- Interaktives Whiteboard (1)
- Interior Gateway Protokoll (1)
- Internet (1)
- Interoperabilität (1)
- Inverse Kinematik (1)
- Inverses Modell (1)
- J2EE (1)
- J2ME (1)
- JCryp-Tool (1)
- JGraLab (1)
- JGraph (1)
- JavaScript (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Kalibrieren <Messtechnik> (1)
- Kalibrierung (1)
- Kamerakalibrierung (1)
- Katadioptrisches Stereosystem (1)
- Katastrophenschutz (1)
- Kirk-Coleman-Modell (1)
- Knowledge Compilation (1)
- Kohärenzanalyse (1)
- Kontinuität (1)
- Kontinuitätsmanagement (1)
- Krisenmanagement (1)
- Kriterienkatalog (1)
- Künstliche Intelligenz (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Laser (1)
- Laserscanner (1)
- Lebensmittelallergie (1)
- Leitstandmodul (1)
- Lernen (1)
- Lernsoftware (1)
- LexLearn (1)
- Lexikon (1)
- Lichttransport (1)
- Linienkorrelationen (1)
- Logistik (1)
- Lokale Bildmerkmale (1)
- Malen (1)
- Mammographie (1)
- Manöver-Visualisierung (1)
- Markov Zufallsfelder (1)
- Marktanalyse (1)
- Matchingverfahren (1)
- Medizinische Visualisierung (1)
- Medizintechnik (1)
- Mensch-Maschine-Schnittstelle (1)
- Merkmalsbewertung (1)
- Metriken (1)
- Mikroanalytisches Modell (1)
- Mikroanalytisches Simulationsmodell (1)
- Mikrocontroller (1)
- Mikrosensus (1)
- Mikrosimulationsmodell (1)
- Mikroskopie (1)
- Mobile Health (1)
- Mobile Kommunikation (1)
- MobileFacets System (1)
- Mobiles Informatinssystem (1)
- Mobiltelefon (1)
- Model View Presenter (1)
- Modellfahrzeug (1)
- Modellieren (1)
- Modellierung (1)
- Monitoring (1)
- Multiagentensystem (1)
- Multivariate Datenanalyse (1)
- Mustererkennung (1)
- Myokard (1)
- NURBS (1)
- Network Virtualization (1)
- Netzhaut (1)
- Netzwerk Virtualisierung (1)
- Netzwerkmanagement (1)
- Netzwerkmonitoring (1)
- Netzwerktechnik (1)
- Nintendo Wii Fernbedienung (1)
- Norm (1)
- Normentstehung (1)
- Notfall (1)
- Notfallmanagement (1)
- Notfallvorsorge (1)
- Nutzungsanalyse (1)
- Nutzungsrechte (1)
- OSS (1)
- Oberflächenorientierung (1)
- Oberflächenstruktur (1)
- Objective-C (1)
- Octree Textur (1)
- Oktalbaum (1)
- Oktonärbäume (1)
- Online-Befragung (1)
- Ontologie (1)
- Open Source (1)
- Open Source Software (1)
- Optisches Mikroskop (1)
- P2P (1)
- P3P (1)
- P3P-Policy-Generator (1)
- PACS- Picture Archiving (1)
- PDA (1)
- PHP (1)
- Personalausweis (1)
- Petri-Netz-Theorie (1)
- Planspiegel-System (1)
- Plugin (1)
- Point Rendering (1)
- Pollenanalyse (1)
- Posebestimmung (1)
- Poseschätzung (1)
- Positionsbestimmung (1)
- PostgreSQL (1)
- Preisbildung (1)
- Privacy (1)
- Programmanalyse (1)
- Programmiersprache (1)
- Propositional Logic (1)
- Prozessanalyse <Prozessmanagement> (1)
- Präsentation (1)
- Public-Key-Infrastruktur (1)
- Punktkorrelationen (1)
- Quantitative Inhaltsanalyse (1)
- RCP (1)
- RDF <Informatik> (1)
- RFCO (1)
- RIP-MTI Algorithmus (1)
- RIP-XT (1)
- Radiales System (1)
- Ray Tracing (1)
- Ray tracing (1)
- Raytracing (1)
- Realistisches Kameramodell (1)
- Rechnernetz (1)
- Rechnernetze (1)
- Register (1)
- Registrierung <Bildverarbeitung> (1)
- Regler (1)
- Regulierung (1)
- Reisedokument (1)
- Relationale Datenbank (1)
- Rendering (1)
- Repast (1)
- Rescueanalyser (1)
- Restrukturierung (1)
- Retinex-Algorithmus (1)
- Rich Internet Application (1)
- Risk (1)
- Robotik (1)
- Router (1)
- Router-based Flow Control Ontology (1)
- Routing Information Protocol (1)
- Routing information protocol (1)
- Routing-Loop (1)
- SIFT-Algorithmus (1)
- SIFT-Merkmale (1)
- SIMD (1)
- SOA (1)
- STOR (1)
- STP (1)
- SURF-Algorithmus (1)
- Schleifenerkennung (1)
- Schwachstellen (1)
- Security (1)
- Selbsthilfe (1)
- Self-help (1)
- Semantic Desktop (1)
- Semantic Web (1)
- Separating-Axis-Theorem (1)
- Serdar Ayalp (1)
- Shaderframework (1)
- Shaderprogramm (1)
- Sicherheit (1)
- Software- Ergonomie (1)
- Softwareentwurf (1)
- Softwarespezifikation (1)
- Soziale Netzwerke (1)
- Spielkonsole (1)
- Sprachverarbeitung (1)
- Stadtmodelle (1)
- Standortbestimmung (1)
- Starrkörper (1)
- Statistische Analyse (1)
- Stereobildfolgen (1)
- Stereosehen (1)
- Stilisierung (1)
- Stomp (1)
- Strategie (1)
- Strategy (1)
- Suat Algin (1)
- Subsurface Scattering (1)
- Supply Chain Management (1)
- Szenengraph (1)
- Tablet PC (1)
- Tarrain Klassifikation (1)
- Technologiemanagement (1)
- Technology Management (1)
- Telemedizin (1)
- Textur (1)
- Texturierung (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tourismus (1)
- Trackingsystem (1)
- Transaction concept (1)
- Transaktion (1)
- Transaktionskonzept (1)
- Transferfunktion (1)
- Transform Feedback (1)
- Triangulierung (1)
- Triangulierungsverfahren (1)
- URM (1)
- Umgebungslicht (1)
- Ungarische Methode (1)
- Uniforme Raumunterteilung (1)
- Unternehmen (1)
- Unternehmensarchitektur (1)
- Usage Rights Management (1)
- User Interface (1)
- Uses and gratifications approach (1)
- VDE (1)
- VDE-Switch (1)
- VLAN (1)
- VTP (1)
- Verortung (1)
- Vertex Buffer Object (1)
- Vertex Buffer Objekt (1)
- Virtual Square (1)
- Virtualisierung (1)
- Virtuelle Menschen (1)
- Virtuelle Realität (1)
- Virtuelles Netz (1)
- Visuelle Odometrie (1)
- Volume Raycasting (1)
- Volumen (1)
- Volumen-Rendering (1)
- Volumenmodell (1)
- Volumenrendering (1)
- Vorliebe (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Web3D (1)
- Webanwendung (1)
- Webseiten (1)
- Weibliches Publikum (1)
- Wertschöpfungskette (1)
- Wii (1)
- Wiimote (1)
- Wiki (1)
- Wikipedia (1)
- Wissenskompilation (1)
- Wissensmanagement (1)
- Wissensvermittlung (1)
- Wolkensimulation (1)
- Workflow (1)
- World Wide Web (1)
- XML-Dokument (1)
- XTpeer (1)
- Xcode (1)
- Zeichentrickfilm (1)
- Zirkumskription (1)
- Zukunftsszenario (1)
- agent (1)
- agent-based model (1)
- agentenbasierte Modellierung (1)
- augmented reality (1)
- automatisierte Videoüberwachung (1)
- camera calibration (1)
- convergence analysis (1)
- data-mining (1)
- e-ID (1)
- eGovernment (1)
- eID (1)
- ePA (1)
- ediv (1)
- ethnic conflicts (1)
- ethnische Konflikte (1)
- event (1)
- high-traffic (1)
- iOS (1)
- iOS 5 (1)
- iOS-SDK (1)
- id card (1)
- interaction (1)
- java (1)
- lineare Algebra (1)
- markerless tracking (1)
- modellgetriebene Softwareentwicklung (1)
- movement (1)
- nPA (1)
- natural language processing (1)
- natürliche Sprache (1)
- octree texture (1)
- person (1)
- projektives Malen (1)
- rip (1)
- rmti (1)
- stereotracking (1)
- syntaktische Analyse (1)
- texturing (1)
- travel document (1)
- usage-mining (1)
- virtual human (1)
- vnuml (1)
- xtpeer (1)
- Überwachung (1)
- Überwachungstechnik (1)
Institut
- Institut für Computervisualistik (76)
- Fachbereich 4 (33)
- Institut für Wirtschafts- und Verwaltungsinformatik (23)
- Institut für Informatik (20)
- Institut für Softwaretechnik (14)
- Institut für Kommunikationspsychologie und Medienpädagogik (2)
- Institute for Web Science and Technologies (2)
- Fachbereich 5 (1)
- Institut für Management (1)
Im Rahmen der Arbeit wurde ein mehrstufiger Algorithmus entwickelt, der es ermöglicht, aus Bildfolgen eine Trajektorie der Kamerabewegung zu rekonstruieren. Die Kalibrierung der Kamera beruht auf dem Verfahren von Zhang und ermöglicht den Ausgleich der durch das Objektiv entstehenden radialen Verzerrung der Bilder. Die sich anschließende Detektion prägnanter Merkmale wird durch den SIFT-Operator geleistet, welcher neben subpixelgenauer Lokalisation der Merkmale zusätzlich einen stark markanten Deskriptor zu deren Beschreibung liefert. Außerdem sind die Merkmale invariant gegenüber Rotationen, was für einige mögliche Anwendungsfälle sehr relevant ist. Die Suche nach Korrespondenzen wurde auf Basis der Distance Ratio ausgeführt. Hier wurde eine komplette Formalisierung der Korrelationsbeziehung zwischen Merkmalsvektoren präsentiert, welche eindeutig eine symmetrische Beziehung zwischen SIFT-Merkmalsvektoren definiert, die den an eine Korrespondenz gestellten Ansprüchen gerecht wird. Zusätzlich wurde motiviert, warum die sonst in der Bildverarbeitung gängige Methode der Hierarchisierung zur Reduktion des Aufwands in diesem speziellen Fall zu schlechteren Inlier-Raten in den gefundenen Korrespondenzen führen kann. Anschließend wurde ein genereller Überblick über den RANSAC-Algorithmus und die aus ihm entspringenden Derivate gegeben.
Das Wissen über die genaue Position und Lage eines unbemannten Luftfahrzeugs spielt während der Durchführung einer autonomen Mission eine dominante Rolle. Unbemannte Luftfahrzeuge sind daher mit einer Vielzahl an Sensoren ausgestattet. Jeder dieser Sensoren leistet einen Beitrag zu diesem Ziel, wobei ein Sensor entweder eine absolute oder eine relative Angabe über den derzeitigen Aufenthaltsort oder die Fluglage ermöglicht. Alle Sensoren werden zu einer Gesamtlösung verknüpft, der Navigationslösung. Das am häufigsten eingesetzte - und auch meistens einzige - Verfahren zur absoluten Positionsbestimmung ist die Satellitennavigation. Diese ist abhängig von einer direkten Sichtlinie der mitgeführten Empfangsantenne zu den Satelliten. Falls es zu einer Unterbrechung dieser Sichtlinie kommt, ist eine genaue, absolute Positionsangabe nicht mehr möglich. Die Navigationslösung hat somit nur noch Sensoren zur Verfügung, die eine relative Positions- bzw. Lageangabe ermöglichen. Hierzu gehören das mitgeführte Magnetometer und das Inertialmesssystem. Beide unterliegen dem Phänomen der Drift. Dieses bedeutet, dass die Genauigkeit der Positions- und Lageangabe bei einem Ausfall der Satellitennavigation mit fortschreitender Zeit zunehmend unzuverlässig wird. Um diese Drift in einem bestimmten Rahmen zu kompensieren, kann ein Bildsensor verwendet werden. Dieser ermöglicht eine bildbasierte Bewegungsschätzung und stellt somit einen zusätzlichen Sensor zur Messung von relativen Lage- und Positionsänderungen dar. Ziel der Arbeit ist es, ein Verfahren zur bildbasierten Bewegungsschätzung für einen unbemannten Helikopter zu entwickeln und zu evaluieren.
Die Selbstlokalisation von Robotern ist schon seit Jahren ein aktuelles Forschungsthema, das insbesondere durch immer weiterentwickelte Techniken und Verfahren verbessert werden kann. Insbesondere finden Laserscanner in der Robotik immer häufiger Anwendung. In dieser Arbeit wird untersucht, ob durch die Fusionierung von Kamerabildern und 3D-Laserscannerdaten eine robuste und schnelle Selbstlokalisation theoretisch sowie praktisch realisierbar ist.
Business continuity planning
(2008)
Unternehmenskrisen lassen die Weltwirtschaft aufhorchen - gerade in jüngster Zeit häufen sich die Nachrichten über Notfälle und folgenschwere Fehlentscheidungen in Organisationen aller Art. Vieles bekommt die Außenwelt aber gar nicht erst mit, wenn die Ausweitung von Störungen noch in letzter Sekunde verhindert werden kann. Und wenn das Ausmaß zu groß wird? Dann droht oft das wirtschaftliche Aus. Business Continuity Planning ist der Vorsorgeprozess, der eine Institution auf den Ausnahmefall vorbereitet und garantiert, dass deren Existenz zu jeder Zeit gesichert ist und alle geschäftskritischen Prozesse auch während einer Krise aufrecht erhalten werden können. Diese Diplomarbeit erleichtert den Einstieg in das Thema Business Continuity Planning und in die erfolgreiche Umsetzung von Notfallmaßnahmen. Aus dem Blickwinkel der IT werden wertvolle Definitionen und Abgrenzungen gegeben und die Problemstellungen und Lösungswege einer individuellen Notfallvorsorge aufgegriffen. Fokussiert wird ein umfassender Überblick über die zentralen Teilbereiche des Planungsprozesses (und ihrer Erfolgskriterien) und ein praktischer Einblick in das Krisenmanagement.
Mit dem Projektpraktikum "MicSim" wurde 2004 der Grundstein für ein auf Java basierendes Mikrosimulationssystem gelegt. Für das gleichnamige Produkt diente UMDBS von Prof. Dr. Thomas Sauerbier, Fachhochschule Giessen-Friedberg als Vorlage, welche eine Modellimplementierung in MISTRAL vorsieht. Da MISTRAL eine veraltete prozedurale Programmiersprache ist und somit nicht mehr dem objektorientierten Zeitgeist entspricht, entschloss sich die Projektgruppe eine gänzlich neue objektorientierte Umgebung zu erstellen. Diese sollte sowohl den Funktionsumfang von UMDBS beinhalten, als auch eine bequeme Möglichkeit bieten, objektorientierte Modelle einer Mikrosimulation in Java zu erstellen. Das Projektpraktikum endete 2005 mit einem lauffähigen objektorientierten Nachfolger von UMDBS. Da jedoch MicSim noch einige Schwachstellen aufwies, wurde dieses System in der Studienarbeit "MicSim - Agentenbasierte Mikrosimulation" von Pascal Berger, Dennis Fuchs, Peter Hassenpflug und Christian Klein 2006 weiterentwickelt und zu dem heutigen "CoMICS" umbenannt. Jedoch konnten nicht alle Probleme der Software beseitigt werden. So blieb das schlecht skalierende Ablaufverhalten einer Simulation und die unzureichende Unterstützung des Benutzers bei syntaktischen Programmierfehlern weiterhin bestehen. Dies führte zu dem Entschluss, ausgehend von CoMICS, die Idee eines java-basierten Mikrosimulationssystems weiter auszubauen. Im Zuge einer Analyse dieses Systems kristallisierten sich sehr schnell einige Punkte heraus, die uns verbesserungswürdig erschienen. Die gravierendste Veränderung stellte hierbei die Umstellung auf eine event-orientierte Mikrosimulation dar. Hierzu mussten die komplette Modellstruktur, Ablauflogik und sogar jegliche Modellierungswerkzeuge neu entwickelt werden. All dies führte dazu, dass CoMICS II von Grund auf neu entwickelt werden musste.
Diese Arbeit hat die Entwicklung eines Verfahrens zum Ziel, dass Bewegung und auftretende Bewegungsunschärfe durch Verfahren des Non-Photorealistic Renderings darstellt. Dabei soll das angestrebte Verfahren den Verlauf der Bewegung für ein dargestelltes Bild ermitteln und mit Speed Lines annähern. Das sich bewegende Objekt bzw. der sich bewegende Teil des Objekts wird abhängig von der Stärke der Bewegung teilweise bis komplett ausgeblendet. Das Verfahren soll echtzeitfähig sein. Aufgrund von vorgestellten Verfahren im Bereich NPR und Motion Blur entwickelt die Arbeit eigene Ansätze, die die genannten Anforderungen umsetzen. Dabei beachtet die Arbeit zwei Aspekte: Sie nimmt so wenige Änderungen wie möglich am verwendeten Szenegraphen vor und führt nach Möglichkeit zur Laufzeit keine Berechnungen auf Seiten der CPU durch. So soll ein Verfahren entstehen, das als Post-Processing Verfahren in Anwendungen integriert werden kann, interaktive Wiederholungsraten ermöglicht und damit auch in Spielen zur Anwendung kommen kann.
Animierte Kinderfilme können als zentrale Bestandteile westlicher Kinderkultur betrachtet werden und erfreuen sich großer Beliebtheit bei ihrer Zielgruppe. Dementsprechend erscheint eine sorgfältige wissenschaftliche Auseinandersetzung mit den Inhalten dieser Filme sinnvoll. Bisherige quantitative Inhaltsanalysen befassten sich überwiegend mit „klassischen“ Disney-Zeichentrickfilmen. Modernere computeranimierte Spielfilme unterschiedlicher Filmstudios sind bislang jedoch vergleichsweise seltener untersucht wurden. In der quantitativen Inhaltsanalyse in dieser Arbeit soll daher genau hierzu ein Beitrag geleistet werden, indem Darstellungen in 20 populären computeranimierten Kinderfilmen aus den Jahren 2000 bis 2013 in den Blick genommen werden. Im Fokus stehen dabei die Beziehungen zwischen demografischen, physischen, sprachlichen sowie zwischen persönlichkeits- und verhaltensbezogenen Merkmalen der Filmfiguren und ihrer „Güte“ bzw. „Boshaftigkeit“.
Ergänzend werden im Rahmen von Extremgruppenanalysen speziell die Merkmale ganz besonders „guter“ bzw. besonders „böser“ Filmfiguren untersucht. Außerdem werden die Merkmale von Figuren, die im Laufe der Handlungen eine grundlegende Wandlung ihrer „Güte“ bzw. „Boshaftigkeit“ durchmachen, analysiert. Hierdurch soll ein umfassendes Bild über „Darstellungstrends“ hinsichtlich der „Güte“ bzw. „Boshaftigkeit“ animierter Filmfiguren sowie darüber, inwieweit diese mit bestimmten Stereotypen verknüpft sind, ermöglicht werden.
Im Theorieteil der Arbeit wird zunächst der bisherige Forschungsstand in Bezug auf typische Darstellungen in animierten Kinderfilmen skizziert. Es folgt eine Beschreibungen von Theorien und empirischen Befunden über mögliche Wirkungen auf Kinder, die solche Filme anschauen. Im empirischen Teil der Arbeit wird anschließend das methodische Vorgehen der eigenen Inhaltsanalyse beschrieben. Außerdem werden hier die entsprechenden Forschungsergebnisse erörtert sowie im Hinblick auf mögliche Wirkungen und pädagogische Schlussfolgerungen diskutiert. Wie die Befunde zeigen, ist die Darstellung von „Gut“ und „Böse“ in den untersuchten Animationsfilmen insgesamt nur in einzelnen Punkten als klischeehaft zu bezeichnen: Beispielsweise sind „gute“ Figuren signifikant attraktiver und erreichen am Ende eines Films deutlich positivere Resultate als „böse“ Charaktere. Überwiegend sind die Befunde dieser Inhaltsanalyse jedoch auch im Hinblick auf ihr Wirkungspotenzial auf Kinder als eher positiv einzuschätzen. Weitere Forschung hierzu kann allerdings als wichtig erachtet werden.
Ein neueres Thema innerhalb des Forschungsbereichs Semantic Web behandelt die Verarbeitung von Anfragen über Linked Open Data (LOD). Wie in der Literatur bereits diskutiert wurde, lässt sich der losen Zergliederung innerhalb des "Web of Data" und dessen Datenquellen durch moderne föderierte Verarbeitungsstrategien bezüglich eingehender Anfragen begegnen. Dieser Ansatz ist jedoch umso mehr abhängig von aktuellen statistischen Informationen (Datenstatistiken) über sämtliche der benutzten Datenquellen einerseits, und genauen Schätzungen von Kardinalitäten und Selektivitäten andererseits. Da föderierte Datenquellen im Allgemeinen keine Auskunft über die Statistik der von ihnen verwalteten Daten geben, schlagen sich Änderungen an diesen Daten nicht automatisch in den zentralen Datenstatistikkatalogen nieder - die verwalteten Datenstatistiken werden obsolet. In der vorliegenden Arbeit wird die Erweiterung eines RDF-basierten Query-Federators beschrieben, die die Obsoleszenz von zentral verwalteten Datenstatistiken beurteilen und eine gegebenenfalls notwendige Aktualisierung einzelner Datenstatistiken unternehmen können soll. Als Grundlage dazu dient die Beobachtung auftretender Fehler in der Kardinalitätsschätzung ausgewerteter Queries. Eine Evaluation des Systems wird anschließend beschrieben. Die Ergebnisse zeigen die prinzipielle Richtigkeit der zugrundeliegenden Überlegungen, die praktische Anwendbarkeit kann jedoch nicht überzeugend demonstriert werden. Die Wiederverwendung der entwickelten Systemerweiterung für vielversprechendere Ansätze erscheint jedoch möglich und wird diskutiert.
Im Laufe der Zeit fallen in einem Unternehmen große Mengen von Daten und Informationen an. Die Daten stehen im Zusammenhang mit unternehmensinternen Vorgängen, mit dem Marktumfeld, in dem das Unternehmen positioniert ist, und auch mit den Wettbewerbern. Sie sind vielfältiger Art, normalerweise inhomogen und aus verteilten Datenquellen zu beziehen. Um in dieser Flut von Daten die Übersicht zu behalten, die Menge an Informationen effektiv für das Unternehmen nutzbar zu machen, vor allem auch nachhaltig für kommende Entscheidungsfindungen, müssen die Daten analysiert und integriert werden. Diese Optimierung der Entscheidungsfindung durch Zugang zu Informationen, deren Analyse und Auswertung wird häufig unter dem Begriff "Business Intelligence" zusammengefasst. Der Wert der vorhandenen Informationen hängt stark von dem erwähnten Zugang und einer ausdrucksstarken Repräsentation ab. RIA-Techniken ermöglichen eine einfache Verfügbarkeit der verarbeiteten Geschäftsdaten über Inter- und Intranet ohne große Anforderungen an ihre Nutzbarkeit zu stellen. Sie bieten zudem spezialisierte leistungsfähige und in großem Maße programmierbare Visualisierungstechniken. Die Diplomarbeit soll zwei Schwerpunkte habe. Zum Einen wird sie sich mit Arten der Informationsvisualisierung im Allgemeinen und deren Eignung für Geschäfsdaten beschäftigen. Der Fokus liegt hierbei auf Daten und Informationen in Management-Informationsberichten. Ziel ist eine Visualisierungsform, die es dem Nutzer ermöglicht, die zu kommunizierenden Informationen effizient auszuwerten. Zum anderen untersucht die Diplomarbeit die Vor- und Nachteile des Einsatzes von RIAs. Der Implementierungsteil umfasst eine RIA als "Proof of Concept", deren Hauptaugenmerk auf eine dynamische Interaktion und optimierte Informationsvisualisierung gerichtet sein soll. Die Diplomarbeit wird bei der Altran CIS in Koblenz durchgeführt.
Dynamisches Tone Mapping einer High Dynamic Range Echtzeit 3D-Umgebung mit der Grafik Hardware
(2007)
Die Diplomarbeit "E-Partizipation Virtuelles Ressourcen Portal" beschreibt die Konzeptionalisierung und Implementierung des Virtual Resource Centre (VRC), eines internationalen Ressourcen- und Wissensportals für die multidisziplinäre Forschung und Anwendungsgebiete im Bereich E-Partizipation. Die Notwendigkeit für ein solches Portal entstand im Rahmen des europäischen DEMO_net Projekts, dem Exzellenznetzwerk für E-Partizipation. Das Ziel des Portals ist die verbesserte Verbreitung der aktuellen Wissensstände der angeschlossenen Forscher und Praktiker im Bereich von E-Partizipation. Dabei sollen gemeinsame Arbeiten und Diskussionen in den verteilten Projekten verbessert und die Ergebnisse dieser Arbeiten publiziert und gespeichert werden. Dazu ist ein leicht bedienbares und gut strukturiertes Portal notwendig, da viele angeschlossene Institutionen nicht aus dem technischen Bereich kommen. Die weiteren Ziele des VRC sind unter anderem, redundante Entwicklungen zu vermeiden, exzellente Forschungs- und Umsetzungseinrichtungen des Themenfeldes auszuweisen und die laufenden Projekte in E-Partizipation nach wählbaren Kategorien dynamisch aufzulisten. Die technische Grundlage für das Wissensportal ist ein mit vielen Erweiterungen versehenes Web Content Management System (WCMS). Um das den Anforderungen entsprechende WCMS zu ermitteln, werden mittels einer Nutzwertanalyse die verschiedene Systeme Plone, TYPO3 und Xoops verglichen. Durch das Einbinden und Entwickeln von Erweiterungen werden die speziellen Anforderungen an das VRC erfüllt, die die Verwaltung von Publikationen, Übersicht über Projekte, und Forschungsdisziplinen usw. unter Verwendung aktueller Web 2.0 Funktionalitäten beinhalten. Der Diplomarbeit liegen zwei Forschungsmethodiken zu Grunde. Design Research wurde als die grundlegende Methodik für diese Diplomarbeit gewählt. Design Research beschreibt in fünf Phasen einen Leitfaden nach dem ein Portal modelliert und anschließend realisiert werden kann. Eine weitere angewandte Methodik ist das Hypertext Design Modell, welches zum Erstellen eines Modells des VRC genutzt wird. In der Beschreibung der Implementierungen werden neben den Änderungen am WCMS, unter anderem auch die Benutzerverwaltung und Zugriffssteuerung, handbuchartig beschrieben. Zum Abschluss wird ein Überblick über die entstandenen Herausforderungen und Empfehlungen für weitere Entwicklungen und mögliche Arbeiten gegeben.
Die Idee des Displacement Mappings ist 30 Jahre alt und wurde im Laufe der Zeit immer weiterentwickelt, verbessert und realistischer. Die meisten Verfahren basieren auf der Simulation von Geometrie, d.h. das Displacement Mapping Verfahren rechnet auf speziellen Texturen, um den Eindruck von Tiefe zu verstärken. Echte Displacement Mapping Verfahren verändern tatsächlich die Geometrie, doch davon wurde in der Vergangenheit Abstand genommen, da die Berechnung auf der CPU zu aufwändig war bzw. das Ergebnis nicht den Aufwand rechtfertigte. Dazu mussten bisher die Punkte von der Applikation im geeigneten Detailgrad erzeugt werden. Die Verfahren der Geometrieerzeugung sind daher weniger performant. Außerdem können die texturbasierten Simulationsverfahren bereits blickwinkelabhängige Effekte, Selbstverschattung und auch Selbstverdeckungen darstellen. Als Nachteil sind die Randprobleme bei diesen Verfahren zu nennen. Dennoch hat Displacement Mapping mit diesen Verfahren zunehmend Einzug in die Spieleindustrie gehalten, für die es bisher zu rechenaufwändig war. Hier bieten die neusten Erweiterungen der GPU interessante Potentiale, da mit Geometry Shadern die Möglichkeit besteht, echte Geometry beschleunigt und adaptiv zu erzeugen. Ziel dieser Arbeit ist es verschiedene Verfahren für echtes Displacement Mapping mit dem Geometry Shader zu untersuchen. Dabei wird neue Geometrie aus einer Textur heraus erzeugt. Hierbei werden Polygone und Punkte generiert. In der Textur werden neben den Normalen noch die Höhenwerte im Alphawert gespeichert. Außerdem wird noch ein Verfahren untersucht, welches Volumeninformationen simuliert, um Überhänge und schwebende Objekte zu erzeugen.
Schatten erhöhen sichtbar den Realitätsgrad von gerenderten Bildern. Außerdem unterstützen sie den Benutzer in der Augmented Reality beim Greifen und Manipulieren von virtuellen Objekten, da sie das Einschätzen von Position und Größe dieser Objekte leichter machen. 1978 veröffentlichte Lance Williams den Shadow Mapping-Algorithmus, der einen Schatten in virtuellen Umgebungen erstellt. Diese Diplomarbeit stellt einen Modifikation des Standard Shadow Mapping-Algorithmus vor, der zusätzlich in Augmented/Mixed Reality-Umgebungen genutzt werden kann. Der Ansatz erweitert den Standard Algorithmus zunächst um einem PCF-Filter. Dieser Filter behandelt das Aliasing-Problem und erstellt außerdem weiche Schattenkanten. Damit der Schattenalgorithmus aber einen Schatten in einer Mixed Reality-Umgebung erstellen kann, werden Phantomobjekte benötigt. Diese liefern dem Algorithmus die Position und die Geometrie der realen Objekte. Zur Erstellung der Schatten geht der Ansatz folgendermaßen vor: Zuerst zeichnet der Algorithmus das Kamerabild. Danach wird eine Shadow Map mit allen virtuellen Objekten erstellt. Beim Rendern der virtuellen Objekte wird mit dem Shadow Mapping ein Schatten von allen virtuellen Objekten auf sich selbst und auf allen anderen virtuellen Objekten erzeugt. Danach werden alle Phantomobjekte gerendert. Der Fragmentshader führt wieder den Tiefentest durch. Liegt ein Fragment im Schatten, so bekommt es die Farbe des Schattens, ansonsten wird die Transparenz auf eins gesetzt. Damit werden alle Schatten von den virtuellen auf den realen Objekten erzeugt. Die Ergebnisse des Ansatzes zeigen, dass dieser in Echtzeit in Mixed Reality-Umgebungen genutzt werden kann. Außerdem zeigt ein Vergleich mit einem modifizierten Shadow Volume-Algorithmus, der ebenfalls für Mixed Reality-Umgebungen genutzt werden kann, dass der eigene Ansatz einen realistischer wirkenden Schatten in kürzerer Zeit erzeugt. Somit erhöht der Ansatz den Realitätsgrad in Augmented Reality-Anwendungen und hilft dem Benutzer bei der besseren Einschätzung von Distanzen und Größen der virtuellen Objekte.
In dieser Diplomarbeit wurde eine Echtzeitanwendung entwickelt, die Gras darstellt und zugleich äußere Einflüsse wie Wind oder Kollisionen auf das Gras berücksichtigt. Ein Level-of-Detail-System ermöglicht die Darstellung und Physiksimulation einer großen Wiese in drei Stufen. Semi-transparente Texturquads zur Darstellung und Partikel mit Constraints an der Stelle der Graspatches stellen die feinste Detailstufe in allernächster Nähe zum Betrachter dar. Die Partikel, die nur auf der feinsten Detailstufe verwendet werden, werden mittels einer Physik-Engine berechnet und reagieren auf verschiedene Starrkörper. Die zweite Detailstufe besteht ebenfalls aus Texturquads, die um das erste Detaillevel herum generiert werden. Diese sind jedoch spärlicher verteilt, sehen auf Grund der Distanz zum Betrachter allerdings identisch mit denen aus der ersten Stufe aus. Als letzte Repräsentationsform von Gras kommt eine einfache Bodentextur zur Anwendung. Durch dieses Level-of-Detail-System ist es möglich eine unendlich große Wiese zu simulieren, da die Gräser zur Laufzeit generiert werden. Ein umfangreiches Benutzerinterface ermöglicht die Veränderung einiger Simulationsparameter in Echtzeit und die Generierung verschieden großer Rasenflächen. Zusätzlich lassen sich verschiedene Objekte in der Simulationsumgebung bewegen um die Kollisionsbehandlung testen zu können.
Diese Arbeit macht sich zur Aufgabe, das effiziente Navigieren in virtuellen Szenen näher zu betrachten, um bereits bestehende Navigationsmetaphern genauer zu erforschen und für unterschiedliche Einsatzgebiete anwendbar zu machen. Betrachtet werden Softwareprodukte für durchschnittliche Desktop-Benutzer, die mit Standard-Eingabegeräten arbeiten. Hierzu werden zunächst bestehende Navigationsmetaphern analysiert und Möglichkeiten der Benutzerperspektive sowie andere Hilfsmittel im Hinblick auf ihr aktuelles Anwendungsgebiet diskutiert. Anschließend wird ein theoretisches Testszenario erstellt, in dem alle analysierten Metaphern betrachtet und verglichen werden können. Ein Teil dieses Szenarios wird praktisch umgesetzt, in eine Testumgebung integriert und anhand von Benutzertests evaluiert. Zuletzt werden Möglichkeiten aufgezeigt, inwiefern die betrachteten Navigationsmetaphern in verschiedenen Einsatzgebieten sinnvoll und effizient anwendbar gemacht werden können.
Standards haben längst Einzug in das Gebiet der Informatik gehalten. Verschiedenste Organisationen beschäftigen sich mit der Beschließung von Normen für die standardisierte Lösung von Problemen in der Informatik. Ein wichtiger Teilaspekt ist die Spezifizierung von Datenformaten, die die Interoperabilität von Programmen sichern kann. Dabei existieren viele verschiedene Schemasprachen, die auf unterschiedliche Anforderungen ausgelegt sind, und mit deren Hilfe die Menge der konformen Dokumente beschrieben werden kann. Die Kombination mehrerer Schemasprachen ist sinnvoll, da die Mächtigkeit einer Sprache oftmals nicht ausreicht, um die Anforderungen zu erfassen. So auch im Fall der, von IMS entwickelten, Spezifikation Common-Cartridge. Das Common-Cartridge-Format beschreibt valide Zip-Pakete, die dazu genutzt werden können, verschiedene Lernobjekte zu aggregieren und als zusammenhängende Lerneinheit in eine Lernplattform zu importieren. Die Spezifikation benutzt bereits vorhandene und bewährte Spezifikationen, um Teile gültiger XML-Dokumente zu beschreiben. Diese sind selbst Teil eines Pakets und können Referenzen enthalten, die den Inhalt mit der Paketstruktur in Verbindung bringen. Dabei wird das Common-Cartridge-Format durch ein sogenanntes Domain-Profile erfasst. Ein solches erlaubt die Anpassung einer oder mehrerer Standards bzw. Spezifikationen, um die Bedürfnisse einer bestimmten Domäne abzudecken. Zudem können sogenannte Testregeln definiert werden, die für die Bestimmung der für ein Datenpaket auszuführenden Testaufgaben genutzt werden können. Letztlich kann die automatische Erstellung eines Testsystems veranlasst werden, welches diese Aufgaben ausführen kann. Somit stellt sich die Frage, ob ein Domain-Profile ebenso dazu eignet ist, die Anforderungen anderer paket-basierter Datenformate zu erfassen, und ob die nötigen Änderungen an den unterstützenden Tools vorgenommen werden können. Schließlich würde dies die Überprüfung gestellter Anforderungen ermöglichen.
Diese Arbeit soll sich mit einer beispielhaften Anwendung des Verfahrens befassen, um diese Fragen nach Möglichkeit zu beantworten. Dazu soll der verwendete Ansatz auf die Datenformate übertragen werden, die Teil der Spezifikation des Virtual Company Dossiers - VCD - sind. Diese legen ebenso paket-basierte Formate fest, die innerhalb eines elektronischen Ausschreibungsprozesses verwendet werden. Sie ermöglichen die Erfassung von Evidenzen, die die notwendige Qualifikation eines Bewerbers, sowie die Erfüllung der, mit dem Ausschreibungsverfahren verbundenen Kriterien nachweisen.
Im praktischen Teil werden somit zuerst die Ähnlichkeiten der beiden Formate herausgearbeitet. Diese dienten der Identifizierung abstrakter Anforderungen, die, soweit möglich, mit den gleichen Formalismen festgehalten wurden. Dabei wurden Änderungen an den unterstützenden Tools vorgenommen, um die Erfassung aller VCD-spezifischen Anforderungen zu ermöglichen. So wurden das Format, und das Tool zur Erstellung von Applikationsprofilen, angepasst. Schließlich erfolgten Änderungen am generischen Testsystem, welches zur Herleitung konkreter Testsysteme genutzt wird. Letztlich stellte sich heraus, dass ähnliche Anforderungen bestehen, und die unterstützenden Tools in einer Weise angepasst werden konnten, die die Menge der erfassbaren Anforderungen erweitert. Da der Hintergrund der beteiligten Spezifikationen sich zudem signifikant unterscheidet, ist davon auszugehen, dass das Verfahren in einem weiten Spektrum von Anwendungsfällen eingesetzt werden kann.
Ein Interpreter für GReQL 2
(2006)
Im Rahmen dieser Diplomarbeit wird die Auswertungskomponente fuer die Graphanfragesprache GREQL 2, welche von Katrin Marchewka beschrieben wurde, entworfen, welche Anfragen diese Sprache interpretiert. Die Auswertungskomponente besteht aus den Bausteinen Auswerter, Parser, Optimierer, Funktionsbibliothek und dem Containerframework JValue. Der Parser wurde bereits von Katrin Marchewka implementiert, der Optimierer bleibt einer Anschlußarbeit vorbehalten. Innerhalb dieser Arbeit werden die Bausteine Auswerter, Funktionsbibliothek und JValue als Prototypen implementiert. Aufgrund der Erfahrungen mit der Auswertungskomponente fuer den GREQL 2-Vorgaenger GREQL 1 ist das Primaerziel dieser Arbeit der Entwurf einer sauberen, klaren, erweiterbaren und zukunftsfähigen Architektur, wobei die aktuellen Prinzipien der Softwaretechnik beüecksichtigt werden sollen.
In dieser Arbeit wurden effektive und flexible Ansätze zur Erstellung von Shaderprogrammen für grafikkartenbasiertes Volumenrendering untersucht sowie ein Framework mit diesem Einsatzzweck konzipiert und prototypisch umgesetzt. Dazu wurden zunächst Ansätze zur Metaprogrammierung von Shadern vorgestellt, die Programmiersprachen für Shader um zusätzliche Möglichkeiten zur Kapselung von Code erweitern. Eine Umfrage zu Anforderungen an Volumenrendering bei MEVIS zeigte, dass dort ein Shaderframework für Volumenrendering ein Expertenwerkzeug wäre.Der Analyseteil stellte die zentralen Anforderungen an das zu erstellende Framework vor: Erstellung von Shadern des Volumenrenderers mittels Rapid Prototyping, modularer Aufbau der Shaderprogramme, Eignung für verschiedene Volumenrendering-Algorithmen und die Möglichkeit detaillierter Anpassungen am Volumenrendering-Shader, um für den Einsatz durch Experten geeignet zu sein.