Filtern
Erscheinungsjahr
- 2009 (31) (entfernen)
Dokumenttyp
- Diplomarbeit (31) (entfernen)
Schlagworte
- Shader (2)
- Whiteboard (2)
- ARIS (1)
- Administration (1)
- Analyse (1)
- Analyse durch Synthese (1)
- Anhänger (1)
- Anwendungsintegration (1)
- Anzeige (1)
- Architekturbewertung (1)
- Augenblick-SDK (1)
- BPMS (1)
- Beleuchtungsverfahren (1)
- Benutzerprofil (1)
- Bildsensor (1)
- Bildverarbeitung (1)
- Bordinstrument (1)
- CMS (1)
- CT-Datensätze (1)
- Casual Game (1)
- Cisco Catalyst 3500XL (1)
- CollaborativeWriting (1)
- Computerbased Communication (1)
- Computergraphik (1)
- Computersimulation (1)
- Computerspiel (1)
- Computertomographie (1)
- Computerunterstützte Kommunikation (1)
- Datenanalyse (1)
- Desktop (1)
- Displacement Mapping (1)
- Display (1)
- Dreidimensionales Modell (1)
- EEG (1)
- Eating Disorder (1)
- Echtzeitsystem (1)
- Elektroencephalographie (1)
- EmIL (1)
- Empfehlung (1)
- Enterprise Architecture (1)
- Enterprise Architecture Frameworks (1)
- Erweiterte Realität <Informatik> (1)
- Essstörung (1)
- Evaluierung (1)
- FPIC (1)
- Fahrsimulator (1)
- Fahrzeug (1)
- Flugkörper (1)
- Fluiddynamik (1)
- Framework <Informatik> (1)
- Frameworks (1)
- Frau (1)
- Frei Programmierbares Kombinationsinstrument (1)
- Funktionelle NMR-Tomographie (1)
- GReTL (1)
- Gaps (1)
- Geometry (1)
- Geometry-Shader (1)
- Gittererzeugung (1)
- Grafikkarte (1)
- Handlungsempfehlungen (1)
- High dynamic Range (1)
- Inpainting-Verfahren (1)
- Interaktion (1)
- Interaktives Whiteboard (1)
- Interoperabilität (1)
- JGraLab (1)
- Kalibrieren <Messtechnik> (1)
- Kalibrierung (1)
- Katadioptrisches Stereosystem (1)
- Kohärenzanalyse (1)
- Lichttransport (1)
- Markerloses Tracking (1)
- Merkmalsbewertung (1)
- Mikroskopie (1)
- Modellbasiertes Tracking (1)
- Modellfahrzeug (1)
- Modelltransformation (1)
- Mustererkennung (1)
- NURBS (1)
- Navigation (1)
- Nintendo Wii Fernbedienung (1)
- Norm (1)
- Normentstehung (1)
- Oberflächenstruktur (1)
- Objektentfernung (1)
- Objektverfolgung (1)
- Oktalbaum (1)
- Online-Befragung (1)
- Optisches Mikroskop (1)
- Petri-Netz-Theorie (1)
- Petri-Netze (1)
- Planspiegel-System (1)
- Point Rendering (1)
- Pollenanalyse (1)
- Prozessanalyse <Prozessmanagement> (1)
- Präsentation (1)
- RDF <Informatik> (1)
- RIP-MTI (1)
- Radiales System (1)
- Ray tracing (1)
- Registrierung <Bildverarbeitung> (1)
- Regler (1)
- Restrukturierung (1)
- Routing Information Protocol (1)
- SIMD (1)
- STP (1)
- Schleifenerkennung (1)
- Schwachstellen (1)
- Segmentierung (1)
- Selbsthilfe (1)
- Self-help (1)
- Semantic Desktop (1)
- Semantic Web (1)
- Serdar Ayalp (1)
- Suat Algin (1)
- Subsurface Scattering (1)
- TGraph (1)
- Textur-Mapping (1)
- Transaction concept (1)
- Transaktion (1)
- Transaktionskonzept (1)
- Transform Feedback (1)
- Triangulierung (1)
- Unternehmensarchitektur (1)
- Uses and gratifications approach (1)
- VDE (1)
- VDE-Switch (1)
- VLAN (1)
- VOXEL (1)
- VTP (1)
- Vertex Buffer Object (1)
- Vertex Buffer Objekt (1)
- Virtual Square (1)
- Volumen (1)
- Volumendaten (1)
- Weibliches Publikum (1)
- Wiimote (1)
- Wikipedia (1)
- Wolkensimulation (1)
- Workflow (1)
- World Wide Web (1)
- Zielverfolgung (1)
- evaluation (1)
Ziel dieser Arbeit war es, den in [Rhe06] dargestellten operationalen Ansatz zur Modelltransformation mit Hilfe der am Institut für Softwaretechnik der Universität Koblenz-Landau vorhandenen Bibliotheken "JGraLab" und "GReQL" in Java zu implementieren. Die Implementierung sollte beweisen, dass der aufgezeigte Transformationsansatz in der Praxis umsetzbar ist. Dies wurde durch verschiedene Beispiele bewiesen. Die geplante Verwendung in weiteren Projekten des IST wird für die Zukunft zeigen, ob sich weitere Transformationen umsetzten lassen oder wo die Grenzen des Ansatzes sind. Des weiteren ist denkbar, die Transformationen nicht mehr in zwei Schritten (Schematransformation vor Graphtransformation), sondern beide Schritte auf einmal ablaufen zu lassen. Dieser Schritt setzt jedoch voraus, dass JGraLab dies ebenfalls unterstützt.
Ziel der Arbeit ist es, Kriterien und Gütemaße zur Bewertung von Merkmalen aus der Musterklassifikation zu finden und diese so in eine graphische Evaluationsumgebung zu integrieren, dass der Nutzer befähigt wird, Erkenntnisse über die Struktur des Merkmalsraumes und die Qualität der einzelnen Merkmale zu erlangen, so dass er zielführend eine möglichst optimale Teilmenge - im Sinne der Klassifikationsgüte und der Anzahl der Merkmale - gewinnen kann. Zunächst werden allgemeine visuelle Merkmale von Pollenkörnern und die manuelle Pollenzählung vorgestellt sowie eine Übersicht über das Pollenmonitor-Projekt zur automatisierten Pollen-Erkennung gegeben. Einem Überblick über die Grundlagen der Mustererkennung mit den Teilschritten Merkmalsextraktion und Klassifikation folgt eine Vorstellung von Kriterien zur Merkmalsbewertung und Verfahren zur Merkmalsselektion. Im Mittelpunkt stehen Entwurf und Umsetzung der Evaluationsumgebung sowie Experimente zur Bewertung und Selektion optimaler Teilmengen aus dem Testdatensatz
The goal of this thesis was to develop an interactive cloud simulation based on physical laws from fluid and cloud dynamics that can be used to visualize the physical processes involved in the cloud formation process. Chapter 2 showed that a great number of cloud modeling methods already exist, both procedural and physically motivated. Since the simulation developed in this thesis is based on computational fluid dynamics, the most influential works in this field in relation to computer graphics were also identified. Next, the cloud formation process in the atmosphere was explained, demonstrating the connections between air pressure, temperature and humidity. The temperature distribution of the atmosphere was identified as the most significant factor in cloud formation, before two different kinds of cloud classifications were introduced. The following chapter was dedicated to formulating the previously described cloud formation process in terms of physics. It presented the Navier- Stokes equations of incompressible fluid motion as the method of describing the movement of air masses in the atmosphere and explained how they can be simplified. Furthermore, this chapter was used to introduce concepts from thermodynamics that are necessary for the description of cloud dynamics, and to present a water continuity model that defines the state changes of water in the atmosphere. It was also explained where and how the presented concepts abstract from reality. In chapter 5, it was first described how the cloud model was developed based on the concepts evaluated before, identifying the temperature, water vapor, cloud water, and velocity as the state variables necessary for a cloud simulation. Next, the unconditionally stable implicit semi-Lagrangian method for the solution of the Navier-Stokes equation was presented, and it was explained how the equations for the water continuity, latent heat, and buoyant force computations are solved. All the steps were then summarized and put into context by describing the simulation loop that is executed for every step of the cloud simulation. In the following, details were given about the simple rendering method for the clouds, and the visualization methods for the velocity field and the temperature were evaluated. Finally, the user interface that controls the parameters of the simulation was explained. Chapter six showed the results of the simulation of convective and stratus clouds and commented on the performance of the system.
In den systematischen Neurowissenschaften werden oft Experimente durchgeführt, welche die Kommunikation von Hirnarealen bei der Bewältigung einer bestimmten Aufgabe untersuchen. Dabei wird angenommen, dass Neuronenverbände, die ihre Aktivität synchronisiert haben, an dieser Aufgabe beteiligt sind. In den aufgezeichneten EEG-Daten kann diese Zusammenarbeit anhand von interregionaler Kohärenz als Phasensynchronizität der Hirnstromfrequenz nachgewiesen bzw. quantifiziert werden. Ziel der Arbeit ist die Implementierung einer Software, welche die notwendigen Schritte der Kohärenzanalyse durchführt und die Ergebnisse statistisch aufbereitet und darstellt. Da die Verfahren und der Ablauf weitgehend durch die Anforderungsspezifikation vorgegeben sind, liegt ein Schwerpunkt der Arbeit auf dem Entwurf und der Programmierung einer intuitiv zu bedienenden Benutzeroberfläche, die den automatisierten Ablauf der Analyse ermöglicht. Ein Statistik-Toolkit soll die Überprüfung von Arbeitshypothesen ermöglichen (Signifikanz). Weiterhin soll die Darstellung den Transport und die Diskussion der Ergebnisse erleichtern.
Kurzfassung Theorien, Szenarien, Vermutungen und Annahmen lassen sich in den Sozialwissenschaften seit geraumer Zeit mittels computergestützter Simulation analysieren, erhärten oder entkräften. Im Feld der Simulationsumgebungen gibt es eine Vielzahl unterschiedlicher Softwarelösungen. Das Projekt EmIL hat zum Ziel eine Simulationsumgebung zu erschaffen, die einen Schritt weiter geht als die bisher etablierten Lösungen. So soll in dieser Simulationsumgebung namens EmIL-S die Möglichkeit geschaffen werden Normentstehung zu analysieren. Dies wird durch eine Auftrennung der Simulationsumgebung in verschiedene Bereiche erreicht. Diese Diplomarbeit beschreibt die Konzepte die hinter diesem Projekt stehen und stellt einen lauffähigen Prototyp für diese Simulationsumgebung zur Verfügung. Die Erstellung dieses Prototypens, das hierfür zugrunde liegende Szenario und alle verwendeten Komponenten werden detailliert in dieser Arbeit beschrieben. Auch werden die mittels dieses Prototypens gewonnen Erkenntnisse dargelegt und analysiert. Im Zuge dieser Beschreibungen werden konzeptionelle sowie technische Fehler an der Simulationsumgebung aufgezeigt und Lösungs- bzw. Verbesserungsvorschläge dargelegt. Diese Arbeit kann auch als Leitfaden für die Erstellung von Simulationen mittels EmIL-S hilfreich sein.
Zur Erstellung von 3-D-Oberflächenmodellen real existierender Objekte wird häufig sehr teure Hardware eingesetzt, z.B. 3-D-Laser-Range-Scanner. Da diese keine Grauwert- oder Farbinformationen erfassen können, muss das Objekt zur Wiedergabe farbiger Strukturen zusätzlich abfotografiert und mit den Bildern registriert werden. Die Arbeit entwickelt demgegenüber ein Verfahren zum Einsatz eines kalibrierten Stereokamerasystems. Aus den erhaltenen Sequenzen zweidimensionaler Stereobilder kann ein texturiertes 3-D-Mesh rekonstruiert werden. Im Vergleich zum Einsatz eines Scanners ist dieses Verfahren zwar weniger genau, aber dafür preisgünstiger, platzsparend und schneller einsetzbar. Den Schwerpunkt der Arbeit bilden die Fusionierung der Tiefenkarten und die Erstellung eines texturierten Meshs aus diesen.
Die Arbeit befasst sich mit atlasbasierter Segmentierung von CT-Datensätzen mit Hilfe von elastischen Registrierungsmethoden. Ziel ist die vollautomatische Segmentierung eines beliebigen Eingabedatensatzes durch Registrierung mit einem vorsegmentierten Referenzdatensatz, dem Atlanten. Ein besonderes Augenmerk liegt dabei auf der Implementierung und Evaluation elastischer Registrierungsverfahren, da rigide Registrierungsmethoden besonders in Bereichen hoher anatomischer Varianzen keine genaue Segmentierung gewährleisten. Im Vordergrund steht zunächst die Generierung zweier Atlanten, die als durchschnittliche Referenzdatensätze Informationen über die anatomische Varianz männlicher und weiblicher Bevölkerungsgruppen enthalten. Weiter werden vier etablierte elastische Registrierungsarten implementiert und im Hinblick auf eine atlasbasierte Segmentierung der wichtigen Organe des menschlichen Torsos evaluiert: BSpline-Registrierung, Demons-Registrierung, Level-Set-Motion-Registrierung und FEM-Registrierung. Robustheit und Genauigkeit der implementierten Verfahren wurden anhand von Lungen- und Abdomendatensätzen sowohl intra- als auch interpatientenspezifisch ausgewertet. Es wird gezeigt, dass vor allem die elastische BSpline-Registrierung hier genauere Segmentierungsergebnisse liefern kann, als es mit einer rigiden Registrierung möglich ist.
Im Rahmen dieser Arbeit werden die Möglichkeiten und Grenzen des Geometry-Shaders in Bezug auf die Triangulierung von Freiformflächen untersucht. Dazu steht die Konzeption und Entwicklung eines Geometry-Shaders im Vordergrund, der Freiformflächen möglichst performant zur Laufzeit triangulieren kann. Hierzu werden NURBS-Datensätze eingelesen, trianguliert und dargestellt.
Diese Diplomarbeit präsentiert ein interaktives System, welches die Vorzüge eines handelsüblichen Whiteboards mit denen eines Computers kombiniert. Die Inhalte des Whiteboards werden von einer Kamera aufgenommen, vom Computer verarbeitet und für eine Applikation als Eingabe verwendet bzw. durch geeignete Grafiken ergänzt. Dadurch erweitert das Whiteboard die Benutzeroberfläche des Computers. Der Anwender ist in der Lage über handgezeichnete Primitive (Viereck, Dreieck, Kreis) bzw. Kombinationen der Primitive das entwickelte interaktive Spiel zu spielen.
Der RIPMTI-Algorithmus wurde entwickelt um die Schleifenerkennung in Rechnernetzen zu verbessern. Das Count-To-Infinity-Problem (kurz: CTI) führt dazu, dass ein Netzwerk nur sehr langsam in einen konvergenten Zustand gelangt. Der Hopcount-Wert 16, der als künstliche Beschränkung des CTI eingeführt wurde, beschränkt leider auch die maximale Topologietiefe eines Netzwerkes. Diese Arbeit soll zeigen wie sich eine schrittweise Erhöhung des Hopcount-Wertes und darüber hinaus die Änderung der Updatezeiten jedes Routers auf die Konvergenzzeiten unterschiedlicher Netzwerk-Szenarios auswirkt.