Refine
Year of publication
Document Type
- Doctoral Thesis (475)
- Part of Periodical (355)
- Bachelor Thesis (273)
- Diploma Thesis (196)
- Master's Thesis (187)
- Study Thesis (137)
- Article (23)
- Conference Proceedings (12)
- Other (8)
- Report (8)
Language
- German (1136)
- English (544)
- Multiple languages (4)
- Spanish (2)
Has Fulltext
- yes (1686) (remove)
Keywords
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institute
- Institut für Computervisualistik (336)
- Fachbereich 4 (295)
- Zentrale Einrichtungen (176)
- Institut für Wirtschafts- und Verwaltungsinformatik (146)
- Institut für Informatik (145)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (57)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Dynamisches Tone Mapping einer High Dynamic Range Echtzeit 3D-Umgebung mit der Grafik Hardware
(2007)
In dieser Arbeit soll ein dreidimensionales, echtzeitfähiges Landschaftsmodell des Mittelrheintals erstellt werden. Dabei soll die Modellerstellung soweit wie möglich automatisiert werden. Als Datengrundlage dienen das digitale Landschaftsmodell ATKIS-Basis DLM sowie das digitale Geländemodell (DGM), welches die notwendigen Höheninformationen zur Erzeugung des dreidimensionalen Modells enthält. Insbesondere soll dabei untersucht werden, wie sich die Generierung von Landschaftsmerkmalen wie Infrastruktur und Vegetation durch ein parametrisierbares Modell automatisieren lässt, und inwieweit sich die verwendeten Daten für einen solchen Automatisierungsprozess eignen.
Gerade bei der Garten- und Landschaftsgestaltung eröffnen sich viele kreative Möglichkeiten, die zwar der Landschaftsarchitekt, aber nicht dessen Kunde auf Anhieb überblicken kann. Es fehlt eine strukturierte Anwendung mit dessen Hilfe der Kunde auch ohne Fachkenntnisse diese Möglichkeiten erkennen und nutzen kann. Ziel dieser Arbeit ist eine webbasierte Auswahlumgebung zu schaffen, die Benutzer Schritt für Schritt durch die Anwendung führt und dabei den gestalterischen Ansprüchen von Landschaftsarchitekten genügt. Für Nutzer ohne Fachkenntnisse soll eine leicht verständliche Selektion ermöglicht werden mit Hilfe themengebundener Einschränkungen (z.B. nur mediterane Objekte/Pflanzen), die jedoch auch Erweiterungen erlauben. Um dem Benutzer seine gewählten Pflanzen und Objekte auch anschaulich zu machen, soll jederzeit eine Vorschau zur Verfügung stehen. Je nach Auswahl, kann eine X3D-Datei dynamisch erzeugt und mittels X3D-Browser dargestellt werden.
Die Herzkranzgefäße sind verantwortlich für die Blutversorgung des Herzmuskels. Eine Störung des Blutflusses durch Verengungen oder gar Verstopfungen dieser Gefäße kann Herzerkrankungen bis hin zum Herzinfarkt auslösen. Eine Analyse dieser Strukturen ist damit von vitalem Interesse für die Diagnostik solcher Erkrankungen als auch die Planung einer möglichen Therapie. Im Rahmen dieser Diplomarbeit soll ein Verfahren entwickelt und implementiert werden, das es ermöglicht, einzelne Projektionsbilder aus der Angiographie mit tomographischen Volumendaten (CT, MR) in Deckung zu bringen, d.h. zu matchen. Die Fragestellung dahinter ist die nach der Korrelation der aus den Volumendaten gewonnenen Informationen über die Herzkranzgefäße mit dem gegenwärtigen "Gold-Standard" - der Angiographie. Dazu notwendig ist die Entwicklung eines Ansatzes zur Generierung von, den Angiographiebildern entsprechenden, künstlichen Projektionsbildern aus den (bereits segmentierten) Volumendaten. Die Festlegung der Projektionsparameter sowie das Matching selbst sollen automatisch erfolgen.
Im Rahmen dieser Arbeit wird eine Clusteranalyse-Umgebung durch Kopplung bestehender Lösungen entwickelt. Um Clusteranalysen auf Softwareelementen durchführen zu können, wird eine Software zur Clusteranalyse an das bestehende Reverse Engineering Tool GUPRO zur Extraktion von Informationen aus Softwareartefakten, wie z.B. Quellcode-Dateien, gekoppelt. Die entstehende Clusteranalyse-Umgebung soll alle Services einer Clusteranalyse auf Softwareelementen unter einer Oberfläche vereinen. Wichtiger Bestandteil der Arbeit ist sowohl die Aufbereitung der theoretischen Grundlagen der Clusteranalyse mit Blickpunkt auf das Softwareclustering, als auch ein strukturierter Auswahlprozess der für die zu entwickelnde Umgebung verwendeten Software zur Clusteranalyse. Letztendlich soll der Funktionalitätsumfang der Clusteranalyse-Umgebung auf ein im Voraus, in Form einer Anforderungsdefinition, festgelegtes Maß angehoben werden.
Mit Hilfe von Stereobildfolgen, die ein Stereokamerasystem liefert, wird versucht Informationen aus der betrachtenden Szene zu gewinnen. Die Zuordnung von Bildpunkten, die in beiden Bildern eines Stereobildpaares vorkommen und einen gemeinsamen Weltpunkt beschreiben, ermöglichen die Bestimmung einer Tiefeninformation. Das Extrahieren von Bildpunkten und deren Zuordnung sind die entscheidenen Faktoren zur Gewinnung der Tiefeninformation. Die Tiefe erlaubt es Aussagen über die Struktur der aufgenommenen Szene zu machen. Bei Übertragung dieser Idee auf das Verfolgen von gemeinsamen Weltpunkten in Bildsequenzen ist es möglich eine relative Positions- und Lageschätzung des Kamerasystems zur vorher aktuellen Position zu bestimmen. Schwierigkeiten ergeben sich aus Verdeckungen von Weltpunkten für den jeweiligen Sensor, sowie fehlerhaften Bildpunktzuordnungen. Die Geschwindigkeit des kombinierten Vorgang aus Extraktion und Punktzuordnung stellt eine weitere Anforderung an das System.
Diese Dissertation beschreibt Ökologie und Verhalten einer Hirschkäferpopulation im Moseltal im Bereich der Gemeinden Alf und Bullay (Kreis Cochem-Zell). Im Rahmen einer Kartierung werden darüber hinaus Vorkommen im nördlichen Rheinland-Pfalz dokumentiert. Grundlage der Untersuchung ist die Radiotelemetrie der adulten Hirschkäfer im Freiland. Die Anwendung dieser Methode liefert auch über den eigentlichen Untersuchungszweck hinausgehende quantitative und qualitative Erfahrungswerte für diese noch selten bei fliegenden Käfern angewendete Methode. Daneben werden Fundortmeldungen, Brutstättenmonitoring, Morphometrie und Insektarienuntersuchungen als ergänzende und vergleichende Methoden eingesetzt. Es erfolgt so eine quantitative Beschreibung geschlechtsspezifischer Verhaltenweisen adulter Hirschkäfer wie z. B. Aktivitäts-, Dispersions-und Fortpflanzungsverhalten, Habitatpräferenzen sowie eine Beschreibung der Entwicklungsabläufe im Bruthabitat. Die Ergebnisse zeichnen ein Bild vom Leben der Hirschkäfer, das von den bisherigen Vorstellungen weitgehend abweicht. Hirschkäfer brauchen Offenlandstrukturen und sind im Moseltal erfolgreiche Kulturfolger. Sie leben heute dort nahezu unbemerkt in der urbanen Landschaft. Die vielfach beschriebene enge Bindung an die Baumart Eiche ist keine zwingende Voraussetzung für eine erfolgreiche Populationsbildung. Im gesamten Fortpflanzungsverhalten kommt der Brutstätte eine zentrale Bedeutung zu, dabei ist die Vernetzung der Brutstätten eine Grundvoraussetzung. Das Fortpflanzungsverhalten unterliegt einer Regelstrategie, zu der es aber auch Alternativen gibt. Das beobachtete Dispersionsverhalten ermöglicht die Abgrenzung von Populationen. Für den Naturschutz ergeben sich aus den Ergebnissen Konsequenzen und Möglichkeiten für Schutzgebiete und die Anlage künstlicher Bruthabitate. Daneben wirft diese Untersuchung aber auch die Frage der Bewertung von Gefährdung und Seltenheit dieser Art als Ergebnis subjektiver Wahrnehmungen auf.
Fristete der Computer vor wenigen Jahrzehnten sein Dasein noch in Rechenzentren weniger, großer Universitäten und Firmen, so sind Computer und deren Rechenleistung heute allgemein verbreitet. Gerade in den letzten Jahren hat dabei auch die computergenerierte Bilderzeugung große Fortschritte gemacht, und die Entwicklung hält rasant an. Auf diese Weise erzeugte Bilder und Bildsequenzen sind aus den visuellen Medien nicht mehr wegzudenken, sie werden in denmeisten Film- oder Fernsehproduktionen eingesetzt. Dokumentationen, Wissenssendungen und Nachrichtenformate setzen solche Bilder zur Vermittlung von Inhalten ein. Spezialeffekte werden Filmen mit dem Computer hinzugefügt. Ausschließlich mit dem Rechner erstellte Filme, deren Entwicklung vor ungefähr dreißig Jahren mit einfachen und kurzen Sequenzen begann, stehen heute realen Filmen in Länge, visueller und erzählerischer Qualität kaum noch nach. Doch nicht nur bei der Erstellung von Filmen ist der Computer nicht mehr wegzudenken. Computerspiele stellen in vielen Bereichen die treibende Kraft hinter der Computerentwicklung dar. Sie sind die "Killerapplikation", denn es sind vor allem Spiele, die zur Zeit nach leistungsfähigeren Computerkomponenten für Heimcomputer,wie Prozessoren und Graphikkarten, verlangen. Auch die visuelle Qualität von Computerspielen nimmt stetig zu, und hat ein sehr realitätsnahes Niveau erreicht. Ob Dokumentation, Film oder Spiel, die Erzeugung computergenerierten Inhalts besteht aus vielen Teilen. Die Erzeugung der Bilder ist nur ein kleiner Teil davon. Der Begriff Computeranimationwird oft für den gesamten Prozess der Erstellung eines Films im Computer verwendet. Im Speziellen beschäftigt sich die Animation mit der Bewegung. Die Erstellung von Bewegungsabläufen wird für Animationsfilme, Computerspiele und auch für Spezialeffekte in realen Filmen benötigt. Heute existiert eine Vielzahl von Programmen und Werkzeugen, welche die Erstellung von Animationen im Computer ermöglichen. Verbreitete Applikationen wie MAYA1, LIGHTWAVE2 oder BLENDER3 stützen sich dabei auf grundlegende Konzepte, die hinter der Erstellung von Animationssequenzen im Computer stehen. Die Arbeit setzt sich mit diesen Grundlagen auseinander und entwickelt darauf aufbauend einen Animationseditor, der die notwendige Funktionalität für die Erstellung von Animationssequenzen bereitstellt.
Die Visualisierung von Volumendaten ist ein interessantes und aktuelles Forschungsgebiet. Volumendaten bezeichnen einen dreidimensionalen Datensatz, der durch Simulation oder Messungen generiert wird. Mit Hilfe der Visualisierung sollen interessante bzw. in einem gewissen Kontext bedeutsame Informationen aus einem Datensatz extrahiert und grafisch dargestellt werden. Diese Arbeit konzentriert sich auf die Visualisierung von Volumendaten, die in einem medizinischen Kontext erstellt worden sind. Dabei handelt es sich z.B. um Daten, die durch Computertomographie oder Magnet-Resonanz-Tomographie gewonnen wurden. Bei der Darstellung von Volumendaten hat man mehrere Möglichkeiten, welche Art von Beleuchtungsmodellen man einsetzen möchte. Ein Beleuchtungsmodell beschreibt, welche Art von Licht verwendet werden soll und wie dieses mit dem Volumendatensatz interagiert. Die Beleuchtungsmodelle unterscheiden sich in ihrer physikalischen Korrektheit und somit in ihrer Darstellungsqualität. Das einfachste Beleuchtungsmodell zieht keine Lichtquellen in Betracht. Das Volumen verfügt in diesem Fall nur über ein "Eigenleuchten" (Emission). Der Nachteil hierbei ist, dass z.B. keinerlei Schatten vorhanden sind und es somit schwierig ist, räumliche Tiefe zu erkennen. Ein Vorteil des Verfahrens ist, dass die benötigten Berechnungen sehr einfach sind und somit in Echtzeit ausgeführt werden können. Unter einem lokalen Beleuchtungsmodell hingegen versteht man ein Modell, bei dem das Licht berücksichtigt wird, welches direkt von der Lichtquelle auf den Volumendatensatz trifft. Hierbei können z.B. Schatten dargestellt werden, und der Betrachter kann eine räumliche Tiefe in der Darstellung erkennen. Der Berechnungsaufwand steigt, das Verfahren ist aber immer noch echtzeitfähig. Volumendaten haben aber die Eigenschaft, dass sie einen Teil des Lichts, welches durch sie hindurchgeht, in verschiedene Richtungen streuen. Dabei spricht man von indirektem Licht. Um sowohl das direkte als auch das indirekte Licht zu berücksichtigen, muss man eine sogenannte globale Beleuchtungssimulation durchführen. Es ist das am aufwendigsten zu berechnende Beleuchtungsmodell, führt aber zu photorealistischen und physikalisch korrekten Ergebnissen, denn eine globale Beleuchtungssimulation errechnet eine (angenähert) vollständige Lösung des in Abschnitt 4.2 vorgestellten Volumen-Rendering-Integrals (Gleichung (8)).
Die Vorwärtsfahrt mit einem einachsigen Anhänger stellt für die meisten Fahrer keine große Schwierigkeit dar. Das Zugfahrzeug gibt die Richtung vor und der Anhänger wird mitgezogen. Jedoch ist das Rückwärtsfahren mit Anhänger für den ungeübten Fahrer oft sehr kompliziert, da die Lenkmanöver für eine bestimmte Richtungsänderung nicht intuitiv sind und ein "Umdenken" erfordern. Will man beispielsweise den Anhänger um eine Linkskurve fahren, so muss das Zugfahrzeug zunächst nach rechts gelenkt werden, damit der Anhänger linksherum geschoben wird. Schnell passieren Fehler und ein Unfall mit Sachschaden kann eine mögliche Folge sein. Besonders Fahrer, die nur gelegentlich mit einem Anhänger unterwegs sind, haben bei der Rückwärtsfahrt mit Anhänger Probleme.
BinaryGXL
(2006)
XML ist aus der heutigen IT-Welt nicht mehr wegzudenken und wird für vielfältige Zwecke verwendet. Die Befürworter von XML führen insbesondere die Menschenlesbarkeit und leichte Editierbarkeit als Gründe für diesen Erfolg an. Allerdings hat XML gerade dadurch auch in manchen Anwendungsgebieten gravierende Nachteile: XML ist sehr verbos, und das Parsen von XML-Dateien ist relativ langsam im Vergleich zu binären Dateiformaten. Deshalb gibt es Bestrebungen ein binäres XML-Format zu schaffen und gegebenenfalls zu standardisieren. Die vorliegende Studienarbeit beschreibt einige schon existierende binäre XML-Formate und zeigt auf, wie weit der Entwurf und die Standardisierung eines allgemein akzeptierten Binary-XML-Formats fortgeschritten sind. Der praktische Teil der Studienarbeit umfasst den Entwurf und die Implementierung eines eigenen Binärformats für den XML-Dialekt GXL. Zur Bewertung der entwickelten Lösung wird diese mit den heute üblichen Kompressionstools verglichen.
Problems in the analysis of requirements often lead to failures when developing software systems. This problem is nowadays being faced by requirements engineering. The early involvement of all kinds of stakeholders in the development of such a system and a structured process to elicitate and analyse requirements have made it a crucial factor as a first step in software development. The increasing complexity of modern softwaresystems though leads to a rising amount of information which has to be dealt with during analysis. Without the support of appropriate tools this would be almost impossible to do. Especially in bigger projects, which tend to be spatially distributed, an effective requirements engineering could not be implemented without this kind of support. Today there is a wide range of tools dealing with this matter. They have been in use since some time now and, in their most recent versions, realize the most important aspects of requirements engineering. Within the scope of this thesis some of these tools will be analysed, focussing on both the major functionalities concerning the management of requirements and the repository of these tools. The results of this analyis will be integrated into a reference model.