Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (469)
- Ausgabe (Heft) zu einer Zeitschrift (352)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (189)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (14)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
- Buch (Monographie) (5)
- Habilitation (5)
- (1)
- Vorlesung (1)
- Preprint (1)
Sprache
- Deutsch (1134)
- Englisch (533)
- Mehrsprachig (4)
- Spanisch (2)
- (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (174)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (143)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (56)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Die hohen Infrastrukturkosten machen das Überprüfen von Theorien bezüglich großer Rechnernetze zu einer schwierigen und teuren Aufgabe. Ein möglicher Ansatz dieses Problem zu beheben ist die Verwendung von virtueller anstelle von physikalischer Infrastrukur. OPNets IT Guru ist ein Programm, das entworfen wurde zur Simulation großer Netze und zur Repräsentation relevanter Informationen. Es gestattet großflächige Änderungen zu testen oder Theorien zu überpruefen ohne den Aufwand einer physikalischen Infrastruktur.
XDOMEA-Fachkonzept
(2006)
Die AG "IT-gestützte Vorgangsbearbeitung" des Kooperationsausschusses Automatisierte Datenverarbeitung (koopA ADV) hat zur Verwirklichung der Interoperabilität in der öffentlichen Verwaltung den Datenaustauschstandard XDOMEA entwickelt. Das vorliegende Dokument beschreibt das Fachkonzept zur XML-Schema-Spezifikation. Es wendet sich vorrangig an verantwortliche Organisatoren im IT-Bereich und an potentielle Anwender von XDOMEA. In diesem Dokument werden Hintergründe, Einsatzmöglichkeiten und Informationen zum Einsatzgebiet von XDOMEA erläutert, die Vorteile des Standards diskutiert und Erweiterungsmöglichkeiten vorgestellt. Weiters werden Beteiligungs- und Protokollinformationen spezifiziert und detailliert. Zu diesem Zweck werden verschiedene Szenarien erarbeitet, die anhand von Prozessmodellen die praktische Anwendung des Standards veranschaulichen. Gleichzeitig werden die Möglichkeiten fachspezifischer Erweiterungen im Standard verdeutlicht und Grenzen der Anwendung aufgezeigt.
Die Leistungsfähigkeit moderner Graphikkarten steigt zur Zeit schneller an, als die von CPUs. Dabei kann diese Leistung nicht nur zur Darstellung von 3D Welten, sondern auch für allgemeine Berechnungen (GPGPU) verwendet werden. Diese Diplomarbeit untersucht daher, ob mit Hilfe der GPU Volumendaten schneller gefiltert werden können, als mit der CPU. Dies soll insbesondere am Beispiel von Rausch-Filtern, die auf Videosequenzen angewendet werden, untersucht werden. Dabei soll das Video als Volumen repräsentiert und mit Volumenfiltern gefiltert werden. So soll eine höhere Qualität und eine kürzere Berechnungszeit als mit herkömmlichen CPU und Frame-basierten Verfahren erreicht werden, insbesondere auch bei den z.Z. stark aufkommenden hochauflösenden HDTV-Standards. Das Framework soll jedoch nicht auf Videosequenz-Bearbeitung beschränkt sein, sondern so konzipiert werden, dass es z.B. in bestehende Volumenvisualisierungssysteme integriert werden kann. Das Ziel der Arbeit ist die Einarbeitung in die notwendigen theoretischen Grundlagen, daran anschließend die prototypische Implementierung des Frameworks mit abschließender Bewertung der erreichten Ergebnisse insbesondere der Geschwindigkeit im Vergleich zu existierenden Systemen.
Die moderne Bildgebung in der Medizin arbeitet oft mit Daten höheren Tonwertumfangs. So haben beispielsweise Bilder aus CT-Geräten einen Dynamikbereich von 12 Bit, was 4096 Graustufen entspricht. Im Bereich der photorealistischen Computergrafik und zunehmend in der Bildverarbeitung sind Bilddaten viel höheren Tonwertumfangs üblich, die als HDR-Bilder (High Dynamic Range) bezeichnet werden. Diese haben eine Bittiefe von 16, oftmals sogar 32 Bit und können dadurch sehr viel mehr Informationen speichern, als herkömmliche 8-Bit-Bilder. Um diese Bilder auf üblichen Monitoren darstellen zu können, muss man die Bildinformation auf den Tonwertumfang des Ausgabegerätes abbilden, was man als Tonemapping bezeichnet. Es existieren zahlreiche solcher Tonemapping-Verfahren, die sich durch ihre Arbeitsweise, Geschwindigkeit und visuelle Qualität unterscheiden lassen. Im Rahmen dieser Studienarbeit sollen Tonemapping-Verfahren auf medizinische Bilddaten angewendet werden. Dabei soll sowohl die visuelle Qualität, als auch die Geschwindigkeit im Vordergrund stehen.
Ein Interpreter für GReQL 2
(2006)
Im Rahmen dieser Diplomarbeit wird die Auswertungskomponente fuer die Graphanfragesprache GREQL 2, welche von Katrin Marchewka beschrieben wurde, entworfen, welche Anfragen diese Sprache interpretiert. Die Auswertungskomponente besteht aus den Bausteinen Auswerter, Parser, Optimierer, Funktionsbibliothek und dem Containerframework JValue. Der Parser wurde bereits von Katrin Marchewka implementiert, der Optimierer bleibt einer Anschlußarbeit vorbehalten. Innerhalb dieser Arbeit werden die Bausteine Auswerter, Funktionsbibliothek und JValue als Prototypen implementiert. Aufgrund der Erfahrungen mit der Auswertungskomponente fuer den GREQL 2-Vorgaenger GREQL 1 ist das Primaerziel dieser Arbeit der Entwurf einer sauberen, klaren, erweiterbaren und zukunftsfähigen Architektur, wobei die aktuellen Prinzipien der Softwaretechnik beüecksichtigt werden sollen.
BinaryGXL
(2006)
XML ist aus der heutigen IT-Welt nicht mehr wegzudenken und wird für vielfältige Zwecke verwendet. Die Befürworter von XML führen insbesondere die Menschenlesbarkeit und leichte Editierbarkeit als Gründe für diesen Erfolg an. Allerdings hat XML gerade dadurch auch in manchen Anwendungsgebieten gravierende Nachteile: XML ist sehr verbos, und das Parsen von XML-Dateien ist relativ langsam im Vergleich zu binären Dateiformaten. Deshalb gibt es Bestrebungen ein binäres XML-Format zu schaffen und gegebenenfalls zu standardisieren. Die vorliegende Studienarbeit beschreibt einige schon existierende binäre XML-Formate und zeigt auf, wie weit der Entwurf und die Standardisierung eines allgemein akzeptierten Binary-XML-Formats fortgeschritten sind. Der praktische Teil der Studienarbeit umfasst den Entwurf und die Implementierung eines eigenen Binärformats für den XML-Dialekt GXL. Zur Bewertung der entwickelten Lösung wird diese mit den heute üblichen Kompressionstools verglichen.
Zielsetzung: Für die Feuerwehr- und Katastrophenschutzschule Rheinland - Pfalz (LFKS) sollen auf der Basis von Flash und XML interaktive Quizzes realisiert werden, die im Rahmen des Gruppenführerlehrgangs als Lernerfolgskontrolle dienen sollen. Als Grundlage wird ein selbstentwickeltes MVC Framework und Adobe (ehemals Macromedia) Flash herangezogen.
Entwicklung: Bei der Entwicklung der Quizzes wurde sehr viel Wert auf eine systemunabhängige, bestmöglich standardisierte Datenhaltung gelegt. Hier war die Verbindung von Flash und XML eine optimale Lösung.
Technik: Mit der Kombination aus ActionScript2, XML und Flash ist es möglich, innerhalb kürzester Zeit unterschiedliche Quizzes zu erstellen. Der Grundgedanke bei dieser Technik ist es, Daten und ihre Repräsentation zu trennen. Die Flash Entwicklungsumgebung wird für die Erstellung der Views (Darstellungselemente) verwendet. Die Views werden anhand von dynamischen Textfeldern, interaktiven Animationen und weiteren Darstellungselementen definiert. Diese Views werden über das MVC-Framework mit Actionscript2 angesprochen und mit Inhalten aus einer externen XML Datei gefüllt. Der Vorteil dabei ist, dass die Inhalte und zum Teil auch das Design recht schnell ausgewechselt werden können, ohne an der Applikation Änderungen vornehmen zu müssen. Die XML Dateien werden mit Hilfe der Software Infopath der Firma Microsoft erstellt. Eine weitere Möglichkeit die Daten zu standardisieren ist das IMS Question and Test Interoperability (IMS QTI) Datenformat, welches explizit für solche Anwendungen entwickelt wurde. Dieses Format wird jedoch nur am Rande behandelt. Diese Flashapplikationen können sowohl als eigenständige Programme betrachtet oder als Elemente einer HTML Datei in einem Browser dargestellt werden. Aus diesem Grund ist es möglich, auf fast jedem Gerät (PC, Notebook, Handheld und Mobiltelefon) und auf jedem Betriebssystem (Windows, Mac OS, Linux, etc.) eine Flashapplikation zum Laufen zu bringen.
Ausblick: Durch das selbstentwickelte MVC-Framework kann die Applikation schnell und einfach erweitert werden. Es wurde jedoch drauf geachtet, dass die Applikation auch ohne den Quellcode neu zu kompilieren vom Aussehen verändert werden kann.
Due to their confinement to specific host plants or restricted habitat types, Auchenorrhyncha are suitable biological indicators to measure the quality of chalk grassland under different management practices for nature conservation. They can especially be used as a tool to assess the success of restoring chalk grassland on ex-arable land. One objective of this study was to identify the factors which most effectively conserve and enhance biological diversity of existing chalk grasslands or allow the creation of new areas of such species-rich grassland on ex-arable land. A second objective was to link Auchenorrhyncha communities to the different grassland communities occurring on chalk according to the NVC (National Vegetation Classification). Altogether 100 chalk grassland and arable reversion sites were sampled between 1998 and 2002. Some of the arable reversion sites had been under certain grazing or mowing regimes for up to ten years by 2002. Vegetation structure and composition were recorded, and Auchenorrhyncha were sampled three times during the summer of each year using a "vortis" suction sampler. Altogether 110 leafhopper species were recorded during the study. Two of the species, Kelisia occirrega and Psammotettix helvolus, although widespread within the area studied, had not previously been recognized as part of the British fauna. By displaying insect frequency and dominance as it is commonly done for vegetation communities, it was possible to classify preferential and differential species of distinct Auchenorrhyncha communities. The linking of the entomological data with vegetation communities defined by the NVC showed that different vegetation communities were reflected by distinct Auchenorrhyncha communities. Significant differences were observed down to the level of sub-communities. The data revealed a strong positive relationship between the diversity of leafhoppers species and the vegetation height. There was also a positive correlation between the species richness of Auchenorrhyncha and the diversity of plant species. In that context it is remarkable that there was no correlation between vegetation height and botanical diversity. There is a substantial decrease in Auchenorrhyncha species richness from unimproved grassland to improved grassland and arable reversion. The decline of typical chalk grassland and general dry grassland species is especially notable. Consequently, the number of stenotopic Auchenorrhyncha species which are confined to only a few habitat types, are drastically reduced with the improvement of chalk grassland. Improved grassland and arable reversion fields are almost exclusively inhabited by common habitat generalists. The decrease in typical chalk grassland plants due to improvement is mirrored in the decline of Auchenorrhyncha species, which rely monophagously or oligophagously on specific host plants. But even where suitable host plants re-colonize arable reversion sites quickly, there is a considerable delay before leafhoppers follow. That becomes especially obvious with polyphagous leafhoppers like Turrutus socialis or Mocydia crocea, which occur on improved grassland or arable reversion sites only in low frequency and abundance, despite wide appearance or even increased dominance of their host plants. These species can be considered as the most suitable indicators to measure success or failure of long term grassland restoration. A time period of ten years is not sufficient to restore species-rich invertebrate communities on grassland, even if the flora indicates an early success.
In dieser Arbeit werden die Navier-Stokes Gleichungen für instationäre inkompressible Fluide in einem zeitabhängigen Gebiet untersucht.
Das Verhalten des Fluids beeinflusst die Geometrie des Gebietes, indem das Fluid Kräfte (beschrieben durch den Spannungstensor) auf die deformierbare Struktur ausübt.
Die Motivation dazu stammt aus de mathematischen Medizin - Simulation des Blutflusses in Arterien und Venen.
Nach der Auswahl des passenden Modells für den Fluss innerhalb des Kanals mit viskoelastisch-deformierbaren Wänden, wird das Gesamtmodell mathematisch untersucht. Die Existenz schwacher Lösungen wird mithilfe der schwach-kompressiblen Approximation im Gebiet mit gegebener Deformationsfunktion nachgewiesen. Hierbei wir die Fluid-Struktur-Kopplungsbedingung mithilfe des Ansatzes für teilweise permeable Wände approximiert und somit entkoppelt.
Schließlich werden numerische Experimente präsentiert, welche die Konvergenz der Iterationen bezüglich der Funktion der Deformation, wie auch das Verhalten der beweglichen Wand für sinkende Wandpermeabilität illustrieren.
Partielle Wissenskompilation
(2006)
Viele Probleme in der Aussagenlogik sind nur sehr aufwändig lösbar. Ist beispielsweise eine Wissensbasis gegeben, an die wir Anfragen stellen, wollen, so kann dies mitunter sehr mühsam sein. Um trotzdem effizient Anfragen beantworten zu können, hat sich die Vorgehensweise der Wissenskompilation entwickelt. Dabei wird die Lösung der Aufgabe in eine Offline- und eine Online-Phase aufgeteilt. In der Offline-Phase wird die Wissensbasis präkompiliert. Dabei wird sie in eine bestimmte Form umgewandelt, auf der sich die erwarteten Anfragen effizient beantworten lassen. Diese Transformation der Wissensbasis ist meist sehr aufwändig, muss jedoch nur einmalig durchgeführt werden. In der darauffolgenden Online-Phase können nun effizient Anfragen beantwortet werden. In dieser Diplomarbeit wird eine spezielle Normalform, die sich als Zielsprache der Präkompilation anbietet, untersucht. Außerdem wird die Präkompilation so in einzelne Schritte unterteilt, dass möglicherweise bereits nach einigen Teilschritten Anfragen beantwortet werden können.
In den letzten Jahren konzentrierte sich das E-Government auf die administrativen Aspekte der Verwaltungsmodernisierung. Im nächsten Schritt werden die E-Diskurse als Instrument der Bürgernähe und Mittel der E-Demokratie/E-Partizipation an Bedeutung gewinnen. Mit zunehmender Akzeptanz solcher E-Diskurse werden diese schnell eine Komplexität erreichen, die von den Teilnehmern nicht mehr zu bewältigen ist. Das Problem liegt in der eingeschränkten Möglichkeit, einen in Raum und Zeit verteilten Diskurs zu verfolgen und sich ein Bild von ihm zu machen. Viele Eindrücke, die sich aus Präsenzdiskussionen gewinnen lassen, fehlen. Deswegen hat die vorliegende Arbeit die Zielsetzung der Konzeption und der prototypischen Implementierung eines Instrumentariums (Diskursmeter), womit sich die Teilnehmer, insbesondere die Moderatoren, des E-Diskurses jederzeit einen Überblick über den E-Diskurs schaffen können und so zu ihrem Diskursverständnis (Discourse Awareness) zu gelangen. Über das aktuelle Geschehen im E-Diskurs informiert die gegenwartsorientierte und über das vergangene Geschehen die vergangenheitsorientierte Discourse Awareness, über die etwaige Trends sichtbar sind. Der Fokus der Discourse Awareness liegt in der quantitativen Betrachtung des Geschehens im E-Diskurs. Aus dem in dieser Arbeit entwickelten Modell des E-Diskurses resultieren die Fragestellungen zur Discourse Awareness, deren Konkretisierung Grundlage für die Implementierung des Diskursmeters ist. Die an das Modell des E-Diskurses angebrachten Diskurssensoren zeichnen das Geschehen im E-Diskurs auf, die zu Diskursereignissen führen, die das Diskursmeter in unterschiedlichen Visualisierungsformen präsentiert. Den Moderatoren des E-Diskurses bietet das Diskursmeter die gegenwartsorientierte Discourse Awareness als Monitoring und die vergangenheitsorientierte Discourse Awareness als Abfrage (quantitative Analyse) an.