Filtern
Erscheinungsjahr
Dokumenttyp
- Diplomarbeit (196) (entfernen)
Schlagworte
- Augmented Reality (4)
- Bildverarbeitung (4)
- RIP-MTI (4)
- Routing (4)
- Analyse durch Synthese (3)
- Interaktion (3)
- Java (3)
- Kamera (3)
- Logistik (3)
- Markerloses Tracking (3)
Institut
- Institut für Computervisualistik (81)
- Fachbereich 4 (47)
- Institut für Wirtschafts- und Verwaltungsinformatik (27)
- Institut für Informatik (24)
- Institut für Softwaretechnik (14)
- Institute for Web Science and Technologies (3)
- Institut für Kommunikationspsychologie und Medienpädagogik (2)
- Fachbereich 5 (1)
- Institut für Management (1)
Standards haben längst Einzug in das Gebiet der Informatik gehalten. Verschiedenste Organisationen beschäftigen sich mit der Beschließung von Normen für die standardisierte Lösung von Problemen in der Informatik. Ein wichtiger Teilaspekt ist die Spezifizierung von Datenformaten, die die Interoperabilität von Programmen sichern kann. Dabei existieren viele verschiedene Schemasprachen, die auf unterschiedliche Anforderungen ausgelegt sind, und mit deren Hilfe die Menge der konformen Dokumente beschrieben werden kann. Die Kombination mehrerer Schemasprachen ist sinnvoll, da die Mächtigkeit einer Sprache oftmals nicht ausreicht, um die Anforderungen zu erfassen. So auch im Fall der, von IMS entwickelten, Spezifikation Common-Cartridge. Das Common-Cartridge-Format beschreibt valide Zip-Pakete, die dazu genutzt werden können, verschiedene Lernobjekte zu aggregieren und als zusammenhängende Lerneinheit in eine Lernplattform zu importieren. Die Spezifikation benutzt bereits vorhandene und bewährte Spezifikationen, um Teile gültiger XML-Dokumente zu beschreiben. Diese sind selbst Teil eines Pakets und können Referenzen enthalten, die den Inhalt mit der Paketstruktur in Verbindung bringen. Dabei wird das Common-Cartridge-Format durch ein sogenanntes Domain-Profile erfasst. Ein solches erlaubt die Anpassung einer oder mehrerer Standards bzw. Spezifikationen, um die Bedürfnisse einer bestimmten Domäne abzudecken. Zudem können sogenannte Testregeln definiert werden, die für die Bestimmung der für ein Datenpaket auszuführenden Testaufgaben genutzt werden können. Letztlich kann die automatische Erstellung eines Testsystems veranlasst werden, welches diese Aufgaben ausführen kann. Somit stellt sich die Frage, ob ein Domain-Profile ebenso dazu eignet ist, die Anforderungen anderer paket-basierter Datenformate zu erfassen, und ob die nötigen Änderungen an den unterstützenden Tools vorgenommen werden können. Schließlich würde dies die Überprüfung gestellter Anforderungen ermöglichen.
Diese Arbeit soll sich mit einer beispielhaften Anwendung des Verfahrens befassen, um diese Fragen nach Möglichkeit zu beantworten. Dazu soll der verwendete Ansatz auf die Datenformate übertragen werden, die Teil der Spezifikation des Virtual Company Dossiers - VCD - sind. Diese legen ebenso paket-basierte Formate fest, die innerhalb eines elektronischen Ausschreibungsprozesses verwendet werden. Sie ermöglichen die Erfassung von Evidenzen, die die notwendige Qualifikation eines Bewerbers, sowie die Erfüllung der, mit dem Ausschreibungsverfahren verbundenen Kriterien nachweisen.
Im praktischen Teil werden somit zuerst die Ähnlichkeiten der beiden Formate herausgearbeitet. Diese dienten der Identifizierung abstrakter Anforderungen, die, soweit möglich, mit den gleichen Formalismen festgehalten wurden. Dabei wurden Änderungen an den unterstützenden Tools vorgenommen, um die Erfassung aller VCD-spezifischen Anforderungen zu ermöglichen. So wurden das Format, und das Tool zur Erstellung von Applikationsprofilen, angepasst. Schließlich erfolgten Änderungen am generischen Testsystem, welches zur Herleitung konkreter Testsysteme genutzt wird. Letztlich stellte sich heraus, dass ähnliche Anforderungen bestehen, und die unterstützenden Tools in einer Weise angepasst werden konnten, die die Menge der erfassbaren Anforderungen erweitert. Da der Hintergrund der beteiligten Spezifikationen sich zudem signifikant unterscheidet, ist davon auszugehen, dass das Verfahren in einem weiten Spektrum von Anwendungsfällen eingesetzt werden kann.
Für die Planung von Wegen eines Gespanns sind komplexe Bewegungen verschiedener Bezugspunkte des Fahrzeugs zu beachten. Um die Betrachtung dieser Bewegungen zu vereinfachen, wird eine Fahrt in elementare Fahrbewegungen aufgeteilt, diese werden als Manöver bezeichnet. Ein Manöver besteht in diesem Zusammenhang aus zwei Elementen. Zum einen werden Pfade für bestimmte Bezugspunkte konstruiert, zum anderen wird das Gespann während der Manöverausführung von einem Korridor umschlossen. Die Pfade des Fahrzeugs müssen dabei fahrbar sein, das heißt, sie müssen die kinematischen Einschränkungen des Fahrzeugs beachten. Der Manöverkorridor kann als Grundlage verwendet werden, um die Kollisionsfreiheit zu garantieren. Während des Manövers verlässt kein Fahrzeugteil den Korridor. Es gibt verschiedene Manövertypen. Derzeit werden das Kurvenmanöver, das Wendemanöver und die Geradeausfahrt unterschieden. Außerdem kann ein Manöver zur Zeit mit zwei unterschiedlichen Konstruktionsmethoden erstellt werden, der konventionellen und der iterativen Methode.
In dieser Diplomarbeit wird eine Datenstruktur entworfen und implementiert, die ein Manöver konstruiert. Diese Datenstruktur wird in ein schon bestehendes Werkzeug integriert. Dabei kann der Benutzer mit der Software interagieren, um verschiedene Parameter eines Manövers zu verändern. Das Manöver wird daraufhin auf der Grundlage dieser Parameter konstruiert. Dazu gehört auch eine Visualisierung innerhalb der Software, in der die Bestandteile eines Manövers dargestellt werden können. Die Visualisierung kann in eine Bilddatei exportiert werden.
Zur Entwicklung von Webanwendungen und Webseiten existieren viele verschiedene Technologien und Konzepte. Jede dieser Technologien implementiert bestimmte Anforderungen, wie z.B. das Erzeugen von Inhalten oder die Kommunikation zwischen Client und Server. Verschiedene Konzepte helfen, diese Technologien innerhalb einer Webanwendung zusammenzufügen. Nicht zuletzt Architekturstile und -muster gehören zu diesen Konzepten. Die Diplomarbeit beschreibt einen Ansatz zur Erstellung einer Taxonomie dieser Technologien und Konzepte unter Zuhilfenahme der freien Enzyclopädie Wikipedia, im speziellen der Kategorie "Web-Application Framework". Unser 101companies Projekt benutzt Implementationen, um die einem Web-Application-Framework zugrunde liegenden Technologien zu identifizieren und zu klassifizieren. Innerhalb des Projekts werden Taxonomien und Ontologien mit Hilfe dieser Klassifikationen erstellt. Zusätzlich beschreibt die Ausarbeitung, wie nützliche Web-Application-Frameworks mit der Hilfe von Wikipedia priorisiert werden. Abschließend enthält die Diplomarbeit auch die Dokumentation der betreffenden Implementationen.
Analyse TV-basierter Interaktion für Senioren: Umsetzung und Evaluation im Gesundheitsbereich
(2007)
Einer der Forschungsschwerpunkte der AG Rechnernetze ist das Routing Information Protocol. Eine eigene kompatible Erweiterung dieses Routingprotokolls ist der Routing Information Protocol with Metric-based Topology Investigation (RMTI [ehemals RIP-MTI]). Um dieses Protokoll testen und mit seinem Vorgänger vergleichen zu können, wird die Virtualisierungssoftware VNUML eingesetzt. In diesen virtualisierten Netzwerken werden Router, die das RMTI-Protokoll einsetzten, mittels der Zebra/Quagga Routing Software Suite beobachtet. Dabei wird das Verhalten des Protokolls in unterschiedlichsten Simulationssituationen analysiert und bewertet. Um solche Testabläufe zentral zu steuern und protokollieren zu können wurde die Anwendung RIP-XT (XTPeer) erstellt und in fortführenden Diplomarbeiten kontinuierlich erweitert. Sie ist Schnittstelle zu den Zebra/Quagga-Routern und kann diese steuern. Zusätzlich sammelt und analysiert sie die Routing-Informationen der Router.Über ein GUI kann ein Benutzer diese Abläufe steuern. Um einen visuellen Überblick über eine Netzwerktopologie zu erhalten, besitzt das GUI auch eine Topologie-Anzeige. Die Anzeige repräsentiert das Gesamte Netzwerk durch Symbole, über die auch Interaktionen mit der Simulation möglich sind. Ziel dieser Diplomarbeit war es, die bisherige Topologie-Anzeige zu überarbeiten, um sie für neue Anforderungen anzupassen. Des weiteren wurden funktionale Erweiterungen in das GUI des RIP-XTs eingebettet.
Die automatische Detektion der Lage und Ausrichtung von Unterwasser-Kabeln oder -Pipelines in Kamerabildern ermöglicht es, Unterwasserfahrzeuge autonome Kontrollfahrten durchführen zu lassen. Durch Pflanzenwuchs auf und in der Nähe von Kabeln bzw. Pipelines wird deren visuelle Erfassung jedoch erschwert: Die Bestimmug der Lage über die Detektion von Kanten mit anschließender Linien-Extraktion schlägt oft fehl. Probabilistische Ansätze sind hier den deterministischen überlegen. Durch die Modellierung von Wahrscheinlichkeiten kann trotz geringer Anzahl von extrahierten Merkmalen eine Aussage über den Zustand des Systems getroffen werden. Diese Arbeit stellt ein neues auf Partikelfiltern basierendes Tracking-System für die Verfolgung von Kabeln und Pipelines in Bildsequenzen vor. Umfangreiche Experimente auf realistischen Unterwasser-Videos zeigen die Robustheit und Performanz des gewählten Ansatzes sowie Vorteile gegenüber vorangegangenen Arbeiten.
Performanz von RIP-MTIfi
(2009)
Diese Diplomarbeit beschäftigt sich mit der Performanz von RIP-MTI, insbesondere mit der Performanz der Schleifenerkennung. Ziel der Arbeit ist es, die Zeitdauer der Schleifenerkennung von RIP-MTI zu untersuchen und Probleme, welche bei der Erkennung von Schleifen auftreten könen, aufzudecken und zu lösen.
Forwarding loops
(2013)
Diese Arbeit beschreibt den Entwurf und die Implementierung eines Software-Routers für eine Policy-basierte Internetregulierung. Die Grundlage bildet die von Kasten und Scherp beschriebene Ontologie InFO. InFO dient der System-unabhängigen Beschreibung von Regulierungsmaßnahmen. Zudem ermöglicht InFO eine transparente Regulierung durch Verknüpfung der Regulierungsmaßnahmen mit Hintergrundinformationen. Die InFO-Erweiterung RFCO erweitert die Ontologie um Router-spezifische Entitäten. Es wird ein Software-Router entwickelt, der die RFCO auf IP-Ebene umsetzt. Die Regulierung wird transparent gestaltet, indem betroffene Nutzer vom Router über Regulierungsmaßnahmen informiert werden. Die Router-Implementierung wird exemplarisch in einer virtuellen Netzwerkumgebung getestet.
Ziel dieser Arbeit war es, den in [Rhe06] dargestellten operationalen Ansatz zur Modelltransformation mit Hilfe der am Institut für Softwaretechnik der Universität Koblenz-Landau vorhandenen Bibliotheken "JGraLab" und "GReQL" in Java zu implementieren. Die Implementierung sollte beweisen, dass der aufgezeigte Transformationsansatz in der Praxis umsetzbar ist. Dies wurde durch verschiedene Beispiele bewiesen. Die geplante Verwendung in weiteren Projekten des IST wird für die Zukunft zeigen, ob sich weitere Transformationen umsetzten lassen oder wo die Grenzen des Ansatzes sind. Des weiteren ist denkbar, die Transformationen nicht mehr in zwei Schritten (Schematransformation vor Graphtransformation), sondern beide Schritte auf einmal ablaufen zu lassen. Dieser Schritt setzt jedoch voraus, dass JGraLab dies ebenfalls unterstützt.
Die vorliegende Diplomarbeit thematisiert die quantitative Analyse und die Visualisierung von Infarktgewebe des linken Herzmuskels. Im Mittelpunkt der Untersuchung steht das Ausmaß der Narbe und deren Deformation ueber den Herzzyklus. Fuer die Narbenausdehnung stehen so genannte Late-Enhancement-Daten zur Verfuegung, die das avitale Gewebe durch ein Kontrastmittel hervorheben. Anhand von automatisierten Verfahren wird die Narbe aus den Bilddaten extrahiert und auf ihre Groesse, Lokalisation und Transmuralitaet quantifiziert. Die Transmuralitaet gibt dabei das lokale Verhaeltnis zwischen der Herzwand- und der Narbenbreite an. Des Weiteren wird die Narbe für die Beurteilung der Beschaffenheit dreidimensional in dem Analysefenster dargestellt. Der Mediziner kann durch das entwickelte Verfahren innerhalb kuerzester Zeit Aussagen ueber das Ausmass und den Ursprung des Herzinfarktes treffen und zudem die Ergebnisse durch verschiedene visuelle Darstellungen kontrollieren. Die Deformation des Narbengewebes über den Herzzyklus und deren Integration mit den dynamischen Cine-Daten wurde bereits in einer vorangegangenen Diplomarbeit umgesetzt. Im Rahmen dieser Arbeit wird eine visuelle Verbesserung der Deformationsergebnisse angestrebt, die das Narbengewebe aus den Volumendaten extrahiert. Das avitale Gewebe wird durch das Eliminieren von uninteressanten Bildinformationen hervorgehoben und verbessert somit die visuelle Analyse der Narbendeformation ueber den Herzzyklus. Beide Verfahren liefern eine detaillierte und eindeutige Analyse des Infarktgewebes, die die manuelle Untersuchung in der klinischen Praxis ergaenzen kann.
Implementierung eines Subsurface Scattering Shader Plugins für die Augenblick Raytracing Engine
(2009)
In dieser Ausarbeitung werden drei Beleuchtungsverfahren und mögliche Implementierungen zur Realisierung eines Subsurface Scattering Shaders vorgestellt und diskutiert. Subsurface Scattering bezeichnet allgemein den Lichttransport in die Oberfläche von Objekten hinein und durch sie hindurch. Die korrekte Darstellung dieses Phänomens ist sehr komplex und ist nicht mittels einer einfachen BRDF und gängiger Beleuchtungsverfahren darstellbar. Die drei Verfahren sind: Physikalisch korrektes Subsurface Scattering durch das Monte Carlo Pathtracing, vereinfachtes Subsurface Scattering durch Nutzung eines Licht-Lots, stark vereinfachtes Subsurface Scattering durch ein normalenabhängiges Aufhellen der Kanten. Durch die Nutzung des Monte Carlo Pathtracers können zudem Beleuchtungseffekte wie das sogennante Colorbleeding, dass heißt Lichttransport von einer farbigen Fläche auf eine andere mittels indirekter Beleuchtung, ermöglicht werden. Jedes Verfahren beinhaltet eine andere Kombination der bekanntlich gegenläufigen Eigenschaften Performanz und Korrektheit, je nachdem in welchem Rahmen und Aufgabenbereich Subsurface Scattering benötigt wird.Am Schluss der Arbeit werden Ergebnisse präsentiert, diskutiert und ein Ausblick auf weiterführende Arbeiten gegeben. Alle drei Verfahren wurden als Plugin für den Raytracer Augenblick von Oliver Abert realisiert.
Im Rahmen dieser Diplomarbeit wird eine Datenbank-Persistenzlösung für die TGraphenbibliothek JGraLab entwickelt. Diese erlaubt das Persistieren von TGraphen in Datenbanken ausgewählter Technologien und sorgt gleichzeitig dafür, dass die Datenbankpersistenz eines TGraphen für den Benutzer transparent bleibt. Nach der Anforderungserhebung und der Recherche zur Bewertung der Tauglichkeit von bereits bestehenden Werkzeugen für dieses Projekt, wird die Anwendungsdomäne erläutert. Anschließend wird dargelegt wie die Persistierung von TGraphen mit allen ihren Eigenschaften in Datenbanken ermöglicht werden kann. Dem schließt sich der konzeptuelle Entwurf an, in dem die Details der Lösung beschrieben werden. Als nächstes wird der objektorientierte Feinentwurf zur Integration der Lösung in die TGraphenbibliothek JGraLab entwickelt, der die Grundlage der programmatischen Umsetzung bildet. Eine Anleitung zur Verwendung der Lösung und eine Bewertung des Laufzeitverhaltens der umgesetzten Implementation schließen die Arbeit ab.
In dieser Arbeit werden drei Verfahren zur Objektentfernung aus Bildern einander gegenübergestellt. Zwei der ausgewählten Verfahren stammen aus dem Bereich der sogenannten Inpainting-Verfahren, während das dritte dem Forschungsgebiet der medizinischen Bildverarbeitung entnommen ist. Die Evaluation dieser Verfahren zeigt ihre jeweiligen Vor- und Nachteile auf und prüft ihre Anwendbarkeit auf das spezifische Problem, ein Farbkalibriermuster aus strukturdominierten Bildern zu entfernen. Auf der Grundlage dieser Eigenschaften werden abschließend mehrere Erweiterungen vorgestellt, die eine verbesserte Anwendbarkeit auf das gestellte Problem erreichen.
Die Diplomarbeit "E-Partizipation Virtuelles Ressourcen Portal" beschreibt die Konzeptionalisierung und Implementierung des Virtual Resource Centre (VRC), eines internationalen Ressourcen- und Wissensportals für die multidisziplinäre Forschung und Anwendungsgebiete im Bereich E-Partizipation. Die Notwendigkeit für ein solches Portal entstand im Rahmen des europäischen DEMO_net Projekts, dem Exzellenznetzwerk für E-Partizipation. Das Ziel des Portals ist die verbesserte Verbreitung der aktuellen Wissensstände der angeschlossenen Forscher und Praktiker im Bereich von E-Partizipation. Dabei sollen gemeinsame Arbeiten und Diskussionen in den verteilten Projekten verbessert und die Ergebnisse dieser Arbeiten publiziert und gespeichert werden. Dazu ist ein leicht bedienbares und gut strukturiertes Portal notwendig, da viele angeschlossene Institutionen nicht aus dem technischen Bereich kommen. Die weiteren Ziele des VRC sind unter anderem, redundante Entwicklungen zu vermeiden, exzellente Forschungs- und Umsetzungseinrichtungen des Themenfeldes auszuweisen und die laufenden Projekte in E-Partizipation nach wählbaren Kategorien dynamisch aufzulisten. Die technische Grundlage für das Wissensportal ist ein mit vielen Erweiterungen versehenes Web Content Management System (WCMS). Um das den Anforderungen entsprechende WCMS zu ermitteln, werden mittels einer Nutzwertanalyse die verschiedene Systeme Plone, TYPO3 und Xoops verglichen. Durch das Einbinden und Entwickeln von Erweiterungen werden die speziellen Anforderungen an das VRC erfüllt, die die Verwaltung von Publikationen, Übersicht über Projekte, und Forschungsdisziplinen usw. unter Verwendung aktueller Web 2.0 Funktionalitäten beinhalten. Der Diplomarbeit liegen zwei Forschungsmethodiken zu Grunde. Design Research wurde als die grundlegende Methodik für diese Diplomarbeit gewählt. Design Research beschreibt in fünf Phasen einen Leitfaden nach dem ein Portal modelliert und anschließend realisiert werden kann. Eine weitere angewandte Methodik ist das Hypertext Design Modell, welches zum Erstellen eines Modells des VRC genutzt wird. In der Beschreibung der Implementierungen werden neben den Änderungen am WCMS, unter anderem auch die Benutzerverwaltung und Zugriffssteuerung, handbuchartig beschrieben. Zum Abschluss wird ein Überblick über die entstandenen Herausforderungen und Empfehlungen für weitere Entwicklungen und mögliche Arbeiten gegeben.
In Silico simulation of biological systems is an important sub area of computational biology (system biology), and becomes more and more an inherent part for research. Therefore, different kinds of software tools are required. At present, a multitude of tools for several areas exists, but the problem is that most of the tools are essentially application specific and cannot be combined. For instance, a software tool for the simulation of biochemical processes is not able to interact with tools for the morphology simulation and vice versa. In order to obtain realistic results with computer-aided simulations it is important to regard the biological system in its entirety. The objective is to develop a software framework, which provides an interface structure to combine existing simulation tools, and to offer an interaction between all affiliated systems. Consequently, it is possible to re-use existing models and simulation programs. Additionally, dependencies between those can be defined. The system is designed to interoperate as an extendable architecture for various tools. The thesis shows the usability and applicability of the software and discusses potential improvements.
Für die realistische Betrachtung einer virtuellen Szene spielt neben der direkten Beleuchtung auch die Ausbreitung des indirekten Lichtes eine wichtige Rolle. Die Berechnung der indirekten Beleuchtung benötigt grundsätzlich Informationen über die gesamte Szene, nicht nur über den für die Kamera sichtbaren Ausschnitt, der in bildraumbasierten Techniken zum Einsatz kommt. Mittels Voxelisierung kann die Szene in eine dreidimensionale, diskrete und GPU-freundliche Repräsentation überführt werden. In dieser Arbeit werden Voxelrepräsentationen hinsichtlich ihrer Eignung für den globalen Lichtaustausch in dynamischen und großen Szenen untersucht. Nach einer Einführung und einem Literaturüberblick über existierende Voxelisierungs- und Beleuchtungsverfahren, die Voxel als Grundlage nutzen, wird ein Voxelisierungsverfahren entwickelt, das sich für Szenen mit dynamischen Objekten eignet. Auf der Grundlage des Strahlenschnitt-Tests mit binärer Voxelhierarchie werden dann zwei Beleuchtungsalgorithmen umgesetzt, implementiert und evaluiert: Monte-Carlo-Integration der Hemisphäre eines Szenenpunktes und Beleuchtung der Szenenpunkte mit virtuellen Punktlichtquellen.
Das Ziel dieser Arbeit war es, durch agentenbasierte Simulation die Unfall- und Verkehrsmodellierung von Oman (Muskat City) unter theoretischen Annahmen darzustellen. TRASS sollte als Grundlage für die Simulationsumgebung genommen werden. Zusätzlich sollten mögliche Gegenmaßnahmen in Bezug auf die hohe Unfallrate vorgeschlagen werden können, die sich durch unterschiedliche Simulationsvarianten ergeben.
Ob die theoretischen Annahmen durch die Simulation in der Realität tatsächlich eine Anwendung finden und umgesetzt werden sollen, war nicht Teil dieser Arbeit.
Zu prüfen war es noch, ob sich drei verschiedene Simulationsvarianten durch die Simulation mit TRASS unterschiedlich darstellen lassen. Die drei Varianten wurden aufgeteilt in Simulationsablauf mit Ampelsteuerung, ohne Ampelsteuerung und schließlich mit Ampelsteuerung, die aber mit einer Wahrscheinlichkeit von 70% ignorieret werden soll. Alle drei Varianten konnten unterschiedliche Ergebnisse liefern. Es wurde gezeigt, dass alle drei Varianten Vor- und Nachteile im Bezug auf Verkehrsfluss und Unfallrate haben.
Nicht zu vernachlässigen ist die Tatsache, dass in dieser Arbeit ausschließlich mit TRASS-Framework modelliert, analysiert und ausgewertet wurde. Alle Potenziale und Defizite fließen somit in den Gesamtrahmen dieser Arbeit ein. Daher ist nach kritischer Betrachtung diese Aussage nur aus einem Blickwinkel betrachtet worden: Zu Grunde lagen die theoretischen Annahmen von Oman und die Modelliergrenzen von TRASS. Um eine vielversprechende Aussage über die tatsächliche Umsetzung der Vorschläge machen zu können, bedarf es noch weitere umfassende Analysen und Simulationen in weitaus größerem Variantenumfang des Verkehrs für Oman.
Das allgemeine Erreichbarkeitsproblem in Stellen/Transitions-Netzen behandelt die Frage, ob eine bestimmte Zielmarkierung aus einer anderen Markierung erreichbar ist. Die lineare Algebra als Teilgebiet der Mathematik kann zur Beschreibung und Analyse von Petri-Netzen herangezogen werden. Jedoch stellen Kreise in Netzen bei der Erreichbarkeitsanalyse ein Problem für sie dar: ob für bestimmte Transitionen erforderliche Marken sofort, erst nach dem Durchlaufen bestimmter Kreise oder gar nicht zur Verfügung stehen, ist nicht erkennbar, hat jedoch unmittelbare Auswirkungen auf die Erreichbarkeit. Es gibt verschiedene Möglichkeiten, dieses Problem linear-algebraisch anzugehen. In dieser Arbeit werden vorhandene Verfahren sowie neue Lösungsansätze auf Basis der Reproduzierbarkeit der leeren Markierung diskutiert.
In dieser Arbeit wird die Umsetzung und Modifikation des Verfahrens von Finlayson et al. zur Schattenentfernung in einzelnen Farbbildern unter Verwendung des Retinex-Algorithmus vorgestellt. Für die benötigte Detektion von Schattenkanten wurde ein Verfahren von Finlayson et al. umgesetzt und angepasst. Die erforderliche Kamerakalibrierung wurde dabei nicht mit Tageslicht, sondern unter Verwendung künstlicher Lichtquellen realisiert. Anhand von Campus-Bildsequenzen wird ein qualitativer Vergleich des umgesetzten Verfahrens mit dem von Weiss zur Schattenentfernung in Bildserien vorgenommen. Außerdem wird ein erster Ansatz vorgestellt, wie Verfahren zur Schattenentfernung quantitativ bewertet werden können. Die Erzeugung der benötigten Ground-truth-Daten wird mit Hilfe von Laboraufnahmen realisiert, sodass keine manuelle Segmentierung von Schatten erforderlich ist. Anhand der Ergebnisse von Experimenten wird gezeigt, inwieweit die definierten Maße eine Bewertung und einen Vergleich der beiden Verfahren erlauben.
Die Diplomarbeit "Entwicklung eines Telemedizinregister-Anforderungskatalog" behandelt die Erstellung eines Anforderungskatalogs für die Entwicklung eines im telemedizinischen Bereich anwendbaren Registers zur Unterstützung von Abrechnungsvorgängen. Diese werden im deutschen Gesundheitswesen zwischen telemedizinischen Dienstleistern und Kostenträgern in Zusammenhang mit der integrierten Versorgungsform durchgeführt, um die Finanzierung durchgeführter telemedizinischer Behandlungen abzurechnen. Dabei dient das Telemedizinregister als eine datenvorhaltende Speicherstelle, die Kopien von Behandlungsdaten telemedizinischer Dienstleister aufnimmt und deren Verarbeitungsprozesse im Register protokolliert. Den beteiligten Kostenträgern wird Zugriff auf dieses Telemedizinregister gewährt, um die Validität der Therapiedaten überprüfen zu können, die ihnen durch telemedizinische Dienstleister zur Analyse vorgelegt werden. Die Arbeit beschreibt die theoretischen Grundlagen der Bereiche Datenschutz und Telemedizin, mit denen Anforderungslisten und ein SOLL-Modell eines Telemedizinregisters erstellt werden. Dieses Modell setzt sich aus Datenmodellen und Prozessbeschreibungen zusammen und wird mit Hilfe eines praktischen Beispiels einer telemedizinischen Behandlung überprüft. Die Integration verschiedener Standards, welche bei Datenaustausch-Prozessen eingesetzt werden können, ist ein weiterer Teil zur Konzeptionierung des Telemedizinregisters, zu dem mögliche Anwendungsfelder zur Erweiterung der Funktionalität beschrieben werden.
Die vorliegende Arbeit stellt eine Methode für die korpusbasierte Analyse der Verwendung von Softwarebibliotheken in Java-Programmen vor. Die meisten größeren Softwareprojekte verwenden Softwarebibliotheken, die als Schnittstelle für den Programmierer sogenannte APIs (application programming interfaces) bereitstellen. Um den Umstieg von einer solchen API auf eine andere zu unterstützen, strebt man Werkzeuge zur automatisierten API-Migration an. Zur Entwicklung solcher Werkzeuge fehlen allerdings noch Basisdaten. Statistiken und Beobachtungen zur Verwendung von APIs in der Praxis wurden bisher nur mit sehr kleinen Korpora von Projekten und APIs durchgeführt. Wir stellen in dieser Arbeit daher eine Analysemethode vor, die für Messungen an großen Korpora geeignet ist. Hierzu erzeugen wir zunächst einen Korpus von auf SourceForge gehosteten Open-Source-Projekten sowie einen Korpus von Softwarebibliotheken. In der Folge werden alle Projekte des Korpus compiliert, wobei ein Compiler-Plugin für den javac detaillierte Informationen über jede einzelne Methode liefert, die der Compiler erstellt. Diese Informationen werden in einer Datenbank gespeichert und analysiert.
Echtzeitsysteme spielen in der heutigen Zeit in vielen Anwendungsbereichen eine bedeutende Rolle. Beispiele hierfür finden sich in der Robotik, der Fabrikautomation, der Medizintechnik, aber auch in Bereichen aus dem täglichen Leben, wie im Automobilbereich oder in der Mobilkommunikation. Trotz der ständig wiederkehrenden Begegnung mit ihnen im Alltag, sind Echtzeitsysteme häufig innerhalb von größeren Systemen eingebettet und können somit nur selten vom jeweiligen Nutzer bewusst als eigenständig wahrgenommen werden.
Um spezifische Eigenschaften des Gebiets Echtzeitsysteme im Schulunterricht oder in der Ausbildung an Hochschulen den Lernenden sichtbar zu machen, existiert im Labor der Arbeitsgruppe Echtzeitsysteme der Universität Koblenz-Landau ein Versuchsaufbau mit dem Namen "Wippe", bei dem eine Kamera die Bewegung einer Kugel auf einer ebenen Fläche aufnehmen und vermessen kann. Durch die Neigung der Fläche in zwei Achsen ist die Wippe prinzipiell in der Lage, die Kugel zu bewegen und zum Halten zu bringen. Insbesondere soll verhindert werden, dass die Kugel von der Fläche fällt. Die vorliegende Arbeit beschäftigt sich mit der Analyse und Überarbeitung des Wippe-Systems. Außerdem wird ein Regelalgorithmus für eine automatische Steuerung des Systems realisiert.
Das Wippe-Experiment soll für didaktische Zwecke eingesetzt werden und ein offenes System darstellen, welches die Merkmale und Eigenschaften eines Echtzeitsystems exemplarisch verdeutlicht.
Im Rahmen der mGeoWiki-Projekte wird ein neuer Ansatz geschaffen, mit ortsbezogenen Daten umzugehen. Bisher gibt es zum einen Geo-Portale, wie Google Maps, die es einem ermöglichen, Landkarten oder Luftbilder von jedem beliebigen Ort auf der Erde anzusehen. Dort können von jedem Benutzer zusätzliche Informationen oder auch Fotos hinterlegt und somit anderen Benutzern zugänglich gemacht werden. Die Nutzung dieses Dienstes ist kostenlos. Eine weitere Nutzung ortsbezogener Daten findet sich bei den Navigationssystemen. Hier wird die aktuelle Position mit Hilfe des GPS-Empfängers ermittelt und auf einer Karte angezeigt. Darüber hinaus werden thematische Informationen, wie Hotels oder Tankstellen, dargestellt. Diese zusätzlichen Informationen sind jedoch nicht unmittelbar durch den Benutzer veränderbar, sondern werden durch die Hersteller der Geräte vorgegeben. Eine Aktualisierung ist in der Regel kostenpflichtig. Das mGeoWiki kombiniert diese verschiedene Aspekte zu einem neuen Service. Der erste wichtige Aspekt ist die Mobilität. Der Benutzer kann sich frei in seiner Umwelt bewegen,seine Position wird mittels GPS festgestellt. Dann werden dem Benutzer Luftbilder und zusätzliche Informationen über den aktuellen Standort gezeigt. Der Benutzer ist also nicht mehr an seinen heimischen PC gebunden. Der zweite wichtige Aspekt ist die Möglichkeit der Benutzer, eigene, standortbezogene Daten zu hinterlegen, zu diskutieren und zu verändern. Am Beispiel des Landesamts für Vermessung und Geobasisinformation Rheinland-Pfalz (LVermGeo RLP) und dessen Plattform TIM-Online wird gezeigt, wie sich das mGeoWiki als generische Plattform im e-Government-Kontext einsetzen lässt.
Konzept und Umsetzung eines E-Learning Nähkurses mit Integration von 3D-Modellen und Animationen
(2007)
In dieser Arbeit wird ein skelettbasiertes Matching-Verfahren für 2D-Objekte vorgestellt. Zunächst werden aktuelle Ansätze zum Matchen von Objekten vorgestellt, anschließend werden die Grundlagen von skelettbasiertem Matching erklärt. Ein skelettbasiertes Verfahren wurde im Rahmen dieser Arbeit gemäß dem vorliegenden Original-Paper neu implementiert. Diese Implementierung wird anhand einer Ähnlichkeitssuche in drei Bild-Datenbanken evaluiert. Stärken und Schwächen des Verfahrens werden herausgearbeitet. Des weiteren wird der vorgestellte Algorithmus auf Erweiterungen untersucht, die das Matchen von 3D-Objekten ermöglichen sollen. Im speziellen wird das Verfahren auf medizinische Daten angewendet: CT-Aufnahmen der abdominalen Aorta eines Patienten vor und nach einer Operation werden miteinander verglichen. Problemfälle und Erweiterungsansätze für das Matchen von 3D-Objekten im Allgemeinen und von Blutgefäßen im Speziellen werden vorgestellt.
Program slicing is a technique for extracting that parts of a program which influence a previously defined, so-called slicing criterion. The latter mostly takes the form of a source code statement and a set of variables. Over the years an abundance of variants and enhancements has evolved from the original notion of a program slice. One of these developments is called chopping. A chop only contains those statements which are necessary to sustain the effects of a certain statement on another statement. Corresponding to the slicing criterion, the two statements have to be available in advance. This diploma thesis deals with the development of a service model in order to support the computation of a slice or a chop, given an original program and a slicing or chopping criterion respectively. A service model is a framework of communicating services so that each service performs a specific task within the concept of program slicing. The three main tasks, without considering further decomposition, are the mapping of program code into a representation suitable for slicing, the slicing itself and the display of the slice as code. The key benefit of service-orientation is that a service encapsulates the underlying algorithms. Hence the possibility of improving or substituting them without changing the interfaces of the related service relieves the developer of the need of adapting adjoining services. Thus, service-orientation fosters maintainability and improvability. Besides the definition of the services, this thesis also partially formally defines the data flow between them, i.e. their interfaces. It also features graph class definitions for most data structures. An accurate description of the interfaces encourages reuse, provided the services are of adequate granularity.
In dieser Arbeit wird ein zweigeteilter Regler für die Pfadverfolgung eines Modellfahrzeugs mit einachsigem Anhänger entwickelt. Darüber hinaus wird ein Beweis für die Stabilität und die Konvergenzeigenschaft der gefundenen Regelungsgesetze geliefert. Das Verfahren wird anschließend in die bestehende Steuersoftware des Versuchsfahrzeuges integriert und eine Testumgebung erstellt, um das Regelungsverfahren damit abschließend zu evaluieren.
Ziel dieser Arbeit ist es, markerloses Tracking unter dem Ansatz der Analyse durch Synthese zu realisieren und dabei auf den Einsatz merkmalsbasierter Verfahren zu verzichten. Das Bild einer Kamera und ein synthetisches Bild der Szene sollen durch den Einsatz von Stilisierungstechniken so verändert und angeglichen werden, dass zu dem gegebenen Kamerabild aus einer Auswahl von gerenderten Bildern jenes erkannt werden kann, welches die reale Kamerapose am exaktesten wiedergibt. Es werden Kombinationen von Ähnlichkeitsmaßen und Visualisierungen untersucht, um eine bestmögliche Vergleichbarkeit der Bilder zu erreichen, welche die Robustheit gegen Trackingfehler erhöhen soll.
Aspekt-Orientierung in PHP
(2012)
Diese Diplomarbeit hat das Thema der fehlenden Cross-Cutting-Concerns(CCCs)-Unterstützung in PHP zum Inhalt. Die Basis bilden zu definierende Anforderungen an eine AOP-Realisierung im PHP-Umfeld. Es wird analysiert, wie und ob verwandte Sprachen und Paradigmen es gestatten, CCCs zu unterstützen. Darüber hinaus wird die Möglichkeit erörtert, AOP in PHP ohne PHP-Erweiterung zu realisieren. Weiter werden die bisherigen Ansätze, AOP in PHP umzusetzen, qualitativ untersucht. Die vorliegende Arbeit zielt darauf ab, eine eigene AOP-PHP-Lösung zu präsentieren, die nicht die Schwächen existierender Lösungen teilt.
Ray Tracing als Bildsyntheseverfahren ist relevant für viele Anwendungsbereiche, da es Aspekte des Lichttransports physikalisch korrekt simulieren kann. Aufgrund des hohen Berechnungsaufwands sind der Einsatz von Datenstrukturen zur Beschleunigung und die parallele Verarbeitung notwendig. GPUs sind inzwischen hoch parallele, programmierbare Prozessoren mit zahlreichen Kernen und eignen sich aufgrund ihrer hohen Leistungsfähigkeit dazu, aufwändige, parallelisierbare Probleme zu lösen. In dieser Arbeit geht es um GPU Ray Tracing, beschleunigt durch Bounding Volume Hierarchien (BVH). Auf Basis relevanter Veröffentlichungen zu Aufbau und Traversierung von BVHs und der Abbildung des Ray Tracing Prozesses auf die GPU Architektur wird ein GPU Ray Tracer konzeptioniert und entwickelt. Während der BVH Aufbau vorab auf dem Host stattfindet, wird der gesamte Ray Tracing Prozess durch mehrere Kernel komplett auf der GPU ausgeführt. Die Implementierung der Kernel erfolgt in Form von OpenGL Compute Shader Programmen, und die Aufteilung des Ray Tracers auf mehrere Kernel ist durch die GPU Achitektur und das SIMT Ausführungsmodell motiviert. Für die Speicherorganisation der binären BVHs werden zwei Varianten betrachtet, klassisch und als MBVH, wobei sich die MBVH Organisation als effizienter erweist. Zudem werden verschiedene Varianten für die Traversierung ohne Stack und für die Stack-basierte Traversierung umgesetzt und bewertet. Der in mehrere Kernel strukturierte GPU Ray Tracer wird zudem mit einer Einzelkernel Version verglichen. Die besten Ergebnisse erreicht die Traversierung ohne Stack mit einem while-while Ablauf und MBVH im Rahmen des aufgeteilten GPU Ray Tracers.
Ziel dieser Arbeit war es, ein (ggf. aus Teilverfahren zusammengesetztes) Gesamtsystem zur Generierung von Stadt- und Gebäudemodellen zu entwickeln und umzusetzen. Dabei war insbesondere wichtig, dass die baulichen Elemente einer Stadt durch realistisch wirkende, dreidimensionale Formen repräsentiert und auch in großer Anzahl unter Echtzeit-Bedingungen dargestellt werden können.
Mittels facettierter Suche lassen sich große, unbekannte Datensätze einfach und gezielt erkunden. Bei der Implementation von Anwendungen für Smartphones ist zu beachten, dass im Gegensatz zu Desktop-Anwendungen ein kleinerer Bildschirm und nur beschränkte Möglichkeiten zur Interaktion zwischen Benutzer und Smartphone zur Verfügung stehen. Diese Beschränkungen können die Benutzbarkeit einer Anwendung negativ beeinflussen. Mit FaThumb und MobileFacets existieren zwei mobile Anwendungen, die die facettierte Suche umsetzen und verwenden, aber nur MobileFacets ist für gegenwärtige Smartphones mit Touchscreenbildschirm ausgelegt.
Jedoch bietet FaThumb eine neuartige Facettennavigation, die durch MFacets in dieser Arbeit für aktuelle Smartphones neu realisiert wird. Außerdem befasst sich diese Arbeit mit der Durchführung einer summativen Evaluation zwischen den beiden Anwendungen, MFacets und MobileFacets, bezüglich der Benutzbarkeit und präsentiert die ausgewerteten Ergebnisse.
In einer Welt, die immer mehr durch den Einsatz von Technik geprägt wird, gewinnen Systeme, welche eigenständig Aufgaben in einem vorgegebenen Kontext übernehmen können, mehr und mehr an Bedeutung. Solche Systeme werden als autonome Systeme bezeichnet, die ein eigenständiges Verhalten und Interaktionen mit ihrer Umwelt und anderen Systemen beinhalten. Zu diesen Systemen zählen auch autonome mobile Roboter. Sie sind sozusagen intelligente Fahrzeuge, die ihnen übertragene Aufgaben ohne menschliche Unterstützung durchführen können. Um ihre Umwelt wahrzunehmen, mit ihr interagieren und in ihr navigieren zu können benötigen diese Systeme verschiedene Arten von Sensoren. Somit ist die Robotikforschung stark interdisziplinär. Diese Arbeit befasst sich ausschliesslich mit dem Bereich der Navigation, insbesondere mit der Positionsbestimmung, welche für eine gute Navigation die Grundlage bildet. Ein heutzutage häufig benutztes, weltweit verfügbares System zur Positionsbestimmung ist GPS. Ziel dieser Arbeit ist der Anschluss eines GPS-Moduls an einen Mikrocontroller und der Versuch die Positionsgenauigkeit lokal zu präzisieren, um so einem autonomen System die Möglichkeit zur eröffnen, Aufgaben, die eine höhere Genauigkeit erfordern, zu bewerkstelligen.
Ziel dieser Arbeit ist es, eine Anwendung für ein Augmented Reality Fernrohr zu entwickeln, die verschiedene Interaktions- und Explorationsmöglichkeiten umsetzt. Darüber hinaus sollen Erkenntnisse über den Einfluss auf die Vermittlung von Wissen gewonnen werden. Dafür soll innerhalb von sechs Monaten neben der Einarbeitung in die verschiedenen Themengebiete, dem Entwurf eines Konzepts und der Implementierung der Anwendung auch eine gründliche Evaluation durchgeführt werden. Da der Standort des Fernrohrs im Rahmen der Bundesgartenschau 2011 [BUG] in Koblenz am Rheinufer in der Nähe der Talstation der Seilbahn ist, bietet es sich an die Festung Ehrenbreitstein in den Fokus zu setzen. Dabei soll vor allem die Festungsarchitektur im Mittelpunkt stehen. Die Anwendung soll dem Benutzer einen Überblick über die Festungsanlagen geben und nebenbei auch einige geschichtliche Fakten vermitteln.
Um die verschiedenen Anforderungen und die damit verbundenen Aufgaben zu erfüllen und strukturiert zu erarbeiten, wurde vor Beginn der Arbeit ein Projektplan erstellt, der die 6 Monate in fünf verschiedenen Phasen unterteilt, die jeweils mit Meilensteinen enden. Die Phase soll die Einarbeitung in die Grundlagen, die Entwicklung des Konzepts und die softwaretechnische Planung umfassen. Die nächste Phase beschäftigt sich mit der Präevaluation, die genaueren Aufschluss über die Qualität des entwickelten Konzepts geben soll. Im Anschluss an die Auswertung der Präevaluation kommt die erste Implementierungsphase, die mit einem Prototypen abschließen soll. Im zweiten Implementierungsschritt sollen dann die grafischen Inhalte erstellt und die prototypische Anwendung mit Inhalten gefüllt werden.
Zum Abschluss des Projekts wird eine Evaluation durchgeführt, die Erkenntnisse über den Einfluss von Augmented Reality auf die Vermittlung von Wissen liefern soll.
Die Arbeit befasst sich mit atlasbasierter Segmentierung von CT-Datensätzen mit Hilfe von elastischen Registrierungsmethoden. Ziel ist die vollautomatische Segmentierung eines beliebigen Eingabedatensatzes durch Registrierung mit einem vorsegmentierten Referenzdatensatz, dem Atlanten. Ein besonderes Augenmerk liegt dabei auf der Implementierung und Evaluation elastischer Registrierungsverfahren, da rigide Registrierungsmethoden besonders in Bereichen hoher anatomischer Varianzen keine genaue Segmentierung gewährleisten. Im Vordergrund steht zunächst die Generierung zweier Atlanten, die als durchschnittliche Referenzdatensätze Informationen über die anatomische Varianz männlicher und weiblicher Bevölkerungsgruppen enthalten. Weiter werden vier etablierte elastische Registrierungsarten implementiert und im Hinblick auf eine atlasbasierte Segmentierung der wichtigen Organe des menschlichen Torsos evaluiert: BSpline-Registrierung, Demons-Registrierung, Level-Set-Motion-Registrierung und FEM-Registrierung. Robustheit und Genauigkeit der implementierten Verfahren wurden anhand von Lungen- und Abdomendatensätzen sowohl intra- als auch interpatientenspezifisch ausgewertet. Es wird gezeigt, dass vor allem die elastische BSpline-Registrierung hier genauere Segmentierungsergebnisse liefern kann, als es mit einer rigiden Registrierung möglich ist.
Im Laufe der Zeit fallen in einem Unternehmen große Mengen von Daten und Informationen an. Die Daten stehen im Zusammenhang mit unternehmensinternen Vorgängen, mit dem Marktumfeld, in dem das Unternehmen positioniert ist, und auch mit den Wettbewerbern. Sie sind vielfältiger Art, normalerweise inhomogen und aus verteilten Datenquellen zu beziehen. Um in dieser Flut von Daten die Übersicht zu behalten, die Menge an Informationen effektiv für das Unternehmen nutzbar zu machen, vor allem auch nachhaltig für kommende Entscheidungsfindungen, müssen die Daten analysiert und integriert werden. Diese Optimierung der Entscheidungsfindung durch Zugang zu Informationen, deren Analyse und Auswertung wird häufig unter dem Begriff "Business Intelligence" zusammengefasst. Der Wert der vorhandenen Informationen hängt stark von dem erwähnten Zugang und einer ausdrucksstarken Repräsentation ab. RIA-Techniken ermöglichen eine einfache Verfügbarkeit der verarbeiteten Geschäftsdaten über Inter- und Intranet ohne große Anforderungen an ihre Nutzbarkeit zu stellen. Sie bieten zudem spezialisierte leistungsfähige und in großem Maße programmierbare Visualisierungstechniken. Die Diplomarbeit soll zwei Schwerpunkte habe. Zum Einen wird sie sich mit Arten der Informationsvisualisierung im Allgemeinen und deren Eignung für Geschäfsdaten beschäftigen. Der Fokus liegt hierbei auf Daten und Informationen in Management-Informationsberichten. Ziel ist eine Visualisierungsform, die es dem Nutzer ermöglicht, die zu kommunizierenden Informationen effizient auszuwerten. Zum anderen untersucht die Diplomarbeit die Vor- und Nachteile des Einsatzes von RIAs. Der Implementierungsteil umfasst eine RIA als "Proof of Concept", deren Hauptaugenmerk auf eine dynamische Interaktion und optimierte Informationsvisualisierung gerichtet sein soll. Die Diplomarbeit wird bei der Altran CIS in Koblenz durchgeführt.
In recent years ontologies have become common on the WWW to provide high-level descriptions of specific domains. These descriptions could be effectively used to build applications with the ability to find implicit consequences of their represented knowledge. The W3C developed the Resource Description Framework RDF, a language to describe the semantics of the data on the web, and the Ontology Web Language OWL, a family of knowledge representation languages for authoring ontologies. In this thesis we propose an ontology API engineering framework that makes use of the state-of-the-art ontology modeling technologies as well as of software engineering technologies. This system simplifies the design and implementation process of developing dedicated APIs for ontologies. Developers of semantic web applications usually face the problem of mapping entities or complex relations described in the ontology to object-oriented representations. Mapping complex relationship structures that come with complex ontologies to a useful API requires more complicated API representations than does the mere mapping of concepts to classes. The implementation of correct object persistence functions in such class representations also becomes quite complex.
Orientierung aus Silhouetten
(2010)
Anhand der sogenannten "Analyse durch Synthese" soll in der folgenden Qualifikationsarbeit versucht werden, zum Zeitpunkt einer Aufnahme auf dem Campus der Universität Koblenz die Orientierung der Kamera zu bestimmen. Die Lösungsidee für diese Problemstellung liegt in Form eines merkmalsbasierten Ansatzes vor. Zu diesem Zweck ist die grobe Position im 3D-Campusmodell der Universität Koblenz zum Zeitpunkt der entsprechenden Aufnahme gegeben. Um das Bild einer realen Aufnahme mit einem künstlichen Bild des 3D-Modells vergleichen zu können, ist ein Ähnlichkeitsmaß notwendig, welches die Ähnlichkeit zwischen diesen beiden Bildern mit einem Wert ausdrückt. Der Vergleich erfolgt anhand der Silhouette der einzelnen Bilder, während die Orientierung der Kamera mit Hilfe eines nicht linearen Opitimierungsverfahrens bestimmt wird.
Die Bedeutung von Innovation für die Sicherung der Unternehmensexistenz nimmt zu. Gerade im Bereich der Informations- und Kommunikationssysteme zwingen veränderte Rahmenbedingungen, verkürzte Produktlebenszyklen und verstärkter Wettbewerb viele Unternehmen zur Anpassung ihrer Innovationsgeschwindigkeit. Langfristiger Erfolg wird sich nur für die Unternehmen einstellen, denen es gelingt, durch technologische Innovationen ihre Wettbewerbsposition zu festigen oder auszubauen. Dies erfordert einen gesonderten Umgang mit technologischen Innovationen und verlangt nach einem Technologie- und Innovationsmanagement. Dabei ist nicht jede Innovation das Produkt einer einmaligen, möglicherweise gar spontanen Idee. Viele Innovationen entstehen aus der Integration oder Kombination bereits bewährter Technologien. Dies ist besonders interessant, wenn die originären Technologien Branchen entstammen, die nur noch marginale Wachstumsraten aufweisen. Ziel dieser Arbeit ist die Identifizierung eventuell existierender Mängel etablierter Vorschläge für ein strategisches Technologie- und Innovationsmanagement, sowie darauf aufbauend die Formulierung eines eigenen Vorschlags zum Umgang mit Innovationen, die durch Technologieintegration entstanden sind.
Im Rahmen dieser Diplomarbeit wird ein TGraph-basiertes Modell-Vergleichsverfahren entwickelt. Dieses Verfahren soll eine anwendbare Berechnung von Deltas für TGraph-basierte Modelle ermöglichen. Modelle können durch TGraphen repräsentiert werden. Für die Erzeugung und Verarbeitung von TGraphen wurde am Institut für Softwaretechnik das Java Graph Laboratory, kurz JGraLab, entwickelt. Es handelt sich dabei um eine Java Klassenbibliothek, die eine hoch effiziente API zur Verarbeitung von TGraphen bereitstellt. [Ebe87, ERW08, ERSB08] Basierend auf der JGraLab API wird ein System entwickelt, das unterschiedliche Werkzeuge zur Verwaltung von Modellen bereitstellt. Der Fokus dieser Diplomarbeit liegt dabei auf der Entwicklung eines Werkzeugs, das zu zwei gegebenen TGraphen ein Delta berechnet.
MapReduce with Deltas
(2011)
The MapReduce programming model is extended slightly in order to use deltas. Because many MapReduce jobs are being re-executed over slightly changing input, processing only those changes promises significant improvements. Reduced execution time allows for more frequent execution of tasks, yielding more up-to-date results in practical applications. In the context of compound MapReduce jobs, benefits even add up over the individual jobs, as each job gains from processing less input data. The individual steps necessary in working with deltas are being analyzed and examined for efficiency. Several use cases have been implemented and tested on top of Hadoop. The correctness of the extended programming model relies on a simple correctness criterion.
In dieser Arbeit wurde die Realisierung einer mobilen Sicherheitslösung für Überwachungszwecke vorgestellt, welche unter Zuhilfenahme des staatlich geförderten Forschungsprojekts CamInSens entwickelt wurde. CamInSens soll erreichen, in überwachten Gefahrenbereichen die erhaltenen Video- und Sensorendaten so zu analysieren, dass Bedrohungen möglichst frühzeitig erkannt und behandelt werden können. Das Ziel dieser Arbeit war, auf Basis von verarbeiteten Daten aus CamInSens eine Interaktion und Visualisierung zu entwickeln, die bei einem späteren Praxiseinsatz mobilem Sicherheitspersonal dabei hilft, in Bedrohungssituationen fundierte Entscheidungen treffen zu können. Zu diesem Zweck wurde nicht nur eine Software implementiert, sondern auch eine Marktsichtung hinsichtlich geeigneter Geräte und einsetzbarer Softwarebibliotheken durchgeführt.