Filtern
Erscheinungsjahr
- 2011 (123) (entfernen)
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (41)
- Diplomarbeit (27)
- Dissertation (23)
- Bachelorarbeit (17)
- Studienarbeit (9)
- Masterarbeit (3)
- Konferenzveröffentlichung (2)
- Sonstiges (1)
Schlagworte
- computer clusters (4)
- OWL <Informatik> (3)
- Ontologie <Wissensverarbeitung> (3)
- Vorlesungsverzeichnis (3)
- parallel algorithms (3)
- Data Mining (2)
- Google App Engine (2)
- Google Web Toolkit (2)
- Information Retrieval (2)
- Inklusion (2)
Institut
- Fachbereich 4 (65)
- Zentrale Einrichtungen (13)
- Institut für Wirtschafts- und Verwaltungsinformatik (12)
- Institut für Informatik (11)
- Institute for Web Science and Technologies (7)
- Institut für Computervisualistik (6)
- Fachbereich 8 (4)
- Institut für Pädagogik, Abteilung Pädagogik (3)
- Institut für Softwaretechnik (3)
- Fachbereich 5 (2)
Diese Arbeit hat die Entwicklung eines Verfahrens zum Ziel, dass Bewegung und auftretende Bewegungsunschärfe durch Verfahren des Non-Photorealistic Renderings darstellt. Dabei soll das angestrebte Verfahren den Verlauf der Bewegung für ein dargestelltes Bild ermitteln und mit Speed Lines annähern. Das sich bewegende Objekt bzw. der sich bewegende Teil des Objekts wird abhängig von der Stärke der Bewegung teilweise bis komplett ausgeblendet. Das Verfahren soll echtzeitfähig sein. Aufgrund von vorgestellten Verfahren im Bereich NPR und Motion Blur entwickelt die Arbeit eigene Ansätze, die die genannten Anforderungen umsetzen. Dabei beachtet die Arbeit zwei Aspekte: Sie nimmt so wenige Änderungen wie möglich am verwendeten Szenegraphen vor und führt nach Möglichkeit zur Laufzeit keine Berechnungen auf Seiten der CPU durch. So soll ein Verfahren entstehen, das als Post-Processing Verfahren in Anwendungen integriert werden kann, interaktive Wiederholungsraten ermöglicht und damit auch in Spielen zur Anwendung kommen kann.
Ziel dieser Diplomarbeit ist die Entwicklung einer Software, die Standorte von Gegenständen barrierefrei für sehbehinderte Menschen auf einem mobilen Gerät ausgibt. Hierzu soll ein Konzept der Orientierung von bekannten und mit Markern versehenen Objekten im Raum entwickelt werden. Eine barrierefreie Ausgabe für sehbehinderte Menschen muss ebenfalls ausgewählt werden. Das Programm soll markierte, weiter entfernte Objekte erfassen und beschreiben. Dadurch würde der wahrnehmbare Bereich von sehbehinderten Personen erweitert. Dieser wahrnehmbare Bereich beschränkt sich meist auf den Boden, sehbehinderte Menschen können ihn gefahrlos mit den Füßen abtasten, und die durch die Armlänge begrenzte Reichweite in Brustnähe. Das zu entwickelnde System kann eine Lebenshilfe für Menschen sein, die ohne oder nur mit wenigen visuellen Informationen auskommen müssen. Die prototypische Umsetzung erfolgt auf einem Laptop mit externer Kamera und Maus. Die Evaluation des Systems bezieht sich auf die für sehbehinderte Menschen barrierefreie Ausgabe von Informationen. Zu diesem Zweck wird eine für sehbehinderte Menschen sichere Testumgebung geschaffen, in der die ausgewählte Ausgabeform evaluiert wird.
Frühere Publikationen belegen die Bedeutung von Einleitungen aus Abwasserreinigungsanlagen für den Eintrag von organischen und anorganischen Chemikalien (=Mikroverunreinigungen) in die aquatische Umwelt. Von dort können diese Mikroverunreinigungen in das Grundwasser gelangen - und schließlich in das Trinkwasser - oder führen zu mannigfachen Auswirkungen in aquatischen Organismen, beispielsweise die Entwicklung multipler Resistenzen von Bakterien. Daher wird derzeit eine Erweiterung des Abwasserreinigungsprozesses diskutiert, um den Eintrag dieser Mikroverunreinigungen zu reduzieren.
Die vorliegende Arbeit setzte sich in diesem Zusammenhang zum Ziel ökotoxikologische Auswirkungen der Abwasserozonierung, als tertiäre Reinigungsstufe, anhand von speziell entwickelten Testverfahren unter Verwendung der Spezies Gammarus fossarum (Koch) auf verschiedenen Ebenen der ökologischen Komplexität zu untersuchen. Um dieses Ziel zu erreichen, wurden verschiedenste Studien unter Labor- sowie Halbfreilandbedingungen durchgeführt. Zunächst wurde die Sensitivität der Testspezies mittels einer vierwöchigen Exposition gegenüber sekundär behandeltem Abwasser der Abwasserreinigungsanlage (ARA) Wüeri, Schweiz, untersucht. Diese Untersuchung belegte statistisch signifikante Reduktionen der Fraßleistung, der Assimilation sowie physiologischer Endpunkte, welche Auswirkungen auf Reproduktion sowie Populationsentwicklung vermuten lassen. In einer weiteren Untersuchung wurde eine Fraßpräferenz von G. fossarum für Laubscheiben festgestellt, die in ozoniertem Abwasser konditioniert wurden, über solche, konditioniert in nicht ozoniertem (=sekundär behandeltem) Abwasser. Diese Präferenz scheint auf eine veränderte laubassoziierte mikrobielle Gemeinschaft zurückzuführen zu sein. Eine Reihe von Laboruntersuchungen belegte zudem eine statistisch signifikant erhöhte Fraßrate von G. fossarum, welche gegenüber ozoniertem Abwasser der ARA Wüeri - unabhängig davon, ob die Ozonierung auf der ARA selbst oder unter Laborbedingungen durchgeführt wurde - exponiert wurden, verglichen mit nicht ozoniertem Abwasser. Diese Experimente lassen zudem die Schlussfolgerung zu, dass die Veränderungen der organischen Matrix, welche durch die Anwendung der Ozonierung hervorgerufen werden, nicht für die erhöhte Fraßrate von Gammarus verantwortlich sind, da sich die mittlere Fraßrate nur geringfügig zwischen sekundär und ozonbehandeltem Abwasser, welches kaum Mikroverunreinigungen enthielt, unterschied. Auch konnte gezeigt werden, dass Veränderungen im Profil des gelösten organischen Kohlenstoffs (DOC) die Fraßrate nicht beeinflussen. Zudem untermauern in situ Expositionssysteme, welche direkt im Vorfluter Anwendung fanden, die Resultate der Laborstudien. Diese Experimente zeigten lediglich während der Einleitung von sekundär behandeltem Abwasser unterhalb der Einleitung der ARA signifikant reduzierte Fraßraten verglichen mit einer Kontrollstelle direkt oberhalb der Einleitung. Während der Einleitung von ozoniertem Abwasser sind, jedoch, keine Reduktionen in den Fraßraten feststellbar. Schließlich konnten auch Populationsstudien einen höheren Fraß, sowie eine höhere Populationsgröße von G. fossarum, bei einer Exposition gegenüber ozonbehandeltem Abwasser, verglichen mit sekundär behandeltem Abwasser belegen.
Zusammenfassend legt die vorliegende Arbeit dar, dass die Behandlung von Abwasser mit Ozon geeignet ist, durch die Reduktion von Mikroverunreinigungen, die Ökotoxizität zu reduzieren. Daher könnte diese Technologie helfen die Vorgaben der Wasserrahmenrichtlinie, auch unter den vorhergesagten Klimawandelszenarien, welche einen höheren Abwasseranteilen im Vorfluter während der Sommermonate vermuten lassen, einzuhalten. Jedoch werden durch die Anwendung von Ozon auch Nebenprodukte gebildet werden, welche eine höhere Ökotoxizität aufweisen als deren Muttersubstanzen. Daher sollte im Falle der Etablierung dieser Technologie ein weitergehendes chemisches und ökotoxikologisches Monitoring erfolgen.
We present the user-centered, iterative design of Mobile Facets, a mobile application for the faceted search and exploration of a large, multi-dimensional data set of social media on a touchscreen mobile phone. Mobile Facets provides retrieval of resources such as places, persons, organizations, and events from an integration of different open social media sources and professional content sources, namely Wikipedia, Eventful, Upcoming, geo-located Flickr photos, and GeoNames. The data is queried live from the data sources. Thus, in contrast to other approaches we do not know in advance the number and type of facets and data items the Mobile Facets application receives in a specific contextual situation. While developingrnMobile Facets, we have continuously evaluated it with a small group of fifive users. We have conducted a task-based, formative evaluation of the fifinal prototype with 12 subjects to show the applicability and usability of our approach for faceted search and exploration on a touchscreen mobile phone.
Das allgemeine Erreichbarkeitsproblem in Stellen/Transitions-Netzen behandelt die Frage, ob eine bestimmte Zielmarkierung aus einer anderen Markierung erreichbar ist. Die lineare Algebra als Teilgebiet der Mathematik kann zur Beschreibung und Analyse von Petri-Netzen herangezogen werden. Jedoch stellen Kreise in Netzen bei der Erreichbarkeitsanalyse ein Problem für sie dar: ob für bestimmte Transitionen erforderliche Marken sofort, erst nach dem Durchlaufen bestimmter Kreise oder gar nicht zur Verfügung stehen, ist nicht erkennbar, hat jedoch unmittelbare Auswirkungen auf die Erreichbarkeit. Es gibt verschiedene Möglichkeiten, dieses Problem linear-algebraisch anzugehen. In dieser Arbeit werden vorhandene Verfahren sowie neue Lösungsansätze auf Basis der Reproduzierbarkeit der leeren Markierung diskutiert.
Zahlreiche Untersuchungen weisen darauf hin, dass die Kombination von Texten und Bildern beim Wissenserwerb zu besseren Lern- und Behaltensleistungen führt, als wenn nur mit Texten gearbeitet wird. Dieser Multimediaeffekt ist häufig auch dann zu beobachten, wenn beispielsweise Schüler oder Studierende Bild und Text sequenziert lernen. Einige Arbeiten haben dabei gezeigt, dass die Reihenfolge, in der die beiden Formate verarbeitet werden, großen Einfluss auf den Wissenserwerb hat. Erfolgt die Präsentation des Bildes vor dem Text, gelingt es den Lernenden in der Regel mehr Fakten zu erinnern. Das Phänomen des picture-text-sequencing-Effekts wurde von zwei Forschern aufgegriffen und anhand alternativer Theoriemodelle auf unterschiedliche Weise erklärt. Während einer der Autoren kapazitätsspezifische Merkmale der mentalen Repräsentation des Bildes als Ursache ansieht, macht der andere Autor Interferenzen für den Einfluss der Verarbeitungsreihenfolge verantwortlich. Das Ziel der Arbeit war es daher, zu untersuchen, welcher der beiden Ansätze der Wahrheit am ehesten entspricht. Zu diesem Zweck wurde eine Studie durchgeführt, bei der Verarbeitungsreihenfolge und Informationverhältnis beim Lernen mit multiplen Repräsentationen experimentell variierte. Das Stimulusmaterial bestand aus Texten und Bildern zur Geodynamik, die in einer komplementären und einer kongruenten Version vorlagen. Anders als erwartet, zeigte sich jedoch kein eindeutiges Ergebnis, obwohl die Analyse der Lernzeiten letztlich gegen die Annahme eines besonderen Kapäzitätsvorteils sprach. Eine Anschlussuntersuchung erbrachte die Möglichkeit, Personen, die Texte und Bilder erhalten hatten, mit Teilnehmern zu vergleichen, die nur auf ein Format zurückgreifen konnten. Die Auswertungen ergab Unterschiede hinsichtlich der mentalen Belastung bei äquivalenten Leistungen im Wissenstest. Interpretiert wurden diese Resultate als Hinweis für das Auftreten von Interferenzen, die immer dann entstanden, wenn die Versuchspersonen das Bild nach dem Text lernten. In diesem Zusammenhang hatte die dritte und letzte Untersuchung den Zweck, weitere Belege für die Interferenzannahme zu finden. Anhand von Blickbewegungsparametern, die während des sequenzierten Lernens mit den Texten und Bildern erhoben worden waren, konnten jedoch keine Unterschiede festgestellt werden. Insgesamt ließ sich die Schlussfolgerung ziehen, dass hinsichtlich des sequenzierten Lernens mit Texten und Bildern weiterhin ein großer Spielraum für zusätzliche Forschungsarbeiten besteht.
Das Konstrukt der wahrgenommenen Kundendiskriminierung und seine Auswirkungen auf den Kunden sind trotz ihrer Bedeutung für den dauerhaften Erfolg von Dienstleistungsunternehmen bisher verhältnismäßig selten Gegenstand der betriebswirtschaftlichen Forschung gewesen. Existierende, zumeist sozialwissenschaftliche Untersuchungen aus den USA belegen zwar die Existenz von Diskriminierung in verschiedenen Dienstleistungskontexten, jedoch weist die bestehende Literatur einige Lücken auf. So liegen bisher primär qualitative und fallbasierte Arbeiten zu Kundendiskriminierung vor, die eine Verallgemeinerung der Befunde erschweren. Zudem geben solche Untersuchungen zwar Aufschluss über die Entstehung und die Wahrnehmung von Diskriminierung aus der Perspektive der Kunden, jedoch liefern sie dem Management von Dienstleistungsunternehmen keine hilfreichen Mittel zur Überprüfung der Existenz von Diskriminierung im Kundenkontakt des eigenen Unternehmens. Ein Mangel ist vor allem hinsichtlich der Messung von wahrgenommener Kundendiskriminierung sowie der Analyse ihrer Konsequenzen festzustellen. Ziel der vorliegenden Arbeit ist es, ein reflektives Instrument zur Messung von wahrgenommener Kundendiskriminierung zu entwickeln und zu validieren. Die vorliegende Arbeit entwickelt zunächst ein literaturbasiertes Verständnis von wahrgenommener Kundendiskriminierung, wobei von einer dreidimensionalen Konzeptualisierung des Konstrukts ausgegangen wird. Auf Basis dieser dreidimensionalen Konzeptualisierung wird in einer ersten Studie, mittels qualitativer und quantitativer Methoden, ein Instrument zur Messung von wahrgenommener Kundendiskriminierung mit den Dimensionen "offene Diskriminierung", "auf das Dienstleistungsniveau bezogene Diskriminierung" und "subtile Diskriminierung" entwickelt. Aufbauend auf dieser dreidimensionalen Konzeptualisierung von wahrgenommener Kundendiskriminierung werden wirkungsbezogene Hypothesen formuliert und zum Zweck der nomologischen Skalenvalidierung kausalanalytisch überprüft (Studie 1). Anschließend wird die prädiktive Validität der Skala mit einer weiteren Stichprobe überprüft und eine Extremgruppenvalidierung durchgeführt (Studie 2). Zur erneuten Bestätigung der Drei-Dimensionalität der Skala und der nomologischen Validität werden in einer weiteren Studie Dyaden aus Servicemitarbeitern und Kunden mittels Fragebogens befragt (Studie 3). Abschließend werden praxis- und forschungsbezogene Implikationen der Ergebnisse erörtert.
Das Rheinland-Pfälzische Mittelbewirtschaftungssystem IRM@ genügt den Anforderungen eines modernen Management-Informationssystems nicht mehr. Die Bachelorarbeit stellt deshalb das Konzept "KoRe Light" für ein Reporting Systems zur Kostenrechnung vor, welches auf den Daten des Systems IRM@ basiert. Für die Öffentliche Haushaltsführung soll dieses System als Basis für die Entscheidungsfindung dienen. Methodisch wird die Systemanalyse verwendet, die auf der Analyse, Konzeption und Implementierung basiert.
Die Implementierung stellt jedoch keinen Teil der Arbeit mehr dar. Der Fokus der Konzeption liegt dabei in einer erweiterten Suchfunktion, welche umfangreichere und einfacher zu lesende Reports ermöglicht. Das Ergebnis besteht dabei aus den Komponenten Anwendungsfalldiagramm, Anforderungsdefinition, Datenmodell, Prozessmodell und Mock-Ups für "KoRe Light". Abschließend werden Handlungsempfehlungen für die Implementierung des Konzeptes gegeben und ein kurzes Fazit gezogen.
The paper is devoted to solving the problem of assessing the quality of the medical electronic service. A variety of dimensions and factors of quality, methods and models applied in different scopes of activity for assessing quality of service is researched. The basic aspects, requirements and peculiarities of implementing medical electronic services are investigated. The results of the analysis and the set of information models describing the processes of assessing quality of the electronic service "Booking an appointment with a physician" and developed for this paper allowed us to describe the methodology and to state the problem of the assessment of quality of this service.
Diese Bachelorarbeit beschäftigt sich mit dem Vergleich bezüglich der Ähnlichkeit von aufgezeichneten WLAN-Mustern bei der Nachverfolgung eines Pfades durch die Straßen einer großen Stadt. Sowohl ein nur auf MAC-Adressen basierender Vergleich als auch die Miteinbeziehung von RSSI-Werten ist untersucht worden, wobei die Lokalisierungsgenauigkeit bewertet wurde. Methoden für die Erkennung unterschiedlicher Typen und Kombinationen von Schleifen in dem Pfad werden gezeigt, ebenso wie der Versuch, den Grad urbaner Bebauung in der Umgebung des Benutzers abzuschätzen, indem die empfangene Signalstärke und der Signal-Rausch-Abstand von GPS-Satelliten und GSM-Funkmasten ausgewertet wurde.
Um die Annäherung eines Benutzers an einen bestimmten Punkt auf einem großen öffentlichen Platz zu beobachten, wurde die Absorption von WLAN-Signalen durch den menschlichen Körper berücksichtigt. Abschließend werden die Ergebnisse eines Vergleichs zwischen der Rechenleistung eines modernen Smartphones und der Alternative einer entfernten Berechnung auf einem Server inklusive der Datenübertragung über das Mobilfunknetz vorgestellt.
Die Spielkonsole Nintendo Wii bietet mit dem Wii Remote Controller eine neuartige Bewegungssteuerung für Konsolenspiele. Mit Hilfe von Gyrosensoren in dem Zusatzadapter Wii Motion Plus ist eine Steuerung mit drei Freiheitsgraden für Rotationen im Raum gewährleistet. Für eine realistische 1:1-Bewegungssteuerung würden aber drei zusätzliche Freiheitsgrade für Translationen in drei Koordinatenachsen benötigt. In aktuellen Spielen für Nintendo Wii werden diese nicht unterstützt, da Translationen durch Beschleunigungssensoren unzureichend umzusetzen sind.
Ziel dieser Arbeit ist es, ein System zu implementieren, das für den Wii Remote Controller eine 1:1-Bewegungssteuerung für alle sechs Freiheitsgrade ermöglicht. Dabei sollen die Rotationen durch die Sensoren des Wii Motion Plus Adapters, die Translationen hingegen durch Stereotracking mit Hilfe der Infrarotkameras zweier zusätzlicher Wii Remotes erreicht werden. Ein solches System ergibt interessante Anwendungsmöglichkeiten. Insbesondere für Spiele könnte so eine verstärkte Immersion des Spielers erreicht werden, da jede Bewegung direkt im Spiel sichtbar wäre.
Anhand von verschiedenen Beispielapplikationen sollen die Interaktionsmöglichkeiten demonstriert werden. Die Genauigkeit der Steuerung soll dabei evaluiert werden und mit der herkömmlichen Dreiachsensteuerung in Bezug auf Immersion, Komplexität, Eignung für Spiele und Benutzerfreundlichkeit verglichen werden. Für das Infrarot-Stereotracking soll eine geeignete technische Lösung gefunden werden, z.B. durch ein IRArray oder am Controller angebrachte Infrarotdioden. Beide Lösungen können verglichen werden.
Mittels SPARQL können Anfragen in Form von RDF Tripeln auf RDF Dokumente gestellt werden. OWL-DL Ontologien sind eine Teilmenge von RDF und können über spezifische OWL-DL Ausdrücke erstellt werden. Solche Ontologien über RDF Tripel anzufragen kann je nach Anfrage kompliziert werden und eine vermeidbare Fehlerquelle darstellen.
Die SPARQL-DL Abstract Syntax (SPARQLAS) löst dieses Problem indem Anfragen mittels OWL Functional-Style Syntax oder einer der Manchester Syntax ähnlichen Syntax gestellt werden. SPARQLAS ist eine echte Teilmenge von SPARQL und verwendet nur die nötigsten Konstrukte, um mit möglichst wenig Schreibaufwand schnell die gewünschten Ergebnisse zu Anfragen auf OWL-DL Ontologien zu erhalten.
Durch die Verringerung des Umfangs einer Anfrage und der Verwendung einer dem Nutzer bekannten Syntax lassen sich komplexe und verschachtelte Anfragen auf OWL-DL Ontologien einfacher realisieren. Zur Erstellung der spezifischen SPARQLAS Syntax wird das Eclipse Plugin EMFText verwendet. Die Implementation von SPARQLAS beinhaltet zudem noch eine ATL Transformation zu SPARQL. Diese Transformation erspart die Entwicklung eines Programms zur direkten SPARQLAS Verarbeitung und erleichtert so die Integration von SPARQLAS in bereits laufende Entwicklungsumgebungen.
Designing Core Ontologies
(2011)
One of the key factors that hinders integration of distributed, heterogeneous information systems is the lack of a formal basis for modeling the complex, structured knowledge that is to be exchanged. To alleviate this situation, we present an approach based on core ontologies. Core ontologies are characterized by a high degree of axiomatization and formal precision. This is achieved by basing on a foundational ontology. In addition, core ontologies should follow a pattern-oriented design approach. By this, they are modular and extensible. Core ontologies allow for reusing the structured knowledge they define as well as integrating existing domainrnknowledge. The structured knowledge of the core ontologies is clearly separated from the domain-specific knowledge. Such core ontologies allow for both formally conceptualize their particular fields and to be flexibly combined to cover the needsrnof concrete, complex application domains. Over the last years, we have developed three independent core ontologies for events and objects, multimedia annotations, and personal information management. In this paper, we present the simultaneousrnuse and integration of our core ontologies at the example of a complex, distributed socio-technical system of emergency response. We describe our design approach for core ontologies and discuss the lessons learned in designing them. Finally, we elaborate on the beauty aspects of our core ontologies.
"Wer kann ich werden - Wer soll ich sein?" Selbstbildungsprozesse junger Menschen in der Jugendhilfe
(2011)
"Wer kann ich werden - Wer soll ich sein?" - Mit diesen beiden grundlegende Lebensfragen resümieren die beiden Jugendlichen, deren individuellen Verarbeitungsprozesse Gegenstand der Untersuchung sind, ihren (Selbst-)Bildungsprozess. Sie verweisen dabei auf ein wesentliches Ergebnis dieser Studie: Selbstbildungsprozesse formieren sich als einen aktiven Balanceakt der jungen Menschen zwischen individuellen Selbstkonstruktionen und Fragen der Sozialintegration. Der Blick wird dabei auf die prozesshafte Entwicklung der subjektiven Bildungsbemühungen gerichtet. Es handelt sich um ein ambivalentes Spannungsgefüge, welches sich darin ausdrückt, dass einerseits "von Außen (durch den Erzieher) geleitet" und andererseits "von Innen (durch den Jugendlichen) gesteuert" wird. Letztendlich haben jedoch viele Jahrhunderte von (praktischen) Erziehungsversuchen und vielfaches (theoretisches) Nachdenken über Erziehung und Bildung gezeigt, dass der Erfolg zum großen Teil von den jungen Menschen selbst abhängt. Damit rückt in der wissenschaftlichen Auseinandersetzung die Selbsttätigkeit des Menschen in den Fokus. Die Beschäftigung mit Prozessen der Selbstbildung stellt eine äußert komplexe Herausforderung dar. Sie läuft schnell Gefahr, dies unter normativen Aspekten zu diskutieren. In diesen Forschungszusammenhang soll der Blick explizit nicht auf die normativen Anteile des Themas gelenkt werden, sondern es ist vielmehr ein Ziel der Arbeit, empirische Befunde dazu zu erarbeiten und Kontextwissen zu generieren.rnDie Untersuchung thematisiert sowohl die Verbindungen zwischen Selbstdeutungskonstruktionen junger Menschen und Fremddeutungen relevanter Erwachsener, sowie die sich daraus entwickelten Muster der Lebensbewältigung der Jugendlichen. Im Mittelpunkt der Auseinandersetzung stehen die jungen Menschen und ihre Bildungsanstrengungen. Anhand ihrer Selbstkonstruktionen, in denen sie ihre relevanten Themen zum Ausdruck bringen und den Fremddeutungen der am Fall beteiligten Erwachsenen, wird der Frage nachgegangen, ob und wie die unterschiedlichen Deutungsfolien anschlussfähig sind und welchen Einfluss sie auf die jugendlichen Selbstbildungsprozesse nehmen. Durch die Rekonstruktion der Deutungs- und Konstruktionsmuster der unterschiedlichen Fallbeteiligten sollen sowohl praxis- wie auch forschungsrelevante Erkenntnisse über Selbstbildungsprozesse junger Menschen gewonnen werden, die im Verlauf ihrer Lebensgeschichten Adressaten der Jugendhilfe geworden sind. Ein solch komplexes Forschungsvorhaben gewinnt im Bezug auf die Diskurse zur adressatenbezogenen Jugendhilfe an Bedeutung, da es möglich wird, einen Einblick in Verarbeitungsmuster und Bewältigungsstrategien der Heranwachsenden zu gewinnen. Die vorliegende Arbeit nimmt die subjektiven Sinnzuschreibungen in den Blick, um darüber einen erkenntnisgeleiteten Zugang zu den Deutungs- und Konstruktionsmustern in ihren jeweiligen Sinnzusammenhängen zu erschließen. Gesamtgesellschaftliche Modernisierungs- und Wandlungsprozesse beeinflussen individuelle Lebensverläufe und damit auch subjektive Deutungen unterschiedlichster Lebensereignisse. Biographische Werdungsprozesse weichen von vermeintlichen "Normalbiographien" ab. Aufgabe pädagogischer Fachkräfte ist es, die selbstreflexiven Verarbeitungsprozesse junger Menschen zu begleiten und zu unterstützen. Von daher scheint es erforderlich, dass Fachkräfte ihre Kompetenzen zur Entschlüsselung individueller Bildungsbemühungen und zur Wahrnehmung biographischer Deutungskonzepte weiter entwickeln und schulen, um einen verstehenden Zugang zu den Wirklichkeitskonstruktionen junger Menschen zu gewinnen. Welche subjektive Bedeutung die Heranwachsenden den Einflüssen der Jugendhilfe zusprechen ist entscheidend für die Frage, inwieweit sie diese Erfahrungen als Unterstützung für ihre individuellen Bildungsprozesse begreifen. "Selbstbildungsprozesse junger Menschen in der Jugendhilfe" setzen sich mit der Frage auseinander, über welche Bewältigungsstrategien und Interaktionsmuster die Heranwachsenden verfügen. "Mit diesem Zugang wird der Blick auf die "Eigensinnigkeit" subjektiver Äußerungen in ihren biografisch verorteten und gesellschaftsrelevanten Bezügen gelegt." (Normann 2003, 10). Es geht also um die Rekonstruktion sozialer Wirklichkeitsbezüge aus der Sicht der jungen Menschen. Die Jugendlichen werden als aktiv Handelnde und als ExpertInnen ihrer Lebenswelt verstanden, die in der Interaktion mit Anderen die Balance zwischen sozialer Anpassungsleistung und Entwicklung ihres individuellen Lebenskonzeptes finden müssen. Subjektive Deutungs- und Konstruktionsprozesse sollen in diesem Kontext herausgearbeitet und dargestellt werden.
Das Hauptaugenmerk dieser Arbeit, liegt auf einer softwareergonomisch empfehlenswerten Integration eines Serach Term Recommender Moduls (STR) mithilfe von Usability-Tests und dem gezielten Blick auf den State of the Art des Interaktionsdesigns bei Retrieval-Mehrwertdiensten. Daniela Holl (Holl, 2009) hat in ihrer Diplomarbeit ein Search Term Recommender Modulprototyp unter der Verwendung der Software MindServer entwickelt und die Vorzüge eines Search Term Recommenders in Bezug auf die Behandlung der verbleibenden Vagheit zwischen Benutzer und kontrolliertem Vokabular erläutert. Nach Entwicklung eines lauffähigen Prototyps führte sie eine empirische Studie zu den gelieferten Ergebnissen bzw. der Qualität der zurückgegeben Ergebnisse durch. Somit wurde zu einem Großteil eine korrekte Funktionalität dieses Prototyps gewährleistet.rnSinn und Zweck des Search Term Recommenders ist es, dem Benutzer nur die Terme vorzuschlagen, welche nicht bereits durch Termtransformationen des Heterogenitätsservices behandelt wurden. Vorallem aber steht die Unterstützung der gezielten Suche nach bestimmten Daten zur Befriedigung des Informationsbedürfnisses im Mittelpunkt. Dabei gilt es den Benutzer sowohl in seiner Suchanfrageformulierung visuell, als auch beim Herausfiltern, der für ihn relevanten Ergebnisse in der Trefferanzeige zu unterstützen.rnDa bislang lediglich maschinelle und interne Daten zum Testabgleich verwendet wurden, liegt die Priorität dieser Arbeit auf der Untersuchung von Dialoggestaltung bzw. der Benutzerinteraktion mit dem Search Term Recommender. Schwerpunkt war eine umfassende Evaluation von Designprototypen und (Papier)-Mockups, mittels Methoden des Usability-Engineering direkt am Benutzer selbst. Dies hinsichtlich Machbarkeit und Gebrauchstauglichkeit des Search Term Recommenders.
The paper is devoted to solving a problem of the development of the website of Russian municipal policlinics and provides a selection of a set of elements which should be posted on a website. Such elements are necessary to provide citizens with correct and ergonomic e-services. The insufficient development of an infrastructure of institutions of public and municipal administration (particularly, healthcare institutions) in Russia made it necessary to analyze webresources used in different countries at different levels of providing medical services. The information resources of medical treatment facilities of the United Kingdom, of the United Statesrnof America and of the Federal Republic of Germany were researched separately for three existing economic models of healthcare. A set of criteria for the assessment of medical webresources was developed.
An der Universität Koblenz wurde mit dem RMTI (RIP with Metric based Topology Investigation) eine Erweiterung zu RIP entwickelt, die das Counting-to-Infinity Problem beheben soll. Eine lauffähige Implementierung des RMTI Algorithmus, auf Basis des RIP Daemons der Quagga Software Routing Suite, liegt vor. Openwrt ist ein, auf Linux basierendes, quelloffenes Betriebssystem für Router, wie z.B. den WRT54G der Firma Linksys. Die Möglichkeiten der Konfiguration der Router mit Openwrt gehen weit über die der original Firmware hinaus. So können die Router mit Software aus dem Linux-Bereich erweitert werden. Ziel dieser Studienarbeit ist die Installation des RMTI Daemons in Openwrt auf den Linksys WRT54G Routern der AG Rechnernetze. Anschließend sollen typische Netzwerksituationen aufgebaut und das Verhalten der Router untersucht werden.
This paper introduces Vocville, a causal online game for learning vocabularies. I am creating this application for my master thesis of my career as a "Computervisualist" (computer visions) for the University of Koblenz - Landau. The application is an online browser game based on the idea of the really successful Facebook game FarmVille. The application is seperated in two parts; a Grails application manages a database which holds the game objects like vocabulary, a Flex/Flash application generates the actual game by using these data. The user can create his own home with everything in it. For creating things, the user has to give the correct translation of the object he wants to create several times. After every query he has to wait a certain amount of time to be queried again. When the correct answer is given sufficient times, the object is builded. After building one object the user is allowed to build others. After building enough objects in one area (i.e. a room, a street etc.) the user can activate other areas by translating all the vocabularies of the previous area. Users can also interact with other users by adding them as neighbors and then visiting their homes or sending them gifts, for which they have to fill in the correct word in a given sentence.
Die vorliegende Untersuchung beschäftigt sich zentral mit der Frage, in wieweit es möglich ist, durch eine transkranielle Elektrostimulation während des Schlafs bei Patienten mit idiopathischem Parkinsonsyndrom (IPS) auf die Schlafqualität bzw. auf den Prozess der Gedächtniskonsolidierung Einfluss zu nehmen. Ausgehend von der Überlegung, dass bei dieser neurologischen Erkrankung Defizite sowohl im Bereich der Schlafqualität als auch der kognitiven Leistungsfähigkeit beobachtet werden können, wurde die Möglichkeit untersucht, entsprechende, bei jungen gesunden Erwachsenen vorbekannte Stimulationseffekte auf IPS-Patienten zu übertragen. Die Intervention bestand aus einer transkraniellen "Slow-Oscillation-Stimulation". Zielvariablen waren die Schlafqualität, in erster Linie operationalisiert über den Anteil an Slow-Wave-Sleep und die kognitive Leistung, gemessen am Lernerfolg in verschiedenen Lernaufgaben. Zur Anwendung kam dabei sowohl visuell verbales als auch non-verbales Lernmaterial, wobei die Aufgaben hauptsächlich den Bereich des deklarativen Gedächtnisses berührten. Es zeigte sich jedoch, dass bekannte Stimulationseffekte weder bei IPS-Patienten, noch bei gleichaltrigen Gesunden nachweisbar sind und daher die prinzipielle Übertragbarkeit bestehender Ergebnisse in Frage gestellt werden muss. Die Gründe hierfür erscheinen vielfältig und werden an entsprechender Stelle diskutiert.
Nagios unter VNUML
(2011)
This paper documents the development of an abstract physics layer (APL) for Simspark. After short introductions to physics engines and Simspark, reasons why an APL was developed are explained. The biggest part of this paper describes the new design and why certain design choices were made based on requirements that arose during developement. It concludes by explaining how the new design was eventually implemented and what future possibilities the new design holds.
Folksonomien sind Web 2.0 Plattformen, in denen Benutzer verschiedene Inhalte miteinander teilen können. Die Inhalte können mit Hilfe von Stichwörtern, den sogenannten Tags, kategorisiert und organisiert werden. Die verschiedenen Folksonomien unterstützen unterschiedliche Inhaltstypen wie zum Beispiel Webseiten (Delicious), Bilder (Flickr) oder Videos (YouTube). Aufgrund ihrer einfachen Benutzungsweise haben Folksonomien viele Millionen Benutzer. Die einfache Benutzungsweise führt aber auch zu einigen Problemen. Diese Doktorarbeit beschäftigt sich mit drei der wichtigsten Probleme und beschreibt Methoden, wie sie gelöst werden können. Das erste dieser Probleme tritt auf, wenn Benutzer die Folksonomien nach bestimmten Inhalten durchsuchen wollen. Häufig können dabei nicht alle relevanten Inhalte gefunden werden, da diesen relevante Stichwörter fehlen. Dementsprechend tritt das zweite Problem während der Vergabe von Stichwörtern auf. Manche Folksonomien, wie zum Beispiel Delicious, unterstützen ihre Benutzer dabei, indem sie ihnen mögliche Stichwörter empfehlen. Andere Folksonomien, wie zum Beispiel Flickr, bieten keine solche Unterstützung. Die Empfehlung von Stichwörtern hilft dem Benutzer dabei, Inhalte auf einfache Art und Weise mit den jeweils relevanten Stichwörtern zu versehen. Das dritte Problem besteht darin, dass weder Stichwörter noch Inhalte mit einer festen Semantik versehen sind und mehrdeutig sein können. Das Problem entsteht dadurch, dass die Benutzer die Stichwörter vollkommen frei rnverwenden können. Die automatische Identifizierung der Semantik von Stichwörtern und Inhalten hilft dabei, die dadurch entstehenden Probleme zu reduzieren. Diese Doktorarbeit stellt mehrere Methoden vor, wie verschiedene Quellen für semantische Informationen benutzt werden können, um die vorher genannten drei Probleme zu lösen. In dieser Doktorarbeit benutzen wir als Quellen Internetsuchmaschinen, soziale Netzwerke im Internet und die gemeinsamen Vorkommen von Stichwörtern in Folksonomien. Die Verwendung der verschiedenen Quellen reduziert den Aufwand bei der Erstellung von Systemen, die die vorher genannten Probleme lösen. Die vorgestellten Methoden wurden auf einem großen Datensatz evaluiert. Die erzielten Ergebnisse legen nahe, dass semantische Informationen bei der Lösung der Probleme helfen, die während der Suche von Inhalten, der Empfehlung von Stichwörtern als auch der automatischen Identifizierung der Semantik von Stichwörtern und Inhalten auftreten.
The estimation of various social objects is necessary in different fields of social life, science, education, etc. This estimation is usually used for forecasting, for evaluating of different properties and for other goals in complex man-machine systems. At present this estimation is possible by means of computer and mathematical simulation methods which is connected with significant difficulties, such as: - time-distributed process of receiving information about the object; - determination of a corresponding mathematical device and structure identification of the mathematical model; - approximation of the mathematical model to real data, generalization and parametric identification of the mathematical model; - identification of the structure of the links of the real social object. The solution of these problems is impossible without a special intellectual information system which combines different processes and allows predicting the behaviour of such an object. However, most existing information systems lead to the solution of only one special problem. From this point of view the development of a more general technology of designing such systems is very important. The technology of intellectual information system development for estimation and forecasting the professional ability of respondents in the sphere of education can be a concrete example of such a technology. Job orientation is necessary and topical in present economic conditions. It helps tornsolve the problem of expediency of investments to a certain sphere of education. Scientifically validated combined diagnostic methods of job orientation are necessary to carry out professional selection in higher education establishments. The requirements of a modern society are growing, with the earlier developed techniques being unable to correspond to them sufficiently. All these techniques lack an opportunity to account all necessary professional and personal characteristics. Therefore, it is necessary to use a system of various tests. Thus, the development of new methods of job orientation for entrants is necessary. The information model of the process of job orientation is necessary for this purpose. Therefore, it would be desirable to have an information system capable of giving recommendations concerning the choice of a trade on the basis of complex personal characteristics of entrants.
Ziel dieser Arbeit ist es, Techniken zu zeigen, die es ermöglichen in der heutigen Zeit ohne besonderen Mehraufwand große und authentische Spielewelten zu schaffen. Nicht nur das räumliche Ausmaß der Welt soll ohne zusätzlichen Aufwand wachsen, sondern auch der Abwechslungsreichtum und somit Wiederspielwert soll ansteigen. All dies soll am Szenario einer futuristischen Großstadt gezeigt werden. Bereits die US-amerikanische Spielefirma Blizzard Entertainment Incorporated hat mit der Spielereihe Diablo gezeigt, dass es möglich ist, authentische Welten aus einem kleinen Vorrat von Bausteinen zu erzeugen, so dass diese Welten qualitativ hochwertig sind und einen enormen Wiederspielwert besitzen.
Diese Diplomarbeit beschreibt die Entwicklung einer mobilen Anwendung als Mittel der E-Partizipation am Beispiel der einheitlichen Behördenrufnummer 115 ("D115"). D115 ist ein Projekt des Bundesministerium des Innern (BMI), bei dem Bürgerinnen und Bürger unter einer einzigen Telefonnummer Auskünfte über Leistungen der öffentlichen Verwaltung erhalten. Im Rahmen dieser Diplomarbeit wird ein Client-Server-Ansatz entwickelt, der solche Anfragen und Meldungen an die Verwaltung mittels mobiler Endgeräte verarbeitet. Dabei werden Aspekte der E-Partizipation, des Ubiquitous Computing und der Location-based Services vereint. Gestützt auf ein Geo-Informationssystem soll sich ein Nutzer jederzeit und jederorts über Angelegenheiten der Verwaltung informieren und aktiv daran beteiligen können, sei es, um einen umgestürzten Baum, eine gesperrte Straße oder Vandalismus an einer Parkbank zu melden.
In dieser Diplomarbeit wurde eine Echtzeitanwendung entwickelt, die Gras darstellt und zugleich äußere Einflüsse wie Wind oder Kollisionen auf das Gras berücksichtigt. Ein Level-of-Detail-System ermöglicht die Darstellung und Physiksimulation einer großen Wiese in drei Stufen. Semi-transparente Texturquads zur Darstellung und Partikel mit Constraints an der Stelle der Graspatches stellen die feinste Detailstufe in allernächster Nähe zum Betrachter dar. Die Partikel, die nur auf der feinsten Detailstufe verwendet werden, werden mittels einer Physik-Engine berechnet und reagieren auf verschiedene Starrkörper. Die zweite Detailstufe besteht ebenfalls aus Texturquads, die um das erste Detaillevel herum generiert werden. Diese sind jedoch spärlicher verteilt, sehen auf Grund der Distanz zum Betrachter allerdings identisch mit denen aus der ersten Stufe aus. Als letzte Repräsentationsform von Gras kommt eine einfache Bodentextur zur Anwendung. Durch dieses Level-of-Detail-System ist es möglich eine unendlich große Wiese zu simulieren, da die Gräser zur Laufzeit generiert werden. Ein umfangreiches Benutzerinterface ermöglicht die Veränderung einiger Simulationsparameter in Echtzeit und die Generierung verschieden großer Rasenflächen. Zusätzlich lassen sich verschiedene Objekte in der Simulationsumgebung bewegen um die Kollisionsbehandlung testen zu können.
Im Rahmen dieser Diplomarbeit wird eine Datenbank-Persistenzlösung für die TGraphenbibliothek JGraLab entwickelt. Diese erlaubt das Persistieren von TGraphen in Datenbanken ausgewählter Technologien und sorgt gleichzeitig dafür, dass die Datenbankpersistenz eines TGraphen für den Benutzer transparent bleibt. Nach der Anforderungserhebung und der Recherche zur Bewertung der Tauglichkeit von bereits bestehenden Werkzeugen für dieses Projekt, wird die Anwendungsdomäne erläutert. Anschließend wird dargelegt wie die Persistierung von TGraphen mit allen ihren Eigenschaften in Datenbanken ermöglicht werden kann. Dem schließt sich der konzeptuelle Entwurf an, in dem die Details der Lösung beschrieben werden. Als nächstes wird der objektorientierte Feinentwurf zur Integration der Lösung in die TGraphenbibliothek JGraLab entwickelt, der die Grundlage der programmatischen Umsetzung bildet. Eine Anleitung zur Verwendung der Lösung und eine Bewertung des Laufzeitverhaltens der umgesetzten Implementation schließen die Arbeit ab.
Das Ziel dieser Arbeit ist die Entwicklung eines MP3-Players mit SD-Karten-Slot. Zudem soll er ein Farbdisplay besitzen und über eine komfortable Bedienmöglichkeit verfügen. In dieser Dokumentation wird die verwendete Hardware und ihr Zusammenspiel erklärt. Die für die Realisierung notwendige Software wird vorgestellt und deren Benutzung mithilfe von Codebeispielen verdeutlicht. Insbesondere wird auf die extra für dieses Projekt entworfenen Codebausteine eingegangen. Dies soll die Wiederverwendung der Bausteine in anderen Projekten vereinfachen.
Tractography on HARDI data
(2011)
Diffusionsgewichtete Bildgebung ist eine wichtige Modalität in der klinischen Praxis. Sie stellt gegenwärtig die einzige Möglichkeit dar, nicht invasiv und in vivo Einblicke in das menschliche Gehirn zu erhalten. Die Einsatzgebiete dieser Technik sind sehr vielseitig. Sie wird zur Untersuchung des Gehirns, seiner Struktur, seiner Entwicklung und der Funktionsweisenseiner verschiedenen Areale einsetzt. Weiterhin spielt diese Modalität eine wichtige Rolle bei der Operationsplanung am Gehirn und der Untersuchung von Schlaganfall, Alzheimer und Multipler Sklerose. Diese Arbeit gibt eine kurze Einführung in die Bildgebungmittels MRT und geht auf die Entstehung diffusionsgewichtete Bilder ein. Darauf aufbauend wird der Diffusionstensor, die am meisten verbreitete Datenrepräsentation in der Diffusionsbildgebung, vorgestellt. Da die Repräsentation der Diffusion als Diffusionstensor erhebliche Einschränkungen darstellt, werden neue Methoden zur Datenrepräsentation vorgestellt und diskutiert. Diese neuen Methoden werden unter dem Begriff HARDI (Diffusionsbildgebung mit hoher Winkelauflösung, von engl. high angular resolution diffusion imaging) zusammengefasst. Weiterhin wird eine ausführliche Einführung in das Thema der Traktografie, der Rekonstruktion von Nervenbahnen im Gehirn, gegeben. Basierend auf diesem theoretischenWissen werden etablierte Algorithmen der Traktografie von Diffusionstensor- auf HARDI-Daten überführt. Dadurch wird die Rekonstruktion derNervenbahnen entscheidend verbessert. Es wird eine vollständig neue Methode vorgestellt, die in der Lage ist, Nervenbahnen sowohl auf einem Phantomdatensatz, als auch auf einem vom Menschen stammenden Gehirndatensatz zu rekonstruieren. Weiterhin wird ein neuartiger globaler Ansatz vorgestellt, um Voxel anhand ihrer Diffusionseigenschaften zu klassifizieren.
Im Rahmen dieser Diplomarbeit wird erforscht, wie bestehende Tools zur Berechnung von Softwaremetriken über COBOL-Quelltexte mit den vorhandenen Entwicklerwerkzeugen der Debeka Versicherungsgruppe interoperabel gemacht werden können. Der Text richtet sich primär an Leser aus dem Bereich der Informatik. Zum Verständnis wird ein Wissensstand vergleichbar dem eines Informatikers mit abgeschlossenem Bachelorstudium oder Vordiplom vorausgesetzt.
The semantic web and model-driven engineering are changing the enterprise computing paradigm. By introducing technologies like ontologies, metadata and logic, the semantic web improves drastically how companies manage knowledge. In counterpart, model-driven engineering relies on the principle of using models to provide abstraction, enabling developers to concentrate on the system functionality rather than on technical platforms. The next enterprise computing era will rely on the synergy between both technologies. On the one side, ontology technologies organize system knowledge in conceptual domains according to its meaning. It addresses enterprise computing needs by identifying, abstracting and rationalizing commonalities, and checking for inconsistencies across system specifications. On the other side, model-driven engineering is closing the gap among business requirements, designs and executables by using domain-specific languages with custom-built syntax and semantics. In this scenario, the research question that arises is: What are the scientific and technical results around ontology technologies that can be used in model-driven engineering and vice versa? The objective is to analyze approaches available in the literature that involve both ontologies and model-driven engineering. Therefore, we conduct a literature review that resulted in a feature model for classifying state-of-the-art approaches. The results show that the usage of ontologies and model-driven engineering together have multiple purposes: validation, visual notation, expressiveness and interoperability. While approaches involving both paradigms exist, an integrated approach for UML class-based modeling and ontology modeling is lacking so far. Therefore, we investigate the techniques and languages for designing integrated models. The objective is to provide an approach to support the design of integrated solutions. Thus, we develop a conceptual framework involving the structure and the notations of a solution to represent and query software artifacts using a combination of ontologies and class-based modeling. As proof of concept, we have implemented our approach as a set of open source plug-ins -- the TwoUse Toolkit. The hypothesis is that a combination of both paradigms yields improvements in both fields, ontology engineering and model-driven engineering. For MDE, we investigate the impact of using features of the Web Ontology Language in software modeling. The results are patterns and guidelines for designing ontology-based information systems and for supporting software engineers in modeling software. The results include alternative ways of describing classes and objects and querying software models and metamodels. Applications show improvements on changeability and extensibility. In the ontology engineering domain, we investigate the application of techniques used in model-driven engineering to fill the abstraction gap between ontology specification languages and programming languages. The objective is to provide a model-driven platform for supporting activities in the ontology engineering life cycle. Therefore, we study the development of core ontologies in our department, namely the core ontology for multimedia (COMM) and the multimedia metadata ontology. The results are domain-specific languages that allow ontology engineers to abstract from implementation issues and concentrate on the ontology engineering task. It results in increasing productivity by filling the gap between domain models and source code.
Location Provider
(2011)
In dieser Arbeit wurde gemäß den in Kapitel 1.3 definierten Anforderungen ein System entwickelt, um mobile und in der Rechenleistung beschränkte Geräte wie Mobiltelefone und PDAs sowohl im Freien als auch in geschlossenen Räumen verorten zu können. Der eingeschränkten Leistungsfähigkeit der Geräte wird durch die Umsetzung einer Client-Server Lösung Rechnung getragen, bei der der Client als Sensorträger dient, der Daten aus seiner Umgebung registriert und über ein Kommunikationsnetz zur weiteren Berechnung an einen Server überträgt. Die Datenübertragung ist als Webservice realisiert, der auf offenen Standards wie XML und SOAP basiert und leicht um weitere Funktionen erweitert werden kann.
Improvements to the RMTI network routing daemon implementation and preparation of a public release
(2011)
Routing with Metric based Topology Investigation (RMTI) is an algorithm meant to extend distance-vector routing protocols. It is under research and development at the University of Koblenz-Landau since 1999 and currently implemented on top of the well-known Routing Information Protocol (RIP). Around midyear 2009, the latest implementation of RMTI included a lot of deprecated functionality. Because of this, the first goal of this thesis was the reduction of the codebase to a minimum. Beside a lot of reorganization and a general cleanup, this mainly involved the removal of some no longer needed modes as well as the separation of the formerly mandatory XTPeer test environment. During the second part, many test series were carried out in order to ensure the correctness of the latest RMTI implementation. A replacement for XTPeer was needed and several new ways of testing were explored. In conjunction with this thesis, the RMTI source code was finally released to the public under a free software license.