Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (469)
- Ausgabe (Heft) zu einer Zeitschrift (352)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (189)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (14)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1134)
- Englisch (533)
- Mehrsprachig (4)
- Spanisch (2)
- (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (174)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (143)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (56)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Die Verwendung von Multi-Agenten-Systemen in Verbindung mit Agenten-orientiertem Software Engineering stellt mittlerweile einen ausgereiften Ansatz zur Modellierung komplexer Systeme dar. Allerdings finden Multi-Agenten-Systeme im weiteren Feld der Softwareentwicklung bisher nur schwachen Anklang. Im Kontrast dazu erregt die Anerkennung des interdisziplinären Feldes der sozialwissenschaftlichen Simulation über akademische Grenzen hinaus zunehmend die Aufmerksamkeit des 'Mainstream' der Agentenforscher. Dies nimmt sich diese Arbeit zum Anlass, die Verwendung von Multi-Agenten-Systemen im weiteren Feld der Software-Entwicklung voranzutreiben und gleichzeitig die unterschiedlichen Schwerpunkte von sozialwissenschaftlicher Simulation und Multi-Agenten-Systemen zu analysieren. Im Zuge dessen bietet sich die Reimplementierung des effizienzorientierten Micro-Agenten-Konzepts, welches den Kern der Otago Agent Platform (OPAL) bildet, an. Ergebnis ist eine eigenständige Micro-Agenten-Plattform, µ², die zahlreiche konzeptionelle wie technische Innovationen bietet. Dazu gehören die Integration der funktional orientierten Programmiersprache Clojure sowie die Implementation asynchroner Nachrichtenübermittlung. Als weiterer Aspekt wird die zunehmend populäre mobile Anwendungsplattform Android berücksichtigt. Über die reine Portierung der Agentenplattform hinaus weist Android Merkmale von Multi-Agenten-Systemen auf. Die Verbindung der Kommunikationsmechanismen von Android und Micro-Agenten-Plattform erweitert das Funktionsspektrum auf beiden Seiten: Micro-Agenten können unmittelbar auf beliebige Android-Funktionalität zugreifen, während Android die Micro-Agenten-Plattform als netzwerkweite Kommunikationsmiddleware verwenden kann. Potentiale dieser symbiotischen Beziehung erstrecken sich darüber hinaus in die Bereiche der Entwicklung 'intelligenter' mobiler Anwendungen sowie Robotik. Weiteres Ziel der Arbeit ist die Bereitstellung von Erweiterungen der Plattform, die eine Verwendung im Kontext sozialwissenschaftlicher Simulation ermöglichen. Das aus Softwareentwicklungssicht schwache, jedoch aus Simulationssicht relativ mächtige Micro-Agenten-Konzept zeigt seine Qualitäten im Kontext kommunikationsintensiver Szenarien. Um dies zu realisieren, wird ein Simulationszenario basierend auf Hofstede's Cultural Dimensions konstruiert, welches die Gruppenbildung interkultureller Individuen simuliert. Neben dem Nachweis der Anwendbarkeit der Plattform für Simulationsszenarien zeigen sich interessante Muster in und außerhalb der gebildeten Gruppen. Insgesamt zeigt diese explorative Arbeit ein breites Potential zur Verwendung von Agenten- respektive Micro-Agenten-Prinzipien auf. Dies reicht von Agentenorientierter Modellierung bis zum Potential, die Konvergenz mobiler und stationärer Anwendungen voranzutreiben. Darüber hinaus bieten sich weitere Verbesserungspotentiale am Micro-Agenten-Konzept sowie der Plattform selbst, ebenso wie eine intensivere Untersuchung der direkten Interaktion von Micro-Agenten mit mobilen Umgebungen an. Unabhängig davon bietet das entwickelte Simulationsmodell einen Ansatz für die Verwendung kultureller Aspekte im Kontext intelligenter Agenten.
This dissertation provides an interdisciplinary contribution to the project ReGLaN-Health & Logistics. ReGLaN-Health & Logistics, is an international cooperation deriving benefits from the capabilities of scientists working on different fields. The aim of the project is the development of a socalled SDSS that supports decision makers working within health systems with a special focus on rural areas. In this dissertation, one important component for the development of the DSS named EWARS is proposed and described in detail. This component called SPATTB is developed with the intention of dealing with spatial data, i.e. data with additional geocoded information with regard to the special requirements of the EWARS.rnrnAn important component in the process of developing the EWARS is the concept of GIS. Classically, geocoded information with a vectorial character numerically describing spatial phenomena is managed and processed in a GIS. For the development of the EWARS, the manageability of the type of data exemplarily given by (x,y,o) with coordinates x,y ) and Ozon-concentration o is not sufficient. It is described, that the manageable data has to be extended to data of type (x,y,f ), where (x,y) are the geocoded information, but where f is not only a numerical value but a functional description of a certain phenomenom. An example for the existence and appearance of that type of data is the geocoded information about the variation of the Ozon-concentration in time or depending on temperature. A knowledge-base as important subsystem of DSS containing expert knowledge is mentioned. This expert-knowledge can be made manageable when using methods from the field of fuzzy logic. Thereby mappings, socalled fuzzy-sets, are generated. Within the EWARS, these mappings will be used with respect to additional geocoded data. The knowledge about the geocoded mapping information only at a finite set of locations (x,y) associated with mapping information f is not sufficient in applications that need continuous statements in a certain geographical area. To provide a contribution towards solving this problem, methods from the field of computer geometry and CAD, so-called Bezier-methods, are used for interpolating this geocoded mapping information. Classically, these methods operates on vectors a the multidimensional vector-space whose elements contain real-valued components but in terms of dealing with mapping information, there has to be an extension on topological vector spaces since mapping spaces can be defined as such spaces. This builds a new perspective and possibility in the application of these methods. Therefore, the according algorithms have to be extended; this work is presented. The field of Artificial Neural Networks plays an important role for the processing and management of the data within the EWARS, where features of biological processes and structures are modeled and implemented as algorithms. Generally, the developed methods can be divided as usable in terms of interpolation or approximation functional coherences and in such being applicable to classification problems. In this dissertation one method from each type is regarded in more detailed. Thereby, the classical algorithms of the so-called Backpropagation-Networks for approximation and the Kohonen-Networks for classification are described. Within the thesis, an extension of these algorithms is then proposed using coherences from mathematical measure-theory and approximation theory. The mentioned extension of these algorithms is based on a preprocessing of the mapping data using integration methods from measure theory.
Im Rahmen dieser Bachelorarbeit wurde ein Back-Office für die elektronische Version des Europäischen Schadensberichtes erstellt. Es wurde bereits in anderen Arbeiten ein mobiler Client, welcher auf einem Windows Mobile Handy läuft, sowie ein Polizei Client erstellt. Diese greifen auf das Back-Office zu, um Daten, wie z.B. die Autodaten (Automarke, der Typ, das Baujahr und Bilder eines 3D-Modells des Autos) zu einem bestimmten Kennzeichen oder die Personendaten des jeweiligen Autobesitzers zu erhalten. Der mobile Client sendet zudem die Unfallakte an das Back-Office, damit die Daten über einen Unfall in diesem abgespeichert und weiter bearbeitet werden können. Ziel der Arbeit war es ein erweiterbares, modulares System zu entwickeln, welches später um weitere Module ergänzt werden kann, um neue Funktionen bereitstellen zu können. Diese Module können jeweils beliebige Daten in einer Datenbank abspeichern und diese von der Datenbank auch wieder abfragen, sowie verändern, ohne dass das relationale Schema der Datenbank verändert werden muss.
Femto ist eine Programmierumgebung, die auf einem ATmega-basierten Einchip-Computer mit VGA-Ausgang und PS/2-Tastaturschnittstelle ausgeführt wird und aus einem einfachen Texteditor sowie einem Interpreter besteht. Dadurch wird es möglich, direkt auf dem Mikrocontroller kleine Programme zu entwickeln und auszuführen. Die interpretierte Sprache mit dem Namen Femtoscript wurde im Rahmen dieser Arbeit entwickelt und ähnelt Javascript. Der Interpreter ist in C geschrieben und kann mit geringem Aufwand auf andere Plattformen portiert werden.
Obwohl E-Partizipation immer mehr an Bedeutung gewinnt, werden Sicherheitsrisiken und -anforderungen bisher nur oberflächlich betrachtet. Diese Masterarbeit soll einen Beitrag zur Sicherheit und zum Datenschutz von E-Partizipationsanwendungen leisten. Dabei befasst sich die Arbeit mit dem Nutzer von elektronischen Beteiligungsformen. Da dieser im E-Partizipationsprozess seine persönlichen Daten bereitstellt, müssen Vertrauenswürdigkeit, Vertraulichkeit, Transparenz, Verfügbarkeit und Rechtssicherheit zwischen öffentlicher Verwaltung und Nutzer geschaffen werden. Eine der wichtigsten Maßnahmen hierbei ist es, einen möglichst hohen Sicherheits- und Datenschutzstandard in der Informations- und Kommunikationstechnologie durch die Verwaltung zu gewährleisten und dem Bürger Sicherheit im Umgang mit E-Partizipationsanwendungen zu geben. Die Masterarbeit untersucht verschiedene E-Partizipationsangebote der Bereiche Bürgerhaushalte, E-Konsultationen, Parteiwebseiten und E-Petitionen und beleuchtet zunächst, welchen Einfluss sicherheitskritische E-Partizipationssysteme auf das politische System haben können. Anschließend wird der derzeitige Sicherheitsstandard der E-Partizipationsangebote erfasst. Hierzu wird ein Analyse-Framework verwendet, das für E-Partizipation relevante Sicherheits- und Datenschutzaspekte betrachtet. Darauf aufbauend werden Sicherheitslevels für verschiedenen Typen von E-Partizipationsanwendungen abgeleitet und Empfehlungen für die Gestaltung von E-Partizipation gegeben. Auf Grundlage dessen werden Handlungsempfehlungen gegeben, die helfen können, E-Partizipationsanwendungen zukünftig sicherer zu gestalten. Weiterhin werden zukünftige Technologien vorgestellt, die das Potential haben, die Sicherheit bei der Nutzung von Systemen zur elektronischen Bürgerbeteiligung zu erhöhen.
In einer Welt, die immer mehr durch den Einsatz von Technik geprägt wird, gewinnen Systeme, welche eigenständig Aufgaben in einem vorgegebenen Kontext übernehmen können, mehr und mehr an Bedeutung. Solche Systeme werden als autonome Systeme bezeichnet, die ein eigenständiges Verhalten und Interaktionen mit ihrer Umwelt und anderen Systemen beinhalten. Zu diesen Systemen zählen auch autonome mobile Roboter. Sie sind sozusagen intelligente Fahrzeuge, die ihnen übertragene Aufgaben ohne menschliche Unterstützung durchführen können. Um ihre Umwelt wahrzunehmen, mit ihr interagieren und in ihr navigieren zu können benötigen diese Systeme verschiedene Arten von Sensoren. Somit ist die Robotikforschung stark interdisziplinär. Diese Arbeit befasst sich ausschliesslich mit dem Bereich der Navigation, insbesondere mit der Positionsbestimmung, welche für eine gute Navigation die Grundlage bildet. Ein heutzutage häufig benutztes, weltweit verfügbares System zur Positionsbestimmung ist GPS. Ziel dieser Arbeit ist der Anschluss eines GPS-Moduls an einen Mikrocontroller und der Versuch die Positionsgenauigkeit lokal zu präzisieren, um so einem autonomen System die Möglichkeit zur eröffnen, Aufgaben, die eine höhere Genauigkeit erfordern, zu bewerkstelligen.
TGraphBrowser
(2010)
Im Rahmen dieser Arbeit wird ein Webserver implementiert, mit dem man sich Graphen, die mit Hilfe des Java-Graphenlabors (JGraLab) erzeugt wurden, in einem Browser anzeigen lassen kann. Es werden dem Nutzer eine tabellarische und eine graphische Darstellung des Graphen angeboten. In jeder der beiden Darstellungsarten ist das Navigieren durch den Graphen möglich. Um Graphen mit mehreren tausend Elementen für den Nutzer überschaubarer zu machen, können die angezeigten Kanten und Knoten nach ihren Schematypen gefiltert werden. Ferner kann die dargestellte Menge an Graphelementen durch eine GReQL-Anfrage oder durch explizite Angabe bestimmt werden.
Im Rahmen dieser Diplomarbeit wird ein TGraph-basiertes Modell-Vergleichsverfahren entwickelt. Dieses Verfahren soll eine anwendbare Berechnung von Deltas für TGraph-basierte Modelle ermöglichen. Modelle können durch TGraphen repräsentiert werden. Für die Erzeugung und Verarbeitung von TGraphen wurde am Institut für Softwaretechnik das Java Graph Laboratory, kurz JGraLab, entwickelt. Es handelt sich dabei um eine Java Klassenbibliothek, die eine hoch effiziente API zur Verarbeitung von TGraphen bereitstellt. [Ebe87, ERW08, ERSB08] Basierend auf der JGraLab API wird ein System entwickelt, das unterschiedliche Werkzeuge zur Verwaltung von Modellen bereitstellt. Der Fokus dieser Diplomarbeit liegt dabei auf der Entwicklung eines Werkzeugs, das zu zwei gegebenen TGraphen ein Delta berechnet.
Die Diffusions-Tensor-Bildgebung (DTI) ist eine Technik aus der Magnet-Resonanz-Bildgebung (MRI) und basiert auf der Brownschen Molekularbewegung (Diffusion) der Wassermoleküle im menschlichen Gewebe. Speziell im inhomogenen Hirngewebe ist die Beweglichkeit der Moleküle stark eingeschränkt. Hier hindern die Zellmembranen der langgestreckten Axone die Diffusion entlang nicht-paralleler Richtungen. Besonderen Wert hat die Diffusions-Tensor-Bildgebung in der Neurochirugie bei der Intervention und Planung von Operationen. Basierend auf den mehrdimensionalen DTI-Tensor-Datensätzen kann für den jeweiligen Voxel das Diffsusionsverhalten abgeleitet werden. Der größte Eigenvektor des Tensors bestimmt dabei die Hauptrichtung der Diffusion und somit die Orientierung der entsprechenden Nervenfasern. Ziel der Studienarbeit ist die Erstellung einer Beispielapplikation zur Visualisierung von DTI-Daten mit Hilfe der Grafikhardware. Dazu werden zunächst die relevanten Informationen für die Erzeugung von geometrischen Repräsentationen (Streamlines, Tubes, Glyphen, Cluster...) aus den Eingabedaten berechnet. Für die interaktive Visualisierung sollen die Möglichkeiten moderner Grafikhardware, insbesondere Geometryshader ausgenutzt werden. Die erzeugten Repräsentationen sollen nach Möglichkeit in ein DVR (Cascada) integriert werden. Für die Arbeit wird eine eigene Applikation entwickelt, die bestehende Bausteine (Volumenrepräsentation, Volumenrendering, Shadersystem) aus Cascada analysiert und integriert.
Die Entwicklung von Algorithmen im Sinne des Algorithm Engineering geschieht zyklisch. Der entworfene Algorithmus wird theoretisch analysiert und anschließend implementiert. Nach der praktischen Evaluierung wird der Entwurf anhand der gewonnenen Kenntnisse weiter entwickelt. Formale Verifffizierung der Implementation neben der praktischen Evaluierung kann den Entwicklungsprozess verbessern. Mit der Java Modeling Language (JML) und dem KeY tool stehen eine einfache Spezififfkationssprache und ein benutzerfreundliches, automatisiertes Verififfkationstool zur Verfügung. Diese Arbeit untersucht, inwieweit das KeY tool für die Verifffizierung von komplexeren Algorithmen geeignet ist und welche Rückmeldungen für Algorithmiker aus der Verififfkation gewonnen werden können.Die Untersuchung geschieht anhand von Dijkstras Algorithmus zur Berechnung von kürzesten Wegen in einem Graphen. Es sollen eine konkrete Implementation des Standard-Algorithmus und anschließend Implementationen weiterer Varianten verifffiziert werden. Dies ahmt den Entwicklungsprozess des Algorithmus nach, um in jeder Iteration nach möglichen Rückmeldungen zu suchen. Bei der Verifffizierung der konkreten Implementation merken wir, dass es nötig ist, zuerst eine abstraktere Implementation mit einfacheren Datenstrukturen zu verififfzieren. Mit den dort gewonnenen Kenntnissen können wir dann die Verifikation der konkreten Implementation fortführen. Auch die Varianten des Algorithmus können dank der vorangehenden Verififfkationen verifiziert werden. Die Komplexität von Dijkstras Algorithmus bereitet dem KeY tool einige Schwierigkeiten bezüglich der Performanz, weswegen wir während der Verifizierung die Automatisierung etwas reduzieren müssen. Auf der anderenrn Seite zeigt sich, dass sich aus der Verifffikation einige Rückmeldungen ableiten lassen.
Zum Zeitpunkt der Erstellung der Diplomarbeit wird in der Forschungsgruppe "IT-Risk-Management" von Prof. Dr. Rüdiger Grimm an der Universität Koblenz-Landau eine neue Methode zur Unterstützung der Einhaltung des Urheberrechts entwickelt. Der als Usage Rights Management (URM) bezeichnete Ansatz soll Benutzer über ihre Nutzungsrechte an den, auf dem eigenen Rechner vorhandenen, digitalen Mediendateien informieren. Ein weiterer Bestandteil des URMs ist die Unterstützung des Nutzers mit den Dateien rechtskonform umzugehen. Das Ziel der vorliegenden Diplomarbeit ist es, ein System zum Datenaustausch zu entwerfen und prototypisch umzusetzen. Dieses System soll den Benutzern die Möglichkeit geben, sowohl unter URM stehende digitale Mediendateien von anderen Personen einsehen und downloaden zu können als auch eigene URM-Dateien anderen Benutzern zur Verfügung stellen zu können. Diese Anforderungen sollen mittels eines lizenzbewussten P2P-Client umgesetzt werden.
Es gibt einige Gaze Tracking Systeme, sowohl high- als auch low-cost. Low-cost Systeme gehen meist mit low-resolution Kameras einher. Da hier die Bildqualität schlechter ist, müssen die Algorithmen umso besser arbeiten. Aber wie soll man die Algorithmen die der Erkennung der Blickrichtung dienen, testen, wenn die Bildqualität geringer ist und man nie korrekte Aussagen über die Referenzpunkte treffen kann? Hier greift die Idee dieser Arbeit: Mit Hilfe synthetischer Augenbilder testet man die betreffenden Algorithmen und kann diese, da die Referenzpunkte bekannt sind, analysieren. Eine Veränderung der Komplexität dieser Bilder z. B. mit Hilfe eines zuschaltbaren Gaußrauschens oder eines weiteren Reflektionspunktes, macht es möglich, diese in Stufen der Realität anzunähern. Im Idealfall kann man die Algorithmen mit den aus den Testreihen gewonnenen Erkenntnissen verbessern und bei Anwendung innerhalb eines low-resolution Systems dessen Genauigkeit erhöhen.
Einer der Forschungsschwerpunkte der AG Rechnernetze ist das Routing Information Protocol. Eine eigene kompatible Erweiterung dieses Routingprotokolls ist der Routing Information Protocol with Metric-based Topology Investigation (RMTI [ehemals RIP-MTI]). Um dieses Protokoll testen und mit seinem Vorgänger vergleichen zu können, wird die Virtualisierungssoftware VNUML eingesetzt. In diesen virtualisierten Netzwerken werden Router, die das RMTI-Protokoll einsetzten, mittels der Zebra/Quagga Routing Software Suite beobachtet. Dabei wird das Verhalten des Protokolls in unterschiedlichsten Simulationssituationen analysiert und bewertet. Um solche Testabläufe zentral zu steuern und protokollieren zu können wurde die Anwendung RIP-XT (XTPeer) erstellt und in fortführenden Diplomarbeiten kontinuierlich erweitert. Sie ist Schnittstelle zu den Zebra/Quagga-Routern und kann diese steuern. Zusätzlich sammelt und analysiert sie die Routing-Informationen der Router.Über ein GUI kann ein Benutzer diese Abläufe steuern. Um einen visuellen Überblick über eine Netzwerktopologie zu erhalten, besitzt das GUI auch eine Topologie-Anzeige. Die Anzeige repräsentiert das Gesamte Netzwerk durch Symbole, über die auch Interaktionen mit der Simulation möglich sind. Ziel dieser Diplomarbeit war es, die bisherige Topologie-Anzeige zu überarbeiten, um sie für neue Anforderungen anzupassen. Des weiteren wurden funktionale Erweiterungen in das GUI des RIP-XTs eingebettet.
In der vorliegenden Arbeit wird dem Leser aufgezeigt, welche Methoden zur Kurvenskelettierung von 3D-Modellen existieren und welche Ansätze bei bisherigen Forschungsergebnissen von Skelettierungsmethoden in der Bildverarbeitung verfolgt werden. Der Autor geht im weiteren Verlauf auf einen aktuellen Kurvenskelettierungsansatz ein. Die Implementierung dieses Ansatzes wird detailliert analysiert und ein algorithmisches Verfahren entwickelt, um die Kurvenskelette der analysierten Methode hin zu 3D-Skeletten einer eigenen Kurvenskelettdefinition zu modifizieren, mit der es möglich ist, Merkmalsvektoren für Ähnlichkeitsvergleiche zwischen 3D-Objekten zu berechnen. Es wird eine Ground Truth durch menschliche Ähnlichkeitsbestimmung gebildet. Des Weiteren wird auf Grundlage der modifizierten Skelette eine Ähnlichkeitsberechnung durchgeführt. Danach wird die menschliche Ähnlichkeitsbestimmung der algorithmisch berechneten Ähnlichkeitsberechnung gegenüber gestellt und nach bekannten Verfahren aus dem Information Retrieval ausgewertet.
Unlocking the semantics of multimedia presentations in the web with the multimedia metadata ontology
(2010)
The semantics of rich multimedia presentations in the web such as SMIL, SVG and Flash cannot or only to a very limited extend be understood by search engines today. This hampers the retrieval of such presentations and makes their archival and management a difficult task. Existing metadata models and metadata standards are either conceptually too narrow, focus on a specific media type only, cannot be used and combined together, or are not practically applicable for the semantic description of rich multimedia presentations. In this paper, we propose the Multimedia Metadata Ontology (M3O) for annotating rich, structured multimedia presentations. The M3O provides a generic modeling framework for representing sophisticated multimedia metadata. It allows for integrating the features provided by the existing metadata models and metadata standards. Our approach bases on Semantic Web technologies and can be easily integrated with multimedia formats such as the W3C standards SMIL and SVG. With the M3O, we unlock the semantics of rich multimedia presentations in the web by making the semantics machine-readable and machine-understandable. The M3O is used with our SemanticMM4U framework for the multi-channel generation of semantically-rich multimedia presentations.
In dieser Arbeit wurde nach einer detaillierten Erklärung der Begriffe Ad-hoc Network, MANET und VANET eine Auflistung und anschließend ein Vergleich der verschiedenen Routingverfahren, die in VANETs auftreten können, durchgeführt. Unter diesen Routing Verfahren wurde das Geocasting ausgesucht, weil es sich für die hohe Mobilität der einzelnen Knoten für geeignet gezeigt hat. Anschließend wurde auf die Sicherheitsanforderungen eingegangen. Dabei wurden die Begriffe Datenintegrität, Informationsvertraulichkeit, Verfügbarkeit, Verbindlichkeit, Anonymisierung und Peudomisierung eingeführt und ihre Wichtigkeit bei VANETs anhand von Beispielen gezeigt. In Abschnitt 2.4 wurden einige Angriffszenarien genannt, wobei sie in passive und aktive Angriffe kategorisiert wurden. Anhand eines Hybridmodells wurden jeder Schicht mögliche Angriffe zugeordnet und ausführlich diskutiert. Die Angriffe, die bereits definiert wurden, sind dann in einer Tabelle zusammengefasst worden. In dieser Tabelle wurde das Risiko berechnet, das ein Angriff bei VANETs hervorrufen kann. Angriffe auf der Anwendungsschicht sind mit sehr hohem Risiko angesiedelt und stellen eine große Gefahr für VANETs dar. Deshalb wurden manche dieser Angriffe dann mit konkreten Beispielen gezeichnet und dargestellt. Das Verbreiten von falschen Informationen auf Autobahnen ist das ausgewählte Szenario für das Angriffserkennungssystem. Dabei wurde ein Konzept erstellt, wie dieses IDS vorzugehen hat, wenn ein Fahrzeug eine Nachricht bekommt, um zu überprüfen, ob sie richtig oder falsch ist. Dabei wurden Randbedingungen aufgestellt, damit das IDS richtig funktioniert. Dieses Konzept wurde anhand einer Simulation realisiert, um zu überprüfen, ob es tatsächlich seine Aufgabe erfolgreich erfüllt. Nach der Beschreibung der Simulationsimplementierung und ihren wichtigsten Komponente wurden Tests durchgeführt, um die Funktionalität der Erkennung zu testen. Dabei wurde festgestellt, dass die Dichte des Verkehrs, Entfernung des Eregnismelders von der Ereigniszone und die Anzahl der empfangenen Nachrichten in jedem Fahrzeug eine große Rolle bei der Erkennung von Ereignissen spielt.
Moderne Groupware- und Social Software Systeme nehmen nicht nur im privaten Nutzerbereich eine immer stärkere Rolle ein, sondern bergen vor allem für Unternehmen einen noch nicht vollständig erfassten Mehrwert. Erkenntnisse und Erfahrungen aus Praxis und Forschung zeigen, dass Web 2.0 Tools im Unternehmenseinsatz zu einem Mehrwert führen können, wenn sie im richtigen Kontext eingesetzt und in der entsprechenden Kultur eingebettet sind. Sie unterstützen insbesondere bei der Meinungsäußerung, Kollaboration und Selbstorganisation. Vor allem Social Software und Social Networking werden von der Gartner Group, einem der weltweit führenden Marktanalysten von Business Software, im Jahr 2009 unter den zehn für Unternehmen strategisch relevanten Technologien geführt. Trotzdem gibt es gegenwärtig kaum Systeme, die alle erforderlichen Funktionalitäten von Groupware und Social Software in einer Lösung vereinen. Eine der erfolgreichsten Softwaresuiten im Bereich Groupware stellt die Lotus Notes/Domino Lösung von IBM dar. Anhand dieser Softwaresuite wird in der vorliegenden Arbeit gezeigt, wie am Beispiel einer universitären Forschungsgruppe Groupware-Systeme in Kombination mit Social Software in eine Enterprise 2.0 Arbeitsumgebung überführt werden können. Dabei werden "ältere" Groupware Anwendungen, wie E-Mail und Kalenderfunktionen, mit neueren Werkzeugen wie Blogs, Wikis oder Social Bookmarking verknüpft. Das Ergebnis zeigt, dass technische Veränderungen zwar schnell umzusetzen sind, Veränderungen im Kommunikations- und Arbeitsalltag von Menschen allerdings nur langsam erreicht werden. Die Forschungsgruppe für Betriebliche Anwendungssysteme in Koblenz untersucht und evaluiert neue Werkzeuge für die CSCW-Forschung, nutzt intern Groupware zur Arbeitsunterstützung und setzt den ihr übertragenen Lehrauftrag um. Von den an der Lehre beteiligten Parteien, z.B. Studierende und Dozenten, werden die gleiche Flexibilität und das Wissen um moderne Arbeitsformen verlangt, die auch Unternehmen aktuell an ihre Mitarbeiter stellen. Für den Umgang mit modernen Arbeitsformen, Werkzeugen und verschieden Endgeräten bedarf es Erfahrungen und Kompetenzen. Diese Kompetenzen sind sowohl in Bildungseinrichtungen wie auch in Unternehmen über alle Altersschichten aufzubauen. Für den Aufbau und die Schulung solcher Kompetenzen wurde am Standort Koblenz ein Hochschul Competence Center gegründet. Die Notwendigkeit und das Angebot der Schulung bezieht sich dabei nicht nur auf ältere Generationen, sondern auch auf die gerne als "Digital Natives" oder nach 1980 geborenen Generationen, da diese entgegen anders lautender Annahmen nicht automatisch über die geforderten Kompetenzen verfügen. Enterprise 2.0 einzuführen bedarf einer klaren Managemententscheidung. Die Schulung der Kompetenzen sowie die Nutzung von Enterprise 2.0 bedarf der Akzeptanz und somit einer partizipativen Beteiligung.
Texture-based text detection in digital images using wavelet features and support vector machines
(2010)
In dieser Bachelorarbeit wird ein neues texturbasiertes Verfahren zur Detektion von Texten in digitalen Bildern vorgestellt. Das Verfahren kann im wesentlichen in zwei Hauptaufgaben unterteilt werden, in Detektion von Textblöcken und Detektion von einzelnen Wörtern, wobei die einzelnen Wörter aus den detektierten Textblöcken extrahiert werden. Im Groben agiert das entwickelte Verfahren mit mehreren Support Vector Machines, die mit Hilfe von waveletbasierten Merkmalen mögliche Textregionen eines Bildes zu wirklichen Textregionen klassiffzieren. Die möglichen Textregionen werden dabei durch unterschiedlich ausgerichtete Kantenprojektionen bestimmt. Das Resultat des Verfahrens sind X/Y Koordinaten, Breite und Höhe von rechteckigen Regionen eines Bildes, die einzelne Wörter enthalten. Dieses Wissen kann weiterverarbeitet werden, beispielsweise durch eine Texterkennungssoftware, um an die wichtigen und sehr nützlichen Textinformationrneines Bildes zu gelangen.
Auswirkungen verschiedener Werbeformen im Internet auf Einstellung, Erinnerung und Kaufabsicht
(2009)
Die vorliegende Bachelorarbeit untersucht anhand eines Experiments die Auswirkungen dreier Online-Werbeformen (Banner, Streaming Ad und Interstitial) auf die Einstellung, Erinnerung und Kaufabsicht. Sie gibt eine Einführung in die Internetwerbung und die untersuchten Werbeformen sowie einen Überblick über die drei theoretischen Untersuchungsschwerpunkte. Das Experiment wurde während einem Online-Fragebogen durchgeführt. Es nahmen 358 Probanden teil. Die erhobenen Daten wurden mittels Korrelationsmatrizen und der univariaten Varianzanalyse auf Differenzen geprüft.
Im Rahmen dieser Arbeit wurden die zeitbewerteten Prädikat/Transitions-Netze (Z-Pr/T-Netze) zur Modellierung, Simulation und Verifikation sicherheitskritischer Echtzeitsysteme entwickelt. Z-Pr/T-Netze integrieren Konzepte zur Modellierung temporärer Zusammenhänge und sind darüber hinaus mittels der Berechnung von S- und T-Invarianten sowie der Identifikation von Traps und Co-Traps strukturell analysierbar. Die Eignung von Z-Pr/T-Netzen zur Modellierung, Simulation und Verifikation komplexer Systeme aus dem Anwendungsbereich sicherheitskritischer Echtzeitsysteme wird anhand des Earliest-Deadline-First-Protokolls (EDF) und des Priority-Inheritance-Protokolls (PIP) belegt. Es erfolgt daher eine Modellierung des EDF und PIP mittels Z-Pr/T-Netzen sowie eine Verifikation für das EDF und PIP basierend auf der strukturellen Analyse der korrespondierenden Z-Pr/T-Netze. Die Anwendbarkeit struktureller Analyseverfahren zur Verifikation des EDF und PIP in Verbindung mit der nicht zu unterschätzenden Komplexität eben dieser belegen die Anwendbarkeit von Z-Pr/T-Netzen zur Modellierung, Simulation und Verifikation komplexer Systeme aus dem Anwendungsbereich sicherheitskritischer Echtzeitsysteme.
Hintergrund und Fragestellung: Auf Grund hoher Prävalenzen und deutlicher einhergehender sozioökonomischer Folgen stellen multiple somatoforme Symptome ein ernst zu nehmendes Problem dar. Dem steht ein ausgeprägter Mangel an hochwertigen Interventionsstudien gegenüber. Mit der vorliegenden randomisierten kontrollierten Untersuchung zur Effektivität kognitiv-behavioraler Gruppentherapie im ambulanten Kontext sollen Mängel bisheriger Studien berücksichtigt und somit der Forschungsstand verbessert werden. Die Behandlung hat zum Ziel, über die Veränderung kognitiver, behavioraler und sozialer Reaktionsmuster kurz- und langfristig eine Verbesserung der körperlichen und psychischen Symptomatik, des körperlichen und psychischen Funktionsniveaus sowie krankheitsbezogener Denk- und Verhaltensmuster zu bewirken. Methode: 135 Patientinnen und Patienten nahmen an der randomisierten Kontrollgruppenstudie teil. Die manualisierten Interventionen umfassten acht 90-minütige Termine, die wöchentlich stattfanden. Verglichen wurden die Effekte einer Wartekontrollgruppe (WG), einer kognitiv-behavioralen Gruppenintervention (KBT) und einer Entspannungsgruppe (PMR). Ergebnis: Die kognitiv-behaviorale Behandlung führte im Vergleich zur Wartegruppe zu einer signifikanten Verbesserung der somatoformen Beschwerden (SOMS-7). Im Vergleich der Veränderung der subjektiven psychischen Gesundheit (SF12) in KBT und WG war die KBT tendenziell überlegen. Der differenzielle Vergleich zwischen KBT und PMR führte auf keiner der Outcome-Variablen zu einem signifikanten Ergebnis. Diskussion: Die untersuchte ambulante kognitiv-behaviorale Gruppenbehandlung hat positive Effekt auf die Körperbeschwerden bei Patientinnen und Patienten mit multiplen somatoformen Symptomen. Um Effektstärken zu erhöhen und differenzielle Unterschiede im Vergleich zur PMR zu ermöglichen wird in zukünftigen Untersuchungen u.a. eine Intensivierung der Behandlung diskutiert.
Diese Bachelorarbeit behandelt die Erweiterung eines Instant Messenger um die Funktion einer verschlüsselten Audio-/Videokonferenz. Es werden verschiedene zu diesem Zweck nutzbare Techniken beschrieben und gegenübergestellt. Besonderer Wert wird darauf gelegt, die Verbindung dementsprechend zu sichern, dass auch vertrauliche Informationen übermittelt werden können. Letztlich wird die Implementierung in Java für den Instant Messenger "Spark" sowie die Integration der Konferenz in ein eVoting-Plugin erläutert.
This thesis deals with the verbal categories tense and aspect in the context of analysing the English perfect. The underlying notion of time is examined from the viewpoint of etymology and from the viewpoint of fields of knowledge that lie outside the immediate scope of temporal semantics, e.g. mathematics. The category tense is scrutinised by discussing the concept of Reichenbach tense and the concept of correlation (Giering). The starting point of the discussion of the category verbal aspect is the dichotomy perfective vs. imperfective in the Slavic languages. The main part about the perfect is concerned with the possessive perfect as a cross-linguistic phenomenon (including a comparison of the English and the Slavic perfect) and focuses on the usage and the meaning of the English present perfect. There are three appendices which are an integral part of this dissertation. Appendix A deals with the systematization of English verb forms and their graphical representation. Three different visualizations are presented, two of which are genuine to this paper. Appendix B reproduces the target setting according to which an animated visualization of English infinitives was programmed. Appendix C represents a synopsis of approaches to the English perfect in grammars and textbooks.
Ziel dieser Arbeit war es, den in [Rhe06] dargestellten operationalen Ansatz zur Modelltransformation mit Hilfe der am Institut für Softwaretechnik der Universität Koblenz-Landau vorhandenen Bibliotheken "JGraLab" und "GReQL" in Java zu implementieren. Die Implementierung sollte beweisen, dass der aufgezeigte Transformationsansatz in der Praxis umsetzbar ist. Dies wurde durch verschiedene Beispiele bewiesen. Die geplante Verwendung in weiteren Projekten des IST wird für die Zukunft zeigen, ob sich weitere Transformationen umsetzten lassen oder wo die Grenzen des Ansatzes sind. Des weiteren ist denkbar, die Transformationen nicht mehr in zwei Schritten (Schematransformation vor Graphtransformation), sondern beide Schritte auf einmal ablaufen zu lassen. Dieser Schritt setzt jedoch voraus, dass JGraLab dies ebenfalls unterstützt.
Wie bereitet man komplizierte, technische Sachverhalte einfach und verständlich auf, damit sie auch der normalen Benutzer ohne tiefergehendes technisches Hintergrundwissen schnell und ohne lange Einarbeitungszeit und langwierige Erklärungen zu nutzen weiß? In dieser Studenarbeit geht es um genau diese Frage - Nichtinformatikern die Vorzüge und die Arbeit mit semantischen (Such)anfragen zu erleichtern, wenn nicht sogar überhaupt erst zu ermöglichen, sowie die Neuentwicklung und SPARQL-Erweiterung Networked Graphs von Simon Schenk innerhalb der AG Staab/Universität Koblenz zu präsentieren.
"MoleARlert" entstand im Rahmen eines Projektpraktikums der AG Computergrafik, unter Leitung Herrn Prof. Müllers und Herrn Dipl.-Inf. Stefan Rilling, im Wintersemester 2008/2009. Das System wurde von insgesamt zwölf Studierenden der Universität Koblenz-Landau entwickelt. Inhalt dieser Studienarbeit ist neben der Beschreibung des Systems vor allem die Veränderungen, die vom Autor nach Abschluss des Projektpraktikums, an diesem vorgenommen wurden unter besonderer Berücksichtigung der Neu- und Weiterentwicklungen die dazu führten die Reife des Systems zu verbessern. Ein weiterer wichtiger Aspekt der Arbeit ist die Einbindung einer Webkamera in eine 3D-Engine in Echtzeit.
Ziel der Arbeit ist es, Kriterien und Gütemaße zur Bewertung von Merkmalen aus der Musterklassifikation zu finden und diese so in eine graphische Evaluationsumgebung zu integrieren, dass der Nutzer befähigt wird, Erkenntnisse über die Struktur des Merkmalsraumes und die Qualität der einzelnen Merkmale zu erlangen, so dass er zielführend eine möglichst optimale Teilmenge - im Sinne der Klassifikationsgüte und der Anzahl der Merkmale - gewinnen kann. Zunächst werden allgemeine visuelle Merkmale von Pollenkörnern und die manuelle Pollenzählung vorgestellt sowie eine Übersicht über das Pollenmonitor-Projekt zur automatisierten Pollen-Erkennung gegeben. Einem Überblick über die Grundlagen der Mustererkennung mit den Teilschritten Merkmalsextraktion und Klassifikation folgt eine Vorstellung von Kriterien zur Merkmalsbewertung und Verfahren zur Merkmalsselektion. Im Mittelpunkt stehen Entwurf und Umsetzung der Evaluationsumgebung sowie Experimente zur Bewertung und Selektion optimaler Teilmengen aus dem Testdatensatz
The goal of this thesis was to develop an interactive cloud simulation based on physical laws from fluid and cloud dynamics that can be used to visualize the physical processes involved in the cloud formation process. Chapter 2 showed that a great number of cloud modeling methods already exist, both procedural and physically motivated. Since the simulation developed in this thesis is based on computational fluid dynamics, the most influential works in this field in relation to computer graphics were also identified. Next, the cloud formation process in the atmosphere was explained, demonstrating the connections between air pressure, temperature and humidity. The temperature distribution of the atmosphere was identified as the most significant factor in cloud formation, before two different kinds of cloud classifications were introduced. The following chapter was dedicated to formulating the previously described cloud formation process in terms of physics. It presented the Navier- Stokes equations of incompressible fluid motion as the method of describing the movement of air masses in the atmosphere and explained how they can be simplified. Furthermore, this chapter was used to introduce concepts from thermodynamics that are necessary for the description of cloud dynamics, and to present a water continuity model that defines the state changes of water in the atmosphere. It was also explained where and how the presented concepts abstract from reality. In chapter 5, it was first described how the cloud model was developed based on the concepts evaluated before, identifying the temperature, water vapor, cloud water, and velocity as the state variables necessary for a cloud simulation. Next, the unconditionally stable implicit semi-Lagrangian method for the solution of the Navier-Stokes equation was presented, and it was explained how the equations for the water continuity, latent heat, and buoyant force computations are solved. All the steps were then summarized and put into context by describing the simulation loop that is executed for every step of the cloud simulation. In the following, details were given about the simple rendering method for the clouds, and the visualization methods for the velocity field and the temperature were evaluated. Finally, the user interface that controls the parameters of the simulation was explained. Chapter six showed the results of the simulation of convective and stratus clouds and commented on the performance of the system.
Das übergeordnete Ziel der vorliegenden Arbeit ist die Verbesserung von Lehren und Lernen im Physikunterricht. Damit fügt sie sich in den Bereich physikdidaktischer Forschung ein, die eine forschungsbasierte Entwicklung und Evaluation von Unterricht zum Gegenstand hat, sich also auf die empirische Lehr-Lern-Forschung konzentriert. Die Motivation dazu basiert dabei auf drei in der aktuellen physikdidaktischen Diskussion prioritären Defiziten: Die mangelnde Fähigkeit deutscher Lernender zur Anwendung ihres physikalischen Wissens in neuen Kontexten, die Realitätsferne der Aufgaben und Inhalte des deutschen Physikunterrichts sowie die unzureichende Einbindung der auf diesen Erkenntnissen basierenden Konzepte in den Physikunterricht. Diese Defizite stellen die physikdidaktische Forschung vor drei grundlegende Aufgaben: Initiierung stärker schüler- und anwendungsorientierter Lehr-Lernprozesse, Hervorhebung der Bedeutung einer neuen "Aufgabenkultur" im Rahmen authentischer Problemstellungen sowie Entwicklung von Konzepten zur nachhaltigen Implementation neuer Erkenntnisse in den Physikunterricht. Der Anspruch dieser Arbeit ist die Reduktion der analysierten Defizite. Dazu erfolgt die Ausrichtung auf drei Ziele hin: Die theoriegeleitete Entwicklung praktikabler und flexibler Lernmedien im Rahmen aufgabenorientierter Lernumgebungen, die Implementation und detaillierte empirische Untersuchung des entwickelten Ansatzes sowie die Bildung einer "Learning Community" zur Unterrichtsentwicklung. Dazu wird basierend auf dem instruktionspsychologischen "Anchored Instruction"-Ansatz theoriegeleitet das Konzept einer Modifizierten "Anchored Instruction" (MAI) entwickelt. Dieses greift die Vorzüge der originären Rahmentheorie auf und behebt zudem die damit verbundenen Probleme durch die Umsetzung von drei Leitlinien: "Praktikabilität", "Flexibilität" und "empirische Forschung". Dies wird hier durch die Entwicklung und theoretische Einbettung von "Zeitungsaufgaben" als authentisch wirkendes Lernmedium zur Verankerung des Wissens an realitätsnahen Lerngegenständen verdeutlicht. Die Effektivität der Implementation von "Zeitungsaufgaben" als Lernmedium im Physikunterricht im Sinne des MAI-Ansatzes bildet dabei den ersten Untersuchungsschwerpunkt. Es wird Breitenwirkung und Robustheit des Ansatzes hinsichtlich Lerneffekt und Motivation im Rahmen einer Interventionsstudie mit 911 Lernenden, 15 Lehrkräften und in insgesamt 39 Schulklassen an zehn verschiedenen Schulen untersucht. Die durch Mehrebenenanalysen erhaltenen Ergebnisse zeigen, dass "Zeitungsaufgaben" themenübergreifend zu größerer Motivation und Leistungsfähigkeit der Lernenden führen als "traditionelle" Aufgaben und dass diese Überlegenheit zudem auch wenigstens mittelfristig Bestand hat (Motivation: p < 0.001; Cohens d = 0.87; Leistung: p < 0.001; Cohens d = 1.13). Zudem wurden vielfache Einflüsse von Moderatorvariablen auf die Motivations- und Lerneffekte geprüft (Lehrkraftmerkmale, Geschlecht, Thema, Schulart, Physik-Vorleistung, Intelligenz und Textverständnis). Es zeigt sich, dass die positive Wirkung von "Zeitungsaufgaben" auf die Motivation der Lernenden weitgehend unempfindlich gegenüber diesen Einflussfaktoren ist. Hingegen wird die Lernleistung neben der großen, positiven Wirkung von "Zeitungsaufgaben" zudem noch durch die Physik-Vorleistung sowie durch die Ausprägung des Interesses der Lehrkräfte am Unterrichten von Physik beeinflusst, und zwar in praktisch bedeutsamen Ausmaß. Neben Breitenwirkung und Robustheit des MAI-Ansatzes stellt dessen Optimierung im Rahmen einer Interventionsstudie den zweiten Untersuchungsschwerpunkt dar. Diese Detailuntersuchung resultiert aus dem Zusammenhang zwischen Authentizität und Komplexität einerseits und kognitiver Belastung andererseits. Bezogen auf das MAI-Lernmedium " Zeitungsaufgabe" steht dabei die Optimierung des Instruktionstextes " also des Zeitungsartikels " im Zentrum der Untersuchung. Es wird nachgewiesen, dass "Zeitungsaufgaben" mit mittelschweren Zeitungsartikeln sowohl Motivation als auch Lernleistung besser fördern als "Zeitungsaufgaben" mit leichten oder schweren Zeitungsartikeln. Dagegen sind Motivation und Leistung bei der Arbeit mit "traditionellen Aufgaben" umso geringer je schwieriger der Aufgabentext ist. Zudem wird im Rahmen von Pfadanalysen ein Wirkgefüge modelliert, das kausale Zusammenhänge zwischen verschiedenen Variablen darstellt, die die positive Wirkung von "Zeitungsaufgaben" auf Motivation und Leistungsfähigkeit beeinflussen. Dieses Kausalmodell verdeutlicht, dass die positive Wirkung von "Zeitungsaufgaben" am stärksten davon abhängt, wie stark die laut Theorie für ein MAI-Lernmedium erforderlichen Merkmale auch tatsächlich von den Lernenden als solche wahrgenommen werden (Motivation: p < 0.001; b = 0.40; Leistung: p < 0.001; b = 0.30). Ein Konzept zur Einbindung der auf Erkenntnissen der Lehr-Lern-Forschung basierenden Maßnahmen in den Physikunterricht stellt den Abschluss dieser Arbeit dar.
Das Just-in-Time - Verfahren ist ein neues Unterrichtskonzept aus den USA (auch in D. schon z.T. eingesetzt), bei dem ein oder zwei Tage vor der Unterrichtsstunde Fragen hauptsächlich zu qualitativem und konzeptuellem Verständnis an die SchülerInnen gestellt und von diesen per eMail beantwortet werden. Aus den Lösungen wird dann von der Lehrkraft eine Folie mit falschen und richtigen Vorschlägen erstellt (i.a. anonym), die dann in der Klasse diskutiert werden. Die besonderen Vorteile des Verfahrens sind: Adaptiver Unterricht mit kurzfristiger ("just-in-time") Reaktionsmöglichkeit auf Präkonzepte und andere Lernschwierigkeiten; Förderung der Selbsttätigkeit und Eigenverantwortung für die eingesendeten Beiträge; Schaffung einer schriftlichen (eMail-Beitrag) und mündlichen (Diskussion) Gelegenheit zur Spracharbeit an fachlichen Inhalten. Das Lernarrangement Die über Webspace verfügende Lehrkraft lädt eine themenrelevante Aufgabe ins Internet. Diese Aufgabe ist von den SchülerInnen ihres Kurses am Computer zu Hause zu bearbeiten; die Bearbeitung wird über ein Formularfenster als Mail an die Lehr-kraft gesendet. Mit den Statements ihrer SchülerInnen im Kopf begibt sich die Lehrkraft nun an die Planung der folgenden Unterrichtsstunde: Insbesondere werden die interessantesten Statements auf TLP-Folie kopiert . Sie bilden den roten Faden der in Planung befindlichen Unterrichtsstunde. Die Schülerantworten sind also zum einen Planungsgrundlage für die folgende Unterrichtsstunde, zum anderen werden sie zu einem besonderen Unterrichtsmedium des JiTT-Verfahrens (Folie o.ä. mit den interessantesten Statements). Der Unterrichtsverlauf enthält Phasen, in denen die Schüleraussagen gelesen, erörtert und diskutiert werden sowie Phasen, in denen die Gruppe mit üblichen Unterrichtsmedien und -methoden (Arbeitsblätter, Versuche) arbeitet. Im Idealfalle reduziert sich die Rolle des Lehrers in der Diskussionsphase auf die eines Moderators. Fachdidaktische und instruktionspsychologische Begründung JiTT kann als besondere Form des Adaptiven Unterrichts aufgefasst werden: Der Lehrkraft ist es möglich, insbesondere auf vorhandene Präkonzepte und andere Lernschwierigkeiten in adäquater Form zu reagieren und ihren Unterricht zu gestalten. Das Verfahren kann des weiteren auf der Ebene der Motivation wirksam sein, indem Selbstbestimmung (Mitgestaltung des Unterrichtes!) und soziale Einbindung (Diskussion der Schülerbeiträge in der Gruppe!) in besonderer Weise gefördert und gefordert werden. Selbstbestimmung und soziale Einbindung sind aber (zusammen mit Kompetenz) Hauptfaktoren in einer der führenden Theorien der Motivationspsychologie (Selbstbestimmungstheorie nach DECI & RYAN). Bemerkungen zum Design der Feldstudie In den Hauptteil der Feldstudie des Projektes zur Evaluation des Verfahrens waren zwei Physik-Leistungskurse eines rheinland-pfälzischen Gymnasiums (Teilgebiete "Mechanik" und "Elektrodynamik") eingebunden, ein Ergänzungsteil wurde im Rahmen einer Mechanik-Vorlesung des Lehramtsstudiums Physik an einer rheinland-pfälzischen Universität realisiert. Das erhobene Datenmaterial wurde insbesondere mit Hilfe des Verfahrens der multivariaten, hierarchischen Regressionsanalyse evaluiert. Ergebnis der Feldstudie und Diskussion Ein relevanter Effekt des JiTT-Verfahrens auf die Performanz der Lernenden kann nicht nachgewiesen werden. Im Hinblick auf mögliche Erklärungsmuster erscheinen folgende Aspekte von Bedeutung: Im Zuge der adäquaten Berücksichtigung von Schülervorstellungen ist es ausreichend, die "Mainstream-Päkonzepte" der Lernenden zu kennen. Detaillierte-res Wissen führt zu keinem signifikant erfolgreicheren Unterricht; Die vergleichsweise offen gestalteten JiTT-Phasen des Unterrichts scheinen insbesondere die leistungsschwächeren Lernenden zu überfordern; Ein eventuell doch vorhandener, auf JiTT zurückführbarer Einfluss auf die Performanz wird durch die Effizienz des im Unterricht eingesetzten methodischen Werkzeugs der Modellbildung überdeckt. Im Hinblick auf die motivationalen Einstellungen der Lernenden erscheint bemer-kenswert, dass man in JiTT zwar durchaus eine Bereicherung für den Unterricht sieht, dem gewachsenen zeitlichen Druck sowie den erweiterten Kontrollmöglichkeiten seitens der Lehrkraft jedoch kritisch gegenübersteht. Somit ist zweifelhaft, ob es durch den Einsatz des Verfahrens tatsächlich zu einer Verstärkung der autonom regulierten Varianten der Motivation kommt.
Der Aufbau der Studienarbeit ist wie folgt: Nach einer kurzen Einführung in das Thema des Scanmatchings wird anhand der theoretischen Basis von Icp, Idc und MbIcp der aktuelle Stand der Technik vorgestellt. Im nächsten Kapitel folgt die Beschreibung des eigenen Ansatzes. Dieser umfasst die strukturellen Aspekte der Implementation, eigeneModifikationen und die Einbindung der Verfahren in die Kartenerstellung von Robbie. Im Anschluss findet sich die Evaluation der Verfahren. Dort werden Effizienztests der wichtigsten Programmparameter durchgeführt und die Wirkungsweise des Scanmatchers im Zuge der Kartenerstellung evaluiert. In letzten Kapitel folgt dann eine Zusammenfassung der Ergebnisse mit Ausblick aufweitere Nutzungs- und Forschungsbereiche.
In den systematischen Neurowissenschaften werden oft Experimente durchgeführt, welche die Kommunikation von Hirnarealen bei der Bewältigung einer bestimmten Aufgabe untersuchen. Dabei wird angenommen, dass Neuronenverbände, die ihre Aktivität synchronisiert haben, an dieser Aufgabe beteiligt sind. In den aufgezeichneten EEG-Daten kann diese Zusammenarbeit anhand von interregionaler Kohärenz als Phasensynchronizität der Hirnstromfrequenz nachgewiesen bzw. quantifiziert werden. Ziel der Arbeit ist die Implementierung einer Software, welche die notwendigen Schritte der Kohärenzanalyse durchführt und die Ergebnisse statistisch aufbereitet und darstellt. Da die Verfahren und der Ablauf weitgehend durch die Anforderungsspezifikation vorgegeben sind, liegt ein Schwerpunkt der Arbeit auf dem Entwurf und der Programmierung einer intuitiv zu bedienenden Benutzeroberfläche, die den automatisierten Ablauf der Analyse ermöglicht. Ein Statistik-Toolkit soll die Überprüfung von Arbeitshypothesen ermöglichen (Signifikanz). Weiterhin soll die Darstellung den Transport und die Diskussion der Ergebnisse erleichtern.
Kurzfassung Theorien, Szenarien, Vermutungen und Annahmen lassen sich in den Sozialwissenschaften seit geraumer Zeit mittels computergestützter Simulation analysieren, erhärten oder entkräften. Im Feld der Simulationsumgebungen gibt es eine Vielzahl unterschiedlicher Softwarelösungen. Das Projekt EmIL hat zum Ziel eine Simulationsumgebung zu erschaffen, die einen Schritt weiter geht als die bisher etablierten Lösungen. So soll in dieser Simulationsumgebung namens EmIL-S die Möglichkeit geschaffen werden Normentstehung zu analysieren. Dies wird durch eine Auftrennung der Simulationsumgebung in verschiedene Bereiche erreicht. Diese Diplomarbeit beschreibt die Konzepte die hinter diesem Projekt stehen und stellt einen lauffähigen Prototyp für diese Simulationsumgebung zur Verfügung. Die Erstellung dieses Prototypens, das hierfür zugrunde liegende Szenario und alle verwendeten Komponenten werden detailliert in dieser Arbeit beschrieben. Auch werden die mittels dieses Prototypens gewonnen Erkenntnisse dargelegt und analysiert. Im Zuge dieser Beschreibungen werden konzeptionelle sowie technische Fehler an der Simulationsumgebung aufgezeigt und Lösungs- bzw. Verbesserungsvorschläge dargelegt. Diese Arbeit kann auch als Leitfaden für die Erstellung von Simulationen mittels EmIL-S hilfreich sein.
Zur Erstellung von 3-D-Oberflächenmodellen real existierender Objekte wird häufig sehr teure Hardware eingesetzt, z.B. 3-D-Laser-Range-Scanner. Da diese keine Grauwert- oder Farbinformationen erfassen können, muss das Objekt zur Wiedergabe farbiger Strukturen zusätzlich abfotografiert und mit den Bildern registriert werden. Die Arbeit entwickelt demgegenüber ein Verfahren zum Einsatz eines kalibrierten Stereokamerasystems. Aus den erhaltenen Sequenzen zweidimensionaler Stereobilder kann ein texturiertes 3-D-Mesh rekonstruiert werden. Im Vergleich zum Einsatz eines Scanners ist dieses Verfahren zwar weniger genau, aber dafür preisgünstiger, platzsparend und schneller einsetzbar. Den Schwerpunkt der Arbeit bilden die Fusionierung der Tiefenkarten und die Erstellung eines texturierten Meshs aus diesen.
Diese Arbeit bewegt sich im Spannungsfeld dreier Gebiete: Virtualisierung, Echtzeitverarbeitung und Parallelverarbeitung. Jedes dieser Gebiete gilt für sich genommen als weitgehend erforscht, doch ergeben sich bei ihrer gemeinsamen Betrachtung zahlreiche neue Fragestellungen und Möglichkeiten. In dieser Arbeit werden dazu Modelle zur Beschreibung von Echtzeitanwendungen innerhalb der Prozesshierarchie einer Virtualisierungsumgebung entwickelt. Bestehende Schnittstellen zur Virtualisierung werden auf ihre Möglichkeiten zur Echtzeitverarbeitung untersucht, und es werden neue Schnittstellen zur Virtualisierung auf Mehrprozessormaschinen geschaffen und erprobt, die die spezifischen Anforderungen eingebetteter Systeme "insbesondere die Echtzeitfähigkeit" berücksichtigen. Damit wird eine sichere und effiziente Koexistenz von Programmen mit unterschiedlich harten Zeitanforderungen in getrennten virtuellen Maschinen auf einem gemeinsamen Mehrprozessorrechner ermöglicht.
Die Arbeit befasst sich mit atlasbasierter Segmentierung von CT-Datensätzen mit Hilfe von elastischen Registrierungsmethoden. Ziel ist die vollautomatische Segmentierung eines beliebigen Eingabedatensatzes durch Registrierung mit einem vorsegmentierten Referenzdatensatz, dem Atlanten. Ein besonderes Augenmerk liegt dabei auf der Implementierung und Evaluation elastischer Registrierungsverfahren, da rigide Registrierungsmethoden besonders in Bereichen hoher anatomischer Varianzen keine genaue Segmentierung gewährleisten. Im Vordergrund steht zunächst die Generierung zweier Atlanten, die als durchschnittliche Referenzdatensätze Informationen über die anatomische Varianz männlicher und weiblicher Bevölkerungsgruppen enthalten. Weiter werden vier etablierte elastische Registrierungsarten implementiert und im Hinblick auf eine atlasbasierte Segmentierung der wichtigen Organe des menschlichen Torsos evaluiert: BSpline-Registrierung, Demons-Registrierung, Level-Set-Motion-Registrierung und FEM-Registrierung. Robustheit und Genauigkeit der implementierten Verfahren wurden anhand von Lungen- und Abdomendatensätzen sowohl intra- als auch interpatientenspezifisch ausgewertet. Es wird gezeigt, dass vor allem die elastische BSpline-Registrierung hier genauere Segmentierungsergebnisse liefern kann, als es mit einer rigiden Registrierung möglich ist.
The STOR project aims at the development of a scientific component system employing models and knowledge for object recognition in images. This interim report elaborates on the requirements for such a component system, structures the application area by identifying a large set of basic operations, and shows how a set of appropriate data structures and components can be derived. A small case studies exemplifies the approach.
Im Rahmen dieser Arbeit werden die Möglichkeiten und Grenzen des Geometry-Shaders in Bezug auf die Triangulierung von Freiformflächen untersucht. Dazu steht die Konzeption und Entwicklung eines Geometry-Shaders im Vordergrund, der Freiformflächen möglichst performant zur Laufzeit triangulieren kann. Hierzu werden NURBS-Datensätze eingelesen, trianguliert und dargestellt.
Entwicklung eines Computermodells der lumbalen Wirbelsäule zur Bestimmung mechanischer Belastungen
(2009)
Ziel der Arbeit war die Erstellung eines MKS-Modells der menschlichen lumbalen Wirbelsäule zur Ermittlung der mechanischen Belastungen innerer Körperstrukturen. Die Oberflächen der Wirbelkörper wurden aus CT-Daten menschlichen Sektionsguts als CAD-Oberflächen generiert und bilden das Grundgerüst des Modells. Die genaue Positionierung des Facettengelenke ist dabei vorgegeben ebenso wie die Ansatzpunkte und Verlaufsrichtungen der ligamentösen Strukturen. Zwischen den starren Wirbelkörpern wurden elastische Bandscheiben eingeführt, deren Mittelpunkte als jeweiliges Drehzentrum der entsprechenden funktionalen Einheiten definiert sind. Damit sind gleichzeitig die Hebelarme zu den Ansatzpunkten der einzelnen Bänder festgelegt. Das mechanische Verhalten dieser verschiedenen Strukturen wurde über physiologische Gleichungen oder Kennlinien in das Modell implementiert. So wurde für die Facettengelenke ein Ansatz für Kontaktkräfte in horizontaler Richtung eingeführt. Für die Kraftentwicklung bei Dehnung der Bänder fanden individuelle Kennlinien aus der Literatur Verwendung. Bei der Deformation der Bandscheiben folgt die Kraftentwicklung einer mechanischen Relation in Abhängigkeit der Deformation sowie der Deformationsgeschwindigkeit. Die entsprechenden Materialkonstanten in den Gleichungen wurden über experimentelle Messdaten aus der Literatur ermittelt. Dem Aufbau von Drehmomenten bei Auslenkung der Bandscheiben um die drei möglichen Rotationsachsen liegen wiederum Kennlinien aus der Literatur zugrunde. In Anpassung an diese experimentell ermittelten Kurven wurden mechanische Gleichungen entwickelt, die letztendlich in das Modell implementiert wurden und die bei jeweiliger Verdrehung der Bandscheibe die Entwicklung eines entsprechenden Moments angeben. Die Validierung des Modells erfolgt auf der einen Seite über die Gleichgewichtsbedingung, bei der die Summe aller Kräfte und Drehmomente bezüglich des Schwerpunkts einer funktionalen Einheit Null sein muss. Dieser Zustand konnte mit dem Modell eindeutig nachgewiesen werden. Auf der anderen Seite konnten punktuell Messergebnisse aus der Literatur über die Modellrechnungen in guter Näherung reproduziert werden. Hier besteht jedoch die Schwierigkeit, dass Messungen an Sektionsgut immer nur in isoliertem Zustand und in einem definierten Versuchsaufbau mit Belastung nur einer Richtung durchgeführt wurden. Innerhalb des Modells befinden sich die Strukturen in einem beweglichen Verbund und unterliegen damit vielfältigen mechanischen Einflüssen, was der Realität im menschlichen Körper auch wesentlich mehr entspricht. Dennoch spiegelt das Materialverhalten der elastischen Elemente innerhalb des Modells größenordnungsmäßig die Ergebnisse der verschiedensten experimentellen Messungen aus der Literatur wider. Zur Simulation unterschiedlicher Belastungssituationen wurde das Modell der Lendenwirbelsäule in verschiedenen Fallbeispielen der Einwirkung einer jeweils konstanten äußeren Kraft unterschiedlicher Größe ausgesetzt. Nach einer kurzen Phase der Bewegung aller Teilstrukturen stellte sich in jedem gerechneten Fallbeispiel ein neuer Gleichgewichtszustand ein. Für alle implementierten Strukturen, wie Bandscheiben, Bänder und Facettengelenke, konnte der zeitliche Verlauf der Belastungszunahme sowie die Belastung im Endzustand berechnet werden. Eine Überprüfung ergab, dass sich alle Ergebnisse im physiologisch gesunden Wertebereich befanden. Damit ist der Nachweis erbracht, dass mit dem vorliegenden Modell ein Instrument entwickelt wurde, das im Rahmen der Genauigkeit des Modells die Belastung der inneren Strukturen bei äußerer Krafteinwirkung zuverlässig berechnet werden können. Die Anwendungen eines derartigen Modells sind vielfältiger Art. Durch Variationen von Parametern können die verschiedensten Situationen simuliert werden. Beispiele sind hier die Auswirkung von degenerierten Bandscheiben mit völlig anderem Materialverhalten auf die umgebenden gesunden Teilstrukturen. Weitere Krankheitsbilder wie schwache Bänder, Wirbelgleiten, Knochenveränderungen oder auch der Einfluss von operativen Maßnahmen wie Versteifung einzelner Abschnitte oder die Einsetzung von Implantaten können damit simuliert werden und ermöglichen quantitative Aussagen über die Veränderung der Beanspruchung der angrenzenden Strukturen. Als Beispiel einer Anwendung in der Medizin wurde der Fall einer degenerierten Bandscheibe aufgezeigt. Die Bandscheibe wurde chirurgisch entfernt und durch ein Implantat zur Versteifung ersetzt. Mit Hilfe der Simulationsrechnung wurde die Auswirkung der Versteifung auf die Deformation der angrenzenden Bandscheiben und die veränderte Kraftentwicklung dargelegt.
This paper proposes model-driven techniques to extend IBM- SOMA method towards migrating legacy systems into Service-Oriented Architectures (SOA). The proposal explores how graph-based querying and transformation techniques enable the integration of legacy assets into a new SOA. The presented approach is applied to the identification and migration of services in an open source Java software system.
Hybrid systems are the result of merging the two most commonly used models for dynamical systems, namely continuous dynamical systems defined by differential equations and discrete-event systems defined by automata. One can view hybrid systems as constrained systems, where the constraints describe the possible process flows, invariants within states, and transitions on the one hand, and to characterize certain parts of the state space (e.g. the set of initial states, or the set of unsafe states) on the other hand. Therefore, it is advantageous to use constraint logic programming (CLP) as an approach to model hybrid systems. In this paper, we provide CLP implementations, that model hybrid systems comprising several concurrent hybrid automata, whose size is only straight proportional to the size of the given system description. Furthermore, we allow different levels of abstraction by making use of hierarchies as in UML statecharts. In consequence, the CLP model can be used for analyzing and testing the absence or existence of (un)wanted behaviors in hybrid systems. Thus in summary, we get a procedure for the formal verification of hybrid systems by model checking, employing logic programming with constraints.
The lack of a formal event model hinders interoperability in distributed event-based systems. Consequently, we present in this paper a formal model of events, called F. The model bases on an upper-level ontology and pro-vides comprehensive support for all aspects of events such as time and space, objects and persons involved, as well as the structural aspects, namely mereological, causal, and correlational relationships. The event model provides a flexible means for event composition, modeling of event causality and correlation, and allows for representing different interpretations of the same event. The foundational event model F is developed in a pattern-oriented approach, modularized in different ontologies, and can be easily extended by domain specifific ontologies.
Rissmuster enthalten zahlreiche Informationen über die Entstehung der Risse und können für die Technik oder die Kulturgeschichte von großem Wert sein. So vereinfacht etwa die automatische oder halbautomatische Klassifizierung von Abbildungen solcher Rissmuster die Echtheitsprüfung antiker Artefakte oder die Materialforschung. Teilweise existieren bereits Klassifizierungsverfahren, die sich für die computergestützte Auswertung einsetzen lassen. Da es bislang kein Verfahren zur objektivierten Auswertung und Analyse von Rissmustern gab, entstand 2007 in Zusammenarbeit mit der Stuttgarter Staatlichen Akademie der Bildenden Künste das Projektpraktikum Rissmusteranalyse (Primus), das die automatische Klassifikation von Rissmuster-Aufnahmen ermöglicht. Daran angebunden sollte ein Datenbanksystem die Bilder samt ihrer Analyseergebnisse verwalten und darstellen können. Eine einfach zu bedienende grafische Benutzeroberfläche soll verschiedene Methoden anbieten, die mit jeweils unterschiedlichen Bildverarbeitungsverfahren eine robuste Klassifikation der Rissmuster und den anschließenden Transfer in die Datenbank ermöglichen. Zunächst werden die aktuelle Situation des Projektes Primus und dessen grundlegende Strukturen dargestellt, unter besonderer Berücksichtigung der verwendeten Programmiersprache Qt. Den Schwerpunkt der Arbeit bildet das Redesign der Benutzeroberfläche und deren Erweiterung um neue Komponenten wie Qt-Objekte und einen separaten Tracer.
Diese Diplomarbeit präsentiert ein interaktives System, welches die Vorzüge eines handelsüblichen Whiteboards mit denen eines Computers kombiniert. Die Inhalte des Whiteboards werden von einer Kamera aufgenommen, vom Computer verarbeitet und für eine Applikation als Eingabe verwendet bzw. durch geeignete Grafiken ergänzt. Dadurch erweitert das Whiteboard die Benutzeroberfläche des Computers. Der Anwender ist in der Lage über handgezeichnete Primitive (Viereck, Dreieck, Kreis) bzw. Kombinationen der Primitive das entwickelte interaktive Spiel zu spielen.
Die Motivation für diese Arbeit bestand darin, den Studierenden in den Rechnerpools der Universität Koblenz die Möglichkeit zu geben, mit der Simulationssoftware VNUML (Virtual Network User Mode Linux) zu arbeiten. Eingesetzt wird diese Software in den Vorlesungen und Übungen zu Rechnernetzen I und II, was eine Anwendung der Software für die Studenten unumgänglich macht. In der Vergangenheit gab es jedoch immer wieder Probleme bei der Installation und Einrichtung auf den privaten Rechnern, obwohl in früheren Studienarbeiten mehrfach vereinfachte Installationsroutinen entwickelt worden waren. Ein weiteres Problem für die Verwendung von VNUML stellt auch die Tatsache dar, dass die Software nur in einer Linux-Umgebung lauffähig ist. Da aber nicht alle Studierenden das Betriebssystem Linux benutzen und viele vor einer Installation allein zur Verwendung von VNUML zurückschrecken, war es schon länger angedacht, diese Software an den Rechnern der Universität zur Verfügung zu stellen. In dieser Arbeit wird der Prozess beschrieben, wie eine Installation der VNUML-Software in den Rechnerpools möglich war, welche Probleme dabei aufgetreten sind und welche Alternativen zur gewählten Vorgehensweise möglich gewesen wären. Das Ergebnis bietet auch eine sehr einfache Installation für den privaten Anwender, ohne dass hierfür eine eigenständige Linux-Installation nötig wäre. Auch wurden während der Entwicklung immer weitere Verbesserungen vorgenommen, welche die Anwenderfreundlichkeit der endgültigen Lösung weiter erhöhten. Die Möglichkeiten und Ideen sind dabei auch so vielfältig, dass sich die Arbeitsgruppe noch weiter mit diesem Thema beschäftigen wird und weitere Optimierungen vorgenommen werden können.
Experten der Praxis haben zur Wirkung von Heimerziehung ihre Meinung. Die Einschätzung der Adressaten verhält sich dazu nicht immer deckungsgleich. In der vorliegenden Arbeit arbeitet der Autor im fallinterpretativen-hermeneutischen Untersuchungsdesign die Konstruktionen von jungen Menschen, die im Heim leben zu ihren persönlichen Wirkungsvorstellungen und "überzeugungen bzgl. der Ursachen ihrer eigenen Veränderung und Entwicklung heraus. Diese Konstruktionen werden in Bezug gesetzt zu den aktuellen Ergebnissen aus der Heimerziehungsforschung. Diese Befunde werden ins Verhältnis gesetzt mit den Ergebnissen aus der vorliegenden Untersuchung und dadurch untermauert, konkretisiert, ergänzt und erweitert. Daraus werden Folgerungen für die Praxis abgeleitet. Das Zusammenspiel von konzeptionellem Rahmen, Strukturen und Bedingungen der Heimerziehung wird im Zusammenhang mit den Interessen, den Aneignungsbemühungen und den Selbstwirksamkeitserfahrungen der Adressaten diskutiert und dargestellt Die aus der Untersuchung erwachsenen Ableitungen werden im historischen Aufriss des Pädagogischen Bezugs reflektiert, mit dem Versuch einer aktuellen Ortsbestimmung der Pädagogischen Beziehung. Außerdem werden die Grundzüge der Positive Peer Culture wiedergegeben und mit Praxisbeispielen illustriert