Filtern
Erscheinungsjahr
- 2011 (123) (entfernen)
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (41)
- Diplomarbeit (27)
- Dissertation (23)
- Bachelorarbeit (17)
- Studienarbeit (9)
- Masterarbeit (3)
- Konferenzveröffentlichung (2)
- Sonstiges (1)
Schlagworte
- computer clusters (4)
- OWL <Informatik> (3)
- Ontologie <Wissensverarbeitung> (3)
- Vorlesungsverzeichnis (3)
- parallel algorithms (3)
- Data Mining (2)
- Google App Engine (2)
- Google Web Toolkit (2)
- Information Retrieval (2)
- Inklusion (2)
Institut
- Fachbereich 4 (65)
- Zentrale Einrichtungen (13)
- Institut für Wirtschafts- und Verwaltungsinformatik (12)
- Institut für Informatik (11)
- Institute for Web Science and Technologies (7)
- Institut für Computervisualistik (6)
- Fachbereich 8 (4)
- Institut für Pädagogik, Abteilung Pädagogik (3)
- Institut für Softwaretechnik (3)
- Fachbereich 5 (2)
- Fachbereich 7 (2)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (2)
- Institut für Psychologie (2)
- Institut für Sportwissenschaft (2)
- Institut für Management (1)
This paper documents the development of an abstract physics layer (APL) for Simspark. After short introductions to physics engines and Simspark, reasons why an APL was developed are explained. The biggest part of this paper describes the new design and why certain design choices were made based on requirements that arose during developement. It concludes by explaining how the new design was eventually implemented and what future possibilities the new design holds.
Diese Arbeit hat die Entwicklung eines Verfahrens zum Ziel, dass Bewegung und auftretende Bewegungsunschärfe durch Verfahren des Non-Photorealistic Renderings darstellt. Dabei soll das angestrebte Verfahren den Verlauf der Bewegung für ein dargestelltes Bild ermitteln und mit Speed Lines annähern. Das sich bewegende Objekt bzw. der sich bewegende Teil des Objekts wird abhängig von der Stärke der Bewegung teilweise bis komplett ausgeblendet. Das Verfahren soll echtzeitfähig sein. Aufgrund von vorgestellten Verfahren im Bereich NPR und Motion Blur entwickelt die Arbeit eigene Ansätze, die die genannten Anforderungen umsetzen. Dabei beachtet die Arbeit zwei Aspekte: Sie nimmt so wenige Änderungen wie möglich am verwendeten Szenegraphen vor und führt nach Möglichkeit zur Laufzeit keine Berechnungen auf Seiten der CPU durch. So soll ein Verfahren entstehen, das als Post-Processing Verfahren in Anwendungen integriert werden kann, interaktive Wiederholungsraten ermöglicht und damit auch in Spielen zur Anwendung kommen kann.
Das Integrationspotenzial des Sports am speziellen Beispiel des Rollstuhlbasketball von Simone Janda "Integration ist eine ständige Aufgabe. Insofern kann es kein Ziel im Sinne eines Ergebnisses geben. Vielmehr geht es darum, Prozesse, die zu einer erfolgreichen Integration führen, immer besser zu verstehen, sie weiterzuentwickeln und sie vor allem an die sich ständig verändernden Rahmenbedingungen anzupassen" (DOSB 2009: 5).
Trotz traditioneller Zuschreibung sozial-integrativer Funktionen an sportliche Aktivität gibt es sowohl erhebliche empirische als auch theoretische Defizite (vgl. Hoffmann 2002), die in der vorliegenden Arbeit behandelt werden. In einer differenzierten Analyse werden verschiedene Integrationsaspekte und die Rahmenbedingungen integrativer sportlicher Aktivität berücksichtigt.
Da dem Sport eine besondere integrierende Funktion zugeschrieben wird und diese sozialen Prozesse vor allem in Gruppen stattfinden, soll in dieser Arbeit das Potenzial einer Mannschaftssportart untersucht werden, die für Menschen mit und ohne Behinderung gleichermaßen zugänglich ist " der Rollstuhlbasketball. Neben der körperlichen Belastung kommen hier in besonderem Maße soziale Faktoren hinzu, die das Gemeinschaftsgefühl im Mannschaftsverbund stärken und Individuen in ein soziales Gefüge integrieren können.
Aus der geschilderten Problematik ergibt sich folgende übergeordnete Fragestellung für die Untersuchung: Was macht das Integrationspotenzial einer Sportart (am Beispiel des Rollstuhlbasketballs) aus? Es stellt sich die Frage, welche Faktoren eine Sportart erfüllen muss, um integrativ ausgeführt werden zu können bzw. welche Schwierigkeiten und Hürden dabei überwunden werden müssen, um behinderten und nichtbehinderten Menschen gleichermaßen gerecht zu werden und deren speziellen Bedürfnisse zu befriedigen. In dieser Studie erfolgt die Datenerhebung durch die Kombination von qualitativer (Interviews) und quantitativer (Fragebogen) Forschungsmethoden. Diese Verknüpfung verschiedener Forschungsmethoden ermöglicht es, dass Messungen aus unterschiedlichen Blickwinkeln und individuelle Betrachtungsweisen möglichst vollständig erfasst werden können. Der Nutzen für die Wissenschaft liegt darin, eine aktuelle Situationsanalyse in Form eines Modells zu erstellen, um die Rahmenbedingungen, die ständigen Veränderungen unterliegen, weiterzuentwickeln und zu verbessern, um Menschen mit Behinderung ein maximal inklusives Sportangebot bieten zu können.
In diesem Arbeitsbericht werden zuvor nicht identifizierte Bedrohungen bezüglich des Wahlgeheimnisses des in [BKG11] vorgeschlagenen Konzeptes zur Authentifizierung von Wählern bei elektronischen Wahlen mittels des neuen Personalausweises aufgezeigt. Überdies wird mit der Einführung einer zwischengelagerten Anonymisierungsschicht eine Lösung vorgeschlagen, wie eben diese Bedrohungen abgewehrt werden können.
Designing Core Ontologies
(2011)
One of the key factors that hinders integration of distributed, heterogeneous information systems is the lack of a formal basis for modeling the complex, structured knowledge that is to be exchanged. To alleviate this situation, we present an approach based on core ontologies. Core ontologies are characterized by a high degree of axiomatization and formal precision. This is achieved by basing on a foundational ontology. In addition, core ontologies should follow a pattern-oriented design approach. By this, they are modular and extensible. Core ontologies allow for reusing the structured knowledge they define as well as integrating existing domainrnknowledge. The structured knowledge of the core ontologies is clearly separated from the domain-specific knowledge. Such core ontologies allow for both formally conceptualize their particular fields and to be flexibly combined to cover the needsrnof concrete, complex application domains. Over the last years, we have developed three independent core ontologies for events and objects, multimedia annotations, and personal information management. In this paper, we present the simultaneousrnuse and integration of our core ontologies at the example of a complex, distributed socio-technical system of emergency response. We describe our design approach for core ontologies and discuss the lessons learned in designing them. Finally, we elaborate on the beauty aspects of our core ontologies.
The estimation of various social objects is necessary in different fields of social life, science, education, etc. This estimation is usually used for forecasting, for evaluating of different properties and for other goals in complex man-machine systems. At present this estimation is possible by means of computer and mathematical simulation methods which is connected with significant difficulties, such as: - time-distributed process of receiving information about the object; - determination of a corresponding mathematical device and structure identification of the mathematical model; - approximation of the mathematical model to real data, generalization and parametric identification of the mathematical model; - identification of the structure of the links of the real social object. The solution of these problems is impossible without a special intellectual information system which combines different processes and allows predicting the behaviour of such an object. However, most existing information systems lead to the solution of only one special problem. From this point of view the development of a more general technology of designing such systems is very important. The technology of intellectual information system development for estimation and forecasting the professional ability of respondents in the sphere of education can be a concrete example of such a technology. Job orientation is necessary and topical in present economic conditions. It helps tornsolve the problem of expediency of investments to a certain sphere of education. Scientifically validated combined diagnostic methods of job orientation are necessary to carry out professional selection in higher education establishments. The requirements of a modern society are growing, with the earlier developed techniques being unable to correspond to them sufficiently. All these techniques lack an opportunity to account all necessary professional and personal characteristics. Therefore, it is necessary to use a system of various tests. Thus, the development of new methods of job orientation for entrants is necessary. The information model of the process of job orientation is necessary for this purpose. Therefore, it would be desirable to have an information system capable of giving recommendations concerning the choice of a trade on the basis of complex personal characteristics of entrants.
Die vorliegende Dissertation untersucht die Entstehung von Dialekten innerhalb des in dieser Arbeit entworfenen Modells einer Multi-Agenten-Simulation, basierend auf neuronalen Netzen. Zunächst werden die linguistischen Grundlagen detailliert dargestellt. Dazu gehört neben der Diskussion einiger Definitionen von Sprache ein Überblick über die sprachlichen Evolutionsstufen, eine Übersicht der Bestandteile menschlicher Hochsprachen mitsamt den bekannten Möglichkeiten ihrer Veränderung und eine Übersicht tierischer Sprachen mit kommunikativer Funktion und ihrer Dialektbildung.
Im Anschluss werden die Grundlagen der Informatik und Mathematik erläutert. Diese umfassen neben den Begriffen Modell und Simulation den Aufbau einer Multi-Agenten-Simulation und die Funktionsweise künstlicher neuronaler Netze. Aus den hier genannten Grundlagen wird daraufhin ausführlich das Simulationsmodell dieser Arbeit hergeleitet und beschrieben.
Die Ergebnisse vieler hundert verschiedener Simulationsdurchläufe werden im Anschluss erläutert. So werden die im Modell definierten Störfaktoren einzeln untersucht und in Werteintervalle mit unterschiedlichen Auswirkungen eingeteilt. Weiterhin werden vorhandene Wechselwirkungen der Faktoren aufgezeigt und der Prozess der Sprachwiedervereinigung nach einer vorherigen Dialektspaltung gezeigt.
Einem Fazit und Ausblick folgen als Anhänge Anforderungsdefinition, Entwurf, Architektur, eine detaillierte Erläuterung der Implementierung und ein englischsprachiges Benutzerhandbuch des Werkzeugs DiaLex. DiaLex ist ein komplett in Java konzipiertes und implementiertes Programm und bietet dem Benutzer die Möglichkeit, den Einfluss verschiedener Störfaktoren auf die Dialektbildung innerhalb einer gemeinsam genutzten Sprache einer oder mehrerer Agentengemeinschaften zu simulieren und zu analysieren.
Die Arbeit entstand im Zeitraum Oktober 2007 bis Juni 2010 an der Universität Koblenz-Landau.
Das Organische Qualitätsmanagement (OQM) hat seine Wurzeln in der "Natürlichen Gemeindeentwicklung" (NGE). Der evangelische Theologe Christian A. Schwarz und der Diplompsychologe Christoph Schalk gingen im Rahmen eines internationalen Forschungsprojektes der Frage nach, ob es universell gültige Prinzipien für das qualitative und quantitative Wachstum von Kirchengemeinden gibt. Diese Studie wurde zu einem der größten Forschungsprojekte, das jemals über das Wachstum von Gemeinden durchgeführt wurde. Bis Februar 2011 wurden in über 70 Ländern 71.512 Profile für Kirchengemeinden unterschiedlichster Prägung und Konfession erstellt.
Das Ergebnis dieser fortschreitenden Studie bietet eine wissenschaftlich zu verifizierende Antwort auf die Frage: "Was sind die Wachstumsprinzipien, die unabhängig von Kultur, theologischer Prägung und Frömmigkeitsrichtung gelten und können sich diese Prinzipien auch positiv auf Non Profit Organisationen und säkulare Wirtschaftsunternehmen anwenden lassen? Kapitel 1 beschreibt zunächst die Entstehung, Herkunft und Entwicklung des OQM, d.h. den Übertragungsprozess aller Erkenntnisse aus der Entwicklung von Kirchengemeinden auf die Realität von kirchlichen Organisationen und später auf die Anforderungen eines Wirtschaftsunternehmens. Kapitel 2 geht ausführlich auf die Beschreibung der acht Qualitätsmerkmale ein. Hierbei stehen weniger die Substantive (Leitung, Mitarbeiter, Strukturen, Beziehungen etc.) im Mittelpunkt, als vielmehr die Adjektive (bevollmächtigend, gabenorientiert, zweckmäßig, vertrauensvoll etc.). Sie beschreiben, auf was es in Veränderungsprozessen wirklich ankommt.
Zu Beginn des Projektes war nicht abzusehen, ob und in welcher Weise sich die Qualitätsmerkmale und die christlichen Sozialprinzipien als Erfolgsfaktoren auch in anderen Unternehmensformen beweisen können. In Kapitel 3 werden Praxisbeispiele zeigen, dass ein dialogisch arbeitendes OQM nicht nur Kirchengemeinden sondern auch caritativen Unternehmen und sogar Wirtschaftsunternehmen helfen kann zu wachsen und somit erfolgreich zu sein.
Ein Zusammenhang zwischen den Rahmenbedingungen, die sich in unterschiedlichen Familienformen zeigen, der elterlichen Erziehung und der Qualität der Familienbeziehungen wurde in der Forschung vielfach gezeigt. Die Hauptfragestellung dieser Arbeit ist: Wie verändert sich die kindliche Wahrnehmung der Familienbeziehungen und des mütterlichen Erziehungsverhaltens im Verlauf nach der Trennung der Eltern im Vergleich mit der in Zweielternfamilien? Im ersten Schritt der Untersuchung geht es um die kindliche Perzeption der Veränderung der Familienbeziehungen " also der gefühlsmäßig wahrgenommenen Familienstruktur " innerhalb der Zeit nach der Trennung der Eltern im Vergleich mit den Kindern einer Kontrollgruppe, die in Zweielternfamilien leben. Im zweiten Schritt erfolgt die Analyse der Wahrnehmung des mütterlichen Erziehungsverhaltens und zwar sowohl aus Sicht der Mütter als auch aus Sicht der Kinder. Im letzten Teil der Arbeit werden der Familienstand, das Geschlecht des Kindes und die Perzeption des Erziehungsverhaltens als Prädiktoren für die Wahrnehmung der Familienbeziehungen betrachtet. Zur Klärung dieser Fragestellungen wurden 39 Kinder aus Einelternfamilien und 42 Kinder aus Zweielternfamilien mit Testverfahren untersucht. Eingesetzt wurden der Family Relations Test in der deutschen Fassung von Flämig und Wörner (1977) und der Zürcher Kurzfragebogen zum Erziehungsverhalten von Reitzle et al. (in der Version von 2001).
Das Konstrukt der wahrgenommenen Kundendiskriminierung und seine Auswirkungen auf den Kunden sind trotz ihrer Bedeutung für den dauerhaften Erfolg von Dienstleistungsunternehmen bisher verhältnismäßig selten Gegenstand der betriebswirtschaftlichen Forschung gewesen. Existierende, zumeist sozialwissenschaftliche Untersuchungen aus den USA belegen zwar die Existenz von Diskriminierung in verschiedenen Dienstleistungskontexten, jedoch weist die bestehende Literatur einige Lücken auf. So liegen bisher primär qualitative und fallbasierte Arbeiten zu Kundendiskriminierung vor, die eine Verallgemeinerung der Befunde erschweren. Zudem geben solche Untersuchungen zwar Aufschluss über die Entstehung und die Wahrnehmung von Diskriminierung aus der Perspektive der Kunden, jedoch liefern sie dem Management von Dienstleistungsunternehmen keine hilfreichen Mittel zur Überprüfung der Existenz von Diskriminierung im Kundenkontakt des eigenen Unternehmens. Ein Mangel ist vor allem hinsichtlich der Messung von wahrgenommener Kundendiskriminierung sowie der Analyse ihrer Konsequenzen festzustellen. Ziel der vorliegenden Arbeit ist es, ein reflektives Instrument zur Messung von wahrgenommener Kundendiskriminierung zu entwickeln und zu validieren. Die vorliegende Arbeit entwickelt zunächst ein literaturbasiertes Verständnis von wahrgenommener Kundendiskriminierung, wobei von einer dreidimensionalen Konzeptualisierung des Konstrukts ausgegangen wird. Auf Basis dieser dreidimensionalen Konzeptualisierung wird in einer ersten Studie, mittels qualitativer und quantitativer Methoden, ein Instrument zur Messung von wahrgenommener Kundendiskriminierung mit den Dimensionen "offene Diskriminierung", "auf das Dienstleistungsniveau bezogene Diskriminierung" und "subtile Diskriminierung" entwickelt. Aufbauend auf dieser dreidimensionalen Konzeptualisierung von wahrgenommener Kundendiskriminierung werden wirkungsbezogene Hypothesen formuliert und zum Zweck der nomologischen Skalenvalidierung kausalanalytisch überprüft (Studie 1). Anschließend wird die prädiktive Validität der Skala mit einer weiteren Stichprobe überprüft und eine Extremgruppenvalidierung durchgeführt (Studie 2). Zur erneuten Bestätigung der Drei-Dimensionalität der Skala und der nomologischen Validität werden in einer weiteren Studie Dyaden aus Servicemitarbeitern und Kunden mittels Fragebogens befragt (Studie 3). Abschließend werden praxis- und forschungsbezogene Implikationen der Ergebnisse erörtert.
Folksonomien sind Web 2.0 Plattformen, in denen Benutzer verschiedene Inhalte miteinander teilen können. Die Inhalte können mit Hilfe von Stichwörtern, den sogenannten Tags, kategorisiert und organisiert werden. Die verschiedenen Folksonomien unterstützen unterschiedliche Inhaltstypen wie zum Beispiel Webseiten (Delicious), Bilder (Flickr) oder Videos (YouTube). Aufgrund ihrer einfachen Benutzungsweise haben Folksonomien viele Millionen Benutzer. Die einfache Benutzungsweise führt aber auch zu einigen Problemen. Diese Doktorarbeit beschäftigt sich mit drei der wichtigsten Probleme und beschreibt Methoden, wie sie gelöst werden können. Das erste dieser Probleme tritt auf, wenn Benutzer die Folksonomien nach bestimmten Inhalten durchsuchen wollen. Häufig können dabei nicht alle relevanten Inhalte gefunden werden, da diesen relevante Stichwörter fehlen. Dementsprechend tritt das zweite Problem während der Vergabe von Stichwörtern auf. Manche Folksonomien, wie zum Beispiel Delicious, unterstützen ihre Benutzer dabei, indem sie ihnen mögliche Stichwörter empfehlen. Andere Folksonomien, wie zum Beispiel Flickr, bieten keine solche Unterstützung. Die Empfehlung von Stichwörtern hilft dem Benutzer dabei, Inhalte auf einfache Art und Weise mit den jeweils relevanten Stichwörtern zu versehen. Das dritte Problem besteht darin, dass weder Stichwörter noch Inhalte mit einer festen Semantik versehen sind und mehrdeutig sein können. Das Problem entsteht dadurch, dass die Benutzer die Stichwörter vollkommen frei rnverwenden können. Die automatische Identifizierung der Semantik von Stichwörtern und Inhalten hilft dabei, die dadurch entstehenden Probleme zu reduzieren. Diese Doktorarbeit stellt mehrere Methoden vor, wie verschiedene Quellen für semantische Informationen benutzt werden können, um die vorher genannten drei Probleme zu lösen. In dieser Doktorarbeit benutzen wir als Quellen Internetsuchmaschinen, soziale Netzwerke im Internet und die gemeinsamen Vorkommen von Stichwörtern in Folksonomien. Die Verwendung der verschiedenen Quellen reduziert den Aufwand bei der Erstellung von Systemen, die die vorher genannten Probleme lösen. Die vorgestellten Methoden wurden auf einem großen Datensatz evaluiert. Die erzielten Ergebnisse legen nahe, dass semantische Informationen bei der Lösung der Probleme helfen, die während der Suche von Inhalten, der Empfehlung von Stichwörtern als auch der automatischen Identifizierung der Semantik von Stichwörtern und Inhalten auftreten.
In dieser Diplomarbeit wurde eine Echtzeitanwendung entwickelt, die Gras darstellt und zugleich äußere Einflüsse wie Wind oder Kollisionen auf das Gras berücksichtigt. Ein Level-of-Detail-System ermöglicht die Darstellung und Physiksimulation einer großen Wiese in drei Stufen. Semi-transparente Texturquads zur Darstellung und Partikel mit Constraints an der Stelle der Graspatches stellen die feinste Detailstufe in allernächster Nähe zum Betrachter dar. Die Partikel, die nur auf der feinsten Detailstufe verwendet werden, werden mittels einer Physik-Engine berechnet und reagieren auf verschiedene Starrkörper. Die zweite Detailstufe besteht ebenfalls aus Texturquads, die um das erste Detaillevel herum generiert werden. Diese sind jedoch spärlicher verteilt, sehen auf Grund der Distanz zum Betrachter allerdings identisch mit denen aus der ersten Stufe aus. Als letzte Repräsentationsform von Gras kommt eine einfache Bodentextur zur Anwendung. Durch dieses Level-of-Detail-System ist es möglich eine unendlich große Wiese zu simulieren, da die Gräser zur Laufzeit generiert werden. Ein umfangreiches Benutzerinterface ermöglicht die Veränderung einiger Simulationsparameter in Echtzeit und die Generierung verschieden großer Rasenflächen. Zusätzlich lassen sich verschiedene Objekte in der Simulationsumgebung bewegen um die Kollisionsbehandlung testen zu können.
Bislang mangelt es an Forschung zur Führung durch Selbstführung, ein laut Manz und Sims (2007) für die modernen Arbeitsbedingungen des 21. Jahrhunderts adäquater Führungsansatz. Zudem findet dieses Führungsverhalten in der Praxis bisher noch wenig Verbreitung (vgl. Butzmann, 2008; Jilg, 2010). Dies verdeutlicht, dass ein erheblicher Bedarf an Förderung und Training von Führung durch Selbstführung besteht. In diesem Zusammenhang wären zum einen Kenntnisse darüber von Vorteil, welche Eigenschaften und Kompetenzen für den Erwerb dieses Führungsverhalten prädisponieren. Zum anderen wäre eine empirische Fundierung der Erfolgsrelevanz von Führung durch Selbstführung interessant.
Anliegen vorliegender Arbeit ist, hierzu einen Beitrag zu leisten. Auf eignungsspezifischer Seite wurden das unternehmerische Eignungspotential sowie die individuelle Selbstführungskompetenz untersucht. Auf erfolgsspezifischer Seite wurde Führung durch Selbstführung sowohl mit dem objektiven Unternehmenserfolg als auch mit der Arbeitszufriedenheit und dem Wohlbefinden, als Indikatoren des subjektiven Unternehmenserfolgs, in Beziehung gesetzt. Die Untersuchung erfolgte an einer Stichprobe von N = 102 beruflich selbstständige Personen. Aufgrund der sehr homogenen Stichprobenzusammensetzung in Bezug auf das unternehmerische Eignungspotential sowie einer eingeschränkten Messqualität einer der Skalen zur Erfassung von Führung durch Selbstführung konnten einige der aufgestellten Hypothesen nicht bestätigt werden. Ein explorativ getestetes Modell, aus welchem diese kritischen Skalen bzw. Variablen entfernt wurden, weist allerdings einen sehr guten ModellFit auf und bestätigt weitestgehend die postulierten Zusammenhänge zwischen der individuellen Selbstführungskompetenz, Führung durch Selbstführung sowie den subjektiven und objektiven Erfolgsindikatoren. Zu beachten ist, dass dieses Modell aufgrund seines explorativen Charakters erst nach seiner erfolgreichen Replizierung als bestätigt angesehen werden darf, wobei die gefundenen Ergebnisse zu weiterführenden Untersuchungen im Bereich der Führung-durch-Selbstführungsforschung ermutigen.
Die Arbeit zeigt die Entwicklung einer virtuellen Welt als Facebook App. Grundlage bietet hierfür ein Szenengraph, der an die Anforderungen der virtuellen Welt angepasst wurde. Bei der Entwicklung liegt ein Schwerpunkt auf neuer und zum Teil noch experimenteller Web-Technologie (Google Web Toolkit, Google App Engine). In der virtuellen Welt schlüpft der Benutzer in die Rolle eines Avatars. Er kann Räume seiner Facebook-Freunde besuchen, seinen eigenen Raum gestalten und neue 3D-Modelle für den Avatar oder die Inneneinrichtung in die virtuelle Welt hochladen.
Die vorliegende Untersuchung beschäftigt sich zentral mit der Frage, in wieweit es möglich ist, durch eine transkranielle Elektrostimulation während des Schlafs bei Patienten mit idiopathischem Parkinsonsyndrom (IPS) auf die Schlafqualität bzw. auf den Prozess der Gedächtniskonsolidierung Einfluss zu nehmen. Ausgehend von der Überlegung, dass bei dieser neurologischen Erkrankung Defizite sowohl im Bereich der Schlafqualität als auch der kognitiven Leistungsfähigkeit beobachtet werden können, wurde die Möglichkeit untersucht, entsprechende, bei jungen gesunden Erwachsenen vorbekannte Stimulationseffekte auf IPS-Patienten zu übertragen. Die Intervention bestand aus einer transkraniellen "Slow-Oscillation-Stimulation". Zielvariablen waren die Schlafqualität, in erster Linie operationalisiert über den Anteil an Slow-Wave-Sleep und die kognitive Leistung, gemessen am Lernerfolg in verschiedenen Lernaufgaben. Zur Anwendung kam dabei sowohl visuell verbales als auch non-verbales Lernmaterial, wobei die Aufgaben hauptsächlich den Bereich des deklarativen Gedächtnisses berührten. Es zeigte sich jedoch, dass bekannte Stimulationseffekte weder bei IPS-Patienten, noch bei gleichaltrigen Gesunden nachweisbar sind und daher die prinzipielle Übertragbarkeit bestehender Ergebnisse in Frage gestellt werden muss. Die Gründe hierfür erscheinen vielfältig und werden an entsprechender Stelle diskutiert.
Zahlreiche Untersuchungen weisen darauf hin, dass die Kombination von Texten und Bildern beim Wissenserwerb zu besseren Lern- und Behaltensleistungen führt, als wenn nur mit Texten gearbeitet wird. Dieser Multimediaeffekt ist häufig auch dann zu beobachten, wenn beispielsweise Schüler oder Studierende Bild und Text sequenziert lernen. Einige Arbeiten haben dabei gezeigt, dass die Reihenfolge, in der die beiden Formate verarbeitet werden, großen Einfluss auf den Wissenserwerb hat. Erfolgt die Präsentation des Bildes vor dem Text, gelingt es den Lernenden in der Regel mehr Fakten zu erinnern. Das Phänomen des picture-text-sequencing-Effekts wurde von zwei Forschern aufgegriffen und anhand alternativer Theoriemodelle auf unterschiedliche Weise erklärt. Während einer der Autoren kapazitätsspezifische Merkmale der mentalen Repräsentation des Bildes als Ursache ansieht, macht der andere Autor Interferenzen für den Einfluss der Verarbeitungsreihenfolge verantwortlich. Das Ziel der Arbeit war es daher, zu untersuchen, welcher der beiden Ansätze der Wahrheit am ehesten entspricht. Zu diesem Zweck wurde eine Studie durchgeführt, bei der Verarbeitungsreihenfolge und Informationverhältnis beim Lernen mit multiplen Repräsentationen experimentell variierte. Das Stimulusmaterial bestand aus Texten und Bildern zur Geodynamik, die in einer komplementären und einer kongruenten Version vorlagen. Anders als erwartet, zeigte sich jedoch kein eindeutiges Ergebnis, obwohl die Analyse der Lernzeiten letztlich gegen die Annahme eines besonderen Kapäzitätsvorteils sprach. Eine Anschlussuntersuchung erbrachte die Möglichkeit, Personen, die Texte und Bilder erhalten hatten, mit Teilnehmern zu vergleichen, die nur auf ein Format zurückgreifen konnten. Die Auswertungen ergab Unterschiede hinsichtlich der mentalen Belastung bei äquivalenten Leistungen im Wissenstest. Interpretiert wurden diese Resultate als Hinweis für das Auftreten von Interferenzen, die immer dann entstanden, wenn die Versuchspersonen das Bild nach dem Text lernten. In diesem Zusammenhang hatte die dritte und letzte Untersuchung den Zweck, weitere Belege für die Interferenzannahme zu finden. Anhand von Blickbewegungsparametern, die während des sequenzierten Lernens mit den Texten und Bildern erhoben worden waren, konnten jedoch keine Unterschiede festgestellt werden. Insgesamt ließ sich die Schlussfolgerung ziehen, dass hinsichtlich des sequenzierten Lernens mit Texten und Bildern weiterhin ein großer Spielraum für zusätzliche Forschungsarbeiten besteht.
Diese Bachelorarbeit beschäftigt sich im Wesentlichen mit dem Entwurf und der Implementierung einer Manöverdatenstruktur für Car-like Robots. Diese Datenstruktur soll die Planung von fahrbaren Wegen mit kontinuierlicher Lenkwinkeländerung ermöglichen. Dabei stehen entsprechende Kurvenmanöver, die aus zwei Klothoiden und einem Kreisbogen bestehen, im Vordergrund.
Zudem liegt ein Schwerpunkt auf der Entwicklung eines Konzepts zur Berechnung einer Hülle für entsprechende Manöver. Diese Hülle umschließt die Fläche, die das Fahrzeug bei der Ausführung eines Manövers einnimmt. Die Hülle ermöglicht es, beim koordinierten Fahren mit mehreren Fahrzeugen Kollisionsfreiheit zu garantieren. Auf der Manöverdatenstruktur aufbauend wird im Rahmen dieser Bachelorarbeit zudem ein Planungsmodul entworfen und implementiert, das zu vorgegebenen groben Wegen fahrbare, aus Manövern zusammengesetzte Wege erzeugt.
Ziel dieser Arbeit ist es, Techniken zu zeigen, die es ermöglichen in der heutigen Zeit ohne besonderen Mehraufwand große und authentische Spielewelten zu schaffen. Nicht nur das räumliche Ausmaß der Welt soll ohne zusätzlichen Aufwand wachsen, sondern auch der Abwechslungsreichtum und somit Wiederspielwert soll ansteigen. All dies soll am Szenario einer futuristischen Großstadt gezeigt werden. Bereits die US-amerikanische Spielefirma Blizzard Entertainment Incorporated hat mit der Spielereihe Diablo gezeigt, dass es möglich ist, authentische Welten aus einem kleinen Vorrat von Bausteinen zu erzeugen, so dass diese Welten qualitativ hochwertig sind und einen enormen Wiederspielwert besitzen.
Die RoboCup Rescue Liga wurde mit dem Ziel eines internationalen Austauschs zur Entwicklung von Rettungsrobotern gegründet. In Katastrophenregionen sollen diese Roboter verschüttete Opfer orten, deren gesundheitliche Verfassung erkennen und diese Informationen rechtzeitig an Rettungskräfte weitergeben.
An der Universität Koblenz wird seit mehreren Jahren der Rettungsroboter Robbie entwickelt. Über die gezielte Ansteuerung von Sensoren kann er Informationen über seine Umgebung sammeln und mit Hilfe dieser Informationen autonom in unbekannten Regionen agieren. Dafür erstellt Robbie eine 2D-Karte seiner Umgebung, um anhand dieser Karte navigieren und sich selbst lokalisieren zu können. Diese Karte stößt allerdings bei der Navigation über unebenes Gelände (wie z.B. Geröllhaufen) und spätestens in mehrschichtigen Katastrophengebieten auf ihre Grenzen, weswegen eine 3D-Kartierung benötigt wird.
Anhand des RoboCup Rescue Szenarios wird im Rahmen dieser Bachelorarbeit ein 3D-Kartierungsalgorithmus implementiert und hierfür die Probleme der 2D- und 3D-Kartierung ausführlich untersucht.
Haushaltsroboter gewinnen in heutiger Zeit immer mehr an Bedeutung. Sie finden ihren Einsatz zum Beispiel beim Reinigen von Böden, beim Mähen des Rasens oder helfen bei der Überwachung in Gebäuden oder Außenanlagen. Der Mehrheit dieser Roboter fehlt allerdings etwas Entscheidendes, nämlich ein Gesicht.
In dieser Arbeit wird die Entwicklung eines virtuellen, austauschbaren Gesichtes festgehalten, das speziell für den Roboter Lisa der Arbeitsgruppe "Aktives Sehen" der Universität Koblenz entwickelt wurde. Psychologische Studien nach Krach u. a. (2008) haben hierzu gezeigt, dass die Ausstattung solcher Roboter mit Gesichtern die Aufmerksamkeit der Benuzter stärker bindet und ihnen zugleich mehr Intelligenz zugetraut wird.
Computergesichter oder auch Talkingheads finden ihren Einsatz nicht nur bei Robotern, sondern auch in Videospielen oder Animationsfilmen. Allerdings wird in diesen Bereichen die Bewegung und Mimik des Gesichtes meistens per Hand erstellt, was einen festen Bewegungsablauf liefert. Interessanter ist hier der Einsatz in barrierefreien Anwendungen. In diesem Bereich werden aus einem eingehenden Audiosignal die Phoneme extrahiert und den entsprechenden Visemen zugeordnet. Im Rahmen der vorliegenden Arbeit wird dieser Vorgang mit Hilfe des Text-to-Speech-Synthesizer Festival erzielt, wodurch sich die Bewegung der Lippen entsprechend des gegebenen Textes dynamisch verändert.
Aber nicht nur die korrekte Bewegung der Lippen spielt eine wichtige Rolle, sondern auch die Emotionen. Mit Hilfe einer bestimmten Emoticon-Arithmetik, die dem zu synthetisierenden Text beigefügt wird, ist die Visualisierung der Emotionen möglich.