Filtern
Erscheinungsjahr
- 2016 (50) (entfernen)
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (17)
- Dissertation (12)
- Bachelorarbeit (9)
- Diplomarbeit (6)
- Masterarbeit (5)
- Bericht (1)
Sprache
- Deutsch (50) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (4)
- Raytracing (2)
- Abwasser (1)
- Analytischer Hierarchieprozess (1)
- Animationsfilm (1)
- Archäologie (1)
- Augmented Reality (1)
- Begutachtung (1)
- Betriebspädagogik (1)
- Bewertungssystem (1)
- Boden (1)
- Bounding Volume Hierarchie (1)
- Controlling (1)
- Dialog (1)
- Diskurs (1)
- Dispositiv (1)
- Distanzfeld (1)
- Echtzeit-Interaktion (1)
- Entscheidungstheorie (1)
- Eurokrise (1)
- Filmdarstellung (1)
- Filmfiguren (1)
- Filmgestalt (1)
- Finanzpolitik (1)
- Fiskalpolitik (1)
- Foucault, Michel (1)
- Führung (1)
- Gamebased (1)
- Gamebasiertheit (1)
- Genealogie (1)
- Grundschule (1)
- Halbschatten (1)
- Haushaltspolitik (1)
- IT security analysis (1)
- Implizite Oberfläche (1)
- Indirekte Beleuchtung (1)
- Inhaltsanalyse (1)
- Kohärenz (1)
- Kommunikation (1)
- Kultur (1)
- LIBS (1)
- Laserinduzierte Plasmaspektroskopie (1)
- Macht (1)
- Management (1)
- Medialität (1)
- Medium (1)
- Messung der Ökoeffizienz (1)
- Meteor (1)
- Nutzerzufriedenheit (1)
- OMW (1)
- Olivenölproduktion (1)
- Quantitative Inhaltsanalyse (1)
- Rationalität (1)
- Ray Tracing (1)
- Regieren (1)
- Risiko (1)
- Servicepersonal (1)
- Sozialgericht (1)
- Staatsschuldenkrise (1)
- Technology Acceptance Model (1)
- Tourism (1)
- Tourismus (1)
- Ultraschall (1)
- Umweltleistungsbewertung (1)
- Virtual Reality (1)
- Wissen (1)
- Wäschereibranche (1)
- Zeichentrickfilm (1)
- area light (1)
- behavior of employers (1)
- e-service quality (1)
- externe Repräsentationen (1)
- identification of organization (1)
- line space (1)
- mobile phones (1)
- multikriterielles Bewertungssystem (1)
- olive oil mill wastewater (1)
- personality characteristics (1)
- privacy protection (1)
- problemhaltige Textaufgaben (1)
- rationality (1)
- raytracing (1)
- reputation of company (1)
- sensor data (1)
- social networks (1)
- social system (1)
- soft shadow (1)
- soziales System (1)
- stationäre Pflege (1)
- traffic survey (1)
- Öko-Effizienz (1)
- Ökoeffizienz (1)
Institut
In this article we analyze the privacy aspects of a mobile sensor application used for recording urban travel patterns as part of a travel-survey service. This service has been developed and field-tested within the Live+Gov EU Project. The privacy analysis follows a structured approach established in. Eight privacy recommendations are derived, and have already led to corresponding enhancements of the travel-survey service.
Die Reputation von Unternehmen ist einer zunehmenden Gefahr ausgesetzt, die sich aus der (unreflektierten) Nutzung sozialer Netzwerke durch die eigenen Mitarbeiter ergibt. Die Treiber und Hemmnisse eines solchen Nutzerverhaltens von Arbeitnehmern in sozialen Netzwerken wurden bislang nur unzureichend erforscht. Der vorliegende Beitrag untersucht unter Verwendung der Boundary Theorie am Beispiel der Plattform Facebook, inwieweit die Persönlichkeitsmerkmale Neurotizismus und Extraversion, die Organisationsidentifikation und die Unternehmensreputation ein zustimmendes Verhalten von Nutzern begünstigen. Eine experimentelle Online-Studie mit 494 Probanden zeigt, dass insbesondere eine hohe Unternehmensreputation und Organisationsidentifikation zu einem erhöhten zustimmenden Verhalten führen.
Ein zentrales Problem der stationären Behandlung psychischer und psychosomatischer Störungen ist die Nachhaltigkeit von Therapieerfolgen. Im Rahmen einer Pilotstudie wurde ein SMS-basiertes Nachsorgeprogramm zur Modifikation Perfektionismus-bezogener Kognitionen im Anschluss an eine stationäre Behandlung von Burnout-Patienten evaluiert.
Es handelte sich um eine kontrollierte Verlaufsstudie mit vier Messzeitpunkten (Aufnahme, Entlassung, 6 und 10-Wochen-Katamnese). Die Patienten der Versuchsgruppe (n=31) erhielten zusätzlich zur Routine-Behandlung eine 6-wöchige kognitiv ausgerichtete individualisierte SMS-Nachsorge. Als Kontrollgruppe (n=30) diente eine Gruppe von Patienten mit einer stationären Routine-Behandlung. Zur Erfassung der Burnout-Symptomatik wurde das Maslach Burnout Inventory General Survey (MBI-GS-D) eingesetzt, die depressive Symptomatik wurde mit dem Beck-Depressions-Inventar-V (BDI-V) erhoben. Zur Erfassung der Facetten des Perfektionismus dienten Items aus der Multidimensional Perfectionism Scale (FMPS und HMPS) sowie der Almost Perfect Scale (APS-R).
Ein sehr hohes Interesse, eine hohe Inanspruchnahme sowie eine hohe Akzeptanz des Nachsorgeprogramms konnte anhand der Bereitschaft zur Teilnahme und der von den Teilnehmern bewertete Nutzen aufgezeigt werden.
Eine Wirksamkeit der SMS-Nachsorge bzgl. Burnout und depressiver Symptomatik sowie dysfunktionalen Facetten des Perfektionismus konnte mittels zweifaktoriellen Kovarianzanalysen (Gruppe, Zeit, Baseline als Kovariate) nicht nachgewiesen werden. Ein Grund hierfür könnte sein, dass der Interventionszeitraum von 10 Wochen nach der stationären Entlassung für eine effektive Nachsorge zu kurz bemessen wurde. Bzgl. einiger dysfunktionaler Perfektionismusskalen (Concern over Mistakes, Discrepancy, Socially Prescribed Perfectionism) zeigten sich kleinere Interaktionseffekte, die einen ersten Hinweis liefern, dass die eingesetzten SMS-Nachrichten Perfektionismus-bezogene Kognitionen verändern können. Da das vorgestellte Interventionsprogramm ein ökonomisches und niedrigschwelliges ambulantes Nachsorge-Konzept darstellt und sich erste Hinweise auf eine Wirksamkeit ergeben, wären für die Zukunft weitere Studien wünschenswert, die sich über einen längeren Interventionszeitraum erstrecken. Es sollten weitere Messinstrumente einbezogen und die Implementierung eines Feedbackprozesses erwogen werden.
Campuszeitung Ausg. 1/2016
(2016)
Diese Arbeit präsentiert einen Ansatz zur Optimierung der Berechnung von Halbschatten flächiger Lichtquellen. Die Lichtquelle wird durch Sampling uniform abgetastet. Als Datenstruktur wird ein N-tree verwendet, durch den die Strahlen als Paket traversiert werden. Der N-tree speichert in seinen Knoten einen Linespace, der Informationen über Geometrie innerhalb eines Schaftes bietet. Diese Sichtbarkeitsinformation wird als Kriterium für eine Terminierung eines Strahles genutzt. Zusätzlich wird die Grafikkarte (kurz GPU – engl. „graphics processing unit“) zur Beschleunigung durch Parallelisierung benutzt. Die Szene wird zunächst mit OpenGL gerendert und anschließend der Schattenwert für jedes Pixel auf der GPU berechnet. Im Anschluss werden die CPU- und GPU-Implementationen verglichen. Dabei zeigt die GPU-Implementation eine Beschleunigung von 86% gegenüber der CPU-Implementation und bietet eine gute Skalierung mit zunehmender Dreieckszahl. Die Verwendung des Linespace beschleunigt das Verfahren gegenüber der Durchführung von Schnitttests und zeigt für eine große Anzahl an Strahlen keine visuellen Nachteile.
Animierte Kinderfilme können als zentrale Bestandteile westlicher Kinderkultur betrachtet werden und erfreuen sich großer Beliebtheit bei ihrer Zielgruppe. Dementsprechend erscheint eine sorgfältige wissenschaftliche Auseinandersetzung mit den Inhalten dieser Filme sinnvoll. Bisherige quantitative Inhaltsanalysen befassten sich überwiegend mit „klassischen“ Disney-Zeichentrickfilmen. Modernere computeranimierte Spielfilme unterschiedlicher Filmstudios sind bislang jedoch vergleichsweise seltener untersucht wurden. In der quantitativen Inhaltsanalyse in dieser Arbeit soll daher genau hierzu ein Beitrag geleistet werden, indem Darstellungen in 20 populären computeranimierten Kinderfilmen aus den Jahren 2000 bis 2013 in den Blick genommen werden. Im Fokus stehen dabei die Beziehungen zwischen demografischen, physischen, sprachlichen sowie zwischen persönlichkeits- und verhaltensbezogenen Merkmalen der Filmfiguren und ihrer „Güte“ bzw. „Boshaftigkeit“.
Ergänzend werden im Rahmen von Extremgruppenanalysen speziell die Merkmale ganz besonders „guter“ bzw. besonders „böser“ Filmfiguren untersucht. Außerdem werden die Merkmale von Figuren, die im Laufe der Handlungen eine grundlegende Wandlung ihrer „Güte“ bzw. „Boshaftigkeit“ durchmachen, analysiert. Hierdurch soll ein umfassendes Bild über „Darstellungstrends“ hinsichtlich der „Güte“ bzw. „Boshaftigkeit“ animierter Filmfiguren sowie darüber, inwieweit diese mit bestimmten Stereotypen verknüpft sind, ermöglicht werden.
Im Theorieteil der Arbeit wird zunächst der bisherige Forschungsstand in Bezug auf typische Darstellungen in animierten Kinderfilmen skizziert. Es folgt eine Beschreibungen von Theorien und empirischen Befunden über mögliche Wirkungen auf Kinder, die solche Filme anschauen. Im empirischen Teil der Arbeit wird anschließend das methodische Vorgehen der eigenen Inhaltsanalyse beschrieben. Außerdem werden hier die entsprechenden Forschungsergebnisse erörtert sowie im Hinblick auf mögliche Wirkungen und pädagogische Schlussfolgerungen diskutiert. Wie die Befunde zeigen, ist die Darstellung von „Gut“ und „Böse“ in den untersuchten Animationsfilmen insgesamt nur in einzelnen Punkten als klischeehaft zu bezeichnen: Beispielsweise sind „gute“ Figuren signifikant attraktiver und erreichen am Ende eines Films deutlich positivere Resultate als „böse“ Charaktere. Überwiegend sind die Befunde dieser Inhaltsanalyse jedoch auch im Hinblick auf ihr Wirkungspotenzial auf Kinder als eher positiv einzuschätzen. Weitere Forschung hierzu kann allerdings als wichtig erachtet werden.
Die Entstehung von Gründungsteams wird bisher lediglich als Abfolge von Suche, Auswahl und Gewinnung von Gründerpersonen verstanden. In der vorliegenden Arbeit wird auf Basis von 47 interviewten Gründerpersonen ein neues Verständnis für die Entstehung von Gründungsteams geschaffen. Dabei wird im Stil der Grounded Theory das bisher vorherrschende Model der Teamentstehung maßgeblich erweitert. So wird eine neue Art der Unterscheidung von Grünerpersonen entdeckt, welche auf die Intention von Teammitgliedern abzielt. Zudem zeigt sich, dass Teams in einem iterativ-epiodischen Prozess entstehen und Veränderungen von Teamzu-sammmensetzungen Bestandteil der Entstehung sind. Aufgrund der in dieser Arbeit geschaffenen neuen Erkenntnisse zur Teamentstehung können Handlungsempfehlungen für Gründerpersonen und die Gründungsförderung gegeben werden. Zudem werden neue Untersuchungsgebiete für Gründungsteams eröffnet, die das hier entwickelte Modell als Bezugsrahmen für weitere Forschung nehmen können.
Externe Repräsentationen spielen eine wichtige Rolle für die Lösung von mathematischen Textaufgaben. Die vorliegende Studie untersucht die Effekte bereitgestellter Repräsentationen beim Lösen problemhaltiger Textaufgaben in der Grundschule. Insbesondere problemhaltige Textaufgaben sind für Schüler anspruchsvoll, da sie nicht direkt mit den eingeübten und routinierten Rechenoperationen gelöst werden können. Sie zeichnen sich dadurch aus, dass sich der Lösungsweg nicht auf einen Blick erschließt, die mathematische Grundstruktur daher zunächst erkannt, entfaltet und verstanden werden muss und häufig mehrere Aufgabenbedingungen bei der Planung und Beschreitung des Lösungswegs bedacht und verarbeitet werden müssen. Um diesen komplexen Anforderungen begegnen zu können, benötigen Schüler die Fähigkeit, das Problem adäquat zu repräsentieren. Dabei können verschiedene Darstellungsformen wie Zeichnungen und Tabellen verwendet werden, die dann als Werkzeuge für die kognitiven Lösungsprozesse dienen. Da Grundschüler von sich aus häufig keine externen Repräsentationen erstellen, geht die vorliegende Studie den Fragen nach, (1) ob vorgefertigte Repräsentationen das Problemlösen verbessern und erleichtern, (2) ob sich eine Auseinandersetzung mit vorgefertigten Tabellen und Zeichnungen auch auf späteres Problemlösen ohne bereitgestellte Hilfsmittel auswirkt, (3) welche Repräsentationsform (Zeichnung oder Tabelle) und (4) wie viel Vorstrukturierung der bereitgestellten Repräsentation dabei hilfreicher ist. In einem experimentellen Studiendesign arbeiteten 199 Viertklässler an unterschiedlichen problemhaltigen Textaufgaben. Das Design bestand aus drei Tests: (1) Vor-, (2) Treatment- und (3) Transfertest. Im Vortest wurde die Ausgangsleistung der Probanden bei problemhaltigen Textaufgaben gemessen. Im Treatment-Test wurde die Performance beim Problemlösen mit vorgegebenen Repräsentationen erhoben: Probanden der Experimentalgruppe erhielten Zeichnungen und Tabellen in unterschiedlichen Vorstrukturierungsgraden zu den Aufgaben (Intervention), eine Kontrollgruppe erhielt keine Repräsentationen. Im Transfertest bearbeiteten die Teilnehmer vergleichbare Aufgaben wiederum ohne vorgegebene Repräsentationen, um die Problemlöse-Performance nach der Intervention zu messen. Die Ergebnisse zeigten erstens, dass die bereitgestellten Repräsenta-tionen entgegen der Annahme die Problemlöseprozesse insgesamt nicht verbessert und erleichtert haben. Zweitens: Wurde eine Repräsentation bereitgestellt, war eine Zeichnung wie angenommen hilfreicher als eine Tabelle. Jedoch war dieser Effekt abhängig vom Problemtyp und vom Grad der Vorstrukturierung. Offensichtlich genügte es nicht, Zeichnungen und Tabellen einfach nur bereitzustellen, da die Probanden vielfach Schwierigkeiten bei der Interpretation und adäquaten Verwendung der Repräsentationen hatten. Dies spricht für die Notwendigkeit eines Trainings zur Ausbildung und Förderung einer frühen „diagram literacy“ bereits bei Grundschülern.
Digital happiness
(2016)
Emotionen in der digitalen Welt gewinnen durch die immer weiter voranschreitende Digitalisierung in den vergangenen Jahren mehr an Bedeutung. Sowohl im Alltag als auch im Berufs- und Bildungsumfeld ist der Einsatz von Medien fast unumgänglich. In dieser Arbeit wird das noch relativ unbeachtete Thema „Digital Happiness“ genauer betrachtet. In der Literatur werden Emotionen in der digitalen Welt verstärkt untersucht, aber gerade zu dem Thema „Digital Happiness“ gibt es bisher noch nicht viele Erkenntnisse.
In diesem Forschungspraktikum werden die Unterschiede in der Kommunikation von Gefühlen in der computergestützten Kommunikation und der face-to-face Kommunikation, sowie welchen Einfluss diese haben, näher untersucht. Aber auch die Wahrnehmung und Äußerung von Emotionen in der realen und digitalen Welt werden betrachtet. Es wird eine erste Definition von „Digital Happiness“ erarbeitet und ein Modell mit den zugehörigen Determinanten, welche „Digital Happiness“ beeinflussen, entwickelt.
Um diese Ziele zu erreichen, wird eine Literaturanalyse nach der Methode von Webster & Watson (2002) durchgeführt. Hierfür werden 15 Artikel ausgewählt und genauer analysiert, um den aktuellen Stand der Forschung darzustellen. Diese werden in einer Konzeptmatrix eingeordnet. Außerdem werden besondere Phänomene, wie z.B. Quantified Self, näher betrachtet, um weitere Einflussfaktoren feststellen zu können. Basierend auf der Literaturanalyse wird eine qualitative Untersuchung nach Mayring (2014) durchgeführt. Es wird ein Interviewleitfaden entwickelt, der als Grundlage für die Untersuchung der festgestellten Determinanten der Literaturanalyse dient. Diese sollen durch 30 Interviews mit Nutzern von Informations- und Kommunikationstechnologien bestätigt oder widerlegt werden.
Mit Hilfe der durchgeführten Interviews lässt sich ein Großteil der Determinanten aus der Literatur bestätigen. Es wurden auch einige neue Determinanten festgestellt. Diese Ergebnisse werden in das abschließende Modell eingearbeitet. Dieses Modell bietet eine Grundlage für weitere Forschungen im Bereich „Digital Happiness“. Schlussendlich werden noch verschiedene Implikationen für die Forschung und Praxis festgestellt, welche weiteren Forschungsbedarf erkennen lassen.
Das Ziel der vorliegenden Arbeit war es, eine Methode zu entwickeln und zu evaluieren, die es Unternehmen ermöglicht, Werkzeuge des klassischen Dialogmarketings über das Internet zu nutzen. Dazu wurde ein Prototyp einer Internetseite mit erweiterter Echtzeit-Interaktion (eEI) implementiert und anhand eines Nutzertests evaluiert. Hauptbestandteil der Evaluationsmethodik war die auf dem SERVQUAL-Model basierende, fünfdimensionale Messung der "e-service quality" nach Gwo-Guang Lee und Hsiu-Fen Lin. Die statistische Auswertung des Nutzertests hat eine signifikante und positive Korrelation zwischen der im Rahmen dieser Arbeit entwickelten, erweiterten Echtzeit-Interaktion und der Nutzerzufriedenheit gezeigt. Vor der eigentlichen Realisierung der eEI wurde die Akzeptanz bisher eingesetzter Verfahren, auf der Grundlage des "Technology Acceptance Model" nach Fred D. Davis, geprüft.
Im Rahmen dieser Arbeit wird der Einfluss des Wahlszenarios auf die Geheimheit und Öffentlichkeit der Wahl herausgearbeitet. Ein Wahlszenario wird durch seine Wahlform und die verwendete Wahltechnik bestimmt. Bei der Wahl-form kann zwischen einer Präsenz- und einer Fernwahl unterschieden werden. Bei der Wahltechnik zwischen der Papier- und der elektronischen Wahl. Mit der Papier-Präsenzwahl, der Briefwahl (Papier-Fernwahl) und der Internetwahl (elektronische Fernwahl) werden drei prominente Wahlszenarien und ihr Einfluss auf Geheimheit, Privatheit und Öffentlichkeit untersucht.
Bei der musikalischen Grundausbildung von Kindern und Jugendlichen besteht eine spezielle Herausforderung darin, den Kindern das Notenlesen und -schreiben näher zu bringen. Bei der Ausbildung von jungen Nachwuchssängerinnen und -sängern eines Chores ist es zudem wichtig sie damit vertraut zu machen niedergeschriebene Noten direkt in Töne umzusetzen.
Eine interessante Idee ist es, den Kindern während des Unterrichts die Töne auf einem Klavier oder Keyboard vorzuspielen und diese gleichzeitig auf einem Bildschirm in Notenschrift visuell darzustellen.
Ziel dieser Bachelorarbeit ist die Implementierung eines solchen Systems, welches das Einspielen von Noten mit Hilfe eines MIDI-fähigen Keyboards und die anschließende visuelle Wiedergabe der Noten in Notenschrift umsetzt. Die prototypische Anwendung arbeitet in drei Schritten.
Sie erhält über ein angeschlossenes Keyboard die Noten in Form von MIDIDatensätzen als Eingabe. Diese MIDI-Informationen werden dann in das MusicXML-Format überführt. Ausgehend von dieser Notation in Music-XML wird abschließend die visuelle Ausgabe in Form von Notenschrift generiert und angezeigt.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, wie eine repräsentative und aussagekräftige Vergleichbarkeit hinsichtlich der Nachhaltigkeitsleistung (Ökoeffizienz) von Unternehmen branchenunabhängig gewährleistet werden kann trotz der Problematik der Definition repräsentativer Bewertungskriterien der Nachhaltigkeit, sowie der Heterogenität der zu bewertenden Branchen. Bisherige Konzepte zu Umwelt- und Nachhaltigkeitsmanagementsystemen (z.B. EMAS, ISO 14000, ISO 26000, EMASplus), zur Umweltleistungsmessung sowie zur Nachhaltigkeitsbewertung und -berichterstattung (z.B. DNK, GRI) sind mit ihren branchenunabhängigen Formulierung zu allgemein gehalten, um für eine konkrete effizienzorientierte Messung nachhaltigen Wirtschaftens von Unternehmen geeignet zu sein.
Folglich besteht kein System zur Messung der Umweltleistung, um den Forschungsbedarf der Herstellung einer aussagekräftigen Vergleichbarkeit der Ressourcen- und Energieverbräuche der Betriebe einer heterogenen Branche zu begegnen. Angesichts dessen wurde im Rahmen der Arbeit eine allgemeine und branchenunabhängig anwendbare aber dennoch –spezifische Methodik zur Herstellung der Vergleichbarkeit von Unternehmen einer Branche hinsichtlich der Ressourcen- und Energieeffizienz entwickelt. Dabei stellt der Kern der Methodik die Generierung eines betriebsindividuellen Gesamtgewichtungsfaktors dar (GGF-Konzept), welcher als Operationalisierung der Vergleichbarkeit angesehen werden kann und damit der Problematik der Heterogenität begegnet. Die Ermittlung von Kriteriengewichtungen im Rahmen des GGF-Konzeptes kann in Analogie zu einem Entscheidungsproblem bei Mehrfachzielsetzung (Multi Criteria Decision Making – MCDM) gesehen werden, da mehrere Kriterien und Sub-Kriterien zueinander in Relation gesetzt werden mussten. Infolgedessen stellte sich der Analytische-Hierarchie-Prozess als das geeignete Verfahren im Rahmen der Methodikentwicklung heraus. Anwendung fand die Methodik in einem ersten empirischen Test anhand einer ausgewählten Stichprobe von 40 Wäschereibetrieben. Dabei zeigten die Ergebnisse auf, dass repräsentatives sowie aussagekräftiges betriebsindividuelles Benchmarking der Ressourcen- und Energieverbräuche völlig unterschiedlicher und bislang nicht vergleichbarer Betriebe möglich wurde. Hierfür mussten zunächst branchenspezifische repräsentative Bewertungskriterien der Ressourcen- und Energieeffizienz bestimmt werden. Abschließend konnten betriebsspezifische Brennpunkte identifiziert und somit Handlungsempfehlungen zur Optimierung der Ressourcen- und Energieeffizienz der Wäschereibetriebe abgeleitet werden, sodass eine zielorientierte Reduzierung des Ressourcen- und Energieverbrauchs folgen kann.
In der vorliegenden Arbeit werden gamebasierte touristische Anwendungen untersucht.
Ausgehend von der These, dass für touristisches Freizeiterleben primär intrinsisch motivierende Anwendungen geeignet sind, werden zunächst intrinsische Motivationskonzepte untersucht. Dazu wird untersucht, wie Motivation gezielt herbeigeführt werden kann und ob sich gamebasierte Motivationskonzepte auf nichtspielerische Anwendungen übertragen lassen.
Darauf aufbauend wurden im Rahmen dieser Arbeit verschiedene touristische Anwendungen entwickelt und evaluiert. Ziel dieser Anwendungen ist es stets, einen Mehrwert für das touristische Freizeiterleben zu erzeugen. Die Anwendungen werden nach ihrer Mobilität kategorisiert. Es werden vollständig mobile, vollständig stationäre und hybride Systeme untersucht. Als Mehrwertkomponenten werden in dieser Arbeit spielbasierte Exploration einer Umgebung, Wissensvermittlung und soziale Interaktion zwischen Touristen untersucht.
Abschließend wird ein Autorentool für spielbasierte touristische Touren auf Smartphones entwickelt und untersucht, das seinerseits auf spielbasierte Elemente zurückgreift. Das Ziel dieses Systems ist es, Konzepte zu entwickeln, die beispielsweise eine Integration in soziale Netzwerke erlauben.
Dass Jugendliche lieber Computerspiele nutzen, als Hausaufgaben zu machen oder zu lernen, ist sicherlich allen Lehrern und Lehrerinnen bewusst. Ein Ansatz zur Lösung diese Problems besteht darin, Lernen und Computerspiele miteinander zu verbinden. Zur Zeit wird in der Wissenschaft über Game-based-Learning und Gamification eifrig diskutiert. Was die einzelnen Begriffe bedeuten, soll diese Arbeit beleuchten. Sie fokussiert hierbei jedoch auf den Bereich der Gamification. In diesem Bereich geht es nicht darum, vermeintlich langweiligen Lehrinhalten eine Spielstruktur überzustülpen oder an erfolgreich gemeisterte Übungsaufgaben als Belohnung ein Spiel zu bieten, das mit dem Lehrinhalt nichts zu tun hat. Stattdessen geht es darum, Elemente aus Spielen zu Motivationszwecken in Lernumgebungen einzusetzen. Das Sprachlernen kann im Besonderen von den Möglichkeiten des computergestützten Lernens profitieren.
Über Online-Lernumgebungen können Sprachlernende mit anderen in Kontakt treten und sich austauschen. Bestimmte Spielelemente können Lernende in eine ungezwungene Wettkampfsituation bringen, in der sie sich spielerisch messen können.
Im Rahmen dieser Diplomarbeit wird ein Prototyp entwickelt, der Elemente aus Spielen in eine Lernapplikation für das Thema „Deutsch als Fremdsprache“ einbindet. Im Prototyp soll dargestellt werden, welche Möglichkeiten den Lehrenden offenstehen, ihre Lerner und Lernerinnen zu motivieren. In einem Nutzungstest wird der Prototyp evaluiert. Die so erhobenen Daten werden ausgewertet und Verbesserungsvorschläge gemacht. Ein Fazit fasst die erkannten Vorzüge und Mängel des Prototyps sowie die erarbeiteten Verbesserungsvorschläge zusammen. Zu guter Letzt wird ein Ausblick auf weitere erforderliche Arbeitsschritte gegeben.
Das Ergebnis der Arbeit beinhaltet, dass der Prototyp zwar gute Ansätze enthält und erfolgreich getestet werden konnte, aber in wesentlichen Teilen noch Verbesserungsbedarf besteht. Weiterhin müssen Evaluationsmethoden entwickelt werden, die spieltypische Eigenheiten beachten.
Ray Tracing als Bildsyntheseverfahren ist relevant für viele Anwendungsbereiche, da es Aspekte des Lichttransports physikalisch korrekt simulieren kann. Aufgrund des hohen Berechnungsaufwands sind der Einsatz von Datenstrukturen zur Beschleunigung und die parallele Verarbeitung notwendig. GPUs sind inzwischen hoch parallele, programmierbare Prozessoren mit zahlreichen Kernen und eignen sich aufgrund ihrer hohen Leistungsfähigkeit dazu, aufwändige, parallelisierbare Probleme zu lösen. In dieser Arbeit geht es um GPU Ray Tracing, beschleunigt durch Bounding Volume Hierarchien (BVH). Auf Basis relevanter Veröffentlichungen zu Aufbau und Traversierung von BVHs und der Abbildung des Ray Tracing Prozesses auf die GPU Architektur wird ein GPU Ray Tracer konzeptioniert und entwickelt. Während der BVH Aufbau vorab auf dem Host stattfindet, wird der gesamte Ray Tracing Prozess durch mehrere Kernel komplett auf der GPU ausgeführt. Die Implementierung der Kernel erfolgt in Form von OpenGL Compute Shader Programmen, und die Aufteilung des Ray Tracers auf mehrere Kernel ist durch die GPU Achitektur und das SIMT Ausführungsmodell motiviert. Für die Speicherorganisation der binären BVHs werden zwei Varianten betrachtet, klassisch und als MBVH, wobei sich die MBVH Organisation als effizienter erweist. Zudem werden verschiedene Varianten für die Traversierung ohne Stack und für die Stack-basierte Traversierung umgesetzt und bewertet. Der in mehrere Kernel strukturierte GPU Ray Tracer wird zudem mit einer Einzelkernel Version verglichen. Die besten Ergebnisse erreicht die Traversierung ohne Stack mit einem while-while Ablauf und MBVH im Rahmen des aufgeteilten GPU Ray Tracers.
In jüngerer Vergangenheit erlebt der zumeist auf Michel Foucault zurückgeführte Begriff des 'Dispositivs' – ähnlich wie zuvor der des 'Diskurses' – eine regelrechte Konjunktur in den Geistes-, Sozial- und Kulturwissenschaften. Seine Verwendung weist jedoch eine Reihe von Verkürzungen und Entstellungen auf; so werden damit recht pauschal meist bloß die architekturalen und/oder räumlichen Umstände bzw. Kontexte sozialer, medialer oder anderer Situationen bezeichnet, ohne die für Foucault so wichtigen Fragen nach Wissen, Macht und Subjektivität zu beachten. So gerät der Begriff in Gefahr, seine theoretische und analytische Potenz einzubüßen.
In „Im Dispositiv. Macht, Medium, Wissen“ legt die Autorin daher in einem ersten Schritt eine Präzisierung des Dispositivbegriffs vor, der den zugrundeliegenden Theoriehorizont Foucaults systematisch miteinbezieht. Dazu werden zunächst diskurstheoretische Grundlagen erläutert und anschließend deren strukturelle Analogien zu den machtanalytischen Befunden Foucaults mit Hilfe einer neuen Terminologie sichtbar gemacht.
Vor allem in den Medienwissenschaften ist der Begriff des Dispositivs prominent, um die gesellschaftliche Einbettung von Einzelmedien zu pointieren. Jedoch fällt auf, dass der dort in weiten Teilen vertretene Ansatz, Medien als Dispositive zu verstehen, den Blick auf medienspezifische Eigenlogiken verstellt. In einem zweiten Schritt weist die Autorin daher die strukturellen Analogien von Medialität, Wissen und Macht auf und kommt so zu einem integrativen Dispositivkonzept, das die drei Sphären als dynamisch miteinander verknüpfte, interdependente und reziproke Felder von Kultur modelliert.
Das Ziel dieser Masterarbeit war es, ein Konzept für einen mobilen Stadtführer mit gamebasierten Inhalten zu entwerfen und prototypisch umzusetzen.
Die Anwendung soll ein flexibles und unabhängiges Entdecken der Stadt Koblenz ermöglichen. Basierend auf den geographischen Daten wurden in der Anwendung stadthistorische Informationen sowie interessante Geschichten zu verschiedenen Orten bereitgestellt. Diese Informationen wurden mit spielerischen Elementen kombiniert, um ein motivierendes Konzept zu schaffen.
Dafür wurden zunächst verwandte Ansätze untersucht und darauf aufbauend unter Berücksichtigung eigener Ideen ein neues Konzept entwickelt. Das Konzept wurde prototypisch als Android-Anwendung umgesetzt. Das Ergebnis wurde in einer abschließenden Evaluation mit 15 Probanden untersucht. Dabei wurden mit Hilfe eines Fragebogens unter anderem die Bedienbarkeit, die Motivation durch die Spielelemente und der Mehrwert der Anwendung betrachtet.
Die vorliegende Arbeit bildet den Abschluss eines Forschungspraktikums von Studierenden der Masterstudiengänge Informationsmanagement und Wirtschaftsinformatik unter Betreuung der wissenschaftlichen Mitarbeiterin Daniela Simić-Draws und von Prof. Dr. Rüdiger Grimm. Eine wesentliche Vorlage zu dieser Arbeit war ein Vorgehensmodell zur Sicherheitsanalyse von Geschäftsprozessen, das von D. Simić-Draws im Rahmen ihrer Dissertation erarbeitet wird und zu dessen laufender Verbesserung dieses studentische Forschungspraktikum wertvolle Hinweise liefern konnte. Als Anwendungsbeispiel wurden die sicherheitskritischen Prozesse "Kommunalwahl" und "Geldauszahlung am Bankautomaten" gewählt, weil die Arbeitsgruppe von Prof. Grimm in diesen beiden Anwendungen aus vorhergehender wissenschaftlicher Arbeit Erfahrung gesammelt hat. Insbesondere zum Anwendungsbeispiel "Kommunalwahl" hatte sich dankenswerterweise das Ordnungsamt Koblenz, das für die Kommunalwahlen zuständig ist, unter aktiver Mithilfe ihres Leiters Dirk Urmersbach zur Zusammenarbeit angeboten, so dass dieser Geschäftsprozess wirklichkeitsnah untersucht werden konnte.