Masterarbeit
Filtern
Erscheinungsjahr
Dokumenttyp
- Masterarbeit (46) (entfernen)
Schlagworte
- Augmented Reality (3)
- virtual reality (3)
- 360 Grad (1)
- 360 degree (1)
- 3D-Scan (1)
- 3D-Visualisierung (1)
- AR (1)
- Ausrichtungswerkzeug (1)
- BRDF (1)
- Breaking (1)
Institut
- Institut für Computervisualistik (46) (entfernen)
Mit dem Erscheinen moderner Virtual Reality (VR) Headsets auf dem Verbrauchermarkt, gab es den bisher größten Aufschwung in der Geschichte der VR Technologie. Damit einhergehend rücken aber auch die Problematiken aktueller VR Hardware immer mehr in den Vordergrund. Insbesondere die Steuerung in VR war schon immer ein komplexes Thema.
Eine mögliche Lösung bietet die Leap Motion: Ein Hand-Tracking Gerät, welches ursprünglich für den Desktop-Einsatz entwickelt wurde, aber mit dem letzten größeren Softwareupdate an üblichen VR Headsets angebracht werden kann. Dieses Gerät ermöglicht ein sehr genaues Tracking beider Hände und aller Finger. Damit ist es möglich, diese vollständig in der VR Welt zu replizieren und zur Steuerung zu verwenden.
Ziel dieser Arbeit ist es, virtuelle Benutzeroberflächen zu entwerfen, die mit der Leap Motion bedient werden können. Dies soll eine natürliche Interaktion zwischen dem Benutzer und der VR-Umgebung ermöglichen. Danach werden mit Hilfe einer Demoanwendung Probanden-Tests durchgeführt, um ihre Leistung zu bewerten und mit herkömmlichen VR-Reglern zu vergleichen.
Vereine, wie zum Beispiel die Pfadfinder, stützen sich auf die Arbeit ihrer ehrenamtlichen Mitglieder, welche eine Vielzahl von Aufgaben zu erledigen haben. Oftmals kommt es in den Reihen der Mitglieder zu plötzlichen Änderungen in den Organisationsteams und Ämtern, wobei Planungsschritte verloren gehen und Unerfahrenheit bezüglich der Planung besteht. Da die speziellen Anforderungen durch bereits existierende Tools nicht abgedeckt werden, wird zur Unterstützung von Vereinen in Bezug auf die genannte Problematik in dieser Arbeit ScOuT, ein Planungstool für die Organisationsverwaltung, konzipiert und entwickelt. Der Schwerpunkt lag darauf verschiedene geeignete Richtlinien und heuristische Methoden zu identifizieren und zu verwenden, um eine gebrauchstaugliche Benutzeroberfläche erstellen zu können. Das entwickelte Produkt wurde im Rahmen der Arbeit empirisch durch eine Benutzerumfrage bezüglich der Gebrauchstauglichkeit ausgewertet. Das Ergebnis dieser Studie zeigt, dass bereits ein hohes Maß des angestrebten Ziels durch den Einbezug der Richtlinien und Methoden erreicht werden konnte.
Daraus lässt sich im großen Kontext schließen, dass mithilfe von benutzerspezifischen Konzeptideen und der Anwendung geeigneter Richtlinien und Methoden eine zielführende Grundlage für eine gebrauchstaugliche Anwendung zur Unterstützung von Vereinen erstellt werden kann.
Mit der Microsoft Kinect waren die ersten Aufnahmen von synchronisierten Farb- und Tiefendaten (RGB-D) möglich, ohne hohe finanzielle Mittel aufwenden zu müssen und neue Möglichkeiten der Forschung eröffneten sich. Mit fortschreitender Technik sind auch mobile Endgeräte in der Lage, immer mehr zu leisten. Lenovo und Asus bieten die ersten kommerziell erwerblichen Geräte mit RGB D-Wahrnehmung an. Mit integrierten Funktionen der Lokalisierung, Umgebungserkennung und Tiefenwahrnehmung durch die Plattform Tango von Google gibt es bereits die ersten Tests in verschiedenen Bereichen des Rechnersehens z.B. Mapping. In dieser Arbeit wird betrachtet, inwiefern sich ein Tango Gerät für die Objekterkennung eignet. Aus den Ausgangsdaten des Tango Geräts werden RGB D-Daten extrahiert und für die Objekterkennung verarbeitet. Es wird ein Überblick über den aktuellen Stand der Forschung und gewisse Grundlagen bezüglich der Tango Plattform gegeben. Dabei werden existierende Ansätze und Methoden für eine Objekterkennung auf mobilen Endgeräten untersucht. Die Implementation der Erkennung wird anhand einer selbst erstellten Datenbank von RGB-D Bildern gelernt und getestet. Neben der Vorstellung der Ergebnisse werden Verbesserungen und Erweiterungen für die Erkennung vorgeschlagen.
Since the invention of U-net architecture in 2015, convolutional networks based on its encoder-decoder approach significantly improved results in image analysis challenges. It has been proven that such architectures can also be successfully applied in different domains by winning numerous championships in recent years. Also, the transfer learning technique created an opportunity to push state-of-the-art benchmarks to a higher level. Using this approach is beneficial for the medical domain, as collecting datasets is generally a difficult and expensive process.
In this thesis, we address the task of semantic segmentation with Deep Learning and make three main contributions and release experimental results that have practical value for medical imaging.
First, we evaluate the performance of four neural network architectures on the dataset of the cervical spine MRI scans. Second, we use transfer learning from models trained on the Imagenet dataset and compare it to randomly initialized networks. Third, we evaluate models trained on the bias field corrected and raw MRI data. All code to reproduce results is publicly available online.
Unterschiedliche Quellen (Print-Medien, Fernsehberichte u. Ä.) berichten immer wieder davon, dass es mit der Datenschutzkompetenz bei Kindern und Jugendlichen schlecht bestellt ist. Daher ist dem Thema Datenschutz im Informatikunterricht eine besondere Bedeutung zuzuschreiben.
Im Rahmen der Dissertation von Herrn Hug wird ein Datenschutzkompetenzmodell [Quelle INFOS17] entwickelt, anhand dessen die Datenschutzkompetenz von Schülerinnen und Schülern im Altern von 10 bis 13 Jahren gemessen werden kann.
Im Rahmen dieser Masterarbeit werden existierende Unterrichtsmaterialien zum Thema Datenschutz gesammelt und dazu eine Unterrichtsreihe entwickelt. Hierbei werden auch eigene Zugänge aufzeigt, um ein kohärentes und abgeschlossenes Projekt zu entwerfen, bei dem aktuelle Gefahren für Schülerinnen und Schüler aufgezeigt werden. Ziel ist es, dass die Schülerinnen und Schüler dazu befähigt werden, ihr Verhalten bezüglich Datenschutz besser einzuschätzen und verantwortungsvoller mit ihren persönlichen Daten umzugehen. Im Rahmen eines Feldversuches in einer 6. Klasse eines Gymnasiums wurde die Unterrichtsreihe erprobt.
Diese Masterarbeit behandelt den Themenbereich des interkulturellen Webdesigns im Internet. Dabei werden exemplarisch zwei an dieselbe Zielgruppe gerichtete Webseiten aus verschiedenen Ländern miteinander verglichen. Anhand von Kulturdimensionen werden kulturelle Unterschiede auf der jeweiligen Webseite aufgezeigt. Bei der Internetseiten-Analyse wird insbesondere auf die Frage eingegangen, wie ausführlich sich die jeweiligen Webseitengestalter und -betreiber Gedanken über kulturelle Unterschiede ihrer Nutzer/-innen und die Erzeugung eines entsprechenden interkulturellen Webdesigns gemacht haben. Die Analyse zeigt auf, auf welche kulturellen und insbesondere interkulturellen Aspekte der Länder bei der Webseitengestaltung Rücksicht genommen wird. Da hierbei im Rahmen der durchgeführten Untersuchung festgestellt wurde, dass die Umsetzung des interkulturellen Webdesigns nicht konsequent in der Gesamtheit der Webseite erfolgt, werden konkrete Vorschläge zu möglichen Verbesserungen aufgezeigt.
Die Medizinische Visualisierung komplexer Gefäßbäume hat das Potential den klinischen Alltag in der Gefäßchirurgie zu erleichtern.
Dazu sind exakte, hochaufgelöste Darstellungen und echtzeitfähige Berechnungsmethoden notwendig. Bekannte Ansätze aus den Bereichen der direkten (z.B. Raycasting) und indirekten
(z.B. Marching Cubes) Volumenvisualisierung sind nicht in der Lage alle Anforderungen zufriedenstellend zu erfüllen. Verbesserte
Ergebnisse können mit hybriden Methoden erzielt werden, die unterschiedliche Visualisierungsverfahren kombinieren.
Im Rahmen dieser Arbeit wurde ein hybrides Renderingsystem zur Darstellung von Blutgefäßen entwickelt, das die Bildqualität durch Integration einer Marching Cubes Oberfläche in ein Raycasting–System optimiert, dabei Detailstrukturen erhält und ausreichende Performanz zur Interaktion bietet. Die Ergebnissezeigen die verbesserte Plastizität und Genauigkeit der Darstellung.Anhand von Experten– und Laienbefragungen konnte der Nutzen des Systems vor allem für die Patientenaufklärung nachgewiesen werden. Die Erschließung zusätzlicher Anwendungsgebiete ist durch die Weiterentwicklung des Renderers möglich.
Tractography on HARDI data
(2011)
Diffusionsgewichtete Bildgebung ist eine wichtige Modalität in der klinischen Praxis. Sie stellt gegenwärtig die einzige Möglichkeit dar, nicht invasiv und in vivo Einblicke in das menschliche Gehirn zu erhalten. Die Einsatzgebiete dieser Technik sind sehr vielseitig. Sie wird zur Untersuchung des Gehirns, seiner Struktur, seiner Entwicklung und der Funktionsweisenseiner verschiedenen Areale einsetzt. Weiterhin spielt diese Modalität eine wichtige Rolle bei der Operationsplanung am Gehirn und der Untersuchung von Schlaganfall, Alzheimer und Multipler Sklerose. Diese Arbeit gibt eine kurze Einführung in die Bildgebungmittels MRT und geht auf die Entstehung diffusionsgewichtete Bilder ein. Darauf aufbauend wird der Diffusionstensor, die am meisten verbreitete Datenrepräsentation in der Diffusionsbildgebung, vorgestellt. Da die Repräsentation der Diffusion als Diffusionstensor erhebliche Einschränkungen darstellt, werden neue Methoden zur Datenrepräsentation vorgestellt und diskutiert. Diese neuen Methoden werden unter dem Begriff HARDI (Diffusionsbildgebung mit hoher Winkelauflösung, von engl. high angular resolution diffusion imaging) zusammengefasst. Weiterhin wird eine ausführliche Einführung in das Thema der Traktografie, der Rekonstruktion von Nervenbahnen im Gehirn, gegeben. Basierend auf diesem theoretischenWissen werden etablierte Algorithmen der Traktografie von Diffusionstensor- auf HARDI-Daten überführt. Dadurch wird die Rekonstruktion derNervenbahnen entscheidend verbessert. Es wird eine vollständig neue Methode vorgestellt, die in der Lage ist, Nervenbahnen sowohl auf einem Phantomdatensatz, als auch auf einem vom Menschen stammenden Gehirndatensatz zu rekonstruieren. Weiterhin wird ein neuartiger globaler Ansatz vorgestellt, um Voxel anhand ihrer Diffusionseigenschaften zu klassifizieren.
Point Rendering
(2021)
In dieser Arbeit werden Verfahren zum Rendern von Punktdaten vorgestellt und miteinander verglichen. Die Verfahren lassen sich in zwei Kategorien unterteilen. Zum einen werden visuelle Verfahren behandelt, welche sich mit der reinen Darstellung von Punktprimitiven befassen. Hauptproblem ist dabei die Darstellung von Oberflächen, da Punktdaten im Gegensatz zu traditionellen Dreiecksnetzen keine Nachbarschaftsinformationen beinhalten. Zum anderen werden beschleunigende Datenstrukturen dargelegt, welche die echtzeitfähige Darstellung von großen Punktwolken ermöglichen. Punktwolken weisen häufig eine hohe Datenmenge auf, da diese meist durch 3D-Scanningverfahren wie z.B. Laserscanning und Photogrammetrie generiert werden.
In dieser Arbeit wird die Geschwindigkeit des Simulationscodes zur Pho-
tonenausbreitung beim IceCube-Projekt (clsim) optimiert. Der Prozess der
GPU-Code-Analyse und Leistungsoptimierung wird im Detail beschrie-
ben. Wenn beide Codes auf der gleichen Hardware ausgeführt werden,
wird ein Speedup von etwa 3x gegenüber der ursprünglichen Implemen-
tierung erreicht. Vergleicht man den unveränderten Code auf der derzeit
von IceCube verwendeten Hardware (NVIDIA GTX 1080) mit der opti-
mierten Version, die auf einer aktuellen GPU (NVIDIA A100) läuft, wird
ein Speedup von etwa 9,23x beobachtet. Alle Änderungen am Code wer-
den vorgestellt und deren Auswirkung auf die Laufzeit und Genauigkeit
der Simulation diskutiert.
Der für die Optimierung verfolgte Weg wird dann in einem Schema
verallgemeinert. Programmierer können es als Leitfaden nutzen, um große
und komplexe GPU-Programme zu optimieren. Darüber hinaus wird die
per warp job-queue, ein Entwurfsmuster für das load balancing innerhalb
eines CUDA-Thread-Blocks, im Detail besprochen.
Ein Gonioreflektometer ist ein Gerät zum Vermessen der Reflexionseigenschaften von Materialien. Ein solche Apparatur wird in dieser Arbeit mit handelsüblichen Bauteilen gebaut. Dafür werden drei Schrittmotoren und 809 Leuchtdioden mit einem Arduino-Mikrocontroller gesteuert. Als Reflexionsdaten werden RGB-Bilder mit einer industriellen Kamera aufgenommen. Zusätzlich wird eine Steuersoftware für verschiedene Aufnahmeprogramme sowie ein Renderer zum Anzeigen der vermessenen Materialien implementiert. Somit können komplette bidirektionale Reflektanz-Verteilungsfunktionen (BRDFs) aufgenommen und gerendert werden, wodurch selbst komplizierte anisotrope Materialeigenschaften repräsentierbar sind. Die Qualität der Ergebnisse ist aufgrund von Schattierungen zwar Artefakt-behaftet, jedoch können diese Artefakte durch entsprechende Algorithmen wie Inpainting weitestgehend behoben werden. Außerdem wurde das Gonioreflektometer auf andere Anwendungen übertragen. So sind ohne Veränderungen am Gerät auch 3D-Scans, Lichtfeldaufnahmen und Light-Staging möglich. Auch die Qualität der Ergebnisse dieser Aufnahmeverfahren entspricht den Erwartungen im positiven Sinne. Somit ist das in dieser Arbeit gebaute Gonioreflektometer im Vergleich zu anderen Publikationen eine breit anwendbare und kostengünstige Alternative.
Künstliche neuronale Netze sind ein beliebtes Forschungsgebiet der künst-
lichen Intelligenz. Die zunehmende Größe und Komplexität der riesigen
Modelle bringt gewisse Probleme mit sich. Die mangelnde Transparenz
der inneren Abläufe eines neuronalen Netzes macht es schwierig, effiziente
Architekturen für verschiedene Aufgaben auszuwählen. Es erweist sich als
herausfordernd, diese Probleme zu lösen. Mit einem Mangel an aufschluss-
reichen Darstellungen neuronaler Netze verfestigt sich dieser Zustand. Vor
dem Hintergrund dieser Schwierigkeiten wird eine neuartige Visualisie-
rungstechnik in 3D vorgestellt. Eigenschaften für trainierte neuronale Net-
ze werden unter Verwendung etablierter Methoden aus dem Bereich der
Optimierung neuronaler Netze berechnet. Die Batch-Normalisierung wird
mit Fine-tuning und Feature Extraction verwendet, um den Einfluss der Be-
standteile eines neuronalen Netzes abzuschätzen. Eine Kombination dieser
Einflussgrößen mit verschiedenen Methoden wie Edge-bundling, Raytra-
cing, 3D-Impostor und einer speziellen Transparenztechnik führt zu einem
3D-Modell, das ein neuronales Netz darstellt. Die Validität der ermittelten
Einflusswerte wird demonstriert und das Potential der entwickelten Visua-
lisierung untersucht.
Das Ziel dieser Masterarbeit war es, ein Konzept für einen mobilen Stadtführer mit gamebasierten Inhalten zu entwerfen und prototypisch umzusetzen.
Die Anwendung soll ein flexibles und unabhängiges Entdecken der Stadt Koblenz ermöglichen. Basierend auf den geographischen Daten wurden in der Anwendung stadthistorische Informationen sowie interessante Geschichten zu verschiedenen Orten bereitgestellt. Diese Informationen wurden mit spielerischen Elementen kombiniert, um ein motivierendes Konzept zu schaffen.
Dafür wurden zunächst verwandte Ansätze untersucht und darauf aufbauend unter Berücksichtigung eigener Ideen ein neues Konzept entwickelt. Das Konzept wurde prototypisch als Android-Anwendung umgesetzt. Das Ergebnis wurde in einer abschließenden Evaluation mit 15 Probanden untersucht. Dabei wurden mit Hilfe eines Fragebogens unter anderem die Bedienbarkeit, die Motivation durch die Spielelemente und der Mehrwert der Anwendung betrachtet.
While Virtual Reality has been around for decades it gained new life in recent years. The release of the first consumer hardware devices allows fully immersive and affordable VR for the user at home. This availability lead to a new focus of research on technical problems as well as psychological effects. The concepts of presence, describing the feeling of being in the virtual place, body ownership and their impact are central topics in research for a long time and still not fully understood.
To enable further research in the area of Mixed Reality, we want to introduce a framework that integrates the users body and surroundings inside a visual coherent virtual environment. As one of two main aspects we want to merge real and virtual objects to a shared environment in a way such that they are no longer visually distinguishable. To achieve this the main focus is not supposed to be on a high graphical fidelity but on a simplified representation of reality. The essential question is, what level of visual realism is necessary to create a believable mixed reality environment that induces a sense of presence in the user? The second aspect considers the integration of virtual persons. Can characters be recorded and replayed in a way such that they are perceived as believable entities of the world and therefore act as a part of the users environment?
The purpose of this thesis was the development of a framework called Mixed Reality Embodiment Platform. This inital system implements fundamental functionalities to be used as a basis for future extensions to the framework. We also provide a first application that enables user studies to evaluate the framework and contribute to aforementioned research questions.
Konstituenten-Parsing versucht, syntaktische Struktur aus einem Satz zu extrahieren. Diese Parsing-Systeme sind in vielen maschinellen Sprachverarbeitungsanwendungen hilfreich, wie z.B. bei der Grammatikprüfung, der Beantwortung von Fragen und der Informationsextraktion. In dieser Masterarbeit geht es um die Implementierung eines Konstituentenparsers für die deutsche Sprache mit Hilfe von neuronalen Netzen. In der Vergangenheit wurden wiederkehrende neuronale Netze beim Aufbau eines Parsers und auch bei vielen maschinellen Sprachverarbeitungsanwendungen verwendet. Dabei werden Module des neuronalen Netzes mit Selbstaufmerksamkeit intensivgenutzt, um Sätze effektiv zu verstehen. Bei mehrschichtigen Selbstaufmerksamkeitsnetzwerken erreicht das konstituierende
Parsen 93,68% F1-Scoret. Dies wird noch weiter verbessert, indem sowohl Zeichen- als auch Worteinbettungen als Darstellung des Inputs verwendet werden. Ein F1-Score von 94,10% wurde am besten durch den Konstituenten-Parser erreicht, der nur den bereitgestellten Datensatz verwendet. Mit Hilfe externer Datensätze wie der deutschen Wikipedia werden vortrainierte ELMo-Modelle zusammen mit Selbstbeobachtungsnetzwerken verwendet, die einen F1-Score von 95,87% erreichen.
Tracking ist ein zentraler Bestandteil vieler moderner technischer Anwendungen, insbesondere in den Bereichen autonome Systeme und Augmented Reality. Für Tracking gibt es viele unterschiedliche Ansätze. Ein erst seit kurzem verfolgter ist die Verwendung von Neuronalen Netzen. Im Rahmen dieser Masterarbeit wird eine eine Anwendung erstellt, welche für das Tracking ein Neuronales Netz verwendet. Dazu gehört ebenfalls die Erstellung von Trainingsdaten, sowie die Erstellung des Neuronalen Netzes und dessen Training.
Anschließend wird die Verwendung von Neuronalen Netzen für Tracking analysiert und ausgewertet. Hierunter fallen verschiedene Aspekte. Es wird für eine unterschiedliche Anzahl an Freiheitsgraden geprüft wie gut das Tracking funktioniert und wie viel Performance dieser Ansatz kostet. Des Weiteren wird die Menge der benötigten Trainingsdaten untersucht, der Einfluss der Architektur des Netzwerks und wie wichtig das Vorhandensein von Tiefendaten für die Funktion des Trackings ist. Dies soll einen Einblick ermöglichen wie relevant dieser Ansatz für den Einsatz in zukünftigen Produkten sein könnte.
Diese Arbeit soll das von Dietz und Oppermann entwickelte Planspiel „Datenschutz 2.0“ an den heutigen Alltag der Schüler anpassen, die Benutzung in der Sekundarstufe II ermöglichen und die technischen und gesetzlichen Problematiken des Planspiels beheben. Das mit dem Planspiel aufgegriffene Thema Datenschutz ist im rheinland-pfälzischen Informatik-Lehrplan für die Sekundarstufe II verankert. Hier wird der Begriff Datenschutz in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ genannt. Jedoch werden in dem Planspiel keine Daten erhoben, sondern die selbst hinterlassenen Datenspuren untersucht. Diese Form des Datenschutzes ist im Grundkurs in der vorgeschlagenen Reihe „Datensicherheit unter der Berücksichtigung kryptologischer Verfahren erklären und beachten“ unter dem Thema Kommunikation in Rechnernetzen zu finden. Im Leistungskurs steht die Datensicherheit in gleichbenannter Reihe und Thema und in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ im Thema Wechselwirkung zwischen Informatiksysteme, Individuum und Gesellschaft.
Die Material Point Method (MPM) hat sich in der Computergrafik als äußerst fähige Simulationsmethode erwiesen, die in der Lage ist ansonsten schwierig zu animierende Materialien zu modellieren [1, 2]. Abgesehen von der Simulation einzelner Materialien stellt die Simulation mehrerer Materialien und ihrer Interaktion weitere Herausforderungen bereit. Dies ist Thema dieser Arbeit. Es wird gezeigt, dass die MPM durch die Fähigkeit Eigenkollisionen implizit handzuhaben ebenfalls in der Lage ist Kollisionen zwischen Objekten verschiedenster Materialien zu beschreiben, selbst, wenn verschiedene Materialmodelle eingesetzt werden. Dies wird dann um die Interaktion poröser Materialien wie in [3] erweitert, was ebenfalls gut mit der MPM integriert. Außerdem wird gezeigt das MPM auf Basis eines einzelnen Gitters als Untermenge dieses Mehrgitterverfahrens betrachtet werden kann, sodass man das gleiche Verhalten auch mit mehreren Gittern modellieren kann. Die poröse Interaktion wird auf beliebige Materialien erweitert, einschließlich eines frei formulierbaren Materialinteraktionsterms. Das Resultat ist ein flexibles, benutzersteuerbares Framework das unabhängig vom Materialmodell ist. Zusätzlich wird eine einfache GPU-Implementation der MPM vorgestellt, die die Rasterisierungspipeline benutzt um Schreibkonflikte aufzulösen. Anders als andere Implementationen wie [4] ist die vorgestellte Implementation kompatibel mit einer Breite an Hardware.
Der Markt der virtuellen Realität entwickelt sich derzeit besonders im Hinblick auf die Hardware kontinuierlich weiter. Infolgedessen ergeben sich immer weitere Anwendungsmöglichkeiten. Neben der Spielebranche bieten sich auch der Forschung neue Möglichkeiten. So lassen sich auch Wahrnehmungsphänomene mithilfe dieser Technologie erforschen. Die vorliegende Arbeit beschäftigt sich daher mit der Untersuchung des induzierten Roelofs Effekts in der virtuellen Realität sowie in der Wirklichkeit anhand eines Computerbildschirms. Dieser beschreibt eine Fehlwahrnehmung, die auftritt, wenn die individuelle Körpermitte und ein Rahmen, der ein optisches Zielobjekt umfasst, verschoben zueinander auftreten, was zu einer Fehllokalisierung des Objekts führt. Die folgende Untersuchung soll Aufschluss über die Beeinflussung durch den Rahmen eines Anzeigegeräts geben. Zudem werden Rückschlüsse über die Eignung der virtuellen Realität bezüglich der Wahrnehmungsforschung gezogen. Die Ergebnisse in der virtuellen Realität weisen ein stärkeres Maß der Wahrnehmungsverzerrung durch den Roelofs Effekt auf, wodurch der feste Rahmen eines Anzeigegeräts als zusätzliche Orientierungshilfe vermutet werden kann.