Filtern
Erscheinungsjahr
- 2019 (80) (entfernen)
Dokumenttyp
- Bachelorarbeit (33)
- Masterarbeit (17)
- Dissertation (16)
- Ausgabe (Heft) zu einer Zeitschrift (8)
- Bericht (3)
- Sonstiges (2)
- Buch (Monographie) (1)
Sprache
- Deutsch (80) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (3)
- Datenschutz (2)
- Immersion (2)
- Inklusion (2)
- 3D-Scan (1)
- AR (1)
- Aluminiumorthophosphat (1)
- Aufsatzdidaktik (1)
- Augmented Reality (1)
- BRDF (1)
Institut
- Institut für Computervisualistik (31)
- Institut für Management (7)
- Zentrale Einrichtungen (7)
- Institut für Wirtschafts- und Verwaltungsinformatik (4)
- Institut für Grundschulpädagogik (3)
- Institut für Softwaretechnik (3)
- Fachbereich 4 (2)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (2)
- Institut für Kulturwissenschaft (2)
- Institut für Kunstwissenschaft (2)
Ordnung zur Änderung der Beitragsordnung des Studierendenwerks Koblenz
Dreiundzwanzigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang an der Universität Koblenz-Landau
Zwanzigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulen plus, das Lehramt an Förderschulen sowie das Lehramt an Gymnasien an der Universität Koblenz-Landau
Siebzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im Zwei-Fach-Bachelorstudiengang an der Universität Koblenz-Landau
Vierte Ordnung zur Änderung der Ordnung für die Prüfung im Bachelorstudiengang und im Masterstudiengang Erziehungswissenschaft an der Universität Koblenz-Landau, Campus Landau
Achte Ordnung zur Änderung der Gemeinsamen Prüfungsordnung für den Bachelorstudiengang und den Masterstudiengang „Psychologie“ des Fachbereichs
Psychologie der Universität Koblenz-Landau, Campus Landau
Siebte Ordnung zur Änderung der Ordnung für die Prüfung im Bachelorstudiengang Umweltwissenschaften und in den Masterstudiengängen Umweltwissenschaften / Environmental Sciences und Ecotoxicology an der Universität Koblenz-Landau, Campus Landau
Beitragsordnung der Studierendenschaft der Universität Koblenz-Landau, Campus Landau
In dieser Arbeit wird das Echtzeitrendering von Wolken von der Theorie bis hin zur Entwicklung derselben behandelt. Dabei sollen die visuellen Eigenschaften der Wolken sowie die unterschiedliche Wolkentypen simuliert werden. Dabei ist die Berechnung der Beleuchtung essentiell für ein glaubwürdiges Ergebnis. Die Rendertechniken nutzen dabei unterschiedliche Noise-Texturen; für die Modulierung der Wolken sind es hauptsächlich Perlin- und Perlin-Worley-Texturen. Das Rendern der Wolken wird per Compute-Shader durchgeführt um die Echtzeitfähigkeit zu gewährleisten. Um die Performance zu steigern, werden Temporal Reprojektion und andere Optimierungstechniken angewendet.
In dieser Arbeit wird überprüft, ob die Befahrung mit Forstmaschinen auf Andosol-Waldstandorten Auswirkungen auf die Bodenverdichtung hat. Dazu werden Faktoren wie die Anzahl der Befahrungen, die Neigung sowie die Bodenart betrachtet und analysiert. Die Andosolböden im Untersuchungsgebiet sind durch sehr geringe Lagerungsdichten sowie hohe Porenvolumen, bedingt durch Laacher See-Tephra (LST), gekennzeichnet.
Infolge der Befahrung durch Forstmaschinen bei zum Teil ungünstiger Witterung, bildeten sich bis zu 67 cm tiefe Fahrspuren. Des Weiteren erhöht sich die Lagerungsdichte im Vergleich zum unbeeinflussten Wald im Schnitt um 17 %, im Extremfall bis zu 54 %. Einzeln betrachtet kann für die Bodenart ein starker Zusammenhang zwischen Feinboden, vor allem Schluff sowie Ton, und der Lagerungsdichte festgestellt werden. Ein Zusammenhang zwischen der Hangneigung und der Verdichtung des Bodens kann anhand der untersuchten Rückegasse nicht festgestellt werden. Die Anzahl der Befahrungen scheint im Untersuchungsgebiet mit dem Grad der Verdichtung einherzugehen.
Zum Inhalt:
Die Dissertation ist in einem empirisch-qualitativen Forschungssetting eingebettet, bei der das Team-Teaching als Unterrichtsmethode im Forschungsfokus steht. Die Erhebung des empirischen Datenmaterials erfolgt einerseits mittels teilnehmender Beobachtung im Forschungsfeld und andererseits durch ein Gruppeninterview, das mit Lehrkräften geführt wird, die über einen gewissen Beobachtungszeitraum Erfahrungen mit der Unterrichtsmethode des Team-Teaching gesammelt haben. Für die hier zu Grunde gelegte Feldforschung wird das „theoretical sampling“ zum Einsatz kommen, das 1967 von Glaser und Strauss im Rahmen einer empirischen Untersuchung begründet worden ist.
Zum Aufbau:
In der Einleitung wird das Forschungsinteresse, der Forschungsstand und die zentrale Forschungsfrage der Dissertation beschrieben. Im zweiten Kapitel folgt der theoretische Teil mit einer differenzierten Definition des Team-Teachings als Unterrichtsmethode. Es folgt eine allgemeine Definition zum Unterricht, um die spezifischen Merkmale des Team-Teachings differenziert herausarbeiten zu können. Die empirischen Daten werden im Rahmen einer teilnehmenden Beobachtung im Unterricht der Oberstufe einer Förderschule mit dem Förderschwerpunkt Lernen und sozial-emotionale Entwicklung erhoben. Deshalb sind im Theorieteil der Förderschwerpunkt und die curricularen Aspekte zum Förderschwerpunkt dargestellt. Die Bedeutung der Unterrichtsmethode des Team-Teachings für das Unterrichtssetting in einer Förderschule mit dem sozial-emotionalem Förderschwerpunkt ist ebenfalls im Theorieteil verortet.
Im dritten Kapitel werden die qualitativen und quantitativen Erhebungsinstrumente beschrieben und Hypothesen formuliert. Die Darstellung der Methoden zur Aufbereitung des Datenmaterials ist im vierten Kapitel verortet. Die Interpretation der Forschungsergebnisse erfolgt im fünften Kapitel. Die qualitative und quantitative Datenauswertung des empirischen Datenmaterials ist im sechsten Kapitel dargestellt. Die Dissertation schließt im siebten Kapitel mit einen Fazit und Ausblick.
Diese Bachelorarbeit beschäftigt sich mit dem Entwurf und der Implementation einer virtuellen Realitätserfahrung. Ziel ist es, zwei Fragen zu beantworten: Ist es möglich, eine immersive virtuelle Anwendung zu erschaffen, die hauptsächlich Impulse und Trigger benutzt, um Angst und Schrecken bei den Benutzern zu erzeugen? Zweitens, ist diese Immersion ausreichend, die Benutzer so zu illusionieren, dass sie die virtuelle Welt für die Reale halten. Zur Erschaffung dieser Erfahrung wurde die Programmierumgebung Unity3D sowie Visual Studios 2017 verwendet. Um festzustellen, ob diese VR-Anwendung tatsächlich immersiv für den Anwender ist, wurde ein Experiment mit sieben Probanden durchgeführt. Nach der Spieltestung wurden die Probanden zu Ihren Erfahrungen mittels eines Fragebogens befragt. Es konnte dadruch gezeigt werden, dass diese Anwendungen Tendenzen zur Immersion aufweisen. Jedoch waren sich die Benutzer der Situation, in der sie sich befanden, stets bewusst. Daraus lässt sich schlussfolgern, dass die Immersion nicht stark genug war, um die Probanden bezüglich der virtuellen und realen Welt zu täuschen.
Die didaktische Konzeption der Schreibkonferenz ist soweit etabliert, dass sie bereits in den rheinland-pfälzischen Rahmenplan für die Grundschule für das Fach Deutsch übernommen wurde. Bisher liegt eine Reihe von Erfahrungsberichten zur Schreibkonferenz vor, jedoch wurden dazu bislang kaum systematisch empirische Untersuchungen durchgeführt. Die empirische Studie dieser Arbeit, welche an die VERA-Studie angeschlossen ist, untersucht, ob im Grundschulunterricht (in der dritten und vierten Klasse) der Einsatz von Schreibkonferenzen im Vergleich zur konventionellen Aufsatzdidaktik zu einer Verbesserung der Schreibleistungen, des eigenen Lernens, zu positiven Veränderungen des eigenen Verhaltens sowie zur Förderung der Motivation der Schüler beim Schreiben führt. Dabei wird von folgenden Überlegungen ausgegangen: Zum einen sollte die Schreibkonferenz im Gegensatz zur traditionellen Aufsatzdidaktik das selbstständige Arbeiten der Schüler mit Texten im Deutschunterricht fördern, zum anderen sollte sie zu einer intensiveren Auseinandersetzung mit Texten und damit zu einer Verbesserung des Aufsatzschreibens führen.
Die vorliegende Arbeit hat die Adaption der Übersetzung des Fragebogens zu Kompetenz- und Kontrollüberzeugungen nach Günter Krampen aus dem Jahr 1991 zum Ziel und prüft die Übersetzung auf ihre Gültigkeit und Richtigkeit. Nach der Erklärung des Forschungsinteresses und der Herleitung des psychologischen Konstruktes der Kontrolle, sowie der Vorstellung des behandelten Fragebogens, werden Methoden der Übersetzung psychologischer Messinstrumente vorgestellt und im Anschluss des Übersetzungsprozesses des Fragebogens dargestellt, welcher aus einem Team-Ansatz bestand und durch die Kontrolle mehrerer Personen einen hohen Qualitätsanspruch garantiert. Die Endfassung des Fragebogens wird an einer Stichprobe von N=129 polnischen Probanden untersucht und mit einer deutschen Kontrollgruppe von N=52 Probanden, sowie der Normierungsstichprobe aus dem deutschen Manual des Fragebogens zu Kompetenz- und Kontrollüberzeugungen (Krampen, 1991) verglichen. Teststatistische Kennwerte wie die Mittelwerte und Standardabweichungen der Items aber auch der Subskalen weisen eine große Ähnlichkeit der Fragebogenversionen auf. Ebenso können die Trennschärfen der Items im Gruppenvergleich der drei Stichproben als zufriedenstellend angesehen werden. Die interne Konsistenz sowie die Testhalbierungsreliabilität können für die Subskalen sowie den gesamten Fragebogen in der polnischen Version größtenteils bestätigt werden, sodass die Übersetzung als reliabel anzusehen ist. Darüber hinaus kann die Validität durch testtheoretisch adäquate Skaleninterkorrelationen und die Validierung mit dem externen Faktor des Wohlbefindens bestätigt werden. Die qualitative Erhebung zur Überprüfung des Verständnisses der übersetzten Items, zeigt zudem ein homogenes unidimensionales Bild und bestätigt die Qualität der Übersetzung. Die faktorielle Analyse zeigt jedoch im Gegensatz zu den restlichen Untersuchungen deutliche Unterschiede auf, da aus der polnischen Stichprobe eine zweifaktorielle Lösung auf Sekundärskalenniveau hervorgeht, wohingegen die Normstichprobe des Manuals, sowie die deutsche Stichprobe konstruktdifferenzierte und in der Theorie des Fragebogens begründete vierfaktorielle Ausgaben aufzeigt. In jeder Version des Fragebogens wurden jedoch schwach ladende und faktoriell nicht klar zuordbare Items gefunden, welche eine statistische Itembereinigung des Fragebogens in der zukünftigen Arbeit mit dem Messinstrument legitimieren. Diese Unterschiede bestätigt auch die Procustean Factor Rotation, welche korrelative Differenzen zwischen den Faktoranalysen der deutschen und polnischen Daten anzeigt und in einer weiteren Untersuchung näher beleuchtet werden sollte. Zusammenfassend kann die Übersetzung des Fragebogens zu Kompetenz- und Kontrollüberzeugungen als gelungen angesehen werden, auch wenn der Fragebogen sowohl in seiner Originalfassung als auch in der polnischen Version einer Optimierung unterlaufen sollte.
Soll die Inneneinrichtung eines Raums geplant werden, stehen verschiedene
Programme für Computer, Smartphones oder Head-Mounted Displays
zur Verfügung. Problematisch ist hierbei der Transfer der Planung in die
reale Umgebung. Deshalb wird ein Ansatz mit Augmented Reality entwickelt,
durch den die Planung des Raums unter realen Umständen veranschaulicht
wird. Möchten mehrere Personen ihre Ideen beitragen, erfordern
herkömmliche Systeme die Zusammenarbeit an einem Endgerät. Ziel dieser
Masterarbeit ist es, eine kollaborative Anwendung zur Raumplanung
in Augmented Reality zu konzipieren und zu entwickeln. Die Umsetzung
erfolgt in Unity mit ARCore und C#.
Politische Steuerung in nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz
(2019)
Das Ziel der Dissertation besteht in der Erklärung und Analyse grundlegender Steuerungsmuster zwischen Politik und Universitätssystem in den nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz: Wurde die Studienreform primär staatlich verordnet, im Dialog mit den Hochschulen implementiert oder die Ausgestaltung der Reform der Wissenschaft weitgehend überlassen - und welche Instrumente wurden dabei weshalb genutzt? Damit schließt die Arbeit an den aktuellen Forschungsstand zu vertikalen Vermittlungsprozessen (übernational-national) im Bologna-Prozess an: Nationale Hochschulsysteme konvergieren nicht zu einem einheitlichen Modell, sondern nationale Faktoren (z.B. Problemdeutungen und Einflussmöglichkeiten von Bildungspolitik, Universitäten u.a.) führen dazu, dass Bologna jeweils länderspezifisch verstanden und interpretiert wird.
Vor diesem Hintergrund wird im theoretischen Teil zur Anleitung eines systematischen Vergleichs ein analytischer Rahmen entworfen, dessen Elemente sowohl aus der Politikwissenschaft (Instrumenteforschung, Politische Steuerung, Governance etc.) als auch aus der Hochschulforschung stammen. In den anschließenden empirischen Kapiteln zu den drei Ländern werden die Akteurkonstellationen und faktisch zu beobachtenden Instrumentarien beschrieben, analysiert und interpretiert. Die methodische Basis bilden neben der Analyse zahlreicher Dokumente 37 leitfadengestützte Interviews mit Expertinnen und Experten.
Grundsätzlich lassen sich auf Basis der empirischen Teile die folgenden zentralen Ergebnisse der Studie festhalten:
Deutschland: Aufgrund der relativ starken Kompetenzen der Länder und der Einflussschwäche der Universitäten ist für den deutschen Bologna-Prozess ein primär interventionistisches Muster kennzeichnend. Dieses wurde und wird bis heute dadurch verstärkt, dass die Umsetzung von Bologna durch spezifische Problemwahrnehmungen und -lösungen von KMK und HRK in den 90er Jahren geprägt ist (z.B. Modularisierung als Antwort auf unstrukturierte Studiengänge, Akkreditierung als Fortführung der tradierten Input-Steuerung). `Bologna` wurde so mit genuin nationalen Instrumenten verquickt, die z.T. quer zum tradierten Lehrhabitus vieler Hochschullehrerinnen und -lehrer lag und liegt (z.B. Modularisierung oder Kompetenzorientierung). Verstärkend trat hinzu, dass die Reform u.a. aufgrund des Bund/Länder-Konflikts in der Bildungspolitik im Vorfeld der Föderalismusreform I nicht finanziell unterstützt wurde. Plastisch formuliert ist der deutsche Bologna-Prozess regulativ über- und finanziell untersteuert, was auch zu den Studierendenprotesten 2009/2010 beitrug.
Österreich: Der Bologna-Prozess lief in Österreich parallel zu einem umfassenden Neuordnungsprozess, innerhalb dessen die Universitäten in ihrer Autonomie erheblich gestärkt wurden und sich das zuvor zentrale Wissenschaftsministerium in seinen Kompetenzen erheblich limitierte. Dieses hatte die Reform unmittelbar 1999 noch angestoßen, zog sich anschließend jedoch im Rahmen einer `minimalen Steuerung` zurück und übernahm auch keine Reformmehrkosten. Da unterhalb der in die Autonomie entlassenen Universitäten kein nationaler Dialog über die Reform in Gang kommen konnte, fand der Bologna-Prozess vor allem auf der Ebene der jeweils eigenständigen Universitäten `vor Ort` statt. Diese erhebliche regulative und finanzielle Untersteuerung führte 2009/2010 zu massiven Studierendenprotesten, die angesichts der schwachen Position des Ministeriums auch nur unzureichend kanalisiert werden konnten.
Schweiz: In der Schweiz hingegen ist eine austarierte regulative und finanzielle Steuerung zu beobachten. Bund und Kantone übertrugen Anfang der 2000er Jahre wenige, aber wesentliche Kompetenzen auf ein gemeinsames Organ, das seinerseits per Gesetz eng mit der Rektorenkonferenz zusammenarbeiten sollte. Bologna stärkte dieses bis dato auf dem Papier bestehende Muster: Vor dem Hintergrund einer übergreifend geteilten prozessualen Subsidiaritätsnorm sowie weitgehender Präferenzenübereinstimmung zwischen Politik und Universitäten finanzierte der Staat gezielt die Reformmehrkosten sowie strategische Projekte und delegiert die Formulierung, Implementierung und Weiterentwicklung zentraler Vorgaben auf der Basis des Entscheidungsvorbehalts an die Rektorenkonferenz bzw. Universitäten. Probleme werden innerhalb dieses Arrangements z.T. identifiziert und bearbeitet. Die Politik greift nur subsidiär im Ausnahmefall ein. Die Schweiz kommt daher dem Idealtypus der strukturierenden Steuerung sehr nahe.
Die Befunde werden abschließend in einen größeren Bezugsrahmen eingeordnet, um sie über Bologna hinaus für die Analyse des deutschen Hochschulsystems fruchtbar zu machen. Maßstab hierfür sind ausgewählte normative Kriterien zur Güte von Steuerungsmustern. So wird z.B. gezielt die politische Entscheidungskapazität in den beobachteten Mustern betrachtet: Während etwa in Deutschland auf die Studierendenproteste 2009 im Rahmen des interventionistischen Musters mit verbindlichen Instrumenten wie Strukturvorgaben, Akkreditierung und letztlich dem Qualitätspakt Lehre nicht nur symbolisch reagiert werden konnte, stand das Wiener Wissenschaftsministerium den starken Protesten durch den Verzicht auf regulative und finanzielle Ressourcen hilflos gegenüber.
Auf dieser Basis werden abschließend einige grundlegende Anregungen zur Weiterentwicklung des deutschen Hochschulsystems gegeben. Unter anderem wird dafür plädiert, den hochschulpolitischen Reformdiskurs, der sich oftmals nur zwischen den Polen `mehr Staat` und `mehr Wettbewerb` zu bewegen scheint, gezielt um alternative Handlungslogiken und Akteure zu erweitern: Die Ergebnisse der Arbeit legen nahe, Verbände und Organisationen (Rektorenkonferenzen, Fachgesellschaften, Fakultätentage u.a.) politisch zu stärken, um diese Sichtweisen und Expertisen in zukünftigen Reformprozessen (z.B. aktuell Digitalisierung) systematischer als zuvor miteinzubeziehen. Denn eine zu starke Entkopplung von politischen und wissenschaftlichen Rationalitäten führt unweigerlich zu nicht intendierten Effekten, die ihrerseits wieder Handlungsdruck erzeugen (z.B. Proteste).
Im Rahmen eines partizipatorischen Aktionsforschungsansatzes wurden die Lehrpersonen und Schüler/innen an einem Oberstufenrealgymnasium mit musischem Schwerpunkt und Montessori (MORG), drei Schuljahre, von 2012-2015, auf ihrem Weg zu einer inklusiven Schule wissenschaftlich begleitet. Basierend auf Einstellungs- und Selbstwirksamkeitstheorien und Ansätzen der inklusiven Pädagogik, sowie akteursbasierten Forschungen, richtete sich das Erkenntnisinteresse auf die Umsetzung einer inklusiven Lern- und Schulkultur – in einer Institution im Bildungssystem der Sekundarstufe II in Österreich, das von seiner Ausrichtung her hoch selektiv ist.
Mittels qualitativer und quantitativer Daten konnte rekonstruiert werden, von welchem Verständnis die Lehrpersonen am MORG (n=19) geleitet wurden, welche Kompetenzen sie aus ihrer Sicht für die Entwicklung einer inklusiven Bildung mitgebracht haben und wie sie die Inklusion am MORG umsetzten. Zur Erhebung der Einstellungen und Selbstwirksamkeitseinschätzungen der Lehrpersonen wurden die international und national erprobten SACIE-R (Sentiments, Attitudes and Concerns about Inclusive Education-Revi-sed) und TEIP (Teacher Efficacy for Inclusive Practice) Skalen in einer deutschsprachigen Fassung verwendet. Ferner wurde die empirische Erhebung im Rahmen einer webbasierten nationalen Befragung von Lehrpersonen an mehreren Schultypen erweitert (n= 427), um vergleichende Aussagen treffen zu können.
Inhaltsanalytisch verarbeitete Interviews und statistisch ausgewertete, im Forschungsteam erstellte Fragebögen für Erziehungsberechtigte (n= 37) sowie Schüler/innen (n=19), ermöglichten den vertieften Einblick in die Praxis aus mehreren Sichtweisen. Die Zusammenschau der Ergebnisse zeigt, dass es einem eher jungen Lehrerteam mit sehr positiven Einstellungen zur Inklusion von Jugendlichen mit Beeinträchtigungen – trotz anfänglicher Schwierigkeiten und selektiver systemischer Rahmenbedingungen auf der Sek. II – gelungen ist, eine für alle Schüler/innen lernförderliche und lebendige Schulkultur herzustellen. Dennoch blieben die Bemühungen der Lehrpersonen im Rahmen der Systemgrenzen. Eine Weiterentwicklung zu einer ‚Schule für alle‘, eine logische Konsequenz inklusionstheoretischer Ansätze, ist nicht festzustellen. Die Auswertungen bestätigen die bisher gewonnenen zentralen Erkenntnisse der Inklusions- und Akteursforschung und werden durch Ergebnisse erweitert, die im Zusammenhang mit den systemischen Rahmenbedingungen auf der Sek. II gesehen werden können.
In dieser Bachelorarbeit wird ein System zur Kameratracking implementiert, dass auf Basis eines Partikelfilters arbeitet. Dazu wird ein Markertracking realisiert und anhand der Markerposition die Kameraposition errechnet. Der Marker soll mit ein Partikelfilter gefunden werden und um das zu bewerkstelligen werden mögliche Markerpositionen simuliert, auch Partikel genannt, und mit Likelyhood Funktionen gewichtet. Fokus liegt auf der Evaluation von verschiedenen Likelyhood-Funktionen des Partikelfilters. Die Likelyhood-Funktionen wurden in CUDA umgesetzt als Teil der Implementation.
Vereine, wie zum Beispiel die Pfadfinder, stützen sich auf die Arbeit ihrer ehrenamtlichen Mitglieder, welche eine Vielzahl von Aufgaben zu erledigen haben. Oftmals kommt es in den Reihen der Mitglieder zu plötzlichen Änderungen in den Organisationsteams und Ämtern, wobei Planungsschritte verloren gehen und Unerfahrenheit bezüglich der Planung besteht. Da die speziellen Anforderungen durch bereits existierende Tools nicht abgedeckt werden, wird zur Unterstützung von Vereinen in Bezug auf die genannte Problematik in dieser Arbeit ScOuT, ein Planungstool für die Organisationsverwaltung, konzipiert und entwickelt. Der Schwerpunkt lag darauf verschiedene geeignete Richtlinien und heuristische Methoden zu identifizieren und zu verwenden, um eine gebrauchstaugliche Benutzeroberfläche erstellen zu können. Das entwickelte Produkt wurde im Rahmen der Arbeit empirisch durch eine Benutzerumfrage bezüglich der Gebrauchstauglichkeit ausgewertet. Das Ergebnis dieser Studie zeigt, dass bereits ein hohes Maß des angestrebten Ziels durch den Einbezug der Richtlinien und Methoden erreicht werden konnte.
Daraus lässt sich im großen Kontext schließen, dass mithilfe von benutzerspezifischen Konzeptideen und der Anwendung geeigneter Richtlinien und Methoden eine zielführende Grundlage für eine gebrauchstaugliche Anwendung zur Unterstützung von Vereinen erstellt werden kann.
Datenflussmodelle in der Literatur weisen oftmals einen hohen Detailgrad auf, der sich auf die auf den Modellen durchgeführten Datenflussanalysen überträgt und diese somit schwerer verständlich macht. Da ein Datenflussmodell, das von einem Großteil der Implementierungsdetails des modellierten Programms abstrahiert, potenziell leichter verständliche Datenflussanalysen erlaubt, beschäftigt sich die vorliegende Masterarbeit mit der Spezifikation und dem Aufbau eines stark abstrahierten Datenflussmodells und der Durchführung von Datenflussanalysen auf diesem Modell. Das Modell und die darauf arbeitenden Analysen wurden testgetrieben entwickelt, sodass ein breites Spektrum möglicher Datenflussszenarien abgedeckt werden konnte. Als konkrete Datenflussanalyse wurde unter anderem eine statische Sicherheitsprüfung in Form einer Erkennung unzureichender Nutzereingabenbereinigungen durchgeführt. Bisher existiert kein Datenflussmodell auf einer ähnlich hohen Abstraktionsebene. Es handelt sich daher um einen einzigartigen Lösungsentwurf, der Entwicklern die Durchführung von Datenflussanalysen erleichtert, die keine Expertise auf diesem Gebiet haben.
Diese Arbeit behandelt die Konzeption und Implementation eines Action-Rollenspiels mithilfe der Game Engine Unity. Im Rahmen einer Evaluation sollte das Spiel hinsichtlich der Bedienbarkeit der integrierten Steuerungsarten, der visuellen Überzeugung der Animationen und der Benutzerfreundlichkeit über zur Verfügung gestellte Hilfsmittel und Visualisierungen bewertet werden. Zusätzlich sollten Schwachstellen und Probleme im Spiel über offenes Feedback herausgefunden werden. Die Auswertung der Evaluation ergab, dass das Spiel im Hinblick auf die Bedienbarkeit und Benutzerfreundlichkeit zwar noch ausbaufähig ist, aber insgesamt einen guten Eindruck bei den Probanden hinterlassen hat.
Das Ziel dieser Arbeit ist es, zu bestimmen, ob neuronale Netze (insbesondere LSTM) zur Prozessvorhersage eingesetzt werden können. Dabei soll eine möglichst genaue Vorhersage zu dem Nachfolger eines Events getroffen werden.
Dazu wurde Python mit dem Framework TensorFlow genutzt, um ein rekurrentes neuronales Netz zu erstellen. Dabei werden zwei Netze erstellt, wobei das eine für das Training und das andere für die Vorhersage genutzt wird.
Die verwendeten Datensätze bestehen aus mehreren Prozessen mit jeweils mehreren Events. Mit diesen Prozessen wird das Netz trainiert und die Parameter nach dem Training gespeichert. Das Netz zur Vorhersage nutzt dann dieselben Parameter, um Vorhersagen zu Events zu treffen.
Das neuronale Netz ist in der Lage, nachfolgende Events eindeutig vorherzusagen. Auch Verzweigungen können vorhergesagt werden.
In der weiteren Entwicklung ist eine Einbindung in andere Programme möglich. Dabei ist es empfehlenswert, auf eine eindeutige Benennung der Events zu achten oder eine geeignete Umbenennung durchzuführen.
Absicherung der analytischen Interpretation von Geolokalisierungsdaten in der Mobilfunkforensik
(2019)
Zusammenfassung
Lokalisierungsdienste gehören mit zu den wesentlichen Merkmalen moderner mobiler Endgeräte. Neben der Tatsache, dass Standortdaten zur Rekonstruktion eines Bewegungsprofils genutzt werden können, steigt der Anteil der zu untersuchenden Geräten mit entsprechender Ausstattung im Rahmen von polizeilichen Ermittlungen enorm an.
Motivation
Ziel dieser Arbeit ist es, tiefergehendes Wissen um Geolokalisierungsfragen im Bereich der Mobilfunkforensik aufzubauen, um die in den Geräten gespeicherten Standortdaten forensisch auswertbar zu machen. Darüber hinaus sollen Werkzeuge entwickelt werden, die die spezifischen Bedürfnisse der Strafverfolgungsbehörden berücksichtigen.
Probleme
Die Prozesse der Geolokalisierung in Smartphones sind komplex. Um seine Position zu lokalisieren zu können, müssen verschiedene Referenzsysteme wie z. B. GPS, Funkzellen oder WLAN-hotspots in unterschiedlicher Art und Weise verknüpft werden. Der gesamte Lokalisierungsmechanismus ist geistiges Eigentum der Hersteller und nicht mit dem Ziel forensischer Auswertungen entstanden. Ein grundlegendes Problem der forensischen Untersuchung ist, dass hauptsächlich Referenzpunkte anstelle reeller Gerätepositionen gespeichert werden. Darüber hinaus bestehen die Geolokalisierungsinformationen aus Bits und Bytes bzw. numerischen Werten, die zuverlässig an ihre Bedeutung geknüpft werden müssen. Die gewonnenen Lokalisierungsdaten sind ferner lückenhaft und stellen lediglich einen Teil des gesamten Prozesses bzw. der Gerätenutzung dar. Dieser Datenverlust muss bestimmt werden, um eine zuverlässige Aussage hinsichtlich der Vollständigkeit, Integrität und Genauigkeit der Daten zu ermöglichen. Zu guter Letzt muss, wie für jedes Beweismittel einer kriminalistischen Untersuchung, gesichert sein, dass eine Manipulation der Daten bzw. Fehler bei der Positionsschätzung des Gerätes keinen nachteiligen Einfluss auf die Auswertung haben.
Forschungsfragen
Im Zusammenhang mit Lokalisierungsdiensten in modernen Smartphones kommt es im forensischen Alltag immer wieder zu ähnlichen Fragestellungen:
* Lassen sich Standorte zu jedem beliebigen Zeitpunkt ermitteln?
* Wie genau sind die ermittelten Geodaten des Smartphones?
* Werden Standortdaten aus Smartphones vor Gericht Bestand haben?
Forschungsansatz
Zur besseren Nachvollziehbarkeit der Prozesse in modernen Smartphones und um die Qualität und Zuverlässigkeit von Geolokalisierungsdaten zu bewerten, sollen Standortdaten verschiedener Plattformen sowohl theoretisch analysiert als auch praktisch während der Lokalisierung betrachtet werden. Der Zusammenhang zwischen Daten und Entstehungskontext wird mithilfe experimenteller Live-Untersuchungen sowie Desktop- und nativen Anwendungen auf den mobilen Endgeräten untersucht werden.
Ergebnis
Im Rahmen dieser Arbeit konnten mithilfe der entwickelten Werkzeuge die forensische Untersuchung verbessert sowie die analytische Interpretation von Geodaten von- bzw. direkt auf modernen Smartphones durchgeführt werden. Dabei hat sich ein generisches Modell zur Beurteilung der Qualität von Standortdaten herauskristallisiert, das sich allgemein auf die ermittelten Geodaten aus mobilen Endgeräten anwenden lässt.
Simulationen in der Computergraphik haben das Ziel, die Realität so genau wie möglich in einer Szene einzufangen. Dafür werden intern und extern wirkende Kräfte berechnet, aus denen Beschleunigungen berechnet werden. Mit diesen werden letztendlich die Positionen von Geometrien oder Partikeln verändert.
Position Based Dynaimcs arbeitet direkt auf den Positionen. Durch Constraints wird eine Menge von Regeln aufgestellt, die zu jedem Zeitpunkt in der Simulation gelten sollen. Ist dies nicht der Fall, so werden die Positionen so verändert, dass sie den Constraints entsprechen. In dieser Arbeit wird ein PBD-Framework implementiert, in dem Solide und Fluide simuliert werden. Die Constraints werden durch ein Gauss-Seidel-Lösungsverfahren und ein Gauss-Jakobi-Lösungsverfahren gelöst. Die Berechnungen finden dabei komplett auf der GPU statt. Die Ergebnisse sind physikalisch plausible Simulationen, die in Echtzeit laufen.
Der Fachbereich 4: Informatik forscht und lehrt in einem diversifzierten Spektrum der Digitalisierung von Wirtschaft, Gesellschaft und öffentlicher Verwaltung. Die Themen schließen Grundlagenforschung und anwendungsorientierte sowie interdisziplinäre Forschung und Lehre ein. Sie reichen von der Kerninformatik bis zu grafschen und ökonomischen Aspekten der Informationsverarbeitung, wie nachfolgende Grafk verdeutlicht (die einzelnen Institute und ihre zugehörigen Arbeitsgruppen stellen sich in den nachfolgenden Kapiteln vor):