Filtern
Erscheinungsjahr
- 2019 (80) (entfernen)
Dokumenttyp
- Bachelorarbeit (33)
- Masterarbeit (17)
- Dissertation (16)
- Ausgabe (Heft) zu einer Zeitschrift (8)
- Bericht (3)
- Sonstiges (2)
- Buch (Monographie) (1)
Sprache
- Deutsch (80) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (3)
- Datenschutz (2)
- Immersion (2)
- Inklusion (2)
- 3D-Scan (1)
- AR (1)
- Aluminiumorthophosphat (1)
- Aufsatzdidaktik (1)
- Augmented Reality (1)
- BRDF (1)
- Behinderungen (1)
- Bildung für nachhaltige Entwicklung (1)
- Bologna-Prozess (1)
- Boppard (1)
- Bororthophosphat (1)
- CCRDMT (1)
- Chancengerechtigkeit (1)
- Christusbekenntnis (1)
- Classroom-Management (1)
- Comic (1)
- Computergraphik (1)
- Cybersickness (1)
- Data flow analysis (1)
- Datenfluss (1)
- Datenflussanalyse (1)
- Datenflussmodell (1)
- Datenschutz, Datensicherheit, Apps, Informatik im Kontext (1)
- Denkmal (1)
- Drucktechnik (1)
- EP Wahl (1)
- EU (1)
- Echtzeit (1)
- Einstellungen und Haltungen zu Inklusion (1)
- Euroskeptizismus (1)
- Evangelium (1)
- Exegese (1)
- Fragebogen (1)
- Förderschule (1)
- Gebrauchstauglichkeit (1)
- Geschichte (1)
- Gonioreflectometer (1)
- Governance (1)
- Graphic novel (1)
- Hochschulpolitik (1)
- India (1)
- Indien (1)
- Individuelle Computermodelle (1)
- Informatik (1)
- Inhaltsanalyse (1)
- InstaHub (1)
- Integration in der SEK II (1)
- Judentum (1)
- Jüdisch (1)
- Kollaborationsplattform (1)
- Kontrollerleben (1)
- Konzeption (1)
- Kunstgeschichte (1)
- Lehrerbildung (1)
- Lendenwirbelsäule (1)
- Lernklima (1)
- Markusevangelium (1)
- Material point method (1)
- Missionarin (1)
- Mittelrhein (1)
- Motion Sickness (1)
- Nachhaltigkeit (1)
- Nachhaltigkeitsbericht (1)
- Natronwasserglas (1)
- Ordensfrau (1)
- Orientierungsstufe (1)
- Parteienkommunikation (1)
- Petrus (1)
- Pflege (1)
- Physiksimulation (1)
- Planspiel 2.0 (1)
- Politische Steuerung (1)
- Position Based Dynamics (1)
- Primzahl (1)
- Primzahlen (1)
- Quantitative Untersuchung (1)
- Raumplanung (1)
- Reflexionsprozesse (1)
- Rieselmassen (1)
- Schnee (1)
- Schreibdidaktik (1)
- Schulklima (1)
- Selbstkonzept (1)
- Serigrafie (1)
- Simulation (1)
- Stadt (1)
- Statische Analyse (1)
- Teamteaching (1)
- Templerhaus (1)
- Transformation (1)
- Tundish (1)
- Unterricht (1)
- Unterrichtsforschung (1)
- Unterrichtsmethode (1)
- VR (1)
- Vergleichende Politikwissenschaft (1)
- Virtual Reality (1)
- Virtuelle Realität (1)
- Weinbau (1)
- Will Eisner (1)
- Writing Conference (1)
- Zertifikat (1)
- Zifferndarstellung (1)
- care (1)
- collaboration plattform (1)
- hybride App (1)
- missionary (1)
- nun (1)
- physics simulation (1)
- prozedural (1)
- ray tracing (1)
- rtx (1)
- self-concept (1)
- snow (1)
- vulkan (1)
Institut
- Institut für Computervisualistik (31)
- Institut für Management (7)
- Zentrale Einrichtungen (7)
- Institut für Wirtschafts- und Verwaltungsinformatik (4)
- Institut für Grundschulpädagogik (3)
- Institut für Softwaretechnik (3)
- Fachbereich 4 (2)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (2)
- Institut für Kulturwissenschaft (2)
- Institut für Kunstwissenschaft (2)
Datenflussmodelle in der Literatur weisen oftmals einen hohen Detailgrad auf, der sich auf die auf den Modellen durchgeführten Datenflussanalysen überträgt und diese somit schwerer verständlich macht. Da ein Datenflussmodell, das von einem Großteil der Implementierungsdetails des modellierten Programms abstrahiert, potenziell leichter verständliche Datenflussanalysen erlaubt, beschäftigt sich die vorliegende Masterarbeit mit der Spezifikation und dem Aufbau eines stark abstrahierten Datenflussmodells und der Durchführung von Datenflussanalysen auf diesem Modell. Das Modell und die darauf arbeitenden Analysen wurden testgetrieben entwickelt, sodass ein breites Spektrum möglicher Datenflussszenarien abgedeckt werden konnte. Als konkrete Datenflussanalyse wurde unter anderem eine statische Sicherheitsprüfung in Form einer Erkennung unzureichender Nutzereingabenbereinigungen durchgeführt. Bisher existiert kein Datenflussmodell auf einer ähnlich hohen Abstraktionsebene. Es handelt sich daher um einen einzigartigen Lösungsentwurf, der Entwicklern die Durchführung von Datenflussanalysen erleichtert, die keine Expertise auf diesem Gebiet haben.
Innerhalb dieser Arbeit wird die Theorie des Video-Seethroughs anhand einer Panoramaerstellung aus mehreren Kamerabildern verschiedener Perspektiven grundlegend dargestellt. Darauf basierend wurde ein System konzipiert und umgesetzt, bei dem Videostreams durch perspektivische Verzerrung zu einem Panoramabild zusammengesetzt werden. Anschließend wird dieses auf die Innenseite eines Zylinders projiziert, in dessen Mitte sich die virtuelle Position des Betrachters befindet. Schließlich
sollen die entstandenen Videopanoramen in einer VR-Brille dargestellt werden. Innerhalb der Implementierung werden außerdem einige Optimierungen vorgestellt, unter anderem solche, die das System - über die Aufgabenstellung hinaus - echtzeitfähig machen. Des Weiteren wird das erarbeitete
System bewertet und mit zwei anderen Verfahren verglichen.
Politische Steuerung in nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz
(2019)
Das Ziel der Dissertation besteht in der Erklärung und Analyse grundlegender Steuerungsmuster zwischen Politik und Universitätssystem in den nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz: Wurde die Studienreform primär staatlich verordnet, im Dialog mit den Hochschulen implementiert oder die Ausgestaltung der Reform der Wissenschaft weitgehend überlassen - und welche Instrumente wurden dabei weshalb genutzt? Damit schließt die Arbeit an den aktuellen Forschungsstand zu vertikalen Vermittlungsprozessen (übernational-national) im Bologna-Prozess an: Nationale Hochschulsysteme konvergieren nicht zu einem einheitlichen Modell, sondern nationale Faktoren (z.B. Problemdeutungen und Einflussmöglichkeiten von Bildungspolitik, Universitäten u.a.) führen dazu, dass Bologna jeweils länderspezifisch verstanden und interpretiert wird.
Vor diesem Hintergrund wird im theoretischen Teil zur Anleitung eines systematischen Vergleichs ein analytischer Rahmen entworfen, dessen Elemente sowohl aus der Politikwissenschaft (Instrumenteforschung, Politische Steuerung, Governance etc.) als auch aus der Hochschulforschung stammen. In den anschließenden empirischen Kapiteln zu den drei Ländern werden die Akteurkonstellationen und faktisch zu beobachtenden Instrumentarien beschrieben, analysiert und interpretiert. Die methodische Basis bilden neben der Analyse zahlreicher Dokumente 37 leitfadengestützte Interviews mit Expertinnen und Experten.
Grundsätzlich lassen sich auf Basis der empirischen Teile die folgenden zentralen Ergebnisse der Studie festhalten:
Deutschland: Aufgrund der relativ starken Kompetenzen der Länder und der Einflussschwäche der Universitäten ist für den deutschen Bologna-Prozess ein primär interventionistisches Muster kennzeichnend. Dieses wurde und wird bis heute dadurch verstärkt, dass die Umsetzung von Bologna durch spezifische Problemwahrnehmungen und -lösungen von KMK und HRK in den 90er Jahren geprägt ist (z.B. Modularisierung als Antwort auf unstrukturierte Studiengänge, Akkreditierung als Fortführung der tradierten Input-Steuerung). `Bologna` wurde so mit genuin nationalen Instrumenten verquickt, die z.T. quer zum tradierten Lehrhabitus vieler Hochschullehrerinnen und -lehrer lag und liegt (z.B. Modularisierung oder Kompetenzorientierung). Verstärkend trat hinzu, dass die Reform u.a. aufgrund des Bund/Länder-Konflikts in der Bildungspolitik im Vorfeld der Föderalismusreform I nicht finanziell unterstützt wurde. Plastisch formuliert ist der deutsche Bologna-Prozess regulativ über- und finanziell untersteuert, was auch zu den Studierendenprotesten 2009/2010 beitrug.
Österreich: Der Bologna-Prozess lief in Österreich parallel zu einem umfassenden Neuordnungsprozess, innerhalb dessen die Universitäten in ihrer Autonomie erheblich gestärkt wurden und sich das zuvor zentrale Wissenschaftsministerium in seinen Kompetenzen erheblich limitierte. Dieses hatte die Reform unmittelbar 1999 noch angestoßen, zog sich anschließend jedoch im Rahmen einer `minimalen Steuerung` zurück und übernahm auch keine Reformmehrkosten. Da unterhalb der in die Autonomie entlassenen Universitäten kein nationaler Dialog über die Reform in Gang kommen konnte, fand der Bologna-Prozess vor allem auf der Ebene der jeweils eigenständigen Universitäten `vor Ort` statt. Diese erhebliche regulative und finanzielle Untersteuerung führte 2009/2010 zu massiven Studierendenprotesten, die angesichts der schwachen Position des Ministeriums auch nur unzureichend kanalisiert werden konnten.
Schweiz: In der Schweiz hingegen ist eine austarierte regulative und finanzielle Steuerung zu beobachten. Bund und Kantone übertrugen Anfang der 2000er Jahre wenige, aber wesentliche Kompetenzen auf ein gemeinsames Organ, das seinerseits per Gesetz eng mit der Rektorenkonferenz zusammenarbeiten sollte. Bologna stärkte dieses bis dato auf dem Papier bestehende Muster: Vor dem Hintergrund einer übergreifend geteilten prozessualen Subsidiaritätsnorm sowie weitgehender Präferenzenübereinstimmung zwischen Politik und Universitäten finanzierte der Staat gezielt die Reformmehrkosten sowie strategische Projekte und delegiert die Formulierung, Implementierung und Weiterentwicklung zentraler Vorgaben auf der Basis des Entscheidungsvorbehalts an die Rektorenkonferenz bzw. Universitäten. Probleme werden innerhalb dieses Arrangements z.T. identifiziert und bearbeitet. Die Politik greift nur subsidiär im Ausnahmefall ein. Die Schweiz kommt daher dem Idealtypus der strukturierenden Steuerung sehr nahe.
Die Befunde werden abschließend in einen größeren Bezugsrahmen eingeordnet, um sie über Bologna hinaus für die Analyse des deutschen Hochschulsystems fruchtbar zu machen. Maßstab hierfür sind ausgewählte normative Kriterien zur Güte von Steuerungsmustern. So wird z.B. gezielt die politische Entscheidungskapazität in den beobachteten Mustern betrachtet: Während etwa in Deutschland auf die Studierendenproteste 2009 im Rahmen des interventionistischen Musters mit verbindlichen Instrumenten wie Strukturvorgaben, Akkreditierung und letztlich dem Qualitätspakt Lehre nicht nur symbolisch reagiert werden konnte, stand das Wiener Wissenschaftsministerium den starken Protesten durch den Verzicht auf regulative und finanzielle Ressourcen hilflos gegenüber.
Auf dieser Basis werden abschließend einige grundlegende Anregungen zur Weiterentwicklung des deutschen Hochschulsystems gegeben. Unter anderem wird dafür plädiert, den hochschulpolitischen Reformdiskurs, der sich oftmals nur zwischen den Polen `mehr Staat` und `mehr Wettbewerb` zu bewegen scheint, gezielt um alternative Handlungslogiken und Akteure zu erweitern: Die Ergebnisse der Arbeit legen nahe, Verbände und Organisationen (Rektorenkonferenzen, Fachgesellschaften, Fakultätentage u.a.) politisch zu stärken, um diese Sichtweisen und Expertisen in zukünftigen Reformprozessen (z.B. aktuell Digitalisierung) systematischer als zuvor miteinzubeziehen. Denn eine zu starke Entkopplung von politischen und wissenschaftlichen Rationalitäten führt unweigerlich zu nicht intendierten Effekten, die ihrerseits wieder Handlungsdruck erzeugen (z.B. Proteste).
Gegeben sei eine Basis b>=10 und eine Ziffer a0 aus der Menge {0,..., b − 1}. Wir untersuchen, ob es unendlich viele Primzahlen gibt, die in ihrer b-adischen Zifferndarstellung die Ziffer a0 nicht besitzen. Ferner schätzen wir die Anzahl dieser Primzahlen, die kleiner sind als X = b^k, nach oben und unten ab.
Damit gelingt uns eine Verallgemeinerung von Maynards Beweis für den Fall b = 10 und wir nutzen hierzu auch die in seiner Arbeit verwendeten Werkzeuge. Unter Anderem benötigen wir die Hardy-Littlewoodsche Kreismethode sowie diverse Siebmethoden, um die Minor Arcs zu kontrollieren.
Schließlich sehen wir, dass wir Maynard's Aussage vor allem dann auf beliebige Basen b>= 10 und ausgeschlossene Ziffern a0 aus {0, ..., b − 1} übertragen können, wenn zwei betragsmäßig größte Eigenwerte von Matrizen, die von b und a0 parametrisiert werden, bestimmte Abschätzungen erfüllen. Dass diese Abschätzungen im Fall b>=102 erfüllt sind, beweisen wir im letzten Kapitel. Für die Fälle b = 10 und b = 11 liegt ebenfalls ein Mathematica-Code vor, der die Abschätzungen bestätigt.
Die folgende Bachelorarbeit gibt einen Überblick über verschiedene Ansätze und Verfahren zur prozeduralen Generierung von dreidimensionalen Stadtmodellen. Dabei wird vor allem die Nutzung generativer Grammatiken näher untersucht und in einer eigens implementierten Anwendung integriert. Der Schwerpunkt war es, ein vorgegebenes, primäres Straßennetz einzubinden und darauffolgend ein sekundäres Straßennetz sowie verschiedene Gebäude prozedural zu generieren. Die Anwendung ermöglicht es, umfangreiche und unterschiedlich strukturierte Stadtmodelle auf effiziente Weise zu erzeugen. Hinsichtlich des Realismus und Variantenreichtums weisen die Ergebnisse jedoch Grenzen auf.
As a result of the technical progress, processes have to be adjusted. On the one hand, the digital transformation is absolutely necessary for every organization to operate efficient and sustainable, on the other hand whose accomplishment is a tremendous challenge. The huge amount of personal data, which accrue in this context, is an additional difficulty.
Against the background of the General Data Protection Regulation (GDPR), this thesis focuses on process management and ways of optimizing processes in a Human Resources Department. Beside the analysis of already existing structures and workflows, data management and especially the handling of personal data in an application process are examined. Both topics, the process management and the data protection are vitally important by itself, but it is necessary to implement the requirements of data protection within the appropriate position of a corresponding process. Relating to this, the thesis deals with the research question of what barriers may occur by a sustainable process integration and to which extend the GDPR prevent an unobstructed workflow within the Human Resources Department of the Handwerkskammer Koblenz. Additionally, answering the question of which subprocesses are convenient for a process automation is highly significant.
In scope of these questions Business Process Management is the solution. By means of the graphical representation standard, Business Process Model and Notation, a process model with the relevant activities, documents and responsibilities of the recruitment process is designed. Based on a target-actual comparison it becomes apparent, that standardized process steps with less exceptions and a large amount of information are basically convenient for automation respectively partial automation. After the different phases of the recruitment process are documented in detail, a Workflow-Management-System can ex-port the transformed models, so the involved employees just have to carry out a task list with assigned exercises. Against the background of the data protection regulations, access rights and maturities can be determined. Subsequently only authorized employees have admission to the personal data of applicants. Because of impending sanctions by violation against the GDPR, the implementation of the relevant legal foundations within the recruitment process is necessary and appropriate. Relating to the defined research questions, it appears that in principle not every activity is appropriate for a process automation. Especially unpredictable and on a wide range of factors depending subprocesses are unsuitable. Additionally, media discontinuities and redundant data input are obstacles to an enduring process integration. Nevertheless, a coherent consideration of the topics of business process management and the data protection regulations is required.
Raytracing von NURBS
(2019)
NURBS sind eine Art von Splines, die besondere Eigenschaften besitzen.
Das ray tracen von NURBS ist eine der Darstellungsmöglichkeiten von NURBS.
Dies ist durch das konkrete berechnen von Schnittpunkten mit Strahlen
möglich. Durch die vielseitige Möglichkeiten der Modellierung mittels NURBS
sind diese beliebt in Anwendungen die im Maschinenbau verwendet werden
und auch anderen CAD-Programmen. Diese Arbeit befasst sich mit der
Berechnung von NURBS-Kurven und -Oberflächen, dem direkten rendern
von diesen und wägt ab ob sich der Aufwand dafür im Vergleich zu Tesselierung
lohnt.
In der vorliegenden Studie geht es um den möglichen und tatsächlichen Beitrag von sogenannten Geschäftsmodellen im Kontext eines reflexiven Bildungsmanagements im Feld der wissenschaftlichen Weiterbildung an (öffentlichen) Hochschulen in Deutschland.
Im Anschluss an Behrmann (2006) wird ein reflexives Bildungsmanagement verwendet, um mögliche strategische und entwicklungsrelevante Orientierungen für die strategische (Neu-)Positionierung von Weiterbildungseinrichtungen bzw. reflexive Entwicklung von Hochschulen im Handlungs- bzw. Geschäftsfeld der wissenschaftlichen Weiterbildung zu strukturieren. In diesem Zusammenhang unterstützen Geschäftsmodelle die Realisierung des (Weiter-)Bildungsauftrags von (öffentlichen) Hochschulen bzw. von deren Weiterbildungseinrichtungen. Diese möglichen Orientierungen wurden im Rahmen von qualitativen Inhaltsanalysen nach Kuckartz (2016) auf der Grundlage von visualisierten Gruppendiskussionen nach Kühl (2009) rekonstruiert. Der Feldzugang erfolgte mit Unterstützung der Deutschen Gesellschaft für wissenschaftliche Weiterbildung und Fernstudium e.V. (DGWF).
Die didaktische Konzeption der Schreibkonferenz ist soweit etabliert, dass sie bereits in den rheinland-pfälzischen Rahmenplan für die Grundschule für das Fach Deutsch übernommen wurde. Bisher liegt eine Reihe von Erfahrungsberichten zur Schreibkonferenz vor, jedoch wurden dazu bislang kaum systematisch empirische Untersuchungen durchgeführt. Die empirische Studie dieser Arbeit, welche an die VERA-Studie angeschlossen ist, untersucht, ob im Grundschulunterricht (in der dritten und vierten Klasse) der Einsatz von Schreibkonferenzen im Vergleich zur konventionellen Aufsatzdidaktik zu einer Verbesserung der Schreibleistungen, des eigenen Lernens, zu positiven Veränderungen des eigenen Verhaltens sowie zur Förderung der Motivation der Schüler beim Schreiben führt. Dabei wird von folgenden Überlegungen ausgegangen: Zum einen sollte die Schreibkonferenz im Gegensatz zur traditionellen Aufsatzdidaktik das selbstständige Arbeiten der Schüler mit Texten im Deutschunterricht fördern, zum anderen sollte sie zu einer intensiveren Auseinandersetzung mit Texten und damit zu einer Verbesserung des Aufsatzschreibens führen.
Die Dissertation untersucht das Selbstkonzept der indischen Ordensfrauen in deutschen Pflegeeinrichtungen. Für die Analyse wurde die Methode der Grounded Theory aus der empirischen Sozialforschung ausgewählt. Im Untersuchungsfeld wurden 26 indische Ordensfrauen und 5 Arbeitergeber interviewt. Als theoretische Grundlagen diente die Missionsgeschichte mit dem Standard des missionarischen Dienstes, die Ausprägung des deutschen und indischen Pflegeverständnisses, der Kulturbegriff in seiner strukturellen Bedingtheit von Dimensionen und Modellen mit dem Bezug zur Organisation „Ordensgemeinschaft“. Dem direkten Bezug zur Forschungsfrage dienten das hierarchische Selbstkonzeptmodell nach Shalveson und ein weiteres Modell nach Bracken, das zur Interpretation der empirischen Ergebnisse herangezogen wurde. In den fünf Kernkategorien und den dazugehörigen Subkategorien dominierte das Hauptmotiv „Missionarin sein“.Die indischen Ordensfrauen bezeichnen sich selbst als „Europamissionarin“ und wollen die Liebe Christi durch ihre Arbeit in der Pflege und Betreuung zu den Kranken, Hilfebedürftigen und alten Menschen bringen.
Damit die indischen Ordensfrauen in ihrem Selbstkonzept in Deutschland noch optimaler arbeiten können, empfiehlt es sich ein Anforderungsprofil zu entwickeln, vorausschauend bestimmte Rahmenbedingungen zu beachten und neue Lebensmodelle zu konzipieren.
Im Zentrum der Untersuchung steht die Entwicklung des künstlerischen Siebdrucks in Deutschland seit dem Zweiten Weltkrieg. Nach der thematischen Einführung und einer ersten kritischen Bestandsaufnahme der Forschung zum Siebdruck wird im Folgenden der Verlauf und die methodische Vorgehensweise der Arbeit verdeutlicht. Im zweiten Kapitel „Etablierung einer künstlerischen Technik“ wird zuerst die Geschichte des Siebdrucks dem Rahmen dieser Arbeit gemäß nachgezeichnet. Nachfolgend wird in einem Unterkapitel dargestellt, wie sich die Serigrafie als künstlerisches Verfahren parallel zum industriellen Siebdruck etablierte. In der Folge wendet sich die Untersuchung der Entstehung und Entwicklung des künstlerischen Siebdrucks in Deutschland zu. Dabei wird Willi Baumeister als Beispiel für die erste Generation von Künstlern in Deutschland herangezogen, die sich mit der Serigrafie beschäftigte. Im nächsten Schritt wird ein Überblick zu den Willi Baumeister nachfolgenden deutschen bzw. deutschsprachigen Serigrafie–Künstlern präsentiert. In dem sich anschließenden Exkurs-Kapitel liegt der Schwerpunkt auf der Zusammenarbeit zwischen Künstler und Drucker. Dabei werden an Beispielen namhafter Drucker wie Luitpold Domberger und Hans-Peter Haas unter anderem Einflüsse der Drucker auf die Entstehung und den Ausdruck der Kunstwerke aufgezeigt.Nach einer Einführung in die Entstehung und Geschichte der Serigrafie in Deutschland und einem ersten Überblick über deutsche Serigrafie-Künstler wird im vierten Kapitel der Einsatz der Serigrafie-Technik bei verschiedenen Künstlern aus unterschiedlichen Zeiträumen eingehend untersucht. Besonderes Augenmerk gilt dabei dem Einfluss der Technik auf die Ausdrucksmöglichkeiten und Inhalte der Werke, die Anwendung innerhalb einer und verschiedener Kunstrichtungen sowie die Experimente, die mit der Siebdrucktechnik gemacht wurden. Dazu werden Werke ausgewählter Künstler analysiert. Im Fokus stehen Künstler der Pop Art, des Neuen und des Kritischen Realismus, der Abstrakten und Konkreten Kunst. Ferner werden Künstler, deren Werk durch einen expressiven, bisweilen primitiven Charakter geprägt ist, in die Betrachtung mit einbezogen. Eine weitere Gruppe bilden Künstler, die die Serigrafie in einen Zusammenhang zur Architektur und zum öffentlichen Raum stellen. Die aus der Untersuchung hervorgehenden Ergebnisse dienen insbesondere dazu, die Charakteristika der Technik in ihrer künstlerischen Verwendung herauszustellen und Aspekte einer künstlerisch motivierten Weiterentwicklung aufzuzeigen. Die Entwicklung des druckgraphischen Werkes und der Technik von Gerd Winner werden in Kapitel 5 eingehend untersucht. Auf diese Weise lässt sich eine systematische, nicht rein formale, sondern ästhetische und inhaltliche Darstellung der Serigrafie in Deutschland erstellen. Ein besonderes Augenmerk liegt dabei auf der Frage, wie sich die Technik und deren Neuerungen auf den Inhalt auswirkten.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt wie im Bereich der Computergrafik. So können wir heute komplexe, geometrische Szenen in Echtzeit in immersiven Systemen darstellen und auch aufwendige Simulationen integrieren.
Ziel dieser Arbeit ist es, die Simulation von Farbspritzern in einer virtuellen Welt zu realisieren. Hierzu wird mithilfe von Unity eine Anwendung umgesetzt, die drei verschiedene Techniken verwendet, mit denen die Umgebung mithilfe von Farbspritzern eingefärbt werden kann. Auf Basis dieser Anwendung werden die Grenzen und Möglichkeiten der Techniken in virtuellen Umgebungen genauer untersucht.
Diese Untersuchung zeigt, dass eine inverse Projektion die besten Ergebnisse vorweist.
Im Bereich der Computergraphik bilden die Nicht-Photorealistischen Renderingverfahren einen Schwerpunkt in der technischen und wissenschaftlichen Visualisierung, vor allem aber in den künstlerischen Bereichen. Verschiedene Kunststile, sowie Zeichenmaterialien und ihre Eigenschaften stellen unterschiedliche Herausforderungen dar. Eine dieser Herausforderungen ist hierbei die Simulation flüssiger Zeichenmittel.
Diese Arbeit beschäftigt sich mit der Erstellung eines interaktiven Zeichensystems für ein flüssiges Zeichenmittel, der Aquarellmalerei. Für die Simulation wird eine raue Zeichengrundlage generiert, sowie die Fluid Simulation und das optische Farbverhalten der Aquarellmalerei implementiert.
Simulation von Rauch
(2019)
Diese Bachelorarbeit befasst sich mit der Simulation von Rauch mittels einem Partikelsystem. Hierbei werden die Möglichkeiten untersucht Rauch möglichst realistisch in einem Partikelsystem zu implementieren und in Echtzeit berechnen zu lassen. Die physikalische Simulation basiert dabei auf den Arbeiten von Müller und Ren, welche sich mit den physikalischen Eigenschaften von Fluiden und Gasen beschäftigen. Die Simulation wurde mittels C++, OpenGL und der in OpenGL verfügbaren Compute-Shader auf der GPU implementiert. Dabei wurde ein besonderes Augenmerk darauf gelegt, dass diese möglichst performant ist. Hierfür werden Techniken von Hoetzlein benutzt um das Partikelsystem zu beschleunigen. Daraufhin wurden zwei Beschleunigungsverfahren implementiert und werden noch gegenübergestellt. Dabei werden die Laufzeit, sowie verbrauchter Speicherplatz der GPU betrachtet.
Simulation von Schnee
(2019)
Mit Hilfe von Physiksimulationen lassen sich viele
Naturphänomene auf dem Rechner nachbilden. Ziel ist, eine physikalische
Gegebenheit möglichst korrekt zu berechnen, um daraus Schlüsse für die
reale Welt zu ziehen. Anwendungsgebiete sind beispielsweise die Medizin,
die Industrie, aber auch Spiele oder Filme.
Schnee ist aufgrund seines physikalischen Aufbaus und seinen Eigenschaften
ein sehr komplexes Naturphänomen. Um Schnee zu simulieren, müssen
verschiedene Materialeigenschaften beachtet werden.
Die wichtigste Methode, die sich mit der Simulation von Schnee und seiner
Dynamik befasst, ist die Material-Point-Method. In ihr werden die auf
der Kontinuumsmechanik basierenden Lagrange-Partikel mit einem kartesischen
Gitter vereint. Das Gitter ermöglicht die Kommunikation zwischen
den eigentlich nicht verbunden Schneepartikeln. Zur Berechnung werden
Daten der Partikel auf die Gitterknoten übertragen. Dort werden Berechnungen
mit Informationen über benachbarte Partikel durchgeführt. Die Ergebnisse
werden danach zurück auf die Partikel übertragen.
Durch GPGPU-Techniken lassen sich physikalische Simulationen auf der
Grafikkarte implementieren. Verfahren wie die Material-Point-Method lassen
sich durch diese Techniken gut parallelisieren.
Diese Arbeit geht auf die physikalischen Grundlagen der Material-Point-
Method ein, und implementiert diese mit Hilfe von Compute-Shadern auf
der Grafikkarte. Anschließend werden Performanz und Qualität bewertet.
Stylized image triangulation
(2019)
Die stilisierte Triangulierung ist ein beliebtes Stilmittel bei der Abstraktion von Bildern. Ergebnisse sind auf Covern von Magazinen zu finden oder als Kunstwerk zu kaufen. Eingesetzt wird diese Stilisierung auch bei mobilen Anwendungen oder gar bei Programmen, die sich ausschließlich mit der automatisierten Triangulation befassen.
Diese Arbeit basiert auf einer Veröffentlichung, die die adaptive dynamische Triangulierung als Optimierungsproblem versteht und damit, hinsichtlich der visuellen und technischen Qualität, neue Ergebnisse erzielt. Ziel dieser Arbeit ist es, dieses Verfahren möglichst vielen Nutzern zugänglich zu machen. Dazu wird eine mobile Anwendung - Mesh - entworfen und umgesetzt. Ein Host-Client System wird entwickelt, um die ressourcenbedürftige Berechnung nicht auf dem mobilen Endgerät ausführen zu müssen. Im Zuge dessen wird das Verfahren für die CPU portiert und zusätzlich ein Webserver entwickelt, der die Kommunikation zwischen dem Triangulierungsverfahren und der mobilen Anwendung herstellt. Die App «Mesh» bietet die Möglichkeit, ein beliebiges Bild zu dem Server zu senden, das nach der Bearbeitung heruntergeladen werden kann.
Ein Forschungsaspekt der Arbeit thematisiert die Optimierung des Verfahrens. Dafür wird der Gradientenabstieg, der die Energieminimierung durchführt, anhand verschiedener Ansätze untersucht. Die Einschränkung der Schrittmöglichkeiten, diagonale Schrittrichtungen und eine dynamische Neupositionierung werden getestet. Es zeigt sich, dass sich bei diagonaler Schrittrichtung, anstatt horizontaler und vertikaler, keine Verbesserung verzeichnen lässt. Die Einschränkung der Schrittrichtung, dass ein Punkt seine vorherige Position nicht erneut einnehmen kann, verursacht einen Verlust an optischer Qualität. Jedoch wird der globale angestrebte Approximationsfehler in kürzerer Zeit erreicht. Die vektorbasierte Variante der flexiblen Schrittrichtung resultiert mit längerer Berechnungszeit in qualitativ hochwertigeren Ergebnissen, sodass ästhetischere Resultate erzielt werden.
Ein weiterer Bestandteil dieser Arbeit setzt sich mit der Imitation eines Kunststils auseinander. Die Werke von Josh Bryan dienen als Inspiration. Mittels eines GLSL-Shaders soll durch die Verwendung von Pseudozufälligkeit ein natürlicheres Aussehen einer schraffierten Triangulierung erreicht werden. Ergebnisse zeigen, dass der Ansatz Möglichkeiten der Verbesserung aufweist, dass jedoch eine präzisere Triangulierung für eine hochwertige Imitation notwendig ist. Als letzter Bestandteil wird ein Renderstil präsentiert, der ausgehend von einem beliebigen Ausgangspunkt, die Dreiecke der Triangulation versetzt, sodass Lücken entstehen. Durch die freie Wahl des Zentrums des Effekts, ist ein Einsatz bei Animationen denkbar.
Zum Inhalt:
Die Dissertation ist in einem empirisch-qualitativen Forschungssetting eingebettet, bei der das Team-Teaching als Unterrichtsmethode im Forschungsfokus steht. Die Erhebung des empirischen Datenmaterials erfolgt einerseits mittels teilnehmender Beobachtung im Forschungsfeld und andererseits durch ein Gruppeninterview, das mit Lehrkräften geführt wird, die über einen gewissen Beobachtungszeitraum Erfahrungen mit der Unterrichtsmethode des Team-Teaching gesammelt haben. Für die hier zu Grunde gelegte Feldforschung wird das „theoretical sampling“ zum Einsatz kommen, das 1967 von Glaser und Strauss im Rahmen einer empirischen Untersuchung begründet worden ist.
Zum Aufbau:
In der Einleitung wird das Forschungsinteresse, der Forschungsstand und die zentrale Forschungsfrage der Dissertation beschrieben. Im zweiten Kapitel folgt der theoretische Teil mit einer differenzierten Definition des Team-Teachings als Unterrichtsmethode. Es folgt eine allgemeine Definition zum Unterricht, um die spezifischen Merkmale des Team-Teachings differenziert herausarbeiten zu können. Die empirischen Daten werden im Rahmen einer teilnehmenden Beobachtung im Unterricht der Oberstufe einer Förderschule mit dem Förderschwerpunkt Lernen und sozial-emotionale Entwicklung erhoben. Deshalb sind im Theorieteil der Förderschwerpunkt und die curricularen Aspekte zum Förderschwerpunkt dargestellt. Die Bedeutung der Unterrichtsmethode des Team-Teachings für das Unterrichtssetting in einer Förderschule mit dem sozial-emotionalem Förderschwerpunkt ist ebenfalls im Theorieteil verortet.
Im dritten Kapitel werden die qualitativen und quantitativen Erhebungsinstrumente beschrieben und Hypothesen formuliert. Die Darstellung der Methoden zur Aufbereitung des Datenmaterials ist im vierten Kapitel verortet. Die Interpretation der Forschungsergebnisse erfolgt im fünften Kapitel. Die qualitative und quantitative Datenauswertung des empirischen Datenmaterials ist im sechsten Kapitel dargestellt. Die Dissertation schließt im siebten Kapitel mit einen Fazit und Ausblick.
In dieser Bachelorarbeit wird ein System zur Kameratracking implementiert, dass auf Basis eines Partikelfilters arbeitet. Dazu wird ein Markertracking realisiert und anhand der Markerposition die Kameraposition errechnet. Der Marker soll mit ein Partikelfilter gefunden werden und um das zu bewerkstelligen werden mögliche Markerpositionen simuliert, auch Partikel genannt, und mit Likelyhood Funktionen gewichtet. Fokus liegt auf der Evaluation von verschiedenen Likelyhood-Funktionen des Partikelfilters. Die Likelyhood-Funktionen wurden in CUDA umgesetzt als Teil der Implementation.
Global-Illumination ist eine wichtige Komponente beim Rendering von realistischen Bildern. Der Rechenaufwand für die akkurate Simulation dieser Effekte ist jedoch zu hoch für die Berechnung in Echtzeit. In dieser Arbeit werden Light-Propagation-Volumes, Scren-Space-Reflections und mehrere Varianten von Screen-Space-Ambient-Occlusion als Lösungen für Echtzeitrendering untersucht. Es wird gezeigt, dass alle schnell genug für den Einsatz in Echtzeitanwendungen sind. Die einzelnen Techniken approximieren nur einige Aspekte des Transports von Licht, ergänzen sich jedoch gegenseitig.
Für die Entwicklung sicherer Softwaresysteme erweitert UMLsec die UML durch die Definition von Sicherheitsanforderungen, die erfüllt sein müssen. In Klassendiagrammen können Attribute und Methoden von Klassen Sicherheitseigenschaften wie secrecy oder integrity haben, auf die nicht authorisierte Klassen keinen Zugriff haben sollten. Vererbungen zwischen Klassen erzeugen eine Komplexität und werfen die Frage auf, wie man mit der Vererbung von Sicherheitseigenschaften umgehen sollte. Neben der Option in sicherheitskritischen Fällen auf Vererbungen zu verzichten, gibt es im Gebiet der objektorientierten Datenbanken bereits viele allgemeine Recherchen über die Auswirkungen von Vererbung auf die Sicherheit. Das Ziel dieser Arbeit ist es, Ähnlichkeiten und Unterschiede von der Datenbankseite und den Klassendiagrammen zu identifizieren und diese Lösungsansätze zu übertragen und zu formalisieren. Eine Implementierung des Modells evaluiert, ob die Lösungen in der Praxis anwendbar sind.
Diese Arbeit soll das von Dietz und Oppermann entwickelte Planspiel „Datenschutz 2.0“ an den heutigen Alltag der Schüler anpassen, die Benutzung in der Sekundarstufe II ermöglichen und die technischen und gesetzlichen Problematiken des Planspiels beheben. Das mit dem Planspiel aufgegriffene Thema Datenschutz ist im rheinland-pfälzischen Informatik-Lehrplan für die Sekundarstufe II verankert. Hier wird der Begriff Datenschutz in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ genannt. Jedoch werden in dem Planspiel keine Daten erhoben, sondern die selbst hinterlassenen Datenspuren untersucht. Diese Form des Datenschutzes ist im Grundkurs in der vorgeschlagenen Reihe „Datensicherheit unter der Berücksichtigung kryptologischer Verfahren erklären und beachten“ unter dem Thema Kommunikation in Rechnernetzen zu finden. Im Leistungskurs steht die Datensicherheit in gleichbenannter Reihe und Thema und in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ im Thema Wechselwirkung zwischen Informatiksysteme, Individuum und Gesellschaft.
Der vorliegenden Arbeit liegt die Frage zugrunde in wie weit die zunehmende Digitalisierung die Work-Life Balance beeinflusst, was auch gleichzeitig das Ziel dieser Arbeit beschreibt.
Dazu wird eine Literaturrecherche durchgeführt, in der eine direkte Korrelation vom subjektiven Work-Life Balance Empfinden mit dem empfundenen Stresslevel hergestellt wird. Mit Hilfe von Antonovskys Salutogenetischen Modell (1997) aus dem Bereich der Stressforschung werden Faktoren ermittelt, welche das individuelle Stressempfinden - und somit die empfundene Work-Life Balance - beeinflussen. Es wird ein Interviewleitfaden für ein problemzentriertes Interview nach Witzel (1985) erstellt, welches als Hauptuntersuchungsgrundlage die Beeinflussung der ermittelten Faktoren durch die Digitalisierung beinhaltet, welche anhand einer qualitativen Inhaltsanalyse nach Mayring (2014) ausgewertet werden.
Demnach hat die Digitalisierung Einfluss auf jeden dieser ermittelten Faktoren und damit zusammenhängend auf die Work-Life Balance. Dies zeigt, dass uns die Digitalisierung in fast allen Bereichen unseres beruflichen oder privaten Lebens beeinflusst. Ob dieser Einfluss positiv oder negativ ist, hängt von dem Individuum ab, welches diesen Faktor bewertet. Es konnten klare Unterscheidungen zwischen Personen festgestellt werden, die in einem IT-Beruf arbeiten und solche die dies nicht tun. Auf die Personen im IT-Beruf hatte die Digitalisierung einen deutlich besseren Einfluss auf die Work-Life Balance als auf solche, die nicht in solch einem Beruf arbeiten.
Die vorliegende Arbeit hat die Adaption der Übersetzung des Fragebogens zu Kompetenz- und Kontrollüberzeugungen nach Günter Krampen aus dem Jahr 1991 zum Ziel und prüft die Übersetzung auf ihre Gültigkeit und Richtigkeit. Nach der Erklärung des Forschungsinteresses und der Herleitung des psychologischen Konstruktes der Kontrolle, sowie der Vorstellung des behandelten Fragebogens, werden Methoden der Übersetzung psychologischer Messinstrumente vorgestellt und im Anschluss des Übersetzungsprozesses des Fragebogens dargestellt, welcher aus einem Team-Ansatz bestand und durch die Kontrolle mehrerer Personen einen hohen Qualitätsanspruch garantiert. Die Endfassung des Fragebogens wird an einer Stichprobe von N=129 polnischen Probanden untersucht und mit einer deutschen Kontrollgruppe von N=52 Probanden, sowie der Normierungsstichprobe aus dem deutschen Manual des Fragebogens zu Kompetenz- und Kontrollüberzeugungen (Krampen, 1991) verglichen. Teststatistische Kennwerte wie die Mittelwerte und Standardabweichungen der Items aber auch der Subskalen weisen eine große Ähnlichkeit der Fragebogenversionen auf. Ebenso können die Trennschärfen der Items im Gruppenvergleich der drei Stichproben als zufriedenstellend angesehen werden. Die interne Konsistenz sowie die Testhalbierungsreliabilität können für die Subskalen sowie den gesamten Fragebogen in der polnischen Version größtenteils bestätigt werden, sodass die Übersetzung als reliabel anzusehen ist. Darüber hinaus kann die Validität durch testtheoretisch adäquate Skaleninterkorrelationen und die Validierung mit dem externen Faktor des Wohlbefindens bestätigt werden. Die qualitative Erhebung zur Überprüfung des Verständnisses der übersetzten Items, zeigt zudem ein homogenes unidimensionales Bild und bestätigt die Qualität der Übersetzung. Die faktorielle Analyse zeigt jedoch im Gegensatz zu den restlichen Untersuchungen deutliche Unterschiede auf, da aus der polnischen Stichprobe eine zweifaktorielle Lösung auf Sekundärskalenniveau hervorgeht, wohingegen die Normstichprobe des Manuals, sowie die deutsche Stichprobe konstruktdifferenzierte und in der Theorie des Fragebogens begründete vierfaktorielle Ausgaben aufzeigt. In jeder Version des Fragebogens wurden jedoch schwach ladende und faktoriell nicht klar zuordbare Items gefunden, welche eine statistische Itembereinigung des Fragebogens in der zukünftigen Arbeit mit dem Messinstrument legitimieren. Diese Unterschiede bestätigt auch die Procustean Factor Rotation, welche korrelative Differenzen zwischen den Faktoranalysen der deutschen und polnischen Daten anzeigt und in einer weiteren Untersuchung näher beleuchtet werden sollte. Zusammenfassend kann die Übersetzung des Fragebogens zu Kompetenz- und Kontrollüberzeugungen als gelungen angesehen werden, auch wenn der Fragebogen sowohl in seiner Originalfassung als auch in der polnischen Version einer Optimierung unterlaufen sollte.
Im Rahmen eines partizipatorischen Aktionsforschungsansatzes wurden die Lehrpersonen und Schüler/innen an einem Oberstufenrealgymnasium mit musischem Schwerpunkt und Montessori (MORG), drei Schuljahre, von 2012-2015, auf ihrem Weg zu einer inklusiven Schule wissenschaftlich begleitet. Basierend auf Einstellungs- und Selbstwirksamkeitstheorien und Ansätzen der inklusiven Pädagogik, sowie akteursbasierten Forschungen, richtete sich das Erkenntnisinteresse auf die Umsetzung einer inklusiven Lern- und Schulkultur – in einer Institution im Bildungssystem der Sekundarstufe II in Österreich, das von seiner Ausrichtung her hoch selektiv ist.
Mittels qualitativer und quantitativer Daten konnte rekonstruiert werden, von welchem Verständnis die Lehrpersonen am MORG (n=19) geleitet wurden, welche Kompetenzen sie aus ihrer Sicht für die Entwicklung einer inklusiven Bildung mitgebracht haben und wie sie die Inklusion am MORG umsetzten. Zur Erhebung der Einstellungen und Selbstwirksamkeitseinschätzungen der Lehrpersonen wurden die international und national erprobten SACIE-R (Sentiments, Attitudes and Concerns about Inclusive Education-Revi-sed) und TEIP (Teacher Efficacy for Inclusive Practice) Skalen in einer deutschsprachigen Fassung verwendet. Ferner wurde die empirische Erhebung im Rahmen einer webbasierten nationalen Befragung von Lehrpersonen an mehreren Schultypen erweitert (n= 427), um vergleichende Aussagen treffen zu können.
Inhaltsanalytisch verarbeitete Interviews und statistisch ausgewertete, im Forschungsteam erstellte Fragebögen für Erziehungsberechtigte (n= 37) sowie Schüler/innen (n=19), ermöglichten den vertieften Einblick in die Praxis aus mehreren Sichtweisen. Die Zusammenschau der Ergebnisse zeigt, dass es einem eher jungen Lehrerteam mit sehr positiven Einstellungen zur Inklusion von Jugendlichen mit Beeinträchtigungen – trotz anfänglicher Schwierigkeiten und selektiver systemischer Rahmenbedingungen auf der Sek. II – gelungen ist, eine für alle Schüler/innen lernförderliche und lebendige Schulkultur herzustellen. Dennoch blieben die Bemühungen der Lehrpersonen im Rahmen der Systemgrenzen. Eine Weiterentwicklung zu einer ‚Schule für alle‘, eine logische Konsequenz inklusionstheoretischer Ansätze, ist nicht festzustellen. Die Auswertungen bestätigen die bisher gewonnenen zentralen Erkenntnisse der Inklusions- und Akteursforschung und werden durch Ergebnisse erweitert, die im Zusammenhang mit den systemischen Rahmenbedingungen auf der Sek. II gesehen werden können.