Filtern
Erscheinungsjahr
- 2019 (80) (entfernen)
Dokumenttyp
- Bachelorarbeit (33)
- Masterarbeit (17)
- Dissertation (16)
- Ausgabe (Heft) zu einer Zeitschrift (8)
- Bericht (3)
- Sonstiges (2)
- Buch (Monographie) (1)
Sprache
- Deutsch (80) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (3)
- Datenschutz (2)
- Immersion (2)
- Inklusion (2)
- 3D-Scan (1)
- AR (1)
- Aluminiumorthophosphat (1)
- Aufsatzdidaktik (1)
- Augmented Reality (1)
- BRDF (1)
- Behinderungen (1)
- Bildung für nachhaltige Entwicklung (1)
- Bologna-Prozess (1)
- Boppard (1)
- Bororthophosphat (1)
- CCRDMT (1)
- Chancengerechtigkeit (1)
- Christusbekenntnis (1)
- Classroom-Management (1)
- Comic (1)
- Computergraphik (1)
- Cybersickness (1)
- Data flow analysis (1)
- Datenfluss (1)
- Datenflussanalyse (1)
- Datenflussmodell (1)
- Datenschutz, Datensicherheit, Apps, Informatik im Kontext (1)
- Denkmal (1)
- Drucktechnik (1)
- EP Wahl (1)
- EU (1)
- Echtzeit (1)
- Einstellungen und Haltungen zu Inklusion (1)
- Euroskeptizismus (1)
- Evangelium (1)
- Exegese (1)
- Fragebogen (1)
- Förderschule (1)
- Gebrauchstauglichkeit (1)
- Geschichte (1)
- Gonioreflectometer (1)
- Governance (1)
- Graphic novel (1)
- Hochschulpolitik (1)
- India (1)
- Indien (1)
- Individuelle Computermodelle (1)
- Informatik (1)
- Inhaltsanalyse (1)
- InstaHub (1)
- Integration in der SEK II (1)
- Judentum (1)
- Jüdisch (1)
- Kollaborationsplattform (1)
- Kontrollerleben (1)
- Konzeption (1)
- Kunstgeschichte (1)
- Lehrerbildung (1)
- Lendenwirbelsäule (1)
- Lernklima (1)
- Markusevangelium (1)
- Material point method (1)
- Missionarin (1)
- Mittelrhein (1)
- Motion Sickness (1)
- Nachhaltigkeit (1)
- Nachhaltigkeitsbericht (1)
- Natronwasserglas (1)
- Ordensfrau (1)
- Orientierungsstufe (1)
- Parteienkommunikation (1)
- Petrus (1)
- Pflege (1)
- Physiksimulation (1)
- Planspiel 2.0 (1)
- Politische Steuerung (1)
- Position Based Dynamics (1)
- Primzahl (1)
- Primzahlen (1)
- Quantitative Untersuchung (1)
- Raumplanung (1)
- Reflexionsprozesse (1)
- Rieselmassen (1)
- Schnee (1)
- Schreibdidaktik (1)
- Schulklima (1)
- Selbstkonzept (1)
- Serigrafie (1)
- Simulation (1)
- Stadt (1)
- Statische Analyse (1)
- Teamteaching (1)
- Templerhaus (1)
- Transformation (1)
- Tundish (1)
- Unterricht (1)
- Unterrichtsforschung (1)
- Unterrichtsmethode (1)
- VR (1)
- Vergleichende Politikwissenschaft (1)
- Virtual Reality (1)
- Virtuelle Realität (1)
- Weinbau (1)
- Will Eisner (1)
- Writing Conference (1)
- Zertifikat (1)
- Zifferndarstellung (1)
- care (1)
- collaboration plattform (1)
- hybride App (1)
- missionary (1)
- nun (1)
- physics simulation (1)
- prozedural (1)
- ray tracing (1)
- rtx (1)
- self-concept (1)
- snow (1)
- vulkan (1)
Institut
- Institut für Computervisualistik (31)
- Institut für Management (7)
- Zentrale Einrichtungen (7)
- Institut für Wirtschafts- und Verwaltungsinformatik (4)
- Institut für Grundschulpädagogik (3)
- Institut für Softwaretechnik (3)
- Fachbereich 4 (2)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (2)
- Institut für Kulturwissenschaft (2)
- Institut für Kunstwissenschaft (2)
Im Rahmen eines partizipatorischen Aktionsforschungsansatzes wurden die Lehrpersonen und Schüler/innen an einem Oberstufenrealgymnasium mit musischem Schwerpunkt und Montessori (MORG), drei Schuljahre, von 2012-2015, auf ihrem Weg zu einer inklusiven Schule wissenschaftlich begleitet. Basierend auf Einstellungs- und Selbstwirksamkeitstheorien und Ansätzen der inklusiven Pädagogik, sowie akteursbasierten Forschungen, richtete sich das Erkenntnisinteresse auf die Umsetzung einer inklusiven Lern- und Schulkultur – in einer Institution im Bildungssystem der Sekundarstufe II in Österreich, das von seiner Ausrichtung her hoch selektiv ist.
Mittels qualitativer und quantitativer Daten konnte rekonstruiert werden, von welchem Verständnis die Lehrpersonen am MORG (n=19) geleitet wurden, welche Kompetenzen sie aus ihrer Sicht für die Entwicklung einer inklusiven Bildung mitgebracht haben und wie sie die Inklusion am MORG umsetzten. Zur Erhebung der Einstellungen und Selbstwirksamkeitseinschätzungen der Lehrpersonen wurden die international und national erprobten SACIE-R (Sentiments, Attitudes and Concerns about Inclusive Education-Revi-sed) und TEIP (Teacher Efficacy for Inclusive Practice) Skalen in einer deutschsprachigen Fassung verwendet. Ferner wurde die empirische Erhebung im Rahmen einer webbasierten nationalen Befragung von Lehrpersonen an mehreren Schultypen erweitert (n= 427), um vergleichende Aussagen treffen zu können.
Inhaltsanalytisch verarbeitete Interviews und statistisch ausgewertete, im Forschungsteam erstellte Fragebögen für Erziehungsberechtigte (n= 37) sowie Schüler/innen (n=19), ermöglichten den vertieften Einblick in die Praxis aus mehreren Sichtweisen. Die Zusammenschau der Ergebnisse zeigt, dass es einem eher jungen Lehrerteam mit sehr positiven Einstellungen zur Inklusion von Jugendlichen mit Beeinträchtigungen – trotz anfänglicher Schwierigkeiten und selektiver systemischer Rahmenbedingungen auf der Sek. II – gelungen ist, eine für alle Schüler/innen lernförderliche und lebendige Schulkultur herzustellen. Dennoch blieben die Bemühungen der Lehrpersonen im Rahmen der Systemgrenzen. Eine Weiterentwicklung zu einer ‚Schule für alle‘, eine logische Konsequenz inklusionstheoretischer Ansätze, ist nicht festzustellen. Die Auswertungen bestätigen die bisher gewonnenen zentralen Erkenntnisse der Inklusions- und Akteursforschung und werden durch Ergebnisse erweitert, die im Zusammenhang mit den systemischen Rahmenbedingungen auf der Sek. II gesehen werden können.
Die vorliegende Arbeit hat die Adaption der Übersetzung des Fragebogens zu Kompetenz- und Kontrollüberzeugungen nach Günter Krampen aus dem Jahr 1991 zum Ziel und prüft die Übersetzung auf ihre Gültigkeit und Richtigkeit. Nach der Erklärung des Forschungsinteresses und der Herleitung des psychologischen Konstruktes der Kontrolle, sowie der Vorstellung des behandelten Fragebogens, werden Methoden der Übersetzung psychologischer Messinstrumente vorgestellt und im Anschluss des Übersetzungsprozesses des Fragebogens dargestellt, welcher aus einem Team-Ansatz bestand und durch die Kontrolle mehrerer Personen einen hohen Qualitätsanspruch garantiert. Die Endfassung des Fragebogens wird an einer Stichprobe von N=129 polnischen Probanden untersucht und mit einer deutschen Kontrollgruppe von N=52 Probanden, sowie der Normierungsstichprobe aus dem deutschen Manual des Fragebogens zu Kompetenz- und Kontrollüberzeugungen (Krampen, 1991) verglichen. Teststatistische Kennwerte wie die Mittelwerte und Standardabweichungen der Items aber auch der Subskalen weisen eine große Ähnlichkeit der Fragebogenversionen auf. Ebenso können die Trennschärfen der Items im Gruppenvergleich der drei Stichproben als zufriedenstellend angesehen werden. Die interne Konsistenz sowie die Testhalbierungsreliabilität können für die Subskalen sowie den gesamten Fragebogen in der polnischen Version größtenteils bestätigt werden, sodass die Übersetzung als reliabel anzusehen ist. Darüber hinaus kann die Validität durch testtheoretisch adäquate Skaleninterkorrelationen und die Validierung mit dem externen Faktor des Wohlbefindens bestätigt werden. Die qualitative Erhebung zur Überprüfung des Verständnisses der übersetzten Items, zeigt zudem ein homogenes unidimensionales Bild und bestätigt die Qualität der Übersetzung. Die faktorielle Analyse zeigt jedoch im Gegensatz zu den restlichen Untersuchungen deutliche Unterschiede auf, da aus der polnischen Stichprobe eine zweifaktorielle Lösung auf Sekundärskalenniveau hervorgeht, wohingegen die Normstichprobe des Manuals, sowie die deutsche Stichprobe konstruktdifferenzierte und in der Theorie des Fragebogens begründete vierfaktorielle Ausgaben aufzeigt. In jeder Version des Fragebogens wurden jedoch schwach ladende und faktoriell nicht klar zuordbare Items gefunden, welche eine statistische Itembereinigung des Fragebogens in der zukünftigen Arbeit mit dem Messinstrument legitimieren. Diese Unterschiede bestätigt auch die Procustean Factor Rotation, welche korrelative Differenzen zwischen den Faktoranalysen der deutschen und polnischen Daten anzeigt und in einer weiteren Untersuchung näher beleuchtet werden sollte. Zusammenfassend kann die Übersetzung des Fragebogens zu Kompetenz- und Kontrollüberzeugungen als gelungen angesehen werden, auch wenn der Fragebogen sowohl in seiner Originalfassung als auch in der polnischen Version einer Optimierung unterlaufen sollte.
Der vorliegenden Arbeit liegt die Frage zugrunde in wie weit die zunehmende Digitalisierung die Work-Life Balance beeinflusst, was auch gleichzeitig das Ziel dieser Arbeit beschreibt.
Dazu wird eine Literaturrecherche durchgeführt, in der eine direkte Korrelation vom subjektiven Work-Life Balance Empfinden mit dem empfundenen Stresslevel hergestellt wird. Mit Hilfe von Antonovskys Salutogenetischen Modell (1997) aus dem Bereich der Stressforschung werden Faktoren ermittelt, welche das individuelle Stressempfinden - und somit die empfundene Work-Life Balance - beeinflussen. Es wird ein Interviewleitfaden für ein problemzentriertes Interview nach Witzel (1985) erstellt, welches als Hauptuntersuchungsgrundlage die Beeinflussung der ermittelten Faktoren durch die Digitalisierung beinhaltet, welche anhand einer qualitativen Inhaltsanalyse nach Mayring (2014) ausgewertet werden.
Demnach hat die Digitalisierung Einfluss auf jeden dieser ermittelten Faktoren und damit zusammenhängend auf die Work-Life Balance. Dies zeigt, dass uns die Digitalisierung in fast allen Bereichen unseres beruflichen oder privaten Lebens beeinflusst. Ob dieser Einfluss positiv oder negativ ist, hängt von dem Individuum ab, welches diesen Faktor bewertet. Es konnten klare Unterscheidungen zwischen Personen festgestellt werden, die in einem IT-Beruf arbeiten und solche die dies nicht tun. Auf die Personen im IT-Beruf hatte die Digitalisierung einen deutlich besseren Einfluss auf die Work-Life Balance als auf solche, die nicht in solch einem Beruf arbeiten.
Diese Arbeit soll das von Dietz und Oppermann entwickelte Planspiel „Datenschutz 2.0“ an den heutigen Alltag der Schüler anpassen, die Benutzung in der Sekundarstufe II ermöglichen und die technischen und gesetzlichen Problematiken des Planspiels beheben. Das mit dem Planspiel aufgegriffene Thema Datenschutz ist im rheinland-pfälzischen Informatik-Lehrplan für die Sekundarstufe II verankert. Hier wird der Begriff Datenschutz in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ genannt. Jedoch werden in dem Planspiel keine Daten erhoben, sondern die selbst hinterlassenen Datenspuren untersucht. Diese Form des Datenschutzes ist im Grundkurs in der vorgeschlagenen Reihe „Datensicherheit unter der Berücksichtigung kryptologischer Verfahren erklären und beachten“ unter dem Thema Kommunikation in Rechnernetzen zu finden. Im Leistungskurs steht die Datensicherheit in gleichbenannter Reihe und Thema und in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ im Thema Wechselwirkung zwischen Informatiksysteme, Individuum und Gesellschaft.
Für die Entwicklung sicherer Softwaresysteme erweitert UMLsec die UML durch die Definition von Sicherheitsanforderungen, die erfüllt sein müssen. In Klassendiagrammen können Attribute und Methoden von Klassen Sicherheitseigenschaften wie secrecy oder integrity haben, auf die nicht authorisierte Klassen keinen Zugriff haben sollten. Vererbungen zwischen Klassen erzeugen eine Komplexität und werfen die Frage auf, wie man mit der Vererbung von Sicherheitseigenschaften umgehen sollte. Neben der Option in sicherheitskritischen Fällen auf Vererbungen zu verzichten, gibt es im Gebiet der objektorientierten Datenbanken bereits viele allgemeine Recherchen über die Auswirkungen von Vererbung auf die Sicherheit. Das Ziel dieser Arbeit ist es, Ähnlichkeiten und Unterschiede von der Datenbankseite und den Klassendiagrammen zu identifizieren und diese Lösungsansätze zu übertragen und zu formalisieren. Eine Implementierung des Modells evaluiert, ob die Lösungen in der Praxis anwendbar sind.
Global-Illumination ist eine wichtige Komponente beim Rendering von realistischen Bildern. Der Rechenaufwand für die akkurate Simulation dieser Effekte ist jedoch zu hoch für die Berechnung in Echtzeit. In dieser Arbeit werden Light-Propagation-Volumes, Scren-Space-Reflections und mehrere Varianten von Screen-Space-Ambient-Occlusion als Lösungen für Echtzeitrendering untersucht. Es wird gezeigt, dass alle schnell genug für den Einsatz in Echtzeitanwendungen sind. Die einzelnen Techniken approximieren nur einige Aspekte des Transports von Licht, ergänzen sich jedoch gegenseitig.
In dieser Bachelorarbeit wird ein System zur Kameratracking implementiert, dass auf Basis eines Partikelfilters arbeitet. Dazu wird ein Markertracking realisiert und anhand der Markerposition die Kameraposition errechnet. Der Marker soll mit ein Partikelfilter gefunden werden und um das zu bewerkstelligen werden mögliche Markerpositionen simuliert, auch Partikel genannt, und mit Likelyhood Funktionen gewichtet. Fokus liegt auf der Evaluation von verschiedenen Likelyhood-Funktionen des Partikelfilters. Die Likelyhood-Funktionen wurden in CUDA umgesetzt als Teil der Implementation.
Zum Inhalt:
Die Dissertation ist in einem empirisch-qualitativen Forschungssetting eingebettet, bei der das Team-Teaching als Unterrichtsmethode im Forschungsfokus steht. Die Erhebung des empirischen Datenmaterials erfolgt einerseits mittels teilnehmender Beobachtung im Forschungsfeld und andererseits durch ein Gruppeninterview, das mit Lehrkräften geführt wird, die über einen gewissen Beobachtungszeitraum Erfahrungen mit der Unterrichtsmethode des Team-Teaching gesammelt haben. Für die hier zu Grunde gelegte Feldforschung wird das „theoretical sampling“ zum Einsatz kommen, das 1967 von Glaser und Strauss im Rahmen einer empirischen Untersuchung begründet worden ist.
Zum Aufbau:
In der Einleitung wird das Forschungsinteresse, der Forschungsstand und die zentrale Forschungsfrage der Dissertation beschrieben. Im zweiten Kapitel folgt der theoretische Teil mit einer differenzierten Definition des Team-Teachings als Unterrichtsmethode. Es folgt eine allgemeine Definition zum Unterricht, um die spezifischen Merkmale des Team-Teachings differenziert herausarbeiten zu können. Die empirischen Daten werden im Rahmen einer teilnehmenden Beobachtung im Unterricht der Oberstufe einer Förderschule mit dem Förderschwerpunkt Lernen und sozial-emotionale Entwicklung erhoben. Deshalb sind im Theorieteil der Förderschwerpunkt und die curricularen Aspekte zum Förderschwerpunkt dargestellt. Die Bedeutung der Unterrichtsmethode des Team-Teachings für das Unterrichtssetting in einer Förderschule mit dem sozial-emotionalem Förderschwerpunkt ist ebenfalls im Theorieteil verortet.
Im dritten Kapitel werden die qualitativen und quantitativen Erhebungsinstrumente beschrieben und Hypothesen formuliert. Die Darstellung der Methoden zur Aufbereitung des Datenmaterials ist im vierten Kapitel verortet. Die Interpretation der Forschungsergebnisse erfolgt im fünften Kapitel. Die qualitative und quantitative Datenauswertung des empirischen Datenmaterials ist im sechsten Kapitel dargestellt. Die Dissertation schließt im siebten Kapitel mit einen Fazit und Ausblick.
Stylized image triangulation
(2019)
Die stilisierte Triangulierung ist ein beliebtes Stilmittel bei der Abstraktion von Bildern. Ergebnisse sind auf Covern von Magazinen zu finden oder als Kunstwerk zu kaufen. Eingesetzt wird diese Stilisierung auch bei mobilen Anwendungen oder gar bei Programmen, die sich ausschließlich mit der automatisierten Triangulation befassen.
Diese Arbeit basiert auf einer Veröffentlichung, die die adaptive dynamische Triangulierung als Optimierungsproblem versteht und damit, hinsichtlich der visuellen und technischen Qualität, neue Ergebnisse erzielt. Ziel dieser Arbeit ist es, dieses Verfahren möglichst vielen Nutzern zugänglich zu machen. Dazu wird eine mobile Anwendung - Mesh - entworfen und umgesetzt. Ein Host-Client System wird entwickelt, um die ressourcenbedürftige Berechnung nicht auf dem mobilen Endgerät ausführen zu müssen. Im Zuge dessen wird das Verfahren für die CPU portiert und zusätzlich ein Webserver entwickelt, der die Kommunikation zwischen dem Triangulierungsverfahren und der mobilen Anwendung herstellt. Die App «Mesh» bietet die Möglichkeit, ein beliebiges Bild zu dem Server zu senden, das nach der Bearbeitung heruntergeladen werden kann.
Ein Forschungsaspekt der Arbeit thematisiert die Optimierung des Verfahrens. Dafür wird der Gradientenabstieg, der die Energieminimierung durchführt, anhand verschiedener Ansätze untersucht. Die Einschränkung der Schrittmöglichkeiten, diagonale Schrittrichtungen und eine dynamische Neupositionierung werden getestet. Es zeigt sich, dass sich bei diagonaler Schrittrichtung, anstatt horizontaler und vertikaler, keine Verbesserung verzeichnen lässt. Die Einschränkung der Schrittrichtung, dass ein Punkt seine vorherige Position nicht erneut einnehmen kann, verursacht einen Verlust an optischer Qualität. Jedoch wird der globale angestrebte Approximationsfehler in kürzerer Zeit erreicht. Die vektorbasierte Variante der flexiblen Schrittrichtung resultiert mit längerer Berechnungszeit in qualitativ hochwertigeren Ergebnissen, sodass ästhetischere Resultate erzielt werden.
Ein weiterer Bestandteil dieser Arbeit setzt sich mit der Imitation eines Kunststils auseinander. Die Werke von Josh Bryan dienen als Inspiration. Mittels eines GLSL-Shaders soll durch die Verwendung von Pseudozufälligkeit ein natürlicheres Aussehen einer schraffierten Triangulierung erreicht werden. Ergebnisse zeigen, dass der Ansatz Möglichkeiten der Verbesserung aufweist, dass jedoch eine präzisere Triangulierung für eine hochwertige Imitation notwendig ist. Als letzter Bestandteil wird ein Renderstil präsentiert, der ausgehend von einem beliebigen Ausgangspunkt, die Dreiecke der Triangulation versetzt, sodass Lücken entstehen. Durch die freie Wahl des Zentrums des Effekts, ist ein Einsatz bei Animationen denkbar.
Simulation von Schnee
(2019)
Mit Hilfe von Physiksimulationen lassen sich viele
Naturphänomene auf dem Rechner nachbilden. Ziel ist, eine physikalische
Gegebenheit möglichst korrekt zu berechnen, um daraus Schlüsse für die
reale Welt zu ziehen. Anwendungsgebiete sind beispielsweise die Medizin,
die Industrie, aber auch Spiele oder Filme.
Schnee ist aufgrund seines physikalischen Aufbaus und seinen Eigenschaften
ein sehr komplexes Naturphänomen. Um Schnee zu simulieren, müssen
verschiedene Materialeigenschaften beachtet werden.
Die wichtigste Methode, die sich mit der Simulation von Schnee und seiner
Dynamik befasst, ist die Material-Point-Method. In ihr werden die auf
der Kontinuumsmechanik basierenden Lagrange-Partikel mit einem kartesischen
Gitter vereint. Das Gitter ermöglicht die Kommunikation zwischen
den eigentlich nicht verbunden Schneepartikeln. Zur Berechnung werden
Daten der Partikel auf die Gitterknoten übertragen. Dort werden Berechnungen
mit Informationen über benachbarte Partikel durchgeführt. Die Ergebnisse
werden danach zurück auf die Partikel übertragen.
Durch GPGPU-Techniken lassen sich physikalische Simulationen auf der
Grafikkarte implementieren. Verfahren wie die Material-Point-Method lassen
sich durch diese Techniken gut parallelisieren.
Diese Arbeit geht auf die physikalischen Grundlagen der Material-Point-
Method ein, und implementiert diese mit Hilfe von Compute-Shadern auf
der Grafikkarte. Anschließend werden Performanz und Qualität bewertet.
Simulation von Rauch
(2019)
Diese Bachelorarbeit befasst sich mit der Simulation von Rauch mittels einem Partikelsystem. Hierbei werden die Möglichkeiten untersucht Rauch möglichst realistisch in einem Partikelsystem zu implementieren und in Echtzeit berechnen zu lassen. Die physikalische Simulation basiert dabei auf den Arbeiten von Müller und Ren, welche sich mit den physikalischen Eigenschaften von Fluiden und Gasen beschäftigen. Die Simulation wurde mittels C++, OpenGL und der in OpenGL verfügbaren Compute-Shader auf der GPU implementiert. Dabei wurde ein besonderes Augenmerk darauf gelegt, dass diese möglichst performant ist. Hierfür werden Techniken von Hoetzlein benutzt um das Partikelsystem zu beschleunigen. Daraufhin wurden zwei Beschleunigungsverfahren implementiert und werden noch gegenübergestellt. Dabei werden die Laufzeit, sowie verbrauchter Speicherplatz der GPU betrachtet.
Im Bereich der Computergraphik bilden die Nicht-Photorealistischen Renderingverfahren einen Schwerpunkt in der technischen und wissenschaftlichen Visualisierung, vor allem aber in den künstlerischen Bereichen. Verschiedene Kunststile, sowie Zeichenmaterialien und ihre Eigenschaften stellen unterschiedliche Herausforderungen dar. Eine dieser Herausforderungen ist hierbei die Simulation flüssiger Zeichenmittel.
Diese Arbeit beschäftigt sich mit der Erstellung eines interaktiven Zeichensystems für ein flüssiges Zeichenmittel, der Aquarellmalerei. Für die Simulation wird eine raue Zeichengrundlage generiert, sowie die Fluid Simulation und das optische Farbverhalten der Aquarellmalerei implementiert.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt wie im Bereich der Computergrafik. So können wir heute komplexe, geometrische Szenen in Echtzeit in immersiven Systemen darstellen und auch aufwendige Simulationen integrieren.
Ziel dieser Arbeit ist es, die Simulation von Farbspritzern in einer virtuellen Welt zu realisieren. Hierzu wird mithilfe von Unity eine Anwendung umgesetzt, die drei verschiedene Techniken verwendet, mit denen die Umgebung mithilfe von Farbspritzern eingefärbt werden kann. Auf Basis dieser Anwendung werden die Grenzen und Möglichkeiten der Techniken in virtuellen Umgebungen genauer untersucht.
Diese Untersuchung zeigt, dass eine inverse Projektion die besten Ergebnisse vorweist.
Im Zentrum der Untersuchung steht die Entwicklung des künstlerischen Siebdrucks in Deutschland seit dem Zweiten Weltkrieg. Nach der thematischen Einführung und einer ersten kritischen Bestandsaufnahme der Forschung zum Siebdruck wird im Folgenden der Verlauf und die methodische Vorgehensweise der Arbeit verdeutlicht. Im zweiten Kapitel „Etablierung einer künstlerischen Technik“ wird zuerst die Geschichte des Siebdrucks dem Rahmen dieser Arbeit gemäß nachgezeichnet. Nachfolgend wird in einem Unterkapitel dargestellt, wie sich die Serigrafie als künstlerisches Verfahren parallel zum industriellen Siebdruck etablierte. In der Folge wendet sich die Untersuchung der Entstehung und Entwicklung des künstlerischen Siebdrucks in Deutschland zu. Dabei wird Willi Baumeister als Beispiel für die erste Generation von Künstlern in Deutschland herangezogen, die sich mit der Serigrafie beschäftigte. Im nächsten Schritt wird ein Überblick zu den Willi Baumeister nachfolgenden deutschen bzw. deutschsprachigen Serigrafie–Künstlern präsentiert. In dem sich anschließenden Exkurs-Kapitel liegt der Schwerpunkt auf der Zusammenarbeit zwischen Künstler und Drucker. Dabei werden an Beispielen namhafter Drucker wie Luitpold Domberger und Hans-Peter Haas unter anderem Einflüsse der Drucker auf die Entstehung und den Ausdruck der Kunstwerke aufgezeigt.Nach einer Einführung in die Entstehung und Geschichte der Serigrafie in Deutschland und einem ersten Überblick über deutsche Serigrafie-Künstler wird im vierten Kapitel der Einsatz der Serigrafie-Technik bei verschiedenen Künstlern aus unterschiedlichen Zeiträumen eingehend untersucht. Besonderes Augenmerk gilt dabei dem Einfluss der Technik auf die Ausdrucksmöglichkeiten und Inhalte der Werke, die Anwendung innerhalb einer und verschiedener Kunstrichtungen sowie die Experimente, die mit der Siebdrucktechnik gemacht wurden. Dazu werden Werke ausgewählter Künstler analysiert. Im Fokus stehen Künstler der Pop Art, des Neuen und des Kritischen Realismus, der Abstrakten und Konkreten Kunst. Ferner werden Künstler, deren Werk durch einen expressiven, bisweilen primitiven Charakter geprägt ist, in die Betrachtung mit einbezogen. Eine weitere Gruppe bilden Künstler, die die Serigrafie in einen Zusammenhang zur Architektur und zum öffentlichen Raum stellen. Die aus der Untersuchung hervorgehenden Ergebnisse dienen insbesondere dazu, die Charakteristika der Technik in ihrer künstlerischen Verwendung herauszustellen und Aspekte einer künstlerisch motivierten Weiterentwicklung aufzuzeigen. Die Entwicklung des druckgraphischen Werkes und der Technik von Gerd Winner werden in Kapitel 5 eingehend untersucht. Auf diese Weise lässt sich eine systematische, nicht rein formale, sondern ästhetische und inhaltliche Darstellung der Serigrafie in Deutschland erstellen. Ein besonderes Augenmerk liegt dabei auf der Frage, wie sich die Technik und deren Neuerungen auf den Inhalt auswirkten.
Die Dissertation untersucht das Selbstkonzept der indischen Ordensfrauen in deutschen Pflegeeinrichtungen. Für die Analyse wurde die Methode der Grounded Theory aus der empirischen Sozialforschung ausgewählt. Im Untersuchungsfeld wurden 26 indische Ordensfrauen und 5 Arbeitergeber interviewt. Als theoretische Grundlagen diente die Missionsgeschichte mit dem Standard des missionarischen Dienstes, die Ausprägung des deutschen und indischen Pflegeverständnisses, der Kulturbegriff in seiner strukturellen Bedingtheit von Dimensionen und Modellen mit dem Bezug zur Organisation „Ordensgemeinschaft“. Dem direkten Bezug zur Forschungsfrage dienten das hierarchische Selbstkonzeptmodell nach Shalveson und ein weiteres Modell nach Bracken, das zur Interpretation der empirischen Ergebnisse herangezogen wurde. In den fünf Kernkategorien und den dazugehörigen Subkategorien dominierte das Hauptmotiv „Missionarin sein“.Die indischen Ordensfrauen bezeichnen sich selbst als „Europamissionarin“ und wollen die Liebe Christi durch ihre Arbeit in der Pflege und Betreuung zu den Kranken, Hilfebedürftigen und alten Menschen bringen.
Damit die indischen Ordensfrauen in ihrem Selbstkonzept in Deutschland noch optimaler arbeiten können, empfiehlt es sich ein Anforderungsprofil zu entwickeln, vorausschauend bestimmte Rahmenbedingungen zu beachten und neue Lebensmodelle zu konzipieren.
Die didaktische Konzeption der Schreibkonferenz ist soweit etabliert, dass sie bereits in den rheinland-pfälzischen Rahmenplan für die Grundschule für das Fach Deutsch übernommen wurde. Bisher liegt eine Reihe von Erfahrungsberichten zur Schreibkonferenz vor, jedoch wurden dazu bislang kaum systematisch empirische Untersuchungen durchgeführt. Die empirische Studie dieser Arbeit, welche an die VERA-Studie angeschlossen ist, untersucht, ob im Grundschulunterricht (in der dritten und vierten Klasse) der Einsatz von Schreibkonferenzen im Vergleich zur konventionellen Aufsatzdidaktik zu einer Verbesserung der Schreibleistungen, des eigenen Lernens, zu positiven Veränderungen des eigenen Verhaltens sowie zur Förderung der Motivation der Schüler beim Schreiben führt. Dabei wird von folgenden Überlegungen ausgegangen: Zum einen sollte die Schreibkonferenz im Gegensatz zur traditionellen Aufsatzdidaktik das selbstständige Arbeiten der Schüler mit Texten im Deutschunterricht fördern, zum anderen sollte sie zu einer intensiveren Auseinandersetzung mit Texten und damit zu einer Verbesserung des Aufsatzschreibens führen.
In der vorliegenden Studie geht es um den möglichen und tatsächlichen Beitrag von sogenannten Geschäftsmodellen im Kontext eines reflexiven Bildungsmanagements im Feld der wissenschaftlichen Weiterbildung an (öffentlichen) Hochschulen in Deutschland.
Im Anschluss an Behrmann (2006) wird ein reflexives Bildungsmanagement verwendet, um mögliche strategische und entwicklungsrelevante Orientierungen für die strategische (Neu-)Positionierung von Weiterbildungseinrichtungen bzw. reflexive Entwicklung von Hochschulen im Handlungs- bzw. Geschäftsfeld der wissenschaftlichen Weiterbildung zu strukturieren. In diesem Zusammenhang unterstützen Geschäftsmodelle die Realisierung des (Weiter-)Bildungsauftrags von (öffentlichen) Hochschulen bzw. von deren Weiterbildungseinrichtungen. Diese möglichen Orientierungen wurden im Rahmen von qualitativen Inhaltsanalysen nach Kuckartz (2016) auf der Grundlage von visualisierten Gruppendiskussionen nach Kühl (2009) rekonstruiert. Der Feldzugang erfolgte mit Unterstützung der Deutschen Gesellschaft für wissenschaftliche Weiterbildung und Fernstudium e.V. (DGWF).
Raytracing von NURBS
(2019)
NURBS sind eine Art von Splines, die besondere Eigenschaften besitzen.
Das ray tracen von NURBS ist eine der Darstellungsmöglichkeiten von NURBS.
Dies ist durch das konkrete berechnen von Schnittpunkten mit Strahlen
möglich. Durch die vielseitige Möglichkeiten der Modellierung mittels NURBS
sind diese beliebt in Anwendungen die im Maschinenbau verwendet werden
und auch anderen CAD-Programmen. Diese Arbeit befasst sich mit der
Berechnung von NURBS-Kurven und -Oberflächen, dem direkten rendern
von diesen und wägt ab ob sich der Aufwand dafür im Vergleich zu Tesselierung
lohnt.
As a result of the technical progress, processes have to be adjusted. On the one hand, the digital transformation is absolutely necessary for every organization to operate efficient and sustainable, on the other hand whose accomplishment is a tremendous challenge. The huge amount of personal data, which accrue in this context, is an additional difficulty.
Against the background of the General Data Protection Regulation (GDPR), this thesis focuses on process management and ways of optimizing processes in a Human Resources Department. Beside the analysis of already existing structures and workflows, data management and especially the handling of personal data in an application process are examined. Both topics, the process management and the data protection are vitally important by itself, but it is necessary to implement the requirements of data protection within the appropriate position of a corresponding process. Relating to this, the thesis deals with the research question of what barriers may occur by a sustainable process integration and to which extend the GDPR prevent an unobstructed workflow within the Human Resources Department of the Handwerkskammer Koblenz. Additionally, answering the question of which subprocesses are convenient for a process automation is highly significant.
In scope of these questions Business Process Management is the solution. By means of the graphical representation standard, Business Process Model and Notation, a process model with the relevant activities, documents and responsibilities of the recruitment process is designed. Based on a target-actual comparison it becomes apparent, that standardized process steps with less exceptions and a large amount of information are basically convenient for automation respectively partial automation. After the different phases of the recruitment process are documented in detail, a Workflow-Management-System can ex-port the transformed models, so the involved employees just have to carry out a task list with assigned exercises. Against the background of the data protection regulations, access rights and maturities can be determined. Subsequently only authorized employees have admission to the personal data of applicants. Because of impending sanctions by violation against the GDPR, the implementation of the relevant legal foundations within the recruitment process is necessary and appropriate. Relating to the defined research questions, it appears that in principle not every activity is appropriate for a process automation. Especially unpredictable and on a wide range of factors depending subprocesses are unsuitable. Additionally, media discontinuities and redundant data input are obstacles to an enduring process integration. Nevertheless, a coherent consideration of the topics of business process management and the data protection regulations is required.
Die folgende Bachelorarbeit gibt einen Überblick über verschiedene Ansätze und Verfahren zur prozeduralen Generierung von dreidimensionalen Stadtmodellen. Dabei wird vor allem die Nutzung generativer Grammatiken näher untersucht und in einer eigens implementierten Anwendung integriert. Der Schwerpunkt war es, ein vorgegebenes, primäres Straßennetz einzubinden und darauffolgend ein sekundäres Straßennetz sowie verschiedene Gebäude prozedural zu generieren. Die Anwendung ermöglicht es, umfangreiche und unterschiedlich strukturierte Stadtmodelle auf effiziente Weise zu erzeugen. Hinsichtlich des Realismus und Variantenreichtums weisen die Ergebnisse jedoch Grenzen auf.
Gegeben sei eine Basis b>=10 und eine Ziffer a0 aus der Menge {0,..., b − 1}. Wir untersuchen, ob es unendlich viele Primzahlen gibt, die in ihrer b-adischen Zifferndarstellung die Ziffer a0 nicht besitzen. Ferner schätzen wir die Anzahl dieser Primzahlen, die kleiner sind als X = b^k, nach oben und unten ab.
Damit gelingt uns eine Verallgemeinerung von Maynards Beweis für den Fall b = 10 und wir nutzen hierzu auch die in seiner Arbeit verwendeten Werkzeuge. Unter Anderem benötigen wir die Hardy-Littlewoodsche Kreismethode sowie diverse Siebmethoden, um die Minor Arcs zu kontrollieren.
Schließlich sehen wir, dass wir Maynard's Aussage vor allem dann auf beliebige Basen b>= 10 und ausgeschlossene Ziffern a0 aus {0, ..., b − 1} übertragen können, wenn zwei betragsmäßig größte Eigenwerte von Matrizen, die von b und a0 parametrisiert werden, bestimmte Abschätzungen erfüllen. Dass diese Abschätzungen im Fall b>=102 erfüllt sind, beweisen wir im letzten Kapitel. Für die Fälle b = 10 und b = 11 liegt ebenfalls ein Mathematica-Code vor, der die Abschätzungen bestätigt.
Politische Steuerung in nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz
(2019)
Das Ziel der Dissertation besteht in der Erklärung und Analyse grundlegender Steuerungsmuster zwischen Politik und Universitätssystem in den nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz: Wurde die Studienreform primär staatlich verordnet, im Dialog mit den Hochschulen implementiert oder die Ausgestaltung der Reform der Wissenschaft weitgehend überlassen - und welche Instrumente wurden dabei weshalb genutzt? Damit schließt die Arbeit an den aktuellen Forschungsstand zu vertikalen Vermittlungsprozessen (übernational-national) im Bologna-Prozess an: Nationale Hochschulsysteme konvergieren nicht zu einem einheitlichen Modell, sondern nationale Faktoren (z.B. Problemdeutungen und Einflussmöglichkeiten von Bildungspolitik, Universitäten u.a.) führen dazu, dass Bologna jeweils länderspezifisch verstanden und interpretiert wird.
Vor diesem Hintergrund wird im theoretischen Teil zur Anleitung eines systematischen Vergleichs ein analytischer Rahmen entworfen, dessen Elemente sowohl aus der Politikwissenschaft (Instrumenteforschung, Politische Steuerung, Governance etc.) als auch aus der Hochschulforschung stammen. In den anschließenden empirischen Kapiteln zu den drei Ländern werden die Akteurkonstellationen und faktisch zu beobachtenden Instrumentarien beschrieben, analysiert und interpretiert. Die methodische Basis bilden neben der Analyse zahlreicher Dokumente 37 leitfadengestützte Interviews mit Expertinnen und Experten.
Grundsätzlich lassen sich auf Basis der empirischen Teile die folgenden zentralen Ergebnisse der Studie festhalten:
Deutschland: Aufgrund der relativ starken Kompetenzen der Länder und der Einflussschwäche der Universitäten ist für den deutschen Bologna-Prozess ein primär interventionistisches Muster kennzeichnend. Dieses wurde und wird bis heute dadurch verstärkt, dass die Umsetzung von Bologna durch spezifische Problemwahrnehmungen und -lösungen von KMK und HRK in den 90er Jahren geprägt ist (z.B. Modularisierung als Antwort auf unstrukturierte Studiengänge, Akkreditierung als Fortführung der tradierten Input-Steuerung). `Bologna` wurde so mit genuin nationalen Instrumenten verquickt, die z.T. quer zum tradierten Lehrhabitus vieler Hochschullehrerinnen und -lehrer lag und liegt (z.B. Modularisierung oder Kompetenzorientierung). Verstärkend trat hinzu, dass die Reform u.a. aufgrund des Bund/Länder-Konflikts in der Bildungspolitik im Vorfeld der Föderalismusreform I nicht finanziell unterstützt wurde. Plastisch formuliert ist der deutsche Bologna-Prozess regulativ über- und finanziell untersteuert, was auch zu den Studierendenprotesten 2009/2010 beitrug.
Österreich: Der Bologna-Prozess lief in Österreich parallel zu einem umfassenden Neuordnungsprozess, innerhalb dessen die Universitäten in ihrer Autonomie erheblich gestärkt wurden und sich das zuvor zentrale Wissenschaftsministerium in seinen Kompetenzen erheblich limitierte. Dieses hatte die Reform unmittelbar 1999 noch angestoßen, zog sich anschließend jedoch im Rahmen einer `minimalen Steuerung` zurück und übernahm auch keine Reformmehrkosten. Da unterhalb der in die Autonomie entlassenen Universitäten kein nationaler Dialog über die Reform in Gang kommen konnte, fand der Bologna-Prozess vor allem auf der Ebene der jeweils eigenständigen Universitäten `vor Ort` statt. Diese erhebliche regulative und finanzielle Untersteuerung führte 2009/2010 zu massiven Studierendenprotesten, die angesichts der schwachen Position des Ministeriums auch nur unzureichend kanalisiert werden konnten.
Schweiz: In der Schweiz hingegen ist eine austarierte regulative und finanzielle Steuerung zu beobachten. Bund und Kantone übertrugen Anfang der 2000er Jahre wenige, aber wesentliche Kompetenzen auf ein gemeinsames Organ, das seinerseits per Gesetz eng mit der Rektorenkonferenz zusammenarbeiten sollte. Bologna stärkte dieses bis dato auf dem Papier bestehende Muster: Vor dem Hintergrund einer übergreifend geteilten prozessualen Subsidiaritätsnorm sowie weitgehender Präferenzenübereinstimmung zwischen Politik und Universitäten finanzierte der Staat gezielt die Reformmehrkosten sowie strategische Projekte und delegiert die Formulierung, Implementierung und Weiterentwicklung zentraler Vorgaben auf der Basis des Entscheidungsvorbehalts an die Rektorenkonferenz bzw. Universitäten. Probleme werden innerhalb dieses Arrangements z.T. identifiziert und bearbeitet. Die Politik greift nur subsidiär im Ausnahmefall ein. Die Schweiz kommt daher dem Idealtypus der strukturierenden Steuerung sehr nahe.
Die Befunde werden abschließend in einen größeren Bezugsrahmen eingeordnet, um sie über Bologna hinaus für die Analyse des deutschen Hochschulsystems fruchtbar zu machen. Maßstab hierfür sind ausgewählte normative Kriterien zur Güte von Steuerungsmustern. So wird z.B. gezielt die politische Entscheidungskapazität in den beobachteten Mustern betrachtet: Während etwa in Deutschland auf die Studierendenproteste 2009 im Rahmen des interventionistischen Musters mit verbindlichen Instrumenten wie Strukturvorgaben, Akkreditierung und letztlich dem Qualitätspakt Lehre nicht nur symbolisch reagiert werden konnte, stand das Wiener Wissenschaftsministerium den starken Protesten durch den Verzicht auf regulative und finanzielle Ressourcen hilflos gegenüber.
Auf dieser Basis werden abschließend einige grundlegende Anregungen zur Weiterentwicklung des deutschen Hochschulsystems gegeben. Unter anderem wird dafür plädiert, den hochschulpolitischen Reformdiskurs, der sich oftmals nur zwischen den Polen `mehr Staat` und `mehr Wettbewerb` zu bewegen scheint, gezielt um alternative Handlungslogiken und Akteure zu erweitern: Die Ergebnisse der Arbeit legen nahe, Verbände und Organisationen (Rektorenkonferenzen, Fachgesellschaften, Fakultätentage u.a.) politisch zu stärken, um diese Sichtweisen und Expertisen in zukünftigen Reformprozessen (z.B. aktuell Digitalisierung) systematischer als zuvor miteinzubeziehen. Denn eine zu starke Entkopplung von politischen und wissenschaftlichen Rationalitäten führt unweigerlich zu nicht intendierten Effekten, die ihrerseits wieder Handlungsdruck erzeugen (z.B. Proteste).
Innerhalb dieser Arbeit wird die Theorie des Video-Seethroughs anhand einer Panoramaerstellung aus mehreren Kamerabildern verschiedener Perspektiven grundlegend dargestellt. Darauf basierend wurde ein System konzipiert und umgesetzt, bei dem Videostreams durch perspektivische Verzerrung zu einem Panoramabild zusammengesetzt werden. Anschließend wird dieses auf die Innenseite eines Zylinders projiziert, in dessen Mitte sich die virtuelle Position des Betrachters befindet. Schließlich
sollen die entstandenen Videopanoramen in einer VR-Brille dargestellt werden. Innerhalb der Implementierung werden außerdem einige Optimierungen vorgestellt, unter anderem solche, die das System - über die Aufgabenstellung hinaus - echtzeitfähig machen. Des Weiteren wird das erarbeitete
System bewertet und mit zwei anderen Verfahren verglichen.
Datenflussmodelle in der Literatur weisen oftmals einen hohen Detailgrad auf, der sich auf die auf den Modellen durchgeführten Datenflussanalysen überträgt und diese somit schwerer verständlich macht. Da ein Datenflussmodell, das von einem Großteil der Implementierungsdetails des modellierten Programms abstrahiert, potenziell leichter verständliche Datenflussanalysen erlaubt, beschäftigt sich die vorliegende Masterarbeit mit der Spezifikation und dem Aufbau eines stark abstrahierten Datenflussmodells und der Durchführung von Datenflussanalysen auf diesem Modell. Das Modell und die darauf arbeitenden Analysen wurden testgetrieben entwickelt, sodass ein breites Spektrum möglicher Datenflussszenarien abgedeckt werden konnte. Als konkrete Datenflussanalyse wurde unter anderem eine statische Sicherheitsprüfung in Form einer Erkennung unzureichender Nutzereingabenbereinigungen durchgeführt. Bisher existiert kein Datenflussmodell auf einer ähnlich hohen Abstraktionsebene. Es handelt sich daher um einen einzigartigen Lösungsentwurf, der Entwicklern die Durchführung von Datenflussanalysen erleichtert, die keine Expertise auf diesem Gebiet haben.
Redaktionelle Korrektur betreffend die Siebzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im Zwei-Fach-Bachelorstudiengang an der Universität Koblenz-Landau
Erste Ordnung zur Neufassung der Beitragsordnung der örtlichen Studierendenschaft der Universität Koblenz-Landau
Erste Ordnung zur Änderung der Finanzordnung der örtlichen Studierendenschaft der Universität Koblenz-Landau
Erste Ordnung zur Änderung der Wahlordnung der örtlichen Studierendenschaft der Universität Koblenz-Landau
Erste Ordnung zur Änderung der Satzung der örtlichen Studierendenschaft der Universität Koblenz-Landau, Campus Koblenz
Ordnung zur Änderung der Beitragsordnung des Studierendenwerks Vorderpfalz
Sechste Satzung zur Änderung der Satzung der Universität Koblenz-Landau über das Auswahlverfahren in zulassungsbeschränkten Studiengängen
Elfte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang Berufsbildende Schulen an der Universität Koblenz-Landau,
der Hochschule Koblenz und der Philosophisch-Theologischen Hochschule Vallendar
Zehnte Ordnung zur Änderung der Ordnung für die Prüfung im Masterstudiengang Lehramt an berufsbildenden Schulen an der Universität Koblenz-Landau, der Hochschule Koblenz und der Philosophisch-Theologischen Hochschule Vallendar
Satzung zur Festsetzung von Zulassungszahlen an der Universität Koblenz-Landau für das Studienjahr 2019/2020
Satzung zur Festsetzung der Normwerte für den Ausbildungsaufwand (Curricularnormwerte) der Universität Koblenz-Landau
Neunzehnte Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Zertifikatsstudiengang (Erweiterungsprüfung) an der Universität Koblenz-Landau und der Hochschule Koblenz
Fünfte Ordnung zur Änderung der Ordnung für die Prüfung im Bachelorstudiengang und im Masterstudiengang BioGeoWissenschaften der Universität Koblenz-Landau
Vierundzwanzigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang an der Universität Koblenz-Landau
Einundzwanzigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulen
plus, das Lehramt an Förderschulen sowie das Lehramt an Gymnasien an der Universität Koblenz-Landau
Achtzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im Zwei-Fach-Bachelorstudiengang an der Universität Koblenz-Landau
Ordnung zur Aufhebung der Masterprüfungsordnung für den Weiterbildenden Fernstudiengang „Energiemanagement“ an der Universität Koblenz-Landau
Masterprüfungsordnung für den weiterbildenden Fernstudiengang Energiemanagement des Fachbereiches 3: Mathematik / Naturwissenschaften der Universität Koblenz-Landau
Erste Ordnung zur Änderung der Masterprüfungsordnung für den weiterbildenden Fernstudiengang Inklusion und Schule des Fachbereichs 1: Bildungswissenschaften der
Universität Koblenz-Landau
Erste Ordnung zur Änderung der Masterprüfungsordnung für den weiterbildenden Fernstudiengang Personal und Organisation des Fachbereichs 1: Bildungswissenschaften der Universität Koblenz-Landau
Dritte Ordnung zur Änderung der Gemeinsamen Prüfungsordnung für den Bachelorstudiengang „Angewandte Naturwissenschaften“ und den Masterstudiengang „Chemie und Physik funktionaler Materialien / Chemistry and Physics of functional Materials“ an der Universität Koblenz-Landau
Gemeinsame Prüfungsordnung für die Bachelor- und Masterstudiengänge des Fachbereichs Informatik an der Universität Koblenz-Landau
Ordnung zur Änderung der Beitragsordnung des Studierendenwerks Koblenz
Dreiundzwanzigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang an der Universität Koblenz-Landau
Zwanzigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulen plus, das Lehramt an Förderschulen sowie das Lehramt an Gymnasien an der Universität Koblenz-Landau
Siebzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im Zwei-Fach-Bachelorstudiengang an der Universität Koblenz-Landau
Vierte Ordnung zur Änderung der Ordnung für die Prüfung im Bachelorstudiengang und im Masterstudiengang Erziehungswissenschaft an der Universität Koblenz-Landau, Campus Landau
Achte Ordnung zur Änderung der Gemeinsamen Prüfungsordnung für den Bachelorstudiengang und den Masterstudiengang „Psychologie“ des Fachbereichs
Psychologie der Universität Koblenz-Landau, Campus Landau
Siebte Ordnung zur Änderung der Ordnung für die Prüfung im Bachelorstudiengang Umweltwissenschaften und in den Masterstudiengängen Umweltwissenschaften / Environmental Sciences und Ecotoxicology an der Universität Koblenz-Landau, Campus Landau
Beitragsordnung der Studierendenschaft der Universität Koblenz-Landau, Campus Landau
Die im Rahmen dieser Masterarbeit durchgeführte Analyse von Ernährungsumstellungen auf die vegane Ernährung in Form von vier Portraits lotet mit ihrer interdisziplinären Perspektive aus Gastrosophie, Ethnologie und Leibphilosophie die soziokulturellen Aspekte dieser Transmissionsprozesse aus. Dazu gehören der zivilisatorisch erlernte Umgang mit Nahrung, das Umsetzen und Reflektieren sinnlicher Wahrnehmungen im Ernährungsprozess und die Prägung von Relationen zwischen Essendem und Zu-Essendem. Geleitet wird die Analyse dabei von der Forschungsfrage: „Welche leiblich sinnlichen Wahrnehmungen geben den Anstoß zu einer Ernährungsumstellung und wie begleiten diese den Prozess der Umstellung?“. Damit gibt die Frage den Fokus auf das (leibliche) Wahrnehmungsvermögen des Menschen vor und begrenzt Ernährung bewusst nicht auf ihre physiologische Funktion der Energiegewinnung. Dadurch flicht sie sich in den Diskurs um den cultural turn in der Ernährungswissenschaft ein und zielt weg von der metabolischen Durchmessung des Essens, hin auf das Verständnis von Ernährung als Praxis des Sich-Einverleibens-von-Anderem – Essen als Vollzug von Beziehungen. Das Sich-Ernähren wird damit als sozial geprägter und leiblich vermittelter Erfahrungsvorgang sichtbar, der über das Geschmackserlebnis hinaus durch Betroffenheitserfahrung konstituiert wird. Durch das Zusammenbringen philosophischer Perspektiven, wie die der Gastrosophie Harald Lemkes, die Essen u. a. auch als Selbstbestimmung denkt, und soziologischen Theorien, wie die des Habitus-Konzepts nach Pierre Bourdieu, wird deutlich, wie die Wahrnehmungspraxis und -fähigkeit des Menschen, in ihrem leiblichsinnlichen Aspekt, die Verhaltensbestimmung im Umgang mit Nahrung und deren Quellen beeinflusst. Die vier Portraits entstanden während einer sechsmonatigen ethnographischen Feldforschung und stellen anonymisiert die Motivation, den Verlauf und das Konfliktthema der jeweiligen Ernährungsumstellung dar. Die Portraits sind sehr individuell und zeigen auf, wie und warum beispielsweise die gesundheitliche Selbstsorge oder das empathische Mitleiden mit Nutztieren Veränderungen oder Tabuisierungen im Ernährungshandeln anstoßen.
Die Computermodellierung menschlicher Teilkörperstrukturen gewinnt zunehmend an Bedeutung für den Einsatz in der Medizin. Es handelt sich dabei um ein interdisziplinäres Forschungsfeld, bei dem durch die Zusammenarbeit von Physik, Mathematik, Computervisualistik und Medizin neue Methoden entwickelt werden können, mit denen genauere Aussagen über mechanische Belastungen von inneren kraftübertragenden Strukturen, wie Zwischenwirbelscheiben, Ligamente, Gelenke und Muskeln, bei Bewegungsabläufen getroffen werden können.
Zu Beginn dieser Arbeit wird die Bedeutsamkeit des Forschungsbedarfs in der Computermodellierung, spezialisiert auf den Bereich der Wirbelsäule, dargelegt.
Nachfolgend werden die grundlegenden anatomischen Strukturen erörtert, wozu die Zwischenwirbelscheiben, die Ligamente, die Facettengelenke und Muskulatur zählen.
Anschließend werden Algorithmen entwickelt, mit denen aus CT-Daten unter geringem Zeitaufwand sowie semiautomisch individuelle LWS-Modelle erstellt werden können. Dabei werden Methoden erarbeitet, mit denen die vorgestellten kraftübertragenden Strukturen der Wirbelsäule, wie die Zwischenwirbelscheiben, Ligamente, Facettengelenke und Muskeln, modelliert werden können.
Im weiteren Verlauf werden unterschiedliche bildgebende Verfahren (MRT-Daten, Röntgenfilm, Röntgenfunktionsaufnahmen) zur Validierung der LWS-Modelle vorgestellt und verwendet.
Abschließend werden die erarbeiteten Algorithmen genutzt, um eine größere Anzahl an individuellen LWS-Modellen zu erstellen, die anschließend auf Gemeinsamkeiten und Unterschiede bzgl. der inneren Belastungen sowie auf physiologisch korrekte Bewegungsabläufe hin untersucht werden. Dazu wird insbesondere das relative momentane Drehzentrum zwischen zwei benachbarten Wirbeln berechnet.
Innovationen sorgen immer mehr für einen Wandel in unserem Arbeitsalltag. Das Zusammenspiel von voranschreitenden digitalen Technologien und unserer arbeitenden Gesellschaft, lässt den Ausdruck „New Work“ immer mehr in den Vordergrund rücken. „New Work“ impliziert, dass die Arbeitswelt zur Lebenswelt wird. In diesem Zusammenhang stehen Selbstverantwortung, Selbstbestimmung und Selbstverwirklichung eines Individuums im beruflichen wie auch im privaten Umfeld.
Gegenstand dieser Bachelorarbeit ist es durch eine Literaturanalyse die Begriffsbedeutung von „New Work“ sowie dessen Bestandteile und Hintergründe zu evaluieren und damit die erste Forschungsfrage „Welche Bedeutung hat der Begriff „New Work“ in Forschung und Praxis?“ zu beantworten. Dafür werden die zentralen Inhalte Digitalisierung und Technologie, Struktur der Arbeit sowie Arbeitseinstellung von „New Work“ aufgegriffen und explizit untersucht. Welche Wahrnehmung und was für einen Nutzen Angestellte und Unternehmer in Bezug auf diese Inhalte haben, wird in der vorliegenden Bachelorarbeit anhand einer qualitativen Untersuchung analysiert. Die gewonnenen Erkenntnisse aus den Experteninterviews dienen ebenso dem Vergleich zwischen Unternehmern und Angestellten.
Die Interviews liefern das Resultat, dass „New Work“ die persönliche und berufliche Entwicklung der Individuen positiv beeinflusst. Zudem hat „New Work“ neue Perspektiven sowie Anforderungen für Arbeitgeber und Arbeitnehmer veranlasst, wobei das zielorientiere und nicht mehr das zeitorientiere Arbeiten von Bedeutung ist. Durch die Realisierung und Umsetzung dieser, kommt es zu einem erfüllenden Gefühl in der Arbeits- und Lebenswelt. Veranlasst durch diese Entgrenzung, kann „New Work“ verwirklicht werden. Denn durch einen zufriedenstellenden Beruf, wird der Sinn und Zweck der Arbeit nicht mehr in Frage gestellt. Zum Ausdruck bring die Arbeit abschließend, dass es sich hierbei um eine kulturelle Revolution auf Basis des digitalen Wandels handelt.
Literaturanalyse und Darstellung aktueller Forschungsschwerpunkte zum Thema Entrepreneurial Strategy
(2019)
Entrepreneurial Strategy ist in der Literaturwelt weit verbreitet. Dieser Begriff fand schon im 20. Jahrhundert seine Anwendung und zieht sich bis ins heutige Zeitalter weiter. Diese Beständigkeit und Entwicklung des Entrepreneurs und dem Wunsch nach einem eigenen Unternehmen trieben die Diskussion dieses Themas voran. Die Wahl der passenden unternehmerischen Strategie ist eine der wichtigsten Entscheidungen, die ein Unternehmer treffen muss. Diese Problematik sorgte für eine Analyse und genaue Forschung der Entscheidungen und Einflussfaktoren. Resultate davon wurden festgehalten und interpretiert um die Branche der Entrepreneure zu fördern und somit die Wirtschaft anzutreiben. In der vorliegenden Arbeit wird zunächst ein Grundverständnis für die wichtigsten Begrifflichkeiten ausgearbeitet. Grundlage dieser Bachelorarbeit ist jedoch, anhand einer Literaturanalyse nach Webster und Watson (2002) einen Einblick in die Forschung der Entwicklung von Entrepreneurial Strategy zu geben und den aktuellen Stand herauszuarbeiten. Anahnd dieser Literaturanalyse werden Referenzen, Konzepte und die Notwendigkeit von Strategien verdeutlicht und die Rolle in einem Start-Up erklärt. Aus der Analyse und dem Vergleich zu älteren Veröffentlichungen geht hervor, das der Prozess der Strategiefindung eine Differenzierung in zwei Teile aufweist. Es wird unter dem Strategiesuch- und dem Strategieauswahlprozess uinterschieden. Merkmale, die früher als Allgemeine Einflussfaktoren für die Wahl der Strategie angenommen wurden, werden in der heutigen Literatur den genauen Prozessen und Phasen zugeteilt. Das Resultiert, das Merkmale, wie die persönlichen Eigenschaften, die Umgebung und das Humankapital eines Unternehmers mehr Einfluss während dem Suchprozess haben als während der darauffolgenden Auswahl. Zudem wurden für die Auwahl Methoden und Richtlinien entwickelt, die dem Unternehmer helfen sollen seine Alternativen zu sortieren und daraus zu wählen.
In dieser Forschungsarbeit werden Kriterien und Anforderungen für eine erfolgreiche Kollaborationsplattform zur Verbesserung der Kommunikation zwischen weltweit ver-teilten wissenschaftlichen Instituten der Eisenbahnbranche erarbeitet und bewertet. Hierzu wird zunächst eine Einführung in Kollaborationsplattformen und deren aktuelle Marktsituation und /-trends gegeben. Das daraus resultierende Wissen wird für eine qualitative Inhaltsanalyse in Form von Interviews mit der Zielgruppe der geplante Kol-laborationsplattform genutzt. Aufbauend auf dem Grundlagenwissen und der durchge-führten Interviews werden anschließend Hypothesen zur Kommunikation in wissen-schaftlichen Instituten gebildet. Diese Hypothesen dienen der Erstellung eines Frage-bogens für eine quantitative Befragung der Zielgruppe. Die folgende Analyse von allgemeinen Kollaborationsplattformen und solchen der Eisenbahnbranche gibt weitere Erkenntnisse und beschreibt Anforderungen für eine erfolgreiche Konzeption einer Kollaborationsplattform.
Eine anschließend geplante Konzeption dieser Plattform kann im Rahmen dieser Forschungsarbeit aufgrund fehlender aussagekräftiger Ergebnisse und Informationen nicht durchgeführt werden. Die geplante quantitative Inhaltsanalyse ist für den gewählten Rahmen zu aufwendig gewesen. In dieser Forschungsarbeit wird die quantitative Befragung für folgende Forschungsarbeiten in diesem Themenfeld vorbereitet. Weitere Arbeitsergebnisse werden für folgende Forschungsarbeiten ausgewertet und bereitgestellt.
Das Ziel dieser Arbeit ist es, zu bestimmen, ob neuronale Netze (insbesondere LSTM) zur Prozessvorhersage eingesetzt werden können. Dabei soll eine möglichst genaue Vorhersage zu dem Nachfolger eines Events getroffen werden.
Dazu wurde Python mit dem Framework TensorFlow genutzt, um ein rekurrentes neuronales Netz zu erstellen. Dabei werden zwei Netze erstellt, wobei das eine für das Training und das andere für die Vorhersage genutzt wird.
Die verwendeten Datensätze bestehen aus mehreren Prozessen mit jeweils mehreren Events. Mit diesen Prozessen wird das Netz trainiert und die Parameter nach dem Training gespeichert. Das Netz zur Vorhersage nutzt dann dieselben Parameter, um Vorhersagen zu Events zu treffen.
Das neuronale Netz ist in der Lage, nachfolgende Events eindeutig vorherzusagen. Auch Verzweigungen können vorhergesagt werden.
In der weiteren Entwicklung ist eine Einbindung in andere Programme möglich. Dabei ist es empfehlenswert, auf eine eindeutige Benennung der Events zu achten oder eine geeignete Umbenennung durchzuführen.
Ziel dieser Arbeit ist es, ein einfaches Konzept zur Überwachung von Hunden, die mehrere Stunden alleine zu Hause sind, zu entwickeln. Die prototypische Implementierung einer solchen„DogCam“ kann als Proof of Concept angesehen werden. Die Grundlage für die Implementierung des Prototypen sind die im Rahmen einer Anforderungsanalyse herausgearbeiteten Anforderungen. Weiterhin zeigt die vorliegende Arbeit auf, welche Verbesserungen und Erweiterungen der prototypischen „DogCam“ möglich sind und welche ähnlichen Projekte bereits existieren.
Soll die Inneneinrichtung eines Raums geplant werden, stehen verschiedene
Programme für Computer, Smartphones oder Head-Mounted Displays
zur Verfügung. Problematisch ist hierbei der Transfer der Planung in die
reale Umgebung. Deshalb wird ein Ansatz mit Augmented Reality entwickelt,
durch den die Planung des Raums unter realen Umständen veranschaulicht
wird. Möchten mehrere Personen ihre Ideen beitragen, erfordern
herkömmliche Systeme die Zusammenarbeit an einem Endgerät. Ziel dieser
Masterarbeit ist es, eine kollaborative Anwendung zur Raumplanung
in Augmented Reality zu konzipieren und zu entwickeln. Die Umsetzung
erfolgt in Unity mit ARCore und C#.
Vereine, wie zum Beispiel die Pfadfinder, stützen sich auf die Arbeit ihrer ehrenamtlichen Mitglieder, welche eine Vielzahl von Aufgaben zu erledigen haben. Oftmals kommt es in den Reihen der Mitglieder zu plötzlichen Änderungen in den Organisationsteams und Ämtern, wobei Planungsschritte verloren gehen und Unerfahrenheit bezüglich der Planung besteht. Da die speziellen Anforderungen durch bereits existierende Tools nicht abgedeckt werden, wird zur Unterstützung von Vereinen in Bezug auf die genannte Problematik in dieser Arbeit ScOuT, ein Planungstool für die Organisationsverwaltung, konzipiert und entwickelt. Der Schwerpunkt lag darauf verschiedene geeignete Richtlinien und heuristische Methoden zu identifizieren und zu verwenden, um eine gebrauchstaugliche Benutzeroberfläche erstellen zu können. Das entwickelte Produkt wurde im Rahmen der Arbeit empirisch durch eine Benutzerumfrage bezüglich der Gebrauchstauglichkeit ausgewertet. Das Ergebnis dieser Studie zeigt, dass bereits ein hohes Maß des angestrebten Ziels durch den Einbezug der Richtlinien und Methoden erreicht werden konnte.
Daraus lässt sich im großen Kontext schließen, dass mithilfe von benutzerspezifischen Konzeptideen und der Anwendung geeigneter Richtlinien und Methoden eine zielführende Grundlage für eine gebrauchstaugliche Anwendung zur Unterstützung von Vereinen erstellt werden kann.
Ein Gonioreflektometer ist ein Gerät zum Vermessen der Reflexionseigenschaften von Materialien. Ein solche Apparatur wird in dieser Arbeit mit handelsüblichen Bauteilen gebaut. Dafür werden drei Schrittmotoren und 809 Leuchtdioden mit einem Arduino-Mikrocontroller gesteuert. Als Reflexionsdaten werden RGB-Bilder mit einer industriellen Kamera aufgenommen. Zusätzlich wird eine Steuersoftware für verschiedene Aufnahmeprogramme sowie ein Renderer zum Anzeigen der vermessenen Materialien implementiert. Somit können komplette bidirektionale Reflektanz-Verteilungsfunktionen (BRDFs) aufgenommen und gerendert werden, wodurch selbst komplizierte anisotrope Materialeigenschaften repräsentierbar sind. Die Qualität der Ergebnisse ist aufgrund von Schattierungen zwar Artefakt-behaftet, jedoch können diese Artefakte durch entsprechende Algorithmen wie Inpainting weitestgehend behoben werden. Außerdem wurde das Gonioreflektometer auf andere Anwendungen übertragen. So sind ohne Veränderungen am Gerät auch 3D-Scans, Lichtfeldaufnahmen und Light-Staging möglich. Auch die Qualität der Ergebnisse dieser Aufnahmeverfahren entspricht den Erwartungen im positiven Sinne. Somit ist das in dieser Arbeit gebaute Gonioreflektometer im Vergleich zu anderen Publikationen eine breit anwendbare und kostengünstige Alternative.
Will Eisners Graphic Novels zeugen von einer tiefgehenden Identitifation mit dem Judentum als Volkszugehörigkeit, Religion und Kultur und spiegeln das Judentum in all seinen Facetten wider. Dabei ist besonders hervorzuheben, dass die Entwicklung des Gesamtwerks parallel verläuft zur Geschichte der Emanzipation der jüdischen Bevölkerung in New York City. Der Band clustert die jüdischen Aspekte in Eisners Werk in beispielsweise Faktoren kollektiver Erinnerung, Umgang mit und Kampf gegen Antisemitismus und religiöse Besonderheiten.
Simulationen in der Computergraphik haben das Ziel, die Realität so genau wie möglich in einer Szene einzufangen. Dafür werden intern und extern wirkende Kräfte berechnet, aus denen Beschleunigungen berechnet werden. Mit diesen werden letztendlich die Positionen von Geometrien oder Partikeln verändert.
Position Based Dynaimcs arbeitet direkt auf den Positionen. Durch Constraints wird eine Menge von Regeln aufgestellt, die zu jedem Zeitpunkt in der Simulation gelten sollen. Ist dies nicht der Fall, so werden die Positionen so verändert, dass sie den Constraints entsprechen. In dieser Arbeit wird ein PBD-Framework implementiert, in dem Solide und Fluide simuliert werden. Die Constraints werden durch ein Gauss-Seidel-Lösungsverfahren und ein Gauss-Jakobi-Lösungsverfahren gelöst. Die Berechnungen finden dabei komplett auf der GPU statt. Die Ergebnisse sind physikalisch plausible Simulationen, die in Echtzeit laufen.
Um realistische Bewegungsabläufe zu simulieren, müssen Muskeln anatomisch korrekt modelliert werden können. Bisher ist es in SimPack nur möglich, Muskeln als gerade Linie zwischen zwei Punkten zu definieren. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem Ellipsen definiert werden können, durch die ein Muskel laufen muss. Dabei entsteht vor allem das Problem, die Länge dieses Muskels durch die Ellipsen zu berechnen. Es wird ein Algorithmus vorgestellt, der den kürzesten Weg eines Muskelpfades durch diese Ellipsen berechnet. Dieser Algorithmus wird anschließend in Fortran 90 umgesetzt und in ein bestehendes Muskelmodell in SimPack integriert.
Ist es möglich, allein mittels VR-Headset bei Nutzern Immersion zu
erzeugen? Zur Beantwortung dieser Frage werden zwei Simulationen einer
Achterbahnfahrt ohne haptisches Feedback mittels der Unreal Engine
4.20.3 für ein HTC-Vive VR Headset entwickelt und implementiert. Die
zweite Simulation unterscheidet sich von der ersten durch die Darbietung
außergewöhnlicher Ereignisse während der Fahrt, für die vermutet wird,
dass sie das Immersionserleben verstärken. Elf Probanden nahmen an der
Untersuchung teil. Die Auswertung eines Fragebogens zur Erfassung der
Intensität der Immersion und der Antworten auf offenen Fragen zeigt, dass
Immersion in beiden Simulation erfolgreich erzeugt werden konnte. Manche
Merkmale der Simulation vertieften bei einzelnen Probanden das immersive
Erleben, bei anderen dagegen nicht. Die Bedeutung der Ergebnisse
und Optimierungsmöglichkeiten für künftige Studien werden diskutiert.
Im Rahmen dieser Masterarbeit wird das Prinzip des hybriden Ray Tracing, einer Kombination einer Rasterisierungs-Pipeline mit Ray Tracing-Verfahren für einzelne Effekte, vorgestellt und eine Anwendung implementiert, welche innerhalb einer hybriden Ray Tracing-Pipeline Schatten, Umgebungsverdeckung
und Reflexionen berechnet und diese Effekte mit der direkten Beleuchtung kombiniert.
Das hybride Ray Tracing basiert auf der Idee, die Performance und Flexibilität von Rasterisierungs-Pipelines mit Ray Tracing zu kombinieren, um die Limitation der Rasterisierung, nicht auf die gesamte Umgebungsgeometrie an jedem Punkt zugreifen zu können, aufzuheben.
Im Rahmen der Implementation wird in die verwendete RTX-API sowie die Grafikschnittstelle Vulkan eingeführt und diese anhand der Implementation erklärt. Auf Grundlage der Ergebnisse und der Erkenntnisse bei der Nutzung der API wird diese, ihre Einsatzzwecke und Ausgereiftheit belangend, eingeschätzt.
In dieser Arbeit wird überprüft, ob die Befahrung mit Forstmaschinen auf Andosol-Waldstandorten Auswirkungen auf die Bodenverdichtung hat. Dazu werden Faktoren wie die Anzahl der Befahrungen, die Neigung sowie die Bodenart betrachtet und analysiert. Die Andosolböden im Untersuchungsgebiet sind durch sehr geringe Lagerungsdichten sowie hohe Porenvolumen, bedingt durch Laacher See-Tephra (LST), gekennzeichnet.
Infolge der Befahrung durch Forstmaschinen bei zum Teil ungünstiger Witterung, bildeten sich bis zu 67 cm tiefe Fahrspuren. Des Weiteren erhöht sich die Lagerungsdichte im Vergleich zum unbeeinflussten Wald im Schnitt um 17 %, im Extremfall bis zu 54 %. Einzeln betrachtet kann für die Bodenart ein starker Zusammenhang zwischen Feinboden, vor allem Schluff sowie Ton, und der Lagerungsdichte festgestellt werden. Ein Zusammenhang zwischen der Hangneigung und der Verdichtung des Bodens kann anhand der untersuchten Rückegasse nicht festgestellt werden. Die Anzahl der Befahrungen scheint im Untersuchungsgebiet mit dem Grad der Verdichtung einherzugehen.
Dieses Dokument umfasst den dritten Zwischenbericht zum Projekt GeKOS – Gemeinsam entdecken Kinder ihren Ort mit Studierenden, der im Oktober 2018 an die Schöpflin-Stiftung übergeben wurde. Das Projekt GeKOS wird vom Ministerium für Wissenschaft, Weiterbildung und Kultur des Landes Rheinland-Pfalz im Rahmen der Programmbudgets Hochschulpakt III sowie von der Schöpflin-Stiftung mit Sitz in Lörrach von 2016 bis 2020 finanziell gefördert. Zudem gewährte das rheinland-pfälzische Ministerium für Integration, Familie, Kinder, Jugend und Frauen im Jahr 2015 eine Anschubfinanzierung.