Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (471)
- Ausgabe (Heft) zu einer Zeitschrift (354)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (190)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (20)
- Konferenzveröffentlichung (11)
- Sonstiges (8)
- Bericht (8)
- Buch (Monographie) (5)
- Habilitation (5)
- Vorlesung (1)
- Preprint (1)
Sprache
- Deutsch (1137)
- Englisch (540)
- Mehrsprachig (4)
- Spanisch (2)
Gehört zur Bibliographie
- nein (1683) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (335)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (176)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (143)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (57)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Leichte Sprache (LS) ist eine vereinfachte Varietät des Deutschen in der barrierefreie Texte für ein breites Spektrum von Menschen, einschließlich gering literalisierten Personen mit Lernschwierigkeiten, geistigen oder entwicklungsbedingten Behinderungen (IDD) und/oder komplexen Kommunikationsbedürfnissen (CCN), bereitgestellt werden. LS-Autor*innen sind i.d.R. der deutschen Standardsprache mächtig und gehören nicht der genannten Personengruppe an. Unser Ziel ist es, diese zu befähigen, selbst am schriftlichen Diskurs teilzunehmen. Hierfür bedarf es eines speziellen Schreibsystems, dessen linguistische Unterstützung und softwareergonomische Gestaltung den spezifischen Bedürfnissen der Zielgruppe gerecht wird. EasyTalk ist ein System basierend auf computerlinguistischer Verarbeitung natürlicher Sprache (NLP) für assistives Schreiben in einer erweiterten Variante von LS (ELS). Es stellt den Nutzenden ein personalisierbares Vokabular mit individualisierbaren Kommunikationssymbolen zur Verfügung und unterstützt sie entsprechend ihres persönlichen Fähigkeitslevels durch interaktive Benutzerführung beim Schreiben. Intuitive Formulierungen für linguistische Entscheidungen minimieren das erforderliche grammatikalische Wissen für die Erstellung korrekter und kohärenter komplexer Inhalte. Einfache Dialoge kommunizieren mit einem natürlichsprachlichen Paraphrasengenerator, der kontextsensitiv Vorschläge für Satzkomponenten und korrekt flektierte Wortformen bereitstellt. Außerdem regt EasyTalk die Nutzer*innen an, Textelemente hinzuzufügen, welche die Verständlichkeit des Textes für dessen Leserschaft fördern (z.B. Zeit- und Ortsangaben) und die Textkohärenz verbessern (z.B. explizite Diskurskonnektoren). Um das System auf die Bedürfnisse der Zielgruppe zuzuschneiden, folgte die Entwicklung von EasyTalk den Grundsätzen der menschzentrierten Gestaltung (UCD). Entsprechend wurde das System in iterativen Entwicklungszyklen ausgereift, kombiniert mit gezielten Evaluierungen bestimmter Aspekte durch Gruppen von Expert*innen aus den Bereichen CCN, LS und IT sowie L2-Lernende der deutschen Sprache. Eine Fallstudie, in welcher Mitglieder der Zielgruppe das freie Schreiben mit dem System testeten, bestätigte, dass Erwachsene mit geringen Lese-, Schreib- und Computerfähigkeiten mit IDD und/oder CCN mit EasyTalk eigene persönliche Texte in ELS verfassen können. Das positive Feedback aller Tests inspiriert Langzeitstudien mit EasyTalk und die Weiterentwicklung des prototypischen Systems, wie z.B. die Implementierung einer s.g. Schreibwerkstatt.
In the last years, the public interest in epidemiology and mathematical modeling of disease spread has increased - mainly caused by the COVID-19 pandemic, which has emphasized the urgent need for accurate and timely modelling of disease transmission. However, even prior to that, mathematical modelling has been used for describing the dynamics and spread of infectious diseases, which is vital for developing effective interventions and controls, e.g., for vaccination campaigns and social restrictions like lockdowns. The forecasts and evaluations provided by these models influence political actions and shape the measures implemented to contain the virus.
This research contributes to the understanding and control of disease spread, specifically for Dengue fever and COVID-19, making use of mathematical models and various data analysis techniques. The mathematical foundations of epidemiological modelling, as well as several concepts for spatio-temporal diffusion like ordinary differential equation (ODE) models, are presented, as well as an originally human-vector model for Dengue fever, and the standard (SEIR)-model (with the potential inclusion of an equation for deceased persons), which are suited for the description of COVID-19. Additionally, multi-compartment models, fractional diffusion models, partial differential equations (PDE) models, and integro-differential models are used to describe spatial propagation of the diseases.
We will make use of different optimization techniques to adapt the models to medical data and estimate the relevant parameters or finding optimal control techniques for containing diseases using both Metropolis and Lagrangian methods. Reasonable estimates for the unknown parameters are found, especially in initial stages of pandemics, when little to no information is available and the majority of the population has not got in contact with the disease. The longer a disease is present, the more complex the modelling gets and more things (vaccination, different types, etc.) appear and reduce the estimation and prediction quality of the mathematical models.
While it is possible to create highly complex models with numerous equations and parameters, such an approach presents several challenges, including difficulties in comparing and evaluating data, increased risk of overfitting, and reduced generalizability. Therefore, we will also consider criteria for model selection based on fit and complexity as well as the sensitivity of the model with respect to specific parameters. This also gives valuable information on which political interventions should be more emphasized for possible variations of parameter values.
Furthermore, the presented models, particularly the optimization using the Metropolis algorithm for parameter estimation, are compared with other established methods. The quality of model calculation, as well as computational effort and applicability, play a role in this comparison. Additionally, the spatial integro-differential model is compared with an established agent-based model. Since the macroscopic results align very well, the computationally faster integro-differential model can now be used as a proxy for the slower and non-traditionally optimizable agent-based model, e.g., in order to find an apt control strategy.
In a world where language defines the boundaries of one's understanding, the words of Austrian philosopher Ludwig Wittgenstein resonate profoundly. Wittgenstein's assertion that "Die Grenzen meine Sprache bedeuten die Grenzen meiner Welt" (Wittgenstein 2016: v. 5.6) underscores the vital role of language in shaping our perceptions. Today, in a globalized and interconnected society, fluency in foreign languages is indispensable for individual success. Education must break down these linguistic barriers, and one promising approach is the integration of foreign languages into content subjects.
Teaching content subjects in a foreign language, a practice known as Content Language Integrated Learning (CLIL), not only enhances language skills but also cultivates cognitive abilities and intercultural competence. This approach expands horizons and aligns with the core principles of European education (Leaton Gray, Scott & Mehisto 2018: 50). The Kultusministerkonferenz (KMK) recognizes the benefits of CLIL and encourages its implementation in German schools (cf. KMK 2013a).
With the rising popularity of CLIL, textbooks in foreign languages have become widely available, simplifying teaching. However, the appropriateness of the language used in these materials remains an unanswered question. If textbooks impose excessive linguistic demands, they may inadvertently limit students' development and contradict the goal of CLIL.
This thesis focuses on addressing this issue by systematically analyzing language requirements in CLIL teaching materials, emphasizing receptive and productive skills in various subjects based on the Common European Framework of Reference. The aim is to identify a sequence of subjects that facilitates students' language skill development throughout their school years. Such a sequence would enable teachers to harness the full potential of CLIL, fostering a bidirectional approach where content subjects facilitate language learning.
While research on CLIL is extensive, studies on language requirements for bilingual students are limited. This thesis seeks to bridge this gap by presenting findings for History, Geography, Biology, and Mathematics, allowing for a comprehensive understanding of language demands. This research endeavors to enrich the field of bilingual education and CLIL, ultimately benefiting the academic success of students in an interconnected world.
Potential impacts of invasive crayfish on native
benthic fish: shelter use and agonistic behaviour
(2023)
Spinycheek crayfish (Faxonius limosus) and signal crayfish (Pacifastacus leniusculus) are successful North American invasive crayfish species distributed throughout Europe. Both species compete with native benthic fish for shelter. In a laboratory approach, we assessed competition for shelter and antagonistic interactions between these invasive crayfish species and the native benthic fish species, stone loach (Barbatula barbatula) and bullhead (Cottus gobio). This allows for studying the potential impacts of invasive crayfish on native benthic fish. Spinycheek crayfish and signal crayfish were able to gain control of the shelter and could successfully displace both benthic fish species. For stone loach, the presence of crayfish significantly decreased their shelter use and caused several behavioural changes such as reduced activity and increased hiding behaviour outside the shelter. Although the shelter use by bullheads was not reduced, they displayed similar behavioural changes, if less intense. Invasive crayfish species showed remarkable combative interactions against both species of benthic fishes, evidenced by the high number of aggressive interactions, especially concerning stone loach. Our results highlight the pronounced dominance of invasive crayfish over benthic fish in terms of shelter competition and aggressive interactions under laboratory conditions, which consequently might promote the latter’s exposure to predation.
Bauxit ist neben anderen Rohstoffen ein bedeutender Ausgangsstoff für die Herstellung von feuerfesten Materialien. Die Verfügbarkeit von refraktären Rohstoffqualitäten ist weltweit jedoch begrenzt. Da hohe Eisengehalte einen negativen Einfluss auf die Temperaturbeständigkeit des hergestellten Feuerfestmaterials haben, ist ein maximaler Eisenoxidgehalt von 2 Gew.-% im Bauxit akzeptabel. Dies führt dazu, dass nur die nativen Rohstoffe aus wenigen Lagerstätten verwendet werden können. Um der Problematik zu hoher Eisenoxidgehalte in Naturbauxiten entgegenzuwirken, sollte im Rahmen dieser Arbeit die Möglichkeit der Bauxitaufbereitung für die Feuerfestindustrie durch Anwendung eines Säurelaugungsverfahrens untersucht werden. In bisherigen Studien zu diesem Thema wurden an einzelnen Bauxiten bereits einige Untersuchungen zur Eisenlaugung durchgeführt. Dabei wurde jedoch meist die resultierende Bauxitzusammensetzung in ihrer Gesamtheit vernachlässigt und es wurden nur unabhängig voneinander die Einflüsse einzelner Laugungsparameter auf das Laugungsergebnis untersucht. Die generierten Ergebnisse und Vorgehensweisen sind zudem nicht allgemeingültig und lassen sich nicht auf Bauxite anderer chemischer oder mineralogischer Zusammensetzung übertragen.
Um die bei der Aufbereitung von Naturbauxiten bestehenden offenen Fragen zu klären, wurden im Rahmen dieser Arbeit Laugungsversuche mit Salzsäure an fünf verschiedenen Bauxiten durchgeführt. Durch die Nutzung computergestützter statistischer Versuchsplanung konnte für jeden Bauxit ein individuelles Modell zur Vorhersage der optimalen Faktoreinstellungen generiert werden. Als Faktoren wurden die Säurekonzentration, das Feststoff-Säure-Verhältnis, die Laugungstemperatur, die Laugungszeit und die Kornfraktion untersucht. Die in diesem Zusammenhang entwickelte allgemeine Planungsgrundlage zur Bauxitaufbereitung enthält alle notwendigen Faktoren, sinnvolle Faktoreinstellungen und die innerhalb der Planung und Auswertung zu berücksichtigenden Effekte. Es konnte gezeigt werden, dass ausgehend von dieser Planungsgrundlage ein signifikantes, individuelles Modell für jeden der untersuchten Bauxite erstellt werden kann, welches die optimalen Laugungseinstellungen für den jeweiligen Bauxit vorhersagt. Zudem wurde festgestellt, dass die Übertragung eines bereits erstellten Modells auf einen anderen Bauxit ähnlicher Zusammensetzung möglich ist. Ausgehend von den durch die Laugungsversuche und die Modellanpassungen erhaltenen Ergebnissen konnten, in Kombination mit weiteren Ergebnissen zur Strukturanalyse der Bauxite, Erkenntnisse über die Laugbarkeit verschiedener Aluminium- und Eisenminerale aus Bauxit gewonnen werden.
Zur Entwicklung eines möglichst nachhaltigen Säurelaugungsverfahrens wurde außerdem exemplarisch die Möglichkeit der Aufbereitung der nach dem Laugungsprozess anfallenden Säure getestet. Hier konnte gezeigt werden, dass durch Flüssig-Flüssig-Extraktion mehr als 99 % des in der Lösung vorliegenden Eisens extrahiert und die aufbereitete Säure anschließend wieder zur Laugung verwendet werden kann.
Virtuelle Teams verbreiten sich weltweit immer mehr. Die Covid-19 Pandemie und die damit verbundene Homeofficepflicht sorgten in nationalen Unternehmen für die Zunahme virtueller Zusammenarbeit. Diese virtuellen Teams bleiben oftmals auch nach Aufhebung der pandemiebedingten gesetzlichen Beschränkungen bestehen. Um eine erfolgreiche Zusammenarbeit in diesen Teams zu erreichen, sind Kenntnisse zu den benötigten Eigenschaften und Fähigkeiten von Teammitgliedern von großer Bedeutung.
Um diese zu untersuchen, werden in dieser Arbeit sieben Experteninterviews mit Teammitgliedern virtueller Projektteams in der IT-Branche geführt und mithilfe qualitativer Inhaltsanalyse ausgewertet. Die ExpertInnen stammen aus drei deutschen Dienstleistungsunternehmen. Die Ergebnisse werden anhand des KSAO-Modells untersucht und nach der deduktiven Zuordnung zu den vier Kategorien „Wissen“, „Fertigkeiten“, „Kompetenzen“ und „Andere Merkmale“ jeweils durch induktive Kategorienbildung in Unterkategorien aufgeteilt. Dabei ergeben sich insgesamt 34 Kategorien, die für die virtuelle Zusammenarbeit relevant sind.
Mit den gewonnenen Erkenntnissen trägt die vorliegende Arbeit einen wichtigen Teil zur Forschung im Bereich der virtuellen Teams bei. Außerdem liefert sie Unternehmen, Führungskräften und dem Personalmanagement Anhaltspunkte für die Bewertung von BewerberInnen, die Auswahl geeigneter Teammitglieder, die Entwicklung von Schulungen und die gezielte Verbesserung virtueller Zusammenarbeit.
Die Umsetzung von Fernarbeitsregelungen wurde bisher überwiegend in allgemeiner Natur betrachtet. In der vorliegenden Arbeit wird mit Hilfe von Interviews mit Führungskräften, Mitarbeitern und IT-Dienstleistern die Umsetzung von Fernarbeitsregelungen in deutschen Regionalbanken betrachtet. Mit Hilfe der Grounded Theory werden dabei Herausforderungen, Lösungsansätze, Vorteile und Nachteile einer Umsetzung herausgearbeitet. Dabei zeigt sich, dass die Umsetzung zwischen den verschiedenen Banken starke Unterschiede aufweist, was den Fortschritt betrifft. Besonders die Überzeugung, dass eine Umsetzung vorteilhaft für die Bank sowie die Mitarbeiter ist, zeigt sich als Kernproblem in der eher konservativen Bankenlandschaft. Mit Hilfe der Arbeit werden Lösungsansätze gezeigt, um Herausforderungen bewältigen zu können und den Einfluss von Nachteilen zu minimieren. Dadurch dient die Arbeit dazu, Regionalbanken bei einer Umsetzung von Fernarbeitsregelungen zu unterstützen, indem sie Potenziale erkennen können und Möglichkeiten aufgezeigt bekommen, eine Umsetzung zu gewährleisten.
Increasingly, problematic smartphone use behavior (PSU) and excessive consumption are reported. In this study, an experiment was developed to investigate the influence of screen coloration using the grayscale setting on smartphone usage time in repeated measurements. We also investigated how individuals perceived suffering correlates with smartphone usage time and PSU, and whether differences exist by smartphone usage type (social, process, habitual). 240 subjects completed a questionnaire about smartphone usage time, PSU, perceived suffering, and smartphone usage types. Afterward, their smartphones were switched to grayscale setting for at least 24h, and thereafter 92 of these participants completed the second questionnaire. Analyses showed that grayscale setting decreases usage time and that there is a positive correlation between PSU, smartphone usage duration, and perceived suffering. The types of use (process and habitual) influence one’s perceived suffering. Thus, it shows that individuals are aware of their PSU and suffer from it. Using grayscale setting is effective in reducing smartphone use time.
Wie hingen Sprache und Gewalt im Nationalsozialismus zusammen? Ausgehend von der konstitutiven Sprachphilosophie des kanadischen Philosophen Charles Taylor untersucht die Dissertation die destruktive Wirkmacht der Sprache am Fall des Nationalsozialismus, der auf ungekannte Weise in die Sprache eingriff und damit Gewalt begünstigte, die bis heute ohnegleichen ist.
Künstliche neuronale Netze sind ein beliebtes Forschungsgebiet der künst-
lichen Intelligenz. Die zunehmende Größe und Komplexität der riesigen
Modelle bringt gewisse Probleme mit sich. Die mangelnde Transparenz
der inneren Abläufe eines neuronalen Netzes macht es schwierig, effiziente
Architekturen für verschiedene Aufgaben auszuwählen. Es erweist sich als
herausfordernd, diese Probleme zu lösen. Mit einem Mangel an aufschluss-
reichen Darstellungen neuronaler Netze verfestigt sich dieser Zustand. Vor
dem Hintergrund dieser Schwierigkeiten wird eine neuartige Visualisie-
rungstechnik in 3D vorgestellt. Eigenschaften für trainierte neuronale Net-
ze werden unter Verwendung etablierter Methoden aus dem Bereich der
Optimierung neuronaler Netze berechnet. Die Batch-Normalisierung wird
mit Fine-tuning und Feature Extraction verwendet, um den Einfluss der Be-
standteile eines neuronalen Netzes abzuschätzen. Eine Kombination dieser
Einflussgrößen mit verschiedenen Methoden wie Edge-bundling, Raytra-
cing, 3D-Impostor und einer speziellen Transparenztechnik führt zu einem
3D-Modell, das ein neuronales Netz darstellt. Die Validität der ermittelten
Einflusswerte wird demonstriert und das Potential der entwickelten Visua-
lisierung untersucht.
The trends of industry 4.0 and the further enhancements toward an ever changing factory lead to more mobility and flexibility on the factory floor. With that higher need of mobility and flexibility the requirements on wireless communication rise. A key requirement in that setting is the demand for wireless Ultra-Reliability and Low Latency Communication (URLLC). Example use cases therefore are cooperative Automated Guided Vehicles (AGVs) and mobile robotics in general. Working along that setting this thesis provides insights regarding the whole network stack. Thereby, the focus is always on industrial applications. Starting on the physical layer, extensive measurements from 2 GHz to 6 GHz on the factory floor are performed. The raw data is published and analyzed. Based on that data an improved Saleh-Valenzuela (SV) model is provided. As ad-hoc networks are highly depended onnode mobility, the mobility of AGVs is modeled. Additionally, Nodal Encounter Patterns (NEPs) are recorded and analyzed. A method to record NEP is illustrated. The performance by means of latency and reliability are key parameters from an application perspective. Thus, measurements of those two parameters in factory environments are performed using Wireless Local Area Network (WLAN) (IEEE 802.11n), private Long Term Evolution (pLTE) and 5G. This showed auto-correlated latency values. Hence, a method to construct confidence intervals based on auto-correlated data containing rare events is developed. Subsequently, four performance improvements for wireless networks on the factory floor are proposed. Of those optimization three cover ad-hoc networks, two deal with safety relevant communication, one orchestrates the usage of two orthogonal networks and lastly one optimizes the usage of information within cellular networks.
Finally, this thesis is concluded by an outlook toward open research questions. This includes open questions remaining in the context of industry 4.0 and further the ones around 6G. Along the research topics of 6G the two most relevant topics concern the ideas of a network of networks and overcoming best-effort IP.
Sind Menschen von einer Pflegebedürftigkeit in Deutschland betroffen, so regelt der durch § 14 SGB XI festgeschriebene Pflegebedürftigkeitsbegriff den Zugang zu Leistungen der Pflegeversicherung. Der Pflegebedürftigkeitsbegriff ist dabei ein normativ gesetzter und basiert bislang nicht auf empirischen Studien aus dem Bereich der Pflege und der Pflegewissenschaft. Durch seine gesetzliche Fundierung lenkt er die Bedingungen und Strukturen, unter welchen Pflegeleistungen in Deutschland von Pflegefachpersonen erbracht werden. Weiterhin ist davon auszugehen, dass die Pflegefachpersonen durch ihre professionelle Sozialisierung einen fachlichen Fokus auf das Konstrukt der Pflegebedürftigkeit legen, welcher sich vom Pflegebedürftigkeitsbegriff unterscheidet und strukturell nicht in die Leistungsbemessung einfließt. Daraus ergeben sich Aspekte einer pflegerischen Unter- und Überversorgung.
Die vorliegende Ph.D.-Thesis verfolgt das Anliegen, die Herausforderungen des Pflegebedürftigkeitsbegriffs in Deutschland aufzuzeigen, indem die Aspekte der Pflegebedürftigkeit von Pflegefachpersonen im ambulanten Setting im Hinblick auf deren Interaktion mit pflegebedürftigen Menschen empirisch erfasst und zu einem theoretischen Konzept ausgearbeitet werden. Zur methodischen Bearbeitung des Forschungsinteresses werden problemzzentrierte Interviews mit ambulanten Pflegefachpersonen geführt, die mit Rückbezug auf den Symbolischen Interaktionismus nach Herbert Blumer unter methodologischen und methodischen Gesichtspunkten mittels einer Grounded Theory nach Kathy Charmaz sowie Juliet Corbin und Anselm Strauss erhoben und ausgewertet werden. Dabei kommt ein reflexives-konstruktivistisches Forschen und Schreiben als Konsequenz der epistemologisch-methodologischen Fundierung der Autorin zur Anwendung.
Die erarbeitete Theorie beschreibt die Herausforderungen der Pflegebedürftigkeit aus Sicht der befragten Pflegefachpersonen. So werden in der Kernkategorie Aushandlungsprozesse in den Bereichen Nähe und Distanz, Anwaltschaft und Verantwortungsüberlassung sowie Ethos und Technokratie beschrieben. Sämtliche Aspekte zeigen auf, inwiefern der gesetzliche Pflegebedürftigkeitsbegriff zu Herausforderungen innerhalb der pflegerischen Arbeit führt. Die Ph.D.-Thesis liefert mit ihren Ergebnissen einen Beitrag zur Einordnung und Relevanz pflegerischer Beziehungsarbeit im Hinblick auf herrschende Rahmenbedingungen der Pflegebedürftigkeit und zeigt auf, inwiefern sich Interaktion und Kommunikation der Akteur*innen vor dem Anspruch individueller Pflege und dem deutschen ambulanten Pflegesystem wechselseitig bedingen. Sie liefert damit einen professionell und empirisch begründeten Ansatz für die Einschätzung und Bearbeitung von pflegefachlich erlebter Pflegebedürftigkeit.
Sogenannte Klassische Musik spielte spätestens ab der zweiten Hälfte des 20. Jahrhunderts eine zentrale Rolle für den Musikunterricht in Deutschland. Aber auch der Blick auf jüngere musikpädagogische Diskursstränge lässt Klassische Musik nach wie vor als virulenten Diskussionsanlass erscheinen. Doch wie denken eigentlich Musiklehrer:innen über Klassische Musik im Musikunterricht nach? Diese Thematik ist in der deutschsprachigen Musikpädagogik bisher nicht systematisch erforscht.
Zur Beantwortung der Frage wie Musiklehrer:innen über Klassische Musik im Musikunterricht nachdenken werden in einer qualitativ-empirischen Studie acht leitfadengestützte Interviews geführt und in Anlehnung an die Grounded Theory Methodology ausgewertet. Die herausgearbeitete Theorie zeigt, dass Musiklehrer:innen mit dem Einsatz von Klassischer Musik im Musikunterricht unterschiedliche Ziele verfolgen, diese Musik aber grundsätzlich als den Schüler:innen fremd wahrnehmen. Um mit dieser Situationen umzugehen, entwickeln die Musiklehrer:innen verschiedene Methoden und Strategien, die sich drei Umgangsweisen mit der wahrgenommenen Fremdheit Klassischer Musik zuordnen lassen: Fremdheit vermeiden, Fremdheit reduzieren/relativieren und Fremdheit nutzen.
Die Ergebnisse der Studie werden in fremdheitstheoretischer, musikdidaktischer und transformatorisch-bildungstheoretischer Perspektive kontextualisiert. Die vorliegende Dissertation liefert somit insgesamt einen Beitrag zu musikpädagogischer Unterrichtsforschung zu Klassischer Musik und schafft Anknüpfungspunkte für weitergehende theoretische, empirische und didaktische Forschung.
In dieser wiederkehrenden Zeitschriftenreihe wollen wir die Arbeit junger Wissenschaftlerinnen und Wissenschaftler an der Universität Koblenz kommunizieren und Studierenden Austausch- und Publikationsmöglichkeiten für den wissenschaftlichen Werdegang eröffnen.
In dieser Ausgabe:
Christin Robrecht: Helfen kommt nach der Flut: Über die Ambivalenz situativ-nichtalltäglicher Dynamiken im Kontext der Flutkatastrophe im Ahrtal
Theresa Josephine Fischbach: Kontrollüberzeugung und Job Strain: Eine empirische Analyse verschiedener Ausprägungen von Job Strain aufgrund individueller Unterschiede der Kontrollüberzeugung
Rebekka Jachmig: Der Ukraine-Krieg im rechtspopulistischen Diskurs: Eine Analyse der Deutungsmuster von AfD-Politiker*innen
Hanna Schroer: Am Rande Galliens, inmitten der Welt: Eine Comicanalyse interkultureller Fremderfahrung am Beispiel der Comicserie Asterix
Lisa-Marie Schwab: Koloniale Spuren des Handels in Koblenz: Eine kritische Aufarbeitung
Jana Semrau: Okey-Doke: Political Critique in Spike Lee’s "BlacKkKlansman" (2018)
Anna Mira Olszewski: Of Wardrobes and Closets. A Lesson Plan on "Simon vs. Homo Sapiens Agenda" (2015) by Becky Albertalli
Marina Neuwert: Projektive Kommunikation von (Berufs-)Identität: Promotionsinteresse und Zukunftskarrieren bei Lehramtsstudierenden
Jan-Lukas Löwen: Zur Möglichkeit und Notwendigkeit der ästhetischen Erfahrung im Literaturunterricht
Malin Britz: Wearable Devices: Ein systemisches Review
This work addresses the challenge of calibrating multiple solid-state LIDAR systems. The study focuses on three different solid-state LIDAR sensors that implement different hardware designs, leading to distinct scanning patterns for each system. Consequently, detecting corresponding points between the point clouds generated by these LIDAR systems—as required for calibration—is a complex task. To overcome this challenge, this paper proposes a method that involves several steps. First, the measurement data are preprocessed to enhance its quality. Next, features are extracted from the acquired point clouds using the Fast Point Feature Histogram method, which categorizes important characteristics of the data. Finally, the extrinsic parameters are computed using the Fast Global Registration technique. The best set of parameters for the pipeline and the calibration success are evaluated using the normalized root mean square error. In a static real-world indoor scenario, a minimum root mean square error of 7 cm was achieved. Importantly, the paper demonstrates that the presented approach is suitable for online use, indicating its potential for real-time applications. By effectively calibrating the solid-state LIDAR systems and establishing point correspondences, this research contributes to the advancement of multi-LIDAR fusion and facilitates accurate perception and mapping in various fields such as autonomous driving, robotics, and environmental monitoring.
Focusing on the triangulation of detective fiction, masculinity studies and disability studies, "Investigating the Disabled Detective – Disabled Masculinity and Masculine Disability in Contemporary Detective Fiction" shows that disability challenges common ideals of (hegemonic) masculinity as represented in detective fiction. After a theoretical introduction to the relevant focal points of the three research fields, the dissertation demonstrates that even the archetypal detectives Dupin and Holmes undermine certain nineteenth-century masculine ideals with their peculiarities. Shifting to contemporary detective fiction and adopting a literary disability studies perspective, the dissertation investigates how male detectives with a form of neurodiversity or a physical impairment negotiate their masculine identity in light of their disability in private and professional contexts. It argues that the occupation as a detective supports the disabled investigator to achieve ‘masculine disability’. Inversing the term ‘disabled masculinity’, predominantly used in research, ‘masculine disability’ introduces a decisively gendered reading of neurodiversity and (acquired) physical impairment in contemporary detective fiction. The term implies that the disabled detective (re)negotiates his masculine identity by implementing the disability in his professional investigations and accepting it as an important, yet not defining, characteristic of his (gender) identity. By applying this approach to five novels from contemporary British and American detective fiction, the dissertation demonstrates that masculinity and disability do not negate each other, as commonly assumed. Instead, it emphasises that disability allows the detective, as much as the reader, to rethink masculinity.
Im Rahmen der Masterthesis „Analyse des Managements invasiver gebietsfremder Arten am Beispiel des Roten Amerikanischen Sumpfkrebses (Procambarus clarkii) während und im Anschluss an notwendige Sanierungsarbeiten am Hochwasserrückhaltebecken Breitenauer See östlich von Heilbronn“ wurde das Vorkommen des invasiven Roten Amerikanischen Sumpfkrebses am Breitenauer See umfangreich kartiert. Auch die nahegelegene Sulm mit bekanntem Vorkommen des Signalkrebses sowie das Nonnenbachsystem mit bekanntem Vorkommen des Steinkrebses wurden erfasst. Der Fokus lag auf der Beantwortung dreier Kernfragen. Zunächst wurde untersucht, ob und wie ein dauerhaftes IAS-Management (invasive alien species) des Roten Amerikanischen Sumpfkrebses am Breitenauer See nachhaltig durchgeführt werden kann, um inakzeptable ökologische Effekte zu vermeiden. Die zweite Fragestellung bezog sich auf die Wirksamkeit ergriffener Risikomanagementmaßnahmen während der Ablassaktion des Breitenauer Sees. Abschließend war fraglich, wie sich der Rote Amerikanische Sumpfkrebs verhält, wenn sein besiedeltes Gewässer trockenfällt.
In der vorliegenden Dissertation mit dem Titel "Blickanalysen bei mentalen Rotationsaufgaben" wird eine Analyse der visuellen Verarbeitungsprozesse bei mentalen Rotationsaufgaben mittels Eye-Tracking-Technologie durchgeführt, um die zugrundeliegenden kognitiven Prozesse und Strategien, die bei der Lösung dieser Aufgaben angewandt werden, zu untersuchen. Ein Anliegen dieser Arbeit ist es, die Problemstellung zu adressieren, wie individuelle Unterschiede, insbesondere geschlechtsspezifische Differenzen in den Blickmustern, die visuelle Verarbeitung und Leistung bei mentalen Rotationsaufgaben beeinflussen. Hierzu wurden drei Studien durchgeführt, die nicht nur die Identifikation von Blickmustern und die Analyse der Leistungsunterschiede in Bezug auf Geschlecht umfassen, sondern auch die Korrelation zwischen Blickverhalten und Leistung untersuchen. Die Ergebnisse dieser Forschung bieten Einblicke in die Mechanismen der visuellen und kognitiven Verarbeitung bei mentalen Rotationsaufgaben und heben die Bedeutung des Eye-Tracking als Forschungsinstrument in der kognitiven Psychologie hervor, um ein umfassendes Verständnis der Einflussfaktoren auf räumliches Denken und Problemlösungsstrategien zu erlangen.
Diese Dissertation widmet sich der inhaltsanalytischen, quantitativen Analyse der Kompilation Disney Princess durch die Anwendung der Theorie des male gaze von Laura Mulvey, welche sie in Visual Pleasure and Narrative Cinema (1975) sowie Afterthoughts on `Visual Pleasure and Narrative Cinema‘ inspired by King Vidor´s Duel in the Sun (1946) (1981) darstellte.
Die Autorin der Dissertation nutzt die quantitative Inhaltsanalyse nach Patrick Rössler, um die Filme der Kompilation Disney Princess aus den Jahren 1937 bis 2016 sowie den Film Die Eiskönigin (2013) auf die Darstellung der weiblich und männlich gelesenen Filmfiguren im Hinblick auf die Körperproportionen, den Grad ihrer Aktivität und den Umfang ihrer Präsenz sowie das Geschlecht der Filmmitarbeiter:innen zu untersuchen.
Empirische Studien in der Softwaretechnik verwenden Software Repositories als Datenquellen, um die Softwareentwicklung zu verstehen. Repository-Daten werden entweder verwendet, um Fragen zu beantworten, die die Entscheidungsfindung in der Softwareentwicklung leiten, oder um Werkzeuge bereitzustellen, die bei praktischen Aspekten der Entwicklung helfen. Studien werden in die Bereiche Empirical Software Engineering (ESE) und Mining Software Repositories (MSR) eingeordnet. Häufig konzentrieren sich Studien, die mit Repository-Daten arbeiten, auf deren Ergebnisse. Ergebnisse sind aus den Daten abgeleitete Aussagen oder Werkzeuge, die bei der Softwareentwicklung helfen. Diese Dissertation konzentriert sich hingegen auf die Methoden und High-Order-Methoden, die verwendet werden, um solche Ergebnisse zu erzielen. Insbesondere konzentrieren wir uns auf inkrementelle Methoden, um die Verarbeitung von Repositories zu skalieren, auf deklarative Methoden, um eine heterogene Analyse durchzuführen, und auf High-Order-Methoden, die verwendet werden, um Bedrohungen für Methoden, die auf Repositories arbeiten, zu operationalisieren. Wir fassen dies als technische und methodische Verbesserungen zusammen um zukünftige empirische Ergebnisse effektiver zu produzieren. Wir tragen die folgenden Verbesserungen bei. Wir schlagen eine Methode vor, um die Skalierbarkeit von Funktionen, welche über Repositories mit hoher Revisionszahl abstrahieren, auf theoretisch fundierte Weise zu verbessern. Wir nutzen Erkenntnisse aus abstrakter Algebra und Programminkrementalisierung, um eine Kernschnittstelle von Funktionen höherer Ordnung zu definieren, die skalierbare statische Abstraktionen eines Repositorys mit vielen Revisionen berechnen. Wir bewerten die Skalierbarkeit unserer Methode durch Benchmarks, indem wir einen Prototyp mit MSR/ESE Wettbewerbern vergleichen. Wir schlagen eine Methode vor, um die Definition von Funktionen zu verbessern, die über ein Repository mit einem heterogenen Technologie-Stack abstrahieren, indem Konzepte aus der deklarativen Logikprogrammierung verwendet werden, und mit Ideen zur Megamodellierung und linguistischen Architektur kombiniert werden. Wir reproduzieren bestehende Ideen zur deklarativen Logikprogrammierung mit Datalog-nahen Sprachen, die aus der Architekturwiederherstellung, der Quellcodeabfrage und der statischen Programmanalyse stammen, und übertragen diese aus der Analyse eines homogenen auf einen heterogenen Technologie-Stack. Wir liefern einen Proof-of-Concept einer solchen Methode in einer Fallstudie. Wir schlagen eine High-Order-Methode vor, um die Disambiguierung von Bedrohungen für MSR/ESE Methoden zu verbessern. Wir konzentrieren uns auf eine bessere Disambiguierung von Bedrohungen durch Simulationen, indem wir die Argumentation über Bedrohungen operationalisieren und die Auswirkungen auf eine gültige Datenanalysemethodik explizit machen. Wir ermutigen Forschende, „gefälschte“ Simulationen ihrer MSR/ESE-Szenarien zu erstellen, um relevante Erkenntnisse über alternative plausible Ergebnisse, negative Ergebnisse, potenzielle Bedrohungen und die verwendeten Datenanalysemethoden zu operationalisieren. Wir beweisen, dass eine solche Art des simulationsbasierten Testens zur Disambiguierung von Bedrohungen in der veröffentlichten MSR/ESE-Forschung beiträgt.
Nanopartikel sind sensitive und gleichzeitig robuste Systeme, sie sind auf Grund ihrer groflen Oberfläche besonders reaktiv und besitzen Eigenschaften, die das Bulk-Material nicht aufweist. Gleichzeitig ist die Herstellung von Nanopartikeln selbst bei gleichen Parametern und Bedingungen eine Herausforderung, da sich die Parameter von Durchgang zu Durchgang ein bisschen unterscheiden können. Um dies zu verhindern soll, in dieser Arbeit eine kontinuierliche Synthese im Mikro-Jet Reaktor für Ceroxid-Nanopartikel entwickelt werden. Ziel war es, monodisperse Nanopartikel zu erhalten, die in Biosensoren Anwendung finden.
Im Mittelpunkt dieser Arbeit stehen zwei Fällungssynthesen mit den Zwischenschritten Cercarbonat und Cerhydroxid sowie eine Mikroemulsionssynthese zur Herstellung von Ceroxid-Nanopartikeln. Die Ceroxid-Nanopartikel werden anhand verschiedener Charakterisierungs- und Anwendungsmethoden verglichen, dabei werden die synthetisierten Nanopartikel hinsichtlich ihrer Größe, Stabilität, chemischen Zusammensetzung und katalytischen Fähigkeiten durch Elektronenmikroskopie, Röntgenbeugung, Raman- und Photoelektronen-Spektroskopie charakterisiert.
Die Anwendung der Ceroxid-Nanopartikel erfolgte in biologischen Sensorsystemen. Die Sensorsysteme sind so konzipiert, dass sie Histamin und Glukose oder Wasserstoffperoxid, welches bei der Oxidation von Histamin und Glukose entsteht, nachweisen. Wasserstoffperoxid und Glukose werden in dieser Arbeit durch einen elektrochemischen Sensor und Histamin durch ein kolorimetrisches Sensorsystem nachgewiesen.
Herein, the particle size distributions (PSDs) and shape analysis of in vivo bioproduced particles from aqueous Au3+ and Eu3+ solutions by the cyanobacterium Anabaena sp. are examined in detail at the nanoscale. Generally, biosynthesis is affected by numerous parameters. Therefore, it is challenging to find the key set points for generating tailored nanoparticles (NPs). PSDs and shape analysis of the Au and Eu-NPs were performed with ImageJ using high-resolution transmission electron microscopy (HR-TEM) images. As the HR-TEM image analysis reflects only a fraction of the detected NPs within the cells, additional PSDs of the complete cell were performed to determine the NP count and to evaluate the different accuracies. Furthermore, local PSDs were carried out at five randomly selected locations within a single cell to identify local hotspots or agglomerations. The PSDs show that particle size depends mainly on contact time, while the particle shape is hardly affected. The particles formed are distributed quite evenly within the cells. HR-PSDs for Au-NPs show an average equivalent circular diameter (ECD) of 8.4 nm (24 h) and 7.2 nm (51 h). In contrast, Eu-NPs preferably exhibit an average ECD of 10.6 nm (10 h) and 12.3 nm (244 h). Au-NPs are classified predominantly as “very round” with an average reciprocal aspect ratio (RAR) of ~0.9 and a Feret major axis ratio (FMR) of ~1.17. Eu-NPs mainly belong to the “rounded” class with a smaller RAR of ~0.6 and a FMR of ~1.3. These results show that an increase in contact time is not accompanied by an average particle growth for Au-NPs, but by a doubling of the particle number. Anabaena sp. is capable of biosorbing and bioreducing dissolved Au3+ and Eu3+ ions from aqueous solutions, generating nano-sized Au and Eu particles, respectively. Therefore, it is a low-cost, non-toxic and effective candidate for a rapid recovery of these sought-after metals via the bioproduction of NPs with defined sizes and shapes, providing a high potential for scale-up.
This thesis explores and examines the effectiveness and efficacy of traditional machine learning (ML), advanced neural networks (NN) and state-of-the-art deep learning (DL) models for identifying mental distress indicators from the social media discourses based on Reddit and Twitter as they are immensely used by teenagers. Different NLP vectorization techniques like TF-IDF, Word2Vec, GloVe, and BERT embeddings are employed with ML models such as Decision Tree (DT), Random Forest (RF), Logistic Regression (LR) and Support Vector Machine (SVM) followed by NN models such as Convolutional Neural Network (CNN), Recurrent Neural Network (RNN) and Long Short-Term Memory (LSTM) to methodically analyse their impact as feature representation of models. DL models such as BERT, DistilBERT, MentalRoBERTa and MentalBERT are end-to-end fine tuned for classification task. This thesis also compares different text preprocessing techniques such as tokenization, stopword removal and lemmatization to assess their impact on model performance. Systematic experiments with different configuration of vectorization and preprocessing techniques in accordance with different model types and categories have been implemented to find the most effective configurations and to gauge the strengths, limitations, and capability to detect and interpret the mental distress indicators from the text. The results analysis reveals that MentalBERT DL model significantly outperformed all other model types and categories due to its specific pretraining on mental data as well as rigorous end-to-end fine tuning gave it an edge for detecting nuanced linguistic mental distress indicators from the complex contextual textual corpus. This insights from the results acknowledges the ML and NLP technologies high potential for developing complex AI systems for its intervention in the domain of mental health analysis. This thesis lays the foundation and directs the future work demonstrating the need for collaborative approach of different domain experts as well as to explore next generational large language models to develop robust and clinically approved mental health AI systems.
How to begin? This short question addresses a problem that is anything but simple, especially when regarding something as sophisticated and multilayered as musical theatre. However, scholars of this vast research area have mostly neglected this question so far. This study analyses and compares the initial sections of late Victorian popular musical theatre and is therefore a contribution to several fields of research: the analysis of initial sections of musical theatre in general, the analysis of the music of popular musical theatre in particular, and therefore operetta studies. The 1890s are especially interesting times for popular musical theatre in London: The premiered works include the last collaborations of Gilbert and Sullivan as well as offshoots of Savoy opera; but the so-called ‘naughty nineties’ also saw the emergence of a new genre, musical comedy, which captured the late Victorian zeitgeist like no other. This new form of theatrical entertainment was carefully and consciously constructed and promoted as modern and fashionable, walking a fine line between respectability and mildly risqué excitement.
Because a deep understanding of the developments and new tendencies concerning popular musical theatre in the 1890s is crucial in order to interpret differences as well as similarities, the analyses of the opening numbers are preceded by a detailed discussion of the relevant genres: comic opera, musical comedy, musical play and operetta. Since the producers of the analysed works wanted to distance themselves from former and supposedly old-fashioned traditions, this book also considers influences from their British predecessors, but also from Viennese operetta and French opéra bouffe.
Coat color and pattern are a distinguished feature in mammalian carnivores, shaped by climatic cycles and habitat type. It can be expressed in various ways, such as gradients, polymorphisms, and rare color variants. Although natural selection explains much of the phenotypic variation found in the wild, genetic drift and heterozygote deficiency, as prominent in small and fragmented populations, may also affect phenotypic variability through the fixation of recessive alleles. The aim of this study was to test whether rare color variants in the wild could relate to a deficiency of heterozygotes, resulting from habitat fragmentation and small population size. We present an overview of all rare color variants in the order Carnivora, and compiled demographic and genetic data of the populations where they did and did not occur, to test for significant correlations. We also tested how phylogeny and body weight influenced the presence of color variants with phylogenetic generalized linear mixed models (PGLMMs). We found 40 color-variable species and 59 rare color variants. In 17 variable phenotypic populations for which genetic diversity was available, the average AR was 4.18, HO = 0.59, and HE= 0.66, and FIS= 0.086. We found that variable populations displayed a significant reduction in heterozygosity and allelic richness compared to non-variable populations across species. We also found a significant negative correlation between population size and inbreeding coefficients. Therefore, it is possible that small effective size had phenotypic consequences on the extant populations. The high frequency of the rare color variants (averaging 20%) also implies that genetic drift is locally overruling natural selection in small effective populations. As such, rare color variants could be added to the list of phenotypic consequences of inbreeding in the wild.
The production of isolated metallic nanoparticles with multifunctionalized properties, such as size and shape, is crucial for biomedical, photocatalytic, and energy storage or remediation applications. This study investigates the initial particle formations of gold nanoparticles (AuNPs) bioproduced in the cyanobacteria Anabaena sp. using high-resolution transmission electron microscopy images for digital image analysis. The developed method enabled the discovery of cerium nanoparticles (CeNPs), which were biosynthesized in the cyanobacteria Calothrix desertica. The particle size distributions for AuNPs and CeNPs were analyzed. After 10 h, the average equivalent circular diameter for AuNPs was 4.8 nm, while for CeNPs, it was approximately 5.2 nm after 25 h. The initial shape of AuNPs was sub-round to round, while the shape of CeNPs was more roundish due to their amorphous structure and formation restricted to heterocysts. The local PSDs indicate that the maturation of AuNPs begins in the middle of vegetative cells and near the cell membrane, compared to the other regions of the cell.
X-ray computed tomography (XRT) is a three-dimensional (3D), non-destructive, and reproducible investigation method capable of visualizing and examining internal and external structures of components independent of the material and geometry. In this work, XRT with its unique abilities complements conventionally utilized examination methods for the investigation of microstructure weakening induced by hydrogen corrosion and furthermore provides a new approach to corrosion research. The motivation for this is the current inevitable transformation to hydrogen-based steel production. Refractories of the system Al2O3-SiO2 are significant as lining materials. Two exemplary material types A and B, which differ mainly in their Al2O3:SiO2 ratio, are examined here using XRT. Identical samples of the two materials are measured, analyzed, and then compared before and after hydrogen attack. In this context, hydrogen corrosion-induced porosity and its spatial distribution and morphology are investigated. The results show that sample B has an higher resistance to hydrogen-induced attack than sample A. Furthermore, the 3D-representation revealed a differential porosity increase within the microstructure.
The title compound, [Fe(C5H5)(C21H24NO2)], which is produced by the oxidation of 1-(4-tert-butylphenyl)-2-ethyl-3-ferrocenylpyrrole, crystallizes as a racemic mixture in the centrosymmetric space group P21/n. The central heterocyclic pyrrole ring system subtends dihedral angles of 13.7 (2)° with respect to the attached cyclopentadienyl ring and of 43.6 (7)° with the major component of the disordered phenyl group bound to the N atom. The 4-tert-butylphenyl group, as well as the non-substituted Cp ring are disordered with s.o.f. values of 0.589 (16) and 0.411 (16), respectively. In the crystal, molecules with the same absolute configuration are linked into infinite chains along the b-axis direction by O—H···O hydrogen bonds between the hydroxy substituent and the carbonyl O atom of the adjacent molecule.
Reducing gender bias in STEM is key to generating more equality and contributing to a more balanced workforce in this field. Spatial ability and its components are cognitive processes crucial to success in STEM education and careers. Significant gender differences have consistently been found in mental rotation (MR), the ability to mentally transform two- and three-dimensional objects. The aim of this pilot study is to examine factors in psychological assessment which may contribute to gender differences in MR performance. Moreover, findings will inform the development of the new approaches to assessment using computer adaptive testing (CAT). (1) Background: The study examines the impact of emotional regulation on MR performance in primary school children whose mean age was 9.28 years old. (2) Methods: Skin conductance was measured to assess the impact of emotional reactivity (ER) on performance during an MR task. (3) Results: Patterns of ER influence response time (RT) on specific items in the task. (4) Conclusions: Identifying the effects of emotional arousal and issues of test construction such as stereotyped stimuli and item difficulty in tests of spatial ability warrants ongoing investigation. It is vital to ensure that these factors do not compromise the accurate measurement of performance and inadvertently contribute to the gender gap in STEM.