Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (470)
- Ausgabe (Heft) zu einer Zeitschrift (354)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (190)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (14)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1137)
- Englisch (534)
- Mehrsprachig (4)
- Spanisch (2)
- (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (176)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (143)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (57)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Water is used in a way as if it were available infinitely. Droughts, increased rainfall or flooding already lead to water shortages and, thus, deprive entire population groups of the basis of their livelihoods. There is a growing fear that conflicts over water will increase, especially in arid climate zones, because life without water - whether for humans, animals or plants - is not possible.
More than 60 % of the African population depend on land and water resources for their livelihoods through pastoralism, fishing and farming. The water levels of rivers and lakes are decreasing. Hence, the rural population which is dependent on land and water move towards water-rich and humid areas. This internal migration increases the pressure on available water resources. Driven by the desire to strengthen the economic development, African governments align their political agendas with the promotion of macro international and national economic projects.
This doctoral thesis examines the complex interrelationships between water shortages, governance, vulnerability, adaptive capacity and violent and non-violent conflicts at Lake Naivasha in Kenya and Lake Wamala in Uganda. In order to satisfy the overall complexity, this doctoral thesis combines various theoretical and empirical aspects in which a variety of methods are applied to different geographical regions, across disciplines, and cultural and political boundaries.
The investigation reveals that Lake Naivasha is more affected by violent conflicts than Lake Wamala. Reasons for this include population growth, historically grown ethnic conflicts, corruption and the preferential treatment of national and international economic actors. The most common conflict response tools are raiding and the blockage of water access. However, deathly encounters, destruction of property and cattle slaughtering are increasingly used to gain access to water and land.
The insufficient implementation of the political system and the governments’ prioritization to foster economic development results, on the one hand, in the commercialization of water resources and increases, on the other hand, non-violent conflict between national and sub-national political actors. While corruption, economic favours and patronage defuse this conflict, resource access becomes more difficult for the local population. Resulting thereof, a final hypothesis is developed which states that the localization of the political conflict aggravates the water situation for the local population and, thereby, favours violent conflicts over water access and water use in water-rich areas.
In der vorliegenden Arbeit sollen weltweit herrschende inhaltliche Ausprägungen und Schwerpunkte des Themengebiets "BMI" bzw. "GMI" mit Hilfe des Literatur-Reviews akademischer Artikel herausgearbeitet werden. Die festgestellten Beziehungen und Zusammenhänge sollen visualisiert und lokalisiert werden, um eine globale Sicht über das Thema herzustellen. Unter anderem sollen die in das finale Set aufgenommenen Artikel auf eine Korrelation zwischen BMI und Controlling bzw. Management hin überprüft werden. Als letzter Schritt soll eine Ableitung möglicher Forschungslücken unternommen werden.
Beispielkommunikation: Formen und Funktionen der Beispielverwendung in der verbalen Interaktion
(2012)
Das Beispiel ist ein hoch komplexer, historisch sich vielfach ausdifferenzierender Begriff, mit dem sich seit der Antike die geisteswissenschaftlichen Disziplinen intensiv auseinandergesetzt haben. Die Orientierung am Besonderen, am Konkreten, am Einzelfall, am Exemplarischen ist eine zentrale menschliche Denkbewegung bei der Erkenntnisgewinnung, der Wissensvermittlung, dem Verstehen und der Verständigung ebenso wie bei der Überzeugung und Glaubhaftmachung. Wie wir aber in unserem ganz gewöhnlichen, alltäglichen Sprechen mit Beispielen umgehen, welche Rolle "das Exemplarische" insbesondere in der verbalen, mündlichen Interaktion spielt, wozu und wie wir Beispiele einsetzen, das ist linguistisch wenig und vor allem nicht systematisch untersucht. Wir nehmen im Alltag immer wieder explizit metasprachlich auf das Beispielgeben Bezug, wenn wir etwa sagen "Gib mir doch mal ein Beispiel" oder "Ich mach mal ein Beispiel". Die Analyse der Gesprächspraxis zeigt zudem, dass die Beispielverwendung kein randständiges, sondern ein sehr häufig zu beobachtendes sprachliches Phänomen in verschiedenen Kommunikationskontexten ist, von dem sich vermuten lässt, dass es gerade für die Alltagskommunikation fundamental ist.
Die vorliegende Arbeit hat deshalb zum Ziel, Beispiele in der Sprachverwendung als eine Form des sprachlichen Handelns fassbar und analysierbar zu machen und die Erscheinungsformen sowie Wirkungs- und Funktionsweisen auf der Grundlage von Transkripten natürlichsprachiger Dialoge empirisch zu untersuchen. Aus der Perspektive verschiedener Disziplinen werden Dimensionen des Beispielbegriffs, des fallbezogenen Denkens und des Argumentierens mit Beispielen betrachtet. Es wird auf die grundlegende Rolle des Beispiels, des Besonderen beim Erkennen und Verstehen des Allgemeinen eingegangen, auf die Beschreibungen der Beispielfunktionen und "Funktionslogiken" auf verschiedenen Ebenen. Ausführlich wird auf die bisherigen Analysen zur Beispielverwendung in der Text- und Gesprächslinguistik eingegangen. Im Kontext der Analyse der Sprachverwendung in der natürlichen Sprache wird das Beispiel allerdings nur selten als eigenes Thema behandelt, das Exemplifizieren / Beispielnennen wird häufig als sprachliche Handlung selbstverständlich vorausgesetzt, jedoch dabei nicht konzeptuell betrachtet. Aufbauend auf die Betrachtung und Bewertung der bisherigen Untersuchungen wird in der vorliegenden Arbeit Beispielverwenden als sprachliche Handlung konzeptualisiert, die im Kern eine Konnexstiftung von Besonderem und Allgemeinem enthält. Dabei werden gesprächsanalytische und hermeneutische Ansätze aus der Handlungssemantik aufeinander bezogen und Möglichkeiten für eine Adaption gezeigt.
Die empirischen Analyse stützt sich auf ein umfangreiches Korpus transkribierter verbaler Interaktionen (Diskussionen, Talkshow, Konfliktgespräch). Die Analyseergebnisse bestehen zum einen aus korpusgestützten Beschreibungen und (für Erweiterungen offenen) Typologisierungen von Realisierungsformen und des "displays" von Beispielverwendung sowie der empirisch gestützten Beschreibung von Handlungs- und Interaktionsmustern der Beispielverwendung im Gespräch und ausführlichen, exemplarischen, funktionsbezogenen Einzelanalysen.
Externe Repräsentationen spielen eine wichtige Rolle für die Lösung von mathematischen Textaufgaben. Die vorliegende Studie untersucht die Effekte bereitgestellter Repräsentationen beim Lösen problemhaltiger Textaufgaben in der Grundschule. Insbesondere problemhaltige Textaufgaben sind für Schüler anspruchsvoll, da sie nicht direkt mit den eingeübten und routinierten Rechenoperationen gelöst werden können. Sie zeichnen sich dadurch aus, dass sich der Lösungsweg nicht auf einen Blick erschließt, die mathematische Grundstruktur daher zunächst erkannt, entfaltet und verstanden werden muss und häufig mehrere Aufgabenbedingungen bei der Planung und Beschreitung des Lösungswegs bedacht und verarbeitet werden müssen. Um diesen komplexen Anforderungen begegnen zu können, benötigen Schüler die Fähigkeit, das Problem adäquat zu repräsentieren. Dabei können verschiedene Darstellungsformen wie Zeichnungen und Tabellen verwendet werden, die dann als Werkzeuge für die kognitiven Lösungsprozesse dienen. Da Grundschüler von sich aus häufig keine externen Repräsentationen erstellen, geht die vorliegende Studie den Fragen nach, (1) ob vorgefertigte Repräsentationen das Problemlösen verbessern und erleichtern, (2) ob sich eine Auseinandersetzung mit vorgefertigten Tabellen und Zeichnungen auch auf späteres Problemlösen ohne bereitgestellte Hilfsmittel auswirkt, (3) welche Repräsentationsform (Zeichnung oder Tabelle) und (4) wie viel Vorstrukturierung der bereitgestellten Repräsentation dabei hilfreicher ist. In einem experimentellen Studiendesign arbeiteten 199 Viertklässler an unterschiedlichen problemhaltigen Textaufgaben. Das Design bestand aus drei Tests: (1) Vor-, (2) Treatment- und (3) Transfertest. Im Vortest wurde die Ausgangsleistung der Probanden bei problemhaltigen Textaufgaben gemessen. Im Treatment-Test wurde die Performance beim Problemlösen mit vorgegebenen Repräsentationen erhoben: Probanden der Experimentalgruppe erhielten Zeichnungen und Tabellen in unterschiedlichen Vorstrukturierungsgraden zu den Aufgaben (Intervention), eine Kontrollgruppe erhielt keine Repräsentationen. Im Transfertest bearbeiteten die Teilnehmer vergleichbare Aufgaben wiederum ohne vorgegebene Repräsentationen, um die Problemlöse-Performance nach der Intervention zu messen. Die Ergebnisse zeigten erstens, dass die bereitgestellten Repräsenta-tionen entgegen der Annahme die Problemlöseprozesse insgesamt nicht verbessert und erleichtert haben. Zweitens: Wurde eine Repräsentation bereitgestellt, war eine Zeichnung wie angenommen hilfreicher als eine Tabelle. Jedoch war dieser Effekt abhängig vom Problemtyp und vom Grad der Vorstrukturierung. Offensichtlich genügte es nicht, Zeichnungen und Tabellen einfach nur bereitzustellen, da die Probanden vielfach Schwierigkeiten bei der Interpretation und adäquaten Verwendung der Repräsentationen hatten. Dies spricht für die Notwendigkeit eines Trainings zur Ausbildung und Förderung einer frühen „diagram literacy“ bereits bei Grundschülern.
Religion, Kultur und Sprache sind nicht ohne Einfluss auf die Krankheitswahrnehmung und das Gesundheitsverhalten von Patienten mit migratorischen Hintergrund. Ebenso können sie auch besondere Herausforderungen für das Gesundheitssystem des Gastlandes darstellen. Dies trifft im besonderen Maße für die psychotherapeutische Versorgung von Migranten erster und folgender Generationen zu. Im Fokus der vorliegenden Arbeit stehen muslimische Patienten in der Psychotherapie. Auf Grundlage einer empirischen Untersuchung werden Konfliktfelder und Tabuthemen sowie andere neuralgische Punkte der Interaktion zwischen Psychotherapeut und muslimischem Patient beleuchtet, um die Notwendigkeit einer Kultursensibilität in der psychosozialen Versorgung von Migranten aufzudecken und Anregungen zur Verbesserung der interkulturellen Begegnung in der psychotherapeutischen Praxis zur Diskussion zu stellen.
Ziel der Bachelorarbeit war die Evaluation und Optimierung von verschiedenen Eye-Tracking Algorithmen für die subpixelgenaue Bestimmung der relevanten Merkmale bezüglich Genauigkeit. Die extrahierten Merkmale sind das Pupillen- und Glintzentrum. Die Algorithmen sind mit preiswerten Kameras einsetzbar. Es wurde ein synthetisches Modell des Auges modifiziert und verwendet, mit dem die Methoden mit bekannter Ground Truth evaluiert wurden.
In der vorliegenden Arbeit wurde untersucht, inwieweit durch lokale Wirtschaftsförderungsinitiativen in Namibia Projekte zur Minderung von Treibhausgasen angestoßen werden können. Dabei wurde insbesondere geprüft, ob der Clean Development Mechanism (CDM) des Kyotoprotokolls sinnvoll genutzt werden kann.
Dazu wurden zuerst die Faktoren (Potential für Minderungsprojekte, Geschäfts- und Investitionsklima, institutionelle Rahmenbedingungen, etc.), die die Initiierung von Projekten fördern oder behindern können, diskutiert. In einem weiteren Schritt wurde analysiert, welche Einstellung Klima- und Energieexperten und Personen, die im Bereich lokaler und regionaler Wirtschaftsförderung tätig sind, zur Forschungsfrage haben. Dazu wurden 229 Fragebögen, 28 individuelle Interviews und eine Fokusgruppendiskussion mit 20 Teilnehmern ausgewertet. Des Weiteren wurde die praktische Umsetzbarkeit entsprechender Maßnahmen mit Hilfe einer vom Autor initiierten "real life"-Fallstudie untersucht. Während der Entwicklung einer lokalen Wirtschaftsförderungsstrategie in der namibischen Region Otjozondjupa wurde auch das dortige Potential für Treibhausgasminderungsprojekte eingeschätzt, darauf basierend wurden Projektideen entwickelt und deren nachhaltige soziale und wirtschaftliche Auswirkungen beurteilt. Erfolg versprechende Projekte wurden anschließend in die Strategie zur Implementierung integriert.
Aufgrund verschiedener Faktoren wie beispielsweise der Komplexität von CDM, dem geringen Ausstoß von Treibhausgasen in Namibia, der schlechten Marktsituation für Emissionsrechte und unzureichender finanzieller Mittel hat die Initiierung von CDM-Projekten durch lokale Wirtschaftsförderung in Namibia den im Rahmen der vorliegenden durchgeführten Untersuchungen zufolge wenig Aussicht auf Erfolg. Jedoch besteht seitens der Akteure die grundsätzliche Bereitschaft, Minderungsprojekte in lokale Wirtschaftsförderung zu integrieren, wenn damit vorrangig die Ziele der Wirtschaftsförderung erreicht werden. Die Untersuchung zeigte, dass lokal initiierte Minderungsprojekte kaum zur Schaffung von Einkommensquellen oder Arbeitsplätzen beitragen. Stattdessen sollten eher nationale strategische Ziele verfolgt werden, wie z. B. eine flächendeckende Elektrizitätsversorgung oder die Verminderung der Abhängigkeit von Stromimporten. Dazu müsste bei lokaler Wirtschaftsförderung zukünftig auch der Energiesektor eine größere Rolle spielen, lokale Verwaltungen müssten die Verantwortung für die Initiierung von Energieprojekten übernehmen, nationale und lokale Behörden müssten effizienter zusammenarbeiten und die lokalen Rahmenbedingungen müssten so verbessert werden, dass der Privatsektor bereit ist, seine Rolle in der Wirtschaftsförderung zu übernehmen. Darüber hinaus sollten die Interessen der Bevölkerung berücksichtigt und alle Akteure frühzeitig in Entscheidungsprozesse eingebunden werden.
The stands surveyed are among the last closed canopy forests in Rwanda. Their exploration began in the early twentieth century and is still ongoing. Previous studies were mainly concerned with plant sociological issues and presented references to environmental factors in anecdotal form, at best using indirect ordination methods. The present study undertakes a classification of the vegetation with numerical methods and establishes quantitative relationships of the species’ distributional structure to environmental parameters using spatially explicit procedures. For this purpose, 94 samples were taken in 100 m² hexagonal plots. Of these, 70 samples are from Nyungwe, 14 are from Gishwati, and 10 are from Cyamudongo. Given the homogeneity of the terrain and vegetation, all vegetation types encountered, all types of stands, and all vegetation strata were included. The beta diversity is expressed by an average Bray-Curtis dissimilarity of 0.92, and in JOST’S (2007) numbers equivalents, 37.90 equally likely samples would be needed to represent the diversity encountered. Within the survey, 1198 species in 127 families were collected. Among the specimens are 6 local endemics and 40 Albertine Rift endemics. Resulting from UPGMA and FCM-NC, 20 to 40 plant communities were established depending on the level of resolution. It can be inferred by means of a Mantel correlogram that the mean zone of influence of a single vegetation stand, as sampled by a 100 m² plot in Nyungwe Forest, ranges between 0.016 and 3.42 km. Of the communities compiled using FCM-NC and UPGMA, 50% consist of individual samples. Beyond undersampling, natural small-scale discontinuities are reflected by this result. Partial db-RDA resulted in an explained variation of 9.60% and 14.41% for environmental and soil factors, respectively. Utilising variation partitioning analyses based on CCA and tb-RDA, between 21.70% and 37.80% of the variation in vegetation data could be explained. The spatially structured fraction of these parameters accounts for between 30.50% and 49.80% of the explained variation (100%). The purely environmental parameters account for a share of 10.30% to 16.30%, whereby the lower limit originates from the unimodal approach and has lost its statistical significance. The soil variables, also after partial analysis, account for a share of 19.00% to 35.70%. While the residual impact of the climatic parameters is hardly significant, the effect of the soil properties is prevalent. In general, the spatially structured fraction of the parameters is predominant here. While on the broad-scale climatic factors, the altitude a.s.l. and the geology are determining factors, some soil parameters and matrix components also show their impacts here. In the mid-range of the scale, it is the forest matrix, the soil types, and the geology that determine species distribution. While in the fine range of the scale, some unrecorded parameters seem to have an effect, there are also neutral processes that determine species composition.
Der Mittelstand ist das Rückgrat der deutschen Wirtschaft. Um erfolgreich agieren zu können, benötigt er geeignete Finanzierung in ausreichendem Umfang. Was aber zeichnet eine geeignete Finanzierung aus Sicht des Kapitalnehmers aus? Trotz der volkswirtschaftlichen Relevanz des Themas gibt es nur wenige empirische Studien über das Finanzierungsverhalten des Mittelstandes. Für diese Arbeit wurden sämtliche deutsche, mit PREPS finanzierte Unternehmen zur Teilnahme an einer Online-Befragung eingeladen. PREPS ist eine standardisierte mezzanine Finanzierung, die großen mittelständischen, bonitätsstarken Unternehmen angeboten wurde und mehrheitlich als Wachstumsfinanzierung verwendet wurde. Die finanzierten Unternehmen sind als Forschungsgegenstand besonders interessant, weil sie innerhalb des Mittelstandes aufgrund ihrer Größe und Bonität die breiteste Auswahl bei Finanzierungsentscheidungen haben. Finanzierungsinstrumente unterscheiden sich in der Ausgestaltung von ihren Rechten und Pflichten. Je nach Ausgestaltung kann eine Finanzierung neben der offensichtlichen Liquiditätsfunktion unterschiedliche weitere Funktionen wahrnehmen wie die Transformations-, Verhaltensbeeinflussungs- oder auch die Informationsfunktion. Die Haupthypothese dieser Arbeit ist, dass sich die finanzierten Unternehmen aus unterschiedlichen Gründen für dasselbe Finanzierungsinstrument entschieden haben und dass sich die unterschiedliche Wertschätzung der verschiedenen Eigenschaften des Finanzierungsinstruments aus unternehmens- und situationsspezifischen Besonderheiten ergeben. In den einzelnen Hypothesen über konkrete Zusammenhänge zwischen spezifischen Einflussfaktoren und Wertschätzungen von Finanzierungseigenschaften werden sowohl die zentralen Aussagen aus den Kapitalstrukturtheorien als auch aktuelle empirische Erkenntnisse zum Finanzierungsverhalten aufgegriffen und detailliert untersucht. Darüber hinaus wird einigen explorativen Hypothesen nachgegangen.
Mathematisches Modellieren bezeichnet die verschiedenen Prozesse, die Menschen durchlaufen, wenn sie versuchen, reale Probleme mathematisch zu lösen oder Textaufgaben zu bearbeiten. In der Literatur werden im sogenannten Modellierungszyklus fünf aufeinanderfolgende Teilprozesse genannt, die den Ablauf des Problemlöseprozesses beschreiben (Blum, 2003). Beim Strukturieren wird zunächst eine Problemsituation im kognitionspsychologischen Sinne verstanden, die wesentlichen Merkmale werden abstrahiert um dann im zweiten Schritt (Mathematisieren) in ein mathematisches Modell (bestehend aus Gleichungen, Symbolen, Operatoren, Ziffern etc.) übersetzt zu werden. Beim Verarbeiten dieses mathematischen Modells mithilfe mathematischen Wissens wird das Problem innermathematisch gelöst, woraufhin das Ergebnis im vierten Schritt (Interpretieren) rückübertragen wird auf die ursprüngliche Problemsituation. Die dort aufgeworfene Frage wird beim Interpretieren beantwortet. Der letzte Schritt (Validieren) sieht eine Überprüfung des gesamten Problemlöseprozesses vor: Kommt der Modellierer zu dem Schluss, dass sein Ergebnis eventuell nicht korrekt bzw. nicht optimal ist, wird der Modellierungszyklus von vorne durchlaufen. Der Modellierungszyklus dient dabei sowohl als deskriptives als auch als präskriptives (normatives) Modell, da er einerseits beschreibt, wie Modellieren abläuft und andererseits vorschreibt, wie Schüler z.B. beim Lösen von mathematischen Textaufgaben vorgehen sollen. Dennoch liegen für beide Zielsetzungen keine empirischen Studien vor, die belegen könnten, dass der Modellierungszyklus sich tatsächlich als deskriptives oder als präskriptives Modell eignet. In der vorliegenden Arbeit konnte die Eignung als deskriptives Modell nur mit Einschränkungen bestätigt werden. So zeigte sich z.B. in einer Voruntersuchung, dass das Stadium Validieren bei Schülern der Klassenstufe 4 nicht zu beobachten ist und dass der Ablauf der Stadien deutlich von der vorgegebenen Reihenfolge abweichen kann. Eine revidierte Version des Modellierungszyklus als rekursives Modell wird daher vorgeschlagen. In einer zweiten, größeren Untersuchung wurde die Eignung als normatives Modell untersucht, indem die vier Stadien Strukturieren, Mathematisieren, Verarbeiten und Interpretieren isoliert voneinander erfasst wurden, wofür zuvor eigens Items konstruiert worden waren. Die vier Unterskalen wurden an mehreren Kriterien - darunter die Fähigkeit zum Lösen kompletter Modellierungsaufgaben - validiert, was den normativen Charakter des Modells bestätigt. Um Modellierungskompetenz frühzeitig diagnostizieren und dementsprechend fördern zu können, ist die Entwicklung von Methoden angezeigt, die vier Teilkompetenzen Strukturieren, Mathematisieren, Verarbeiten und Interpretieren bereits im Grundschulalter unabhängig voneinander objektiv, reliabel und valide zu erfassen. Mit der Entwicklung und Analyse von Items zu den vier Teilbereichen wurde hierfür mit der vorliegenden Arbeit ebenfalls eine Grundlage geschaffen.
ERP market analysis
(2013)
Der aktuelle ERP Markt wird dominiert von den fünf größten Anbietern SAP, Oracle, Microsoft, Infor und Sage. Da der Markt und die angebotenen Lösungen vielfältig sind, bedarf es einer fundierten Analyse der Systeme. Die Arbeit beleuchtet dabei anhand ausgesuchter Literatur und Kennzahlen der verschiedenen Unternehmen die theoretische Seite der angebotenen Lösungen der fünf großen ERP Anbieter. Daneben wird die Nutzung der Systeme in der Praxis anhand der Befragung von sechs Anwendern analysiert und die Systeme miteinander verglichen.
Ziel der Arbeit ist es, dass die Forschungsfragen beantwortet werden und dass es bezogen auf die Systeme dem Leser der Arbeit ersichtlich wird, welches ERP System für welche Unternehmensbranche und Unternehmensgröße am besten geeignet ist.
Des Weiteren gibt die Arbeit Aufschluss darüber, welche Trends für ERP Systeme für die Zukunft zu erwarten sind und welche Herausforderungen sich dadurch für die Unternehmen stellen.
In dieser Arbeit soll ein dreidimensionales, echtzeitfähiges Landschaftsmodell des Mittelrheintals erstellt werden. Dabei soll die Modellerstellung soweit wie möglich automatisiert werden. Als Datengrundlage dienen das digitale Landschaftsmodell ATKIS-Basis DLM sowie das digitale Geländemodell (DGM), welches die notwendigen Höheninformationen zur Erzeugung des dreidimensionalen Modells enthält. Insbesondere soll dabei untersucht werden, wie sich die Generierung von Landschaftsmerkmalen wie Infrastruktur und Vegetation durch ein parametrisierbares Modell automatisieren lässt, und inwieweit sich die verwendeten Daten für einen solchen Automatisierungsprozess eignen.
Die vorliegende Arbeit beschäftigt sich mit den Nutzenpotentialen des GeoPortal.rlp. Hierzu werden zwei empirische Studien erhoben. Die erste Studie ist eine Nutzerumfrage bezüglich des Portals. Die zweite Studie besteht aus Experteninterviews um potentielle Kooperationspartner zu identifizieren. Aus den Ergebnissen der beiden Studien werden Handlungsempfehlungen abgeleitet.
Modern Internet and Intranet techniques, such as Web services and virtualization, facilitate the distributed processing of data providing improved flexibility. The gain in flexibility also incurs disadvantages. Integrated workflows forward and distribute data between departments and across organizations. The data may be affected by privacy laws, contracts, or intellectual property rights. Under such circumstances of flexible cooperations between organizations, accounting for the processing of data and restricting actions performed on the data may be legally and contractually required. In the Internet and Intranet, monitoring mechanisms provide means for observing and auditing the processing of data, while policy languages constitute a mechanism for specifying restrictions and obligations.
In this thesis, we present our contributions to these fields by providing improvements for auditing and restricting the data processing in distributed environments. We define formal qualities of auditing methods used in distributed environments. Based on these qualities, we provide a novel monitoring solution supporting a data-centric view on the distributed data processing. We present a solution for provenance-aware policies and a formal specification of obligations offering a procedure to decide whether obligatory processing steps can be met in the future.
The processing of data is often restricted by contractual and legal requirements for protecting privacy and IPRs. Policies provide means to control how and by whom data is processed. Conditions of policies may depend on the previous processing of the data. However, existing policy languages do not provide means to express such conditions. In this work we present a formal model and language allowing for specifying conditions based on the history of data processing. We base the model and language on XACML.
Diese Dissertation beschreibt Ökologie und Verhalten einer Hirschkäferpopulation im Moseltal im Bereich der Gemeinden Alf und Bullay (Kreis Cochem-Zell). Im Rahmen einer Kartierung werden darüber hinaus Vorkommen im nördlichen Rheinland-Pfalz dokumentiert. Grundlage der Untersuchung ist die Radiotelemetrie der adulten Hirschkäfer im Freiland. Die Anwendung dieser Methode liefert auch über den eigentlichen Untersuchungszweck hinausgehende quantitative und qualitative Erfahrungswerte für diese noch selten bei fliegenden Käfern angewendete Methode. Daneben werden Fundortmeldungen, Brutstättenmonitoring, Morphometrie und Insektarienuntersuchungen als ergänzende und vergleichende Methoden eingesetzt. Es erfolgt so eine quantitative Beschreibung geschlechtsspezifischer Verhaltenweisen adulter Hirschkäfer wie z. B. Aktivitäts-, Dispersions-und Fortpflanzungsverhalten, Habitatpräferenzen sowie eine Beschreibung der Entwicklungsabläufe im Bruthabitat. Die Ergebnisse zeichnen ein Bild vom Leben der Hirschkäfer, das von den bisherigen Vorstellungen weitgehend abweicht. Hirschkäfer brauchen Offenlandstrukturen und sind im Moseltal erfolgreiche Kulturfolger. Sie leben heute dort nahezu unbemerkt in der urbanen Landschaft. Die vielfach beschriebene enge Bindung an die Baumart Eiche ist keine zwingende Voraussetzung für eine erfolgreiche Populationsbildung. Im gesamten Fortpflanzungsverhalten kommt der Brutstätte eine zentrale Bedeutung zu, dabei ist die Vernetzung der Brutstätten eine Grundvoraussetzung. Das Fortpflanzungsverhalten unterliegt einer Regelstrategie, zu der es aber auch Alternativen gibt. Das beobachtete Dispersionsverhalten ermöglicht die Abgrenzung von Populationen. Für den Naturschutz ergeben sich aus den Ergebnissen Konsequenzen und Möglichkeiten für Schutzgebiete und die Anlage künstlicher Bruthabitate. Daneben wirft diese Untersuchung aber auch die Frage der Bewertung von Gefährdung und Seltenheit dieser Art als Ergebnis subjektiver Wahrnehmungen auf.
Im Rahmen dieser Bachelorarbeit wurde ein Back-Office für die elektronische Version des Europäischen Schadensberichtes erstellt. Es wurde bereits in anderen Arbeiten ein mobiler Client, welcher auf einem Windows Mobile Handy läuft, sowie ein Polizei Client erstellt. Diese greifen auf das Back-Office zu, um Daten, wie z.B. die Autodaten (Automarke, der Typ, das Baujahr und Bilder eines 3D-Modells des Autos) zu einem bestimmten Kennzeichen oder die Personendaten des jeweiligen Autobesitzers zu erhalten. Der mobile Client sendet zudem die Unfallakte an das Back-Office, damit die Daten über einen Unfall in diesem abgespeichert und weiter bearbeitet werden können. Ziel der Arbeit war es ein erweiterbares, modulares System zu entwickeln, welches später um weitere Module ergänzt werden kann, um neue Funktionen bereitstellen zu können. Diese Module können jeweils beliebige Daten in einer Datenbank abspeichern und diese von der Datenbank auch wieder abfragen, sowie verändern, ohne dass das relationale Schema der Datenbank verändert werden muss.
Wenn es um die Vermittlung und Förderung von Kompetenzen geht, die für die Transformation zu einer nachhaltigen Gesellschaft notwendig sind, nehmen angehende Lehrpersonen eine Schlüsselrolle ein. Mit der modellhaften Einführung des Zertifikatsstudiums „Bildung – Transformation – Nachhaltigkeit“ (BTN) an der Universität Koblenz-Landau bietet sich Lehramtsstudierenden aller Fächer und Schulformen die Möglichkeit, sich in verschiedenen Modulen – begleitend zum regulären Studium – wissenschaftlich fundiert, multiperspektivisch und praxisorientiert mit Aspekten nachhaltiger Entwicklung auseinanderzusetzen. Ziel ist es, Lehramtsstudierende mit relevanten Nachhaltigkeitskompetenzen auszustatten, sie für ihre Rolle in Bezug auf die notwendige Transformation hin zu einer nachhaltigen Gesellschaft zu sensibilisieren und sie zu befähigen, in ihrem zukünftigen Berufsleben an Schulen, Hochschulen oder außerschulischen Bildungseinrichtungen inklusive und systemische Nachhaltigkeitskonzepte zu implementieren. Ein besonderer Schwerpunkt des Zertifikats liegt auf der Förderung der Reflexionsfähigkeit der Studierenden. Das Zertifikat BTN ist ein Projekt des Zentrums für Bildung und Forschung an Außerschulischen Lernorten (ZentrAL) der Universität Koblenz-Landau und wurde durch die Deutsche Bundesstiftung Umwelt (DBU) als Pilotvorhaben gefördert.
Intensivierung der Landwirtschaft führt weltweit zu einem fortschreitenden Verlust der biologischen Vielfalt in Agrarlandschaften. Die daraus resultierende Homogenität der Landschaft, die mit der Ausweitung von Monokulturflächen und dem Verlust naturnaher Lebensräume einhergeht, hat schwerwiegende Auswirkungen auf Arthropoden in Agrarlandschaften. Während Ackerflächen aufgrund intensiver und häufiger Störungen für viele Arten ungeeignete Habitate darstellen, können naturnahe Lebensräume in Agrarökosystemen als wichtige Rückzugsflächen fungieren. Die Erschaffung von naturnahen Lebensräumen durch Agrarumweltmaßnahmen in intensiven Agrarlandschaften, wie der Maifelder Agrarlandschaft in Westdeutschland, sollen den negativen Auswirkungen der landwirtschaftlichen Intensivierung entgegenwirken. Allerdings ist die Wirksamkeit dieser Maßnahmen für den Artenschutz noch umstritten. Aus diesem Grund wird in dieser Arbeit die Artenvielfalt der Käfer (Coleoptera) und Spinnen (Araneida) auf Weizenfeldern und verschiedenen naturnahen Lebensräumen (grasbewachsene Feldränder angrenzend an Weizen- und Rapsfelder; klein- und großflächige, mit Wildblumenmischungen eingesäte, Stilllegungsflächen; dauerhafte Grünlandbrachen) miteinander verglichen. Hierfür wurden die Arthropoden in den Jahren 2019 und 2020 mit Bodenfallen und Saugproben erfasst. Die vorliegenden Ergebnisse zeigen, dass die Landnutzung die Käfer- und Spinnendiversität im Untersuchungsgebiet beeinflusst, mit einer deutlich höheren Artenvielfalt auf den Grünlandbrachen als auf den Weizenfeldern. Überraschenderweise bestanden zwischen allen naturnahen Lebensräumen nur geringe Unterschiede, jedoch beherbergten sie unterschiedliche Artengemeinschaften. Hier unterschieden sich vor allem die Käfer- und Spinnengemeinschaften der großflächigen Grünlandbrachen deutlich von allen anderen untersuchten Landnutzungstypen. Insbesondere für Habitatspezialisten und gefährdete Arten stellten die Grünlandbrachen wichtige Lebensräume dar, wahrscheinlich aufgrund ihrer variablen Bodenfeuchtigkeit und komplexen Lebensraumstruktur. Im Gegensatz dazu wiesen Weizenfelder homogene Arthropodengemeinschaften mit einem geringeren Merkmalsreichtum auf und wurden von einigen wenigen räuberischen Arten dominiert, die sich an derartig intensive Lebensräume angepasst haben. Die Ergebnisse deuten darauf hin, dass sich alle Schutzmaßnahmen ergänzen, indem sie auf unterschiedliche Weise zur Förderung der Käfer und Spinnen auf landwirtschaftlichen Flächen beitragen können. Selbst kleinflächige naturnahe Lebensräume und bestehende Habitatgrenzen in einer landwirtschaftlichen Matrix scheinen wertvolle Lebensräume für Arthropoden in Agrarökosystemen darzustellen, indem sie zur Erhöhung der taxonomischen Vielfalt beitragen. Feldränder und kleine, mit Wildblumen eingesäte Flächen, können isolierte naturnahe Lebensräume miteinander verbinden und zu einer heterogenen Agrarlandschaft beitragen. Folglich führt eine Kombination verschiedener klein- und großflächiger Begrünungsmaßnahmen zu einer erhöhten Landschaftsheterogenität, die sich wiederum positiv auf die Käfer- und Spinnenvielfalt auswirkt. In Anbetracht des weltweit anhaltenden Verlustes der Artenvielfalt in Agrarlandschaften, sollten Agrarumweltmaßnahmen in Zukunft gefördert werden, da sie für den Arthropodenschutz in intensiven Agrarlandschaften, wie im Maifeld, besonders bedeutsam sind.
Das Ziel dieser Arbeit ist es, zu bestimmen, ob neuronale Netze (insbesondere LSTM) zur Prozessvorhersage eingesetzt werden können. Dabei soll eine möglichst genaue Vorhersage zu dem Nachfolger eines Events getroffen werden.
Dazu wurde Python mit dem Framework TensorFlow genutzt, um ein rekurrentes neuronales Netz zu erstellen. Dabei werden zwei Netze erstellt, wobei das eine für das Training und das andere für die Vorhersage genutzt wird.
Die verwendeten Datensätze bestehen aus mehreren Prozessen mit jeweils mehreren Events. Mit diesen Prozessen wird das Netz trainiert und die Parameter nach dem Training gespeichert. Das Netz zur Vorhersage nutzt dann dieselben Parameter, um Vorhersagen zu Events zu treffen.
Das neuronale Netz ist in der Lage, nachfolgende Events eindeutig vorherzusagen. Auch Verzweigungen können vorhergesagt werden.
In der weiteren Entwicklung ist eine Einbindung in andere Programme möglich. Dabei ist es empfehlenswert, auf eine eindeutige Benennung der Events zu achten oder eine geeignete Umbenennung durchzuführen.
While reading this sentence, you probably gave (more or less deliberately) instructions to approximately 100 to 200 muscles of your body. A sceptical face or a smile, your fingers scrolling through the text or holding a printed version of this work, holding your head, sitting, and much more.
All these processes take place almost automatically, so they seem to be no real achievement. In the age of digitalization it is a defined goal to transfer human (psychological and physiological) behavior to machines (robots). However, it turns out that it is indeed laborious to obtain human facial expression or walking from robots. To optimize this transfer, a deeper understanding of a muscle's operating principle is needed (and of course an understanding of the human brain, which will, however, not be part of this thesis).
A human skeletal muscle can be shortened willingly, but not lengthened, thereto it takes an antagonist. The muscle's change in length is dependent on the incoming stimulus from the central nervous system, the current length of the muscle itself, and certain muscle--specific quantities (parameters) such as the maximum force. Hence, a muscle can be mathematically described by a differential equation (or more exactly a coupled differential--algebraic system, DAE), whose structure will be revealed in the following chapters. The theory of differential equations is well-elaborated. A multitude of applicable methods exist that may not be known by muscle modelers. The purpose of this work is to link the methods from applied mathematics to the actual application in biomechanics.
The first part of this thesis addresses stability theory. Let us remember the prominent example from middle school physics, in which the resting position of a ball was obviously less susceptible towards shoves when lying in a bowl rather than balancing at the tip of a hill. Similarly, a dynamical (musculo-skeletal) system can attain equilibrium states that react differently towards perturbations.
We are going to compute and classify these equilibria.
In the second part, we investigate the influence of individual parameters on model equations or more exactly their solutions. This method is known as sensitivity analysis.
Take for example the system "car" containing a value for the quantity "pressure on the break pedal while approaching a traffic light". A minor deviation of this quantity upward or downward may lead to an uncomfortable, abrupt stop or even to a collision, instead of a smooth stop with a sufficient gap.
The considered muscle model contains over 20 parameters that, if changed slightly, have varying effects on the model equation solutions at different instants of time. We will investigate the sensitivity of those parameters regarding different sub--models, as well as the whole model among different dynamical boundary conditions.
The third and final part addresses the \textit{optimal control} problem (OCP).
The muscle turns a nerve impulse (input or control) into a length change and therefore a force response (output). This forward process is computable by solving the respective DAE. The reverse direction is more difficult to manage. As an everyday example, the OCP is present regarding self-parking cars, where a given path is targeted and the controls are the position of the
steering wheel as well as the gas pedal.
We present two methods of solving OCPs in muscle modeling: the first is a conjunction of variational calculus and optimization in function spaces, the second is a surrogate-based optimization.
Counts of SARS-CoV-2-related deaths have been key numbers for justifying severe political, social and economical measures imposed by authorities world-wide. A particular focus thereby was the concomitant excess mortality (EM), i.e. fatalities above the expected all-cause mortality (AM). Recent studies, inter alia by the WHO, estimated the SARS-CoV-2-related EM in Germany between 2020 and 2021 as high as 200 000. In this study, we attempt to scrutinize these numbers by putting them into the context of German AM since the year 2000. We propose two straightforward, age-cohort-dependent models to estimate German AM for the ‘Corona pandemic’ years, as well as the corresponding flu seasons, out of historic data. For Germany, we find overall negative EM of about −18 500 persons for the year 2020, and a minor positive EM of about 7000 for 2021, unveiling that officially reported EM counts are an exaggeration. In 2022, the EM count is about 41 200. Further, based on NAA-test-positive related death counts, we are able to estimate how many Germans have died due to rather than with CoViD-19; an analysis not provided by the appropriate authority, the RKI. Through 2020 and 2021 combined, our due estimate is at no more than 59 500. Varying NAA test strategies heavily obscured SARS-CoV-2-related EM, particularly within the second year of the proclaimed pandemic. We compensated changes in test strategies by assuming that age-cohort-specific NAA-conditional mortality rates during the first pandemic year reflected SARS-CoV-2-characteristic constants.
VR Fresken
(2018)
Das Projekt VR Fresken setzte sich zum Ziel, mit Hilfe von virtueller Realität im Rahmen einer Museumsausstellung historisch rekonstruierte Räume und deren Deckenfresken interaktiv erlebbar zu machen. In dieser Arbeit werden die eingesetzten Techniken und Technologien beleuchtet, der Anwendungsfall der VR für den Einsatz im Museum untersucht, sowie eine Evaluation der Software im Alltagsbetrieb im Museum durchgeführt.
Künstliche neuronale Netze sind ein beliebtes Forschungsgebiet der künst-
lichen Intelligenz. Die zunehmende Größe und Komplexität der riesigen
Modelle bringt gewisse Probleme mit sich. Die mangelnde Transparenz
der inneren Abläufe eines neuronalen Netzes macht es schwierig, effiziente
Architekturen für verschiedene Aufgaben auszuwählen. Es erweist sich als
herausfordernd, diese Probleme zu lösen. Mit einem Mangel an aufschluss-
reichen Darstellungen neuronaler Netze verfestigt sich dieser Zustand. Vor
dem Hintergrund dieser Schwierigkeiten wird eine neuartige Visualisie-
rungstechnik in 3D vorgestellt. Eigenschaften für trainierte neuronale Net-
ze werden unter Verwendung etablierter Methoden aus dem Bereich der
Optimierung neuronaler Netze berechnet. Die Batch-Normalisierung wird
mit Fine-tuning und Feature Extraction verwendet, um den Einfluss der Be-
standteile eines neuronalen Netzes abzuschätzen. Eine Kombination dieser
Einflussgrößen mit verschiedenen Methoden wie Edge-bundling, Raytra-
cing, 3D-Impostor und einer speziellen Transparenztechnik führt zu einem
3D-Modell, das ein neuronales Netz darstellt. Die Validität der ermittelten
Einflusswerte wird demonstriert und das Potential der entwickelten Visua-
lisierung untersucht.
Motiviert wurde die vorliegende Arbeit durch die dynamischen Phänomene, die bei grundlegenden katalytischen Oberflächenreaktionen beobachtet werden, insbesondere durch Bi- und Tristabilität und die Wechselwirkungen zwischen diesen stabilen Zuständen. In diesem Zusammenhang wurden drei Reaktions-Diffusions-Modelle entwickelt und auf Bifurkationen analytisch und mittels numerischer Simulationen untersucht.
Das erste Modell wurde entwickelt, um die bistabile CO-Oxidation auf Ir(111) um Wasserstoff und dessen Oxidationsreaktionen zu erweitern. Das Differentialgleichungssystem wurde im Rahmen der Bifurkationstheorie analysiert, wobei drei Zweige stabiler Lösungen gefunden wurden. Einer der Zustände ist durch hohe Bildungsraten gekennzeichnet (upper rate, UR), während die anderen beiden Zweige niedrige Bildungsraten aufweisen (lower rate (LR) \& very low rate (VLR)).
Die Kurve der Sattel-Knoten-Bifurkationen bildet zwei Spitzen aus, wodurch die sich überschneidenden Zustände die Form eines Schwalbenschwanzes bilden. Eine Temperaturerhöhung führt zur Entfaltung und damit zu einer Komplexitätserniedrigung des Systems.
Um die experimentelle (Un-)Zugänglichkeit dieser Zustände zu veranschaulichen wurde eine Reihe von numerischen Simulationen durchgeführt, die mögliche Experimente widerspiegeln. Relaxationsexperimente zeigen teilweise lange Konvergenzzeiten. Quasi-statisches Scannen des Versuchsparameters zeigt die Existenz aller drei Zustände innerhalb des tristabilen Region und ihre jeweilige Umwandlung beim Verlassen desselben.
Ein erster Versuch bezüglich Reaktions-Diffusions-Fronten zwischen den stabilen Zuständen wurde durchgeführt. In 1D dominiert UR, während in 2D die Interphase zwischen UR und VLR durch den LR Zustand durchdrungen wird.
Anschließend wurde ein generisches `Parodie'-Monospezies-Modell für die umfassende Untersuchung von Reaktions-Diffusions-Fronten verwendet. Als Reaktionsterm wurde ein Polynom fünften Grades gewählt. Dies resultiert aus einem polynomischen Potential sechster Ordnung, das mit der ``Schmetterlingsbifurkation'' verbunden ist. Dies garantiert abhängig von dem vierdimensionalen Parameterraum bis zu drei stabile Lösungen ($u_{0}$,$u_{1}$,$u_{2}$).
Das Modell wurde eingehend untersucht, wobei Regionen mit ähnlichem Verhalten identifiziert wurden. Es wurde ein Term für die Frontgeschwindigkeit zwischen zwei stabilen Zuständen abgeleitet, der eine Abhängigkeit von der relativen Potentialdifferenz der beiden Zustände zeigt. Es wurden Äquipotentialkurven gefunden, bei denen die Geschwindigkeit der zugehörigen Front verschwindet. Numerische Simulationen auf einer zweidimensionalen, endlichen Scheibe unterstützten diese Ergebnisse.
Außerdem wurde die Front-Splitting-Instabilität beobachtet, bei der die Frontlösung $u_{02}$ instabil wird und sich in $u_{01}$ und $u_{12}$ mit je unterschiedlichen Geschwindigkeiten aufteilt. Eine gute Schätzung zu den Grenzen der Front-Splitting-Region wurde gegeben und mit Hilfe von numerischen Zeitentwicklungen überprüft.
Schließlich wurde das etablierte kontinuierliche Modell räumlich diskretisiert, wobei eine einfache Domäne in 1D und drei verschiedene Gitter in 2D (quadratisch, hexagonal, dreieckig) verwendet wurden. Bei niedrigen Diffusivitäten oder großen Abständen zwischen den gekoppelten Knoten können die Fronten `einfrieren', falls die Parameter in der Nähe einer Äquipotentiallinie liegen. Dieses Phänomen ist als Propagationsversagen (PF) bekannt und sein Ausmaß im Parameterraum (Pinning Region) wurde in 1D untersucht. In 2D wurde zunächst eine Schätzung für die Frontausbreitung in ausgezeichnete Gitterrichtungen mittels einer Pseudo-2D-Näherung vorgenommen.
Nahe der Pinning-Region weichen die Frontgeschwindigkeiten erheblich von der kontinuierlichen Erwartung ab, da die exakte Form des Potentials signifikant wird. Größe und Form der Pinning-Regionen wird von der Kopplungsstärke, dem Gitter, die Frontausrichtung zum Gitter und die Frontlösung selbst entschieden. Das Bifurkationsdiagramm zeigt eine schlängelnde Kurve innerhalb der Pinning-Region, wobei jeder abwechselnde Zweig aus stabilen bzw. instabilen, eingefrorenen Fronten besteht.
Numerische Simulationen bestätigten die Beobachtungen bezüglich des PF und der Gitterabhängigkeit. Darüber hinaus wurde der Einfluss der Frontorientierung auf die Geschwindigkeit genauer untersucht. Es wurde gezeigt, dass Fronten mit ausgezeichneter Orientierung zum Gitter mehr oder weniger anfällig für PF sind. Hieraus resultiert die Möglichkeit zur Stabilisierung von metastabilen Mustern, welche die Gittergeometrie widerspiegelt. Die Quantifizierung der winkelabhängigen Frontausbreitung zeigt plausible Ergebnisse mit einer guten Übereinstimmung zum Pseudo-2D-Ansatz.
Der zunehmende Einsatz von Titandioxid-Nanopartikeln (nTiO2) birgt das Risiko eines erhöhten Eintrags in Oberflächengewässer, wo diese mit weiteren anthropogenen Stressoren (z.B. Schwermetalle) vorkommen können. Das gemeinsame Auftreten ermöglicht die Adsorption von Schwermetallen an nTiO2, welche aufgrund ihrer Agglomeration häufig aussedimentieren. Somit können Nanopartikel mit den adsorbierten Metallionen potentiell für pelagische aber auch benthische Organismen ein Risiko darstellen. Die kombinierte Toxizität von nTiO2 und Schwermetallen wird vermutlich durch die Eigenschaften der Stressoren, aber auch durch verschiedene Umweltparameter (z.B. organisches Material, pH, Ionenstärke) bestimmt.
Allerdings wurde der Einfluss dieser Faktoren bisher nicht systematisch untersucht. Daher zielte diese Arbeit darauf ab den Effekt von verschiedenen nTiO2-Produkten, welche sich in der Zusammensetzung der kristallinen Struktur unterschieden, auf die Toxizität von Kupfer (als Stellvertreter für Schwermetalle) für den pelagischen Testorganismus Daphnia magna in Gegenwart von verschiedenen Formen und Konzentrationen organischen Materials zu untersuchen. Es ist anzunehmen, dass die Dauer der Interaktion (=Alterung) die kombinierte Toxizität der Stressoren beeinflusst. Ergänzend wurde deshalb der Einfluss von nTiO2 auf die Kupfer-Toxizität nach einer Alterung unter dem Einfluss verschiedener Umweltparameter (nämlich organisches Material, pH, Ionenstärke) untersucht.
Des Weiteren wurde die Übertragbarkeit der wesentlichen Ergebnisse auf benthisch lebende Organismen mit Gammarus fossarum geprüft. Die vorliegende Arbeit zeigte für alle untersuchten Szenarien eine reduzierte Kupfer-Toxizität in Gegenwart von nTiO2, unabhängig von deren kristallinen Struktur. Dieser Effekt ließ sich auch auf benthische Lebewesen übertragen, obwohl die Exposition durch die Anwesenheit von nTiO2 aufgrund der Sedimentation mit dem adsorbierten Kupfer potenziell erhöht war.
Die erzielten Beobachtungen legen eine Verwendung von nTiO2 zur Aufreinigung von beispielsweise Abwasser nahe. Allerdings sollten potentielle Nebeneffekte (z.B. chronische Toxizität, Bildung von Sauerstoffradikalen) zunächst gründlich untersucht werden. Darüber hinaus sind die Übertragbarkeit auf andere Stressoren (z.B. andere Schwermetalle, organische Chemikalien) und der Verbleib von Schwermetallen in aquatischen Ökosystemen nach einer Sorption an nTiO2 ungewiss und bedürfen weiterer Forschung.
Mit Hilfe von Stereobildfolgen, die ein Stereokamerasystem liefert, wird versucht Informationen aus der betrachtenden Szene zu gewinnen. Die Zuordnung von Bildpunkten, die in beiden Bildern eines Stereobildpaares vorkommen und einen gemeinsamen Weltpunkt beschreiben, ermöglichen die Bestimmung einer Tiefeninformation. Das Extrahieren von Bildpunkten und deren Zuordnung sind die entscheidenen Faktoren zur Gewinnung der Tiefeninformation. Die Tiefe erlaubt es Aussagen über die Struktur der aufgenommenen Szene zu machen. Bei Übertragung dieser Idee auf das Verfolgen von gemeinsamen Weltpunkten in Bildsequenzen ist es möglich eine relative Positions- und Lageschätzung des Kamerasystems zur vorher aktuellen Position zu bestimmen. Schwierigkeiten ergeben sich aus Verdeckungen von Weltpunkten für den jeweiligen Sensor, sowie fehlerhaften Bildpunktzuordnungen. Die Geschwindigkeit des kombinierten Vorgang aus Extraktion und Punktzuordnung stellt eine weitere Anforderung an das System.
Diese Arbeit setzt sich kritisch mit dem Google Kalender auseinander. Zu diesem Zweck werden die angebotenen Funktionen des Kernprodukts auf Aspekte des Datenschutzes untersucht. Es wird zum einen ermittelt, in welchem Umfang das Produkt die Privatsphäre der Nutzer verletzen kann, zum anderen werden die dadurch entstehenden Risiken aufgezeigt. Des Weiteren werden die Funktionen im Hinblick auf ihren Nutzen, sowohl für den Dienstanbieter Google, als auch für den Nutzer betrachtet. Eine eingehende Analyse zeigt die kritischen Stellen auf, an denen zwischen Datenschutz und Funktionalität entschieden werden muss. Die Lösungsmöglichkeiten, um die aufgezeigten Risiken mit Mechanismen der IT-Sicherheit zu minimieren, werden im Folgenden vorgestellt, diskutiert und in Bezug auf ihre Umsetzbarkeit untersucht. Die einzelnen Lösungsansätze werden daraufhin in einem Sicherheitskonzept zusammengefasst und weitere Anforderungen erläutert. Abschließend soll ein Addon für Firefox erstellt werden, welches das beschriebene Lösungskonzept umsetzt, um so die bestehenden Schwachstellen bestmöglich zu beheben. Letztlich wird der Funktionsumfang des Addons mit technischer Umsetzung im Einzelnen erläutert.
Zentrale Aufgaben der Hochschule sind die Bewertung, die Ursachenklärung und die Förderung von Studienleistungen (Heublein & Wolter, 2011, S. 215). In diesem Kontext gilt neben intellektuellen Fähigkeiten die Leistungsmotivation als bedeutsamer Prädiktor für den akademischen Erfolg (z. B. Schmidt-Atzert, 2005, S. 132; Steinmayr & Spinath, 2009, S. 80). Im Fokus der vorliegenden Studie stehen deshalb Überlegungen zu Motivationsprozessen von 332 Studienanfängern der Hochschule der Bundesagentur für Arbeit und zu den Faktoren, die sich förderlich auf ihre Lernresultate auswirken. Mit einer Ausschöpfungsquote von 89 % sind die gewonnenen Daten für die Grundgesamtheit repräsentativ. Anhand einer Ex-post-facto-Versuchsanordnung in Form eines quantitativen Prädiktor-Kriteriums-Ansatzes (spezielle Variante eines Längsschnittdesigns) mit unterschiedlichen Erhebungsmethoden, wie standardisiertem Selbstbeurteilungsfragebogen, Leistungstests und offiziellen Dokumenten/Aktenmaterial, wurden folgende Forschungshypothesen zugrunde gelegt: Die Stärke der Leistungsmotivation ist sowohl von Erwartungskomponenten (Fähigkeitsselbstkonzept, Selbstwert, subjektive Notenerwartung, Erfolgszuversicht und Misserfolgsfurcht) als auch von Anreizkomponenten (Gegenstands-, Tätigkeits-, Folgenanreizen) abhängig, welche wiederum vermittelt über das leistungsmotivierte Verhalten einen Einfluss auf die Studienleistung besitzt. Dabei wurde postuliert, dass motivationale Variablen auch dann noch einen bedeutsamen Effekt auf die Studienleistung ausüben, wenn weitere Leistungsprädiktoren, wie die Schulabschlussnote, die Intelligenz, die emotionale Stabilität und die Gewissenhaftigkeit kontrolliert werden.
The growing numbers of breeding rooks (Corvus frugilegus) in the city of Landau (Rhineland- Palatinate, Germany) increase the potential for conflict between rooks and humans, which is mainly associated with noise and faeces. Therefore, the aim of this work is a better understanding of the breeding tree selection of the rook in order to develop options for action and management in the future.
Part I of this thesis provides general background information on the rook and includes mapping of the rookeries in the Anterior Palatinate and South Palatinate including Landau in the year 2020. That mapping revealed that the number of rural colonies has decreased, while the number of urban colonies has increased in the study area in the last few years. In line with current literature, tree species and tree size were important criteria for breeding tree selection. However, the mapping showed that additional factors must be important as well.
Therefore, as rooks seem to often breed along traffic axes, Part II of this thesis examines how temperature, artificial light and noise, which are all linked to traffic axes, affect the breeding tree selection of the rook in the city of Landau. The following three hypotheses are developed: (1) manually selected breeding trees (Bm) have a warmer microclimate than manually selected non-breeding trees (Nm) or randomly selected non-breeding trees (Nr), (2) Bm are exposed to a higher light level than Nm or Nr and (3) Bm are exposed to a higher noise level than Nm or Nr. To test these hypotheses, 15 Bm, 13 Nm and 16 Nr are investigated.
The results show that Bm were exposed to more noise than both types of non-breeding trees (μBm, noise = 36.52481 dB, μNm, noise = 31.27229 dB, μNr, noise = 29.17417 dB) where the difference between Bm and Nr was significant. In addition, there was a tendency for Bm to be exposed to less light (μBm, light = 0.356 lx) than Nm (μNm, light = 0.4107692 lx) and significantly less light than Nr (μNr, light = 1.995 lx), while temperature did not differ between the groups (μBm, temp = 16.90549 °C, μNm, temp = 16.93118 °C, μNr, temp = 17.28639 °C).
This study shows for the first time that rooks prefer trees which are exposed to low light levels and high noise levels, i.e. more intense traffic noise, for breeding. It can only be speculated that the cause of this is lower enemy pressure at such sites. The fact that temperature does not seem to have any influence on breeding tree selection may be due to only small temperature differences at nest height, which might be compensated by breeding behaviour. Consequently, in the long term one management approach could be to divert traffic from inner-city areas, especially schools and hospitals, to bypasses. If tree genera suitable for rooks, such as plane trees, are planted along the bypasses, those sites could provide suitable alternative habitats to inner-city breeding locations, which become less attractive for breeding due to noise reduction. In the short term in addition to locally implemented repellent measures the most effective approach is to strengthen rook acceptance among the population. However, further research is needed to verify the results of this thesis and to gain further insights into rook breeding site selection in order to develop effective management measures.
Diese Dissertation widmet sich der inhaltsanalytischen, quantitativen Analyse der Kompilation Disney Princess durch die Anwendung der Theorie des male gaze von Laura Mulvey, welche sie in Visual Pleasure and Narrative Cinema (1975) sowie Afterthoughts on `Visual Pleasure and Narrative Cinema‘ inspired by King Vidor´s Duel in the Sun (1946) (1981) darstellte.
Die Autorin der Dissertation nutzt die quantitative Inhaltsanalyse nach Patrick Rössler, um die Filme der Kompilation Disney Princess aus den Jahren 1937 bis 2016 sowie den Film Die Eiskönigin (2013) auf die Darstellung der weiblich und männlich gelesenen Filmfiguren im Hinblick auf die Körperproportionen, den Grad ihrer Aktivität und den Umfang ihrer Präsenz sowie das Geschlecht der Filmmitarbeiter:innen zu untersuchen.
Spektroskopie zweiatomiger Moleküle bei Einstrahlung ultrakurzer Laserpulse und ihre Anwendung
(2020)
Durch die Verwendung ultrakurzer Pulse lassen sich selbst bei moderaten Pulsenergien und Durchschnittsleistungen sehr hohe Spitzenleistungen erreichen, deren Wirkung auf Materie sich grundlegend von der anderer Lichtquellen unterscheidet. Die hohe Feldstärke ist hier nicht nur verantwortlich für das vermehrte Auftreten optisch nichtlinearer Effekte wie der Frequenzverdopplung, sondern ist auch hauptverantwortlich für die ”kalte“ Ablation, die zu deutlich kälteren Plasmen führt. Eine Untersuchung dieser beiden Umstände in Hinblick auf eine Vereinfachung der Pulslängenmessung und eine Verbesserung der Molekülbildung in erkaltenden Plasmen ist Thema dieser Arbeit. In diesem Zusammenhang wird gezeigt, dass die Verwendung von Ultrakurzpulslasern bei der Wahl geeigneter Prozessparameter, insbesondere durch gezielte Defokussierung, die Spektroskopie verschiedener emittierender Moleküle wie Aluminiumoxid verbessert, sodass deren Detektion auch ohne die in der Literatur geforderten zeitauflösenden Messinstrumente möglich ist. Darüber hinaus ermöglichen ultrakurze Pulse eine ortsaufgelöste Kristallisation von Zinkoxid auf – mit einfachen Mitteln präparierten – Zinkoberflächen. Die dabei entstandenen Wurtzite richten ihre c-Achse meist annähernd senkrecht zur darunterliegenden Oberfläche aus und können zur Erzeugung von gestreuter Frequenzverdopplung genutzt werden. Hierfür haben sich besonders die in den letzten Jahren entwickelten faserbasierten Femtosekundenlaser mit Pulsenergien im Mikrojoule-Bereich, Pulslängen von wenigen 100fs und äußerst geringem Wartungsaufwand als ein leistungsfähiges Instrument erwiesen. Die hohe Pulsenergie dieser Systeme erlaubt zudem die Verwendung von Frequenzverdopplern mit deutlich geringeren Konversionsezienzen zur Messung der Pulslänge. Trotz uneinheitlicher Kristallachsen hat sich hier das streuend frequenzverdoppelnde Aluminiumnitrid als besonders tauglich für die optische Autokorrelation herausgestellt. Im Vergleich zum üblicherweise verwendeten monokristallinen Beta-Bariumborat, reduzieren die gesinterten Aluminiumnitrid-Keramikplatten den Justageaufwand, vereinfachen durch ihre Robustheit die Handhabung und verringern den Kostenfaktor um zwei bis drei Größenordnungen. Daher eignet sich das hier entwickelte Verfahren auch für die Kontrolle der Pulslänge während des Fertigungsprozesses eines solchen Systems – besonders dann, wenn hohe bzw. für Beta-Bariumborat zu hohe Pulsenergien auftreten können.
Viele Suchmaschinen betreiben Formen der Internetregulierung. Diese ist für den Endbenutzer teils schwer ersichtlich und leicht umgehbar. Weiter ist es oft schwierig, Hintergrundinformationen zu Regulierungen zu erfahren. Um diese Schwachstellen zu beheben, wird die Entwicklung der prototypischen Meta-Suchmaschine "Polsearchine" beschrieben. Ihre Regulierung erfolgt mittels der von Kasten und Scherp für Internetregulierung entwickelten Ontologie InFO. Dabei wird die konkrete Erweiterung SEFCO zur Anwendung auf Suchmaschinenebene verwendet. Zur Beschaffung der Suchergebnisse wird eine externe Suchmaschinen-API genutzt. Um nicht von einer bestimmten API abhängig zu sein, kann die API leicht ausgetauscht werden.
“Did I say something wrong?” A word-level analysis of Wikipedia articles for deletion discussions
(2016)
Diese Arbeit beschäftigt sich damit, linguistische Erkenntnisse auf Wortebene über schriftlichen Diskussionen zu gewinnen. Die Unterscheidung zwischen Botschaften, welche sich förderlich auf Diskussionen auswirken und jene, welche diese unterbrechen, spielte dabei eine besondere Rolle. Hierbei lag ein Schwerpunkt darauf, zu ermitteln, ob Ich- und Du-Botschaften charakteristisch für die beiden Kommunikationsarten sind. Diese Botschaften sind über Jahre hinweg zu Empfehlungen für erfolgreiche Kommunikation avanciert. Ihre zugeschriebene Wirkung wurde zwar mehrfach bestätigt, jedoch geschah dies stets in kleineren Studien. Deshalb wurde in dieser Arbeit mithilfe der Löschdiskussionen der englischen Wikipedia und der Liste gesperrter Nutzer eine vollautomatische Erstellung eines annotierten Datensatzes entwickelt. Dabei wurden Diskussionsbotschaften entweder als förderlich oder schädlich für einen konstruktiven Diskussionsverlauf markiert. Dieser Datensatz wurde anschließend im Rahmen einer binären Klassifikation verwendet, um charakteristische Worte für die beiden Kommunikationsarten zu bestimmen. Es wurde zudem untersucht, ob anhand von Synsemantika (auch bekannt als Funktionswörter) wie Pronomen oder Konjunktionen eine Entscheidung über die Kommunikationsart einer Botschaft getroffen werden kann. Du-Botschaften wurden, übereinstimmend mit ihrer zugeschriebenen negativen Auswirkung auf Kommunikation, als schädlich in den durchgeführten Untersuchungen identifiziert. Entgegen der zugeschriebenen positiven Auswirkung von Ich-Botschaften, wurde bei diesen ebenfalls eine schädlich Wirkung festgestellt. Eine klare Aussage über die Relevanz von Synsemantika konnte anhand der Ergebnisse nicht getroffen werden. Weitere charakteristische Worte konnten nicht festgestellt werden. Die Ergebnisse deuten darauf hin, dass ein anderes Modell textliche Diskussionen potentiell besser abbilden könnte.
Business continuity planning
(2008)
Unternehmenskrisen lassen die Weltwirtschaft aufhorchen - gerade in jüngster Zeit häufen sich die Nachrichten über Notfälle und folgenschwere Fehlentscheidungen in Organisationen aller Art. Vieles bekommt die Außenwelt aber gar nicht erst mit, wenn die Ausweitung von Störungen noch in letzter Sekunde verhindert werden kann. Und wenn das Ausmaß zu groß wird? Dann droht oft das wirtschaftliche Aus. Business Continuity Planning ist der Vorsorgeprozess, der eine Institution auf den Ausnahmefall vorbereitet und garantiert, dass deren Existenz zu jeder Zeit gesichert ist und alle geschäftskritischen Prozesse auch während einer Krise aufrecht erhalten werden können. Diese Diplomarbeit erleichtert den Einstieg in das Thema Business Continuity Planning und in die erfolgreiche Umsetzung von Notfallmaßnahmen. Aus dem Blickwinkel der IT werden wertvolle Definitionen und Abgrenzungen gegeben und die Problemstellungen und Lösungswege einer individuellen Notfallvorsorge aufgegriffen. Fokussiert wird ein umfassender Überblick über die zentralen Teilbereiche des Planungsprozesses (und ihrer Erfolgskriterien) und ein praktischer Einblick in das Krisenmanagement.
In dieser Arbeit wurde die Realisierung einer mobilen Sicherheitslösung für Überwachungszwecke vorgestellt, welche unter Zuhilfenahme des staatlich geförderten Forschungsprojekts CamInSens entwickelt wurde. CamInSens soll erreichen, in überwachten Gefahrenbereichen die erhaltenen Video- und Sensorendaten so zu analysieren, dass Bedrohungen möglichst frühzeitig erkannt und behandelt werden können. Das Ziel dieser Arbeit war, auf Basis von verarbeiteten Daten aus CamInSens eine Interaktion und Visualisierung zu entwickeln, die bei einem späteren Praxiseinsatz mobilem Sicherheitspersonal dabei hilft, in Bedrohungssituationen fundierte Entscheidungen treffen zu können. Zu diesem Zweck wurde nicht nur eine Software implementiert, sondern auch eine Marktsichtung hinsichtlich geeigneter Geräte und einsetzbarer Softwarebibliotheken durchgeführt.
Nagios unter VNUML
(2011)
Die Diffusionsbildgebung misst die Bewegung von Wassermolekülen in Gewebe mittelsrnvariierender Gradientenfelder unter Verwendung der Magnetresonanztomographie(MRT). Diese Aufnahmetechnik stellt eine große Chance für in vivo Untersuchung von neuronalen Bahnen dar, da das lokale Diffusionsprofil Rückschlüsse über die Position und Richtung von Nervenbahnen erlaubt. Zu den Anwendungsgebieten der Diffusionsbildgebung zählt die Grundlagenforschung in den Neurowissenschaften, in denen Nervenbahnen als Verbindungen kortikaler Areale bestimmt werden, und die neurochirurgische Operationsplanung, in der rekonstruierte Bahnen als Risikostrukturen für Interventionen angesehen werden.
Die Diffusionstensor-MRT (DT-MRT) ist aufgrund ihrer schnellen Aufnahme- und Rekonstruktionsgeschwindigkeit derzeitig klinischer Standard zur Bestimmung von Nervenbahnen. Jedoch erlaubt die DT-MRT nicht die Darstellung von komplexen intravoxel Diffusionsverteilungen. Daher etablierte sich eine weitere Modellierungstechnik, die als High Angular Resolution Diffusion Imaging (HARDI) bekannt ist. HARDITechniken erhielten wachsendes Interesse in den Neurowissenschaften, da sie großes Potential zur exakteren Darstellung der Nervenbahnen im menschlichen Gehirn besitzen.
Um die Vorteile von HARDI-Techniken gegenüber DT-MRT voll auszuschöpfen, werden fortgeschrittene Methoden zur Rekonstruktion und Visualisierung der Bahnen benötigt. In der vorliegenden Arbeit werden neue Techniken vorgestellt, welche zur aktuellen Forschung hinsichtlich der Verarbeitung und Visualisierung von Diffusionsbildgebungsdaten beitragen. Ansätze zur Klassifizierung, Traktographie und Visualisierung wurden entwickelt um eine aussagekräftige Exploration neuronaler Bahnen und deren Beschaffenheit zu ermöglichen. Des Weiteren wurde eine interaktive Software für die neurochirurgische Operationsplanung implementiert, welche Nervenbahnen als Risikostrukturen berücksichtigt.
Die vorgestellten Forschungsergebnisse bieten einen erweiterten und aufgabenorientierten Einblick in neuronale Verbindungen sowohl für Neurowissenschaftler als auch für Neurochirurgen und tragen zum Einsatz von HARDI-Techniken in einer klinischen Umgebung bei.
Die automatische Identifikation von Experten in einer speziellen technologischen Domäne, wie einer Bibliothek, Framework oder generellen Technologie, schafft einen großen Mehrwert in der gemeinsamen Entwicklung von Softwareprojekten. Daher soll in dieser Arbeit ein Vorgehen sowie ein Programm zur automatischen Identifikation von Experten entwickelt werden, die gewissen Skills besitzen. Hierbei wird speziell das Django-Framework betrachtet. Jedoch kann durch hinzufügen von weiteren Regeln unser Tool leicht auf andere Technologien angepasst werden. Abschließend wird eine case study auf ein Open Source Projekt durchgeführt.
Moderne Softwaresysteme bestehen aus verschiedenen Programmiersprachen, Softwaretechnologien und Artefakten. Dadurch wird es für Entwickler komplexer, den Quelltext sowie die enthaltenen Abhängigkeiten zu verstehen. Entsprechend muss ein größerer Aufwand in die Erstellung von Dokumentation gesteckt werden. Eine Möglichkeit zur Dokumentation einer Software mit dem Fokus auf die benutzten Technologien stellen linguistische Architekturen dar. Diese können z. B. durch die MegaL Ontologie beschrieben werden. Da die Erstellung einer solchen linguistischen Architektur für ein beliebiges Softwareprojekt kompliziert ist, beschreibt diese Arbeit einen Ansatz zur automatischen Erstellung einer solchen linguistischen Architektur. Dafür wird das Open Source Framework Apache Jena verwendet, welches Semantic Web Technologien wie RDF und OWL benutzt. Mit diesem können spezifische Regeln definiert werden, welche aus existierenden RDF-Triplen neue ableiten. Dieser Ansatz wird schließlich in einer Case Study an zehn verschiedenen Open Source Projekten getestet. Dabei soll eine linguistische Architektur in MegaL extrahiert werden, welche die Nutzung von Hibernate beschreibt. Mit der Hilfe von spezifischen Metriken wird das Ergebnis dann mit einem internen und externen Ansatz evaluiert.
In dieser Arbeit wurde erstmalig das Gebiet der funktionalen, system-level Web Testing Tools analysiert. Aus 194 Toolkandidaten wurden 23 Tools zur Analyse ausgewählt. Die entwickelte Methodik verwendet die Benutzerhandbücher der Tools, um ein Featuremodel zu erzeugen, dass die Features aller Tools abbildet. Insgesamt wurden 313 Features identifiziert, klassifiziert und beschrieben. Die Features wurden in 10 Kategorien unterteilt und werden mit 16 Featurediagrammen dargestellt.rnDie Ergebnisse können technologische Entscheidungsprozesse unterstützen, indem ein Überblick einerseits über die Tools auf dem Markt und andererseits über die neusten Entwicklungen im Bereich des funktionalen, system-level Web Testing bereitgestellt wird.
Unlocking the semantics of multimedia presentations in the web with the multimedia metadata ontology
(2010)
The semantics of rich multimedia presentations in the web such as SMIL, SVG and Flash cannot or only to a very limited extend be understood by search engines today. This hampers the retrieval of such presentations and makes their archival and management a difficult task. Existing metadata models and metadata standards are either conceptually too narrow, focus on a specific media type only, cannot be used and combined together, or are not practically applicable for the semantic description of rich multimedia presentations. In this paper, we propose the Multimedia Metadata Ontology (M3O) for annotating rich, structured multimedia presentations. The M3O provides a generic modeling framework for representing sophisticated multimedia metadata. It allows for integrating the features provided by the existing metadata models and metadata standards. Our approach bases on Semantic Web technologies and can be easily integrated with multimedia formats such as the W3C standards SMIL and SVG. With the M3O, we unlock the semantics of rich multimedia presentations in the web by making the semantics machine-readable and machine-understandable. The M3O is used with our SemanticMM4U framework for the multi-channel generation of semantically-rich multimedia presentations.
MapReduce with Deltas
(2011)
The MapReduce programming model is extended slightly in order to use deltas. Because many MapReduce jobs are being re-executed over slightly changing input, processing only those changes promises significant improvements. Reduced execution time allows for more frequent execution of tasks, yielding more up-to-date results in practical applications. In the context of compound MapReduce jobs, benefits even add up over the individual jobs, as each job gains from processing less input data. The individual steps necessary in working with deltas are being analyzed and examined for efficiency. Several use cases have been implemented and tested on top of Hadoop. The correctness of the extended programming model relies on a simple correctness criterion.
In recent development, attempts have been made to integrate UML and OWL into one hybrid modeling language, namely TwoUse. This aims at making use of the benefits of both modeling languages and overcoming the restrictions of each. In order to create a modeling language that will actually be used in software development an integration with OCL is needed. This integration has already been described at the contextual level in, however an implementation is lacking so far. The scope of this paper is the programatical implementation of the integration of TwoUse with OCL. In order to achieve this, two different OCL implementations that already provide parsing and interpretation functionalities for expressions over regular UML. This paper presents two attempts to extend existing OCL implementations, as well as a comparison of the existing approaches.
Im Verlauf der vergangenen Jahre wurden unter der Leitung von Dr. Merten Joost basierend auf Microcontrollern der ATMega-Reihe verschiedene Projekte zur Ansteuerung der Peripheriegeräte eines Computers realisiert. Hierzu zählen unter anderem die Abfrage einer Tastatur, die Ausgabe von Audio- und Videosignalen sowie eine Programmierumgebung mit eigener Programmiersprache. Ziel dieser Arbeit ist es, die gesammelten Projekte zu verbinden, um als Ergebnis einen eigenständigen "Homecomputer" zu erhalten, der per Tastatur angesteuert werden können soll und über eine Audio- und Videoausgabe verfügen soll. Dabei wird eine SD-Karte als Speichermedium dienen, das per Tastatureingabe über eine Art Shell verwaltet werden kann.
Als mehrsprachiges System stelltWikipedia viele Herausforderungen sowohl an Akademiker als auch an Ingenieure. Eine dieser Herausforderungen ist die kulturelle Kontextualisierung der Wikipedia-Inhalte und der Mangel an Ansätzen zu ihrer effektiven Quantifizierung. Außerdem scheint es an der Absicht zu fehlen, solide Berechnungspraktiken und Rahmenbedingungen für die Messung kultureller Variationen in dem Datenmaterial zu schaffen. Die derzeitigen Ansätze scheinen hauptsächlich von der Datenverfügbarkeit diktiert zu werden, was ihre Anwendung in anderen Kontexten erschwert. Ein weiterer häufiger Nachteil ist, dass sie aufgrund eines erheblichen qualitativen oder Übersetzungsaufwands selten skalieren. Um diesen Einschränkungen zu begegnen, werden in dieser Arbeit zwei modulare quantitative Ansätze entwickelt und getestet. Sie zielen darauf ab, kulturbezogene Phänomene in Systemen zu quantifizieren, die auf mehrsprachigem, nutzergeneriertem Inhalt beruhen. Insbesondere
ermöglichen sie es: (1) einen benutzerdefinierten Kulturbegriff in einem System zu operationalisieren; (2) kulturspezifische Inhalts- oder Abdeckungsverzerrungen in einem solchen System zu quantifizieren und zu vergleichen; und (3) eine großräumige Landschaft mit gemeinsamen kulturellen Interessen und Schwerpunkten abzubilden. Die empirische Validierung dieser Ansätze ist in zwei Teile gegliedert. Erstens wird ein Ansatz zur Kartierung von Wikipedia-Gemeinschaften mit gemeinsamen redaktionellen Interessen auf zwei großenWikipedia Datensätzen validiert, die multilaterale geopolitische und sprachliche Redakteursgemeinschaften umfassen. Beide Datensätze zeigen messbare Cluster von konsistenten Mitredaktionsinteressen und bestätigen rechnerisch, dass diese Cluster mit bestehenden kolonialen, religiösen, sozioökonomischen und geographischen Bindungen übereinstimmen.
Zweitens wird ein Ansatz zur Quantifizierung von Inhaltsunterschieden anhand eines mehrsprachigen Wikipedia-Datensatzes und eines Multiplattform-Datensatzes (Wikipedia und Encyclopedia Britannica) validiert. Beide sind auf einen ausgewählten Wissensbereich der Nationalgeschichte beschränkt. Diese Analyse ermöglicht es erstmals im großen Maßstab, die Verteilung der historischen Schwerpunkte in den Artikeln zur Nationalgeschichte zu quantifizieren und zu visualisieren. Alle Ergebnisse werden entweder von Fachexperten oder von externen Datensätzen kreuzvalidiert. Die wichtigsten Beiträge der Dissertation. Diese Dissertation: (1) stellt einen Versuch dar, den Prozess der Messung kultureller Variationen in nutzergeneriertem Datenmaterial zu formalisieren; (2) stellt zwei neue Ansätze zur Quantifizierung der kulturellen Kontextualisierung in mehrsprachigem Datenmaterial vor und testet sie; (3) schafft einen wertvollen Überblick über die Literatur zur Definition und Quantifizierung von Kultur; (4) liefert wichtige empirische Erkenntnisse über die Wirkung von Kultur auf den Inhalt und die Abdeckung von Wikipedia; zeigt, dass Wikipedia nicht kontextfrei ist, und dass diese Unterschiede nicht als Rauschen, sondern als ein wichtiges Merkmal des Datenmaterials behandelt werden sollten. (5) leistet einen praktischen Beitrag durch das Teilen von Datenmaterial und Visualisierungen.
In dieser Arbeit wird ein Mehrbenutzer-Annotationssystem namens myAnnotations vorgestellt, das mit Hilfe von sogenannten "Shared In-situ Problem Solving" Annotationen auf beliebigen Webseiten kollaborative Lern- und Arbeitsszenarien unterstützt. Hierbei wird insbesondere auf die Einsatzmöglichkeiten von "Shared In-situ Problem Solving" Annotationen beim kollaborativen Bearbeiten eines Textes und bei kollaborativen Lernerfolgskontrollen eingegangen.
In dieser Arbeit wird ein Datenmodell für Shared Annotations vorgestellt. Basierend auf einem bereits existierenden Datenmodell für Annotationen, wird dieses erweitert um die Möglichkeit der Modellierung von Shared Annotations. Daraufhin werden Funktionen von Shared Annotations erläutert, die über das neue Annotationsmodell möglich sind.