Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (475)
- Ausgabe (Heft) zu einer Zeitschrift (355)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (190)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (23)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
- Buch (Monographie) (5)
- Habilitation (5)
- (1)
- Vorlesung (1)
- Preprint (1)
Sprache
- Deutsch (1139)
- Englisch (547)
- Mehrsprachig (4)
- Spanisch (2)
- (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computersimulation (11)
- Computergraphik (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (176)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (145)
- Institut für Management (117)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (57)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Im Verlauf der vergangenen Jahre wurden unter der Leitung von Dr. Merten Joost basierend auf Microcontrollern der ATMega-Reihe verschiedene Projekte zur Ansteuerung der Peripheriegeräte eines Computers realisiert. Hierzu zählen unter anderem die Abfrage einer Tastatur, die Ausgabe von Audio- und Videosignalen sowie eine Programmierumgebung mit eigener Programmiersprache. Ziel dieser Arbeit ist es, die gesammelten Projekte zu verbinden, um als Ergebnis einen eigenständigen "Homecomputer" zu erhalten, der per Tastatur angesteuert werden können soll und über eine Audio- und Videoausgabe verfügen soll. Dabei wird eine SD-Karte als Speichermedium dienen, das per Tastatureingabe über eine Art Shell verwaltet werden kann.
Als mehrsprachiges System stelltWikipedia viele Herausforderungen sowohl an Akademiker als auch an Ingenieure. Eine dieser Herausforderungen ist die kulturelle Kontextualisierung der Wikipedia-Inhalte und der Mangel an Ansätzen zu ihrer effektiven Quantifizierung. Außerdem scheint es an der Absicht zu fehlen, solide Berechnungspraktiken und Rahmenbedingungen für die Messung kultureller Variationen in dem Datenmaterial zu schaffen. Die derzeitigen Ansätze scheinen hauptsächlich von der Datenverfügbarkeit diktiert zu werden, was ihre Anwendung in anderen Kontexten erschwert. Ein weiterer häufiger Nachteil ist, dass sie aufgrund eines erheblichen qualitativen oder Übersetzungsaufwands selten skalieren. Um diesen Einschränkungen zu begegnen, werden in dieser Arbeit zwei modulare quantitative Ansätze entwickelt und getestet. Sie zielen darauf ab, kulturbezogene Phänomene in Systemen zu quantifizieren, die auf mehrsprachigem, nutzergeneriertem Inhalt beruhen. Insbesondere
ermöglichen sie es: (1) einen benutzerdefinierten Kulturbegriff in einem System zu operationalisieren; (2) kulturspezifische Inhalts- oder Abdeckungsverzerrungen in einem solchen System zu quantifizieren und zu vergleichen; und (3) eine großräumige Landschaft mit gemeinsamen kulturellen Interessen und Schwerpunkten abzubilden. Die empirische Validierung dieser Ansätze ist in zwei Teile gegliedert. Erstens wird ein Ansatz zur Kartierung von Wikipedia-Gemeinschaften mit gemeinsamen redaktionellen Interessen auf zwei großenWikipedia Datensätzen validiert, die multilaterale geopolitische und sprachliche Redakteursgemeinschaften umfassen. Beide Datensätze zeigen messbare Cluster von konsistenten Mitredaktionsinteressen und bestätigen rechnerisch, dass diese Cluster mit bestehenden kolonialen, religiösen, sozioökonomischen und geographischen Bindungen übereinstimmen.
Zweitens wird ein Ansatz zur Quantifizierung von Inhaltsunterschieden anhand eines mehrsprachigen Wikipedia-Datensatzes und eines Multiplattform-Datensatzes (Wikipedia und Encyclopedia Britannica) validiert. Beide sind auf einen ausgewählten Wissensbereich der Nationalgeschichte beschränkt. Diese Analyse ermöglicht es erstmals im großen Maßstab, die Verteilung der historischen Schwerpunkte in den Artikeln zur Nationalgeschichte zu quantifizieren und zu visualisieren. Alle Ergebnisse werden entweder von Fachexperten oder von externen Datensätzen kreuzvalidiert. Die wichtigsten Beiträge der Dissertation. Diese Dissertation: (1) stellt einen Versuch dar, den Prozess der Messung kultureller Variationen in nutzergeneriertem Datenmaterial zu formalisieren; (2) stellt zwei neue Ansätze zur Quantifizierung der kulturellen Kontextualisierung in mehrsprachigem Datenmaterial vor und testet sie; (3) schafft einen wertvollen Überblick über die Literatur zur Definition und Quantifizierung von Kultur; (4) liefert wichtige empirische Erkenntnisse über die Wirkung von Kultur auf den Inhalt und die Abdeckung von Wikipedia; zeigt, dass Wikipedia nicht kontextfrei ist, und dass diese Unterschiede nicht als Rauschen, sondern als ein wichtiges Merkmal des Datenmaterials behandelt werden sollten. (5) leistet einen praktischen Beitrag durch das Teilen von Datenmaterial und Visualisierungen.
In dieser Arbeit wird ein Mehrbenutzer-Annotationssystem namens myAnnotations vorgestellt, das mit Hilfe von sogenannten "Shared In-situ Problem Solving" Annotationen auf beliebigen Webseiten kollaborative Lern- und Arbeitsszenarien unterstützt. Hierbei wird insbesondere auf die Einsatzmöglichkeiten von "Shared In-situ Problem Solving" Annotationen beim kollaborativen Bearbeiten eines Textes und bei kollaborativen Lernerfolgskontrollen eingegangen.
In dieser Arbeit wird ein Datenmodell für Shared Annotations vorgestellt. Basierend auf einem bereits existierenden Datenmodell für Annotationen, wird dieses erweitert um die Möglichkeit der Modellierung von Shared Annotations. Daraufhin werden Funktionen von Shared Annotations erläutert, die über das neue Annotationsmodell möglich sind.
Semantic-Web-Technologien haben sich als Schlüssel für die Integration verteilter und heterogener Datenquellen im Web erwiesen, da sie die Möglichkeit bieten, typisierte Verknüpfungen zwischen Ressourcen auf dynamische Weise und nach den Prinzipien von sogenannten Dataspaces zu definieren. Die weit verbreitete Einführung dieser Technologien in den letzten Jahren führte zu einer großen Menge und Vielfalt von Datensätzen, die als maschinenlesbare RDF-Daten veröffentlicht wurden und nach ihrer Verknüpfung das sogenannte Web of Data bilden. Angesichts des großen Datenumfangs werden diese Verknüpfungen normalerweise durch Berechnungsmethoden generiert, den Inhalt von RDF-Datensätzen analysieren und die Entitäten und Schemaelemente identifizieren, die über die Verknüpfungen verbunden werden sollen. Analog zu jeder anderen Art von Daten müssen Links die Kriterien für Daten hoher Qualität erfüllen (z. B. syntaktisch und semantisch genau, konsistent, aktuell), um wirklich nützlich und leicht zu konsumieren zu sein. Trotz der Fortschritte auf dem Gebiet des maschinellen Lernens ist die menschliche Intelligenz für die Suche nach qualitativ hochwertigen Verbindungen nach wie vor von entscheidender Bedeutung: Menschen können Algorithmen trainieren, die Ausgabe von Algorithmen in Bezug auf die Leistung validieren, und auch die resultierenden Links erweitern. Allerdings sind Menschen – insbesondere erfahrene Menschen – nur begrenzt verfügbar. Daher kann die Ausweitung der Datenqualitätsmanagementprozesse von Dateneigentümern/-verlegern auf ein breiteres Publikum den Lebenszyklus des Datenqualitätsmanagements erheblich verbessern.
Die jüngsten Fortschritte bei Human Computation und bei Peer-Production-Technologien eröffneten neue Wege für Techniken zur Verwaltung von Mensch-Maschine-Daten, die es ermöglichten, Nicht-Experten in bestimmte Aufgaben einzubeziehen und Methoden für kooperative Ansätze bereitzustellen. Die in dieser Arbeit vorgestellten Forschungsarbeiten nutzen solche Technologien und untersuchen Mensch-Maschine-Methoden, die das Management der Verbindungsqualität im Semantic Web erleichtern sollen. Zunächst wird unter Berücksichtigung der Dimension der Verbindungsgenauigkeit eine Crowdsourcing Methode zur Ontology Alignment vorgestellt. Diese Methode, die auch auf Entitäten anwendbar ist, wird als Ergänzung zu automatischen Ontology Alignment implementiert. Zweitens werden neuartige Maßnahmen zur Dimension des Informationsgewinns eingeführt, die durch die Verknüpfungen erleichtert werden. Diese entropiezentrierten Maßnahmen liefern Datenmanagern Informationen darüber, inwieweit die Entitäten im verknüpften Datensatz Informationen in Bezug auf Entitätsbeschreibung, Konnektivität und Schemaheterogenität erhalten. Drittens wenden wir Wikidata - den erfolgreichsten Fall eines verknüpften Datensatzes, der von einer Gemeinschaft von Menschen und Bots kuratiert, verknüpft und verwaltet wird - als Fallstudie an und wenden deskriptive und prädiktive Data Mining-Techniken an, um die Ungleichheit der Teilnahme und den Nutzerschwung zu untersuchen. Unsere Ergebnisse und Methoden können Community-Managern helfen, Entscheidungen darüber zu treffen, wann/wie mit Maßnahmen zur Nutzerbindung eingegriffen werden soll. Zuletzt wird eine Ontologie zur Modellierung der Geschichte der Crowd-Beiträge auf verschiedenen Marktplätzen vorgestellt. Während der Bereich des Mensch-Maschine-Datenmanagements komplexe soziale und technische Herausforderungen mit sich bringt, zielen die Beiträge dieser Arbeit darauf ab, zur Entwicklung dieses noch aufstrebenden Bereichs beizutragen.
Diese Arbeit analysiert die Möglichkeiten der Text- und Netzwerkanalyse kriminologischer Daten. Dabei werden diese Daten unter dem Aspekt der Geldwäsche betrachtet. Zum Zweck der Analyse wurden aus dem Text die wichtigsten Konzepte in elf verschiedene Klassen aufgeteilt. Die Zusammenhänge zwischen den identifizierten Konzepten wurden ebenfalls untersucht. Einige Aussagen über Geldwäsche lassen sich durch die Interpretation der Ergebnisse validieren. Es werden bestimmte Konzepte, wie Banken, Unternehmen und ausländische Tochtergesellschaften als wichtige Konzepte identifiziert. Das bestätigt zusammen mit dem in Kapitel 1.4.3 dargestellten zyklischen Ablauf von Geldwäschevorgängen die Vermutung, dass bestimmte Organisationen und Personen, innerhalb des betrachteten Falles, Gelder über Banken, Gesellschaften und Investitionen in den legalen Finanzmarkt einfließen lassen. Ebenfalls wird innerhalb dieser Arbeit der Nutzen der betrachteten Tools für den hier zugrundeliegenden Forschungsprozess analysiert und eine Einschätzung der Eignung von ORA und Automap für diese Art von Forschung geliefert.
Im Rahmen dieser Diplomarbeit wird ein TGraph-basiertes Modell-Vergleichsverfahren entwickelt. Dieses Verfahren soll eine anwendbare Berechnung von Deltas für TGraph-basierte Modelle ermöglichen. Modelle können durch TGraphen repräsentiert werden. Für die Erzeugung und Verarbeitung von TGraphen wurde am Institut für Softwaretechnik das Java Graph Laboratory, kurz JGraLab, entwickelt. Es handelt sich dabei um eine Java Klassenbibliothek, die eine hoch effiziente API zur Verarbeitung von TGraphen bereitstellt. [Ebe87, ERW08, ERSB08] Basierend auf der JGraLab API wird ein System entwickelt, das unterschiedliche Werkzeuge zur Verwaltung von Modellen bereitstellt. Der Fokus dieser Diplomarbeit liegt dabei auf der Entwicklung eines Werkzeugs, das zu zwei gegebenen TGraphen ein Delta berechnet.
Wirkfaktoren von Achtsamkeit: Wirkt Achtsamkeit durch Verringerung der affektiven Reaktivität?
(2009)
Die vorliegende Forschungsarbeit untersucht mögliche Wirkfaktoren von Achtsamkeit. Wirkfaktoren sind dabei die Prozesse, die die Effekte von Achtsamkeit auf Wohlbefinden und Gesundheit vermitteln. Bisherige Studien des Forschungsfelds haben sich auf den Nachweis der Wirksamkeit (vgl. Baer, 2003; Grossman, Niemann, Schmidt & Walach, 2004) sowie die Entwicklung von psychometrischen Achtsamkeitstests konzentriert (z.B. Brown & Ryan, 2003; Walach et al., 2006). Die Frage nach den Wirkfaktoren von Achtsamkeit ist demgegenüber bisher weitgehend unbeantwortet. Erst seit kurzem widmen sich Forschungsarbeiten dieser Frage (Arch & Craske, 2006; Shapiro, Carlson, Astin & Friedman, 2006; Zeidler, 2007). Kenntnis der Wirkfaktoren von Achtsamkeit ist der Schlüssel zum Verständnis des Phänomens sowie zur Verbesserung von Interventionen. Aus diesem Grund ist die Erforschung der Wirkfaktoren von Achtsamkeit die nächste zentrale Aufgabe des Forschungsfelds. Basierend auf einer Analyse des theoretischen Fundaments des Konstrukts " insbesondere der buddhistischen Psychologie " wird in dieser Arbeit "Verringerung von affektiver Reaktivität" als Wirkfaktor angenommen (Kalupahana, 1992; Davids, 2002; De Silva, 2005). Affektive Reaktivität bezeichnet die Tendenz, auf affektive Reize (z.B. unangenehme Bilder) mit affektiven Reaktionen (z.B. negativen Gefühlen) zu antworten. Das entsprechende Mediatormodell (Prädiktor: Achtsamkeit; Mediator: affektive Reaktivität; Kriterium: habituelles Wohlbefinden) wird in drei Studien empirisch untersucht. Studie I (N=247) fokussiert auf eine behaviorale Operationalisierung von affektiver Reaktivität anhand von expliziten (z.B. Bewertung aversiver Bilder) und impliziten (z.B. Emotional Stroop) Maßen. Studie II (N=221) erfasst alle Variablen des Modells mit Fragebögen. Beide Studien sind korrelativ und querschnittlich aufgebaut. Studie III (N=189) induziert experimentell State-Achtsamkeit und prüft die Effekte auf die Bewertung aversiver Bilder. Insgesamt bestätigen die Studien das vorgeschlagene Modell teilweise. Dabei finden sich soÂwohl für Fragebogen als auch für behaviorale Erfassung hypothesenkonforme Ergebnisse. AlÂlerdings sind die Effekte für fragebogenbasierte Operationalisierungen stärker als für behaviorale Erfassung von affektiver Reaktivität. Das Design der Studien begrenzt die interne Validität, so dass die Ergebnisse als erste Hinweise zu verstehen sind. Zukünftige Studien sollten sich weiter auf diesen Wirkfaktor aber auch auf weitere mögliche Wirkfaktoren konzentrieren. Zur Erhöhung der internen Validität sind längsschnittliche Designs, experimentelle Designs und alternative OperationalisierÂungen vonnöten.
Weltweit kann im letzten Jahrzehnt auf eine rasch zunehmende Akzeptanz des Internets als Informationsplattform zurückgeblickt werden. Grundlegende Änderungen fanden sowohl im privaten als auch im öffentlichen Sektor statt. Im Zuge dessen wurde die aktive Beteiligung von Bürgern in politische Meinungsbildungsprozesse mehr und mehr elektronisch unterstützt. Die Erwartungen an die neue Technologie steigerten sich in die Annahme, dass Informations- und Kommunikationstechnologien (IKT) die Bürgerbeteiligung verbessern und die Politikverdrossenheit mindern können. Aus diesen Erwartungen entwickelten sich einige E-Partizipationsprojekte in Deutschland. Außerdem wurde die "Initiative eParticipation" ins Leben gerufen, die in Bezug auf E-Partizipation Politik und Verwaltungen stark anregte, den Entscheidungsprozess mit Hilfe von internetgestützten Beteiligungspraktiken zu stärken. Diese Arbeit besteht aus zwei Hauptteilen. Im ersten Teil werden Definitionen der kritischen Begriffe präsentiert. Außerdem wird die Position von E-Partizipation innerhalb der Dimension des E-Business aufgezeigt. Um E-Partizipation zu erläutern, werden zuerst Grundlagen der klassischen Bürgerbeteiligung erklärt. Es wird gezeigt, dass sich auch die klassische Bürgerbeteiligung in einem Veränderungsprozess befindet, dessen Ursache nicht nur der Einsatz von IKT ist. Nachfolgend wird ein Rahmenwerk präsentiert, welches das Spektrum von E-Partizipation charakterisiert. Die Europäische Union fördert die Umsetzung von E-Partizipation. Koblenz soll da keine Ausnahme bilden. Aber wie ist die momentane Situation in Koblenz? Um diese Frage zu beantworten wird der gegenwärtige Zustand untersucht. Dazu wurde eine Umfrage unter den Bürgern der Stadt entwickelt, durchgeführt und ausgewertet. Dies ist der zweite Hauptteil dieser Arbeit.
Successful export sectors in manufacturing and agribusiness are important drivers of structural transformation in Sub-Sahara African countries. Backed by industrial policies and active state involvement, a small number of successful productive export sectors has emerged in Sub-Saharan Africa. This thesis asks the question: How do politics shape the promotion of export-driven industrialisation and firm-level upgrading in Sub-Saharan Africa? It exemplifies this question with an in-depth, qualitative study of the cashew processing industry in Mozambique in the period from 1991 until 2019. Mozambique used to be one of the world’s largest producers and processors of cashew nuts in the 1960s and 1970s. At the end of the 20th century, the cashew processing industry broke down completely but has re-emerged as one of the country’s few successful agro-processing exports.
The thesis draws on theoretical approaches from the fields of political science, notably the political settlements framework, global value chain analysis and the research on technological capabilities to explore why the Mozambican Government supported the cashew processing industry and how Mozambican cashew processors acquired the technological capabilities needed to access the global cashew value chain and to upgrade. It makes an important theoretical contribution by linking the political settlements framework and the literature on upgrading in global value chains to study how politics shaped productive sector promotion and upgrading in the Mozambican cashew processing industry. The findings of the thesis are based on extensive primary data, including 58 expert interviews and 10 firm surveys, that was collected in Mozambique in 2018 as well as a broad base of secondary literature.
The thesis argues that the Mozambican Government supported the cashew processing industry because it became important for the Government’s political survival. Promoting the cashew sector formed part of an electoral strategy for the ruling FRELIMO coalition and a means to keep FRELIMO factions united by offering economic opportunities to key constituencies. In 1999, it adopted a protectionist cashew law that created strong incentives for cashew processing in Mozambique. This not only facilitated the re-emergence of the cashew processing industry after its breakdown. The law and the active involvement of the National Cashew Institute (INCAJU) also affected the governance of the local cashew value chain, the creation of backward linkages, and the upgrading paths of cashew processors. The findings of the thesis suggest that the cashew law reduced the pressure on the cashew processing industry to upgrade. The law further created opportunities for formal and informal rent creation for members of the political elite and lower level FRELIMO officials that prevented a far-reaching reform of the law. The thesis shows that international buyers do not promote upgrading among Sub-Sahara African firms in global value chains with market-based or modular governance. Moreover, firms that operate in countries where industrial policies are not enforced effectively cannot draw on the support of government institutions to enhance their capabilities and to upgrade. Firms therefore mainly depended on costly learning channels at firm level, e.g. learning by doing or hiring skilled labour, and/or on technical assistance from donors to build the technological capabilities needed to access global value chains and to remain competitive.
The findings of the thesis suggest that researchers, governments, development practitioners and consultants need to rethink their understanding of upgrading in GVCs in four ways. First, they need to move away from understanding upgrading in terms of moving towards more complex, higher value-added activities in GVCs (functional upgrading). Instead, it is important to consider the potential of other, more realistic types of upgrading for firms in low-income countries, such reducing risks by diversifying suppliers and buyers or increasing rewards by making production processes more efficient. Second, they need to replace an overly positive view on upgrading that neglects possible side-effects at sector and/or country level. Third, GVC participation on its own does not promote upgrading among local supplier firms in Sub-Saharan Africa. The interests of lead firms and Sub-Sahara African supplier firms may not be aligned or even conflicting. Targeted industrial policies and the creation of institutions that effectively promote capability building among firms therefore become even more important. Finally, upgrading needs to be understood as a process that is not only shaped by interactions between firms, but also by local domestic politics.
The findings of the thesis are highly relevant for scholars from the fields of political science, development studies, and economics. Its practical implications and tools, e.g. a technological capabilities matrix for the cashew industry, are of interest for development practitioners, members of public institutions in Sub-Sahara African countries, local entrepreneurs, and representatives of local business associations that are involved in promoting export sectors and upgrading among local firms.