Filtern
Erscheinungsjahr
- 2018 (98) (entfernen)
Dokumenttyp
- Dissertation (35)
- Bachelorarbeit (30)
- Masterarbeit (18)
- Ausgabe (Heft) zu einer Zeitschrift (14)
- Konferenzveröffentlichung (1)
Schlagworte
- Vorlesungsverzeichnis (4)
- Bildverarbeitung (2)
- 1H-NMR Relaxometry (1)
- Aesthetics (1)
- Agoraphobie (1)
- Analysis of social platform (1)
- Astrophysik (1)
- Augmented Reality (1)
- Barrieren (1)
- Berufsausbildung (1)
Institut
- Institut für Computervisualistik (29)
- Institut für Wirtschafts- und Verwaltungsinformatik (9)
- Institute for Web Science and Technologies (9)
- Institut für Management (8)
- Zentrale Einrichtungen (8)
- Fachbereich 7 (7)
- Institut für Umweltwissenschaften (7)
- Fachbereich 4 (4)
- Fachbereich 6 (3)
- Fachbereich 8 (2)
Das Ziel der vorliegenden Masterarbeit ist es, einen Einführungskurs in die Computervisualistik mit dem Schwerpunkt Computergrafik zu konzeptionieren und zu prototypisieren. Der Kurs sollte Grundlagen der Computergrafik vermitteln und dabei Bezüge zu anderen Veranstaltungen des Studiums herstellen, um Motivation und Verständnis für die komplexen Zusammenhänge der Studieninhalte in der Computervisualistik zu schaffen. Der aktuelle Studiengangplan weist hier bislang ein erkennbares Defizit auf. Für den Einführungskurs wurden prototypische Lerneinheiten auf Grundlage der didaktischen Methode der Moderation und unter Verwendung von Unity entwickelt. Konzept und Prototypen wurden an Probanden ohne informationstechnischen Hintergrund evaluiert. Die Ergebnisse zeigten, dass Unity eine geeignete Oberfläche für die Vermittlung der Informationen bietet. Diese stieß auf Akzeptanz und konnte leichte Zugänglichkeit bei den Probanden aufweisen, obwohl die Lerneinheiten selbst kleinere Schwächen aufwiesen. Im Anschluss an die erste Evaluationsphase wurde eine qualitative Umfrage mit Alumini der Computervisualistik durchgeführt. Die Ergebnisse bestätigten den Bedarf nach einer einführenden Veranstaltung zur Orientierung und zur Förderung von Motivation und Verständnis für die breiten Themengebiete der Computervisualistik.
Die vorliegende Arbeit gibt einen Überblick über die Rahmenbedingungen der Programmierung von Grafikkarten. Dazu werden die zur wichtigsten am Markt vorhandenen Application Programming Interfaces (APIs) vorgestellt und miteinander verglichen. Anschließend werden zwei Standardalgorithmen aus der Datenverarbeitung, Prefix Sum und Radixsort vorgestellt und im Hinblick auf die Implementierung mit paralleler Programmierung auf der GPU zu untersucht. Beide Algorithmen wurden unter Nutzung der OpenGL-API und OpenGL Compute Shadern implementiert. Abschließend wurden die Ausführungszeiten der beiden Algorithmen miteinander verglichen.
Mit der Microsoft Kinect waren die ersten Aufnahmen von synchronisierten Farb- und Tiefendaten (RGB-D) möglich, ohne hohe finanzielle Mittel aufwenden zu müssen und neue Möglichkeiten der Forschung eröffneten sich. Mit fortschreitender Technik sind auch mobile Endgeräte in der Lage, immer mehr zu leisten. Lenovo und Asus bieten die ersten kommerziell erwerblichen Geräte mit RGB D-Wahrnehmung an. Mit integrierten Funktionen der Lokalisierung, Umgebungserkennung und Tiefenwahrnehmung durch die Plattform Tango von Google gibt es bereits die ersten Tests in verschiedenen Bereichen des Rechnersehens z.B. Mapping. In dieser Arbeit wird betrachtet, inwiefern sich ein Tango Gerät für die Objekterkennung eignet. Aus den Ausgangsdaten des Tango Geräts werden RGB D-Daten extrahiert und für die Objekterkennung verarbeitet. Es wird ein Überblick über den aktuellen Stand der Forschung und gewisse Grundlagen bezüglich der Tango Plattform gegeben. Dabei werden existierende Ansätze und Methoden für eine Objekterkennung auf mobilen Endgeräten untersucht. Die Implementation der Erkennung wird anhand einer selbst erstellten Datenbank von RGB-D Bildern gelernt und getestet. Neben der Vorstellung der Ergebnisse werden Verbesserungen und Erweiterungen für die Erkennung vorgeschlagen.
Die vorliegende Arbeit befasst sich mit dem Thema Responsible Research and Innovation (RRI). Die Ziele der Arbeit sind die Klärung des Begriffs sowie die Ermittlung des aktuellen Stands der Forschung in dem Gebiet. RRI ist ein Konzept, welches wesentlich von der Europäischen Kommission (EC) geprägt wurde. Es ist zusammengesetzt aus Verantwortung, Forschung und Innovation, welche hier zunächst einzeln betrachtet werden. Verantwortung setzt sich gemäß der hier verwendeten Definition von Clausen (2009) aus Subjekt („Wer übernimmt Verantwortung“), Objekt („wofür,“), Adressaten („wem gegenüber“) und Instanzen („und wieso?“) zusammen. Im Rahmen des konzeptuellen Teils dieser Arbeit wird die Eigenschaft von Unternehmen als Verantwortungssubjekte damit begründet, dass sie zielgerichtet handeln und vor allem die Gesellschaft, welche gleichzeitig als wichtiger Adressat und als Instanz der Verantwortung auftritt, sie zunehmend für die Folgen ihrer Handlungen in die Pflicht nimmt. Das Gebiet der Nachhaltigkeit mit seinen Säulen Ökonomie, Ökologie und Soziales wird außerdem als Verantwortungsobjekt eingehend betrachtet. Innovation und ihre Teilmenge Forschung werden in dieser Arbeit als komplexe Prozesse verstanden, die Unternehmensziele auf neuartige Weise umsetzen. Mittels einer Literaturanalyse nach Webster & Watson (2002) wird der aktuelle Stand der Forschung zu RRI ermittelt. Der Großteil der verwendeten Literatur wird dabei als konzeptioneller Natur identifiziert. Trotz großer Unklarheiten, die noch vorherrschen, lassen sich vier Dimensionen von RRI herauslesen: Deliberation, Antizipation, Reflexivität und Reaktivität. Die Dimensionen, welche von der EC verwendet werden, sind demnach eher als Aktivitäten einzuordnen. Forschung und Innovation, welche nach RRI ausgerichtet wird, bezieht Stakeholder und insbesondere die Gesellschaft von Anfang an in den Prozess ein, betrachtet ihre möglichen Auswirkungen und stellt ihre Hintergründe und grundlegenden Werte kontinuierlich in Frage. Den wichtigsten Aspekt stellt dabei die Anpassungsfähigkeit des Prozesses gemäß den Ergebnissen aus den übrigen Dimensionen dar. Alle Aktivitäten basieren auf Verantwortung und Nachhaltigkeit und werden durch geeignete Steuerung integriert. Über die konzeptionelle Arbeit hinaus wurde erst wenig Forschung durchgeführt, insbesondere was Operationalisierung und Implementierung von RRI angeht. Für letztere wird hier die Einbettung in einen Stage-Gate-Prozess nach Cooper (2010) vorgeschlagen. Auch die tatsächliche Ausgestaltung der konzeptionellen Dimensionen muss jedoch noch konkretisiert werden. Außerdem muss insgesamt das Bewusstsein für RRI geschärft werden und ein Bekenntnis zu RRI erfolgen.
Exposition in der Versorgungspraxis: Zur Frage der Umsetzbarkeit und Prädiktion früher Veränderungen
(2018)
Ziel der vorliegenden Arbeit war die Beantwortung folgender Fragestellungen: 1. Wie wirksam ist ein evidenzbasiertes Expositionsmanuals bei Panikstörung mit Agoraphobie in der Routineversorgung? 2. Was sind mögliche Barrieren und Hindernisse bei der Umsetzung der Exposition? 3. Was sind Prädiktoren früher Veränderungen im Therapieverlauf?
Methode: Im Rahmen einer prospektiven Längsschnittstudie wurden die Daten der vorliegenden Studie mit denen der Multicenter-Studie von Gloster et al. (2011) mittels Effektstärken und Testung auf Äquivalenz verglichen. Grundlage war das Manual von Lang, Helbig-Lang, Westphal, Gloster und Wittchen (2011). Die Patientinnen und Patienten und Therapeutinnen und Therapeuten wurden zu den Hausaufgaben, der Umsetzung im Alltag und der therapeutischen Beziehung befragt. Zusätzlich wurde die wechselseitige Beeinflussung von therapeutischer Allianz und dem Behandlungserfolg im Therapieverlauf untersucht. In Anlehnung an Westra, Marcus und Dozois (2007) wurde getestet, ob bei es Patientinnen und Patienten mit einer hohen Hausaufgaben-Compliance und einer positiven Behandlungserwartung vor Beginn der Therapie zu einer frühen Reduktion der Panik-Symptomatik kommt und ob frühe Veränderungen durch die Compliance und die Behandlungserwartung beeinflusst werden.
Ergebnisse: 1. Die Behandlung war in der Versorgungspraxis nicht weniger effektiv als in der Multicenter-Studie. 2. Die Abbrecherquote lag bei 20.59%. Die meisten Behandelten gaben an, ihre Hausaufgaben wie besprochen erledigt zu haben und schätzten sie nicht übermäßig schwer ein. Die Umsetzbarkeit der Anforderungen im Alltag wurde von den Patientinnen und Patienten sehr hoch eingeschätzt. Die meisten Therapeutinnen und Therapeuten stimmten der Aussage, die Umsetzung der massierten Exposition sei im therapeutischen Alltag nicht praktikabel eher nicht oder gar nicht zu. Je negativer die Einschätzungen der therapeutischen Beziehung durch die Behandelten war, umso höher waren die Panikwerte am Ende der Therapie. Der HAQ-S korrelierte mit dem Outcome zu r = .21, der HAQ-F zu r = .37. 3. Die beiden Mediator-Hypothesen von Westra et al. (2007) konnten nicht bestätigt werden.
Diskussion: Die Behandlung ist in der Routineversorgung wirksam und praktikabel. Die Hausaufgaben scheinen frühe Veränderungen nicht zu prädizieren. In späteren Arbeiten des Forschungsprojektes wird notwendig sein, zudem die differentielle Wirksamkeit des angepassten Manuals zu untersuchen, und zwar mittels drei aktiver Vergleichsgruppen: massierte Exposition versus prolongierte Exposition versus die Kombination beider.
In der aquatischen Umwelt stellen Wasser-Sediment-Grenzschichten (WSG) die wichtigsten Bereiche bezüglich der Austauschprozesse zwischen dem Wasserkörper und dem Sediment dar. Diese räumlich begrenzten Regionen sind durch starke biogeochemische Gradienten charakterisiert, die die Speziierung und den Verbleib natürlicher und artifizielle Substanzen maßgeblich bestimmen. Abgesehen von biologischen Prozessen (z.B. grabende Organismen oder Photosynthese) ist der Austausch zwischen Wasser und Sediment von Diffusion oder Kolloid-gesteuerten Transport bestimmt. Dies erfordert Methoden, die es ermöglichen, die feinen Strukturen der Grenzschichten abzubilden und zwischen den unterschiedlichen Prozessen zu unterscheiden.
Hinsichtlich neu entwickelter Substanzen, die voraussichtlich in die aquatische Umwelt gelangen werden, sind artifizielle Nanomaterialien (engineered nanomaterials; ENMs) aufgrund ihrer zunehmenden Nutzung in Produkten und Anwendungen von großer Relevanz. Da sie auf der Grundlage ihrer Größe definiert werden (<100 nm), umfassen sie eine Vielzahl verschiedenster Materialien mit unterschiedlichem Verhalten in der Umwelt. Erreichen sie aquatische Systeme, mischen sie sich mit natürlich vorkommenden Kolloiden (<1 μm), die nanoskalige Partikel beinhalten.
Ausgehend von existierenden methodischen Lücken bezüglich der Charakterisierung von ENMs (als neu aufgekommene Substanzen) und WSG (als betroffene Umweltkompartimente) war das Ziel der vorliegenden Dissertation, die Entwicklung, Validierung und Anwendung einer geeigneten analytischen Basis, um ENMs an WSG untersuchen zu können. Die Herausforderungen lagen dabei in i) der Entwicklung von Methoden, die eine räumlich hochaufgelöste Beprobung von Sedimentporen-wasser erlauben. ii) Der Bereitstellung routinetauglicher Methoden zur Charakterisierung metall-basierter ENMs und iii) der Entwicklung von Methoden zur Größenfraktionierung von Porenwässern, um größenbezogene Elementverteilungsmustern an WSG erhalten zu können.
Im ersten Teil erfolgte die Entwicklung von Filter-Probenahmesonden, die in ein neuartiges Probenahmesystem integriert wurden, welches mit einem kommerziell verfügbaren Microprofiling-system kombiniert wurde (microprofiling micro sampling system; missy). Nach umfangreicher Validierung konnte in Experimenten die Tauglichkeit des missy für eine minimal-invasive und auto-matisierte Beprobung von Sedimentporenwasser bei parallelen Messungen mittels Mikrosensoren gezeigt werden. Es wurde somit erstmal möglich, im Millimetermaßstab Multielementinformationen für Sedimenttiefenprofile zu erhalten und diese in einen direkten Zusammenhang mit verschiedenen Sedimentparametern zu setzten.Aufgrund der zu erwartenden Freisetzung von ENMs in die Umwelt, war es das Ziel, Methoden bereitzustellen, die eine Untersuchung von Transportprozessen und dem Verbleib von ENMs an WSG ermöglichen. Da standardisierte Methoden noch immer fehlen, erfolgte die Entwicklung routinetauglicher Ansätze zur Bestimmung der Massenkonzentration sowie der gelösten Fraktion von ENM-Suspensionen. Somit konnten erstmals Methoden bereitgestellt werden, die eine routinetaugliche Bestimmung von zwei der wichtigsten Eigenschaften kolloidaler Systeme ermöglichen, die ebenfalls für die Entwicklung geeigneter Risikoabschätzungen und Regularien benötigt werden.
Basierend auf dieser methodischen Grundlage erfolge die Entwicklung geeigneter Verfahren zur Bestimmung der gelösten und kolloidalen Fraktionen in Sedimentporenwässern. Dies ermöglichte es erstmalig, fraktionsbezogene Elementinformationen für Sedimenttiefenprofile in millimetergenauer Auflösung zu erhalten, was eine Unterscheidung zwischen Diffusion und kolloid-gesteuerten Transportprozessen gestattet.
Zusätzlich zu den forschungsorientierten Teilen der vorgelegten Dissertation wurden in einer weiteren, als Anhang beigefügten Publikation (Appendix III) Fragen zu einem möglichen Eintrag nanoskaliger Stoffe in Oberflächengewässer vor dem Hintergrund des aktuell gültigen Deutschen Wasserrechtes adressiert.
In der Computergrafik stellte das echtzeitfähige
Rendern von Haaren und Fell ein Problem dar. Die
Berechnung der Beleuchtung, Schattierung und
Transparenz erfordert einen hohen Rechenaufwand,
welcher sich negativ auf die Performanz auswirkt.
Doch durch verbesserte Hardware und neue Verfahren
ist es möglich, solch komplexe Effekte in Echtzeit
zu simulieren. In folgender Arbeit werden die
Grundlagen des Renderings von Haaren erläutert.
Außerdem wurde im Rahmen der Arbeit eine
echtzeitfähige Demo implementiert, deren zugrunde
liegende Verfahren und Funktionalitäten beschrieben
werden. Um die Demo zu evaluieren wurde die mögliche
Anzahl an Bildern pro Sekunde bei Modellen
unterschiedlicher Komplexität gemessen. Schließlich
wurden die Ergebnisse mit Bildern von echten Haaren
verglichen.
Moderne Softwaresysteme bestehen aus verschiedenen Programmiersprachen, Softwaretechnologien und Artefakten. Dadurch wird es für Entwickler komplexer, den Quelltext sowie die enthaltenen Abhängigkeiten zu verstehen. Entsprechend muss ein größerer Aufwand in die Erstellung von Dokumentation gesteckt werden. Eine Möglichkeit zur Dokumentation einer Software mit dem Fokus auf die benutzten Technologien stellen linguistische Architekturen dar. Diese können z. B. durch die MegaL Ontologie beschrieben werden. Da die Erstellung einer solchen linguistischen Architektur für ein beliebiges Softwareprojekt kompliziert ist, beschreibt diese Arbeit einen Ansatz zur automatischen Erstellung einer solchen linguistischen Architektur. Dafür wird das Open Source Framework Apache Jena verwendet, welches Semantic Web Technologien wie RDF und OWL benutzt. Mit diesem können spezifische Regeln definiert werden, welche aus existierenden RDF-Triplen neue ableiten. Dieser Ansatz wird schließlich in einer Case Study an zehn verschiedenen Open Source Projekten getestet. Dabei soll eine linguistische Architektur in MegaL extrahiert werden, welche die Nutzung von Hibernate beschreibt. Mit der Hilfe von spezifischen Metriken wird das Ergebnis dann mit einem internen und externen Ansatz evaluiert.
Die vorliegende Arbeit beschreibt die Entwicklung eines OpenGL-basierten Tools zur Visualisierung von Hohlräumen in Proteinen, welche während eines statischen Dockings beobachtet werden können. Ziel ist es, anhand von Informationen über Abstände zwischen Proteinen und Liganden, Schluss- folgerungen über Interaktionen zu ziehen, um daraus Ansätze für die Entwicklung künstlicher Liganden zu gewinnen. Zunächst wird auf chemische Grundlagen eingegangen, die das Thema motivieren und für das Verständnis der Thematik und der genutzten Algorithmen wichtig sind. Des Weiteren wird bestehende Software vorgestellt, die ähnliche Sachverhalte löst. Anschließend werden die Voraussetzungen zur Entwicklung des Programmes genannt, woraufhin dieses detailliert beschrieben wird. Zum Abschluss wird das Tool in Hinblick auf Performance und Nutzen evaluiert und ein zusammenfassendes Fazit getroffen, in dem sich das Programm als gute Hilfe für bestehende Forschungen und gute Basis für weitere, tiefergehende Forschungsprojekte erweist.
Schrift ist in ihrer Besonderheit verkannt, versteht man sie allein als Mittel zur Stillstellung gesprochener Sprache. Phänomene wie Schriftbildlichkeit, Operativität und die Physiognomie des Schriftbildes machen Schrift zu einem Medium. In der Entwicklung und in der Verwendung von Schriftgebrauchsformen in unterschiedlichen Kontexten werden sowohl die Eigenschaften, die Schriftzeichen mit verbalen Zeichen gemeinsam haben, als auch die Potentiale, die sie mit pikturalen Zeichen gemeinsam haben, genutzt. Daher werden in der vorliegenden Arbeit die Funktionalisierungsmöglichkeiten von Schriftgebrauchsformen vor dem Hintergrund der Symboltheorie Nelson Goodmans vorgestellt. Eine an die ästhetische Theorie angelehnte Herangehensweise ermöglicht es, gerade die bildlichen Aspekte von Schriftformen – die bislang in schrifttheoretischen Arbeiten meist als irrelevant ausgeblendet werden – zu berücksichtigen. Es wird ein dynamischer Kompetenzbegriff in Anlehnung an J.G. Schneider entwickelt, der alle Fähigkeiten umfasst, die benötigt werden, um Schriftgebrauchsformen erfolgversprechend verwenden zu können. Zu diesen Fähigkeiten gehören nicht nur grammatische und orthographische Kompetenz, sondern ebenso Geschmack und die Fähigkeit zur Analogiebildung. An Beispielen verschiedener Schriftverwendungen wird gezeigt, wie unterschiedlich Schriftgebrauchsformen eingesetzt werden können. So wird Schrift als Kulturtechnik darstellbar und mithin verdeutlicht, dass die Art und Weise, wie Menschen ihre Kultur, ihre Welt, aber auch ihre spezifische Umgebung und eigene Identität modellieren, von Schriftverwendungen geprägt und verändert wird.