Filtern
Erscheinungsjahr
- 2015 (105) (entfernen)
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (34)
- Dissertation (33)
- Bachelorarbeit (19)
- Masterarbeit (18)
- Vorlesung (1)
Gehört zur Bibliographie
- nein (105) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (4)
- OpenGL (3)
- Android (2)
- Compute Shader (2)
- Crowdsourcing (2)
- Eyetracking (2)
- Führung (2)
- Grafikkarte (2)
- Serviceorientierte Architektur (2)
- 360 Grad (1)
- 360 degree (1)
- API analysis (1)
- API-Analyse (1)
- AUTOSAR (1)
- Abfluss (1)
- Adaptation (1)
- Adhäsion (1)
- Amazon Mechanical Turks (1)
- Amazonia (1)
- Amazonien (1)
- Android development (1)
- Androidentwicklung (1)
- Animation (1)
- Anpassung (1)
- Anreiz (1)
- Applikation (1)
- Arbeitsmotivation (1)
- Arbeitszufriedenheit (1)
- Architektur <Informatik> (1)
- Augmented Reality (1)
- Ausrichtungswerkzeug (1)
- Austenitischer Stahl (1)
- Automotive Systems (1)
- Bakterien (1)
- Befahrbarkeit (1)
- Beregnung (1)
- Bildverstehen (1)
- Biofilm (1)
- Biofouling (1)
- Bioreaktor (1)
- Blickpunktabhängig (1)
- Bodenerosion (1)
- C++ (1)
- Chromatographie (1)
- Codierungstheorie (1)
- Communication Networks (1)
- Computer Graphics (1)
- Computergrafik (1)
- Computergraphik (1)
- Computervisualistik (1)
- Constitutive Model (1)
- Decodierung (1)
- Delphi (1)
- Design Thinking (1)
- Developer profiling (1)
- Diagnosekriterien (1)
- Dialog (1)
- Diffusion (1)
- Dimension 3 (1)
- Dokumentation (1)
- Driver Assistance Systems (1)
- Echtzeitsysteme (1)
- Eltern (1)
- Enterprise 2.0 (1)
- Entropia Universe (1)
- Entwickler Profil (1)
- Entwicklung (1)
- Epifluoreszenzmikroskopie (1)
- Erleben (1)
- Erwartung (1)
- Eulerian grid (1)
- Fahrerassistenzsystem (1)
- Fahrerassistenzsysteme (1)
- Fahrzeug (1)
- Feature Modeling (1)
- Feldsaum (1)
- Fließgewässer (1)
- Folgenanreize (1)
- Folie (1)
- Forsterschließung (1)
- Forstwirtschaft (1)
- Französischunterricht (1)
- Fremdsprachenunterricht (1)
- Fähigkeitsselbstkonzept (1)
- Führungstheorie (1)
- GMI-Controlling (1)
- GPGPU (1)
- Gegenstandsanreize (1)
- Gelände (1)
- Geschäftsmodellinnovation (1)
- Gesteninterpretation (1)
- Gesundheit (1)
- Grafik (1)
- Grafikprogrammierung (1)
- Graphicsprogramming (1)
- Graphik (1)
- Herausforderung (1)
- Herbizid (1)
- Hindernis (1)
- Hydrodynamik (1)
- ICP-MS (1)
- Information Asset Register (1)
- Information Audit (1)
- Information Capturing Methods (1)
- Informationstheorie (1)
- Inklusion (1)
- Innovation (1)
- Insecticide (1)
- Insektizid (1)
- Internationale Organisationen (1)
- Kanalcodierung (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Klassifikation (1)
- Kollisionserkennung (1)
- Kolloid (1)
- Kommunikation (1)
- Komplexe Beeinträchtigungen (1)
- Kryptographie (1)
- Kunststoff (1)
- Laser (1)
- Leap-Motion (1)
- Lebenslanges Lernen (1)
- Leistungsmotivation (1)
- Lernen (1)
- Makrophyten (1)
- Mass-Spektrometrie (1)
- Material Point Method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Mathematik (1)
- Medien (1)
- Medienpsychologie (1)
- Mezzanine-Finanzierung (1)
- Mikroskopie (1)
- Mining Software Repositories (1)
- Mitral Valve (1)
- Mitralklappe (1)
- Mittelstand (1)
- Mixed Methods (1)
- Modellierung (1)
- Motivation (1)
- Nachtfalter (1)
- Nachtschmetterlinge (1)
- Nanopartikel (1)
- Narrativität (1)
- Natürliches organisches Material (1)
- Nvidia CUDA (1)
- OpenGL Shading Language (1)
- Optimierung (1)
- Organisationsentwicklung (1)
- Osteocephalus (1)
- Par (1)
- Partikel (1)
- Partikelsystem (1)
- Personalentwicklung (1)
- Polymere (1)
- Positionierung (1)
- Programmierung (1)
- Psychologie (1)
- Raman-Spektroskopie (1)
- Raupe (1)
- Ray Tracer (1)
- Reflections (1)
- Reflektionen (1)
- Rendering (1)
- Reverse Engineering (1)
- Roboter (1)
- RuneScape (1)
- SOA (1)
- SOK-Modell (1)
- Schadstoffbelastung (1)
- Schadstoffkonzentration (1)
- Schule (1)
- Schwermetalle (1)
- Second Life (1)
- Segmentation (1)
- Segmentierung (1)
- Selbstbeschädigung (1)
- Selbstregulation (1)
- Selbstwert (1)
- Service Oriented Architecture (1)
- Shader (1)
- Simulation (1)
- Software (1)
- Software Engineering (1)
- Softwarearchitektur (1)
- Softwaretest (1)
- Spaß (1)
- Specular (1)
- Spektroskopie (1)
- Starrkörper (1)
- Straßenzustand (1)
- Studienanfänger (1)
- Studienleistung (1)
- Survey Research (1)
- Systematics (1)
- Systematik (1)
- TRIZ (1)
- Taxonomie (1)
- Taxonomy (1)
- Testen (1)
- Titandioxid-Nanopartikeln (1)
- Toxizität (1)
- Tracking (1)
- Transition (1)
- Tätigkeitsanreize (1)
- Ultraschall (1)
- Ultrasound (1)
- Umwelt (1)
- Unterhaltung (1)
- Untersuchung (1)
- Virtuelle Welten (1)
- Virtuelle Ökonomien (1)
- Volumen (1)
- WEB (1)
- Wahrscheinlichkeitsrechnung (1)
- Wegebau (1)
- Weltkultur (1)
- Wirtschaft (1)
- Wissensrepräsentation (1)
- Word-of-Mouth (1)
- World of Warcraft (1)
- Wärme (1)
- Zoologie (1)
- Zoology (1)
- adhesion (1)
- bacteria (1)
- biofilm (1)
- biomass (1)
- bioreactor (1)
- cation-bridges (CaB) (1)
- chemical force microscopy (1)
- chemical risk assessment (1)
- colloid (1)
- computer games (1)
- cross-linking (1)
- cultural landscape (1)
- decomposition (1)
- dialogische Führung (1)
- dialogische Kommunikation (1)
- dialogisches Management (1)
- diffusion (1)
- disturbance (1)
- e-Commerce (1)
- ecotoxicology (1)
- environmental surfaces (1)
- eye tracking (1)
- flow (1)
- forest roads (1)
- freshwater organisms (1)
- functional web testing tools (1)
- general purpose (1)
- gesundheitsgerechtes Führen (1)
- glass transition (1)
- grade (1)
- graphics card (1)
- heat exchanger (1)
- humanistische Psychologie (1)
- humic acid (1)
- hydrodynamic chromatography (1)
- hydrodynamische Chromatographie (1)
- inclusive education (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- invertebrates (1)
- land use (1)
- lead desorption (1)
- lifelong learning (1)
- mentale Repräsentation (1)
- methane (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- nanoparticle (1)
- natural organic matter (1)
- nature conservation (1)
- nichtsuizidale Selbstverletzung (1)
- nternational organizations (1)
- parents (1)
- plants (1)
- polymer films (1)
- rainfall simulation (1)
- ray casting (1)
- raycasting (1)
- rigid body (1)
- runoff (1)
- school (1)
- school tier (1)
- silver nanoparticles (1)
- soil erosion (1)
- soil organic matter (1)
- sorption (1)
- special educational needs (1)
- stainless steel (1)
- streams (1)
- surface energy (1)
- surface roughness (1)
- task orientation (1)
- text-picture integration (1)
- traits (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- water-molecule-bridges (WaMB) (1)
- world polity (1)
- Übergang von der Grundschule zur weiterführenden Schule (1)
Institut
Die pan-amazonische Baumfrosch-Gattung Osteocephalus ist unzureichend bearbeitet sowohl bezüglich ihrer Taxonomie, als auch ihrer Phylogenie. Der Status einer Reihe von Arten, die bereits oder noch nicht zu dieser Gattung gezählt werden, ist unklar und die Verwandtschaftsbeziehungen innerhalb der Gattung und zu verwandten Gattungen nicht geklärt. In dieser Arbeit wird O. cabrerai (Cochran and Goin, 1970) aus Kolumbien und Peru nochmals detailliert beschrieben und O. festae (Peracca, 1904) aus einem Anden-Vorgebirge in Ecuador revalidiert. Hyla inframaculata Boulenger, 1882, vom Unterlauf des Amazonas in Brasilien, wird in die Gattung Osteocephalus gestellt und Osteocephalus elkejungingerae (Henle, 1981) vom östlichen Andenrand in Peru wird mit Hyla mimetica (Melin, 1941) als O. mimeticus synonymisiert. Das Taxon Hyla vilarsi Melin, 1941, bisher als Synonym unterschiedlicher Arten betrachtet, wird als valide angesehen und in die Gattung Osteocephalus gestellt. Drei neue Arten werden beschrieben: Osteocephalus castaneicola aus Nord-Bolivien und Süd-Peru, O. duellmani von einer subandinen Bergkette in Süd-Ecuador und O. camufatus aus dem zentralamazonischen Teil Brasiliens. Eine phylogenetische Analyse auf Basis von bis zu neun mitochondrialen und einem Kern-Gen zeigt, dass Osteocephalus bezüglich der Gattung Tepuihyla paraphyletisch ist. Deshalb wird hier eine neue Taxonomie vorgeschlagen, die die Monophylie von Osteocephalus und Tepuihyla sichert. Eine neue Gattung, Dryaderces, wird für die Schwestergruppe von Osteocephalus aufgestellt. Die Färbung frisch metamorphosierter Jungfrösche wird als morphologische Synapomorphie von Osteocephalus angesehen. Fünf monophyletische Artengruppen werden innerhalb der Gattung aufgestellt, drei Arten der Gattung Osteocephalus (O. germani, O. phasmatus, O. vilmae) und drei der Gattung Tepuihyla (T. celsae, T. galani, T. talbergae) synonymisiert, außerdem drei Arten anderen Gattungen zugerechnet (Hyla helenae zu Osteocephalus, O. exophthalmus zu Tepuihyla und O. pearsoni zu Dryaderces gen. n.). Außerdem werden neun potentiell neue Arten identifiziert, was einer Artenzunahme von 138% im Vergleich zur derzeit bekannten Diversität entspräche. Daraus ist zu schließen, dass die tatsächliche Artenzahl weit unterschätzt wird. Unbeschriebene Arten verbergen sich vor allem unter den weit verbreiteten, polymorphen Nominatarten. Die Evolution der Fortpflanzungsstrategien innerhalb der Gattung wird im Licht der neuen Phylogenie diskutiert und ein neuer Amplexustyp (Kehlamplexus) beschrieben.
Diese Arbeit befasst sich mit einer 3D-Interaktion von primitiven Objekten, welche von Gesten gesteuert wird. Dabei werden Funktionen, welche auf eine absolute Positionierung angewiesen sind, mit Hilfe eines Touchscreens implementiert. Als zweites Eingabegerät dient die Leap-Motion, welche Gesten anhand von zwei CCD-Kameras und drei Infrarot-LEDs aufnimmt. Die Gesten bestehen dabei aus der Translation, Rotation und Skalierung von Objekten, sowie aus einer Steuerung, die die Bewegung im Raum ermöglicht. Zur visuellen Umsetzung wurde die Arbeit in Blender mit der Blender Game Engine unter Python geschrieben. Nur das Auswählen der Objekte wurde mit Hilfe des Touchscreens realisiert. Diese Steuerung wurde anschließend mit einer reinen Maussteuerung evaluiert. Diese beiden Eingabemöglichkeiten unterscheiden sich darin, dass die Gestensteuerung nicht etabliert ist. Sie besitzt allerdings den Vorteil, dass sie im dreidimensionalen Raum ausgeführt werden kann. Die Maus hingegen ist geläufig, beschreibt aber nur einen zweidimensionalen Raum als Eingabe. Es stellt sich also die Frage, ob bei der dreidimensionalen Interaktion von Objekten eine Maussteuerung oder eine Gestensteuerung bevorzugt wird. Das Ergebnis beläuft sich daran, dass die Maus favorisiert wird. Jedoch liegt die Gestensteuerung in manchen Bereichen nah an dem Ergebnis der Maus.
Diese Arbeit analysiert die Möglichkeiten der Text- und Netzwerkanalyse kriminologischer Daten. Dabei werden diese Daten unter dem Aspekt der Geldwäsche betrachtet. Zum Zweck der Analyse wurden aus dem Text die wichtigsten Konzepte in elf verschiedene Klassen aufgeteilt. Die Zusammenhänge zwischen den identifizierten Konzepten wurden ebenfalls untersucht. Einige Aussagen über Geldwäsche lassen sich durch die Interpretation der Ergebnisse validieren. Es werden bestimmte Konzepte, wie Banken, Unternehmen und ausländische Tochtergesellschaften als wichtige Konzepte identifiziert. Das bestätigt zusammen mit dem in Kapitel 1.4.3 dargestellten zyklischen Ablauf von Geldwäschevorgängen die Vermutung, dass bestimmte Organisationen und Personen, innerhalb des betrachteten Falles, Gelder über Banken, Gesellschaften und Investitionen in den legalen Finanzmarkt einfließen lassen. Ebenfalls wird innerhalb dieser Arbeit der Nutzen der betrachteten Tools für den hier zugrundeliegenden Forschungsprozess analysiert und eine Einschätzung der Eignung von ORA und Automap für diese Art von Forschung geliefert.
NeuLand 2011,02 = Nr. 31
(2015)
Campusschule: Uni goes Schulpraxis
Praxisluft schnuppern - Wie in der Lehre praktisches Know-how vermittelt wird
Money, money, money - Fördermöglichkeiten für Studierende und Promovierende
Hinter den Kulissen - Ein Tag mit Chefhausmeister Hans-Jürgen Lösch
Wolfgang Huber - Interview mit dem Frank-Loeb-Gastprofessor 2011
Information systems research has started to use crowdsourcing platforms such as Amazon Mechanical Turks (MTurk) for scientific research, recently. In particular, MTurk provides a scalable, cheap work-force that can also be used as a pool of potential respondents for online survey research. In light of the increasing use of crowdsourcing platforms for survey research, the authors aim to contribute to the understanding of its appropriate usage. Therefore, they assess if samples drawn from MTurk deviate from those drawn via conventional online surveys (COS) in terms of answers in relation to relevant e-commerce variables and test the data in a nomological network for assessing differences in effects.
The authors compare responses from 138 MTurk workers with those of 150 German shoppers recruited via COS. The findings indicate, inter alia, that MTurk workers tend to exhibit more positive word-of mouth, perceived risk, customer orientation and commitment to the focal company. The authors discuss the study- results, point to limitations, and provide avenues for further research.
Der zunehmende Einsatz von Titandioxid-Nanopartikeln (nTiO2) birgt das Risiko eines erhöhten Eintrags in Oberflächengewässer, wo diese mit weiteren anthropogenen Stressoren (z.B. Schwermetalle) vorkommen können. Das gemeinsame Auftreten ermöglicht die Adsorption von Schwermetallen an nTiO2, welche aufgrund ihrer Agglomeration häufig aussedimentieren. Somit können Nanopartikel mit den adsorbierten Metallionen potentiell für pelagische aber auch benthische Organismen ein Risiko darstellen. Die kombinierte Toxizität von nTiO2 und Schwermetallen wird vermutlich durch die Eigenschaften der Stressoren, aber auch durch verschiedene Umweltparameter (z.B. organisches Material, pH, Ionenstärke) bestimmt.
Allerdings wurde der Einfluss dieser Faktoren bisher nicht systematisch untersucht. Daher zielte diese Arbeit darauf ab den Effekt von verschiedenen nTiO2-Produkten, welche sich in der Zusammensetzung der kristallinen Struktur unterschieden, auf die Toxizität von Kupfer (als Stellvertreter für Schwermetalle) für den pelagischen Testorganismus Daphnia magna in Gegenwart von verschiedenen Formen und Konzentrationen organischen Materials zu untersuchen. Es ist anzunehmen, dass die Dauer der Interaktion (=Alterung) die kombinierte Toxizität der Stressoren beeinflusst. Ergänzend wurde deshalb der Einfluss von nTiO2 auf die Kupfer-Toxizität nach einer Alterung unter dem Einfluss verschiedener Umweltparameter (nämlich organisches Material, pH, Ionenstärke) untersucht.
Des Weiteren wurde die Übertragbarkeit der wesentlichen Ergebnisse auf benthisch lebende Organismen mit Gammarus fossarum geprüft. Die vorliegende Arbeit zeigte für alle untersuchten Szenarien eine reduzierte Kupfer-Toxizität in Gegenwart von nTiO2, unabhängig von deren kristallinen Struktur. Dieser Effekt ließ sich auch auf benthische Lebewesen übertragen, obwohl die Exposition durch die Anwesenheit von nTiO2 aufgrund der Sedimentation mit dem adsorbierten Kupfer potenziell erhöht war.
Die erzielten Beobachtungen legen eine Verwendung von nTiO2 zur Aufreinigung von beispielsweise Abwasser nahe. Allerdings sollten potentielle Nebeneffekte (z.B. chronische Toxizität, Bildung von Sauerstoffradikalen) zunächst gründlich untersucht werden. Darüber hinaus sind die Übertragbarkeit auf andere Stressoren (z.B. andere Schwermetalle, organische Chemikalien) und der Verbleib von Schwermetallen in aquatischen Ökosystemen nach einer Sorption an nTiO2 ungewiss und bedürfen weiterer Forschung.
Die Entwicklung der echtzeitfähigen Computergrafik ermöglicht mittlerweile immer realistischere Bilder und die Hardware kann dafür optimal ausgenutzt werden, wodurch immer glaubwürdigere Lichtverhältnisse simuliert werden können. Eine große Anzahl von Algorithmen, effizient implementiert auf der Grafikkarte (GPU, auch Grafikprozessor)), sind fähig komplexe Lichtsituationen zu simulieren. Effekternwie Schatten, Lichtbrechung und Lichtreflexion können mittlerweile glaubwürdig erzeugt werden. Besonders durch Reflexionen wird der Realismus der Darstellung erhöht, da sie glänzende Materialien, wie z.B. gebürstete Metalle, nasse Oberflächen, insbesondere Pfützen oder polierte Böden, natürlich erscheinen lassen. Dabei geben sie einen Eindruck der Materialeigenschaften, wie Rauheit oder Reflexionsgrad.rnAußerdem können Reflexionen vom Blickpunkt abhängen: Eine verregnete Straße zum Beispiel würde Licht, abhängig von der Entfernung des Betrachters reflektieren und verwaschene Lichtreflexe erzeugen. Je weiter der Betrachter von der Lichtquelle entfernt ist, desto gestreckter erscheinen diese. Ziel dieser Bachelorarbeit ist, eine Übersicht über existierende Render-Techniken für Reflexionen zu geben, um den aktuellen Stand der Technik abzubilden. Reflexion entsteht durch den Einfall von Licht auf Oberflächen, die dieses in eine andere Richtung zurückwerfen. Um dieses Phänomen zu verstehen, wird eine Auffassung von Licht benötigt. Kapitel 2.1 beschreibt daher ein physikalisches Modell von Licht, gefolgt von Kapitel 2.2, das anhand von Beispielen ästhetisch wirkender Reflexionseffekte aus der realenrnWelt und den Medien die Motivation dieser Arbeit darlegt. In Kapitel 3 soll die generelle Vorgehensweise beim Rendern von Reflexionen deutlich gemacht werden. Danach wird in Kapitel 4 eine grobe Übersicht über existierende Ansätze gegeben. In Abschnitt 5 werden dann drei wesentliche Algorithmen vorgestellt, die zur Zeit oft in Spiel- und Grafikengines verwendet werden: Screen Space Reflections (SSR), Parallax-corrected cube mapping (PCCM) und Billboard Reflections (BBR). Diese drei Ansätze wurden zusammen in einem Framework implementiert. Dieses wird in Kapitel 5 vorgestellt und erklärt, gefolgt von detaillierten Beschreibungen der drei Techniken. Nachdem ihre Funktionsweise erklärt wurde, werden die Ansätze analysiert und auf ihre visuelle Qualität sowie ihre Echtzeitfähigkeit getestet. Abschließend werden die einzelnen Verfahren miteinander verglichen, um ihre Vor- und Nachteile zu untersuchen. Außerdem werden die gewonnenen Erfahrungen beschrieben und Verbesserungsansätze vorgeschlagen. Danach wird ein kurzer Ausblick zur voraussichtlichen Entwicklung von Render-Techniken spekularer Effekte gegeben.
Die nichtsuizidale Selbstverletzung (NSSV) wurde im DSM-5 als Störung zur weiteren Erforschung aufgenommen. Daher ist es wichtig, die vorgeschlagenen Diagnosekriterien hinsichtlich ihrer diagnostischen, klinischen und psychologischen Korrelate zu untersuchen. Zusätzlich ist eine klare Abgrenzung zur Borderline Persönlichkeitsstörung (BPS) notwendig, hierbei könnte die Untersuchung von Persönlichkeitseigenschaften helfen. Soziale Schwierigkeiten dienen oft als Auslöser von NSSV. Dennoch ist wenig erforscht, wie Jugendliche mit NSSV soziale Situation wahrnehmen. Ein neues Emotionserkennungsparadigma mit farbigen, dynamischen emotionalen Gesichtsausdrücken wurde entwickelt und an einer studentischen Stichprobe evaluiert, die für ihre hohe (HSA) oder niedrige soziale Ängstlichkeit (LSA) ausgewählt wurde. HSA zeigten eine Tendenz zu einer beeinträchtigten Erkennung von Gesichtsausdrücken. Des Weiteren konnte eine gute Konstruktvalidität für das Paradigma festgestellt werden.
In der Hauptstudie untersuchten wir die Charakteristika von NSSV, die Persönlichkeitseigenschaften und die Emotionserkennung bei 57 Jugendlichen mit NSSV, 12 Jugendlichen mit NSSV ohne Einschränkung und Leiden, 13 Jugendlichen mit BPS, einer klinischen Kontrollgruppe (n = 32) und einer nicht-klinischen Kontrollgruppe (n = 64). Die Teilnehmer wurden bezüglich psychischer Störungen befragt, füllten Fragebögen aus und nahmen am Emotionserkennungsparadigma teil.
Die Ergebnisse zeigten auf, dass Jugendliche mit NSSV im Vergleich zur klinischen Kontrollgruppe eine erhöhte Psychopathologie aufwiesen. Weiterhin fanden sich Gemeinsamkeiten sowie Unterschiede zwischen den Jugendlichen mit NSSV und Jugendlichen mit BPS. Jugendliche mit NSSV kennzeichnen sich durch eine hohe Schadensvermeidung und hohes Neugierverhalten im Vergleich zur klinischen Kontrollgruppe. Bei Jugendlichen mit BPS waren diese Persönlichkeitseigenschaften noch ausgeprägter. Weiterhin, konnten keine Gruppenunterschiede bezüglich der Emotionserkennung gefunden werden. Jugendliche mit NSSV bewerteten jedoch die Gesichtsausdrücke als unangenehmer und emotional aufwühlender.
Zusammenfassend zeigt sich NSSV als stark einschränkende Störung, die mit einer hohen Komorbidität einhergeht und mit spezifischen Persönlichkeitseigenschaften assoziiert ist. Die Ergebnisse liefern zusätzliche Evidenz für die neue Diagnose NSSV und weisen darauf hin, dass die vorgeschlagenen DSM-5 Kriterien hilfreich und notwendig sind.
Virtueller Konsum - Warenkörbe, Wägungsschemata und Verbraucherpreisindizes in virtuellen Welten
(2015)
Virtuelle Welten sind seit ungefähr einem Jahrzehnt in den Fokus der wissenschaftlichen Auseinandersetzung gerückt. Zahlreiche Disziplinen, wie die Rechtswissenschaften, die Soziologie, die Psychologie oder die Pädagogik, diskutieren verschiedenste Phänomene, welche die Interaktion der Menschen innerhalb von virtuellen Welten betreffen. Auch die Volkswirtschaftslehre ist auf diese virtuellen Umgebungen aufmerksam geworden.
Die vorliegende Arbeit setzt sich mit den ökonomischen Vorgängen innerhalb virtueller Welten auseinander. Im Fokus stehen dabei die vier Welten World of Warcraft, RuneScape, Entropia Universe und Second Life. Das "Dach" der Untersuchungen in dieser Arbeit bildet dabei der Verbraucherpreisindex, welcher in der realen Welt dazu dient, die Preisentwicklung von Konsumgütern zu berechnen. Zur Berechnung des Verbraucherpreisindexes werden drei Komponenten herangezogen: Warenkorb, Wägungsschema und die jeweiligen Güterpreise. Der Schwerpunkt dieser Arbeit besteht vor allem darin, diese Komponenten für virtuelle Welten zu identifizieren und eine vergleichbare Berechnung für virtuelle Welten exemplarisch zu ermöglichen. Mit der Übertragung der Werkzeuge der Wirtschaftsstatistik auf virtuelle Welten sind neben den inhaltlichen Erkenntnissen insbesondere die methodische Bewertung und Diskussion von Interesse. Schließlich trägt die Arbeit dazu bei, den Konsum in virtuellen Welten in eine Ordnung zu bringen, erste Konsumschwerpunkte aufzuzeigen und die diesbezüglichen Abweichungen zur realen Welt herauszuarbeiten. Dadurch wird die Basis gelegt, um neben den in dieser Arbeit angestoßenen Untersuchungen weitere volkswirtschaftlich, aber auch soziologisch verankerte Fragestellungen zu ermöglichen. Im Vordergrund steht dabei insbesondere die Auseinandersetzung mit und Begründung von Konsummotiven in virtuellen Welten. Gleichzeitig werden die Herausforderungen, welche sich bei der praktischen Umsetzung der erforderlichen Maßnahmen ergeben, aufgezeigt. Die diesbezüglichen Erkenntnisse sind geeignet, um als Grundlage für künftige Analysen zu dienen, um beispielsweise die Erhebung von Konsumausgaben oder die Aufzeichnung von Preisen und deren Entwicklungen für virtuelle Welten noch fundierter und mit noch engerem Bezug zur realen Welt durchführen und bewerten zu können.
In dieser Arbeit beschäftigen wir uns mit der Frage, ob die empfundene Herausforderung, der Flow-Zustand und der Spielspaß in Computerspielen miteinander zusammenhängen und welchen Einfluss die motivationspsychologischen Komponenten Erfolgsmotivation, Misserfolgsmotivation und Erfolgswahrscheinlichkeit dabei haben. Außerdem wollen wir wissen, ob eine freie Wahl des Schwierigkeitsgrads der optimale Weg zum Flow-Zustand ist. Um diese Theorien zu untersuchen, wurde eine Studie anhand einer Online-Umfrage durchgeführt, in welcher die Probanden das Spiel “flOw“ spielten. Die Ergebnisse wurden ausgewertet mithilfe einer zweifaktoriellen Varianzanalyse mit Messwiederholung und Tests auf Korrelation. Dabei fanden wir heraus, dass tatsächlich ein Zusammenhang zwischen Herausforderung, Flow und Spaß existiert und die Motivation dabei indirekt eine Rolle spielt.
The increasing, anthropogenic demand for chemicals has created large environmental problems with repercussions for the health of the environment, especially aquatic ecosystems. As a result, the awareness of the public and decision makers on the risks from chemical pollution has increased over the past half-century, prompting a large number of studies in the field of ecological toxicology (ecotoxicology). However, the majority of ecotoxicological studies are laboratory based, and the few studies extrapolating toxicological effects in the field are limited to local and regional levels. Chemical risk assessment on large spatial scales remains largely unexplored, and therefore, the potential large-scale effects of chemicals may be overlooked.
To answer ecotoxicological questions, multidisciplinary approaches that transcend classical chemical and toxicological concepts are required. For instance, the current models for toxicity predictions - which are mainly based on the prediction of toxicity for a single compound and species - can be expanded to simultaneously predict the toxicity for different species and compounds. This can be done by integrating chemical concepts such as the physicochemical properties of the compounds with evolutionary concepts such as the similarity of species. This thesis introduces new, multidisciplinary tools for chemical risk assessments, and presents for the first time a chemical risk assessment on the continental scale.
After a brief introduction of the main concepts and objectives of the studies, this thesis starts by presenting a new method for assessing the physiological sensitivity of macroinvertebrate species to heavy metals (Chapter 2). To compare the sensitivity of species to different heavy metals, toxicity data were standardized to account for the different laboratory conditions. These rankings were not significantly different for different heavy metals, allowing the aggregation of physiological sensitivity into a single ranking.
Furthermore, the toxicological data for macroinvertebrates were used as input data to develop and validate prediction models for heavy metal toxicity, which are currently lacking for a wide array of species (Chapter 3). Apart from the toxicity data, the phylogenetic information of species (evolutionary relationships among species) and the physicochemical parameters for heavy metals were used. The constructed models had a good explanatory power for the acute sensitivity of species to heavy metals with the majority of the explained variance attributed to phylogeny. Therefore, the integration of evolutionary concepts (relatedness and similarity of species) with the chemical parameters used in ecotoxicology improved prediction models for species lacking experimental toxicity data. The ultimate goal of the prediction models developed in this thesis is to provide accurate predictions of toxicity for a wide range of species and chemicals, which is a crucial prerequisite for conducting chemical risk assessment.
The latter was conducted for the first time on the continental scale (Chapter 4), by making use of a dataset of 4,000 sites distributed throughout 27 European countries and 91 respective river basins. Organic chemicals were likely to exert acute risks for one in seven sites analyzed, while chronic risk was prominent for almost half of the sites. The calculated risks are potentially underestimated by the limited number of chemicals that are routinely analyzed in monitoring programmes, and a series of other uncertainties related with the limit of quantification, the presence of mixtures, or the potential for sublethal effects not covered by direct toxicity.
Furthermore, chemical risk was related to agricultural and urban areas in the upstream catchments. The analysis of ecological data indicated chemical impacts on the ecological status of the river systems; however, it is difficult to discriminate the effects of chemical pollution from other stressors that river systems are exposed to. To test the hypothesis of multiple stressors, and investigate the relative importance of organic toxicants, a dataset for German streams is used in chapter 5. In that study, the risk from abiotic (habitat degradation, organic chemicals, and nutrients enrichment) and biotic stressors (invasive species) was investigated. The results indicated that more than one stressor influenced almost all sites. Stream size and ecoregions influenced the distribution of risks, e.g., the risks for habitat degradation, organic chemicals and invasive species increased with the stream size; whereas organic chemicals and nutrients were more likely to influence lowland streams. In order to successfully mitigate the effects of pollutants in river systems, co-occurrence of stressors has to be considered. Overall, to successfully apply integrated water management strategies, a framework involving multiple environmental stressors on large spatial scales is necessary. Furthermore, to properly address the current research needs in ecotoxicology, a multidisciplinary approach is necessary which integrates fields such as, toxicology, ecology, chemistry and evolutionary biology.
Terrainklassifikation mit Markov Zufallsfeldern für autonome Roboter in unstrukturiertem Terrain
(2015)
Diese Doktorarbeit beschäftigt sich mit dem Problem der Terrainklassifikation im unstrukturierten Außengelände. Die Terrainklassifikation umfasst dabei das Erkennen von Hindernissen und flachen Bereichen mit der einhergehenden Analyse der Bodenoberfläche. Ein 3D Laser-Entfernungsmesser wurde als primärer Sensor verwendet, um das Umfeld des Roboters zu vermessen. Zunächst wird eine Gitterstruktur zur Reduktion der Daten eingeführt. Diese Datenrepräsentation ermöglicht die Integration mehrerer Sensoren, z.B. Kameras für Farb- und Texturinformationen oder weitere Laser-Entfernungsmesser, um die Datendichte zu erhöhen. Anschließend werden für alle Terrainzellen des Gitters Merkmale berechnet. Die Klassifikation erfolgt mithilfe eines Markov Zufallsfeldes für Kontextsensitivität um Sensorrauschen und variierender Datendichte entgegenzuwirken. Ein Gibbs-Sampling Ansatz wird zur Optimierung eingesetzt und auf der CPU sowie der auf GPU parallelisiert um Ergebnisse in Echtzeit zu berechnen. Weiterhin werden dynamische Hindernisse unter Verwendung verschiedener State-of-the-Art Techniken erkannt und über die Zeit verfolgt. Die berechneten Informationen, wohin sich andere Verkehrsteilnehmer bewegen und in Zukunft hinbewegen könnten, werden verwendet, um Rückschlüsse auf Bodenoberflächen zu ziehen die teilweise oder vollständig unsichtbar für die Sensoren sind. Die Algorithmen wurden auf unterschiedlichen autonomen Roboter-Plattformen getestet und eine Evaluation gegen von Menschen annotierte Grundwahrheiten von Karten aus mehreren Millionen Messungen wird präsentiert. Der in dieser Arbeit entwickelte Ansatz zur Terrainklassifikation hat sich in allen Anwendungsbereichen bewährt und neue Erkenntnisse geliefert. Kombiniert mit einem Pfadplanungsalgorithmus ermöglicht die Terrainklassifikation die vollständige Autonomie für radgetriebene Roboter in natürlichem Außengelände.
Flowering habitats to enhance biodiversity and pest control services in agricultural landscapes
(2015)
Die wachsende Nachfrage nach landwirtschaftlichen Produkten benötigt Bewirtschaftungslösungen, die die Lebensmittelproduktion unter minimaler Beeinträchtigung der Umwelt steigern. Durch den übermässigen Einsatz künstlicher Hilfsstoffe und die Landschaftsvereinfachung gefährdet die konventionelle landwirtschaftliche Intensivierung die Biodiversität und die damit verknüpften Ökosystemleistungen im landwirtschaftlichen Raum.
Agrarumweltmassnahmen (AES) werden häufig eingesetzt, um die negativen Auswirkungen konventioneller Intensivierung auf die Biodiversität zu mildern. Ihr bisher nur moderater Erfolg könnte jedoch von expliziteren Zielen bezüglich Ökosystemleistungen profitieren. Das Bereitstellen von Schlüsselressourcen für Nützlinge dürfte deren Häufigkeit, Fitness und Diversität, sowie die durch sie bereitgestellten Ökosystemleistungen begünstigen. Durch gezieltes Lebensraummanagement könnten AES sowohl die Biodiversität als auch die landwirtschaftliche Produktion fördern und so zu einer ökologischen Intensivierung beitragen.
Wir zeigen, dass gesäte mehrjährige Wildblumenstreifen, wie sie gegenwärtig in AES mit Fokus auf Biodiversitätsförderung umgesetzt werden, auch die biologische Kontrolle in benachbarten Kulturen fördern (Kapitel 2). Der Vergleich von Winterweizenfeldern mit angrenzendem Wildblumenstreifen, mit Feldern ohne Wildblumenstreifen, zeigte stark reduzierte Getreidehähnchendichten (Oulema sp.) und Pflanzenschaden nahe Wildblumenstreifen, sowie ein um 10 % gesteigerter Ertrag. Dies bestätigt Annahmen, wonach, für ihre positiven Auswirkungen auf die Biodiversität bekannte Wildblumenstreifen, auch Ökosystemleistung-en, wie biologische Schädlingskontrolle fördern können. Die positive Korrelation des Ertrags mit Blütenabundanz und –diversität weist auf Blütenressourcen als Schlüsselfaktor hin.
Um gesäte Blühstreifen für die verstärkte Bereitstellung von Ökosystemleistungen zu verbessern, benötigt es ein mechanistisches Verständnis davon, wie Organismen von Blütenressourcen profitieren. In Klimakabinenversuchen, die den Einfluss von einzelnen und mehreren blühenden Pflanzenarten auf Fitnesskomponenten von drei grundlegenden natürlichen Feind-Arthropoden von Blattläusen untersuchten, zeigen wir, dass natürliche Feinde unterschiedlich von den angebotenen Ressourcen profitieren (Kapitel 3).
Einige Blühpflanzenarten waren dabei im Allgemeinen wertvoller für natürliche Feinde als andere. Die Mischung aller Blütenpflanzen war zudem generell besser als Monokulturen, jedoch nicht besser als die jeweils beste Art in der Mischung (kein „transgressive overyielding“). Durch gezieltes Massschneidern von Blühstreifen auf die Bedürfnisse von wichtigen natürlichen Feinden von Kulturschädlingen, versuchten wir, die durch natürliche Feinde vermittelte biologische Schädlingskontrolle in Winterweizen (Kapitel 4) und Kartoffelkulturen (Kapitel 5) zu maximieren.
Unter Berücksichtigung der vielseitigen Ansprüchen von diversen natürlichen Feinden - aber nicht Schädlingen - bezüglich zeitlicher und räumlicher Bereitstellung von floralen, extrafloralen und strukturellen Ressourcen, konzipierten wir einjährige Nützlingsblühstreifen, die durch Einbau in die Kulturfolge wichtige Arthropoden an Ort und Zeit unterstützen, an denen sie benötigt werden. Tatsächlich zeigten Feldexperimente, dass Getreidehähnchen und Pflanzenschaden in Winterweizen um 40 % bis 61 % gesenkt werden können und Blattläuse in Kartoffelkulturen sogar um 77 %, wenn ein Nützlingsblühstreifen ins Feld gesät wurde. Diese Effekte waren nicht auf die Nähe zum Blühstreifen beschränkt und verhinderten oft, dass im Vergleich zu Feldern ohne Blühstreifen die Schadschwelle erreicht wurde. Dies zeigt, dass Nützlingsblühstreifen Insektizide ersetzen könnten. Alle adulten natürlichen Feinde waren innerhalb der Nützlingsblühstreifen zahlreicher als innerhalb von Kontrollstreifen. Der Überlauf (spillover) von Nützlingen ins Feld war jedoch auf wichtige natürliche Feinde, wie Laufkäfer (Winterweizen), Schwebfliegen (Kartoffeln) und Florfliegen (Win-terweizen und Kartoffeln) beschränkt, was deren dominante Rolle für die biologische Schäd-lingskontrolle nahelegt. In Kartoffeln erhöhten Nützlingsblühstreifen auch die Artenzahl Schwebfliegen in Streifen und Feld, was einen zusätzlichen Nutzen für die Diversität heraushebt.
Die vorliegenden Resultate liefern Einblicke in die Mechanismen, die der biologischen Schädlingskontrolle durch Nützlingsförderung (conservation biological control) unterliegen und heben das Potential von massgeschneidertem Lebensraum-Management für eine ökologische Intensivierung hervor.
In dieser Arbeit wird eine interaktive Applikation für das Android OS entwickelt. Bei der Applikation handelt es sich um ein Virtual-Reality-Spiel. Das Spiel gehört zum Ego-Shooter-Genre und spielt in einem Weltraumszenario. Durch den Einsatz eines Stereo-Renderers ist es möglich, das Spiel in Kombination mit einer Virtual-Reality-Brille zu spielen.
Die weltweite Vernetzung von semantischen Information schreitet stetig voran und erfährt mit der Linked Data Initiative immer mehr Aufmerksamkeit. Bei Linked Data werden verschiedene Datensätze aus unterschiedlichen Domänen und von diversen Anbietern in einem einheitlichen Format (RDF) zur Verfügung gestellt und miteinander verknüpft. Strukturell ist das schnell wachsende Linked Data Netzwerk sehr ähnlich zum klassischen World Wide Web mit seinen verlinkten HTML Seiten. Bei Linked Data handelt es sich jedoch um URI-referenzierte Entitäten, deren Eigenschaften und Links durch RDF-Triple ausgedrückt werden. Neben dem Dereferenzieren von URIs besteht mit SPARQL auch die Möglichkeit, ähnlich wie bei Datenbanken, komplexe algebraische Anfragen zu formulieren und über sogenannte SPARQL Endpoints auf einer Datenquelle auswerten zu lassen. Eine SPARQL Anfrage über mehrere Linked Data Quellen ist jedoch kompliziert und bedarf einer föderierten Infrastruktur in der mehrere verteilte Datenquellen integriert werden, so dass es nach außen wie eine einzige große Datenquelle erscheint. Die Föderation von Linked Data hat viele Ähnlichkeiten mit verteilten und föderierten Datenbanken. Es gibt aber wichtige Unterschiede, die eine direkte Adpation von bestehenden Datenbanktechnologien schwierig machen. Dazu gehört unter anderem die große Anzahl heterogener Datenquellen in der Linked Data Cloud, Beschränkungen von SPARQL Endpoints, und die teils starke Korrelation in den RDF Daten. Daher befasst sich die vorliegende Arbeit primär mit der Optimierung von verteilten SPARQL Anfragen auf föderierten RDF Datenquellen. Die Grundlage dafür ist SPLENDID, ein effizientes Optimierungverfahren für die Ausführung von verteilten SPARQL Anfragen in einer skalierbaren und flexiblen Linked Data Föderationsinfrastruktur. Zwei Aspekte sind dabei besonders wichtig: die automatische Auswahl von passenden Datenquellen für beliebige SPARQL Anfragen und die Berechnung des optimalen Ausführungsplans (Join Reihenfolge) basierend auf einem Kostenmodell. Die dafür erforderlichen statistischen Information werden mit Hilfe von VOID-basierten Datenquellenbeschreibungen zur Verfügung gestellt. Darüberhinaus wird auch des Management verteilter statistischer Daten untersucht und eine Benchmark-Methodologie
Im Rahmen dieser Arbeit wird untersucht, wie sich Modellfehler auf die Positionsgenauigkeit und Handhabbarkeit beim Rangieren mit einem Fahrerassistenzsystem auswirken. Besonderer Wert wird dabei auf die Bestimmung von Fehlergrenzen gelegt. Es wird der Frage nachgegangen, wie groß der Eingangsfehler sein darf, damit die Assistenz noch hinreichende Qualitätseigenschaften hinsichtlich ihrer Präzision und Robustheit aufweist. Dazu erfolgt zunächst eine quantitative Betrachtung der Fehler anhand des kinematischen Modells. Danach wird eine qualitative Betrachtung anhand von systematischen Experimenten durchgeführt. Es wird zunächst ein Controller entwickelt, mit dem sich ein Manöver mithilfe der visuellen Informationen der Assistenz simulieren lässt.
Dann wird eine Methode vorgestellt, mit deren Hilfe man das Manöver anhand definierter Fehlergrenzen bewerten kann. Um einen großen Raum möglicher Fehlerkombinationen effizient zu durchsuchen, wird das probabilistische Verfahren des Annealed Particle Filters benutzt. Mithilfe einer Testumgebung werden schließlich systematische Experimente durchgeführt. Zur weiteren Evaluation des Assistenzsystems in einer kontrollierten Umgebung erfolgte in Zusammenarbeit mit dem Fraunhofer ITWM in Kaiserslautern die Portierung des Assistenzsystems auf die dortige Simulationsumgebung RODOS.
Der Fachbereich 4 (Informatik) besteht aus fünfundzwanzig Arbeitsgruppen unter der Leitung von Professorinnen und Professoren, die für die Forschung und Lehre in sechs Instituten zusammenarbeiten.
In jedem Jahresbericht stellen sich die Arbeitsgruppen nach einem einheitlichen Muster dar, welche personelle Zusammensetzung sie haben, welche Projekte in den Berichtszeitraum fallen und welche wissenschaftlichen Leistungen erbracht wurden. In den folgenden Kapiteln werden einzelne Parameter aufgeführt, die den Fachbereich in quantitativer Hinsicht, was Drittmitteleinwerbungen, Abdeckung der Lehre, Absolventen oder Veröffentlichungen angeht, beschreiben.
Uniprisma Ausg. 2005
(2015)
Ziel dieser Bachelorarbeit ist es, einen Innovationsprozess zu modellieren. Einerseits um die Einsatzmöglichkeiten von klassischen Kreativitätstechniken und IT-Tools in den unterschiedlichen Prozessphasen, andererseits die Integration des TRIZ- und Design Thinking Ansatzes im Innovationsprozess zu untersuchen. Um dieses Ziel zu erreichen, sollen folgende Arbeitsschritte erledigt werden: Zunächst soll eine Übersicht über verschiedene Innovationsprozessmodelle gegeben werden. Es wird mit einer Auswahl von Innovationsprozessen aus der Literatur auseinandergesetzt und es werden wichtige Merkmale behandelt. Im nächsten Schritt werden nach einer kurzen Einführung in das Themenfeld Kreativität ausgewählte Kreativitätstechniken, IT-gestützte Apps und Tools vorgestellt, die sich in der Praxis vielfach bewährt haben und zu innovativer Ergebniswirksamkeit führen. Anschließend werden die Ansätze des TRIZ und Design Thinking präsentiert.
Im Folgenden soll ein Innovationsprozess mit den möglichen Touchpoints zu Kreativitätstechniken, IT-Tools und systematischen Innovationsmethoden modelliert werden. Die Touchpoints werden dabei textuell beschrieben.
Campuszeitung Ausg. 1/2015
(2015)
Simulation von Schnee
(2015)
Physik-Simulationen erlauben die Erstellung dynamischer Szenen auf dem Rechner. Sie lassen die Computergrafik lebendig werden und finden unter anderem Anwendung in Film, Spiel und Ingenieurswesen. Durch GPGPU-Techniken kann diese Arbeit erstmals auf der Grafikkarte stattfinden. Die dynamische Simulation von Schnee ist ein Gebiet, das aufgrund seiner physikalischen Komplexität noch wenig erforscht ist. Die Materie-Punkt-Methode ist das erste Modell, dass in der Lage ist die Dynamik und verschiedenen Arten von Schnee darzustellen.
Die hybride Nutzung von Lagrange-Partikeln und einem kartesischen Euler-Gitter ermöglichen das Lösen der partiellen Differentialgleichungen. Die Partikel werden dazu auf die Gitterknoten transformiert. Durch Anwendung der Finite-Elemente-Methode auf das Gitter können Gradienten zur Aktualisierung der Geschwindigkeit berechnet werden. Die Geschwindigkeiten werden dann auf die Partikel zurückgewichtet, um diese in der Simulation voranschreiten zu lassen. Gepaart mit einem spezifischen Materialmodell wird die dynamische Natur von Schnee erlangt. Diese schließt Kollision und Bruch mit ein.
Diese Bachelorarbeit verbindet die kürzlich erschienenen GPGPU-Techniken von OpenGL mit der Materie-Punkt-Methode, um die verschiedenen Schneearten dynamisch, visuell ansprechend und effizient zu simulieren
Wärmeübertrager werden zur Aufkonzentrierung verschiedener flüssiger Produkte, zur Entsalzung von Meerwasser, aber auch als Kühlelemente in technischen Anlagen eingesetzt. Dabei kommen die Verdampfelemente nicht nur mit Prozesswasser, sondern, gerade bei der Meerwasserentsalzung, auch mit Mikroorganismen in Kontakt.
Klassische Wärmeübertrager bestehen aus Stahl. Nach einer Betriebszeit von mehr als 2 Jahren ist das Material starkem Biofouling ausgesetzt. Durch die Besiedlung mit Mikroorganismen und die Bildung der gelartigen Biofilmmatrix verlieren Wärmeübertrager ihre Effizienz und erzeugen zusätzliche Kosten. Die Reinigung eines Wärmeübertragers ist üblicherweise aufwendig. Dafür wird der Wärmeübertrager, nach Außerbetriebnahme, komplett demontiert.
Mogha et al. 2014 stellen in ihrer Studie die These auf, dass die Initialbesiedlung von Materialien durch veränderte Oberflächenparameter verlängert wird. Dies verzögert die Entstehung von Biofouling und minimiert den Einsatz von Desinfektionsmitteln und green chemicals stark.
Kunststofffolien als alternativer Werkstoff für den Einsatz im wärmeübertragenden Element haben durch ihre niedrigen Produktionskosten, leichte Verfügbarkeit und höhere Korrosionsbeständigkeit als Stahl das Potential, die Kosten für Stilllegung, Reinigung und Effizienzverlust zu reduzieren. Dabei sollen die dünnen Folien komplett ausgetauscht werden, wenn der Wirkungsgrad abnimmt. Schwankenden Stahlpreisen und langen Stillstandszeiten könnte ausgewichen werden. Zur zielgerichteten Untersuchung der mikrobiologischen und verfahrenstechnischen Herausforderungen des Projekts besteht eine Kooperation zwischen dem Lehrstuhl für Thermische Verfahrenstechnik (TU Kaiserslautern) und der AG Mikrobiologie (Universität Koblenz-Landau).
Ziel dieser Arbeit ist die Konstruktion und Herstellung eines Reaktors zur Exposition der Kunststofffolien nach realem Vorbild, die Erstellung eines Untersuchungsdesigns und die experimentelle Untersuchung verschiedener Kunststofffolien auf Biofouling im Vergleich zu austenitischen Stahlfolien.
Die Hauptaufgabe dieser Arbeit war der Entwurf und die Konstruktion eines Reaktors, dessen Prozessparameter vergleichbar mit realen Wärmeübertragungsanlagen und kostengünstiger als kommerzielle Systeme (~1000$) sind. Für eine positive Zielerreichung wurden folgende Kriterien umgesetzt: Vergleichbare Prozessparameter zu realen Anlagen bereitstellen, kostengünstige, schnelle Konstruktion und serienreife Produktion ermöglichen, schnelle Online-in-situ Mikroskopie sowie Online-3D-Konfokale-Ramanspektroskopie ermöglichen, reproduzierbare Ergebnisse von Zellzahl- und Biomassebestimmung erzeugen und eine möglichst große Anzahl an Untersuchungs-parallelen bereitstellen.
Da die Bestimmung von Biomasse und Zellzahl ein Standardwerkzeug zur Bestimmung von Biofouling darstellt, bilden epifluorenszenzmikroskopische und gravimetrische Verfahren die Grundlage dieser Arbeit. Die Unterschiede in Zellzahl und Biomasse zwischen Oberflächenmodifikation und Werkstoff werden quantitativ dargestellt und ausgewertet.
Um die reale biologische Relevanz der Daten herauszustellen, wurde als Modellorganismus das Bakterium Escherichia coli K12 sowie als natürliches Inokulum Flusswasser aus dem Rhein untersucht. Die damit erzeugten Daten zum Biofouling durch Umweltmedien unbekannter mikrobieller Zusammensetzung und einem Laboransatz mit definierter biologischer Zusammensetzung sind für die Beschreibung der technischen Relevanz wesentlich.
Die materialwissenschaftlichen Parameter Oberflächenenergie (DIN 55660) und Oberflächenrauigkeit (DIN EN ISO 4287) sind der erste Kontaktpunkt zwischen Materialoberfläche und Mikroorganismus. Deren Bestimmung und Korrelation mit der Biomasse und der bakteriellen Zellzahl dient als basale Verknüpfung zwischen dem Biofoulingverhalten als biologisch induziertem Prozess und den Materialeigenschaften. Darauf basierend können zukünftig definierte Materialeigenschaften zur Zielerreichung festgelegt werden.
Der in dieser Arbeit exemplarisch gezeigte Einsatz der Raman-Spektroskopie als neuartiger "cutting-edge" Methode gibt einen Ausblick auf zukünftige Untersuchungsmöglichkeiten zur routinemäßigen Erfassung des Biofouling-Verhaltens neuer, funktional optimierter Materialien.
Zentrale Aufgaben der Hochschule sind die Bewertung, die Ursachenklärung und die Förderung von Studienleistungen (Heublein & Wolter, 2011, S. 215). In diesem Kontext gilt neben intellektuellen Fähigkeiten die Leistungsmotivation als bedeutsamer Prädiktor für den akademischen Erfolg (z. B. Schmidt-Atzert, 2005, S. 132; Steinmayr & Spinath, 2009, S. 80). Im Fokus der vorliegenden Studie stehen deshalb Überlegungen zu Motivationsprozessen von 332 Studienanfängern der Hochschule der Bundesagentur für Arbeit und zu den Faktoren, die sich förderlich auf ihre Lernresultate auswirken. Mit einer Ausschöpfungsquote von 89 % sind die gewonnenen Daten für die Grundgesamtheit repräsentativ. Anhand einer Ex-post-facto-Versuchsanordnung in Form eines quantitativen Prädiktor-Kriteriums-Ansatzes (spezielle Variante eines Längsschnittdesigns) mit unterschiedlichen Erhebungsmethoden, wie standardisiertem Selbstbeurteilungsfragebogen, Leistungstests und offiziellen Dokumenten/Aktenmaterial, wurden folgende Forschungshypothesen zugrunde gelegt: Die Stärke der Leistungsmotivation ist sowohl von Erwartungskomponenten (Fähigkeitsselbstkonzept, Selbstwert, subjektive Notenerwartung, Erfolgszuversicht und Misserfolgsfurcht) als auch von Anreizkomponenten (Gegenstands-, Tätigkeits-, Folgenanreizen) abhängig, welche wiederum vermittelt über das leistungsmotivierte Verhalten einen Einfluss auf die Studienleistung besitzt. Dabei wurde postuliert, dass motivationale Variablen auch dann noch einen bedeutsamen Effekt auf die Studienleistung ausüben, wenn weitere Leistungsprädiktoren, wie die Schulabschlussnote, die Intelligenz, die emotionale Stabilität und die Gewissenhaftigkeit kontrolliert werden.
In dieser Arbeit wurde erstmalig das Gebiet der funktionalen, system-level Web Testing Tools analysiert. Aus 194 Toolkandidaten wurden 23 Tools zur Analyse ausgewählt. Die entwickelte Methodik verwendet die Benutzerhandbücher der Tools, um ein Featuremodel zu erzeugen, dass die Features aller Tools abbildet. Insgesamt wurden 313 Features identifiziert, klassifiziert und beschrieben. Die Features wurden in 10 Kategorien unterteilt und werden mit 16 Featurediagrammen dargestellt.rnDie Ergebnisse können technologische Entscheidungsprozesse unterstützen, indem ein Überblick einerseits über die Tools auf dem Markt und andererseits über die neusten Entwicklungen im Bereich des funktionalen, system-level Web Testing bereitgestellt wird.
Das Thema dieser Arbeit ist die Entwicklung einer hardwarebeschleunigten Einzelbildkompression zur Videoübertragung. Verfahren zur Einzelbildkompressionrn existieren bereits seit längerer Zeit. Jedoch genügen die gängigen Verfahren nicht den Anforderungen der Echtzeit und Performanz, um während einer Videoübertragung ohne spürbare Latenz zum Einsatz zu kommen. In dieser Arbeit soll einer der geläufigsten Algorithmen zur Bildkompression auf Parallelisierbarkeit, unter zu Hilfenahme der Grafikkarte, untersucht werden, um Echtzeitfähigkeit während der Kompression und Dekompression von computergenerierten Bildern zu erreichen. Die Ergebnisse werden evaluiert und in den Rahmen aktueller Verfahren parallelisierter Kompressionstechniken eingeordnet.
Die vorliegende Forschungsarbeit beschäftigt sich mit der Positionierung und anbieterinternen Kommunikation der innovativen IT-Architektur SOA. Die zentralen Ziele der vorliegenden explorativen und empirischen Forschungsarbeit, die im Kontext der Innovations-Erfolgsfaktorenforschung angesiedelt ist, bestehen in der Beantwor-tung der beiden folgenden forschungsleitenden Fragestellungen:
Forschungsfrage 1: Welche Bedingungen tragen zu einer erfolgreichen Positionierung von SOA bei? Forschungsfrage 2: Welche Bedingungen tragen zu einer erfolgreichen anbieterinternen Kommunikation bezüglich SOA bei? Zur Überprüfung dieser beiden Forschungsfragen wurde ein zweistufiges Delphi-Verfahren durchgeführt. Hierbei wurde zunächst eine qualitative Befragungswelle (N=53) zur Identifizierung der SOA-Positionierungsbedingungen und anbieterinternen SOA-Kommunikations-bedingungen durchgeführt. Insgesamt wurden in der ersten Befragungswelle 122 SOA-Positionierungsbedingungen identifiziert, die sich in 65 Bedingungen auf Anbieterseite, 35 Bedingungen auf Kundenseite, 19 Bedingungen auf SOA-Seite und 3 Bedingungen aufseiten des weiteren Umfeldes aufteilen. Im Rahmen der anbieterinternen SOA-Kommunikation konnten 31 Bedingungen identifiziert werden. Die in der ersten Welle identifizierten SOA-Positionie-rungsbedingungen und anbieterinternen SOA-Kommunikationsbedingungen wurden mittels der zweiten Befragungswelle (N=83) einer quantitativen Analyse unterzogen. Somit liefert die vorliegende Studie Bedingungen, die sowohl zu einer erfolgreichen SOA-Positionierung als auch zu einer erfolgreichen anbieterinternen SOA-Kommunikation beitragen.
Die Resultate dieser Arbeit werden zusammengefasst und theoretisch eingeordnet. Ebenfalls wird die methodische Vorgehensweise kritisch diskutiert und die Güte der Daten beurteilt. Schließlich wird ein Ausblick auf zukünftige Forschungsfelder gegeben.
Campuszeitung Ausg. 1/2013
(2015)
Uniprisma Ausg. 2010
(2015)
Die UN-Behindertenrechtskonvention von 2008 formuliert einen Rechtsanspruch auf inklusive Bildung für Menschen mit Beeinträchtigungen. Diesem wird in Deutschland seit 2009 durch Schulgesetzänderungen Rechnung getragen, mit denen inklusive Bildung durch ein Elternwahlrecht implementiert wird. Bislang ist vor dem Hintergrund der neu geschaffenen elterlichen Entscheidungsmöglichkeiten noch nicht untersucht worden, welche Vorstellungen Eltern von Kindern mit komplexen Beeinträchtigungen mit dem inklusiven Bildungsanspruch ihres Kindes verbinden und in welcher Weise sie diesen an der Schulform ihrer Wahl eingelöst sehen. Im Zentrum der vorliegenden Arbeit steht die Rekonstruktion des Bildungsangebots aus der Perspektive der Eltern im Abgleich mit der Sicht der pädagogischen Klassenteams. Den Fragen nach den elterlichen Erwartungen und Erfahrungen wurde aus der systemtheoretischen Perspektive von Luhmann nachgegangen. In der qualitativ angelegten Untersuchung geht es um Schülerinnen und Schüler mit komplexen Beeinträchtigungen, die nach der Schulgesetznovellierung in Hamburg (2009) in den Jahren 2010 und 2011 eingeschult worden sind und aufgrund der Entscheidung ihrer Eltern in unterschiedlichen Settings an Grund- und Sonderschulen lernen. Die Datenerhebung erfolgte durch leitfadengestützte Interviews mit Eltern, Pädagoginnen und Pädagogen sowie Schulleitungen, ergänzt durch Hospitationen im Schuljahr 2011/12 und Dokumente, die von den Schulen zur Verfügung gestellt wurden. Die Datenanalyse erfolgt mithilfe der Grounded Theory nach Strauß/Corbin (1996). Die Ergebnisse der Untersuchung zeigen elterliche Bildungserwartungen im Hinblick auf ein Ermöglichen von Autonomie und Teilhabe ihrer Kinder und eine differenzierte Wahrnehmung der Umsetzung ihrer Erwartungen im Schulalltag. Einen besonderen Stellenwert messen Eltern der Zusammenarbeit zwischen Schule und Familie bei, die für das Entstehen von Vertrauen bzw. Misstrauen bedeutsam ist. Aus den Erkenntnissen und deren Rückbindung an die Systemtheorie wurde ein Modell des Professionsvertrauens/-misstrauens entwickelt.
Die Auswertung ergibt Hinweise zu Qualitätskriterien eines inklusiven Bildungsangebots und zu Entwicklungsanforderungen in der Professionalisierung, die sowohl auf die Ebene der Organisation Schule als auch der Interaktion zwischen schulischen Akteurinnen und Akteuren sowie Eltern abzielen.
Uniprisma Ausg. 2008
(2015)
In der Forschung der autonomen mobilen Roboter ist besonders die Pfadplanung immer noch ein sehr aktuelles Thema.
Diese Masterabeit befasst sich mit verschiedenen Pfadplanungsalgorithmen zur Navigation solcher mobilen Systeme. Hierbei ist nicht nur eine kollisionsfreie Trajektorie von einem Punkt zu einem anderen zu ermitteln, sondern sollte diese auch noch möglichst optimal sein und alle Fahrzeug-gegebenen Einschränkungen einhalten. Besonders die autonome Fahrt in unbekannter dynamischer Umgebung stellt eine große Herausforderung dar, da hier eine geschlossene Regelung notwendig ist und dem Planer somit eine gewisse Dynamik abverlangt wird.
In dieser Arbeit werden zwei Arten von Algorithmen vorgestellt. Zum einen die Pfadplaner, welche auf dem A* aufbauen, der im eigentlichen Sinne ein Graphsuchalgorithmus ist: A*, Anytime Repairing A*, Lifelong Planning A*, D* Lite, Field D*, hybrid A*. Zum anderen die Algorithmen, welche auf dem probabilistischen Planungsalgorithmus Rapidly-exploring Random Tree basieren (RRT, RRT*, Lifelong Planning RRT*), sowie einige Erweiterungen und Heuristiken. Außerdem werden Methoden zur Kollisionsvermeidung und Pfadglättung vorgestellt. Abschließend findet eine Evaluation der verschiedenen Algorithmen statt.
Der seit Jahren anhaltende Hype um das mobile Internet und der damit verbundenen Technologie der mobilen Anwendungsprogramme scheint nicht abzureißen. Das enorme ökonomische Potential dieses Markts treibt die Wirtschaft stetig zu neuen Ideen der Monetarisierung. Die Ursachen dieses Phänomens werden jedoch selten hinterfragt. Auch hat die wissenschaftliche Forschung auf dem Gebiet des "Mobilseins" bisher kein einheitliches Bild über die Ursachen und Wirkungsketten entwickelt. Versuche des Ableitens von Zusammenhängen durch Studien an artverwandten Medien, wie z.B. dem Computer oder dem stationären Internet, werden kontrovers diskutiert. Durch eine Verknüpfung der Forschungsströme der Mediennutzungsmotive und der Kundenbindung wird die Arbeit ein neues Untersuchungsmodell vorstellen. Anhand der Ergebnisse einer durchgeführten, quantitativen Datenerhebung wird gezeigt, dass die Motive nach Mobilität, nach Beschaffung von Informationen und nach Unterhaltung die bedeutsamsten Treiber von Kundenzufriedenheit bei mobilen Applikationen darstellen. Auch wird gezeigt, dass zwischen der Kundenzufriedenheit und den weiteren Determinanten der Kundenbindung eine signifikante Korrelation besteht.
Uniprisma Ausg. 2007
(2015)
Campuszeitung Ausg. 1/2014
(2015)
In the new epoch of Anthropocene, global freshwater resources are experiencing extensive degradation from a multitude of stressors. Consequently, freshwater ecosystems are threatened by a considerable loss of biodiversity as well as substantial decrease in adequate and secured freshwater supply for human usage, not only on local scales, but also on regional to global scales. Large scale assessments of human and ecological impacts of freshwater degradation enable an integrated freshwater management as well as complement small scale approaches. Geographic information systems (GIS) and spatial statistics (SS) have shown considerable potential in ecological and ecotoxicological research to quantify stressor impacts on humans and ecological entitles, and disentangle the relationships between drivers and ecological entities on large scales through an integrated spatial-ecological approach. However, integration of GIS and SS with ecological and ecotoxicological models are scarce and hence the large scale spatial picture of the extent and magnitude of freshwater stressors as well as their human and ecological impacts is still opaque. This Ph.D. thesis contributes novel GIS and SS tools as well as adapts and advances available spatial models and integrates them with ecological models to enable large scale human and ecological impacts identification from freshwater degradation. The main aim was to identify and quantify the effects of stressors, i.e climate change and trace metals, on the freshwater assemblage structure and trait composition, and human health, respectively, on large scales, i.e. European and Asian freshwater networks. The thesis starts with an introduction to the conceptual framework and objectives (chapter 1). It proceeds with outlining two novel open-source algorithms for quantification of the magnitude and effects of catchment scale stressors (chapter 2). The algorithms, i.e. jointly called ATRIC, automatically select an accumulation threshold for stream network extraction from digital elevation models (DEM) by assuring the highest concordance between DEM-derived and traditionally mapped stream networks. Moreover, they delineate catchments and upstream riparian corridors for given stream sampling points after snapping them to the DEM-derived stream network. ATRIC showed similar or better performance than the available comparable algorithms, and is capable of processing large scale datasets. It enables an integrated and transboundary management of freshwater resources by quantifying the magnitude of effects of catchment scale stressors. Spatially shifting temporal points (SSTP), outlined in chapter 3, estimates pooled within-time series (PTS) variograms by spatializing temporal data points and shifting them. Data were pooled by ensuring consistency of spatial structure and temporal stationarity within a time series, while pooling sufficient number of data points and increasing data density for a reliable variogram estimation. SSTP estimated PTS variograms showed higher precision than the available method. The method enables regional scale stressors quantification by filling spatial data gaps integrating temporal information in data scarce regions. In chapter 4, responses of the assumed climate-associated traits from six grouping features to 35 bioclimatic indices for five insect orders were compared, their potential for changing distribution pattern under future climate change was evaluated and the most influential climatic aspects were identified (chapter 4). Traits of temperature preference grouping feature and the insect order Ephemeroptera exhibited the strongest response to climate as well as the highest potential for changing distribution pattern, while seasonal radiation and moisture were the most influential climatic aspects that may drive a change in insect distribution pattern. The results contribute to the trait based freshwater monitoring and change prediction. In chapter 5, the concentrations of 10 trace metals in the drinking water sources were predicted and were compared with guideline values. In more than 53% of the total area of Pakistan, inhabited by more than 74 million people, the drinking water was predicted to be at risk from multiple trace metal contamination. The results inform freshwater management by identifying potential hot spots. The last chapter (6) synthesizes the results and provides a comprehensive discussion on the four studies and on their relevance for freshwater resources conservation and management.
Protest & Gerechtigkeit - Thema in Forschung und Lehre am Campus Landau
Erwachsenenbildung: Die Herausforderung einer modernen Weiterbildung
Hospizarbeit: Neuer Qualitätsindex startklar für die Praxis
Unzufrieden im Job? Wie positive Psychologie helfen kann
Psychotherapie: Neue Kinder- und Jugendambulanz
Die Mitralklappe ist eine der vier Herzklappen des Menschen und in der linken Herzkammer zu finden. Ihre Funktion ist es, den Blutfluss vom linken Atrium zum linken Ventrikel zu regeln. Pathologien können zu eingeschränker Funktionalität der Klappe führen, sodass Blut zurück ins Atrium fließen kann. Patienten, die von einer Fehlfunktion betroffen sind, leiden möglicherweise an Erschöpfung und Schmerzen in der Brust. Die Funktionalität kann chirurgisch wiederhergestellt werden, was meist ein langer und anstrengender Eingriff ist. Eine gründliche Planung ist daher nötig, um eine sichere und effektive Operation zu garantieren. Dies kann durch prä-operative Segmentierungen der Mitralklappe unterstützt werden. Eine post-operative Analyse kann den Erfolg eines Eingriffs feststellen. Diese Arbeit wird bestehende und neue Ideen zu einem neuen Ansatz kombinieren, der zur (semi-)automatischen Erstellung solcher Mitralmodelle dienen kann. Der manuelle Anteil garantiert ein Modell hoher Qualität, während der automatische Teil dazu beiträgt, wertvolle Arbeitszeit zu sparen.
Die Hauptbeiträge des automatischen Algorithmus sind eine ungefähre semantische Trennung der beiden Mitralsegel und ein Optimierungsprozess, der in der Lage ist, eine Koaptations-Linie und -Fläche zwischen den Segeln zu finden. Die Methode kann eine vollautomatische Segmentierung der Mitralsegel durchführen, wenn der Annulusring bereits gegeben ist. Die Zwischenschritte dieses Vorgangs werden in eine manuelle Segmentierungsmethode integriert, so dass ein Benutzer den Gesamtprozess beeinflussen kann. Die Qualität der generierten Mitralmodelle wird durch das Vergleichen mit vollständig manuell erstellten Modellen gemessen. Dies wird zeigen, dass übliche Methoden zur Bestimmung der Qualität einer Segmentierung zu allgemein gefasst sind und nicht ausreichen, um die echte Qualität eines Modells widerspiegeln zu können. Folglich führt diese Arbeit Messungen ein, die in der Lage sind, eine Segmentierung der Mitralklappe detailliert und unter Betracht anatomischer Landmarken bewerten zu können. Neben der intra-operativen Unterstützung eines Chirurgen liefert eine segmentierte Mitralklappe weitere Vorteile. Die Möglichkeit, die Anatomie einer Klappe patientenspezifisch aufzunehmen und objektiv zu bewerten, könnte als Grundlage für zukünftige medizinische Forschung in diesem Bereich dienen. Die Automatisierung erlaubt dabei das Bearbeiten großer Datenmengen mit reduzierter Abhängigkeit von Experten. Desweiteren könnten Simulationsmethoden, welche ein segmentiertes Modell als Eingabe nutzen, das Ergebnis einer Operation vorhersagen.
Factors triggering the ecotoxicity of metal-based nanoparticles towards aquatic invertebrates
(2015)
Heutzutage werden Nanopartikel in großem Maßstab produziert, weshalb deren Eintrag in Oberflächengewässer immer wahrscheinlicher wird. Dort angelangt unterliegen sie verschiedenen umweltbedingten (Oberflächen-)Modifikationen, die in letzter Konsequenz eine Vielfalt von Nanopartikel-Agglomeraten unterschiedlicher Größe hervorbringen. Direkt davon betroffen sind aquatische Lebewesen, die einer entsprechenden Nanopartikelexposition in der Wasserphase ausgesetzt sind.
Nach Sedimentation der Agglomerate können aber ebenfalls benthische Organismen betroffen sein. Bisherige ökotoxikologische Untersuchungen haben solche umweltbedingten Einflüsse außer Acht gelassen und viel mehr nanopartikel-spezifische Charakteristika auf deren Wirkweise gegenüber pelagischen Vertretern untersucht. Aus diesem Grund ist eine systematische Untersuchung derer Faktoren von Nöten, die den Verbleib und das Verhalten aber auch die Toxizität von Nanopartikeln in der Umwelt maßgeblich beeinflussen. Die kumulative Arbeit dieser Dissertation macht sich dies zum Ziel und hinterfragt entsprechende Faktoren die einerseits durch Nanopartikel assoziierte Aspekte (definiert als i) inhärente Stoffeigenschaft des untersuchten Materials und ii) Nanopartikel Charakteristika)) und andererseits durch Umweltbedingungen in Oberflächengewässern geprägt sind. In diesem Kontext wurden verschiedene ökotoxikologische Untersuchungen mit inerten Titandioxid Nanopartikeln (nTiO2) und Ionen freisetzenden Silber Nanopartikeln (nAg) unter Berücksichtigung verschiedener Nanopartikel Charakteristika (z.B. initiale Partikelgröße, Oberflächengröße) und Umweltbedingungen (z.B. Ionenstärke, ultraviolettes Licht (UV-Licht)), durchgeführt.
Als Testorganismen dienten dazu die pelagischen bzw. benthischen Vertreter Daphnia magna und Gammarus fossarum. Die Ergebnisse deuten daraufhin, dass die Toxizität von nTiO2 und nAg gegenüber Daphnien maßgeblich durch das Adsorptionspotential (im Bezug auf das Anhaften der Partikel an die Organismenoberfläche) und das Umweltverhalten (Freisetzung von radikalen Sauerstoffspezies oder Metallionen) der Nanopartikel bestimmt wird.
Darüber hinaus wurde die Nanopartikeltoxizität von jenen inhärenten Stoffeigenschaften, Nanopartikelcharakteritika und Umweltbedingungen am meisten beeinflusst, welche die zuvor genannten Aspekte entweder verstärken oder abschwächen. Hierfür beispielhaft ist der toxizitätsverstärkende Effekt von UV-Licht auf nTiO2 in Experimenten mit Gammarus: Während eine Exposition der Organismen in absoluter Dunkelheit selbst bei 5,00 mg nTiO2/L keine Effekt hervorrief, kam es in der Anwesenheit von UV-Licht schon bei 0,20 mg nTiO2/L zu schwerwiegenden Effekten auf sublethaler und lethaler Ebene.
Unter Berücksichtigung der Ergebnisse dieser Dissertation sowie bisherige Erkenntnisse der Wissenschaft im Allgemeinen, ist die derzeitige Risikoeinschätzung von Nanopartikeln möglicherweise unprotektiv, sofern eine Interaktion von Nanopartikeln und Umwelteinflüssen unberücksichtigt bleibt
The formulation of the decoding problem for linear block codes as an integer program (IP) with a rather tight linear programming (LP) relaxation has made a central part of channel coding accessible for the theory and methods of mathematical optimization, especially integer programming, polyhedral combinatorics and also algorithmic graph theory, since the important class of turbo codes exhibits an inherent graphical structure. We present several novel models, algorithms and theoretical results for error-correction decoding based on mathematical optimization. Our contribution includes a partly combinatorial LP decoder for turbo codes, a fast branch-and-cut algorithm for maximum-likelihood (ML) decoding of arbitrary binary linear codes, a theoretical analysis of the LP decoder's performance for 3-dimensional turbo codes, compact IP models for various heuristic algorithms as well as ML decoding in combination with higher-order modulation, and, finally, first steps towards an implementation of the LP decoder in specialized hardware. The scientific contributions are presented in the form of seven revised reprints of papers that appeared in peer-reviewed international journals or conference proceedings. They are accompanied by an extensive introductory part that reviews the basics of mathematical optimization, coding theory, and the previous results on LP decoding that we rely on afterwards.
Diese Arbeit betrachtet das Thema Führung und Gesundheit und hat hierzu verschiedene Erkenntnisse der Literatur zusammengefasst, um diese von Führungskräften aus Wirtschaft und Polizei sowie von Personal- und Organisationsentwicklern bewerten zu lassen. Das Ziel war hierbei herauszufinden, ob die Führungskräfte und die Personal- und Organisationsentwickler das Thema als wichtig erachten, welche Hauptursachen sie für Fehlzeiten sehen und wie sie verschiedene Erkenntnisse der Literatur zum Gesundheitsmanagement einschätzen. Zusätzlich sollten sie bewerten, welche Maßnahmen sie als geeignet betrachten und welche Ressourcen notwendig sind, um die Mitarbeiter bei der Gesunderhaltung zu unterstützen. Schließlich sollten die Führungskräfte und die Personal- und Organisationsentwickler beurteilen, welcher Führungsstil als gesundheitsförderlich angesehen wird. Die Wirtschafts- und Polizeiführungskräfte sowie die Personal- und Organisationsentwickler erachten das Thema Gesundheit als wichtig und sehen es nicht nur als Modetrend an. Ihre Einschätzungen zu geeigneten Maßnahmen, die die Gesundheit der Mitarbeiter verbessern können, entsprechen überwiegend den aus der Literatur abgeleiteten Vorschlägen zur gesundheitsgerechten Führung. Die weitgehende Übereinstimmung der Sichtweisen in Forschung und Praxis legt nahe, dass die Erkenntnisse der Literatur zum Gesundheitsmanagement vermutlich von Praktikern als plausibel wahrgenommen werden.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer interaktiven Applikation unter Android, welche das Spielen eines Kartenspiels ermöglicht. Exemplarisch wurde das hebräische Spiel Yaniv implementiert. Schwerpunkt ist die Herausarbeitung benötigter Hintergrundkomponenten und die dazugehörige Umsetzung in jener Applikation. Benötigte Spielprozesse werden durchleuchtet und eine mögliche Lösungsvariante aufgezeigt.
Geographisches Cluster-basiertes Routing ist ein aktueller Ansatz, wenn es um das Entwicklen von effizienten Routingalgorithmen für drahtlose ad-hoc Netzwerke geht. Es gibt bereits eine Anzahl an Algorithmen, die Nachrichten nur auf Basis von Positionsinformationen durch ein drahtloses ad-hoc Netzwerk routen können. Darunter befinden sich sowohl Algorithmen, die auf das klassische Beaconing setzen, als auch Algorithmen, die beaconlos arbeiten (keine Informationen über die Umgebung werden benötigt, außer der eigenen Position und der Position des Ziels). Geographisches Routing mit Auslieferungsgarantie kann auch auf Overlay-Graphen durchgeführt werden. Bisher werden die dafür benötigten Overlay-Graphen nicht reaktiv konstruiert.
In dieser Arbeit wird ein reaktiver Algorithmus, der Beaconless Cluster Based Planarization Algorithmus (BCBP), für die Konstruktion eines planaren Overlay-Graphen vorgestellt, der die benötigte Anzahl an Nachrichten für die Konstruktion eines planaren Overlay-Graphen, und demzufolge auch Cluster-basiertes geographishes Routing, deutlich reduziert. Basierend auf einem Algorithmus für Cluster-basierte Planarisierung, konstruiert er beaconlos einen planaren Overlay-Graphen in einem unit disk graph (UDG). Ein UDG ist ein Modell für ein drahtloses Netzwerk, bei dem alle Teilnehmer den gleichen Senderadius haben.
Die Evaluierung des Algorithmus zeigt, dass er wesentlich effizienter ist als die Baecon-basierte Variante. Ein weiteres Ergebnis dieser Arbeit ist ein weiterer beaconloser Algorithmus (Beaconless LLRAP (BLLRAP)), für\r\nden zwar die Planarität, aber nicht die Konnektivität nachgewiesen werden konnte.
Ein grundlegendes Verständnis der Anlagerung von künstlich hergestellten Nanopartikeln ist für die Prognose des Schicksals und Transports von Nanopartikeln in der Umwelt unerlässlich.
In dieser Arbeit wurde die Anlagerung von unbedeckten und mit Citrat bedeckten Silbernanopartikeln an unterschiedliche Modell- und Umweltoberflächen in An- und Abwesenheit der Huminsäure untersucht.
Für diese Untersuchungen wurden Sorptionsexperimente durchgeführt. Das Ziel dieser Arbeit ist es zu untersuchen, wie die Silbernanopartikel mit Oberflächen wechselwirken, die verschiedene chemische funktionelle Gruppen besitzen. Dabei wurde ebenfalls der Effekt der Huminsäure auf die Wechselwirkungen zwischen Partikel und Oberfläche untersucht. Die Wechselwirkungen zwischen Nanopartikel und Oberfläche sind in Abwesenheit der Huminsäure wahrscheinlich durch die chemische Natur der wechselwirkenden Oberflächen beeinflusst. In Anwesenheit der Huminsäure wurde diese chemische Sensitivität gegen Anlagerung von Nanopartikeln nicht beobachtet und die Sorption war durch die spezifische Oberfläche von Sorbentien beeinflusst. Die Sorptionsisothermen wurden für die Sorption von Silbernanopartikeln an allen Oberflächen in Abwesenheit der Huminsäure durch Langmuir-Modell beschrieben. Das deutete auf Monoschicht-Sorption der Nanopartikel an Oberflächen hin. Das kann durch den bei der Partikel-Partikel-Abstoßung generierten blockierenden Effekt erklärt werden. In Anwesenheit der Huminsäure zeigten alle Sorptionsisothermen ein lineares Verhalten. Wenn die Huminsäure im Wechselwirkungsmedium vorhanden war, waren die Nanopartikel und Oberflächen mit Huminsäure bedeckt. Dadurch wird die chemische Funktionalität von Oberflächen maskiert. Das führt zu den Unterschieden zwischen Partikel-Oberfläche-Wechselwirkungen in An- und Abwesenheit der Huminsäure. Die mit Citrat und Huminsäure bedeckten Silbernanopartikel zeigten eine Abnahme der Sorption an Oberflächen im Vergleich zu unbedeckten Silbernanopartikeln. Im Falle der mit Citrat bedeckten Silbernanopartikel kann die Abnahme der Sorption durch elektrostatische Kräfte erklärt werden, da diese Partikel ein mehr negatives Zetapotential zeigten. Die Sorptionsabnahme für die mit Huminsäure bedeckten Nanopartikel ist offensichtlich eine Folge der sterischen Behinderung, da es auf Grund der Sorption der Huminsäure an Oberflächen zur Konkurrenz zwischen Nanopartikeln und Huminsäuremolekülen für die Sorptionsplätze kommt. Durch die chemischen Eigenschaften der Nanopartikeloberfläche wird die Effizienz der Anlagerung an Oberflächen beeinflusst. Deswegen ist die Charakterisierung der Nanopartikeloberfläche ein wichtiger Schritt bei der Untersuchung des Schicksals von Nanopartikeln in der Umwelt.
Ein anderes Ziel dieser Arbeit ist es das Potential der chemischen Kraftmikroskopie für die Charakterisierung von Nanopartikeloberflächen mit chemischer Sensitivität zu zeigen. Durch die Anwendung dieser Methode war es möglich zwischen unbedeckten, mit Citrat und Huminsäure bedeckten Silbernanopartikeln zu unterscheiden. Das wurde durch die Messung der Adhäsionskräfte zwischen Nanopartikeln und fünf verschiedenen Atomkraftmikroskope-Spitzen mit unterschiedlichen chemischen Funktionalisierungen ermöglicht.
The intention of this thesis was to characterise the effect of naturally occurring multivalent cations like Calcium and Aluminium on the structure of Soil Organic Matter (SOM) as well as on the sorption behaviour of SOM for heavy metals such as lead.
The first part of this thesis describes the results of experiments in which the Al and Ca cation content was changed for various samples originated from soils and peats of different regions in Germany. The second part focusses on SOM-metal cation precipitates to study rigidity in dependence of the cation content. In the third part the effects of various cation contents in SOM on the binding strength of Pb cations were characterised by using a cation exchange resin as desorption method.
It was found for soil and peat samples as well as precipitates that matrix rigidity was affected by both type and content of cation. The influence of Ca on rigidity was less pronounced than the influence of Al and of Pb used in the precipitation experiments. For each sample one cation content was identified where matrix rigidity was most pronounced. This specific cation content is below the cation saturation as expected by cation exchange capacity. These findings resulted in a model describing the relation between cation type, content and the degree of networking in SOM. For all treated soil and precipitate samples a step transition like glass transition was observed, determined by the step transition temperature T*. It is known from literature that this type of step transition is due to bridges between water molecules and organic functional groups in SOM. In contrast to the glass transition temperature this thermal event is slowly reversing after days or weeks depending on the re-conformation of the water molecules. Therefore, changes of T* with different cation compositions in the samples are explained by the formation of water-molecule-cation bridges between SOM-functional groups. No influence on desorption kinetics of lead for different cation compositions in soil samples was observed. Therefore it can be assumed that the observed changes of matrix rigidity are highly reversible by changing the water status, pH or putting agitation energy by shaking in there.
Diese Masterarbeit behandelt den Themenbereich des interkulturellen Webdesigns im Internet. Dabei werden exemplarisch zwei an dieselbe Zielgruppe gerichtete Webseiten aus verschiedenen Ländern miteinander verglichen. Anhand von Kulturdimensionen werden kulturelle Unterschiede auf der jeweiligen Webseite aufgezeigt. Bei der Internetseiten-Analyse wird insbesondere auf die Frage eingegangen, wie ausführlich sich die jeweiligen Webseitengestalter und -betreiber Gedanken über kulturelle Unterschiede ihrer Nutzer/-innen und die Erzeugung eines entsprechenden interkulturellen Webdesigns gemacht haben. Die Analyse zeigt auf, auf welche kulturellen und insbesondere interkulturellen Aspekte der Länder bei der Webseitengestaltung Rücksicht genommen wird. Da hierbei im Rahmen der durchgeführten Untersuchung festgestellt wurde, dass die Umsetzung des interkulturellen Webdesigns nicht konsequent in der Gesamtheit der Webseite erfolgt, werden konkrete Vorschläge zu möglichen Verbesserungen aufgezeigt.