Filtern
Erscheinungsjahr
- 2015 (106) (entfernen)
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (34)
- Dissertation (33)
- Bachelorarbeit (19)
- Masterarbeit (18)
- Konferenzveröffentlichung (1)
- Vorlesung (1)
Schlagworte
- Vorlesungsverzeichnis (4)
- OpenGL (3)
- Android (2)
- Compute Shader (2)
- Crowdsourcing (2)
- Eyetracking (2)
- Führung (2)
- Grafikkarte (2)
- Serviceorientierte Architektur (2)
- 360 Grad (1)
- 360 degree (1)
- API analysis (1)
- API-Analyse (1)
- AUTOSAR (1)
- Abfluss (1)
- Adaptation (1)
- Adhäsion (1)
- Amazon Mechanical Turks (1)
- Amazonia (1)
- Amazonien (1)
- Android development (1)
- Androidentwicklung (1)
- Animation (1)
- Anpassung (1)
- Anreiz (1)
- Applikation (1)
- Arbeitsmotivation (1)
- Arbeitszufriedenheit (1)
- Architektur <Informatik> (1)
- Augmented Reality (1)
- Ausrichtungswerkzeug (1)
- Austenitischer Stahl (1)
- Automotive Systems (1)
- Bakterien (1)
- Befahrbarkeit (1)
- Beregnung (1)
- Bildverstehen (1)
- Biofilm (1)
- Biofouling (1)
- Bioreaktor (1)
- Blickpunktabhängig (1)
- Bodenerosion (1)
- C++ (1)
- Chromatographie (1)
- Codierungstheorie (1)
- Communication Networks (1)
- Computer Graphics (1)
- Computergrafik (1)
- Computergraphik (1)
- Computervisualistik (1)
- Constitutive Model (1)
- Decodierung (1)
- Delphi (1)
- Design Thinking (1)
- Developer profiling (1)
- Diagnosekriterien (1)
- Dialog (1)
- Diffusion (1)
- Dimension 3 (1)
- Dokumentation (1)
- Driver Assistance Systems (1)
- Echtzeitsysteme (1)
- Eltern (1)
- Enterprise 2.0 (1)
- Entropia Universe (1)
- Entwickler Profil (1)
- Entwicklung (1)
- Epifluoreszenzmikroskopie (1)
- Erleben (1)
- Erwartung (1)
- Eulerian grid (1)
- Fahrerassistenzsystem (1)
- Fahrerassistenzsysteme (1)
- Fahrzeug (1)
- Feature Modeling (1)
- Feldsaum (1)
- Fließgewässer (1)
- Folgenanreize (1)
- Folie (1)
- Forsterschließung (1)
- Forstwirtschaft (1)
- Französischunterricht (1)
- Fremdsprachenunterricht (1)
- Fähigkeitsselbstkonzept (1)
- Führungstheorie (1)
- GMI-Controlling (1)
- GPGPU (1)
- Gegenstandsanreize (1)
- Gelände (1)
- Geschäftsmodellinnovation (1)
- Gesteninterpretation (1)
- Gesundheit (1)
- Grafik (1)
- Grafikprogrammierung (1)
- Graphicsprogramming (1)
- Graphik (1)
- Herausforderung (1)
- Herbizid (1)
- Hindernis (1)
- Hydrodynamik (1)
- ICP-MS (1)
- Image Processing (1)
- Image Understanding (1)
- Information Asset Register (1)
- Information Audit (1)
- Information Capturing Methods (1)
- Informationstheorie (1)
- Inklusion (1)
- Innovation (1)
- Insecticide (1)
- Insektizid (1)
- Internationale Organisationen (1)
- Kanalcodierung (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Klassifikation (1)
- Kollisionserkennung (1)
- Kolloid (1)
- Kommunikation (1)
- Komplexe Beeinträchtigungen (1)
- Kryptographie (1)
- Kunststoff (1)
- Laser (1)
- Leap-Motion (1)
- Lebenslanges Lernen (1)
- Leistungsmotivation (1)
- Lernen (1)
- Makrophyten (1)
- Mass-Spektrometrie (1)
- Material Point Method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Mathematik (1)
- Medien (1)
- Medienpsychologie (1)
- Mezzanine-Finanzierung (1)
- Mikroskopie (1)
- Mining Software Repositories (1)
- Mitral Valve (1)
- Mitralklappe (1)
- Mittelstand (1)
- Mixed Methods (1)
- Modellierung (1)
- Motivation (1)
- Nachtfalter (1)
- Nachtschmetterlinge (1)
- Nanopartikel (1)
- Narrativität (1)
- Natürliches organisches Material (1)
- Nvidia CUDA (1)
- OpenGL Shading Language (1)
- Optimierung (1)
- Organisationsentwicklung (1)
- Osteocephalus (1)
- Par (1)
- Partikel (1)
- Partikelsystem (1)
- Pattern Recognition (1)
- Personalentwicklung (1)
- Polymere (1)
- Positionierung (1)
- Programmierung (1)
- Psychologie (1)
- Raman-Spektroskopie (1)
- Raupe (1)
- Ray Tracer (1)
- Reflections (1)
- Reflektionen (1)
- Rendering (1)
- Reverse Engineering (1)
- Roboter (1)
- RuneScape (1)
- SOA (1)
- SOK-Modell (1)
- Schadstoffbelastung (1)
- Schadstoffkonzentration (1)
- Schule (1)
- Schwermetalle (1)
- Second Life (1)
- Segmentation (1)
- Segmentierung (1)
- Selbstbeschädigung (1)
- Selbstregulation (1)
- Selbstwert (1)
- Service Oriented Architecture (1)
- Shader (1)
- Simulation (1)
- Software (1)
- Software Engineering (1)
- Softwarearchitektur (1)
- Softwaretest (1)
- Spaß (1)
- Specular (1)
- Spektroskopie (1)
- Starrkörper (1)
- Straßenzustand (1)
- Studienanfänger (1)
- Studienleistung (1)
- Survey Research (1)
- Systematics (1)
- Systematik (1)
- TRIZ (1)
- Taxonomie (1)
- Taxonomy (1)
- Testen (1)
- Titandioxid-Nanopartikeln (1)
- Toxizität (1)
- Tracking (1)
- Transition (1)
- Tätigkeitsanreize (1)
- Ultraschall (1)
- Ultrasound (1)
- Umwelt (1)
- Unterhaltung (1)
- Untersuchung (1)
- Virtuelle Welten (1)
- Virtuelle Ökonomien (1)
- Volumen (1)
- WEB (1)
- Wahrscheinlichkeitsrechnung (1)
- Wegebau (1)
- Weltkultur (1)
- Wirtschaft (1)
- Wissensrepräsentation (1)
- Word-of-Mouth (1)
- World of Warcraft (1)
- Wärme (1)
- Zoologie (1)
- Zoology (1)
- adhesion (1)
- bacteria (1)
- biofilm (1)
- biomass (1)
- bioreactor (1)
- cation-bridges (CaB) (1)
- chemical force microscopy (1)
- chemical risk assessment (1)
- colloid (1)
- computer games (1)
- cross-linking (1)
- cultural landscape (1)
- decomposition (1)
- dialogische Führung (1)
- dialogische Kommunikation (1)
- dialogisches Management (1)
- diffusion (1)
- disturbance (1)
- e-Commerce (1)
- ecotoxicology (1)
- environmental surfaces (1)
- eye tracking (1)
- flow (1)
- forest roads (1)
- freshwater organisms (1)
- functional web testing tools (1)
- general purpose (1)
- gesundheitsgerechtes Führen (1)
- glass transition (1)
- grade (1)
- graphics card (1)
- heat exchanger (1)
- humanistische Psychologie (1)
- humic acid (1)
- hydrodynamic chromatography (1)
- hydrodynamische Chromatographie (1)
- inclusive education (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- invertebrates (1)
- land use (1)
- lead desorption (1)
- lifelong learning (1)
- mentale Repräsentation (1)
- methane (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- nanoparticle (1)
- natural organic matter (1)
- nature conservation (1)
- nichtsuizidale Selbstverletzung (1)
- nternational organizations (1)
- parents (1)
- plants (1)
- polymer films (1)
- rainfall simulation (1)
- ray casting (1)
- raycasting (1)
- rigid body (1)
- runoff (1)
- school (1)
- school tier (1)
- silver nanoparticles (1)
- soil erosion (1)
- soil organic matter (1)
- sorption (1)
- special educational needs (1)
- stainless steel (1)
- streams (1)
- surface energy (1)
- surface roughness (1)
- task orientation (1)
- text-picture integration (1)
- traits (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- water-molecule-bridges (WaMB) (1)
- world polity (1)
- Übergang von der Grundschule zur weiterführenden Schule (1)
Institut
Factors triggering the ecotoxicity of metal-based nanoparticles towards aquatic invertebrates
(2015)
Heutzutage werden Nanopartikel in großem Maßstab produziert, weshalb deren Eintrag in Oberflächengewässer immer wahrscheinlicher wird. Dort angelangt unterliegen sie verschiedenen umweltbedingten (Oberflächen-)Modifikationen, die in letzter Konsequenz eine Vielfalt von Nanopartikel-Agglomeraten unterschiedlicher Größe hervorbringen. Direkt davon betroffen sind aquatische Lebewesen, die einer entsprechenden Nanopartikelexposition in der Wasserphase ausgesetzt sind.
Nach Sedimentation der Agglomerate können aber ebenfalls benthische Organismen betroffen sein. Bisherige ökotoxikologische Untersuchungen haben solche umweltbedingten Einflüsse außer Acht gelassen und viel mehr nanopartikel-spezifische Charakteristika auf deren Wirkweise gegenüber pelagischen Vertretern untersucht. Aus diesem Grund ist eine systematische Untersuchung derer Faktoren von Nöten, die den Verbleib und das Verhalten aber auch die Toxizität von Nanopartikeln in der Umwelt maßgeblich beeinflussen. Die kumulative Arbeit dieser Dissertation macht sich dies zum Ziel und hinterfragt entsprechende Faktoren die einerseits durch Nanopartikel assoziierte Aspekte (definiert als i) inhärente Stoffeigenschaft des untersuchten Materials und ii) Nanopartikel Charakteristika)) und andererseits durch Umweltbedingungen in Oberflächengewässern geprägt sind. In diesem Kontext wurden verschiedene ökotoxikologische Untersuchungen mit inerten Titandioxid Nanopartikeln (nTiO2) und Ionen freisetzenden Silber Nanopartikeln (nAg) unter Berücksichtigung verschiedener Nanopartikel Charakteristika (z.B. initiale Partikelgröße, Oberflächengröße) und Umweltbedingungen (z.B. Ionenstärke, ultraviolettes Licht (UV-Licht)), durchgeführt.
Als Testorganismen dienten dazu die pelagischen bzw. benthischen Vertreter Daphnia magna und Gammarus fossarum. Die Ergebnisse deuten daraufhin, dass die Toxizität von nTiO2 und nAg gegenüber Daphnien maßgeblich durch das Adsorptionspotential (im Bezug auf das Anhaften der Partikel an die Organismenoberfläche) und das Umweltverhalten (Freisetzung von radikalen Sauerstoffspezies oder Metallionen) der Nanopartikel bestimmt wird.
Darüber hinaus wurde die Nanopartikeltoxizität von jenen inhärenten Stoffeigenschaften, Nanopartikelcharakteritika und Umweltbedingungen am meisten beeinflusst, welche die zuvor genannten Aspekte entweder verstärken oder abschwächen. Hierfür beispielhaft ist der toxizitätsverstärkende Effekt von UV-Licht auf nTiO2 in Experimenten mit Gammarus: Während eine Exposition der Organismen in absoluter Dunkelheit selbst bei 5,00 mg nTiO2/L keine Effekt hervorrief, kam es in der Anwesenheit von UV-Licht schon bei 0,20 mg nTiO2/L zu schwerwiegenden Effekten auf sublethaler und lethaler Ebene.
Unter Berücksichtigung der Ergebnisse dieser Dissertation sowie bisherige Erkenntnisse der Wissenschaft im Allgemeinen, ist die derzeitige Risikoeinschätzung von Nanopartikeln möglicherweise unprotektiv, sofern eine Interaktion von Nanopartikeln und Umwelteinflüssen unberücksichtigt bleibt
Massenprozessmanagement
(2015)
Vorliegende Dissertation beantwortet die Forschungsfrage, welche grundlegend geeigneten Vorgehensweisen und notwendigen Informationstechnologien für das Management von hohen Anzahlen an Geschäftsprozessen (Mass Process Management, MBPM) in Dienstleistungsun-ternehmen zu berücksichtigen sind. Es konnte gezeigt werden, dass zur Bearbeitung von Massenprozessen eine spezielle, Methoden aus der Fertigungsindustrie verwendende Vorgehensweise notwendig ist. Das Forschungsziel, die Entwicklung einer MBPM-Vorgehensweise für Dienstleistungsunternehmen, wurde unter Anwendung des Forschungsansatzes Design Science Research erreicht und wird in der Dissertation in aufeinander aufbauenden Schritten erläutert. Zur Entwicklung der MBPM-Vorgehensweise wurde eine Langzeit-Tiefenfallstudie bei einem Prozess-Outsourcing-Dienstleister erstellt, um aus dessen Vorgehen Erkenntnisse zu gewinnen. Outsourcing-Unternehmen müssen ihre Dienstleistungen (Produkte) besonders effizient und effektiv erstellen, da sie sonst ihre Produkte nicht zu attraktiven Konditionen anbieten können. Es hat sich gezeigt, dass die fabrikorientierte Vorgehensweise des Outsourcing-Dienstleisters über den Betrachtungszeitraum von zehn Jahren dazu geeignet war, hohe Prozessmengen in höchster Qualität, zu stets sinkenden Preisen mit immer weniger Personen zu bearbeiten.
Der vermutete Forschungsbedarf in Bezug auf MBPM konnte auf Basis einer intensiven Literaturrecherche über das Zeitschriftenrating VHB-JOURQUAL und weitere Literaturquellen bestätigt werden. Da Vorgehensweisen für die Einführung von BPM in einer Vielzahl gefunden wurden, wurde eine Auswahl an BPM-Vorgehensweisen analysiert, um weitere Erkenntnisse für die Erstellung der MBPM-Vorgehensweise zu gewinnen. Durch die Analyse und den Vergleich der verschiedenen BPM-Vorgehensweisen aber auch durch den Vergleich mit dem Vorgehen des Prozess-Outsourcing-Dienstleisters stellte sich heraus, dass sich BPM und MBPM in zahlreichen Aspekten voneinander unterscheiden. MBPM hat einen stark operativen Fokus und benötigt intensive Unterstützung durch Informationstechnologie. Der operative Fokus zeigt sich vor allem in der für das MBPM notwendigen operativen Steuerung von Prozessen und Menschen und den damit einhergehenden hohen Anforderungen an Prozesstransparenz. Mit detailliertem Prozessmonitoring und feingranularen Prozessmessungen sowie zeitnahem Reporting wird diese Prozesstransparenz erreicht. Informationstechnologie wird benötigt, um bspw. Prozessmonitoring zeitnah durchzuführen aber auch um internen wie externen Anspruchstellern zu jeder Zeit den gewünschten Überblick zur aktuellen Auslastung aber auch zur Abrechnung der Dienstleistungen gewähren zu können.
Es konnte entgegen des Vorgehens des Prozess-Outsourcing-Dienstleisters gezeigt werden, dass Change Management die Einführung, den dauerhaften Betrieb und den mit MBPM verbundenen stetigen Wandel in positiver Weise beeinflussen kann.
Paketmanager für Quellcode wie zum Beispiel Cabal verwalten unter anderem die Abhängigkeiten zwischen Paketen. Softwareprojekte nutzen jedoch selten sämtliche Funktionalitäten, die ihre Abhängigkeiten bereitstellen. Das führt zur unnötigen Kompilation unbenutzter Code-Fragmente und zu vermeintlichen Versionskonflikten, wo gar keine Konflikte sind. In zwei Fallstudien zeigen wir, wie relevant diese zwei Probleme sind. Danach beschreiben wir, wie wir sie vermeiden können, indem wir Abhängigkeiten nicht zwischen ganzen Paketen, sondern zwischen einzelnen Code-Fragmenten feststellen.
Diese Arbeit beschäftigt sich mit Information Audit Methodologien und Methoden zur Informationserfassung in Enterprise Social Software. Die Erfassung von Informationsressourcen ist ein elementarer Bestandteil des Information Audit. Das Fehlen einer standardisierten Definition und von standardisierten Methodologien für Information Auditing ist begründet durch den weit gefächerten Anwendungsbereich des Information Audit und durch seine notwendige individuelle Anpassbarkeit an die Bedürfnisse der durchführenden Organisationen. Die Vorteile von Information Auditing und die möglichen Herausforderung durch Enterprise 2.0, die mit Hilfe des Audits überwunden werden können, sind weitreichend und stellen einen Anreizpunkt für Manager einen Information Audit durchzuführen. Information Asset Register als Ausgangspunkt für erfolgreiches Information Auditing berücksichtigen noch nicht die besonderen Herausforderungen von Enterprise 2.0. Deshalb spannt dieses Forschungsprojekt einen Bogen von Information Asset Registern aus verschiedenen Einflussbereichen und kombiniert diese, um ein neuartiges Asset Register, welches die besonderen Anforderungen von Enterprise 2.0 berücksichtigt, zu erstellen. Die notwendigen Anpassungen, die durch die neuen Charakteristika der Informationsressourcen verursacht werden, sind von geringem Ausmaß. Das neu entwickelte Asset Register wird im abschließenden Teil der Arbeit in einer Fallstudie angewendet und zeigt mögliche Problembereiche, die beim Zusammenstellen des Registers auftreten können, auf.
Als Abschluss der Arbeit wird eine Vorlage entwickelt, welche Nutzern von Enterprise Social Software beim Erstellen von neuen Arbeitsbereichen behilflich sein wird, diese mit passenden Metadaten, wie sie bereits im Information Asset Register festgehalten werden, zu versehen.
Nutzung von Big Data im Marketing : theoretische Grundlagen, Anwendungsfelder und Best-Practices
(2015)
Die zunehmende Digitalisierung des Alltags und die damit verbundene omnipräsente Datengenerierung bieten für Unternehmen und insbesondere Marketingabteilungen die Chance, Informationen in bisher ungekannter Fülle über ihre Kunden und Produkte zu erhalten. Die Gewinnung solcher Informationen aus riesigen Datenmengen, die durch neue Technologien ermöglicht wird, hat sich dabei unter dem Begriff Big Data etabliert.
Die vorliegende Arbeit analysiert diese Entwicklung im Hinblick auf das Potenzial für die unternehmerische Disziplin des Marketings. Dazu werden die theoretischen Grundlagen des Einsatzes von Big Data im Marketing identifiziert und daraus Anwendungsfelder und Best-Practice-Lösungen abgeleitet. Die Untersuchung basiert auf einer Literaturanalyse zu dem Thema Big Data Marketing, welche neben verschiedenen Studien und Befragungen auch Expertenmeinungen und Zukunftsprognosen einschließt. Die Literatur wird dabei zunächst auf die theoretischen Grundlagen des Konstrukts Big Data analysiert.
Anschließend wird die Eignung von Big Data Lösungen für den Einsatz in Unternehmen geprüft, bevor die Anwendung im Bereich des Marketings konkretisiert und analysiert wird. Es wurde dabei festgestellt, dass anhand der theoretischen Aspekte von Big Data eine starke Eignung für den Einsatz im Rahmen des Marketings besteht. Diese zeichnet sich vor allem durch die detaillierten Informationen über Verhaltensmuster von Kunden und ihre Kaufentscheidungen aus. Weiterhin wurden potenzielle Anwendungsfelder identifiziert, welche besonders im Bereich der Kundenorientierung und der Marktforschung liegen. Im Hinblick auf Best-Practice-Lösungen konnte ein grober Leitfaden für die Integration von Big Data in die Unternehmensorganisation entwickelt werden. Abschließend wurde festgehalten, dass das Thema Big Data eine hohe Relevanz für das Marketing aufweist und dies in der Zukunft maßgeblich mitbestimmen wird.
Um unterschiedliche Anforderungen zu erfüllen, werden Softwaresysteme oft in Form einer Menge von Varianten entwickelt. Zwei gebräuchliche Ansätze für eine solche Softwareentwicklung sind das clone-and-owning und die Produktlinienentwicklung. Beide Ansätze haben Vor- und Nachteile. In vorheriger Arbeit mit anderen haben wir eine Idee vorgestellt bei der beide Ansätze verknüpft werden um Varianten, Ähnlichkeiten und Softwareklone zu verwalten. Diese Idee basiert auf einer virtuellen Plattform und Operatoren für Softwareklone. In der vorliegenden Arbeit stellen wir einen Ansatz vor um essentielle Metadaten für die Realisierung eines propagate-Operators zu aggregieren. Dafür haben wir ein System entwickelt um Ähnlichkeiten mit Annotationen zu versehen, wobei die Ähnlichkeiten aus der Historie eines Repositories extrahiert werden. Die Annotationen drücken aus wie eine Ähnlichkeit zukünftig gewartet werden soll. Abhängig vom Annotationstyp kann diese Wartung automatisiert ausgeführt oder sie muss vom Benutzer manuell betrieben werden. In dieser Arbeit beschreiben wir die automatisierte Extraktion von Metadaten und das System zur Annotation von Ähnlichkeiten; wir erklären wie das System in den Arbeitsfluss eines bestehenden Programms zur Versionierungverwaltung (Git) integriert werden kann; und abschließend stellen wir eine Fallstudie vor, die das 101haskell-System benutzt.
Die Entwicklung der echtzeitfähigen Computergrafik ermöglicht mittlerweile immer realistischere Bilder und die Hardware kann dafür optimal ausgenutzt werden, wodurch immer glaubwürdigere Lichtverhältnisse simuliert werden können. Eine große Anzahl von Algorithmen, effizient implementiert auf der Grafikkarte (GPU, auch Grafikprozessor)), sind fähig komplexe Lichtsituationen zu simulieren. Effekternwie Schatten, Lichtbrechung und Lichtreflexion können mittlerweile glaubwürdig erzeugt werden. Besonders durch Reflexionen wird der Realismus der Darstellung erhöht, da sie glänzende Materialien, wie z.B. gebürstete Metalle, nasse Oberflächen, insbesondere Pfützen oder polierte Böden, natürlich erscheinen lassen. Dabei geben sie einen Eindruck der Materialeigenschaften, wie Rauheit oder Reflexionsgrad.rnAußerdem können Reflexionen vom Blickpunkt abhängen: Eine verregnete Straße zum Beispiel würde Licht, abhängig von der Entfernung des Betrachters reflektieren und verwaschene Lichtreflexe erzeugen. Je weiter der Betrachter von der Lichtquelle entfernt ist, desto gestreckter erscheinen diese. Ziel dieser Bachelorarbeit ist, eine Übersicht über existierende Render-Techniken für Reflexionen zu geben, um den aktuellen Stand der Technik abzubilden. Reflexion entsteht durch den Einfall von Licht auf Oberflächen, die dieses in eine andere Richtung zurückwerfen. Um dieses Phänomen zu verstehen, wird eine Auffassung von Licht benötigt. Kapitel 2.1 beschreibt daher ein physikalisches Modell von Licht, gefolgt von Kapitel 2.2, das anhand von Beispielen ästhetisch wirkender Reflexionseffekte aus der realenrnWelt und den Medien die Motivation dieser Arbeit darlegt. In Kapitel 3 soll die generelle Vorgehensweise beim Rendern von Reflexionen deutlich gemacht werden. Danach wird in Kapitel 4 eine grobe Übersicht über existierende Ansätze gegeben. In Abschnitt 5 werden dann drei wesentliche Algorithmen vorgestellt, die zur Zeit oft in Spiel- und Grafikengines verwendet werden: Screen Space Reflections (SSR), Parallax-corrected cube mapping (PCCM) und Billboard Reflections (BBR). Diese drei Ansätze wurden zusammen in einem Framework implementiert. Dieses wird in Kapitel 5 vorgestellt und erklärt, gefolgt von detaillierten Beschreibungen der drei Techniken. Nachdem ihre Funktionsweise erklärt wurde, werden die Ansätze analysiert und auf ihre visuelle Qualität sowie ihre Echtzeitfähigkeit getestet. Abschließend werden die einzelnen Verfahren miteinander verglichen, um ihre Vor- und Nachteile zu untersuchen. Außerdem werden die gewonnenen Erfahrungen beschrieben und Verbesserungsansätze vorgeschlagen. Danach wird ein kurzer Ausblick zur voraussichtlichen Entwicklung von Render-Techniken spekularer Effekte gegeben.
Information systems research has started to use crowdsourcing platforms such as Amazon Mechanical Turks (MTurk) for scientific research, recently. In particular, MTurk provides a scalable, cheap work-force that can also be used as a pool of potential respondents for online survey research. In light of the increasing use of crowdsourcing platforms for survey research, the authors aim to contribute to the understanding of its appropriate usage. Therefore, they assess if samples drawn from MTurk deviate from those drawn via conventional online surveys (COS) in terms of answers in relation to relevant e-commerce variables and test the data in a nomological network for assessing differences in effects.
The authors compare responses from 138 MTurk workers with those of 150 German shoppers recruited via COS. The findings indicate, inter alia, that MTurk workers tend to exhibit more positive word-of mouth, perceived risk, customer orientation and commitment to the focal company. The authors discuss the study- results, point to limitations, and provide avenues for further research.
Diese Arbeit analysiert die Möglichkeiten der Text- und Netzwerkanalyse kriminologischer Daten. Dabei werden diese Daten unter dem Aspekt der Geldwäsche betrachtet. Zum Zweck der Analyse wurden aus dem Text die wichtigsten Konzepte in elf verschiedene Klassen aufgeteilt. Die Zusammenhänge zwischen den identifizierten Konzepten wurden ebenfalls untersucht. Einige Aussagen über Geldwäsche lassen sich durch die Interpretation der Ergebnisse validieren. Es werden bestimmte Konzepte, wie Banken, Unternehmen und ausländische Tochtergesellschaften als wichtige Konzepte identifiziert. Das bestätigt zusammen mit dem in Kapitel 1.4.3 dargestellten zyklischen Ablauf von Geldwäschevorgängen die Vermutung, dass bestimmte Organisationen und Personen, innerhalb des betrachteten Falles, Gelder über Banken, Gesellschaften und Investitionen in den legalen Finanzmarkt einfließen lassen. Ebenfalls wird innerhalb dieser Arbeit der Nutzen der betrachteten Tools für den hier zugrundeliegenden Forschungsprozess analysiert und eine Einschätzung der Eignung von ORA und Automap für diese Art von Forschung geliefert.
In dieser Arbeit wurde erstmalig das Gebiet der funktionalen, system-level Web Testing Tools analysiert. Aus 194 Toolkandidaten wurden 23 Tools zur Analyse ausgewählt. Die entwickelte Methodik verwendet die Benutzerhandbücher der Tools, um ein Featuremodel zu erzeugen, dass die Features aller Tools abbildet. Insgesamt wurden 313 Features identifiziert, klassifiziert und beschrieben. Die Features wurden in 10 Kategorien unterteilt und werden mit 16 Featurediagrammen dargestellt.rnDie Ergebnisse können technologische Entscheidungsprozesse unterstützen, indem ein Überblick einerseits über die Tools auf dem Markt und andererseits über die neusten Entwicklungen im Bereich des funktionalen, system-level Web Testing bereitgestellt wird.