Filtern
Erscheinungsjahr
- 2014 (104) (entfernen)
Dokumenttyp
- Bachelorarbeit (42)
- Dissertation (24)
- Ausgabe (Heft) zu einer Zeitschrift (20)
- Masterarbeit (14)
- Diplomarbeit (2)
- Konferenzveröffentlichung (1)
- Bericht (1)
Schlagworte
- Vorlesungsverzeichnis (6)
- OpenGL (3)
- Android (2)
- Graphik (2)
- Pestizid (2)
- Pflanzenschutzmittel (2)
- Smartphone (2)
- VOXEL (2)
- Wasseroberfläche (2)
- monitoring (2)
- 3D-Visualisierung (1)
- Abdrift (1)
- Absorptive capacity (1)
- Anforderungskatalog (1)
- Annotation (1)
- Anpassung (1)
- App (1)
- Applikation (1)
- Araneae (1)
- Augenbewegung (1)
- Auslese (1)
- Auswahl (1)
- Barriere (1)
- Beleuchtung (1)
- Berichterstattung (1)
- Beschleunigungsensor (1)
- Bildungsaspiration (1)
- Bildungserfolg (1)
- Bildungsinteresse (1)
- Blickbewegung (1)
- Breaking (1)
- Brechung (1)
- Bruchsimulation (1)
- Business Intelligence (1)
- C++ (1)
- Chancengleichheit (1)
- Classification (1)
- Clustering (1)
- Compute-Shader (1)
- Computergraphik (1)
- Computervisualistik (1)
- Data analysis (1)
- Datenanalyse (1)
- Diagramm (1)
- Discussion Forums (1)
- Drahtloses Sensorsystem (1)
- Düngemittel (1)
- Echtzeitphysik (1)
- Emissionen (1)
- Empirical Studies (1)
- Erfolgsfaktor (1)
- Exposition (1)
- Eyetracking (1)
- Fast Convolution (1)
- Feldsaum (1)
- Felis catus (1)
- Felis silvestris domestica (1)
- Firewall (1)
- Fließgewässer (1)
- Flow-Erlebnis (1)
- Flowing Inland Waters (1)
- Fotoauswahl (1)
- Fourier (1)
- Fracturing (1)
- Frau (1)
- Fresnel (1)
- Fuzzy-Logik (1)
- Führung (1)
- GIS (1)
- GPGPU (1)
- GPU (1)
- Gasblasen (1)
- Gebrauchsgraphik (1)
- Gender (1)
- Generative Model (1)
- Geoinformationssystem (1)
- Gerstner (1)
- Geste (1)
- Gewässer (1)
- Globale Beleuchtung (1)
- Graphische Benutzeroberfläche (1)
- Grounded Theory (1)
- Grundschule (1)
- Hauskatze (1)
- InFO (1)
- Informatik (1)
- Information Flow Ontology (1)
- Insektizid (1)
- Integration (1)
- Internet (1)
- Iran (1)
- Jugendstil (1)
- Jump'n Run-Spiel (1)
- Karriere (1)
- Katze (1)
- Kinect (1)
- Klassifikation (1)
- Kollaboration (1)
- Konkurrenz (1)
- Krisenberichterstattung (1)
- Landwirtschaft (1)
- Lastenheft (1)
- Latent Negative (1)
- Lehrer (1)
- Lernerfolg (1)
- Lernkontext (1)
- Lernspiel (1)
- Link Prediction (1)
- Linked Open Data (1)
- Makroinvertebraten (1)
- Maschinelles Lernen (1)
- Menschenmengen-Evakuierung (1)
- Methan (1)
- Methane emissions (1)
- Metriken (1)
- Migration (1)
- Modell (1)
- Modellierungswerkzeug (1)
- Monitoring (1)
- Motivation (1)
- Nachrichtenwerttheorie (1)
- Naturschutzgenetik (1)
- Nicht-Ziel-Pflanzen (1)
- Oberflächenabfluss (1)
- Online Community (1)
- Ontologie (1)
- Open Content (1)
- Open Source (1)
- OpenCL (1)
- OpenGL Shading Language (1)
- Pfalz (1)
- Pflanzen (1)
- Pflichtenheft (1)
- Photographie (1)
- Pre-Integration (1)
- Programmierung (1)
- Prototyp (1)
- Prototype (1)
- Qualität (1)
- Qualitätsmodell (1)
- Qualitätssicherung (1)
- RFCO (1)
- Ray tracing (1)
- Ray-Casting (1)
- Reflexion (1)
- Regionenlabeling (1)
- Register (1)
- Regression (1)
- Regulierung (1)
- Rehabilitation (1)
- Reproduktion (1)
- Ressourcen (1)
- Reverberation (1)
- Risikobewertung (1)
- Risikominderungsmaßnahmen (1)
- Router (1)
- Router-based Flow Control Ontology (1)
- Räuber (1)
- Schnelle Faltung (1)
- Selbstwirksamkeit (1)
- Sensor (1)
- Sensorensteuerung (1)
- Shader (1)
- Shattering (1)
- Simulation (1)
- Social Software (1)
- Software Engineering (1)
- Sozialarbeit (1)
- Spear (1)
- Spiel (1)
- Sport (1)
- Sports (1)
- Sprechtherapie (1)
- State (1)
- Staugeregelte Flüsse (1)
- Stechmücke (1)
- Stechmücken-Kontrolle (1)
- Steuerung (1)
- Stress (1)
- Taxonomie (1)
- Telemedizin (1)
- Temperaturmessung (1)
- Top-Management (1)
- Touchscreen (1)
- Trait (1)
- Transfer function (1)
- Transferfunktion (1)
- Uferrandstreifen (1)
- Unlink Prediction (1)
- Unterrichtsforschung (1)
- VST (1)
- Validität (1)
- Variabilität (1)
- Videospiele (1)
- Visualisierung (1)
- Visuelle Kommunikation (1)
- Vocabulary Reuse (1)
- Volumen-Rendering (1)
- Volumendaten (1)
- Vorsorge (1)
- Voxelisierung (1)
- Wastewater treatment plants (1)
- Water Surface Temperature (1)
- Wellen (1)
- Wiederhall (1)
- Wireless Sensor Networks (1)
- Wohlfahrtspflege (1)
- Zerbrechen (1)
- Ziel (1)
- accelerometer (1)
- adaptive GUI Design (1)
- android (1)
- behavioural ecology (1)
- buffer strips (1)
- categorisation (1)
- classification (1)
- competition (1)
- conservation genetics (1)
- crowd evacuation (1)
- diagram (1)
- ebullition (1)
- ecology (1)
- ecotoxicity (1)
- educational achievement (1)
- educational aspirations (1)
- engineered nanoparticles (1)
- environmental fate (1)
- eye tracking (1)
- field margin (1)
- governance (1)
- impounded rivers (1)
- indirect lighting (1)
- indirektes Licht (1)
- insecticide (1)
- integration (1)
- interaktiv (1)
- invasive Arten (1)
- invasive species (1)
- jump'n run game (1)
- learning context (1)
- macroinvertebrates (1)
- mathematical Modelling (1)
- mathematische Modellbildung (1)
- metrics (1)
- migration (1)
- mitigation measures (1)
- model (1)
- mosquito control (1)
- motivation (1)
- non-consumptive effects (1)
- non-target plants (1)
- off-field habitats (1)
- organic pollution (1)
- pesticide (1)
- pesticides (1)
- photo selection (1)
- physical interaction (1)
- physische Interaktion (1)
- point source (1)
- predation (1)
- prevention (1)
- psychisches Verhalten (1)
- psychological behavior (1)
- quality assurance (1)
- realtime physics (1)
- reflection (1)
- refraction (1)
- region labeling (1)
- rehabilitation (1)
- reproduction (1)
- resources (1)
- risk (1)
- risk assessment (1)
- risk mitigation measures (1)
- runoff (1)
- self-efficacy (1)
- sensor control (1)
- shader (1)
- simulation (1)
- social media (1)
- spatial Fuzzy Logic (1)
- spatial and temporal varibility (1)
- stress (1)
- surface water (1)
- taxonomy (1)
- teaching research (1)
- trait-mediated effects (1)
- transformation (1)
- transport (1)
- trophic cascades (1)
- validity (1)
- videogames (1)
- voxelization (1)
- water surface (1)
- waves (1)
- Ökologie (1)
- Ökosystem (1)
- Überwachung (1)
Institut
- Institut für Computervisualistik (24)
- Institut für Management (20)
- Zentrale Einrichtungen (15)
- Fachbereich 4 (10)
- Institut für Informatik (10)
- Fachbereich 7 (9)
- Institut für Wirtschafts- und Verwaltungsinformatik (5)
- Institute for Web Science and Technologies (5)
- Fachbereich 5 (4)
- Institut für Erziehungswissenschaft (3)
- Fachbereich 8 (2)
- Fachbereich 6 (1)
- Institut für Anglistik und Amerikanistik (1)
- Institut für Grundschulpädagogik (1)
- Institut für Integrierte Naturwissenschaften (1)
- Institut für Integrierte Naturwissenschaften, Abt. Geographie (1)
- Institut für Kunstwissenschaft und Bildende Kunst (1)
- Institut für Pädagogik, Abteilung Schulpädagogik/Allgemeine Didaktik (1)
- Institut für Softwaretechnik (1)
- Institut für Umweltwissenschaften (1)
Diese Arbeit vermittelt einen grundlegenden Überblick über die Funktionsweise und Implementierung von aktuellen Voxelisierungsstrategien auf der GPU. Neben etablierten Voxelisierungsverfahren mithilfe der Rasterisierungspipeline werden neue Möglichkeiten mithilfe von GPGPU-Programmierung untersucht. Auf der Basis der Programmiersprache C++ und der Grafikbibliothek OpenGL wird die Implementierung mehrerer Verfahren erläutert.rnDie Verfahren werden hinsichtlich der Performanz und der Qualität der Voxelisierung verglichen und im Bezug auf mögliche Anwendungsfälle kritisch bewertet. Weiterhin werden zwei Beispielanwendungen beschrieben, in denen die Verwendung einer voxelisierten Szene eine Erweiterung von bestehenden Echtzeitgrafikverfahren ermöglicht. Zu diesem Zweck werden die Konzepte und die Implementierungen von Transmittance Shadow Mapping und von Reflective Shadow Mapping, das um voxelbasierte Umgebungsverdeckung erweitert wird, erläutert. Abschließend wird die anhaltende Relevanz von Voxelisierung in einem Ausblick auf aktuelle Forschungen und weitere Anwendungen und Erweiterungen der vorgestellten Verfahren aufgezeigt.
Die vorliegende Arbeit beschäftigt sich mit Qualitätssicherungsansätzen für modellbasierte SRS (d.h. Lasten- und Pflichtenhefte), im Speziellen mit SRS-Modellen und SRS-Modellvisualisierungen (d.h. Diagrammen). Das Besondere an modellbasierten SRS-Dokumentationen ist, dass sie durch einen Dokumentationsgenerator aus dem Input SRS-Modell, SRS-Modellvisualisierungen und modellexternen Texten generiert werden. Um die Qualität der Dokumentation zu sichern, muss somit die Qualität der folgenden vier Faktoren gesichert werden: SRS-Modell, SRS-Modellvisualisierungen, modellexterne Texte und Dokumentationsgenerator. Ziel dieser Arbeit ist es, einen Qualitätsbegriff für SRS-Modelle und -Modellvisualisierungen zu definieren und ein Vorgehen zur Realisierung automatischer Qualitätsprüfung, -messung und -bewertung (d.h. Qualitätssicherung) im Modellierungswerkzeug Innovator aufzuzeigen.
In der vorliegenden Arbeit wurde untersucht, ob bei Müttern, die an einer stationären Rehabilitations- bzw. Vorsorgemaßnahme für Mütter, Väter und Kinder teilnehmen, positive Ressourcenveränderungen und zwei unterschiedliche Arten von Eingangsbelastungen die allgemeine Lebenszufriedenheit bzw. die Zufriedenheit mit der Gesundheit am Ende der Maßnahme beeinflussen. Ressourcen wurden hierbei in Form der erziehungsbezogenen Selbstwirksamkeit operationalisiert, Eingangsbelastungen in Form von erziehungsbezogenen Stressoren und Depressivität. Ausgehend von der Theorie der Ressourcenerhaltung wurde postuliert, dass Ressourcenzugewinne mit Eingangsbelastungen in ihrem Effekt auf die Zufriedenheit interagieren. Bei Patientinnen mit höheren Belastungen zu Maßnahmenbeginn sollten Ressourcenzugewinne im Verhältnis einen größeren Einfluss auf die Zufriedenheit haben als bei Patientinnen mit geringeren Belastungen.
Die Hypothesen wurden an einer Stichprobe von N = 1.724 Patientinnen über Strukturgleichungsmodelle geprüft. Es zeigte sich, dass erziehungsbezogene Stressoren verschiedene Facetten der allgemeinen Lebenszufriedenheit wie auch die Zufriedenheit mit der Gesundheit am Maßnahmenende negativ beeinflussten; Ressourcenzugewinne hatten niedrige positive Effekte auf die Zufriedenheitsmaße. Eine Interaktion zwischen erziehungsbezogenen Stressoren und Ressourcenzugewinnen konnte nicht belegt werden. Wurde Depressivität als Belastungsindikator einbezogen, so übte diese einen negativen Effekt auf die Zufriedenheitsmaße aus. Ressourcenzugewinne hatten in diesen Modellen wiederum nur einen sehr geringen (bis vernachlässigbaren) positiven Einfluss auf die Facetten der allgemeinen Lebenszufriedenheit bzw. der Zufriedenheit mit der Gesundheit. Auch hier konnten entgegen den Hypothesen keine Interaktionseffekte gefunden werden. Ergänzende Analysen, in denen beide Stressorenarten gleichzeitig als Prädiktoren berücksichtigt wurden, zeigten, dass Depressivität einen deutlicheren Einfluss auf die Zufriedenheitsmaße ausübte als erziehungsbezogene Stressoren (deren Effekt niedriger ausfiel); der Effekt von Ressourcenzugewinnen war sehr gering bis nicht bedeutsam.
Des Weiteren wurde untersucht, ob problem- bzw. handlungsorientierte Bewältigungsstrategien den Effekt von (positiven) Ressourcenveränderungen auf die allgemeine Lebenszufriedenheit bzw. die Zufriedenheit mit der Gesundheit vermitteln (Nebenfragestellung). Die nur teilweise signifikanten Korrelationen zwischen Coping, Ressourcenveränderungen und den Zufriedenheitsmaßen fielen sehr niedrig aus und lagen teils nahe Null. Da keine direkten Zusammenhänge zwischen Ressourcenveränderungen und den jeweiligen Zufriedenheitsmaßen gefunden wurden, waren die Voraussetzungen für eine pfadanalytische Prüfung indirekter Effekte nicht gegeben, die in den Hypothesen formulierte vermittelnde Rolle von Coping konnte daher nicht belegt werden.
Die Studienergebnisse zeigen, dass entgegen den aus der Theorie der Ressourcenerhaltung abgeleiteten Vermutungen positive Veränderungen in Ressourcen und Belastungsindikatoren nicht voneinander in ihrer Wirkung auf verschiedene Zufriedenheitsmaße abhängig sind, sondern voneinander unabhängige Effekte ausüben, welche für die erziehungsbezogene Selbstwirksamkeit jedoch nur gering ausfallen.
In der vorliegenden Forschungsarbeit wird ein Leitfaden zur Überprüfung von Geschäfts-modellen entwickelt. Dabei wird insbesondere die Situation junger, innovativer Unter-nehmen (Startups) berücksichtigt. Diese Unternehmen agieren unter einer hohen Unsi-cherheit oder Ungewissheit. Es ist daher kaum möglich über quantitative Daten eine so-lide Prognose für den Erfolg des Unternehmens abzugeben. Die Evaluation von innovativen Geschäftsmodellen stellt eine Forschungslücke dar.
Data Mining im Fußball
(2014)
Data Mining ist die Anwendung verschiedener Verfahren, um nützliches Wissen automatisch aus einer großen Menge von Daten zu extrahieren. Im Fußball werden seit der Saison 2011/2012 umfangreiche Daten der Spiele der 1. und 2. Bundesliga aufgenommen und gespeichert. Hierbei werden bis zu 2000 Ereignisse pro Spiel aufgenommen.
Es stellt sich die Frage, ob Fußballvereine mithilfe von Data Mining nützliches Wissen aus diesen umfangreichen Daten extrahieren können.
In der vorliegenden Arbeit wird Data Mining auf die Daten der 1. Fußballbundesliga angewendet, um den Wert bzw. die Wichtigkeit einzelner Fußballspieler für ihren Verein zu quantifizieren. Hierzu wird der derzeitige Stand der Forschung sowie die zur Verfügung stehenden Daten beschrieben. Im Weiteren werden die Klassifikation, die Regressionsanalyse sowie das Clustering auf die vorhandenen Daten angewendet. Hierbei wird auf Qualitätsmerkmale von Spielern, wie die Nominierung eines Spielers für die Nationalmannschaft oder die Note, welche Spieler für ihre Leistungen in Spielen erhalten eingegangen. Außerdem werden die Spielweisen der zur Verfügung stehenden Spieler betrachtet und die Möglichkeit der Vorhersage einer Saison mithilfe von Data Mining überprüft. Der Wert einzelner Spieler wird mithilfe der Regressionsanalyse sowie einer Kombination aus Cluster- und Regressionsanalyse ermittelt.
Obwohl nicht in allen Anwendungen ausreichende Ergebnisse erzielt werden können zeigt sich, dass Data Mining sinnvolle Anwendungsmöglichkeiten im Fußball bietet. Der Wert einzelner Spieler kann mithilfe der zwei Ansätze gemessen werden und bietet eine einfache Visualisierung der Wichtigkeit eines Spielers für seinen Verein.
Zur Planung von Veranstaltungen werden Menschenmengen-Simulationen eingesetzt, die die Evakuierung der Menschenmenge simulieren, um eventuelle Gefahren einschätzen und vermeiden zu können. Diese Menschenmengen-Simulationen analysieren zum größten Teil nur den Bewegungsfluss einer Menschenmenge. Oft werden physische und psychische Faktoren in diesen Simulationen nicht bedacht und verhindern dadurch, Kollisionen zwischen Agenten abzubilden wie deren Umfallen und das sich verändernde Verhalten auf äußere Einflüsse.
Aus diesem Grund wird in der vorliegenden Arbeit das Ziel verfolgt, das psychische Verhalten und die physischen Krafteinwirkungen der Menschenmenge zu untersuchen. Dazu wurde eine echtzeitfähige Menschenmengen-Simulation entwickelt, die zum einen Verfahren für Videospiele und zum anderen eine Verhaltens-KI für die Agenten der Simulation beinhaltet. Mit Rigid Bodies aus einer Physik-Engine wurde die physikalische Repräsentation der Agenten realisiert, um physische Interaktionen der Agenten untereinander und mit der Umwelt sowie die Fortbewegung der Agenten physikalisch plausibel umzusetzen. Zur Fortbewegung der Agenten wurde zusätzlich das Verfahren von Navigationmeshes und ein geeigneter Algorithmus zur Kollisionsvermeidung realisiert.
Mit der Entwicklung einer Verhaltens-KI wurde ein physisch-psychischer Zustand entworfen, der sich aus einem Stressniveau als psychischer und aus einem Gesundheitswert als physischer Zustand zusammensetzt. Die entwickelte Simulation kann physische Faktoren wie das Gedränge von Agenten oder das Erdrücken eines Agenten sowie die Interaktion der Agenten mit ihrer Umwelt darstellen und psychische Faktoren wie Stress visuell abbilden.
Anhand einer Evaluation von durchgeführten Testszenarien der Simulation wurde untersucht, ob eine Kombination von physischen und psychischen Faktoren in einer Simulation erfolgreich umsetzbar ist und einen Aufschluss über das Verhalten der Agenten in gefährlichen oder stressbehafteten Situationen gibt. Zusätzlich wurde der Nutzen der Komplexität der physikalischen Repräsentation analysiert.
Ziel dieser Ausarbeitung ist es, das Wippe-Experiment gemäß dem Aufbau innerhalb der AG Echtzeitsysteme unter Leitung von Professor Dr. Dieter Zöbel mithilfe eines LEGO Mindstorms NXT Education-Bausatzes funktionsfähig nachzubauen und das Vorgehen zu dokumentieren. Der dabei entstehende Programmcode soll didaktisch aufbereitet und eine Bauanleitung zur Verfügung gestellt werden. Dies soll gewährleisten, dass Schülerinnen und Schüler auch ohne direkten Zugang zu einer Hochschule oder ähnlichem Institut den Versuchsaufbau Wippe möglichst unkompliziert im Klassenraum erleben können.
Diese Studie leistet einen Beitrag zur Weiterentwicklung der Nachrichtenwerttheorie. Hierzu wird das Konzept der Fotonachrichtenfaktoren zunächst theoretisch aufgearbeitet und seine Plausibilität anhand verschiedener Teilbereiche der Journalismusforschung dargelegt. Darauf aufbauend wird es im Rahmen einer Inhaltsanalyse eingesetzt, die die Prüfung des erweiterten Modells der Nachrichtenwerttheorie ermöglicht. Dieses Modell geht von einem gemeinsamen Einfluss der textbasierten Nachrichtenfaktoren und der Fotonachrichtenfaktoren auf den Nachrichtenwert bzw. die journalistische Beachtung eines Beitrags aus. Ergänzend werden die Fotonachrichtenfaktoren zur Bildung von Fototypen herangezogen. Die Analysen werden am Beispiel der Kriegs- und Krisenberichterstattung deutscher Tageszeitungen durchgeführt. Dieser Themenbereich des Journalismus genießt viel Aufmerksamkeit sowohl bei Medienrezipienten als auch bei Kommunikationswissenschaftlern. Die Ergebnisse der Studie unterstützen die Grundidee der Fotonachrichtenfaktoren: Sie können, ähnlich wie die textbasierten Nachrichtenfaktoren, zu übergeordneten Bündeln zusammengefasst werden. Diese Bündel zeigen Einflüsse auf die formale Gestaltung der Fotos und können gemeinsam mit den Textnachrichtenfaktoren teilweise die journalistische Beachtung des Artikels erklären. Darüber hinaus ist die gewählte Operationalisierung der Fotonachrichtenfaktoren geeignet, Fototypen bzw. zentrale Motive der visuellen Kriegsberichterstattung deutscher Tageszeitungen zu identifizieren. Die Ergebnisse dieser Studie liefern Ausgangspunkte für weitere Fragestellungen zum Zusammenwirken der Text- und Fotonachrichtenfaktoren, der Anwendung der Zwei-Komponenten-Theorie und der Wirkung von typischen Bildmotiven.
Mit der zunehmenden Verbreitung digitaler Kameras nimmt die Anzahl der aufgenommen Fotos drastisch zu. Fotos werden sowohl für den privaten Gebrauch aufgenommen und auf eigenen Festplatten gespeichert, als auch im Internet verbreitet. Die Verwaltung dieser großen Datenmengen stellt eine Herausforderung dar, bei der Benutzer zunehmend unterstützt werden müssen. Die automatische Analyse von Bildinhalten anhand von Algorithmen ist ein ungelöstes Problem und kann kaum die Bedürfnisse menschlicher Nutzer erfüllen. Daher werden häufig Metainformationen genutzt, um z.B. abgebildete Szenen textuell zu beschreiben oder Bewertungen zu Fotos zu speichern. Im Rahmen dieser Arbeit wird untersucht, wie diese Metainformationen ohne zusätzlichen Aufwand für Benutzer generiert werden können. Dazu werden Augenbewegungen von Benutzern mit einem Eyetrackinggerät erfasst und die daraus abgeleitete visuelle Aufmerksamkeit als Informationsquelle genutzt.
Aufgrund von fallenden Hardwarepreisen bei gleichzeitig zunehmender Konkurrenz sind die Preise für Eyetracker in den letzten Jahren stark gefallen und ihre Bedienbarkeit wurde vereinfacht. Es wird angenommen, dass die Erfassung von Blickdaten bald mit alltäglichen Geräten wie Laptops möglich sein wird, während Benutzer z.B. verschiedenen Beschäftigungen mit digitalen Bildern nachgehen. Die Auswertung dieser Blickinformationen erlaubt es, Informationen ohne zusätzlichen Aufwand für den Menschen bereitzustellen.
Im ersten Teil dieser Arbeit wird untersucht, ob durch die Auswertung von Blickinformationen, Schlagworte Bildregionen zugewiesen werden können, mit dem Ziel abgebildete Szenen zu beschreiben. Insgesamt wurden drei Experimente durchgeführt um die Qualität der Beschreibungen zu untersuchen. Im ersten Experiment entschieden Teilnehmer durch das Drücken bestimmter Tasten, ob ein gegebenes Objekt auf einem Foto zu sehen war. In der zweiten Studie suchten Benutzer mit einer simulierten Bildersuche nach Fotos von bestimmten Objekten. Im dritten Experiment klassifizierten Benutzer Fotos bezüglich gegebener Objektnamen in einem eyetracking-gesteuerten Spiel. In jedem Experiment wurden die Augenbewegungen aufgezeichnet und die Objektnamen bzw. Suchbegriffe entsprechenden Bildregionen zugeordnet. Die Ergebnisse zeigen, dass in den verschiedenen Anwendungen Bildinhalte durch Blickpfadanalysen sinnvoll beschrieben werden können. Im zweiten Teil wird die Identifizierung von interessanten Fotos in einer Sammlung von Fotos anhand von Blickbewegungen erforscht, mit dem Ziel, Benutzern individuelle Fotoauswahlen anzubieten, nachdem sie Fotos in einer Sammlung betrachtet haben. Durch den Vergleich der unter Einbeziehung der visuellen Aufmerksamkeit automatisch erstellten Auswahlen mit manuell von den Benutzer erstellten Auswahlen, wird das Potential von Blickinformation in der Erkennung wichtiger Fotos deutlich.
Die Ergebnisse dieser Arbeit zeigen das große und bisher ungenutzte Potential der impliziten Nutzung von Blickdaten. Es kann von menschlichen Fähigkeiten profitiert werden, besonders dort, wo Algorithmen die menschliche Wahrnehmung noch lange nicht simulieren können.
Politiker wünschen die Nähe zu den Bürgern und damit die Nähe der Bürger zu ihnen. Diese zunächst wie ein Gemeinplatz anmutende These wird bestätigt durch die im Jahre 2010 erstellte Deutsche Parlamentarier Studie (DEUPAS). Die Studie macht deutlich, dass mit der Bürgernähe der Wunsch nach verstärkter Einbindung der Bürger in politische Entscheidungsprozesse einhergeht. Wie auch in anderen Bereichen sozialer Interaktionen zeigt sich das Internet in diesem Zusammenhang als mögliche Schnittstelle zwischen Bürgern und Entscheidern. So stellt auch die Politik unter dem Begriff E-Partizipation digitale Beteiligungsmöglichkeiten bereit, in der Absicht, Reaktionen und Kommentare der Bürger zu besonderen Angelegenheiten oder Themen zu sammeln. Auch wenn diese Angebote bisweilen erfolgreiche Konzepte beinhalten, werden die meisten nur von einer geringen Anzahl potenzieller Adressaten genutzt. Gleichzeitig steigt abseits dieser strukturierten und problemzentrierten Portale die Begeisterung der Gesellschaft für die Nutzung sozialer Netzwerke, die somit Eingang in den Alltag gefunden haben. Hier ist eine hohe Aktivität auf allen mehr oder minder relevanten Gebieten zu beobachten, unter anderem auch in der Diskussion politischer Themen. Insofern sind soziale Netzwerke für Politiker wichtig und attraktiv, und zwar auf allen politischen Ebenen, wo die sozialen Netzwerke inzwischen in die alltägliche Arbeit integriert sind.
Problematisch ist jedoch der kontinuierliche Anstieg digitaler "Informationsschnipsel" (englisch: information overload). Eine manuelle Filterung relevanter aus der Vielzahl irrelevanter Beiträge erscheint nahezu unmöglich. Folglich werden neue Techniken und Konzepte (Analyse-Software) zur Sammlung und Analyse der Informationsflut präsentiert. Sie versprechen einen leichten und schnellen Überblick, um die relevanten Informationen zu extrahieren. Insofern ist es gerade für die Politik von hoher Dringlichkeit, nach Nutzbarkeit und Nützlichkeit solcher Instrumente zu fragen.
Die vorliegende Arbeit untersucht die Relevanz von Analysesoftware-Ergebnissen für die Verwendung im politischen Alltag. Der Schwerpunkt liegt auf den sozialen Netzwerken Facebook und Twitter als Datenlieferanten. Die Bewertung erfolgt in Kooperation mit und durch politische Entscheider aus dem Deutschen Bundestag, dem Landtag von Nordrhein-Westfalen, der Staatskanzlei des Saarlandes sowie der Städte Köln (Abteilung E-Government) und Kempten (Pressestelle der Stadt Kempten, Allgäu, im Büro des Oberbürgermeisters).
In der Hauptuntersuchung wird für jeden Teilnehmer ein individueller Analysereport erstellt, der mit einem Methodenmix aus qualitativen Verfahren ausgewertet wird. Die Analysedaten werden mit der WeGov-Toolbox, eine Entwicklung des EU-Projektes WeGov und den darin enthaltenen Analysekomponenten erzeugt. Der Fokus liegt dabei auf der Auswertung des Wahlkreises, des lokalen Bereiches sozialer Netzwerke. Im Rahmen dieser Arbeit wird nicht nur der Relevanz von Analysedaten nachgegangen, sondern es wird auch untersucht, ob Bürgernähe oder sogar Bürgerbeteiligung mit den aus der Analysesoftware gewonnenen Ergebnissen und den daraus resultierenden Rückschlüssen und möglicherweise Handlungen positiv vorangetrieben werden kann.
Die Antworten der Teilnehmer führen zu wesentlichen Schlussfolgerungen:
1) Keiner der Teilnehmer geht davon aus, dass Bürgerbeteiligung über diesen Weg gelingt. Anders fällt die Bewertung in Bezug auf eine Realisierung von Bürgernähe aus: Die Teilnehmer bestätigen vereinzelte Ergebnisse, die besagen, dass Bürgernähe über diesen Ansatz, d.h. über die daraus gewonnenen Erkenntnisse unterstützt werden kann. Damit erhalten Politiker Informationen darüber, was die Bürger denken und sagen.
2) Potenzielle Nutzer werden in der Regel solche sein, die zwar Erfahrung mit sozialen Netzwerken besitzen, jedoch keine "Poweranwender" sind. Daher bietet sich der Einsatz der Tools eher auf Parteiebene und in der Parlamentsarbeit an als auf der Ebene des einzelnen Politikers, der eher gewohnt ist, auf Facebook und Twitter direkt zu reagieren, die analytische Arbeit jedoch bevorzugt von den Partei- und/ oder Abgeordnetenbüros erledigen lässt.
3) Vergleicht man die ländlichen mit den urbanen Regionen, zeigt sich, dass die Menge von relevanten politischen Informationen auf dem Land gering ist. Während die Menge öffentlich zugänglicher Informationen in urbanen Regionen relativ groß ist, hat diese Menge in ländlichen Bereichen sehr viel weniger Gewicht.
Die Erkenntnisse aus den Befragungen werden in der vorliegenden Dissertation systematisch erhoben und ausgewertet.
Kleine und mittelständische Unternehmen stehen durch den permanenten Wandel unserer Wirtschaft [Baumann & Schulte, 2002, S. 5] immer größeren Herausforderungen gegenüber, die sie bewältigen müssen [Bullinger & Buck, 2007]. Um diesen Herausforderungen zu begegnen, muss die Organisation der Geschäftsprozesse innerhalb des Unternehmens effektiv und effizient erfolgen, damit ein möglichst hohes Maß an Transparenz erreicht werden kann.
Um eine effektivere und effizientere Unternehmenssteuerung zu gewährleisten und damit den Unternehmer entlasten zu können, sowie Transparenz zu schaffen, muss der Einsatz von zielgerichteten Methoden zur Schaffung von Kompetenzen im Bereich Prozessmanagement gerade in kleinen und mittelständischen Handwerksunternehmen im Vordergrund stehen. Diese haben aber auf Grund ihrer geringen Größe meist nicht das Know-how und die Ressourcen, sich neben den operativen Aufgaben mit den neuen Strategien der Betriebsführung zu beschäftigen [Kuiper, et al., 2012, S. 107].
Eine Möglichkeit Transparenz zu schaffen liegt in der Erhebung von Kennzahlen. In dieser Arbeit werden verschiedene Kennzahlensysteme betrachtet und ihre Eignung für den Einsatz in kleinen und mittelständischen Unternehmen anhand von definierten Kriterien verglichen. Das Ergebnis dieses Vergleiches zeigt, dass die in der Literatur identifizierten Kennzahlensysteme für kleine und mittelständische Unternehmen nicht deren Anforderungen entsprechen. Die Systeme liefern darüber hinaus nur wenige konkrete Methoden, wie Kennzahlen in KMU erhoben werden können.
Im Zuge dieser Arbeit werden auch kleine und mittelständische Handwerksunternehmen nach deren Nutzung und Wissen in Bezug auf Kennzahlen befragt. Das Ergebnis dieser Befragung zeigt, dass in den meisten Unternehmen nur sehr wenig Wissen in diesem Bereich vorhanden ist.
Auf Grundlage der Ergebnisse der vergleichenden Analyse bestehender Kennzahlensysteme aus dem ersten Teil dieser Arbeit und der Analyse der Unternehmensbefragung, wird im letzten Teil dieser Arbeit ein Vorschlag für ein prozessorientiertes Kennzahlensystem entwickelt und vorgestellt. Dieser Vorschlag für ein Kennzahlensystem ist insbesondere auf die Bedürfnisse von kleinen und mittelständischen Handwerksunternehmen ausgerichtet. Aber auch mit diesem System können nicht alle Schwierigkeiten die kleine und mittelständische Unternehmen bei der Arbeit mit Kennzahlen haben, eliminiert werden. Das System gibt eine strukturierte Vorgehensweise vor, und erläutert konkrete Maßnahmen, die zur Überwindung von Barrieren bei der effektiven Arbeit mit Kennzahlen, durchgeführt werden können.
Diese Dissertation entsteht im Rahmen des Projekts Research-Group Learning and Neurosciences (ReGLaN)-Health and Logistics, welches die Optimierung der Gesundheitsversorgung in ländlichen Gebieten Südafrikas zum Ziel hat. Es besteht dabei eine Kooperation mit dem Council for Scientific and Industrial Research (CSIR) Meraka Institute mit Prof. Dr. Dr. Marlien Herselman, Pretoria, Südafrika, als zentrale Ansprechpartnerin. Die Dissertation befasst sich mit der mathematischen Modellierung für adaptive graphische Benutzerschnittstellen (GUI), die ein angepasstes Verhalten in Abhängigkeit von Geographischen Informationssystemen (GIS) besitzen und durch räumliche Fuzzy-Logik gesteuert werden. Innerhalb der Arbeit geht es um die mathematische Visualisierung von maßgeschneiderten Risiko- und Ressourcenkarten für epidemiologische Fragestellungen mit GIS und adaptives GUI-Design für eine Open Source (OS)-Anwendung für digitale Endgeräte zur räumlichen Entscheidungsunterstützung zugeschnitten auf unterschiedliche Benutzergruppen. Zur Evaluation und Initialisierung der GUI-Elemente wurde empirische Lehr-Lern-Forschung zum Umgang mit Geomedien und GUI-Elementen eingesetzt.
Diese Bachelorarbeit befasst sich mit der Entwicklung und Implementierung einer Gesichtserkennenden Software, die in der Lage ist Personenströme zurnerkennen und zu protokollieren. Dabei wird, ausgehend von den speziellen Anforderungen der Bildverarbeitung die entstandene Softwarearchitektur und deren Implementation vorgestellt. Zusätzlich wird zur Implementation ein Webinterface entwickelt welches die Verwaltung der Daten vereinfachen soll. Abschließend werden weitere Verfahren der Gesichtserkennung vorgestellt und gegen das eingesetzte Verfahren verglichen. Zum Schluss wird die implementierte Software evaluiert.
Redaktionelle Korrektur betreffend die Erste Ordnung zur Änderung der Promotionsordnung des Fachbereichs 7: Natur- und Umweltwissenschaften der Universität Koblenz-Landau vom 19.08.2014
Promotionsordnung des Fachbereichs 2: Philologie / Kulturwissenschaften vom 06.10.2014
Zehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang an der Universität Koblenz-Landau vom 14.10.2014
Vierte Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang Berufsbildende Schulen an der Universität Koblenz-Landau und der Hochschule Koblenz vom 14.10.2014
Neunte Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulen plus, das Lehramt an Förderschulen sowie das Lehramt an Gymnasien an der Universität Koblenz-Landau vom 14.10.2014
Dritte Ordnung zur Änderung der Ordnung für die Prüfung im Masterstudiengang für das Lehramt an Berufsbildenden Schulen an der Universität Koblenz-Landau und der Hochschule Koblenz vom 14.10.2014
Achte Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Zertifikatsstudiengang (Erweiterungsprüfung) an der Universität Koblenz-Landau vom 14.10.2014
Siebente Ordnung zur Änderung der Prüfungsordnung für die Prüfung im Zwei-Fach-Bachelorstudiengang an der Universität Koblenz-Landau vom 14.10.2014
In den letzten Jahren gibt es im Bereich Software Engineering ein steigendes Interesse an empirischen Studien. Solche Studien stützen sich häufig auf empirische Daten aus Corpora-Sammlungen von Software-Artefakten. Während es etablierte Formen der Durchführung solcher Studien gibt, wie z.B. Experimente, Fallstudien und Umfragen, geschieht die Vorbereitung der zugrunde liegenden Sammlung von Software-Artefakten in der Regel ad hoc.
In der vorliegenden Arbeit wird mittels einer Literaturrecherche gezeigt, wie häufig die Forschung im Bereich Software Engineering Software Corpora benutzt. Es wird ein Klassifikationsschema entwickelt, um Eigenschaften von Corpora zu beschreiben und zu diskutieren. Es wird auch erstmals eine Methode des Corpus (Re-)Engineering entwickelt und auf eine bestehende Sammlung von Java-Projekten angewendet.
Die Arbeit legt zwei umfassende empirische Studien vor, in denen eine umfangreiche und breit angelegte Analysenreihe zu den Sprachen Privacy Preferences (P3P) und objektorientierte Programmierschnittstellen (APIs) durchgeführt wird. Beide Studien stützen sich allein auf die vorliegenden Daten der Corpora und decken dadurch die tatsächliche Nutzung der Sprachen auf.
Eine systematische Literaturstudie zu beaconless Algorithmen für drahtlose Ad-hoc- und Sensornetze
(2014)
Drahtlose Sensornetzwerke (DSN) sind Rechnernetze von Sensorknoten. In positionsbasierten Protokollen senden solche Knoten ihre Positionsdaten periodisch als Nachrichten (Beacon) über Funk an umliegende Knoten. Beacons bringen jedoch Nachteile mit sich, die sog. "beaconless" Algorithmen zu lösen versuchen. Diese Algorithmen benutzen keine Beacons, sollen aber die gleichen Einsatzgebiete abdecken wie ihre Beacon-behafteten Gegenstücke. Trotz ihrer Wichtigkeit im Forschungsgebiet der Rechnernetze sind beaconless Verfahren nach unserem derzeitigen Kenntnisstand noch nicht systematisch untersucht worden.
Ziel dieser Arbeit ist eine möglichst umfassende und systematische Übersicht von beaconless Algorithmen seit der Jahrtausendwende. Relevante Artikel werden anhand ihrer Gemeinsamkeiten kategorisiert und ihre Unterschiede werden gegenübergestellt. Diese Arbeit dient somit als Nachschlagewerk zum aktuellen Forschungsstand von beaconless Algorithmen sowie als Basis zum Aufdecken von Forschungslücken.
Community-Plattformen im Internet verwenden codebasierte Governance, um ihre hohe Anzahl an Nutzerbeiträgen zu verwalten. Dazu gehören alle Arten von Funktionalitäten, mit denen die Community Nutzerbeiträge in irgendeiner Form direkt oder indirekt beurteilen kann. Diese Arbeit erklärt zunächst die Bedeutung codebasierter Governance und der verschiedenen dafür nutzbaren Funktionalitäten. Anschließend werden die erfolgreichsten 50 Community-Plattformen auf codebasierte Governance untersucht. Das Ergebnis zeigt die Zusammenhänge zwischen dem Aufbau einer Plattform, der Beschaσffenheit der Nutzerbeiträge und der darauf ausübbaren codebasierten Governance auf.
Diese Bachelorarbeit behandelt die Zusammenführung der bereits vorliegenden Winkelrekonstruktions- und Simulationskomponente und erweitert diese mit Funktionen, um die Durchführung von systematischen Tests zu ermöglichen. Hierzu wird die Übergabe von Bildern aus der Simulationskomponente an die Winkelrekonstruktionskomponente ermöglicht. Des weiteren wird eine GUI zur Testlaufsteuerung und Parameterübergabe sowie eine Datenbankanbindung zur Speicherung der verwendeten Einstellungen und erzeugter Daten angebunden. Durch die Analyse der erzeugten Daten zeigt sich eine ausreichende durchschnittliche Präzision von 0.15° und eine maximale Abweichung der einzelnen Winkel von 0.6°. Der größte Gesamtfehler beläuft sich in den Testläufen auf 0.8°. Der Einfluss von fehlerhaften Parametern hat von variable zu Variable unterschiedliche Auswirkungen. So verstärkt ein Fehler in Höhe den Messfehler um ein vielfaches mehr, als ein Fehler in der Länge der Deichsel.