Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (44) (entfernen)
Sprache
- Englisch (44) (entfernen)
Volltext vorhanden
- ja (44) (entfernen)
Schlagworte
- Computergraphik (2)
- Enterprise 2.0 (2)
- Graphik (2)
- Internet of Things (2)
- OpenGL (2)
- API (1)
- Agenten (1)
- Agents (1)
- Android <Systemplattform> (1)
- Annotation (1)
- Archivierung (1)
- Automatische Klassifikation (1)
- BPM (1)
- Bebauungsdichte (1)
- Bildanalyse (1)
- Blickpunktabhängig (1)
- Business Process Modeling (1)
- C++ (1)
- Cloud Computing (1)
- Cold Chain (1)
- Coloskopie (1)
- Compute Shader (1)
- Computer Graphics (1)
- Computerspiel (1)
- Computervisualistik (1)
- Container Entity Modell (1)
- Content Management (1)
- Darmpolyp (1)
- Data manipulation (1)
- Digitale Bilder (1)
- Drahtloses lokales Netz (1)
- ECSA (1)
- Empfehlungssystem (1)
- Enterprise Information Management (1)
- Entity Component System Architecture (1)
- Europäischer Schadensbericht (1)
- Fabric Simulation (1)
- FlexViz (1)
- Food Transportation System (1)
- Foodstuff (1)
- GPS (1)
- GSM-Standard (1)
- Gamification (1)
- Geocaching (1)
- Germany (1)
- Grafikkarte (1)
- Grafikprogrammierung (1)
- Graphicsprogramming (1)
- Haskell (1)
- Health (1)
- Informatik (1)
- Information Asset Register (1)
- Information Audit (1)
- Information Capturing Methods (1)
- Insurance (1)
- Konturfindung (1)
- Konzept (1)
- Line Space (1)
- Linespace (1)
- Lokalisation (1)
- Machine-Learning (1)
- Machinelles lernen (1)
- Merkmalsdetektion (1)
- Migration (1)
- Mining Software Repositories (1)
- Mister X (1)
- N-Body Simulation (1)
- N-Körper Simulation (1)
- Native language identification (1)
- OWL <Informatik> (1)
- Ontologie <Wissensverarbeitung> (1)
- OpenGL Shading Language (1)
- Path Tracing (1)
- Pfadnachverfolgung (1)
- Politik (1)
- Probabilistic finite automata (1)
- Programmierung (1)
- Prozedurale Synthese (1)
- RDF (1)
- Real-Life Game (1)
- Real-Life Spiel (1)
- Recommender System (1)
- Reflections (1)
- Reflektionen (1)
- Registratur (1)
- Rendering (1)
- Shader (1)
- Smartphone (1)
- Specular (1)
- Steuerung (1)
- Stoffsimulation (1)
- Strassenkreuzung (1)
- Text (1)
- Texterkennung (1)
- Tracing (1)
- University (1)
- WLAN Fingerprinting (1)
- Wearables (1)
- WiFi Fingerprinting (1)
- Wissensbasis (1)
- Wrapping (1)
- archiving (1)
- bait-lamina test (1)
- biodegradation (1)
- concept (1)
- deutsche Hochschulen (1)
- governance (1)
- jOWL (1)
- knowledge base (1)
- modulares System (1)
- phenolic compounds (1)
- policy modelling (1)
- procedural content generation (1)
- soil water repellency (1)
- tool-integration (1)
- video games (1)
- water re-use (1)
Next Word Prediction beschreibt die Aufgabe, das Wort vorzuschlagen, welches ein Nutzer mit der höchsten Wahrscheinlichkeit als Nächstes eingeben wird. Momentane Ansätze basieren auf der Analyse sogenannter Corpora (große Textdateien) durch empirischen Methoden. Die resultierende Wahrscheinlichkeitsverteilungen über die vorkommenden Wortsequenzen werden als Language Models bezeichnet und zur Vorhersage des wahrscheinlichsten Wortes genutzt. Verbreitete Language Models basieren auf n-gram Sequenzen und Smoohting Algorithmen wie beispielsweise dem modifizierten Kneser-Ney Smoothing zur Anpassung der Wahrscheinlichkeit von ungesehenen Sequenzen. Vorherige Untersuchungen haben gezeigt, dass das Einfügen von Platzhaltern in solche n-gram Sequenzen zu besseren Ergebnissen führen kann, da dadurch die Berechnung von seltenen und ungesehenen Sequenzen weiter verbessert wird. Das Ziel dieser Arbeit ist die Formalisierung und Implementierung dieses neuen Ansatzes, wobei zusätzlich das modifizierte Kneser-Ney Smoothing eingesetzt werden soll.
In dieser Arbeit präsentieren wir Methoden zum Schätzen von Kamerabewegungen einer RGB-D-Kamera in sechs Freiheitsgraden und dem Erstellen von 3D-Karten. Als erstes werden die RGB- und Tiefendaten registriert und synchronisiert. Nach der Vorverarbeitung extrahieren wir FAST-Merkmale in zwei aufeinander folgenden Bildern. Daraus wird eine Korrespondenzmenge erstellt und Ausreißer werden herausgefiltert. Anschließend projizieren wir die Korrespondenzmenge in 3D, um die Bewegung aus 3D-3D-Korrespondezen mittels Least-Squares zu bestimmen. Weiterhin präsentieren wir Methoden, um 3D-Karten aus Bewegungsschätzungen und RGB-D-Daten zu erstellen. Dafür benutzen wir das OctoMap-Framework und erstellen wahlweise auch inkrementelle Karten aus Punktewolken. Anschließend evaluieren wir das System mit dem weit verbreiteten RGB-D-Benchmark.
This work describes a novel software tool for visualizing anatomical segmentations of medical images. It was developed as part of a bachelor's thesis project, with a view to supporting research into automatic anatomical brain image segmentation. The tool builds on a widely-used visualization approach for 3D image volumes, where sections in orthogonal directions are rendered on screen as 2D images. It implements novel display modes that solve common problems with conventional viewer programs. In particular, it features a double-contour display mode to aid the user's spatial orientation in the image, as well as modes for comparing two competing segmentation labels pertaining to one and the same anatomical region. The tool was developed as an extension to an existing open-source software suite for medical image processing. The visualization modes are, however, suitable for implementation in the context of other viewer programs that follow a similar rendering approach.
The modified code can be found here: soundray.org/mm-segmentation-visualization.tar.gz.
Die in den letzten Jahren fortschreitende Digitalisierung hat zur Ausbreitung und Popularisierung von Internet of Things (IoT) Technologie beigetragen (Mattern and Floerkemeier, 2010; Evans, 2013). Darüber hinaus wurde die Gesundheitsdomäne als eine der am stärksten aktiven IoT Bereiche identifiziert (Steele and Clarke, 2013). Die vorliegende Bachelorarbeit gibt einen Überblick über IoT gestützte Gamification und entwickelt ein Framework welches IoT und Gamification im Kontext einer Versicherung kombiniert. Beim Untersuchen von Gamification wurde ein konzeptuelles Modell entwickelt welches insbesondere die Rolle von IoT in einem solchen Ansatz verdeutlicht. Diesbezüglich wurde festgestellt, dass IoT bei der Aufgabenstellung Anwendung findet und diese zum einen in einem großen Rahmen ermöglicht sowie innovative und komplexere Aufgaben erlaubt. In diesem Zusammenhang wurden besonders die Vorteile und Notwendigkeit von tragbaren IoT Geräten erläutert. Eine Stakeholder Analyse beschäftigte sich mit den Vorteilen, welche durch IoT und Gamification erreicht werden können. Hierbei konnten zwei daraus erwachsende Paradigmenwechsel, für Versicherung und Versicherungsnehmer, identifiziert werden. Basierend auf den zuvor gewonnenen Erkenntnissen der Untersuchung der Gamification Ansätze und der Stakeholder Analyse wurde ein IoT gestütztes Gamification Framework entwickelt. Das Framework weißt einen Level-basierten Aufbau auf, welcher den Benutzer entlang des Entwurfsprozess leiten soll. Sowohl das erstellen, als auch das analysieren eines bestehenden Ansatzes ist mit dem Framework möglich. Darüber hinaus wurde das Framework anhand von Pokémon Go instanziiert um mögliche Mängel zu identifizieren und zu erklären. Die vorliegende Bachelorarbeit liefert eine Grundlage auf deren Basis umfassendere kontextbezogene Forschung betrieben werden kann
This thesis is providing an overview over the current topics and influences of mobile components on Enterprise Content Management (ECM). With a literature review the core topics of enterprise mobility and ECM have been identified and projected on the context of using mobile Apps within the environment of ECM. An analysis of three ECM systems and their mobile software lead to an understanding of the functionalities and capabilities mobile systems are providing in the ECM environment. These findings lead to a better un- derstanding for the usage of mobile Enterprise Content Management and is preparation. The thesis focuses the most important topics, which need to be considered for the usage and adoption of mobile Apps in ECM.
Texture-based text detection in digital images using wavelet features and support vector machines
(2010)
In dieser Bachelorarbeit wird ein neues texturbasiertes Verfahren zur Detektion von Texten in digitalen Bildern vorgestellt. Das Verfahren kann im wesentlichen in zwei Hauptaufgaben unterteilt werden, in Detektion von Textblöcken und Detektion von einzelnen Wörtern, wobei die einzelnen Wörter aus den detektierten Textblöcken extrahiert werden. Im Groben agiert das entwickelte Verfahren mit mehreren Support Vector Machines, die mit Hilfe von waveletbasierten Merkmalen mögliche Textregionen eines Bildes zu wirklichen Textregionen klassiffzieren. Die möglichen Textregionen werden dabei durch unterschiedlich ausgerichtete Kantenprojektionen bestimmt. Das Resultat des Verfahrens sind X/Y Koordinaten, Breite und Höhe von rechteckigen Regionen eines Bildes, die einzelne Wörter enthalten. Dieses Wissen kann weiterverarbeitet werden, beispielsweise durch eine Texterkennungssoftware, um an die wichtigen und sehr nützlichen Textinformationrneines Bildes zu gelangen.
Im Rahmen dieser Bachelorarbeit wurde ein Back-Office für die elektronische Version des Europäischen Schadensberichtes erstellt. Es wurde bereits in anderen Arbeiten ein mobiler Client, welcher auf einem Windows Mobile Handy läuft, sowie ein Polizei Client erstellt. Diese greifen auf das Back-Office zu, um Daten, wie z.B. die Autodaten (Automarke, der Typ, das Baujahr und Bilder eines 3D-Modells des Autos) zu einem bestimmten Kennzeichen oder die Personendaten des jeweiligen Autobesitzers zu erhalten. Der mobile Client sendet zudem die Unfallakte an das Back-Office, damit die Daten über einen Unfall in diesem abgespeichert und weiter bearbeitet werden können. Ziel der Arbeit war es ein erweiterbares, modulares System zu entwickeln, welches später um weitere Module ergänzt werden kann, um neue Funktionen bereitstellen zu können. Diese Module können jeweils beliebige Daten in einer Datenbank abspeichern und diese von der Datenbank auch wieder abfragen, sowie verändern, ohne dass das relationale Schema der Datenbank verändert werden muss.
Die automatische Identifikation von Experten in einer speziellen technologischen Domäne, wie einer Bibliothek, Framework oder generellen Technologie, schafft einen großen Mehrwert in der gemeinsamen Entwicklung von Softwareprojekten. Daher soll in dieser Arbeit ein Vorgehen sowie ein Programm zur automatischen Identifikation von Experten entwickelt werden, die gewissen Skills besitzen. Hierbei wird speziell das Django-Framework betrachtet. Jedoch kann durch hinzufügen von weiteren Regeln unser Tool leicht auf andere Technologien angepasst werden. Abschließend wird eine case study auf ein Open Source Projekt durchgeführt.
Die Entwicklung der echtzeitfähigen Computergrafik ermöglicht mittlerweile immer realistischere Bilder und die Hardware kann dafür optimal ausgenutzt werden, wodurch immer glaubwürdigere Lichtverhältnisse simuliert werden können. Eine große Anzahl von Algorithmen, effizient implementiert auf der Grafikkarte (GPU, auch Grafikprozessor)), sind fähig komplexe Lichtsituationen zu simulieren. Effekternwie Schatten, Lichtbrechung und Lichtreflexion können mittlerweile glaubwürdig erzeugt werden. Besonders durch Reflexionen wird der Realismus der Darstellung erhöht, da sie glänzende Materialien, wie z.B. gebürstete Metalle, nasse Oberflächen, insbesondere Pfützen oder polierte Böden, natürlich erscheinen lassen. Dabei geben sie einen Eindruck der Materialeigenschaften, wie Rauheit oder Reflexionsgrad.rnAußerdem können Reflexionen vom Blickpunkt abhängen: Eine verregnete Straße zum Beispiel würde Licht, abhängig von der Entfernung des Betrachters reflektieren und verwaschene Lichtreflexe erzeugen. Je weiter der Betrachter von der Lichtquelle entfernt ist, desto gestreckter erscheinen diese. Ziel dieser Bachelorarbeit ist, eine Übersicht über existierende Render-Techniken für Reflexionen zu geben, um den aktuellen Stand der Technik abzubilden. Reflexion entsteht durch den Einfall von Licht auf Oberflächen, die dieses in eine andere Richtung zurückwerfen. Um dieses Phänomen zu verstehen, wird eine Auffassung von Licht benötigt. Kapitel 2.1 beschreibt daher ein physikalisches Modell von Licht, gefolgt von Kapitel 2.2, das anhand von Beispielen ästhetisch wirkender Reflexionseffekte aus der realenrnWelt und den Medien die Motivation dieser Arbeit darlegt. In Kapitel 3 soll die generelle Vorgehensweise beim Rendern von Reflexionen deutlich gemacht werden. Danach wird in Kapitel 4 eine grobe Übersicht über existierende Ansätze gegeben. In Abschnitt 5 werden dann drei wesentliche Algorithmen vorgestellt, die zur Zeit oft in Spiel- und Grafikengines verwendet werden: Screen Space Reflections (SSR), Parallax-corrected cube mapping (PCCM) und Billboard Reflections (BBR). Diese drei Ansätze wurden zusammen in einem Framework implementiert. Dieses wird in Kapitel 5 vorgestellt und erklärt, gefolgt von detaillierten Beschreibungen der drei Techniken. Nachdem ihre Funktionsweise erklärt wurde, werden die Ansätze analysiert und auf ihre visuelle Qualität sowie ihre Echtzeitfähigkeit getestet. Abschließend werden die einzelnen Verfahren miteinander verglichen, um ihre Vor- und Nachteile zu untersuchen. Außerdem werden die gewonnenen Erfahrungen beschrieben und Verbesserungsansätze vorgeschlagen. Danach wird ein kurzer Ausblick zur voraussichtlichen Entwicklung von Render-Techniken spekularer Effekte gegeben.
Unternehmen versuchen, Knowledge Management (KM) zu nutzen, um mehr Effizienz und Effektivität im Unternehmen zu erreichen. Das Hauptproblem besteht darin, dass die meisten dieser KM Projekte nicht oder nur selten auf nachhaltigen Analysen oder etablierten Theorien über KM basieren. Oft besteht eine große Kluft zwischen den Erwartungen und dem tatsächlichen Ergebnis solcher KM Initiativen. Die zu beantwortende Forschungsfrage lautet also: Welche Herausforderungen ergeben sich in KM Projekten, welche KM Anforderungen können daraus abgeleitet werden und welche Empfehlungen unterstützen das Ziel, die Anforderungen an KM zu erfüllen? Als theoretische Grundlage wird eine Reihe von KM Frameworks untersucht. Anschließend werden KM Herausforderungen aus der Literatur analysiert und mit Best-Practice-Beispielen aus Case-Studies werden Handlungsempfehlungen für diese Herausforderungen gegeben. Das Hauptergebnis dieser Arbeit ist eine Best Practice-Guideline, die es Chief Knowledge Officers (CKOs) und KM Projektmanagern ermöglicht, die in dieser Arbeit genannten Herausforderungen genau zu untersuchen und eine geeignete Methode zu finden, diese Herausforderung optimal zu meistern. Diese Guideline zeigt, dass KM auf vielfältige Weise positiv und negativ beeinflusst werden kann. Knowledge Management (KM) in einem Unternehmen zu meistern ein großes und weitreichendes Unterfangen ist und das Technologie bzw. Information Technology (IT) nur ein Teil des großen Ganzen ist.
In der vorliegenden Arbeit untersuche ich eine breite Spanne von Libraries, Frameworks und anderer Technologien für die Programmiersprache Haskell. Ich demonstriere verschiedene praktische Anwendungen von Haskell und trage durch Implementationen und Taxonomieeinheiten zum 101companies System bei. Dies tue ich, indem ich einen großen Teil des 101companies feature models abdecke und damit verknüpfte Definitionen von Begriffen und Technologien in dieses System einpflege. Die Implementationen zeigen, wie verschiedene Sprachkonzepte von Haskell wie ein sehr starkes Typensystem, Polymorphismus, Funktionen höherer Ordnungen und Monaden effektiv bei der Entwicklung von Informationssystemen benutzt werden können. In diesem Zusammenhang zeige ich sowohl Vorteile als auch Einschränkungen der verschiedenen Technologien auf.
Ziel dieser Arbeit ist es, ein Recommender System (RS) für Geschäftsprozesse zu erstellen, das auf dem bestehenden ProM-Plug-in RegPFA aufbaut. Um dies zu gewährleisten, soll zunächst eine Schnittstelle geschaffen werden, welche die von RegPFA erstellten probabilistischen endlichen Automaten (PFA) im tsml-Format zu einer erweiterbaren Datenbasis zusammenfassen kann. Anschließend soll ein Java-Programm geschrieben werden, das mithilfe dieser Datenbasis zu einem gegebenen Teilprozess die wahrscheinlichsten Empfehlungen für das nächstfolgende Prozesselement angibt.
Diese Arbeit beschäftigt sich mit Information Audit Methodologien und Methoden zur Informationserfassung in Enterprise Social Software. Die Erfassung von Informationsressourcen ist ein elementarer Bestandteil des Information Audit. Das Fehlen einer standardisierten Definition und von standardisierten Methodologien für Information Auditing ist begründet durch den weit gefächerten Anwendungsbereich des Information Audit und durch seine notwendige individuelle Anpassbarkeit an die Bedürfnisse der durchführenden Organisationen. Die Vorteile von Information Auditing und die möglichen Herausforderung durch Enterprise 2.0, die mit Hilfe des Audits überwunden werden können, sind weitreichend und stellen einen Anreizpunkt für Manager einen Information Audit durchzuführen. Information Asset Register als Ausgangspunkt für erfolgreiches Information Auditing berücksichtigen noch nicht die besonderen Herausforderungen von Enterprise 2.0. Deshalb spannt dieses Forschungsprojekt einen Bogen von Information Asset Registern aus verschiedenen Einflussbereichen und kombiniert diese, um ein neuartiges Asset Register, welches die besonderen Anforderungen von Enterprise 2.0 berücksichtigt, zu erstellen. Die notwendigen Anpassungen, die durch die neuen Charakteristika der Informationsressourcen verursacht werden, sind von geringem Ausmaß. Das neu entwickelte Asset Register wird im abschließenden Teil der Arbeit in einer Fallstudie angewendet und zeigt mögliche Problembereiche, die beim Zusammenstellen des Registers auftreten können, auf.
Als Abschluss der Arbeit wird eine Vorlage entwickelt, welche Nutzern von Enterprise Social Software beim Erstellen von neuen Arbeitsbereichen behilflich sein wird, diese mit passenden Metadaten, wie sie bereits im Information Asset Register festgehalten werden, zu versehen.
Abstract
This bachelor thesis delivers a comprehensive overview of the topic Internet of Things (IoT). With the help of a first literature review, important characteristics, architectures, and properties have been identified. The main aim of this bachelor thesis is to determine whether the use of IoT in the transport of food, considering the compliance with the cold chain, can provide advantages for companies to reduce food waste. For this purpose, a second literature review has been carried out with food transport systems without the use, as well as with the use of IoT. Based on the literature review, it is possible at the end to determine a theoretical ‘ideal’ system for food transport in refrigerated trucks. The respective used technologies are also mentioned. The findings of several authors have shown that often significant improvements can be achieved in surveillance, transport in general, or traceability of food, and ultimately food waste can be reduced. However, benefits can also be gained using new non-IoT-based technologies. Thus, the main knowledge of this bachelor thesis is that a theoretical ‘ideal’ transport system contains a sensible combination of technologies with and without IoT. This system includes the use of a Wireless Sensor Network (WSN) for real-time food monitoring, as well as an alarm function when the temperature exceeds a maximum. Real-time monitoring with GPS coupled with a monitoring center to prevent traffic jams is another task. Smart and energy-efficient packaging, and finally the use of the new supercooling-technology, make the system significantly more efficient in reducing food waste. These highlights, that when choosing a transport system, which is as efficient and profitable as possible for food with refrigerated transport, companies need not just rely on the use of IoT. On this basis, it is advisable to combine the systems and technologies used so far with IoT in order to avoid as much food waste as possible.
Prozedurale Synthese, das Erzeugen von Computerspielinhalten durch die Verwendung von pseudo-zufälligen Algorithmen, ist ein Themenbereich mit wachsendem Interesse in wirtschaftlichen und akademischen Kreisen, verdankt sowohl durch ihre Eignung zur Senkung von Entwicklungszeit und -kosten als auch durch die Möglichkeit, prozedurale Synthese zur Erzeugung von interessanten und einmaligen Spielwelten einzusetzen. Obwohl viele aktuelle Computerspiele prozedural generierte Inhalte verwenden, gebrauchen nur wenige diese Methoden zur Erzeugung realistischer Weltraum-Spielumgebungen, und die Umsetzbarkeit der Anwendung prozeduraler Synthese zur Entwicklung eines solchen Spiels wurde untersucht. Aktuelle Modelle aus der Forschung wurden verwendet, um eine in Echtzeit laufende astronomische Simulation in Python zu entwickeln, welche Stern- und Planetenobjekte in einer fiktiven Galaxie prozedural erzeugt, die als Spielwelt eines einfachen 2DWeltraumspiels dient, in welchem der Spieler nach intelligentem Leben suchen muss.
In dieser Arbeit werden vier der derzeit verfügbaren webbasierten Visualisierungstools evaluiert (FlexViz, Jambalaya applet, Experimental jOWL TouchGraph, Plone ontology).
Im Rahmen dieser Arbeit werden weiterhin folgende Fragen erforscht: 1. Welche Anforderungen an die Visualisierung von Ontologien können definiert werden? 2. Wie kann eine Bewertung und Analyse durchgeführt werden? 3. Wie kann eine ausgewählte Methode getestet werden? Basierend auf den Ergebnissen dieser Fragestellungen stellte sich die Visualisierungsmethode FlexViz im gegebenen Szenario als beste heraus. FlexViz wurde eingesetzt, indem es in das Content Management System Plone integriert wurde. Es wurde mit VCD Ontologien getestet und schließlich aus der Sicht verschiedener Interessengruppen analysiert. Es zeigte sich, dass FlexViz ein gutes Tool zum Visualisieren, Verstehen und Analysieren von bereits entwickelten Ontologien ist, da die Benutzeroberfläche benutzerfreundlich und interaktiv ist. Jedoch zeigt FlexViz deutliche Schwächen bzgl. dem Bearbeiten, Erweitern und Entwickeln von Ontologien.
Bei der Olivenölproduktion fallen innerhalb kürzester Zeit große Mengen Olivenabwasser (OMW) an. OMW kann aufgrund seines hohen Nährstoffgehalts als landwirtschaftlicher Dünger eingesetzt werden. Doch seine öligen und phenolischen Bestandteile schaden dem Boden. Es ist nicht bekannt, inwiefern jahreszeitliche Temperatur- und Niederschlagsschwankungen den Verbleib und die Wirkung der Abwasserkomponenten im Boden längerfristig beeinflussen. Um dem nachzugehen, wurden jeweils 14 L OMW m-2 im Winter, Frühling und Sommer auf verschiedenen Parzellen einer Olivenplantage ausgebracht. Hydrologische Bodeneigenschaften (Wassertropfeneindringzeit, Wasserleitfähigkeit, Kontaktwinkel), physikalisch-chemische Parameter (pH, EC, lösliche Ionen, phenolische Verbindungen, organischer Kohlenstoff) sowie der biologische Abbau (Köderstreifen) wurden erfasst, um den Zustand des Bodens nach der Applikation zu beurteilen. Nach einer Regensaison war die Bodenqualität der im Sommer behandelten Flächen signifikant reduziert. Dies wurde insbesondere anhand einer dreimal niedrigeren biologischen Fraßaktivität, zehnmal höherer Hydrophobizität, sowie einem viermal höheren Gehalt an phenolischen Substanzen im Vergleich zu den Kontrollflächen deutlich. Die Ausbringung im Winter zeigte gegenteilige Effekte, welche das natürliche Regenerierungspotential des Bodens erkennen lassen. Der Einfluss der Frühlingsapplikation lag zwischen den zuvor genannten. Es wurden keinerlei Anzeichen auf Verlagerung von OMW-Bestandteilen in tiefere Bodenschichten beobachtet. Während der feuchten Jahreszeiten gilt die Ausbringung gesetzlich begrenzter Mengen Olivenabwasser somit als vertretbar. Weitere Forschung ist notwendig um den Einfluss von Frühlingsapplikationen zu quantifizieren und weitere Erkenntnisse über die Zusammensetzung und Mobilität organischer OMW-Bestandteile im Boden zu gewinnen.
The Apple ][ computer was one of the frst three completely assembled systems on the market. It was sold several million times from april 1977 to 1993. This 8 bit home computer was developed by Steve Wozniak and Steve Jobs. They paved the way for the Apple Macintosh computer and the nowadays well known brand Apple with its products.
This thesis describes the implementation of a software emulator for the complete Apple ][ computer system on a single Atmel AVR microcontroller unit (MCU). The greatest challenge consists of the fact that the MCU has only a slightly higher clock speed as the Apple ][. This requires an efcient emulation of the CPU and the memory management, which will be covered later on along with the runtime environment controlling the emulator. Furthermore the hardware implementation into a handheld prototype will be shown.
In summary this thesis presents a successful development of a portable Apple ][ emulator covering all aspects from software design over hardware design ending up in a prototype.
Diese Arbeit verbindet die Geschäftstätigkeit von Winzern im Weinbau mit einer innovativen technologischen Anwendung des Internet of Things. Die Arbeit des Winzers kann dadurch unterstützt und bereichert werden – bis hin zu einer bisher nicht möglichen Bewirtschaftungsoptimierung, insbesondere bei einer Überwachung einzelner Lagen bis hin zum einzelnen Rebstock. Exemplarisch werden Temperatur-, Luftfeuchtigkeit- und Bodenfeuchtigkeit-Daten gemessen, übertragen, gespeichert und bereitgestellt. Durch ein modulares Design des Systems können heute verfügbare Sensoren und gleichartige Niedervolt-Sensoren, die künftig entwickelt werden, sofort eingesetzt werden.
Durch IoT-Geräte im Weinberg erhält der Winzer eine neue Qualität der Genauigkeit der Vorhersage auf Basis aktueller Zustandsdaten seines Weinbergs. Zusätzlich kann er bei unvorhergesehenen Wetterbedingungen sofort eingreifen. Die sofortige Nutzbarkeit der Daten wird durch eine Cloud Infrastruktur möglich gemacht. Dabei wird eine offene Service-Infrastruktur genutzt. Im Gegensatz zu anderen bisher veröffentlichten kommerziellen Ansätzen ist dabei die beschriebene Lösung quelloffen.
Als eigenständiger Bestandteil der Arbeit wurde ein physikalischer Prototyp zur Messung relevanter Parameter im Weinberg neu entworfen und bis zur Erfüllung der gesetzten Spezifikationen entwickelt. Die skizzierten Merkmale und Anforderungen an eine funktionierende Datensammlung und ein autonom übertragendes IoT-Gerät wurden entwickelt, beschrieben und die Erfüllung durch das Prototypgerät demonstriert. Durch Literaturrecherche und unterstützende, orientierende Interviews von Winzern wurden die Theorie und die praktische Anwendung synchronisiert und qualifiziert.
Für die Entwicklung des Prototyps wurden die allgemeinen Prinzipien der Entwicklung eines elektronischen Geräts befolgt, insbesondere die Entwicklungsregeln von Design Science Research und die Prinzipien des Quality Function Deployment. Als ein Merkmal des Prototyps wurden einige Prinzipien wie die Wiederverwendung von bewährten Konstruktionen und die Materialpreise der Bausteine des Prototypen wurden ebenfalls in Betracht gezogen (z. B. Gehäuse; Arduino; PCB). Teilezahl-Reduktionsprinzipien, Dekomplexierung und vereinfachte Montage, Prüfung und Vor-Ort-Service wurden in den Entwicklungsprozess durch den modularen Aufbau der funktionellen Weinberg- Gerätekomponenten integriert, wie es der Ansatz des innovativen Schaltschrankbau- System Modular-3 beschreibt.
Das Software-Architekturkonzept basiert auf einer dreischichtigen Architektur inklusive der TTN-Infrastruktur. Das Frontend ist als Rich-Web-Client realisiert, als ein WordPress- Plugin. WordPress wurde aufgrund der weiten Verbreitung über das gesamte Internet und der Einfachheit in der Bedienung ausgewählt, was eine schnelle und einfache Benutzereinweisung ermöglicht. Relevante Qualitätsprobleme wurden im Hinblick auf exemplarische Funktionalität, Erweiterbarkeit, Erfüllung von Anforderungen, Verwendbarkeit und Haltbarkeit des Gerätes und der Software getestet und diskutiert.
Der Prototyp wurde mit Erfolg im Labor und im Einsatzgebiet unter verschiedenen Bedingungen charakterisiert und getestet, um eine Messung und Analyse der Erfüllung aller Anforderungen durch die geplante und realisierte elektronische Konstruktion und Anordnung des Prototypen, zu ermöglichen.
Die entwickelte Lösung kann als Grundlage für eine zukünftige Anwendung und Entwicklung in diesem speziellen Anwendungsfall und ähnlichen Technologien dienen. Ein Ausblick möglicher zukünftiger Arbeiten und Anwendungen schließt diese Arbeit ab.
Autonome Systeme, wie Roboter, sind bereits Teil unseres täglichen Lebens. Eine Sache, in der Menschen diesen Maschinen überlegen sind, ist die Fähigkeit, auf sein Gegenüber angemessen zu reagieren. Dies besteht nicht nur aus der Fähigkeit zu hören, was eine Person sagt, sondern auch daraus, ihre Mimik zu erkennen und zu interpretieren.
In dieser Bachelorarbeit wird ein System entwickelt, welches automatisch Gesichtsausdrücke erkennt und einer Emotion zuordnet. Das System arbeitet mit statischen Bildern und benutzt merkmalsbasierte Methoden zur Beschreibung von Gesichtsdaten. In dieser Arbeit werden gebräuchliche Schritte analysiert und aktuelle Methoden vorgestellt. Das beschriebene System basiert auf 2D-Merkmalen. Diese Merkmale werden im Gesicht detektiert. Ein neutraler Gesichtsausdruck wird nicht als Referenzbild benötigt. Das System extrahiert zwei Arten von Gesichtsparametern. Zum einen sind es Distanzen, die zwischen den Merkmalspunkten liegen. Zum anderen sind es Winkel, die zwischen den Linien liegen, die die Merkmalspunkte verbinden. Beide Arten von Parametern werden implementiert und getestet. Der Parametertyp, der die besten Ergebnisse liefert, wird schließlich in dem System benutzt. Eine Support Vector Machine (SVM) mit mehreren Klassen klassifiziert die Parameter. Das Ergebnis sind Kennzeichen von Action Units des Facial Action Coding Systems (FACS). Diese Kennzeichen werden einer Gesichtsemotion zugeordnet.
Diese Arbeit befasst sich mit den sechs Basisgesichtsausdrücken (glücklich, überrascht, traurig, ängstlich, wütend und angeekelt) plus dem neutralen Gesichtsausdruck. Das vorgestellte System wird in C++ implementiert und an das Robot Operating System (ROS) angebunden.
Eine genaue Schneesimulation ist der Schlüssel zur Erfassung der charakteristischen Visualisierung von Schnee. Aufwendige Methoden existieren, die versuchen Schneeverhalten ganzheitlich zu ergreifen. Die Rechenkomplexität dieser Ansätze hindert sie daran, Echtzeitfähigkeit zu erreichen. Diese Arbeit stellt drei Methoden vor, die unter Verwendung der GPU eine echtzeitfähige Deformation einer Schneeoberoberfläche darstellen. Die Ansätze werden hinsichtlich ihrer wahrheitsgetreuen Schneedarstellung untersucht und nach ihrer Fähigkeit, mit einer zunehmenden Anzahl von schneeverformenden Objekten zu skalieren. Die Ergebnisse zeigen, dass die Methoden bei mehreren hunderten schneeverformenden Objekten ihre Echtzeitfähigkeit beibehalten. Jedoch benachteiligen die charakteristischen Einschränkungen jener Methoden die visuellen Resultate. Ein experimenteller Ansatz ist es, die Anzahl der schneeverformenden Objekte zu reduzieren und durch Zusammenfügen der Methoden ein genaueres, kombiniertes Verformungsmuster zu erzeugen.
Das Internet der Dinge (IoT) ist ein Konzept, bestehend aus vernetzten physischen Objekten, welche in die virtuelle Welt integriert werden um aktive Teilnehmer von Geschäfts- und Alltagsprozessen zu werden (Uckelmann, Harrison and Michahelles, 2011; Shrouf, Ordieres and Miragliotta, 2014). Es wird erwartet, dass dieses Konzept einen großen Einfluss auf Unternehmen haben wird (Council, Nic and Intelligence, 2008). Geschäftsmodelle kleiner und mittelständischer Unternehmen (KMU) sind bedroht, sollten sie den sich abzeichnenden Trend nutzen (Sommer, 2015). Daher ist das Ziel dieser Arbeit, eine exemplarische Implementierung von vernetzten Geräten in einem kleinen Unternehmen um seine Vorteile darzustellen.
Diese Arbeit verwendet Design Science Research (DSR) um einen Prototyp zu entwickeln, der auf dem Anwendungsfall einer Holzwerkstatt aufbaut. Der Prototyp besteht aus einem physischen Sensor und einer Webapplikation, welche von dem kleinen Unternehmen zur Verbesserung seiner Prozesse genutzt werden kann. Die Arbeit dokumentiert den iterativen Entwicklungsprozess der Prototypen von Grund auf zu nutzbarer Hard- und Software.
Der Hauptbeitrag dieser Arbeit ist die beispielhafte Anwendung und Nutzung von IoT in einem kleinen Unternehmen.
Social-Media Plattformen wie Twitter oder Reddit bieten Nutzern nahezu ohne Beschränkungen die Möglichkeit, ihre Meinungen über aktuelle Ereignisse zu veröffentlichen, diese mit anderen zu teilen und darüber zu diskutieren. Während die Mehrheit der Nutzer diese Plattformen nur als reines Diskussionsportal verwenden, gibt es jedoch Nutzergruppen, welche aktiv und gezielt versuchen, diese veröffentlichten Meinungen in ihrem Sinne zu beeinflussen bzw. zu manipulieren. Durch wiederholtes Verbreiten von bearbeiteten Fake-News oder stark polarisierenden Meinungen im gesamten politischen Spektrum können andere Nutzer beeinflusst, manipuliert und unter Umständen zum Träger von Hassreden und extremen politischen Positionen werden. Viele dieser Nutzergruppen sind vor allem in englischsprachigen Portalen anzutreffen, in denen sie sich überwiegend als Muttersprachler ausgeben. In dieser Arbeit stellen wir eine Methode vor, englische Muttersprachler und Nicht-Muttersprachler, die Englisch als Fremdsprache verwenden, anhand von ausgewählten englischen Social Media Texten zu unterscheiden. Dazu implementieren wir textmerkmalbasierte Modelle, welche für traditionelle Machine-Learning Prozesse und neuartigen AutoML-Pipelines zur Klassifizierung von Texten verwendet werden. Wir klassifizieren dabei Sprachfamilie, Muttersprache und Ursprung eines beliebigen englischen Textes. Die Modelle werden an einem bestehenden Datensatz von Reddit, welcher hauptsächlich aus englischen Texten von europäischen Nutzern besteht, und einem neu erstellten Twitter Datensatz, der Tweets von aktuellen Themen in verschiedenen Ländern enthält, angewandt. Wir evaluieren dabei vergleichsweise die erhaltenen Resultate unserer Pipeline zu traditionellen Maschinenlernprozessen zur Texterkennung anhand von Präzision, Genauigkeit und F1-Maßen der Vorhersagen. Wir vergleichen zudem die Ergebnisse auf Unterschiede der Sprachnutzung auf den unterschiedlichen Plattformen sowie den ausgewählten Themenbereichen. Dabei erzielen wir eine hohe Vorhersagewahrscheinlichkeit für alle gewählten Kategorien des erstellten Twitter Datensatzes und stellen unter anderem eine hohe Abweichung in Bezug auf die durchschnittliche Textlänge insbesondere bei Nutzern aus dem baltoslawischen Sprachraum fest.
Wikipedia is the biggest, free online encyclopaedia that can be expanded by any-one. For the users, who create content on a specific Wikipedia language edition, a social network exists. In this social network users are categorised into different roles. These are normal users, administrators and functional bots. Within the networks, a user can post reviews, suggestions or send simple messages to the "talk page" of another user. Each language in the Wikipedia domain has this type of social network.
In this thesis characteristics of the three different roles are analysed in order to learn how they function in one language network of Wikipedia and apply them to another Wikipedia network to identify bots. Timestamps from created posts are analysed to reveal noticeable characteristics referring to continuous messages, message rates and irregular behaviour of a user are discovered. Through this process we show that there exist differences between the roles for the mentioned characteristics.