Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (45) (entfernen)
Sprache
- Englisch (45) (entfernen)
Schlagworte
- Computergraphik (2)
- Enterprise 2.0 (2)
- Graphik (2)
- Internet of Things (2)
- OpenGL (2)
- API (1)
- Agenten (1)
- Agents (1)
- Android <Systemplattform> (1)
- Annotation (1)
- Archivierung (1)
- Automatische Klassifikation (1)
- BPM (1)
- Bebauungsdichte (1)
- Bildanalyse (1)
- Blickpunktabhängig (1)
- Business Process Modeling (1)
- C++ (1)
- Cloud Computing (1)
- Cold Chain (1)
- Coloskopie (1)
- Compute Shader (1)
- Computer Graphics (1)
- Computerspiel (1)
- Computervisualistik (1)
- Container Entity Modell (1)
- Content Management (1)
- Darmpolyp (1)
- Data manipulation (1)
- Digitale Bilder (1)
- Drahtloses lokales Netz (1)
- ECSA (1)
- Empfehlungssystem (1)
- Enterprise Information Management (1)
- Entity Component System Architecture (1)
- Europäischer Schadensbericht (1)
- Fabric Simulation (1)
- FlexViz (1)
- Food Transportation System (1)
- Foodstuff (1)
- GPS (1)
- GSM-Standard (1)
- Gamification (1)
- Geocaching (1)
- Germany (1)
- Grafikkarte (1)
- Grafikprogrammierung (1)
- Graphicsprogramming (1)
- Haskell (1)
- Health (1)
- Informatik (1)
- Information Asset Register (1)
- Information Audit (1)
- Information Capturing Methods (1)
- Insurance (1)
- Konturfindung (1)
- Konzept (1)
- Line Space (1)
- Linespace (1)
- Lokalisation (1)
- Machine-Learning (1)
- Machinelles lernen (1)
- Merkmalsdetektion (1)
- Migration (1)
- Mining Software Repositories (1)
- Mister X (1)
- N-Body Simulation (1)
- N-Körper Simulation (1)
- Native language identification (1)
- OWL <Informatik> (1)
- Ontologie <Wissensverarbeitung> (1)
- OpenGL Shading Language (1)
- Path Tracing (1)
- Pfadnachverfolgung (1)
- Politik (1)
- Probabilistic finite automata (1)
- Programmierung (1)
- Prozedurale Synthese (1)
- RDF (1)
- Real-Life Game (1)
- Real-Life Spiel (1)
- Recommender System (1)
- Reflections (1)
- Reflektionen (1)
- Registratur (1)
- Rendering (1)
- Shader (1)
- Smartphone (1)
- Specular (1)
- Steuerung (1)
- Stoffsimulation (1)
- Strassenkreuzung (1)
- Text (1)
- Texterkennung (1)
- Tracing (1)
- University (1)
- WLAN Fingerprinting (1)
- Wearables (1)
- WiFi Fingerprinting (1)
- Wissensbasis (1)
- Wrapping (1)
- archiving (1)
- bait-lamina test (1)
- biodegradation (1)
- concept (1)
- deutsche Hochschulen (1)
- governance (1)
- jOWL (1)
- knowledge base (1)
- modulares System (1)
- phenolic compounds (1)
- policy modelling (1)
- procedural content generation (1)
- soil water repellency (1)
- tool-integration (1)
- video games (1)
- water re-use (1)
Die Koloskopie ist der Goldstandard zur Aufspürung von gefährlichen Darmpolypen, die sich zu Krebs entwickeln können. In einer solchen Untersuchung sucht der Arzt in den vom Endoskop gelieferten Bildern nach Polypen und kann diese gegebenenfalls entfernen. Um den Arzt bei der Suche zu unterstützen, erforscht die Universität Koblenz-Landau zur Zeit Methoden, die zur automatischen Detektion von Polypen auf endoskopischen Bildern verwendet werden können. Wie auch bei anderen Systemen zur Mustererkennung werden hierzu zunächst Merkmale aus den Bildern extrahiert und mit diesen ein Klassifikator trainiert. Dieser kann dann für die Klassifikation von ihm unbekannten Bildern eingesetzt werden. In dieser Arbeit wurde das vorhandene System zur Polypendetektion um Merkmalsdetektoren erweitert und mit den bereits vorhandenen verglichen. Implementiert wurden Merkmale basierend auf der Diskreten Wavelet-Transformation, auf Grauwertübergangsmatrizen und auf Local Binary Patterns. Verschiedene Modifikationen dieser Merkmale wurden getestet und evaluiert.
Im Rahmen dieser Bachelorarbeit wurde ein Back-Office für die elektronische Version des Europäischen Schadensberichtes erstellt. Es wurde bereits in anderen Arbeiten ein mobiler Client, welcher auf einem Windows Mobile Handy läuft, sowie ein Polizei Client erstellt. Diese greifen auf das Back-Office zu, um Daten, wie z.B. die Autodaten (Automarke, der Typ, das Baujahr und Bilder eines 3D-Modells des Autos) zu einem bestimmten Kennzeichen oder die Personendaten des jeweiligen Autobesitzers zu erhalten. Der mobile Client sendet zudem die Unfallakte an das Back-Office, damit die Daten über einen Unfall in diesem abgespeichert und weiter bearbeitet werden können. Ziel der Arbeit war es ein erweiterbares, modulares System zu entwickeln, welches später um weitere Module ergänzt werden kann, um neue Funktionen bereitstellen zu können. Diese Module können jeweils beliebige Daten in einer Datenbank abspeichern und diese von der Datenbank auch wieder abfragen, sowie verändern, ohne dass das relationale Schema der Datenbank verändert werden muss.
Texture-based text detection in digital images using wavelet features and support vector machines
(2010)
In dieser Bachelorarbeit wird ein neues texturbasiertes Verfahren zur Detektion von Texten in digitalen Bildern vorgestellt. Das Verfahren kann im wesentlichen in zwei Hauptaufgaben unterteilt werden, in Detektion von Textblöcken und Detektion von einzelnen Wörtern, wobei die einzelnen Wörter aus den detektierten Textblöcken extrahiert werden. Im Groben agiert das entwickelte Verfahren mit mehreren Support Vector Machines, die mit Hilfe von waveletbasierten Merkmalen mögliche Textregionen eines Bildes zu wirklichen Textregionen klassiffzieren. Die möglichen Textregionen werden dabei durch unterschiedlich ausgerichtete Kantenprojektionen bestimmt. Das Resultat des Verfahrens sind X/Y Koordinaten, Breite und Höhe von rechteckigen Regionen eines Bildes, die einzelne Wörter enthalten. Dieses Wissen kann weiterverarbeitet werden, beispielsweise durch eine Texterkennungssoftware, um an die wichtigen und sehr nützlichen Textinformationrneines Bildes zu gelangen.
In dieser Arbeit werden vier der derzeit verfügbaren webbasierten Visualisierungstools evaluiert (FlexViz, Jambalaya applet, Experimental jOWL TouchGraph, Plone ontology).
Im Rahmen dieser Arbeit werden weiterhin folgende Fragen erforscht: 1. Welche Anforderungen an die Visualisierung von Ontologien können definiert werden? 2. Wie kann eine Bewertung und Analyse durchgeführt werden? 3. Wie kann eine ausgewählte Methode getestet werden? Basierend auf den Ergebnissen dieser Fragestellungen stellte sich die Visualisierungsmethode FlexViz im gegebenen Szenario als beste heraus. FlexViz wurde eingesetzt, indem es in das Content Management System Plone integriert wurde. Es wurde mit VCD Ontologien getestet und schließlich aus der Sicht verschiedener Interessengruppen analysiert. Es zeigte sich, dass FlexViz ein gutes Tool zum Visualisieren, Verstehen und Analysieren von bereits entwickelten Ontologien ist, da die Benutzeroberfläche benutzerfreundlich und interaktiv ist. Jedoch zeigt FlexViz deutliche Schwächen bzgl. dem Bearbeiten, Erweitern und Entwickeln von Ontologien.
Diese Bachelorarbeit beschäftigt sich mit dem Vergleich bezüglich der Ähnlichkeit von aufgezeichneten WLAN-Mustern bei der Nachverfolgung eines Pfades durch die Straßen einer großen Stadt. Sowohl ein nur auf MAC-Adressen basierender Vergleich als auch die Miteinbeziehung von RSSI-Werten ist untersucht worden, wobei die Lokalisierungsgenauigkeit bewertet wurde. Methoden für die Erkennung unterschiedlicher Typen und Kombinationen von Schleifen in dem Pfad werden gezeigt, ebenso wie der Versuch, den Grad urbaner Bebauung in der Umgebung des Benutzers abzuschätzen, indem die empfangene Signalstärke und der Signal-Rausch-Abstand von GPS-Satelliten und GSM-Funkmasten ausgewertet wurde.
Um die Annäherung eines Benutzers an einen bestimmten Punkt auf einem großen öffentlichen Platz zu beobachten, wurde die Absorption von WLAN-Signalen durch den menschlichen Körper berücksichtigt. Abschließend werden die Ergebnisse eines Vergleichs zwischen der Rechenleistung eines modernen Smartphones und der Alternative einer entfernten Berechnung auf einem Server inklusive der Datenübertragung über das Mobilfunknetz vorgestellt.
API Migration bezeichnet den Wechsel einer benutzten API eines Programms in eine andere. Eine spezielle Form ist die sogenannte wrapper-basierte API Migration. In diesem Fall wird die API gewechselt, ohne das eigentliche Programm zu berühren. Sie wird unter Benutzung der neuen API reimplementiert. Dieser so genannte Wrapper besitzt das Interface der alten API, benutzt jedoch die Implementierung der neuen.
Dies ist ein interessanter Ansatz, da der Wrapper in jedem Programm eingesetzt werden kann, das bislang die alte API verwendet hat.
Um diesen Vorgang reproduzierbar zu machen, entwickeln wir eine ranking-basierte Methode, um einen Wrapper zu entwickeln. Hierbei implementieren wir abhängig von fehlschlagenden Testfällen immer die API-Methode mit der jeweils höchsten Priorität. So können wir jeden Implementierungssschritt rekonstruieren.
Im ersten Schritt entwickeln wir eine Infrastruktur, mit der wir Testsuites von Java-Projekten starten und messen können.
Mittels dieser Basis können wir nun die Ranking-Methode anweden, um einen Wrapper zu entwickeln.
In der vorliegenden Arbeit untersuche ich eine breite Spanne von Libraries, Frameworks und anderer Technologien für die Programmiersprache Haskell. Ich demonstriere verschiedene praktische Anwendungen von Haskell und trage durch Implementationen und Taxonomieeinheiten zum 101companies System bei. Dies tue ich, indem ich einen großen Teil des 101companies feature models abdecke und damit verknüpfte Definitionen von Begriffen und Technologien in dieses System einpflege. Die Implementationen zeigen, wie verschiedene Sprachkonzepte von Haskell wie ein sehr starkes Typensystem, Polymorphismus, Funktionen höherer Ordnungen und Monaden effektiv bei der Entwicklung von Informationssystemen benutzt werden können. In diesem Zusammenhang zeige ich sowohl Vorteile als auch Einschränkungen der verschiedenen Technologien auf.
Prozedurale Synthese, das Erzeugen von Computerspielinhalten durch die Verwendung von pseudo-zufälligen Algorithmen, ist ein Themenbereich mit wachsendem Interesse in wirtschaftlichen und akademischen Kreisen, verdankt sowohl durch ihre Eignung zur Senkung von Entwicklungszeit und -kosten als auch durch die Möglichkeit, prozedurale Synthese zur Erzeugung von interessanten und einmaligen Spielwelten einzusetzen. Obwohl viele aktuelle Computerspiele prozedural generierte Inhalte verwenden, gebrauchen nur wenige diese Methoden zur Erzeugung realistischer Weltraum-Spielumgebungen, und die Umsetzbarkeit der Anwendung prozeduraler Synthese zur Entwicklung eines solchen Spiels wurde untersucht. Aktuelle Modelle aus der Forschung wurden verwendet, um eine in Echtzeit laufende astronomische Simulation in Python zu entwickeln, welche Stern- und Planetenobjekte in einer fiktiven Galaxie prozedural erzeugt, die als Spielwelt eines einfachen 2DWeltraumspiels dient, in welchem der Spieler nach intelligentem Leben suchen muss.
Hinsichtlich der rapide anwachsenden Menge an jährlich produzierten Daten und der wachsenden Akzeptanz des Enterprise 2.0, müssen sich Unternehmen immer stärker mit dem Management ihrer Daten befassen. Inhalt, der unkoordiniert erstellt und abgelegt wird, kann zu Datensilos führen (Williams & Hardy 2011, S.57), welche lange Suchzeiten, unzugängliche Daten und in der Konsequenz monetäre Verluste hervorrufen können. Das "sich ausdehnende digitale Universum" zwingt Unternehmen zur Entwicklung neuer Archivierungslösungen und Records Management Richtlinien (Gantz et al. 2007, S.13). Enterprise Content Management (ECM) ist das Untersuchungsfeld, welches sich mit diesen Anforderungen beschäftigt. Es ist im wissenschaftlichen Kontext des Enterprise Information Management angesiedelt. Ziel dieser Bachelor-Arbeit ist es, herauszufinden in welchem Umfang aktuelle Enterprise Content Management Systeme (ECMS) diese neuen Anforderungen, vor allem die Archivierung von Daten aus dem Enterprise 2.0, unterstützen. Zu diesem Zweck wurden drei Szenarien erstellt, mit deren Hilfe zwei verschiedene Arten von ECMS (ein Open Source - und ein proprietäres System), ausgewählt auf Grundlage einer kurzen Marktübersicht, evaluiert werden sollen. Die Anwendung der Szenarien zeigt, dass sich die Software Anbieter über die Probleme der Industrie im Klaren sind: beide Programme stellen Funktionen zur Archivierung von Daten aus online Teamarbeit sowie Möglichkeiten zum Records Management zur Verfügung. Aber die Integration beider Funktionalitäten ist nicht oder nur unvollständig gelöst. An dieser Stelle werden neue Fragen - wie z.B. "Welche im Enterprise 2.0 anfallenden Daten besitzen die Wichtigkeit, als "Business Record" gespeichert zu werden?" - aufgeworfen und müssen in zukünftiger Forschung betrachtet werden.
The goal of this Bachelor thesis is to implement and evaluate the "Simulating of Collective Misbelief"-model into the NetLogo programming language. Therefore, the model requirements have to be specified and implemented into the NetLogo environment. Further tool-related re-quirements have to be specified to enable the model to work in NetLogo. After implementation several simulations will be conducted to answer the research question stated above.