Filtern
Erscheinungsjahr
- 2010 (17) (entfernen)
Dokumenttyp
- Studienarbeit (17) (entfernen)
Schlagworte
- Mustererkennung (2)
- Robotik (2)
- Augmented Reality (1)
- Automatisches Beweisverfahren (1)
- BPMN (1)
- Balancetheorie (1)
- CB2 (1)
- Cascada (1)
- Computational logic (1)
- Computergraphik (1)
- DTI (1)
- E-KRHyper (1)
- E-Learning (1)
- EPC (1)
- EPK (1)
- Eclipse <Programmierumgebung> (1)
- Einchip-Computer (1)
- Enterprise Architect (1)
- Formale Ontologie (1)
- GPU Programmierung (1)
- Geometryshader (1)
- Geschäftsprozess (1)
- Headtracking (1)
- Heuristiken (1)
- Hyperspace-Modell (1)
- Interpretierer (1)
- Klassifikationsframework (1)
- Klausellogik (1)
- Medizinische Visualisierung (1)
- Metamodel (1)
- Mikrocontroller AVR (1)
- Network (1)
- Netzwerk (1)
- Netzwerk Protokollen (1)
- Neuronales Netz (1)
- OCL <Programmiersprache> (1)
- OWL <Informatik> (1)
- Objekterkennung (1)
- Oracle Generation (1)
- Oraklegenerierung (1)
- Pfadplanung (1)
- Plug in (1)
- Programmierumgebung (1)
- Protocol (1)
- Prädikatenlogik (1)
- Qt/C++ (1)
- Referenzmetamodell (1)
- RoboCup (1)
- SPARQL (1)
- Semantic Web (1)
- Sesame (1)
- Softwareentwicklung (1)
- Softwaremodellierung (1)
- Softwaretest (1)
- Softwaretesting (1)
- Specification (1)
- Spezifikation (1)
- Tableau <Logik> (1)
- Test Generation (1)
- Testgenerierung (1)
- UML (1)
- UML Activity Diagrams (1)
- UML Aktivitätsdiagramm (1)
- Universitäre Lehrveranstaltung (1)
- VNUML (1)
- Virtuelle Welt (1)
- Virtueller Raum (1)
- Visualisierung (1)
- Webservice Sail (1)
- Wii (1)
- Wii-Kamera (1)
- Wireshark (1)
- andLinux (1)
- andLinux. (1)
- backpropagation (1)
- bias (1)
- business process (1)
- networks (1)
- neural (1)
- path planning (1)
- recurrent (1)
- reference meta model (1)
- robotics (1)
Wireshark und VNUML Im Rahmen dieser Studienarbeit sollen einige Netzwerk-Protokolle mit dem Protokollanalyser Wireshark beobachtet und der Umgang damit beschrieben werden. Wireshark ist ein Ableger von "Ethereal", einem der bekanntesten Protokoll-Analyser. Wireshark analysiert Netzwerkverkehr, zeichnet ihn auf und stellt ihn übersichtlich dar. Für die Simulation des Netzwerks wird VNUML verwendet. Da VNUML nur unter Linux verwendet werden kann, wird andLinux als virtuelle Maschine dazwischen geschaltet um auch in Windows arbeiten zu können.
In recent development, attempts have been made to integrate UML and OWL into one hybrid modeling language, namely TwoUse. This aims at making use of the benefits of both modeling languages and overcoming the restrictions of each. In order to create a modeling language that will actually be used in software development an integration with OCL is needed. This integration has already been described at the contextual level in, however an implementation is lacking so far. The scope of this paper is the programatical implementation of the integration of TwoUse with OCL. In order to achieve this, two different OCL implementations that already provide parsing and interpretation functionalities for expressions over regular UML. This paper presents two attempts to extend existing OCL implementations, as well as a comparison of the existing approaches.
Das Ziel dieser Studienarbeit ist es, einen Roboterarm in einen bestehenden Software-Stackrnzu integrieren, damit ein darauf basierender Roboter beim Wettbewerb RoboCup @Home teilnehmen kann. Der Haushaltsroboter Lisa (Lisa Is a Service Android) muss für den @Home-Wettbewerb unter anderem Gegenstände aus Regalen entnehmen und an Personen weiterreichen. Bisher war dafür nur ein Gripper, also ein an der mobilen Plattform in Bodennähe angebrachter "Zwicker" vorhanden. Nun steht dem Roboter ein "Katana Linux Robot" der Schweizer Firma Neuronics zur Verfügung, ein Roboter in Form eines Arms. Dieser wird auf LISA montiert und nimmt über verschiedene Schnittstellen Befehle entgegen. Er besteht aus sechs Gliedern mit entsprechend vielen Freiheitsgraden. Im Robbie-Softwarestack muss ein Treiber für diesen Arm integriert und eine Pfadplanung erstellt werden. Letztere soll bei der Bewegung des Arms sowohl Kollisionen mit Hindernissen vermeiden als auch natürlich wirkende Bewegungsabläufe erstellen.
Pokern erfreut sich einer immer größer werdenden Beliebtheit. Seitdem das Pokern über Internet immer populärer wird, haben viele User Ihre Leidenschaft für das Glücksspiel neu entdeckt. Besonders beliebt ist dabei die Variante Texas Hold"Em, in der es im Vergleich zum klassischen Poker neben den Karten auf der Hand auch noch eine gewisse Anzahl von Gemeinschaftskarten gibt, die nach und nach aufgedeckt werden. Dadurch erhöht sich der strategische Anteil enorm. Jeder Spieler kennt außer seinen eigenen Karten auch einen Teil der gegnerischen Karten und muss überlegen, welche Wendung die nächste aufgedeckte Gemeinschaftskarte herbeiführen kann. Dabei gibt es unzählige Strategien, die dem Spieler Verhaltensweisen zu seinen Karten näher bringen. Diese beruhen auf komplexen mathematischen Berechnungen und gewährleisten beim Einhalten bestimmter Regeln eine statistisch sehr hohe Gewinnrate. Doch das Regelwerk bei diesen Strategien ist ziemlich groß. Es ist genau festgelegt wie sich der Spieler verhalten soll. Die Strategie fordert penible Einhaltung aller Regeln, damit sie zum Erfolg führt. Dadurch wird aus dem Glücksspiel Poker ein mathematisch vorbestimmter Handlungsablauf, der keinen Platz zum bluffen lässt. Außerdem lernt der Spieler auf diese Art nicht viel über die Wahrscheinlichkeiten, die das Pokerspiel birgt, da er alle Handlungsweisen in seinem Strategieregelwerk nachschlagen kann und nicht selber denken muss. Welche Möglichkeiten bleiben also noch um seine Gewinnchancen oder die Chancen auf eine gute Hand abschätzen zu können? Im Bereich des Internet-Pokerns hat der Nutzer die Möglichkeit auf bestimmte Programme mit manueller Eingabe der aktuellen Spielkarten oder auf sogenannte Pokerbots zurückzugreifen. Diese Pokerbots lesen aus dem Speicher die Karten vom Bildschirm aus und sind so in der Lage dem Spieler entweder durch Angabe der Wahrscheinlichkeiten zur Seite zu stehen oder sogar die Steuerung des Spiels für den User zu übernehmen. Doch wie kann ein Spieler ohne mathematische Kenntnisse oder langjährige Pokererfahrung in einem realen Pokerspiel etwas über die Wahrscheinlichkeiten seiner Pokerhand erfahren? Wie wahrscheinlich ist es, dass er mit dem nächsten Blatt eine Straße oder ein Full House bekommt?
Globale Beleuchtungssimulationen versuchen die physikalischen Eigenschaften von Licht und dessen Ausbreitung möglichst korrekt zu berechnen. Dabei werden diese üblicherweise im dreidimensionalen Objektraum berechnet und sind deshalb sehr rechenintensiv und von der Anzahl der Polygone der Szene abhängig. Objektraum-basierte Verfahren ermöglichen durch komlexe Berechnungen allerdings auch gute Annährungen physikalisch korrekter Beleuchtungen. Die Beleuchtungsberechnung in den Bildraum zu verlagern hat aber den großen Vorteil, dass die Berechnung hier unabhängig von der Größe und Komplexität der Szene durchführbar ist. Einzig die Auflösung entscheidet über den Rechenaufwand. Dieser Geschwindigkeitsvorteil beinhaltet jedoch einen Kompromiss was die physikalische Korrektheit der Beleuchtungssimulation angeht. Bei bisherigen Bildraum-Verfahren war es nicht möglich, für die Kamera nicht sichtbare Teile der Szene und deren Beleuchtungsinformationen, in die Berechnung mit einzubeziehen. Dies erscheint logisch, da über Geometrie die aus Sicht der Kamera nicht eingefangen wurde, im Bildraum zunächst keinerlei Informationen zur Verfügung stehen. Ein bekanntes Beispiel zur Annährung einer globalen Beleuchtung im Bildraum ist das Verfahren "Screen Space Ambient Occlusion". Dieses liefert zwar sehr gut Selbstverschattungen und wirkt dadurch realitätsnah, erzeugt aber keinen korrekten Lichtaustausch. Da die Beleuchtung von dem Inhalt des aktuellen Bildausschnitts abhängig ist, entstehen visuelle Artefakte, die vor allem bei Kamerabewegungen störend auffallen. Ziel der Studienarbeit ist es daher diese Artefakte durch die Verwendungen von Textur-Atlanten zu vermeiden. Dies wird durch eine Bildraum-basierte Beleuchtungssimulation ermöglicht, die die gesamte Szene zur Berechnung der Beleuchtung miteinbezieht und nicht nur die Sicht der Kamera. Dabei wird in einem Textur-Atlas die gesamte Szene gespeichert.
Femto ist eine Programmierumgebung, die auf einem ATmega-basierten Einchip-Computer mit VGA-Ausgang und PS/2-Tastaturschnittstelle ausgeführt wird und aus einem einfachen Texteditor sowie einem Interpreter besteht. Dadurch wird es möglich, direkt auf dem Mikrocontroller kleine Programme zu entwickeln und auszuführen. Die interpretierte Sprache mit dem Namen Femtoscript wurde im Rahmen dieser Arbeit entwickelt und ähnelt Javascript. Der Interpreter ist in C geschrieben und kann mit geringem Aufwand auf andere Plattformen portiert werden.
In der aktuellen Hochschullandschaft findet man hauptsächlich die Unterrichtsform des Frontalunterrichts. Das bedeutet, der Lehrende hält während der Vorlesungszeit einen monologartigen Vortrag über den Unterrichtsstoff. Hierbei nehmen die Studenten nur passiv am Geschehen teil bzw. protokollieren das vom Professor Vorgetragene um es später zu Hause eigenständig nachzuarbeiten. E-Learning hingegen lässt den Lernenden aktiv Einfluss darauf nehmen, wie und in welchem Tempo er Lehrinhalte bearbeitet. In dieser Studienarbeit soll ein E-Learning-Kurs für den Themenbereich der Computergrafik erstellt werden. Die Arbeit besteht aus drei Teilen. Neben dieser schriftlichen Ausarbeitung habe ich einen E-Learning-Kurs mit Hilfe des Learning Management Systems WebCT1erstellt und hierfür zwei Applets erstellt, die Übungsaufgaben zu den Themen Koordinatentransformationen und Szenegraphen erstellen.
Der Prozess der Mustererkennung gliedert sich in mehrere Teilschritte, wobei letztlich aus unbekannten Datensätzen Muster erkannt und automatisch in Kategorien eingeordnet werden sollen. Dafür werden häufig Klassiffkatoren verwendet, die in einer Lernphase anhand von bekannten Testdaten trainiert werden. Viele bestehenden Softwarelösungen bieten Hilfsmittel für spezielle Mustererkennungsaufgaben an, aber decken nur selten den gesamten Lernprozess ab. Im Rahmen dieser Studienarbeit wurde aus diesem Grund ein Framework entwickelt, welches allgemeine Aufgaben eines Klassiffkationssystems für Bilddaten als eigenständige Komponenten integriert. Es ist schnittstellenorientiert, leicht erweiterbar und bietet eine graphische Benutzeroberfläche.
This thesis introduces fnnlib, a C++ library for recurrent neural network simulations that I developed between October 2009 and March 2010 at Osaka University's Graduate School of Engineering. After covering the theory behind recurrent neural networks, backpropagation through time, recurrent neural networks with parametric bias, continuous-time recurrent neural networks, and echo state networks, the design of the library is explained. All of the classes as well as their interrelationships are presented along with reasons as to why certain design decisions were made. Towards the end of the thesis, a small practical example is shown. Also, fnnlib is compared to other neural network libraries.
Die Diffusions-Tensor-Bildgebung (DTI) ist eine Technik aus der Magnet-Resonanz-Bildgebung (MRI) und basiert auf der Brownschen Molekularbewegung (Diffusion) der Wassermoleküle im menschlichen Gewebe. Speziell im inhomogenen Hirngewebe ist die Beweglichkeit der Moleküle stark eingeschränkt. Hier hindern die Zellmembranen der langgestreckten Axone die Diffusion entlang nicht-paralleler Richtungen. Besonderen Wert hat die Diffusions-Tensor-Bildgebung in der Neurochirugie bei der Intervention und Planung von Operationen. Basierend auf den mehrdimensionalen DTI-Tensor-Datensätzen kann für den jeweiligen Voxel das Diffsusionsverhalten abgeleitet werden. Der größte Eigenvektor des Tensors bestimmt dabei die Hauptrichtung der Diffusion und somit die Orientierung der entsprechenden Nervenfasern. Ziel der Studienarbeit ist die Erstellung einer Beispielapplikation zur Visualisierung von DTI-Daten mit Hilfe der Grafikhardware. Dazu werden zunächst die relevanten Informationen für die Erzeugung von geometrischen Repräsentationen (Streamlines, Tubes, Glyphen, Cluster...) aus den Eingabedaten berechnet. Für die interaktive Visualisierung sollen die Möglichkeiten moderner Grafikhardware, insbesondere Geometryshader ausgenutzt werden. Die erzeugten Repräsentationen sollen nach Möglichkeit in ein DVR (Cascada) integriert werden. Für die Arbeit wird eine eigene Applikation entwickelt, die bestehende Bausteine (Volumenrepräsentation, Volumenrendering, Shadersystem) aus Cascada analysiert und integriert.