Filtern
Erscheinungsjahr
- 2008 (70) (entfernen)
Dokumenttyp
- Studienarbeit (24)
- Diplomarbeit (21)
- Dissertation (10)
- Ausgabe (Heft) zu einer Zeitschrift (8)
- Bachelorarbeit (5)
- Masterarbeit (2)
Sprache
- Deutsch (70) (entfernen)
Schlagworte
- Bildverarbeitung (3)
- Computerspiel (3)
- Analyse durch Synthese (2)
- Business Intelligence (2)
- Computergrafik (2)
- E-IMS (2)
- Electronic Government (2)
- Evaluation (2)
- Informatik (2)
- Informationssystem (2)
Institut
- Institut für Computervisualistik (22)
- Institut für Wirtschafts- und Verwaltungsinformatik (18)
- Fachbereich 4 (14)
- Institut für Informatik (7)
- Institut für Softwaretechnik (5)
- Fachbereich 8 (2)
- Institut für Management (2)
- Institut für naturwissenschaftliche Bildung (2)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (1)
- Arbeitsbereich Diagnostik, Differentielle und Persönlichkeitspsychologie, Methodik und Evaluation (1)
Im Rahmen dieser Studienarbeit wurden acht verschiedene Algorithmen unterschiedlichen Umfangs und Komplexität zur Pupillenmittelpunktssuche implementiert und im Vergleich mit dem Originalalgorithmus ausgewertet. Die Berechnung des Hornhautreflektionsmittelpunkts wurde modifiziert, so dass die Helligkeitswerte der Hornhautreflektion bei der Berechnung des Schwerpunkts gewichtet werden. Bei der Auswertung wurde festgestellt, dass drei der acht Algorithmen, der Starburst-Algorithmus für hochauflösende Bilder, Daugmans Algorithmus für Aufnahmen bei sichtbarem Licht und der Average Coordinate Algorithmus von Daunys und Ramanauskas, Mängel in Zusammenhang mit dem gegebenen System aufweisen, so dass diese momentan nicht für die Mittelpunktssuche im Gazetracker geeignet sind. Die restlichen Algorithmen zeigten im grafischen Vergleich ähnlich gute Ergebnisse und wurden im Test verglichen, wobei der Algorithmus von Perez, Garcia, Mendez, Munoz, Pedraza und Sanches und der Algorithmus von Poursaberi und Araabi die besten Ergebnisse aufwiesen in Bezug auf Dichte der Punkte, Fehlerpunkte und Outlier.
Das Forschungsprojekt Bildanalyse zur Ornamentklassifikation hat es sich zur Aufgabe gemacht, ornamentale Strukturen in Bildern computergestützt zu lokalisieren, analysieren und klassifizieren. Grundlage des Projekts bildet eine umfangreiche Bilddatenbank, deren Abbildungen manuell vorsortiert sind. Durch Kombinationen mit Methoden der Bildverabeitung und der Verwendung von Wissensdatenbanken (Knowledge Databases) soll diese Kategorisierung weiter verfeinert werden. Sämtliche Bilder durchlaufen bis zum Prozess der Ornamentklassifikation mehrere Vorverarbeitungsschritte. Beginnend mit einem Normalisierungsprozess, bei dem das Bild u. a. entzerrt und entrauscht wird, werden im Anschluss Interessensregionen selektiert. Diese Regionen bilden die Grundlage für das spätere Lokalisieren der Ornamente. Aus ihnen werden mit unterschiedlichen Verfahren Merkmale extrahiert, die wiederum in der Datenbank gespeichert werden. In dieser Arbeit wurde ein weiteres solches Verfahren implementiert und auf seine mögliche Verwendung in dem Projekt untersucht.
Für die Netzwerkprogrammierung hat sich auf breiter Front das Socket API nach Vorbild der Berkley Sockets durchgesetzt. Die "normalen" Sockets in Form von Stream- oder Datagram-Sockets erleichtern zwar die Programmierarbeit, verschleiern jedoch auch zahlreiche Details der Netzwerkkommunikation vor dem Programmierer. So ist man beispielsweise auf die Nutzung der Protokolle TCP oder UDP eingeschränkt und agiert zwangsläufig bereits auf dem Application-Layer des TCP/IP Referenzmodells. Für den Zugriff auf tiefer gelegene Netzwerkschichten, d.h. für den Zugriff auf die Headerdaten eines Netzwerkpaketes, hält das Socket API die sogenannten RAW Sockets bereit. Mit ihnen ist es möglich, alle IP Pakete inklusive Headerdaten zu lesen oder von Grund auf neu zu generieren. Hiermit ist es nun auch möglich, Protokolle zu verwenden, die dem Anwendungsprogrammierer bislang nicht zugänglich waren (z.B. ICMP oder OSPF) oder sogar eigene IP basierte Protokolle zu entwickeln. RAW Sockets stoßen an ihre Grenzen, wenn es darum geht auf den Data-Link-Layer der Netzwerkkommunikation zuzugreifen. Unter Linux gibt es hierfür einen weiteren Socket-Typ: Den PACKET Socket. Die Studienarbeit möchte einen Einstieg in die Programmierung mit den eher unbekannten RAW und PACKET Sockets schaffen. Dabei werden einige Beispielprogramme vorgestellt und mögliche Anwendungsgebiete aufgezeigt.
Bei der subjektiven Interpretation von Mammographien werden Studien zufolge 10% bis 30% von Brustkrebserkrankungen im Frühstadium nicht erkannt. Eine weitere Fehlrate beziffert die fälschlich als möglichen Brustkrebs eingestuften Herde; diese Fehlrate wird mit 35% angegeben. Ein solche Fehleinschätzung hat für die Patientin weitreichende negative Folgen. Sie wird einer unnötigen psychischen und körperlichen Belastung ausgesetzt. Um solche Fehleinschätzungen zu minimieren, wird zunehmend die Computer-aided Detection/Diagnosis (CAD) eingesetzt. Das Ziel dieser Arbeit ist die Evaluation von Methoden multivariater Datenanalyse, eingesetzt zur Diagnose von Herdbefunden. Die aus der Gesichtserkennung bekannten Methoden Eigenfaces und Fisherfaces werden auf Mammographieaufnahmen angewendet, um eine Einordnung von Herdbefunden nach benign oder malign zu tätigen. Eine weitere implementierte Methode wird als Eigenfeature Regularization and Extraction bezeichnet. Nach einer Einführung zum medizinischen Hintergrund und zum aktuellen Stand der computer-assistierten Detektion/Diagnose werden die verwendete Bilddatenbank vorgestellt, Normierungsschritte aufgeführt und die implementierten Methoden beschrieben. Die Methoden werden der ROC-Analyse unterzogen. Die Flächen unterhalb der ROC-Kurven dienen als Maß für die Aussagekraft der Methoden. Die erzielten Ergebnisse zeigen, dass alle implementierten Methoden eine schwache Aussagekraft haben. Dabei wurden die Erwartungen an die Fisherface- und ERE-Methode nicht erfüllt. Die Eigenface-Methode hat, angewendet auf Herdbefunde in Mammogrammen, die höchsten AUC-Werte erreicht. Die Berücksichtigung der Grauwertnormierung in der Auswertung zeigt, dass die qualitativen Unterschiede der Mammogramme nicht ausschlaggebend für die Ergebnisse sind.
In dieser Studienarbeit wurde ein Algorithmus vorgestellt, um sich mit einem Roboter in unbekanntem Gebiet zu lokalisieren und gleichzeitig eine Karte von der Umgebung zu erstellen. Die Lokalisation des Roboters geschieht auf 2D Ebene und errechnet die (x, y, θ)T Position des Roboters zu jedem Zeitpunt t inkrementell. Der Algorithmus baut auf dem FastSLAM 2.0 Algorithmus auf und wurde abgeändert, um eine möglichst genaue Lokalisation in Gebäuden zu ermöglichen. Hierfür wurden mehrere verschieden Arten von möglichen Landmarken untersucht, verglichen und kombiniert. Schwerpunkt dieser Studienarbeit war das Einarbeiten in das Extended Kalman-Filter und die Selektion von Landmarken, die für den Einsatz in Gebäuden geeignet sind.
In Idar-Oberstein gab es ab der zweiten Hälfte des 19. Jahrhunderts eine bedeutende Produktion von Modeschmuck in zahlreichen großen Fabriken, die sich bis in die 1980er Jahre halten konnte. Neben Pforzheim, Schwäbisch Gmünd und Hanau war Idar-Oberstein eines der vier wichtigsten deutschen Schmuckzentren. Heute sind nur noch vierzehn Firmennachlässe erhalten, dazu kommen die Bestände des Museums unterhalb der Felsenkirche. In dem erhaltenen Schmuck spiegeln sich die jeweils aktuellen Kunstrichtungen vom Historismus über Jugendstil, Art déco bis hin zu Informel und Zero in den 1960er und 70er Jahren. Außerdem haben sich auch viele alte Dokumente erhalten, die zusammengenommen ein Bild des damaligen Wirkens und Werkens der Schmuckfabriken liefern. Im Zentrum dieser Arbeit steht deshalb die wissenschaftliche Aufarbeitung dieser 15 Bestände. Jedoch wurde schnell klar, dass diese nicht einfach so für sich allein stehen können. Zunächst fehlte ein geistiger Überbau, um das Phänomen Modeschmuck wirklich verstehen und einordnen zu können. Daher steht am Anfang der Arbeit die Grundlegung einer bisher noch nicht vorhandenen Schmucktheorie mit schmuckästhetischen Überlegungen, die kunsthistorische, soziologische, psychologische und philosophische Standpunkte mit einbeziehen. Aber nicht nur ein geistiger Überbau, sondern auch ein materieller Unterbau waren nötig, um das Phänomen umfassend zu klären: In der bildenden Kunst käme niemand auf die Idee, ein Kunstwerk zu beurteilen, ohne seine Entstehungstechnik zu kennen. Ob etwas eine Ätzradierung oder ein Ölgemälde ist, macht doch einen enormen Unterschied. Beim Schmuck wurden derartige Überlegungen bisher weitgehend ignoriert, obwohl sein äußeres Erscheinungsbild genauso stark von den Techniken, die bei seiner Fertigung zum Einsatz kommen, geprägt ist. So haben wir es beim Idar-Obersteiner Modeschmuck nicht nur mit einer Entwicklung des Geschmacks, sondern auch mit einer technologischen Entwicklung zu tun, die jeweils neue bzw. andere Formen ermöglichte. Darauf folgt ein industriegeschichtlicher Überblick über die Idar-Obersteiner Schmuck- und Metallwarenproduktion, in dem gezeigt wird, warum gerade Idar-Oberstein sich neben Pforzheim, Hanau und Schwäbisch Gmünd zu einem der vier wichtigsten deutschen Schmuckzentren entwickeln konnte. Von zentraler Bedeutung ist der nun folgende Abschnitt über die kunsthistorische Entwicklung des Idar-Obersteiner Modeschmucks. Besonders gewürdigt wird dort die Nähe der Entwürfe zur zeitgenössischen bildenden Kunst und der innovative Umgang mit einfachen Materialien, der schon früh zu Schmuckformen führte, die unabhängig vom Echtschmuck waren. Es folgt die wissenschaftliche Aufarbeitung der vierzehn erhaltenen Firmennachlässe. Im Katalog werden schließlich repräsentative Ausschnitte aus dem erhaltenen Schmuckbestand der einzelnen Firmen und Höhepunkte der Bestände des Museums Idar-Oberstein unterhalb der Felsenkirche gezeigt, darunter bisher unbekannte Arbeiten aus dem Magazin. Meine Arbeit soll einerseits das, was sich in Idar-Oberstein erhalten hat, dokumentieren, andererseits aber auch ganz allgemein neue Impulse zum wissenschaftlichen Umgang mit dem Thema Schmuck geben und zeigen, wie wichtig es ist, sowohl schmucktheoretische Aspekte als auch die historischen Verfahrenstechniken in die Analyse mit einzubeziehen.
IPv6 Autokonfiguration
(2008)
Diese Studienarbeit stellt verschiedene Möglichkeiten der automatischen Konfiguration von Netzwerkknoten unter IPv6, dem designierten Nachfolger des Internetprotokolls, vor. Dabei wird recht ausführlich in IPv6-Netzwerke eingeführt, wobei aber vorausgesetzt wird, dass der Leser Kenntnisse über das IP-Protokoll der Version 4 hat. Es werden sowohl die zustandslose als auch DHCPv6 ausführlich in der Theorie als auch im praktischen Einsatz gezeigt. Dafür wird das VNUML-System eingesetzt, das an der Technischen Universität Madrid entwickelt wurde und das es ermöglicht, mehrere Linuxsysteme auf einem Wirtsrechner zu simulieren.
Die Erstellung räumlicher Abbilder aus planaren Ansichten gewinnt immer mehr Bedeutung in der modernen Medizintechnik. 3D-Rekonstruktionen haben wesentlich zur besseren Detektion,wie auch zu Optimierung und Innovation in der Diagnostik und Behandlungsmethodik bestimmter Krankheitsbilder beigetragen. Durch die Verfahren der Bildverarbeitung ist es möglich, aus Bildsequenzen eine 3D-Abbildung der gefilmten Szene zu erstellen. Ziel dieser Diplomarbeit soll es sein, zu untersuchen, inwieweit sich aus der Aufnahmetechnik aus einer Reihe unkalibrierter Endoskopiebilder weitere Rückschlüsse über die Oberflächenbeschaffenheit des betrachteten Gewebes ziehen lassen. Hierbei wird das Phänomen zugrundegelegt, daß bei der Aufnahme der Bilder Glanzlichter auftreten, wenn die Beleuchtung am Kamerakopf orthogonal zur Gewebeoberfläche auftrifft. Diese Glanzlichter geben daher implizit Aufschluss über die Oberflächenorientierung des Gewebes. Aufgabe ist es nun, diese Glanzlichter in einer Reihe von unkalibrierten Endoskopieaufnahmen zu finden, die Bilder aus der Sequenz einander zuzuordnen, also Korrespondenzen zwischen den Bildern zu finden, und unter Einbeziehung der Kamerageometrie Rückschlüsse auf die Gewebeoberfläche zu ziehen. Zuerst müssen hierfür die Glanzlichter in den Einzelbildern der Sequenz gefunden werden. Dazu wird ein Verfahren verwendet, welches die Glanzlichter durch eine Zerlegung des HSV-Farbraums detektiert und deren Mittelpunkt errechnet. Um die Kamerageometrie zu schätzen, werden mihilfe eines Punktverfolgers Punktkorrespondenzen zwischen den Einzelbildern erstellt, anhand derer sich die Fundamentalmatrix durch RANSAC errechnen läßt. Unter Anwendung eines Autokalibrierungsverfahrens werden aus den geschätzten Fundamentalmatrizen dann in einem abschließenden Schritt die internen Kameraparameter ermittelt. So sollte möglich sein, die Glanzlichter durch eine Sequenz von Bildern zu verfolgen und die Oberflächennormalen einem Referenzbild zuzuordnen.
Markerloses Tracking unter Verwendung von Analyse durch Synthese auf Basis von Featuredetektoren
(2008)
In der vorliegenden Diplomarbeit wurde ein auf "Analyse durch Synthese" sowie Featuredetektoren basierendes Trackingsystem implementiert, beschrieben und getestet. Das Ziel war die Untersuchung im Hinblick auf den Mehrwert der Computergraphik in einem markerlosen Trackingablauf, indem der Ansatz der "Analyse durch Synthese" zur Poseschätzung eingesetzt wird.