Filtern
Erscheinungsjahr
- 2008 (70) (entfernen)
Dokumenttyp
- Studienarbeit (24)
- Diplomarbeit (21)
- Dissertation (10)
- Ausgabe (Heft) zu einer Zeitschrift (8)
- Bachelorarbeit (5)
- Masterarbeit (2)
Sprache
- Deutsch (70) (entfernen)
Schlagworte
- Bildverarbeitung (3)
- Computerspiel (3)
- Analyse durch Synthese (2)
- Business Intelligence (2)
- Computergrafik (2)
- E-IMS (2)
- Electronic Government (2)
- Evaluation (2)
- Informatik (2)
- Informationssystem (2)
- Java (2)
- Markerloses Tracking (2)
- Programmierung (2)
- Robotik (2)
- Rollenspiel (2)
- Simulation (2)
- Tracking (2)
- Universität Koblenz-Landau (2)
- VNUML (2)
- information system (2)
- 3D Painting (1)
- 3D-Abbildungen (1)
- 3D-Modell (1)
- ATMega 16 (1)
- ATmega644 (1)
- ATtiny2313 (1)
- Abfragesprache (1)
- Agent (1)
- Alex Bernstein (1)
- Ambient Occlusion (1)
- Anforderung (1)
- Anwendungssoftware (1)
- Art Déco (1)
- Aufmerksamkeit (1)
- BI (1)
- Bachelor (1)
- Bachelorstudiengang (1)
- Balanced Scorecard (1)
- Bewegungsapparat (1)
- Bewegungsmodell (1)
- Big Five (1)
- Biomechanik (1)
- Biotopkartierung (1)
- Blinder Fleck (1)
- Burg (1)
- Business Continuity Management (1)
- CAD (1)
- CSMs (1)
- CSV (1)
- CTI (1)
- Campus Koblenz (1)
- Colonoscopy (1)
- ColorSym (1)
- Computer-aided diagnosis (1)
- Computermodell (1)
- Computersimulation (1)
- Computertomografie (1)
- Content Management (1)
- Counting-to-Infinity (1)
- DEMO_net (1)
- DHCPv6 (1)
- Darmspiegelung (1)
- Data Warhousing (1)
- Data-Warehouse-Konzept (1)
- Datenbank (1)
- Datenschutz (1)
- Datenschutzpolicy (1)
- Didaktik (1)
- Digitale Steuerung (1)
- Disaster Recovery (1)
- Distanz-Vektor (1)
- Dokumentation (1)
- E-Partizipation (1)
- EEPROM (1)
- EPROM (1)
- ERP-Systeme (1)
- EU-Dienstleistungsrichtlinie (1)
- Elektrizitätslehre (1)
- Enterprise Resource Planning (1)
- Entscheidungsprozess (1)
- Erweiterte Realität (1)
- Europäischer Binnenmarkt (1)
- Event (1)
- Extinktion (1)
- Eye-Tracking (1)
- Faktorenanalyse (1)
- Faktorinvarianz (1)
- Farbsymmetrie (1)
- FastSLAM Algorithmus (1)
- GLSL (1)
- GPGPU (1)
- Gaze-Tracking (1)
- Generative Modellierung (1)
- Geometrie-Shader (1)
- Glaukom (1)
- Grafikprozessor (1)
- Graph (1)
- Grundwasser (1)
- Grundwasserfauna (1)
- Gupro (1)
- HNF-Algorithmus (1)
- Habitat (1)
- Halbleiter (1)
- Headerdaten Netzwerkpaket SOCK_RAW SOCK_PACKET (1)
- Heidelberg Retina Tomograph (1)
- Hermite-Normalform (1)
- Hochgeschwindigkeitstracking (1)
- Hydrogeologie (1)
- ICP-Algorithmus (1)
- IEC 61131 (1)
- IPv6 (1)
- IT-Sicherheitsmodelle (1)
- Idar-Oberstein (1)
- Inflation (1)
- Informationsvisualisierung (1)
- Informel (1)
- Internetzugang (1)
- Interpersonale Kommunikation (1)
- Intranet-Zugang (1)
- Java-Quelltext (1)
- Jugendstil (1)
- Karst (1)
- Karstgrundwasserleiter (1)
- Katastrophenschutz (1)
- Kluftgrundwasserleiter (1)
- Kognitive Verhaltenstherapie (1)
- Koloskopie (1)
- Kondertal (1)
- Konfirmatorische Faktorenanalyse (1)
- Kontextbezogener Dienst (1)
- Kontinuität (1)
- Kontinuitätsmanagement (1)
- Krisenmanagement (1)
- Kryptographie (1)
- Kubismus (1)
- Kunst (1)
- Lebensqualität (1)
- Lebensraumqualität (1)
- Lernstation (1)
- Lernumwelt (1)
- Lernzirkel (1)
- Lockergesteinleiter (1)
- Logging (1)
- Lokalisierung (1)
- Ländliche Entwicklung (1)
- Ländliche Siedlung (1)
- Ländlicher Raum (1)
- MKS (1)
- MMORPG (1)
- Mail-Filter (1)
- Malen (1)
- Mammographie (1)
- Marktanalyse (1)
- Massenkommunikation (1)
- Master (1)
- Masterstudiengang (1)
- Medizintechnik (1)
- Mehragentensystem (1)
- Mehrebenenanalyse (1)
- Mehrkörpersysteme (1)
- Metriken (1)
- Mikroanalytisches Modell (1)
- Mikroanalytisches Simulationsmodell (1)
- Mikrocontroller (1)
- Mikrocontroller AVR (1)
- Mikrosensus (1)
- Mikrosimulationsmodell (1)
- Mobiles Multiplayerspiel (1)
- Mobiles Umfeld (1)
- Modellbasiertes Tracking (1)
- Modeschmuck (1)
- Modul (1)
- Modulhandbuch (1)
- Montageablauf (1)
- Monte-Carlo-Simulation (1)
- Multitrait-Multimethod-Modelle (1)
- Multivariate Datenanalyse (1)
- NPO (1)
- Naturwissenschaften (1)
- Navigation (1)
- Netzwerkschicht (1)
- Netzwerksimulation (1)
- Nonprofit-Organisation (1)
- Notfall (1)
- Notfallmanagement (1)
- Notfallvorsorge (1)
- Oberflächenorientierung (1)
- Objektorientierung (1)
- Objektverfolgung (1)
- Octree Textur (1)
- Onlinespiele (1)
- OpenGL (1)
- Ornamentklassifikation (1)
- P3P (1)
- P3P-Policy-Generator (1)
- Packet Header SOCK_RAW SOCK_PACKET (1)
- Personentracking (1)
- Personenverfolgungssystem (1)
- Persönlichkeit (1)
- Pfalz (1)
- Photovoltaik (1)
- Physikunterricht (1)
- Politische Kampagne (1)
- Politische Meinungsbildung (1)
- Polypendetektion (1)
- PostgreSQL (1)
- Program Slicing (1)
- Programmanalyse (1)
- Programmiergerät (1)
- Programmiersprache (1)
- Programmiersprachen (1)
- Prozessanalyse (1)
- Prädiktor (1)
- Psychosomatische Störung (1)
- Pädagogik (1)
- RCP (1)
- RIP (1)
- RIP-MTI (1)
- Rendering (1)
- Requirements-Engineering (1)
- Retinex-Algorithmus (1)
- Rheinland-Pfalz (1)
- Rich Internet Application (1)
- Robert P. Abelson (1)
- Routing-Loop (1)
- SAC (1)
- Schatten (1)
- Schlaganfall (1)
- Schmucktheorie (1)
- Schülerwahrnehmungen (1)
- Semantik (1)
- Shaderframework (1)
- Shaderprogramm (1)
- Sich langsam verändernde Dimensionen (1)
- Skriptsprache (1)
- Slowly Changing Dimensions (1)
- Socket (1)
- Socket-Schnittstelle (1)
- Solarzelle (1)
- Somatoforme Störungen (1)
- Soziale Netzwerke (1)
- Sozialkompetenz (1)
- Spam-Mail (1)
- Spieleentwicklung (1)
- SpoGA (1)
- SpoGa (1)
- Sportverletzung (1)
- Sprachverarbeitung (1)
- Staat (1)
- Starrkörper (1)
- Stilisierung (1)
- Supply Chain Management (1)
- Syntax (1)
- System Dynamics (1)
- Systemanalyse (1)
- Südpfalz (1)
- TGraphen (1)
- Taktstraße (1)
- Technikgeschichte (1)
- Textur (1)
- Textur-Mapping (1)
- Texturierung (1)
- Therapieerfolg (1)
- Trackingsystem (1)
- Transform Feedback (1)
- Transportschicht (1)
- UML (1)
- Umgebungslicht (1)
- Umweltqualität (1)
- Unternehmen (1)
- Unterrichts-Klima-Instrument (1)
- Unterrichtsbeurteilung (1)
- Unterrichtsmaterial (1)
- Urteilerübereinstimmung (1)
- Veranstaltung (1)
- Verbindungsschicht (1)
- Verwaltungsautomation (1)
- Virtuelle Realität (1)
- Virtuelle Welt (1)
- Volumenrendering (1)
- WLAN (1)
- Web Services (1)
- Wissensmanagement (1)
- World of Warcraft (1)
- Zero (1)
- Zielverfolgung (1)
- agent (1)
- art deco (1)
- art nouveau (1)
- auditorischer Neglekt (1)
- augmented reality (1)
- bachelor (1)
- cognitive-behavioral therapy (1)
- computer science (1)
- confirmatory factor analysis (1)
- costume jewellery (1)
- cubism (1)
- database (1)
- deutschsprachiger Markt (1)
- dreidimensionale Computergraphik (1)
- eGroupware (1)
- electricity (1)
- elektronische Anwendungen (1)
- energy (1)
- evaluation (1)
- event (1)
- factorial invariance (1)
- geometry shader (1)
- java (1)
- markerless tracking (1)
- master (1)
- module handbook (1)
- multilevel analysis (1)
- multitrait-multimethod models (1)
- natural language processing (1)
- natürliche Sprache (1)
- object orientation (1)
- octree texture (1)
- pedagogy (1)
- person (1)
- photovoltaic (1)
- physics (1)
- polyp detection (1)
- predictor (1)
- projektives Malen (1)
- revenue management (1)
- social competence (1)
- somatoform disorders (1)
- student ratings (1)
- syntaktische Analyse (1)
- texturing (1)
- therapy outcome (1)
- transform feedback (1)
- visuell-räumlicher Neglekt (1)
Institut
- Institut für Computervisualistik (22)
- Institut für Wirtschafts- und Verwaltungsinformatik (18)
- Fachbereich 4 (14)
- Institut für Informatik (7)
- Institut für Softwaretechnik (5)
- Fachbereich 8 (2)
- Institut für Management (2)
- Institut für naturwissenschaftliche Bildung (2)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (1)
- Arbeitsbereich Diagnostik, Differentielle und Persönlichkeitspsychologie, Methodik und Evaluation (1)
Bei der subjektiven Interpretation von Mammographien werden Studien zufolge 10% bis 30% von Brustkrebserkrankungen im Frühstadium nicht erkannt. Eine weitere Fehlrate beziffert die fälschlich als möglichen Brustkrebs eingestuften Herde; diese Fehlrate wird mit 35% angegeben. Ein solche Fehleinschätzung hat für die Patientin weitreichende negative Folgen. Sie wird einer unnötigen psychischen und körperlichen Belastung ausgesetzt. Um solche Fehleinschätzungen zu minimieren, wird zunehmend die Computer-aided Detection/Diagnosis (CAD) eingesetzt. Das Ziel dieser Arbeit ist die Evaluation von Methoden multivariater Datenanalyse, eingesetzt zur Diagnose von Herdbefunden. Die aus der Gesichtserkennung bekannten Methoden Eigenfaces und Fisherfaces werden auf Mammographieaufnahmen angewendet, um eine Einordnung von Herdbefunden nach benign oder malign zu tätigen. Eine weitere implementierte Methode wird als Eigenfeature Regularization and Extraction bezeichnet. Nach einer Einführung zum medizinischen Hintergrund und zum aktuellen Stand der computer-assistierten Detektion/Diagnose werden die verwendete Bilddatenbank vorgestellt, Normierungsschritte aufgeführt und die implementierten Methoden beschrieben. Die Methoden werden der ROC-Analyse unterzogen. Die Flächen unterhalb der ROC-Kurven dienen als Maß für die Aussagekraft der Methoden. Die erzielten Ergebnisse zeigen, dass alle implementierten Methoden eine schwache Aussagekraft haben. Dabei wurden die Erwartungen an die Fisherface- und ERE-Methode nicht erfüllt. Die Eigenface-Methode hat, angewendet auf Herdbefunde in Mammogrammen, die höchsten AUC-Werte erreicht. Die Berücksichtigung der Grauwertnormierung in der Auswertung zeigt, dass die qualitativen Unterschiede der Mammogramme nicht ausschlaggebend für die Ergebnisse sind.
Das Routing Information Protocol (RIP) ist ein Internet-Standard-Routing-Protokoll, das einst mit zu den am meisten eingesetzten Routing-Protokollen in IP-Netzwerken gehörte. Es basiert auf dem sogenannten Distanzvektoralgorithmus und ist in seiner Funktion und seinem Aufbau sehr einfach ausgelegt. Seit jeher leidet es allerdings unter dem sogenannten Counting-to-Infinity (CTI) Problem, bei dem die Erreichbarkeit einer eigentlich ausgefallenen Verbindung zu einem Ziel scheinbar aufrechterhalten wird. Die Distanz zu diesem Ziel wird aufgrund des fortwährenden Austauschs von nicht mehr gültigen Verbindungsinformationen zwischen in einem Ring geschalteten RIP-Routern hochgezählt, theoretisch bis ins Unendliche. Dabei entstehen Routingschleifen, die den Netzwerkbetrieb erheblich stören können, da die gesendeten Netzwerkpakete aufgrund der Schleife die selben Router immer wieder passieren und weder an ihr eigentliches Ziel gelangen noch verworfen werden können. Die Gefahr des Auftretens des CTI-Problems schränkt die Einsetzbarkeit von RIP enorm ein. Die Netzwerke, in denen RIP eingesetzt wird, können nicht beliebig wachsen, da die maximale Größe des Netzwerks auf eine relativ kleine Distanz zwischen den Routern begrenzt ist, um die Dauer und die Folgen des CTI-Problems im Falle des Auftretens gering zu halten. Je stärker auch die Topologie eines Netzwerks vermascht ist, um mit zusätzlichen, alternativen Verbindungen Ausfällen entgegenzuwirken, umso stärker steigt auch die Gefahr des Auftretens des CTI-Problems nach einem Ausfall. Bislang existierten für RIP lediglich Mechanismen, die das Risiko des Auftretens und die Auswirkungen des CTI-Problems verringern, das Problem selbst aber nicht beheben können. Mit "RIP with minimal topology information" (RIP-MTI) wurde in der AG Rechnernetze an der Universität Koblenz-Landau eine abwärtskompatible Erweiterung zu RIP geschaffen, die das CTI-Problem zu beheben verspricht. Der RIP-MTI-Algorithmus sammelt zusätzliche Informationen über die Topologie des Netzwerks und nutzt diese, um nach dem Ausfall einer Verbindung richtige Informationen über die Erreichbarkeit von Zielen von falschen Informationen unterscheiden zu können. In dieser Diplomarbeit wird die Implementierung des RIP-MTI-Algorithmus behandelt. Mit Hilfe der speziell entwickelten RIP-Netzwerk-Testumgebung XTPeer, in der das CTI-Problem kontrolliert provoziert werden kann, wird die Wirksamkeit der Implementierung eines Quagga RIP-MTI-Routers überprüft und entsprechend weiterentwickelt. Dafür wird der RIP-MTI-Algorithmus an die Implementierung des Quagga RIP-Routing-Software sowie an die der Netzwerk-Testumgebung XTPeer angepasst. Diese Diplomarbeit wird vom Autor selbst als fortgeschrittene Zwischenstation eingestuft, vor der Herstellung und Herausgabe der Implementierung einer RIP-MTI-Routing-Software, die auch in produktiven Netzwerken eingesetzt werden könnte.
Ziel dieser Studienarbeit war es, Erfahrungen in der Grafik- und Spieleprogrammierung zu sammeln. Als Grundidee kam dabei die Erstellung eines 3-dimensionalen Terrains auf. Solche Terrains werden heutzutage nicht nur in der Spielebranche eingesetzt, wo sie in beinahe jedem Genre vertreten sind, sondern auch z.B. in der Geologie zur Erstellung von Simulationen von Plattentektonik. Die simple Erstellung eines 3-dimensionalen Terrains wäre für eine Studienarbeit jedoch zu trivial, daher sollte das Terrain spezielle Anforderungen erfüllen. Zum einen sollte das Terrain dynamisch erzeugt werden, d.h. der Benutzer des Programms hat Einfluss darauf, wie sich das Terrain entwickelt. Dies sollte vorzugsweise spielerisch eingebracht werden. Zum anderen sollte das Terrain zufällig generiert werden. Dies bedeutet, dass keine vormodellierte Landschaft genutzt, sondern jede Erhebung/- Vertiefung des Terrains mittels Zufallsfaktoren erzeugt werden sollte. Zusätzlich sollte das Terrain endlos erzeugt werden. Bei einer Bewegung über das Terrain sollte also niemals ein Ende erreicht werden. Also auch keine Kreistrecke, sondern ein wirklich endloses und stets anders aussehendes Terrain. Desweiteren sollte es dem Benutzer møglich sein, ein Fluggerät über das Terrain zu steuern. Dies gab dann auch die Chance, aus der oben genannten dynamischen Anforderung ein spielerisches Element zu machen, indem der Benutzer das Terrain durch Einsammeln von sogenannten TerraformItems beeinflussen kann. Die Steuerung eines Fluggerätes spielt auch für die geforderte Endlosigkeit des Terrains eine wichtige Rolle, da diese ohne eine Möglichkeit der Fortbewegung gar nicht nachprüfbar wäre. Das Problem mit der Endlosigkeit ist dabei, dass kein System endlosen Speicher zur Verfügung hat um das Terrain komplett zu speichern und dem Benutzer somit die Option zu bieten, die gleiche Strecke zurückzufliegen. Eine Lösung für diese Problematik wäre bei einer Kehrtwende das Terrain auch rückwärts wieder neu zu generieren. Der Einfachheit halber sollte stattdessen ein komplette Kehrtwende einfach nicht zugelassen werden. Eine Kollisionserkennung musste dann natürlich auch implementiert werden. Zum einen weil das Fluggerät ja nicht einfach wie ein Geist durch das Terrain hindurchgleiten sollte, zum anderen muss das Programm ja irgendwie das Einsammeln der oben angesprochenen TerraformItem-Objekte registrieren können. Weitere Objekte wie Bäume oder Felsen sollten das Terrain optisch aufwerten. Zu guter Letzt sollte noch eine simple Benutzeroberfläche erstellt werden, um dem Benutzer diverse Bedienelemente und Rückmeldungen zu bieten. Damit sollte es z.B. auch möglich sein dass Terrain direkt zu verändern.
In dieser Arbeit werden einige bekannte Spam Klassiffzierungsmethoden, welche für viele Anwendungen schon im Einsatz sind, kurz erläutert, um sie in einem neuen Szenario zu analysieren. In diesem Szenario wird nicht wie bei E-Mails üblich davon ausgegangen, dass die Nachrichten unbegrenzter Länge sein können, sondern dass es sich hierbei um Nachrichten begrenzter Länge handelt. Auch die Darstellungsform und der vermutliche Inhalt solcher Nachrichten werden aus einem speziellen Kontext heraus betrachtet. So wird davon ausgegangen, dass die Nachrichten auf einem Ticker eines Bildschirmes zu sehen sind, welcher in einer Universität angebracht ist. Somit werden die Nachrichteninhalte sich eher auf das universitäre Umfeld beziehen, wobei angenommen wird, dass die Nachrichteninhalte nur von einer abgeschlossenen Gruppe von Personen eingestellt werden. Nach der Erzeugung einiger Spam- und Hamnachrichten, die auf die Kriterien des Szenarios zutreσfn, werden Klassiffzierungsmethoden evaluiert. Am Ende der Analyse folgt eine Diskussion über die Verwendbarkeit jener Methoden in diesem Szenario. Abgeschlossen wird diese Untersuchung von einem Programm, welches die entsprechenden Methoden zur Klassifizierung implementiert.
Die Herstellung eines Europäischen Binnenmarktes, wie sie durch den Vertrag zur Gründung der Europäischen Gemeinschaft vorgesehen ist, beinhaltet unter anderem die freie grenzüberschreitende Erbringung von Dienstleistungen. Dem stehen jedoch mehrfach die Bestimmungen im Recht der EU-Mitgliedstaaten entgegen, die den freien Zugang von Dienstleistungserbringern aus anderen EU-Mitgliedstaaten zum nationalen Markt blockieren. Gründe für derartige Maßnahmen können sehr unterschiedlich sein, z.B.: der Schutz innerstaatlicher Anbieter, die Gewährleistung von Schutznormen des nationalen Arbeitsrechts oder die Verhinderung eines ruinösen Unterbietungswettlaufs. Die Richtlinie soll bürokratische Hindernisse abbauen, den grenzüberschreitenden Handel mit Dienstleistungen fördern und damit zur Verwirklichung des einheitlichen Binnenmarktes beitragen. Die Europäische Kommission hat am 12. Dezember 2006 die EU-Dienstleistungsrichtlinie verabschiedet. Jeder Mitgliedstaat der EU verpflichtet sich bis zum Jahr 2009 die Richtlinie umzusetzen und zugleich einen Bericht der Kommission vorzulegen. Innerhalb der Diplomarbeit werden mehrere Themenbereiche bearbeitet. Zu Beginn erfolgt eine allgemeine Einführung in die EU-Dienstleistungsrichtlinie. Als nächstes erfolgt eine Analyse aktueller Ansätze zur Umsetzung der EU-Richtlinie in Deutschland, Österreich und Großbritannien, dabei wird der Fortschritt der Länder anhand der Kernstrukturen der Direktive betrachtet. Zusätzlich wird für jedes betrachtete Land ein mögliches Anmeldeszenario, ohne die Vorgaben der Richtlinie, vorgestellt. Zur Vervollständigung der Betrachtung erfolgt zum Schluss eine länderübergreifende Auswertung. Diese wird sich sowohl auf die zurzeit vorherrschende Ländersituation als auch auf die erzielten Ergebnisse innerhalb der Direktive beziehen.
Taktstraße
(2008)
Eine Taktstraße ermöglicht eine automatisierte Verarbeitung eines Werkstückes mit Hilfe von Förderbändern, Lichtschranken, Schiebern und Bearbeitungsstationen. Für eine vorgegebene Taktstraße wird eine Ansteuerung entwickelt. Dazu wird der Mikrocontroller ATMega16 von Atmel eingesetzt. Ein externer Controller sendet über den TWI-Bus Steuerbefehle an den mit der Taktstraße verbundenen Controller. Um die Taktstraße bedienbar zu machen, wird eine geeignete Platine entworfen sowie eine LCD-Bibliothek als Ausgabe- und Informationsmedium. Die Arbeit umfasst alle für ein Projekt im Rahmen eines Informatikstudiums benötigten Entwicklungsstadien von der Projektplanung über die Aneignung von spezifischem Grundlagenwissen, die Hard- und Softwareentwicklung bis hin zu ausführlichen Entwicklungs- und Testphasen.
Im Rahmen der Glaukomdiagnostik sind Größe und Position des Sehnervkopfes wichtige Parameter zur Klassifikation des Auges. Das Finden und exakte Markieren der Papille ist ein subjektiver Vorgang und kann von Arzt zu Arzt stark variieren. Ziel der Arbeit ist die Entwicklung eines automatischen Verfahrens zur Detektion der Papille. Zunächst wird der medizinische Hintergrund erläutert (Aufbau des Auges, Glaukom) und das bildgebende Verfahren, der Heidelberg Retina Tomograph, dargestellt. Nach einer Diskussion bisheriger Ansätze zur Detektion der Papille wird ein eigenes Verfahren entwickelt und detailliert beschrieben. Für bei der Implementation aufgetretene Probleme werden Ansätze zur Optimierung vorgeschlagen.
In dieser Studienarbeit werden neben den Grundlagen der Web Services, Komponenten und APIs zur Realisierung des Sticky Loggings aufgezeigt. Es wird ein Szenario zum Testen des Sticky Loggings beschrieben und als Web Services implementiert. Der Sticky-Logging-Formalismus wird erklärt und es wird eine API zur Erstellung der StickyLogs implementiert. Die StickyLogs werden innerhalb des SOAP-Attachments der SOAP-Nachrichten zwischen den Web Services ausgetauscht. Dazu wird eine Realisierung mit einem Messagehandler unter JAX-WS programmiert und erläutert.
Dieser Arbeitsbericht behandelt die Entwicklung einer Architektur für komplexe kontextbezogene Dienste im mobilen Umfeld. Der folgende Arbeitsbericht beschreibt die grundlegende Problemstellung und einen theoretischen Lösungsansatz, der im weiteren Forschungsprozess konkretisiert, prototypisch implementiert und evaluiert wird. Durch die gestiegene Mobilität vieler Menschen besteht ein stetig steigender Bedarf an mobilen Kommunikations- und Informationsdiensten. Im mobilen Umfeld werden die meisten Mehrwertdienste zum jetzigen Zeitpunkt von den Mobilfunkprovidern angeboten. Es handelt sich primär um Dienste für den Massenmarkt, die keine nennenswerte Personalisierung zulassen. Aufgrund der funktionell einfachen Dienste und des damit verbundenen niedrigen Komforts sowie der durch die Nutzung entstehenden Kosten werden derartige Dienste nur in begrenztem Maße vom Massenmarkt angenommen. Dazu besteht keine Möglichkeit, kostengünstig kontextbezogene Dienste für spezielle Personengruppen anzubieten, da das Dienstangebot vom jeweiligen Mobilfunkprovider festgelegt wird. Diese Arbeit betrachtet nicht nur die heutigen Hemmnisse, sondern auch die Anforderungen, die einer Akzeptanz besonders von komplexen kontextbezogenen Diensten noch im Wege stehen. Ziel ist es, eine Architektur bereitzustellen, die zukünftig personalisierte Dienste ermöglichen soll. Durch die Verwendung von sensiblen Kontextinformationen bei der Diensterbringung muss bei der Konzeption dieser Architektur der Schutz der Privatsphäre als ein wichtiger Punkt betrachtet werden. Basierend auf diesen ermittelten Anforderungen schlägt diese Arbeit eine Architektur vor, die es ermöglicht, kontextbezogene Dienste geräte und providerunabhängig in einem wirtschaftlichen Umfeld, unter Berücksichtigung des Schutzes der Privatsphäre des Benutzers, anzubieten.
In der vorliegenden Studienarbeit wird eine OpenGL-Applikation vorgestellt, die Geometrie-Shader in einem Feedback-Loop einsetzt, um auf der GPU Geometrie zu erzeugen. Dargelegt werden die erforderlichen Grundlagen Geometrie-Shader und Transform Feedback betreffend, die Umsetzung der Anwendung und die eingesetzten GLSL-Shader.
Auditorischer Neglekt und auditorische Extinktion bei Patienten mit visuell-räumlichem Neglekt
(2008)
In der vorliegenden Arbeit wurden auditorische Vernachlässigungen (auditorische Extinktion und auditorischer Neglekt) bei Patienten mit visuell-räumlichem Neglekt untersucht. Neben diesen Patienten mit rechtshemisphärischer Hirnschädigung wurde eine hinsichtlich des Alters kontrollierte Vergleichsgruppe untersucht. Als Verfahren zur Untersuchung des auditorischen Neglekts und der auditorischen Extinktion wurden drei aus der Literatur adaptierte experimentelle Verfahren eingesetzt, in denen sowohl alltagsnahe (Zahlenwörter, Alltagsgeräusche) als auch alltagsferne (Rauschen) akustische Reize monaural und binaural präsentiert wurden. In einem der Verfahren wurde ein monaural und binaural präsentiertes Rauschen durch den Stimulus unterbrochen. Über alle Untersuchungsbedingungen hinweg wiesen die Patienten im Vergleich zu der Kontrollgruppe in den untersuchten Bereichen deutlich schlechtere Leistungen auf. Unter monauralen Untersuchungsbedingungen machten die Patienten unabhängig vom präsentierten Stimulusmaterial wenig Fehler mit einer tendenziellen Abhängigkeit der Performanz von der Präsentationsseite, wobei rechtsseitig präsentierte Reize besser erkannt wurden. Monaurale Reizdetektion bei gleichzeitiger Präsenz eines kontinuierlichen Hintergrundgeräusches führt darüber hinaus zu einer deutlich schlechteren kontraläsionalen Detektionsleistung sowie zu einer Abhängigkeit der Detektionsleistung von der Art des Stimulusmaterials. Diese Ergebnisse liefern einen Hinweis auf eine grundsätzliche Beeinträchtigung der kontraläsionalen Diskriminationsfähigkeit in der untersuchten Patientengruppe, welche in der vorliegenden Studie als kritisches Merkmal des auditorischen Neglekts angesehen werden. Bei der binauralen Stimuluspräsentation zeigte sich, dass identische, simultan an beiden Ohren präsentierte akustische Reize von den Patienten kaum ihren getrennten Ursprungsorten zugeschrieben werden können. Die Patienten identifizierten diese Reize häufig als monaural, was charakteristisch für das Störungsbild der Extinktion ist, und zeigten eine Tendenz, diese Reize dem rechten, auf der Seite der Hirnschädigung gelegenen, Ohr zuzuschreiben. Unter dichotischen Präsentationsbedingungen, das heißt bei simultaner Darbietung von zwei ungleichen akustischen Reizen, steigert sich dagegen die Lokalisations- und Identifikationsleistung der Patienten signifikant. Zusätzlich zeigte sich unter dichotischen Untersuchungsbedingungen eine deutliche Asymmetrie der Extinktionsseite, mit einer signifikant häufigeren Extinktion linksseitiger im Vergleich zu rechtsseitigen Reizen. Insgesamt zeigt sich eine Abhängigkeit der Testergebnisse von den spezifischen Bedingungen der Reizpräsentation und dem Alltagsrelevanz des Stimulusmaterials. Die Ergebnisse zeigen, dass nahezu alle untersuchten Patienten mit visuell-räumlichem Neglekt auch von Vernachlässigungsphänomenen in der auditorischen Modalität betroffen sind. Allerdings konnte kein genereller Zusammenhang der Schweregrade der Symptome in der auditorischen und visuellen Modalität nachgewiesen werden. Während sich ein Zusammenhang hinsichtlich der Schwere der Beeinträchtigung für den auditorischen Neglekt zeigte, ließ sich diese Assoziation für die auditorische Extinktion nicht nachweisen. Auf Grundlage der vergleichenden Analyse der untersuchten experimentellen Testverfahren zur auditorischen Vernachlässigung wird vorgeschlagen, dass Neglekt und Extinktion auch in der auditorischen Domäne als sinnvolle Störungsbilder beibehalten sollten und ihre Unterscheidung in Analogie zur visuellen Modalität vorgenommen werden kann. Die vorliegenden Ergebnisse unterstreichen die Notwendigkeit des Einsatzes experimentell-neuropsychologischer Aufgaben in der klinischen Praxis um räumlichattentionale Beeinträchtigungen in der akustischen Reizverarbeitung nach einer Hirnschädigung erfassen zu können. Es wird eine Testbatterie bestehend aus einem auditorischen Extinktionstest " mit simultaner Darbietung von identischen und unterschiedlichen binauralen Stimuli " sowie einem Neglekttest vorgeschlagen, bei dem unterschiedliche Zielreize in der Gegenwart eines kontinuierlichen binauralen Hintergrundrauschens detektiert werden müssen.
Im Rahmen dieser Diplomarbeit wurden Texte untersucht, die von Grundschulkindern unter bestimmten Bedingungen und Voraussetzungen geschrieben wurden. Die Texte entstanden im Rahmen des Projektes VERA (Vergleichsarbeiten in der Grundschule), das von Prof. Dr. Andreas Helmke und Juniorprof. Dr. Ingmar Hosenfeld durchgeführt wird. Es wurden circa 1000 handgeschriebene Geschichten transliteriert und teilweise korrigiert. Nähere Informationen zur Entstehung und Bearbeitung der Texte sind in Kapitel 4 zu finden. Für diese Diplomarbeit wurden die Texte mit dem Saarbrücker Message Extraction System (SMES), der am Deutschen Forschungsinstitut für Künstliche Intelligenz (DFKI) entwickelt wurde, verarbeitet. Zusätzlich wurden die Texte einer Analyse von Hand unterzogen, um eine Aussage über die Qualität von SMES machen zu können. Die vorliegende Diplomarbeitbeschreibt die Konzeption des Parsingansatzes und eine durchgeführte Evaluation. Außerdem erden Vorschläge für einfache und sinnvolle Verbesserungen und Änderungen gemacht, die für den gegebenen Korpus sinnvoll erscheinen. Ziel dieser Arbeit ist es, zu zeigen, welche Arbeits- und Verarbeitungsschritte notwendig und sinnvoll sind, um anschließend eine Aussage darüber treffen zu können, welche computerlinguistischen Methoden sich eignen, um die Entscheidung treffen zu können, welche Module man entwickeln kann, um den Lehrern und Schülern eine adäquate Lernhilfe zur Verfügung stellen zu können. Die Herausforderung bestand darin, zunächst ein linguistisches Mittel zu finden, das in Bezug auf die vorliegende Textart als am besten geeignet erschien und diese Wahl zu begründen. Anschließend galt es die Arbeitsweise und die Resultate der getroffenen Wahl genau zu untersuchen und heraus zu finden, welche einfachen Modifikationen man in das bereits bestehende System einbetten kann, um das Ergebnis weiter zu verbessern.
Gegenstand dieser Arbeit ist die Entwicklung eines Generators für Datenschutzpolicies. Diese werden in der P3P-Sprache formuliert. P3P steht für Platform for Privacy Preferences und ist ein Standard zum Schutz der Privatsphäre im Internet, der vom World Wide Web Consortium (W3C) entwickelt wurde. Er dient zum Austausch von Datenschutzinformationen. Die Datenschutzpraktiken einer Website können durch P3P in maschinenlesbarer Form durch sogenannte Policies beschrieben werden. So wird ein automatisierter Vergleich mit den entsprechenden Präferenzen auf Nutzerseite möglich. Der im Rahmen dieser Arbeit entwickelte Generator soll das Erstellen der Policies auf Anbieterseite erleichtern. Er entstand in Zusammenarbeit mit dem Landesbeauftragten für den Datenschutz Rheinland-Pfalz und geht auf die Bedürfnisse von Behörden ein, die P3P-Policies auf ihren Webseiten verwenden wollen.
In der vorliegenden Diplomarbeit wurde gezeigt, wie sich Ambient Occlusion in einer Szene aus frei transformierbaren Starrkörpern unter Verwendung von Coherent Shadow Maps in interaktiven Frameraten berechnen und darstellen lässt. Die Vorteile von Ambient Occlusion im Vergleich zu klassischen lokalen Beleuchtungsmodellen wurden aufgezeigt - den Ansatzpunkt bildet die Approximation von Umgebungslicht und indirekter Beleuchtung durch einen konstanten Farbwert - und die vereinfachenden Annahmen, die im Vergleich zu einer Simulation globaler Beleuchtung gemacht werden, wurden nachgezeichnet - Die Gültigkeit von Ambient Occlusion beschränkt sich demnach eigentlich auf eine direkte Beleuchtung diffuser Materialien mit konstanter Leuchtdichte. Um einen umfassenden Überblick zu gewährleisten, wurden zahlreiche existierende Ansätze zur Berechnung von Ambient Occlusion ausführlich vorgestellt. Anschließend wurde auf die Berechnung der Visibilität mittels CSMs eingegangen. Es wurde gezeigt wie sich die Komprimierungsrate von CSMs durch eine gleichmäßige Verteilung der zu komprimierenden Depth Maps deutlich erhöhen lässt und ein XML-konformes Dateiformat, das die beliebige Wiederverwendung einmal komprimierter Depth Maps erlaubt, wurde eingeführt.
Enterprise Resource Planning Systeme (ERP) bilden für viele Unternehmen eine wertvolle informationstechnische Unterstützung in der täglichen Wertschöpfung. Sie repräsentieren eine Klasse von hoch-integrierten und standardisierten betrieblichen Anwendungssystemen, deren Nutzenpotential für ein Unternehmen wettbewerbsentscheidend sein kann. Trotzdem muss eine Einführung von den verantwortlichen CEOs und CIOs sorgsam abgewogen werden, denn zu voreilige oder schlecht geplante ERPProjekte können ein erhebliches finanzielles Risiko darstellen, so dass am Ende sogar die Existenz eines Unternehmens bedroht ist. Bereits bestehende Systeme können aufgrund von einer unzureichenden Integrationsfähigkeit oder veralteten Technologie zusätzliche Wartungskosten verursachen, die in keinem Verhältnis zu den initialen Lizenzkosten mehr stehen. Wie kann man nun eine Vorstellung davon erhalten, welches ERP-System für ein Unternehmen geeignet ist? Gibt es bereits Standardpakete, deren Wartung und Pflege deutlich einfacher ist? Oder ist eine Mietlösung ein zu gewagtes Risiko? Diese Fragen haben den Anstoß zu der folgenden Arbeit gegeben. Die Aufgabe besteht darin, ein möglichst umfassendes Bild der kurz- bis mittelfristigen Zukunft des deutschen ERP-Marktes zu zeichnen. Dafür wurden in einer längeren Zeitperiode zahlreiche in Deutschland tätige Softwarehäuser hinsichtlich wichtiger Aspekte ihres ERPSystems befragt und die Antworten ausgewertet. Welchen Herausforderungen und welchen Anforderungen sich deutsche Anbieter in den kommenden drei bis fünf Jahren stellen müssen, werden die folgenden Kapitel erläutern.
Im Laufe der Zeit fallen in einem Unternehmen große Mengen von Daten und Informationen an. Die Daten stehen im Zusammenhang mit unternehmensinternen Vorgängen, mit dem Marktumfeld, in dem das Unternehmen positioniert ist, und auch mit den Wettbewerbern. Sie sind vielfältiger Art, normalerweise inhomogen und aus verteilten Datenquellen zu beziehen. Um in dieser Flut von Daten die Übersicht zu behalten, die Menge an Informationen effektiv für das Unternehmen nutzbar zu machen, vor allem auch nachhaltig für kommende Entscheidungsfindungen, müssen die Daten analysiert und integriert werden. Diese Optimierung der Entscheidungsfindung durch Zugang zu Informationen, deren Analyse und Auswertung wird häufig unter dem Begriff "Business Intelligence" zusammengefasst. Der Wert der vorhandenen Informationen hängt stark von dem erwähnten Zugang und einer ausdrucksstarken Repräsentation ab. RIA-Techniken ermöglichen eine einfache Verfügbarkeit der verarbeiteten Geschäftsdaten über Inter- und Intranet ohne große Anforderungen an ihre Nutzbarkeit zu stellen. Sie bieten zudem spezialisierte leistungsfähige und in großem Maße programmierbare Visualisierungstechniken. Die Diplomarbeit soll zwei Schwerpunkte habe. Zum Einen wird sie sich mit Arten der Informationsvisualisierung im Allgemeinen und deren Eignung für Geschäfsdaten beschäftigen. Der Fokus liegt hierbei auf Daten und Informationen in Management-Informationsberichten. Ziel ist eine Visualisierungsform, die es dem Nutzer ermöglicht, die zu kommunizierenden Informationen effizient auszuwerten. Zum anderen untersucht die Diplomarbeit die Vor- und Nachteile des Einsatzes von RIAs. Der Implementierungsteil umfasst eine RIA als "Proof of Concept", deren Hauptaugenmerk auf eine dynamische Interaktion und optimierte Informationsvisualisierung gerichtet sein soll. Die Diplomarbeit wird bei der Altran CIS in Koblenz durchgeführt.
In unserer heutigen Welt spielen soziale Netzwerke eine immer größere werdende Rolle. Im Internet entsteht fast täglich eine neue Anwendung in der Kategorie Web 2.0. Aufgrund dieser Tatsache wird es immer wichtiger die Abläufe in sozialen Netzwerken zu verstehen und diese für Forschungszwecke auch simulieren zu können. Da alle gängigen sozialen Netzwerke heute nur im eindimensionalen Bereich arbeiten, beschäftigt sich diese Diplomarbeit mit mehrdimensionalen sozialen Netzwerken. Mehrdimensionale soziale Netzwerke bieten die Möglichkeit verschiedene Beziehungsarten zu definieren. Beispielsweise können zwei Akteure nicht nur in einer "kennt"-Beziehung stehen, sondern diese Beziehungsart könnte auch in diverse Unterbeziehungsarten, wie z.B. Akteur A "ist Arbeitskollege von" Akteur B oder Akteur C "ist Ehepartner von" Akteur D, unterteilt werden. Auf diese Art und Weise können beliebig viele, völlig verschiedene Beziehungsarten nebeneinander existieren. Die Arbeit beschäftigt sich mit der Frage, in welchem Grad die Eigenschaften von eindimensionalen auch bei mehrdimensionalen sozialen Netzwerken gelten. Um das herauszufinden werden bereits bestehende Metriken weiterentwickelt. Diese Metriken wurden für eindimensionale soziale Netzwerke entwickelt und können nun auch für die Bewertung mehrdimensionaler sozialer Netzwerke benutzt werden. Eine zentrale Fragestellung ist hierbei wie gut sich Menschen finden, die sich etwas zu sagen haben. Um möglichst exakte Ergebnisse zu erhalten, ist es notwendig reale Daten zu verwenden. Diese werden aus einem Web 2.0-Projekt, in das Benutzer Links zu verschiedenen Themen einstellen, gewonnen (siehe Kapitel 4). Der erste praktische Schritte dieser Arbeit besteht daher darin, das soziale Netzwerk einzulesen und auf diesem Netzwerk eine Kommunikation, zwischen zwei Personen mit ähnlichen Themengebieten, zu simulieren. Die Ergebnisse der Simulation werden dann mit Hilfe der zuvor entwicklelten Metriken ausgewertet.
Program slicing
(2008)
Im Rahmen dieser Diplomarbeit wird das Dienstmodell für Program Slicing, welches von Hannes Schwarz vorgestellt wurde, zu einem komponentenbasierten Referenztool weiterentwickelt und implementiert. Dieses Referenztool verwendet zum Slicen ein Referenzschema für Programmiersprachen, welches ebenfalls in dieser Arbeit eingeführt wird. Die hier eingesetzten Slicing-Verfahren basieren auf diesem Referenzschema. Somit kann das Referenztool als Grundlage zum Slicen von Quellcode in beliebigen Programmiersprachen genutzt werden, wenn das Referenzschema vorab an die Gegebenheiten dieser Sprachen angepasst wird. Exemplarisch wird in dieser Diplomarbeit ein Program Slicing Tool für C-Quellcode entwickelt. Dieses Slicing Tool basiert auf dem Referenztool, in dem es die einzelnen Komponenten des Referenztools bei Bedarf spezialisiert oder in der ursprünglichen Form übernimmt. Damit das Program Slicing Tool als Referenz gelten kann, wird in dieser Arbeit eine einfache, erweiterbare und komponentenbasierte Architektur entwickelt. Diese entsteht durch den Einsatz aktueller Prinzipien der Softwaretechnik.
Im Rahmen dieser Studienarbeit wurde ein Faktenextraktor für Java-Quelltexte entwickelt. Der Javaextraktor generiert eine TGraph-Repräsentation der Quelltexte eines in Java implementierten Softwareprojekts. Dieser TGraph ist dann durch dieWerkzeuge des Gupro-Projekts weiter verarbeitbar. Der Javaextraktor kann Javaquelltexte bis einschließlich Javaversion 6 verarbeiten. Dazu wurde ein Werkzeug gefunden, welches den Parsingvorgang übernimmt, so dass diese Funktion nicht selbst implementiert werden musste. Zusätzlich wurde ein Javametamodell und entsprechendes Schema für den TGraph entwickelt. Die Knoten- und Kantentypen des Metamodells konnten automatisiert mit JGraLab aus dem Schema erzeugt werden.
Im Rahmen dieser Studienarbeit wurden acht verschiedene Algorithmen unterschiedlichen Umfangs und Komplexität zur Pupillenmittelpunktssuche implementiert und im Vergleich mit dem Originalalgorithmus ausgewertet. Die Berechnung des Hornhautreflektionsmittelpunkts wurde modifiziert, so dass die Helligkeitswerte der Hornhautreflektion bei der Berechnung des Schwerpunkts gewichtet werden. Bei der Auswertung wurde festgestellt, dass drei der acht Algorithmen, der Starburst-Algorithmus für hochauflösende Bilder, Daugmans Algorithmus für Aufnahmen bei sichtbarem Licht und der Average Coordinate Algorithmus von Daunys und Ramanauskas, Mängel in Zusammenhang mit dem gegebenen System aufweisen, so dass diese momentan nicht für die Mittelpunktssuche im Gazetracker geeignet sind. Die restlichen Algorithmen zeigten im grafischen Vergleich ähnlich gute Ergebnisse und wurden im Test verglichen, wobei der Algorithmus von Perez, Garcia, Mendez, Munoz, Pedraza und Sanches und der Algorithmus von Poursaberi und Araabi die besten Ergebnisse aufwiesen in Bezug auf Dichte der Punkte, Fehlerpunkte und Outlier.