Filtern
Erscheinungsjahr
- 2008 (70) (entfernen)
Dokumenttyp
- Studienarbeit (24)
- Diplomarbeit (21)
- Dissertation (10)
- Ausgabe (Heft) zu einer Zeitschrift (8)
- Bachelorarbeit (5)
- Masterarbeit (2)
Sprache
- Deutsch (70) (entfernen)
Schlagworte
- Bildverarbeitung (3)
- Computerspiel (3)
- Analyse durch Synthese (2)
- Business Intelligence (2)
- Computergrafik (2)
- E-IMS (2)
- Electronic Government (2)
- Evaluation (2)
- Informatik (2)
- Informationssystem (2)
- Java (2)
- Markerloses Tracking (2)
- Programmierung (2)
- Robotik (2)
- Rollenspiel (2)
- Simulation (2)
- Tracking (2)
- Universität Koblenz-Landau (2)
- VNUML (2)
- information system (2)
- 3D Painting (1)
- 3D-Abbildungen (1)
- 3D-Modell (1)
- ATMega 16 (1)
- ATmega644 (1)
- ATtiny2313 (1)
- Abfragesprache (1)
- Agent (1)
- Alex Bernstein (1)
- Ambient Occlusion (1)
- Anforderung (1)
- Anwendungssoftware (1)
- Art Déco (1)
- Aufmerksamkeit (1)
- BI (1)
- Bachelor (1)
- Bachelorstudiengang (1)
- Balanced Scorecard (1)
- Bewegungsapparat (1)
- Bewegungsmodell (1)
- Big Five (1)
- Biomechanik (1)
- Biotopkartierung (1)
- Blinder Fleck (1)
- Burg (1)
- Business Continuity Management (1)
- CAD (1)
- CSMs (1)
- CSV (1)
- CTI (1)
- Campus Koblenz (1)
- Colonoscopy (1)
- ColorSym (1)
- Computer-aided diagnosis (1)
- Computermodell (1)
- Computersimulation (1)
- Computertomografie (1)
- Content Management (1)
- Counting-to-Infinity (1)
- DEMO_net (1)
- DHCPv6 (1)
- Darmspiegelung (1)
- Data Warhousing (1)
- Data-Warehouse-Konzept (1)
- Datenbank (1)
- Datenschutz (1)
- Datenschutzpolicy (1)
- Didaktik (1)
- Digitale Steuerung (1)
- Disaster Recovery (1)
- Distanz-Vektor (1)
- Dokumentation (1)
- E-Partizipation (1)
- EEPROM (1)
- EPROM (1)
- ERP-Systeme (1)
- EU-Dienstleistungsrichtlinie (1)
- Elektrizitätslehre (1)
- Enterprise Resource Planning (1)
- Entscheidungsprozess (1)
- Erweiterte Realität (1)
- Europäischer Binnenmarkt (1)
- Event (1)
- Extinktion (1)
- Eye-Tracking (1)
- Faktorenanalyse (1)
- Faktorinvarianz (1)
- Farbsymmetrie (1)
- FastSLAM Algorithmus (1)
- GLSL (1)
- GPGPU (1)
- Gaze-Tracking (1)
- Generative Modellierung (1)
- Geometrie-Shader (1)
- Glaukom (1)
- Grafikprozessor (1)
- Graph (1)
- Grundwasser (1)
- Grundwasserfauna (1)
- Gupro (1)
- HNF-Algorithmus (1)
- Habitat (1)
- Halbleiter (1)
- Headerdaten Netzwerkpaket SOCK_RAW SOCK_PACKET (1)
- Heidelberg Retina Tomograph (1)
- Hermite-Normalform (1)
- Hochgeschwindigkeitstracking (1)
- Hydrogeologie (1)
- ICP-Algorithmus (1)
- IEC 61131 (1)
- IPv6 (1)
- IT-Sicherheitsmodelle (1)
- Idar-Oberstein (1)
- Inflation (1)
- Informationsvisualisierung (1)
- Informel (1)
- Internetzugang (1)
- Interpersonale Kommunikation (1)
- Intranet-Zugang (1)
- Java-Quelltext (1)
- Jugendstil (1)
- Karst (1)
- Karstgrundwasserleiter (1)
- Katastrophenschutz (1)
- Kluftgrundwasserleiter (1)
- Kognitive Verhaltenstherapie (1)
- Koloskopie (1)
- Kondertal (1)
- Konfirmatorische Faktorenanalyse (1)
- Kontextbezogener Dienst (1)
- Kontinuität (1)
- Kontinuitätsmanagement (1)
- Krisenmanagement (1)
- Kryptographie (1)
- Kubismus (1)
- Kunst (1)
- Lebensqualität (1)
- Lebensraumqualität (1)
- Lernstation (1)
- Lernumwelt (1)
- Lernzirkel (1)
- Lockergesteinleiter (1)
- Logging (1)
- Lokalisierung (1)
- Ländliche Entwicklung (1)
- Ländliche Siedlung (1)
- Ländlicher Raum (1)
- MKS (1)
- MMORPG (1)
- Mail-Filter (1)
- Malen (1)
- Mammographie (1)
- Marktanalyse (1)
- Massenkommunikation (1)
- Master (1)
- Masterstudiengang (1)
- Medizintechnik (1)
- Mehragentensystem (1)
- Mehrebenenanalyse (1)
- Mehrkörpersysteme (1)
- Metriken (1)
- Mikroanalytisches Modell (1)
- Mikroanalytisches Simulationsmodell (1)
- Mikrocontroller (1)
- Mikrocontroller AVR (1)
- Mikrosensus (1)
- Mikrosimulationsmodell (1)
- Mobiles Multiplayerspiel (1)
- Mobiles Umfeld (1)
- Modellbasiertes Tracking (1)
- Modeschmuck (1)
- Modul (1)
- Modulhandbuch (1)
- Montageablauf (1)
- Monte-Carlo-Simulation (1)
- Multitrait-Multimethod-Modelle (1)
- Multivariate Datenanalyse (1)
- NPO (1)
- Naturwissenschaften (1)
- Navigation (1)
- Netzwerkschicht (1)
- Netzwerksimulation (1)
- Nonprofit-Organisation (1)
- Notfall (1)
- Notfallmanagement (1)
- Notfallvorsorge (1)
- Oberflächenorientierung (1)
- Objektorientierung (1)
- Objektverfolgung (1)
- Octree Textur (1)
- Onlinespiele (1)
- OpenGL (1)
- Ornamentklassifikation (1)
- P3P (1)
- P3P-Policy-Generator (1)
- Packet Header SOCK_RAW SOCK_PACKET (1)
- Personentracking (1)
- Personenverfolgungssystem (1)
- Persönlichkeit (1)
- Pfalz (1)
- Photovoltaik (1)
- Physikunterricht (1)
- Politische Kampagne (1)
- Politische Meinungsbildung (1)
- Polypendetektion (1)
- PostgreSQL (1)
- Program Slicing (1)
- Programmanalyse (1)
- Programmiergerät (1)
- Programmiersprache (1)
- Programmiersprachen (1)
- Prozessanalyse (1)
- Prädiktor (1)
- Psychosomatische Störung (1)
- Pädagogik (1)
- RCP (1)
- RIP (1)
- RIP-MTI (1)
- Rendering (1)
- Requirements-Engineering (1)
- Retinex-Algorithmus (1)
- Rheinland-Pfalz (1)
- Rich Internet Application (1)
- Robert P. Abelson (1)
- Routing-Loop (1)
- SAC (1)
- Schatten (1)
- Schlaganfall (1)
- Schmucktheorie (1)
- Schülerwahrnehmungen (1)
- Semantik (1)
- Shaderframework (1)
- Shaderprogramm (1)
- Sich langsam verändernde Dimensionen (1)
- Skriptsprache (1)
- Slowly Changing Dimensions (1)
- Socket (1)
- Socket-Schnittstelle (1)
- Solarzelle (1)
- Somatoforme Störungen (1)
- Soziale Netzwerke (1)
- Sozialkompetenz (1)
- Spam-Mail (1)
- Spieleentwicklung (1)
- SpoGA (1)
- SpoGa (1)
- Sportverletzung (1)
- Sprachverarbeitung (1)
- Staat (1)
- Starrkörper (1)
- Stilisierung (1)
- Supply Chain Management (1)
- Syntax (1)
- System Dynamics (1)
- Systemanalyse (1)
- Südpfalz (1)
- TGraphen (1)
- Taktstraße (1)
- Technikgeschichte (1)
- Textur (1)
- Textur-Mapping (1)
- Texturierung (1)
- Therapieerfolg (1)
- Trackingsystem (1)
- Transform Feedback (1)
- Transportschicht (1)
- UML (1)
- Umgebungslicht (1)
- Umweltqualität (1)
- Unternehmen (1)
- Unterrichts-Klima-Instrument (1)
- Unterrichtsbeurteilung (1)
- Unterrichtsmaterial (1)
- Urteilerübereinstimmung (1)
- Veranstaltung (1)
- Verbindungsschicht (1)
- Verwaltungsautomation (1)
- Virtuelle Realität (1)
- Virtuelle Welt (1)
- Volumenrendering (1)
- WLAN (1)
- Web Services (1)
- Wissensmanagement (1)
- World of Warcraft (1)
- Zero (1)
- Zielverfolgung (1)
- agent (1)
- art deco (1)
- art nouveau (1)
- auditorischer Neglekt (1)
- augmented reality (1)
- bachelor (1)
- cognitive-behavioral therapy (1)
- computer science (1)
- confirmatory factor analysis (1)
- costume jewellery (1)
- cubism (1)
- database (1)
- deutschsprachiger Markt (1)
- dreidimensionale Computergraphik (1)
- eGroupware (1)
- electricity (1)
- elektronische Anwendungen (1)
- energy (1)
- evaluation (1)
- event (1)
- factorial invariance (1)
- geometry shader (1)
- java (1)
- markerless tracking (1)
- master (1)
- module handbook (1)
- multilevel analysis (1)
- multitrait-multimethod models (1)
- natural language processing (1)
- natürliche Sprache (1)
- object orientation (1)
- octree texture (1)
- pedagogy (1)
- person (1)
- photovoltaic (1)
- physics (1)
- polyp detection (1)
- predictor (1)
- projektives Malen (1)
- revenue management (1)
- social competence (1)
- somatoform disorders (1)
- student ratings (1)
- syntaktische Analyse (1)
- texturing (1)
- therapy outcome (1)
- transform feedback (1)
- visuell-räumlicher Neglekt (1)
Institut
- Institut für Computervisualistik (22)
- Institut für Wirtschafts- und Verwaltungsinformatik (18)
- Fachbereich 4 (14)
- Institut für Informatik (7)
- Institut für Softwaretechnik (5)
- Fachbereich 8 (2)
- Institut für Management (2)
- Institut für naturwissenschaftliche Bildung (2)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (1)
- Arbeitsbereich Diagnostik, Differentielle und Persönlichkeitspsychologie, Methodik und Evaluation (1)
Das Routing Information Protocol (RIP) ist ein Internet-Standard-Routing-Protokoll, das einst mit zu den am meisten eingesetzten Routing-Protokollen in IP-Netzwerken gehörte. Es basiert auf dem sogenannten Distanzvektoralgorithmus und ist in seiner Funktion und seinem Aufbau sehr einfach ausgelegt. Seit jeher leidet es allerdings unter dem sogenannten Counting-to-Infinity (CTI) Problem, bei dem die Erreichbarkeit einer eigentlich ausgefallenen Verbindung zu einem Ziel scheinbar aufrechterhalten wird. Die Distanz zu diesem Ziel wird aufgrund des fortwährenden Austauschs von nicht mehr gültigen Verbindungsinformationen zwischen in einem Ring geschalteten RIP-Routern hochgezählt, theoretisch bis ins Unendliche. Dabei entstehen Routingschleifen, die den Netzwerkbetrieb erheblich stören können, da die gesendeten Netzwerkpakete aufgrund der Schleife die selben Router immer wieder passieren und weder an ihr eigentliches Ziel gelangen noch verworfen werden können. Die Gefahr des Auftretens des CTI-Problems schränkt die Einsetzbarkeit von RIP enorm ein. Die Netzwerke, in denen RIP eingesetzt wird, können nicht beliebig wachsen, da die maximale Größe des Netzwerks auf eine relativ kleine Distanz zwischen den Routern begrenzt ist, um die Dauer und die Folgen des CTI-Problems im Falle des Auftretens gering zu halten. Je stärker auch die Topologie eines Netzwerks vermascht ist, um mit zusätzlichen, alternativen Verbindungen Ausfällen entgegenzuwirken, umso stärker steigt auch die Gefahr des Auftretens des CTI-Problems nach einem Ausfall. Bislang existierten für RIP lediglich Mechanismen, die das Risiko des Auftretens und die Auswirkungen des CTI-Problems verringern, das Problem selbst aber nicht beheben können. Mit "RIP with minimal topology information" (RIP-MTI) wurde in der AG Rechnernetze an der Universität Koblenz-Landau eine abwärtskompatible Erweiterung zu RIP geschaffen, die das CTI-Problem zu beheben verspricht. Der RIP-MTI-Algorithmus sammelt zusätzliche Informationen über die Topologie des Netzwerks und nutzt diese, um nach dem Ausfall einer Verbindung richtige Informationen über die Erreichbarkeit von Zielen von falschen Informationen unterscheiden zu können. In dieser Diplomarbeit wird die Implementierung des RIP-MTI-Algorithmus behandelt. Mit Hilfe der speziell entwickelten RIP-Netzwerk-Testumgebung XTPeer, in der das CTI-Problem kontrolliert provoziert werden kann, wird die Wirksamkeit der Implementierung eines Quagga RIP-MTI-Routers überprüft und entsprechend weiterentwickelt. Dafür wird der RIP-MTI-Algorithmus an die Implementierung des Quagga RIP-Routing-Software sowie an die der Netzwerk-Testumgebung XTPeer angepasst. Diese Diplomarbeit wird vom Autor selbst als fortgeschrittene Zwischenstation eingestuft, vor der Herstellung und Herausgabe der Implementierung einer RIP-MTI-Routing-Software, die auch in produktiven Netzwerken eingesetzt werden könnte.
In der vorliegenden Arbeit werden vom Autor entwickelte und in der Schulpraxis bzw. Lehrerausbildung erprobte Unterrichtskonzepte zum selbstständigen Wissens- und Könnenserwerb an Lernstationen und für den lehrerzentrierten Frontalunterricht für den Themenbereich "Photovoltaik" vorgestellt (siehe Anhang A, S. 147). Es wird mit dieser Arbeit ein Beitrag zur aktuellen Kompetenzforschung geleistet. Die wesentlichen Resultate sind: - Es wird gezeigt, dass die Legitimation der Unterrichtsthematik "Photovoltaik" aus gesellschaftlicher, bildungstheoretischer und fachdidaktischer Sicht begründbar ist. - Es wird nachgewiesen, dass das Teilchenmodell für die Beschreibung des Aufbaus und der Funktionsweise der Solarzelle im Physikunterricht geeignet ist (Elementarisierung des Leitungsvorganges in Halbleitern). - Die Analysen der Vorerfahrungen der Schülerinnen und Schüler zur Photovoltaik lassen erkennen, dass diese phänomenologischer Natur sind. Über konkrete Vorkenntnisse zur Solarzelle verfügen die Schülerinnen und Schüler nicht. - Die empirischen Untersuchungen belegen, dass sowohl im Frontalunterricht als auch beim Lernen an Stationen ein großer Lernzuwachs nachweisbar ist. Dieses Ergebnis zeigt, dass die Lernenden der 10. und 11. Klasse in der Lage sind, sich neues Wissen und Können anzueignen (Abschnitt 6.2, S. 94). - Die empirischen Untersuchungen weisen nach, dass die Urteilsfähigkeit der Schülerinnen und Schüler (Kompetenz: Bewertung) im Nachtest signifikant überzeugender (Nutzung von wissenschaftlich gesicherten Argumenten) ist als im Vortest (Abschnitt 6.4, S. 101). - Die Aufgabenstellungen der einzelnen Stationen wurden hinsichtlich der Kompetenzanforderungen vom Autor und von Experten analysiert. Dabei stellte sich heraus, dass die Zuordnung der Aufgabenstellungen zu den vier Kompetenzbereichen (Fachwissen, Erkenntnisgewinnung, Kommunikation und Bewertung) von den meisten Experten einheitlich erfolgt. Große Unterschiede treten bei der Zuordnung der Aufgabenstellungen zu den Auforderungsbereichen auf. Die Hauptursachen sieht der Autor in den unzureichenden Erläuterungen der Bildungsstandards zu den Auforderungsbereichen und den Erfahrungen der Experten bei der Bewertung von Kompetenzen (Abschnitt 7.4, S. 120).
Dieser Arbeitsbericht behandelt die Entwicklung einer Architektur für komplexe kontextbezogene Dienste im mobilen Umfeld. Der folgende Arbeitsbericht beschreibt die grundlegende Problemstellung und einen theoretischen Lösungsansatz, der im weiteren Forschungsprozess konkretisiert, prototypisch implementiert und evaluiert wird. Durch die gestiegene Mobilität vieler Menschen besteht ein stetig steigender Bedarf an mobilen Kommunikations- und Informationsdiensten. Im mobilen Umfeld werden die meisten Mehrwertdienste zum jetzigen Zeitpunkt von den Mobilfunkprovidern angeboten. Es handelt sich primär um Dienste für den Massenmarkt, die keine nennenswerte Personalisierung zulassen. Aufgrund der funktionell einfachen Dienste und des damit verbundenen niedrigen Komforts sowie der durch die Nutzung entstehenden Kosten werden derartige Dienste nur in begrenztem Maße vom Massenmarkt angenommen. Dazu besteht keine Möglichkeit, kostengünstig kontextbezogene Dienste für spezielle Personengruppen anzubieten, da das Dienstangebot vom jeweiligen Mobilfunkprovider festgelegt wird. Diese Arbeit betrachtet nicht nur die heutigen Hemmnisse, sondern auch die Anforderungen, die einer Akzeptanz besonders von komplexen kontextbezogenen Diensten noch im Wege stehen. Ziel ist es, eine Architektur bereitzustellen, die zukünftig personalisierte Dienste ermöglichen soll. Durch die Verwendung von sensiblen Kontextinformationen bei der Diensterbringung muss bei der Konzeption dieser Architektur der Schutz der Privatsphäre als ein wichtiger Punkt betrachtet werden. Basierend auf diesen ermittelten Anforderungen schlägt diese Arbeit eine Architektur vor, die es ermöglicht, kontextbezogene Dienste geräte und providerunabhängig in einem wirtschaftlichen Umfeld, unter Berücksichtigung des Schutzes der Privatsphäre des Benutzers, anzubieten.
In dieser Arbeit wird die Umsetzung und Modifikation des Verfahrens von Finlayson et al. zur Schattenentfernung in einzelnen Farbbildern unter Verwendung des Retinex-Algorithmus vorgestellt. Für die benötigte Detektion von Schattenkanten wurde ein Verfahren von Finlayson et al. umgesetzt und angepasst. Die erforderliche Kamerakalibrierung wurde dabei nicht mit Tageslicht, sondern unter Verwendung künstlicher Lichtquellen realisiert. Anhand von Campus-Bildsequenzen wird ein qualitativer Vergleich des umgesetzten Verfahrens mit dem von Weiss zur Schattenentfernung in Bildserien vorgenommen. Außerdem wird ein erster Ansatz vorgestellt, wie Verfahren zur Schattenentfernung quantitativ bewertet werden können. Die Erzeugung der benötigten Ground-truth-Daten wird mit Hilfe von Laboraufnahmen realisiert, sodass keine manuelle Segmentierung von Schatten erforderlich ist. Anhand der Ergebnisse von Experimenten wird gezeigt, inwieweit die definierten Maße eine Bewertung und einen Vergleich der beiden Verfahren erlauben.
Der Fachbereich 4: Informatik der Universität Koblenz-Landau bietet seit seiner Gründung 1990 wissenschaftliche Studiengänge (Diplom) in Informatik mit verschiedenen Schwerpunkten, darunter Wirtschaft- und Verwaltungsinformatik an, dem nach und nach weitere Studiengänge zur Seite gestellt wurden: seit 1997 Computervisualistik (Diplom) und seit 2000 Informationsmanagement (Bachelor und Master). Der Fachbereich 4: Informatik hat zum Wintersemester 2006/2007 sein Lehrangebot in den Nicht-Lehramtsstudiengängen vollständig auf konsekutive Bachelor- und Masterstudiengänge umgestellt. Die Akkreditierung erfolgte über die Akkreditierungsagentur ASIIN. Die Aufnahme von Studienanfängern für die bis dahin angebotenen Diplomstudiengänge "Informatik" bzw. "Computervisualistik" wurde gleichzeitig eingestellt, und diese wurden durch ein integriertes Programm mit zwei konsekutiven Bachelor-Master-Studienprogrammen in "Informatik" und "Computervisualistik" ersetzt. Das bereits bestehende Bachelor-Master-Programm in "Informationsmanagement" wurde reformiert, und ein weiterer Masterstudiengang in "Wirtschaftsinformatik" wurde eingerichtet. Bei der Konzeption dieser sieben Studiengänge wurde auf eine hohe Integration und Studiengangs-übergreifende Wiederverwendung von Modulen geachtet. Die in diesem Papier vorgestellten Studiengänge für das Lehramt wurden schon bei der damaligen Planung mit einbezogen. Da mit Prof. Dr. Stefan Müller der Leiter der Landesarbeitsgruppe zur Erarbeitung der curricularen Standards für das Fach Informatik bei der Planung eng mit eingebunden war, konnten die Module der Bachelor- und Masterstudiengänge von Anfang an im Hinblick auf eine spätere Verwendung auch im Lehramt konzipiert werden.
In der vorliegenden Diplomarbeit wurde gezeigt, wie sich Ambient Occlusion in einer Szene aus frei transformierbaren Starrkörpern unter Verwendung von Coherent Shadow Maps in interaktiven Frameraten berechnen und darstellen lässt. Die Vorteile von Ambient Occlusion im Vergleich zu klassischen lokalen Beleuchtungsmodellen wurden aufgezeigt - den Ansatzpunkt bildet die Approximation von Umgebungslicht und indirekter Beleuchtung durch einen konstanten Farbwert - und die vereinfachenden Annahmen, die im Vergleich zu einer Simulation globaler Beleuchtung gemacht werden, wurden nachgezeichnet - Die Gültigkeit von Ambient Occlusion beschränkt sich demnach eigentlich auf eine direkte Beleuchtung diffuser Materialien mit konstanter Leuchtdichte. Um einen umfassenden Überblick zu gewährleisten, wurden zahlreiche existierende Ansätze zur Berechnung von Ambient Occlusion ausführlich vorgestellt. Anschließend wurde auf die Berechnung der Visibilität mittels CSMs eingegangen. Es wurde gezeigt wie sich die Komprimierungsrate von CSMs durch eine gleichmäßige Verteilung der zu komprimierenden Depth Maps deutlich erhöhen lässt und ein XML-konformes Dateiformat, das die beliebige Wiederverwendung einmal komprimierter Depth Maps erlaubt, wurde eingeführt.
Die vorliegende Arbeit untersucht die Zusammenhänge zwischen sozialer Kompetenz und den Big Five der Persönlichkeit. Nach einer Erörterung des Kompetenzbegriffs in der Psychologie wird ein Überblick über die verschiedenen theoretischen Ansätze zur sozialen Kompetenz sowie deren Erfassungsmöglichkeiten gegeben. Daneben wird das Fünf-Faktoren-Modell der Persönlichkeit hinsichtlich seiner Entwicklung und seines Stellenwerts innerhalb der Persönlichkeitsforschung analysiert und Anwendungsmöglichkeiten sowie Erfassungsmethoden der Big Five werden dargelegt. Im Anschluss werden theoretisch gefundene spezifische Zusammenhänge der beiden Konstrukte aufgezeigt. Die daraus resultierenden theoretischen Modelle zu den Zusammenhängen zwischen sozialer Kompetenz und Persönlichkeit sowie die damit verbundenen empirischen Hypothesen werden mithilfe von Strukturgleichungsmodellen an einer Stichprobe von jungen Erwachsenen aus der deutschsprachigen Schweiz überprüft. Die Strukturgleichungsmodelle können mit akzeptablen bis guten Gütekriterien beibehalten werden. Eine zusätzliche Kreuzvalidierung an einer zweiten unabhängigen Stichprobe bestätigt die Ergebnisse in weiten Teilen. Eine weitere Modellprüfung an einer französischsprachigen Stichprobe gibt erste Hinweise für eine kulturübergreifende Generalisierung. Die Ergebnisse der empirischen Studie werden sowohl methodisch als auch mit Bezug auf die theoretischen Ausführungen diskutiert und es werden Implikationen für die weitere Forschung erörtert.
Im Rahmen dieser Diplomarbeit wurden Texte untersucht, die von Grundschulkindern unter bestimmten Bedingungen und Voraussetzungen geschrieben wurden. Die Texte entstanden im Rahmen des Projektes VERA (Vergleichsarbeiten in der Grundschule), das von Prof. Dr. Andreas Helmke und Juniorprof. Dr. Ingmar Hosenfeld durchgeführt wird. Es wurden circa 1000 handgeschriebene Geschichten transliteriert und teilweise korrigiert. Nähere Informationen zur Entstehung und Bearbeitung der Texte sind in Kapitel 4 zu finden. Für diese Diplomarbeit wurden die Texte mit dem Saarbrücker Message Extraction System (SMES), der am Deutschen Forschungsinstitut für Künstliche Intelligenz (DFKI) entwickelt wurde, verarbeitet. Zusätzlich wurden die Texte einer Analyse von Hand unterzogen, um eine Aussage über die Qualität von SMES machen zu können. Die vorliegende Diplomarbeitbeschreibt die Konzeption des Parsingansatzes und eine durchgeführte Evaluation. Außerdem erden Vorschläge für einfache und sinnvolle Verbesserungen und Änderungen gemacht, die für den gegebenen Korpus sinnvoll erscheinen. Ziel dieser Arbeit ist es, zu zeigen, welche Arbeits- und Verarbeitungsschritte notwendig und sinnvoll sind, um anschließend eine Aussage darüber treffen zu können, welche computerlinguistischen Methoden sich eignen, um die Entscheidung treffen zu können, welche Module man entwickeln kann, um den Lehrern und Schülern eine adäquate Lernhilfe zur Verfügung stellen zu können. Die Herausforderung bestand darin, zunächst ein linguistisches Mittel zu finden, das in Bezug auf die vorliegende Textart als am besten geeignet erschien und diese Wahl zu begründen. Anschließend galt es die Arbeitsweise und die Resultate der getroffenen Wahl genau zu untersuchen und heraus zu finden, welche einfachen Modifikationen man in das bereits bestehende System einbetten kann, um das Ergebnis weiter zu verbessern.
Im Rahmen dieser Studienarbeit wurden acht verschiedene Algorithmen unterschiedlichen Umfangs und Komplexität zur Pupillenmittelpunktssuche implementiert und im Vergleich mit dem Originalalgorithmus ausgewertet. Die Berechnung des Hornhautreflektionsmittelpunkts wurde modifiziert, so dass die Helligkeitswerte der Hornhautreflektion bei der Berechnung des Schwerpunkts gewichtet werden. Bei der Auswertung wurde festgestellt, dass drei der acht Algorithmen, der Starburst-Algorithmus für hochauflösende Bilder, Daugmans Algorithmus für Aufnahmen bei sichtbarem Licht und der Average Coordinate Algorithmus von Daunys und Ramanauskas, Mängel in Zusammenhang mit dem gegebenen System aufweisen, so dass diese momentan nicht für die Mittelpunktssuche im Gazetracker geeignet sind. Die restlichen Algorithmen zeigten im grafischen Vergleich ähnlich gute Ergebnisse und wurden im Test verglichen, wobei der Algorithmus von Perez, Garcia, Mendez, Munoz, Pedraza und Sanches und der Algorithmus von Poursaberi und Araabi die besten Ergebnisse aufwiesen in Bezug auf Dichte der Punkte, Fehlerpunkte und Outlier.
Das Forschungsprojekt Bildanalyse zur Ornamentklassifikation hat es sich zur Aufgabe gemacht, ornamentale Strukturen in Bildern computergestützt zu lokalisieren, analysieren und klassifizieren. Grundlage des Projekts bildet eine umfangreiche Bilddatenbank, deren Abbildungen manuell vorsortiert sind. Durch Kombinationen mit Methoden der Bildverabeitung und der Verwendung von Wissensdatenbanken (Knowledge Databases) soll diese Kategorisierung weiter verfeinert werden. Sämtliche Bilder durchlaufen bis zum Prozess der Ornamentklassifikation mehrere Vorverarbeitungsschritte. Beginnend mit einem Normalisierungsprozess, bei dem das Bild u. a. entzerrt und entrauscht wird, werden im Anschluss Interessensregionen selektiert. Diese Regionen bilden die Grundlage für das spätere Lokalisieren der Ornamente. Aus ihnen werden mit unterschiedlichen Verfahren Merkmale extrahiert, die wiederum in der Datenbank gespeichert werden. In dieser Arbeit wurde ein weiteres solches Verfahren implementiert und auf seine mögliche Verwendung in dem Projekt untersucht.
Für die Netzwerkprogrammierung hat sich auf breiter Front das Socket API nach Vorbild der Berkley Sockets durchgesetzt. Die "normalen" Sockets in Form von Stream- oder Datagram-Sockets erleichtern zwar die Programmierarbeit, verschleiern jedoch auch zahlreiche Details der Netzwerkkommunikation vor dem Programmierer. So ist man beispielsweise auf die Nutzung der Protokolle TCP oder UDP eingeschränkt und agiert zwangsläufig bereits auf dem Application-Layer des TCP/IP Referenzmodells. Für den Zugriff auf tiefer gelegene Netzwerkschichten, d.h. für den Zugriff auf die Headerdaten eines Netzwerkpaketes, hält das Socket API die sogenannten RAW Sockets bereit. Mit ihnen ist es möglich, alle IP Pakete inklusive Headerdaten zu lesen oder von Grund auf neu zu generieren. Hiermit ist es nun auch möglich, Protokolle zu verwenden, die dem Anwendungsprogrammierer bislang nicht zugänglich waren (z.B. ICMP oder OSPF) oder sogar eigene IP basierte Protokolle zu entwickeln. RAW Sockets stoßen an ihre Grenzen, wenn es darum geht auf den Data-Link-Layer der Netzwerkkommunikation zuzugreifen. Unter Linux gibt es hierfür einen weiteren Socket-Typ: Den PACKET Socket. Die Studienarbeit möchte einen Einstieg in die Programmierung mit den eher unbekannten RAW und PACKET Sockets schaffen. Dabei werden einige Beispielprogramme vorgestellt und mögliche Anwendungsgebiete aufgezeigt.
Bei der subjektiven Interpretation von Mammographien werden Studien zufolge 10% bis 30% von Brustkrebserkrankungen im Frühstadium nicht erkannt. Eine weitere Fehlrate beziffert die fälschlich als möglichen Brustkrebs eingestuften Herde; diese Fehlrate wird mit 35% angegeben. Ein solche Fehleinschätzung hat für die Patientin weitreichende negative Folgen. Sie wird einer unnötigen psychischen und körperlichen Belastung ausgesetzt. Um solche Fehleinschätzungen zu minimieren, wird zunehmend die Computer-aided Detection/Diagnosis (CAD) eingesetzt. Das Ziel dieser Arbeit ist die Evaluation von Methoden multivariater Datenanalyse, eingesetzt zur Diagnose von Herdbefunden. Die aus der Gesichtserkennung bekannten Methoden Eigenfaces und Fisherfaces werden auf Mammographieaufnahmen angewendet, um eine Einordnung von Herdbefunden nach benign oder malign zu tätigen. Eine weitere implementierte Methode wird als Eigenfeature Regularization and Extraction bezeichnet. Nach einer Einführung zum medizinischen Hintergrund und zum aktuellen Stand der computer-assistierten Detektion/Diagnose werden die verwendete Bilddatenbank vorgestellt, Normierungsschritte aufgeführt und die implementierten Methoden beschrieben. Die Methoden werden der ROC-Analyse unterzogen. Die Flächen unterhalb der ROC-Kurven dienen als Maß für die Aussagekraft der Methoden. Die erzielten Ergebnisse zeigen, dass alle implementierten Methoden eine schwache Aussagekraft haben. Dabei wurden die Erwartungen an die Fisherface- und ERE-Methode nicht erfüllt. Die Eigenface-Methode hat, angewendet auf Herdbefunde in Mammogrammen, die höchsten AUC-Werte erreicht. Die Berücksichtigung der Grauwertnormierung in der Auswertung zeigt, dass die qualitativen Unterschiede der Mammogramme nicht ausschlaggebend für die Ergebnisse sind.
In dieser Studienarbeit wurde ein Algorithmus vorgestellt, um sich mit einem Roboter in unbekanntem Gebiet zu lokalisieren und gleichzeitig eine Karte von der Umgebung zu erstellen. Die Lokalisation des Roboters geschieht auf 2D Ebene und errechnet die (x, y, θ)T Position des Roboters zu jedem Zeitpunt t inkrementell. Der Algorithmus baut auf dem FastSLAM 2.0 Algorithmus auf und wurde abgeändert, um eine möglichst genaue Lokalisation in Gebäuden zu ermöglichen. Hierfür wurden mehrere verschieden Arten von möglichen Landmarken untersucht, verglichen und kombiniert. Schwerpunkt dieser Studienarbeit war das Einarbeiten in das Extended Kalman-Filter und die Selektion von Landmarken, die für den Einsatz in Gebäuden geeignet sind.
In Idar-Oberstein gab es ab der zweiten Hälfte des 19. Jahrhunderts eine bedeutende Produktion von Modeschmuck in zahlreichen großen Fabriken, die sich bis in die 1980er Jahre halten konnte. Neben Pforzheim, Schwäbisch Gmünd und Hanau war Idar-Oberstein eines der vier wichtigsten deutschen Schmuckzentren. Heute sind nur noch vierzehn Firmennachlässe erhalten, dazu kommen die Bestände des Museums unterhalb der Felsenkirche. In dem erhaltenen Schmuck spiegeln sich die jeweils aktuellen Kunstrichtungen vom Historismus über Jugendstil, Art déco bis hin zu Informel und Zero in den 1960er und 70er Jahren. Außerdem haben sich auch viele alte Dokumente erhalten, die zusammengenommen ein Bild des damaligen Wirkens und Werkens der Schmuckfabriken liefern. Im Zentrum dieser Arbeit steht deshalb die wissenschaftliche Aufarbeitung dieser 15 Bestände. Jedoch wurde schnell klar, dass diese nicht einfach so für sich allein stehen können. Zunächst fehlte ein geistiger Überbau, um das Phänomen Modeschmuck wirklich verstehen und einordnen zu können. Daher steht am Anfang der Arbeit die Grundlegung einer bisher noch nicht vorhandenen Schmucktheorie mit schmuckästhetischen Überlegungen, die kunsthistorische, soziologische, psychologische und philosophische Standpunkte mit einbeziehen. Aber nicht nur ein geistiger Überbau, sondern auch ein materieller Unterbau waren nötig, um das Phänomen umfassend zu klären: In der bildenden Kunst käme niemand auf die Idee, ein Kunstwerk zu beurteilen, ohne seine Entstehungstechnik zu kennen. Ob etwas eine Ätzradierung oder ein Ölgemälde ist, macht doch einen enormen Unterschied. Beim Schmuck wurden derartige Überlegungen bisher weitgehend ignoriert, obwohl sein äußeres Erscheinungsbild genauso stark von den Techniken, die bei seiner Fertigung zum Einsatz kommen, geprägt ist. So haben wir es beim Idar-Obersteiner Modeschmuck nicht nur mit einer Entwicklung des Geschmacks, sondern auch mit einer technologischen Entwicklung zu tun, die jeweils neue bzw. andere Formen ermöglichte. Darauf folgt ein industriegeschichtlicher Überblick über die Idar-Obersteiner Schmuck- und Metallwarenproduktion, in dem gezeigt wird, warum gerade Idar-Oberstein sich neben Pforzheim, Hanau und Schwäbisch Gmünd zu einem der vier wichtigsten deutschen Schmuckzentren entwickeln konnte. Von zentraler Bedeutung ist der nun folgende Abschnitt über die kunsthistorische Entwicklung des Idar-Obersteiner Modeschmucks. Besonders gewürdigt wird dort die Nähe der Entwürfe zur zeitgenössischen bildenden Kunst und der innovative Umgang mit einfachen Materialien, der schon früh zu Schmuckformen führte, die unabhängig vom Echtschmuck waren. Es folgt die wissenschaftliche Aufarbeitung der vierzehn erhaltenen Firmennachlässe. Im Katalog werden schließlich repräsentative Ausschnitte aus dem erhaltenen Schmuckbestand der einzelnen Firmen und Höhepunkte der Bestände des Museums Idar-Oberstein unterhalb der Felsenkirche gezeigt, darunter bisher unbekannte Arbeiten aus dem Magazin. Meine Arbeit soll einerseits das, was sich in Idar-Oberstein erhalten hat, dokumentieren, andererseits aber auch ganz allgemein neue Impulse zum wissenschaftlichen Umgang mit dem Thema Schmuck geben und zeigen, wie wichtig es ist, sowohl schmucktheoretische Aspekte als auch die historischen Verfahrenstechniken in die Analyse mit einzubeziehen.
IPv6 Autokonfiguration
(2008)
Diese Studienarbeit stellt verschiedene Möglichkeiten der automatischen Konfiguration von Netzwerkknoten unter IPv6, dem designierten Nachfolger des Internetprotokolls, vor. Dabei wird recht ausführlich in IPv6-Netzwerke eingeführt, wobei aber vorausgesetzt wird, dass der Leser Kenntnisse über das IP-Protokoll der Version 4 hat. Es werden sowohl die zustandslose als auch DHCPv6 ausführlich in der Theorie als auch im praktischen Einsatz gezeigt. Dafür wird das VNUML-System eingesetzt, das an der Technischen Universität Madrid entwickelt wurde und das es ermöglicht, mehrere Linuxsysteme auf einem Wirtsrechner zu simulieren.
Die Erstellung räumlicher Abbilder aus planaren Ansichten gewinnt immer mehr Bedeutung in der modernen Medizintechnik. 3D-Rekonstruktionen haben wesentlich zur besseren Detektion,wie auch zu Optimierung und Innovation in der Diagnostik und Behandlungsmethodik bestimmter Krankheitsbilder beigetragen. Durch die Verfahren der Bildverarbeitung ist es möglich, aus Bildsequenzen eine 3D-Abbildung der gefilmten Szene zu erstellen. Ziel dieser Diplomarbeit soll es sein, zu untersuchen, inwieweit sich aus der Aufnahmetechnik aus einer Reihe unkalibrierter Endoskopiebilder weitere Rückschlüsse über die Oberflächenbeschaffenheit des betrachteten Gewebes ziehen lassen. Hierbei wird das Phänomen zugrundegelegt, daß bei der Aufnahme der Bilder Glanzlichter auftreten, wenn die Beleuchtung am Kamerakopf orthogonal zur Gewebeoberfläche auftrifft. Diese Glanzlichter geben daher implizit Aufschluss über die Oberflächenorientierung des Gewebes. Aufgabe ist es nun, diese Glanzlichter in einer Reihe von unkalibrierten Endoskopieaufnahmen zu finden, die Bilder aus der Sequenz einander zuzuordnen, also Korrespondenzen zwischen den Bildern zu finden, und unter Einbeziehung der Kamerageometrie Rückschlüsse auf die Gewebeoberfläche zu ziehen. Zuerst müssen hierfür die Glanzlichter in den Einzelbildern der Sequenz gefunden werden. Dazu wird ein Verfahren verwendet, welches die Glanzlichter durch eine Zerlegung des HSV-Farbraums detektiert und deren Mittelpunkt errechnet. Um die Kamerageometrie zu schätzen, werden mihilfe eines Punktverfolgers Punktkorrespondenzen zwischen den Einzelbildern erstellt, anhand derer sich die Fundamentalmatrix durch RANSAC errechnen läßt. Unter Anwendung eines Autokalibrierungsverfahrens werden aus den geschätzten Fundamentalmatrizen dann in einem abschließenden Schritt die internen Kameraparameter ermittelt. So sollte möglich sein, die Glanzlichter durch eine Sequenz von Bildern zu verfolgen und die Oberflächennormalen einem Referenzbild zuzuordnen.
Markerloses Tracking unter Verwendung von Analyse durch Synthese auf Basis von Featuredetektoren
(2008)
In der vorliegenden Diplomarbeit wurde ein auf "Analyse durch Synthese" sowie Featuredetektoren basierendes Trackingsystem implementiert, beschrieben und getestet. Das Ziel war die Untersuchung im Hinblick auf den Mehrwert der Computergraphik in einem markerlosen Trackingablauf, indem der Ansatz der "Analyse durch Synthese" zur Poseschätzung eingesetzt wird.