Filtern
Erscheinungsjahr
- 2008 (70) (entfernen)
Dokumenttyp
- Studienarbeit (24)
- Diplomarbeit (21)
- Dissertation (10)
- Ausgabe (Heft) zu einer Zeitschrift (8)
- Bachelorarbeit (5)
- Masterarbeit (2)
Sprache
- Deutsch (70) (entfernen)
Schlagworte
- Bildverarbeitung (3)
- Computerspiel (3)
- Analyse durch Synthese (2)
- Business Intelligence (2)
- Computergrafik (2)
- E-IMS (2)
- Electronic Government (2)
- Evaluation (2)
- Informatik (2)
- Informationssystem (2)
Institut
- Institut für Computervisualistik (22)
- Institut für Wirtschafts- und Verwaltungsinformatik (18)
- Fachbereich 4 (14)
- Institut für Informatik (7)
- Institut für Softwaretechnik (5)
- Fachbereich 8 (2)
- Institut für Management (2)
- Institut für naturwissenschaftliche Bildung (2)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (1)
- Arbeitsbereich Diagnostik, Differentielle und Persönlichkeitspsychologie, Methodik und Evaluation (1)
Im Rahmen dieser Studienarbeit wurden acht verschiedene Algorithmen unterschiedlichen Umfangs und Komplexität zur Pupillenmittelpunktssuche implementiert und im Vergleich mit dem Originalalgorithmus ausgewertet. Die Berechnung des Hornhautreflektionsmittelpunkts wurde modifiziert, so dass die Helligkeitswerte der Hornhautreflektion bei der Berechnung des Schwerpunkts gewichtet werden. Bei der Auswertung wurde festgestellt, dass drei der acht Algorithmen, der Starburst-Algorithmus für hochauflösende Bilder, Daugmans Algorithmus für Aufnahmen bei sichtbarem Licht und der Average Coordinate Algorithmus von Daunys und Ramanauskas, Mängel in Zusammenhang mit dem gegebenen System aufweisen, so dass diese momentan nicht für die Mittelpunktssuche im Gazetracker geeignet sind. Die restlichen Algorithmen zeigten im grafischen Vergleich ähnlich gute Ergebnisse und wurden im Test verglichen, wobei der Algorithmus von Perez, Garcia, Mendez, Munoz, Pedraza und Sanches und der Algorithmus von Poursaberi und Araabi die besten Ergebnisse aufwiesen in Bezug auf Dichte der Punkte, Fehlerpunkte und Outlier.
Das Forschungsprojekt Bildanalyse zur Ornamentklassifikation hat es sich zur Aufgabe gemacht, ornamentale Strukturen in Bildern computergestützt zu lokalisieren, analysieren und klassifizieren. Grundlage des Projekts bildet eine umfangreiche Bilddatenbank, deren Abbildungen manuell vorsortiert sind. Durch Kombinationen mit Methoden der Bildverabeitung und der Verwendung von Wissensdatenbanken (Knowledge Databases) soll diese Kategorisierung weiter verfeinert werden. Sämtliche Bilder durchlaufen bis zum Prozess der Ornamentklassifikation mehrere Vorverarbeitungsschritte. Beginnend mit einem Normalisierungsprozess, bei dem das Bild u. a. entzerrt und entrauscht wird, werden im Anschluss Interessensregionen selektiert. Diese Regionen bilden die Grundlage für das spätere Lokalisieren der Ornamente. Aus ihnen werden mit unterschiedlichen Verfahren Merkmale extrahiert, die wiederum in der Datenbank gespeichert werden. In dieser Arbeit wurde ein weiteres solches Verfahren implementiert und auf seine mögliche Verwendung in dem Projekt untersucht.
Für die Netzwerkprogrammierung hat sich auf breiter Front das Socket API nach Vorbild der Berkley Sockets durchgesetzt. Die "normalen" Sockets in Form von Stream- oder Datagram-Sockets erleichtern zwar die Programmierarbeit, verschleiern jedoch auch zahlreiche Details der Netzwerkkommunikation vor dem Programmierer. So ist man beispielsweise auf die Nutzung der Protokolle TCP oder UDP eingeschränkt und agiert zwangsläufig bereits auf dem Application-Layer des TCP/IP Referenzmodells. Für den Zugriff auf tiefer gelegene Netzwerkschichten, d.h. für den Zugriff auf die Headerdaten eines Netzwerkpaketes, hält das Socket API die sogenannten RAW Sockets bereit. Mit ihnen ist es möglich, alle IP Pakete inklusive Headerdaten zu lesen oder von Grund auf neu zu generieren. Hiermit ist es nun auch möglich, Protokolle zu verwenden, die dem Anwendungsprogrammierer bislang nicht zugänglich waren (z.B. ICMP oder OSPF) oder sogar eigene IP basierte Protokolle zu entwickeln. RAW Sockets stoßen an ihre Grenzen, wenn es darum geht auf den Data-Link-Layer der Netzwerkkommunikation zuzugreifen. Unter Linux gibt es hierfür einen weiteren Socket-Typ: Den PACKET Socket. Die Studienarbeit möchte einen Einstieg in die Programmierung mit den eher unbekannten RAW und PACKET Sockets schaffen. Dabei werden einige Beispielprogramme vorgestellt und mögliche Anwendungsgebiete aufgezeigt.
Bei der subjektiven Interpretation von Mammographien werden Studien zufolge 10% bis 30% von Brustkrebserkrankungen im Frühstadium nicht erkannt. Eine weitere Fehlrate beziffert die fälschlich als möglichen Brustkrebs eingestuften Herde; diese Fehlrate wird mit 35% angegeben. Ein solche Fehleinschätzung hat für die Patientin weitreichende negative Folgen. Sie wird einer unnötigen psychischen und körperlichen Belastung ausgesetzt. Um solche Fehleinschätzungen zu minimieren, wird zunehmend die Computer-aided Detection/Diagnosis (CAD) eingesetzt. Das Ziel dieser Arbeit ist die Evaluation von Methoden multivariater Datenanalyse, eingesetzt zur Diagnose von Herdbefunden. Die aus der Gesichtserkennung bekannten Methoden Eigenfaces und Fisherfaces werden auf Mammographieaufnahmen angewendet, um eine Einordnung von Herdbefunden nach benign oder malign zu tätigen. Eine weitere implementierte Methode wird als Eigenfeature Regularization and Extraction bezeichnet. Nach einer Einführung zum medizinischen Hintergrund und zum aktuellen Stand der computer-assistierten Detektion/Diagnose werden die verwendete Bilddatenbank vorgestellt, Normierungsschritte aufgeführt und die implementierten Methoden beschrieben. Die Methoden werden der ROC-Analyse unterzogen. Die Flächen unterhalb der ROC-Kurven dienen als Maß für die Aussagekraft der Methoden. Die erzielten Ergebnisse zeigen, dass alle implementierten Methoden eine schwache Aussagekraft haben. Dabei wurden die Erwartungen an die Fisherface- und ERE-Methode nicht erfüllt. Die Eigenface-Methode hat, angewendet auf Herdbefunde in Mammogrammen, die höchsten AUC-Werte erreicht. Die Berücksichtigung der Grauwertnormierung in der Auswertung zeigt, dass die qualitativen Unterschiede der Mammogramme nicht ausschlaggebend für die Ergebnisse sind.
In dieser Studienarbeit wurde ein Algorithmus vorgestellt, um sich mit einem Roboter in unbekanntem Gebiet zu lokalisieren und gleichzeitig eine Karte von der Umgebung zu erstellen. Die Lokalisation des Roboters geschieht auf 2D Ebene und errechnet die (x, y, θ)T Position des Roboters zu jedem Zeitpunt t inkrementell. Der Algorithmus baut auf dem FastSLAM 2.0 Algorithmus auf und wurde abgeändert, um eine möglichst genaue Lokalisation in Gebäuden zu ermöglichen. Hierfür wurden mehrere verschieden Arten von möglichen Landmarken untersucht, verglichen und kombiniert. Schwerpunkt dieser Studienarbeit war das Einarbeiten in das Extended Kalman-Filter und die Selektion von Landmarken, die für den Einsatz in Gebäuden geeignet sind.
In Idar-Oberstein gab es ab der zweiten Hälfte des 19. Jahrhunderts eine bedeutende Produktion von Modeschmuck in zahlreichen großen Fabriken, die sich bis in die 1980er Jahre halten konnte. Neben Pforzheim, Schwäbisch Gmünd und Hanau war Idar-Oberstein eines der vier wichtigsten deutschen Schmuckzentren. Heute sind nur noch vierzehn Firmennachlässe erhalten, dazu kommen die Bestände des Museums unterhalb der Felsenkirche. In dem erhaltenen Schmuck spiegeln sich die jeweils aktuellen Kunstrichtungen vom Historismus über Jugendstil, Art déco bis hin zu Informel und Zero in den 1960er und 70er Jahren. Außerdem haben sich auch viele alte Dokumente erhalten, die zusammengenommen ein Bild des damaligen Wirkens und Werkens der Schmuckfabriken liefern. Im Zentrum dieser Arbeit steht deshalb die wissenschaftliche Aufarbeitung dieser 15 Bestände. Jedoch wurde schnell klar, dass diese nicht einfach so für sich allein stehen können. Zunächst fehlte ein geistiger Überbau, um das Phänomen Modeschmuck wirklich verstehen und einordnen zu können. Daher steht am Anfang der Arbeit die Grundlegung einer bisher noch nicht vorhandenen Schmucktheorie mit schmuckästhetischen Überlegungen, die kunsthistorische, soziologische, psychologische und philosophische Standpunkte mit einbeziehen. Aber nicht nur ein geistiger Überbau, sondern auch ein materieller Unterbau waren nötig, um das Phänomen umfassend zu klären: In der bildenden Kunst käme niemand auf die Idee, ein Kunstwerk zu beurteilen, ohne seine Entstehungstechnik zu kennen. Ob etwas eine Ätzradierung oder ein Ölgemälde ist, macht doch einen enormen Unterschied. Beim Schmuck wurden derartige Überlegungen bisher weitgehend ignoriert, obwohl sein äußeres Erscheinungsbild genauso stark von den Techniken, die bei seiner Fertigung zum Einsatz kommen, geprägt ist. So haben wir es beim Idar-Obersteiner Modeschmuck nicht nur mit einer Entwicklung des Geschmacks, sondern auch mit einer technologischen Entwicklung zu tun, die jeweils neue bzw. andere Formen ermöglichte. Darauf folgt ein industriegeschichtlicher Überblick über die Idar-Obersteiner Schmuck- und Metallwarenproduktion, in dem gezeigt wird, warum gerade Idar-Oberstein sich neben Pforzheim, Hanau und Schwäbisch Gmünd zu einem der vier wichtigsten deutschen Schmuckzentren entwickeln konnte. Von zentraler Bedeutung ist der nun folgende Abschnitt über die kunsthistorische Entwicklung des Idar-Obersteiner Modeschmucks. Besonders gewürdigt wird dort die Nähe der Entwürfe zur zeitgenössischen bildenden Kunst und der innovative Umgang mit einfachen Materialien, der schon früh zu Schmuckformen führte, die unabhängig vom Echtschmuck waren. Es folgt die wissenschaftliche Aufarbeitung der vierzehn erhaltenen Firmennachlässe. Im Katalog werden schließlich repräsentative Ausschnitte aus dem erhaltenen Schmuckbestand der einzelnen Firmen und Höhepunkte der Bestände des Museums Idar-Oberstein unterhalb der Felsenkirche gezeigt, darunter bisher unbekannte Arbeiten aus dem Magazin. Meine Arbeit soll einerseits das, was sich in Idar-Oberstein erhalten hat, dokumentieren, andererseits aber auch ganz allgemein neue Impulse zum wissenschaftlichen Umgang mit dem Thema Schmuck geben und zeigen, wie wichtig es ist, sowohl schmucktheoretische Aspekte als auch die historischen Verfahrenstechniken in die Analyse mit einzubeziehen.
IPv6 Autokonfiguration
(2008)
Diese Studienarbeit stellt verschiedene Möglichkeiten der automatischen Konfiguration von Netzwerkknoten unter IPv6, dem designierten Nachfolger des Internetprotokolls, vor. Dabei wird recht ausführlich in IPv6-Netzwerke eingeführt, wobei aber vorausgesetzt wird, dass der Leser Kenntnisse über das IP-Protokoll der Version 4 hat. Es werden sowohl die zustandslose als auch DHCPv6 ausführlich in der Theorie als auch im praktischen Einsatz gezeigt. Dafür wird das VNUML-System eingesetzt, das an der Technischen Universität Madrid entwickelt wurde und das es ermöglicht, mehrere Linuxsysteme auf einem Wirtsrechner zu simulieren.
Die Erstellung räumlicher Abbilder aus planaren Ansichten gewinnt immer mehr Bedeutung in der modernen Medizintechnik. 3D-Rekonstruktionen haben wesentlich zur besseren Detektion,wie auch zu Optimierung und Innovation in der Diagnostik und Behandlungsmethodik bestimmter Krankheitsbilder beigetragen. Durch die Verfahren der Bildverarbeitung ist es möglich, aus Bildsequenzen eine 3D-Abbildung der gefilmten Szene zu erstellen. Ziel dieser Diplomarbeit soll es sein, zu untersuchen, inwieweit sich aus der Aufnahmetechnik aus einer Reihe unkalibrierter Endoskopiebilder weitere Rückschlüsse über die Oberflächenbeschaffenheit des betrachteten Gewebes ziehen lassen. Hierbei wird das Phänomen zugrundegelegt, daß bei der Aufnahme der Bilder Glanzlichter auftreten, wenn die Beleuchtung am Kamerakopf orthogonal zur Gewebeoberfläche auftrifft. Diese Glanzlichter geben daher implizit Aufschluss über die Oberflächenorientierung des Gewebes. Aufgabe ist es nun, diese Glanzlichter in einer Reihe von unkalibrierten Endoskopieaufnahmen zu finden, die Bilder aus der Sequenz einander zuzuordnen, also Korrespondenzen zwischen den Bildern zu finden, und unter Einbeziehung der Kamerageometrie Rückschlüsse auf die Gewebeoberfläche zu ziehen. Zuerst müssen hierfür die Glanzlichter in den Einzelbildern der Sequenz gefunden werden. Dazu wird ein Verfahren verwendet, welches die Glanzlichter durch eine Zerlegung des HSV-Farbraums detektiert und deren Mittelpunkt errechnet. Um die Kamerageometrie zu schätzen, werden mihilfe eines Punktverfolgers Punktkorrespondenzen zwischen den Einzelbildern erstellt, anhand derer sich die Fundamentalmatrix durch RANSAC errechnen läßt. Unter Anwendung eines Autokalibrierungsverfahrens werden aus den geschätzten Fundamentalmatrizen dann in einem abschließenden Schritt die internen Kameraparameter ermittelt. So sollte möglich sein, die Glanzlichter durch eine Sequenz von Bildern zu verfolgen und die Oberflächennormalen einem Referenzbild zuzuordnen.
Markerloses Tracking unter Verwendung von Analyse durch Synthese auf Basis von Featuredetektoren
(2008)
In der vorliegenden Diplomarbeit wurde ein auf "Analyse durch Synthese" sowie Featuredetektoren basierendes Trackingsystem implementiert, beschrieben und getestet. Das Ziel war die Untersuchung im Hinblick auf den Mehrwert der Computergraphik in einem markerlosen Trackingablauf, indem der Ansatz der "Analyse durch Synthese" zur Poseschätzung eingesetzt wird.
Betriebswirtschaftliche Trends wie der Wandel auf Käufermärkten, verkürzte Produktlebens- und Innovationszyklen, steigende Kundenanforderungen und immer leistungsfähiger werdende Informations- und Kommunikationstechnologien stellen für Unternehmen anspruchsvolle Herausforderungen dar. "Bis Anfang der 90er Jahre dominierten lokale Optimierungsbemühungen im Rahmen einer auf funktionale Spezialisierung ausgerichteten Aufbauorganisation entsprechend den Überlegungen zu Arbeitsteilung von beispielsweise Smith, Taylor und Ford. Aufgrund der vielfältigen Probleme dieses Ansatzes - insbesondere Schnittstellenbildung, demotivierte Mitarbeiter, mangelnde Kundenorientierung und erhöhter Aufwand zur Steuerung und Koordination der funktionalen Einheiten - vollzieht sich seit Beginn der 90er Jahre in den Wirtschaftswissenschaften und der unternehmerischen Praxis ein Paradigmenwechsel weg von der Funktions- hin zur Prozessorientierung." Die anspruchsvollen Probleme können aufgrund ihrer Kompliziertheit nicht mehr durch einfache, lokal anwendbare Maßnahmen gelöst werden. In Zeiten hoher Komplexität und Dynamik werden strategische Planungsaufgaben immer wichtiger für ein langfristig erfolgreiches Management. Entscheidungen mit großer Tragweite müssen im Vorfeld vollständig auf ihre kurz-und langfristigen Auswirkungen innerhalb und außerhalb des Unternehmens überprüft werden. Dabei sind die zeitverzögerten Rückkopplungen besonders wichtig. Es kann vorkommen, dass sich eine kurzfristig erfolgreiche Maßnahme zur Ergebnisverbesserung möglicherweise langfristig extrem negativ auf das Ergebnis auswirkt. System Dynamics, eine Methode zur Untersuchung komplexer, dynamischer Systeme, bietet die Möglichkeit, aus einer Analyse der Systemstruktur und des von ihr verursachten Verhaltens langfristig wirksame Entscheidungsregeln abzuleiten. Dabei werden Unternehmen als offene, äußerst vernetzte soziotechnische Systeme verstanden. System Dynamics, ursprünglich "Industrial Dynamics" genannt, wurde in den 50ern am MasMassachusetts Institute of Technology, MIT, entwickelt. Die Methode nimmt die Komplexität, Nichtlinearität und Rückkopplungsstrukturen, die sozialen und physikalischen Systemen enthalten, als Grundlage. Sie wird inzwischen an einer zunehmenden Zahl von Universitäten gelehrt. Unternehmen und Regierungen nutzen System Dynamics zur Simulation von Management- bzw. Politikentscheidungen. Mit der Hilfe der Methode wird es möglich, komplexe Systeme zu durchschauen, was für Entscheidungsträger eine zunehmende Herausforderung darstellt. Die "System Dynamics Society" ist bemüht, systematisches Denken einer breiten Masse von Anwendern zugänglich zu machen. Die Methode könnte die Menschen dabei unterstützen, die aktuellen Probleme und die langfristigen Auswirkungen des aktuellen Handelns zu verstehen. Die Intention dieser Arbeit ist es nun, zwei betriebswirtschaftliche Anwendungsgebiete der System Dynamics Modellierung mit jeweils einem konkreten Fallbeispiel vorzustellen. Dazu werden zunächst in Kapitel 2 die Grundlagen der Systemtheorie dargestellt. Dabei wird auf die Sichtweise von Forrester fokussiert. Darauf aufbauend wird in Kapitel 3 die die Methode detailliert vorgestellt. Nachdem die historische Entwicklung von System Dynamics aufgezeigt wird, werden die Anwendungsgebiete, die Grundlagen und die Grundsäulen der Modellierung und der Modellierungsprozess dargelegt. Im vierten Kapitel wird das erste Anwendungsgebiet untersucht, in der die System Dynamics Modellierung eingesetzt wird, die Balanced Scorecard, ein populäres Konzept für die Performancemessung in Unternehmen. Nachdem das Konzept vorgestellt wird, werden dessen Grenzen aufgezeigt, die mit der Verknüpfung des System Dynamics Ansatz überwunden werden können. Daraufhin werden die Möglichkeiten der System Dynamics Modellierung erläutert, womit die Schwächen der Balanced Scorecard reduziert werden, bevor anhand eines konkreten Fallbeispiels die Verknüpfung des System Dynamics Modellierung mit dem Balanced Scorecard Konzept vorgestellt wird. Eine abschließende Bewertung über die Anwendung wird dieses Kapitel abschließen. Im nächsten Kapitel wird die Anwendung der System Dynmaics Modellierung im Supply Chain Management untersucht. Zunächst werden die Grundlagen über das Supply Chain Management und Probleme, die damit verbunden sind, erläutert. Anhand des "Beer Game" werden die typischen Koordinationsprobleme mehrstufiger Lieferketten, der Bullwhip Effekt, verdeutlicht. Im nächsten Schritt wird die Anwendung der System Dynamics Modellierung im Supply Chain Management diskutiert, bevor die Umsetzung in einem konkreten Fallbeispiel aufgezeigt wird. Dieses Kapitel schließt mit einer Bewertung über die Anwendung von System Dynamics im Supply Chain Management ab. Mit dem abschließenden Kapitel Fazit wird die Arbeit abgerundet.
Gibt es unterschiedliche Qualitäten für das Wohnumfeld von Bewohnern ländlicher Siedlungen in der südlichen Pfalz? Wie könnte man diese Unterschiede quantifizierbar machen? Dies sind die beiden zentralen Fragen dieser Arbeit. Die Raummerkmale sollen zunächst objektiv erfasst werden. In einem weiteren Schritt werden die subjektiven Einschätzungen der Bevölkerung ermittelt und schließlich mit der objektiven Aufnahme verglichen. Zu diesem Zweck wur¬den 12 Ortschaften im Bereich der südlichen Pfalz ausgewählt. Jeweils vier Siedlungen verteilen sich auf den Pfälzerwald (Wilgartswiesen, Bundenthal, Ludwigswinkel, Silz), auf die Weinstraße (Siebeldingen, Göcklingen, Oberotterbach, Pleisweiler-Oberhofen) und auf die Rheinebene (Kapsweyer, Winden, Hayna, Büchelberg). Ein klar umgrenzter geographischer Raum wurde um jede Siedlung im Hinblick auf natürliche Gunst-/Ungunstfaktoren (aus den Bereichen Geologie, Boden, Geomorphologie, Klima, Hydrologie und Vegetation) und kulturhistorische Gunst-/Ungunstfaktoren (aus den Bereichen Siedlung, Flur, Mensch) mit ausgewählten aussagekräftigen Parametern untersucht. Diese wurden zu Merkmalskomplexen zusammengeführt und die dabei gewonnenen Erkenntnisse mit einem Bewertungsraster verknüpft und den einzelnen Orten zugeordnet. Die menschlichen Einschätzungen der gegebenen und auch der gemachten Umwelt sollen in die Überlegungen mit einfließen, und deshalb sind Befragungen der Einwohner durchgeführt worden. So erhielt man Erkenntnisse sowohl über die objektiven Lebensraumbedingungen als auch über die subjektiven Lebensraumbewertungen des Untersuchungsraumes. Eine zentrale Rolle spielt hier also der Raum mit seinen Verflechtungen, Interaktionen und Systembeziehungen für das menschliche Leben darin. Zur Ermittlung der objektiven Merkmale der Siedlungen wurden die folgenden Parameter erfasst: Ortseingänge, Naturnähe, Vielfalt, Eigenart, Ästhetik, Klima, Raum, Lärm/Luft, Erdbeben und Ertrag. Orte mit hohem Waldanteil (v. a. Pfälzerwaldorte) wiesen bessere Bewertungen in den Kategorien Naturnähe, Vielfalt, Ästhetik und Klima auf. Orte mit höheren Reb- und Ackerfluranteilen schnitten bei der Eigenart und dem Ertrag besser ab. Deshalb wurden die Orte im Pfälzerwald insgesamt und durchschnittlich am besten bewertet, gefolgt von den Siedlungen der Rheinebene und der Weinstraße. Diese Ergebnisse wurden anschließend mit den Ergebnissen der Befragungen in den einzelnen Orten, welche selbst sehr unterschiedlich ausfielen, verglichen. Dabei musste festgestellt werden, dass die Bewertung der lebensräumlichen Gegebenheiten durch die Befragten in der Regel besser ausfiel als deren objektive Einstufung. Am zufriedensten sind und am besten bewertet haben die Bewohner der Pfälzerwaldorte, gefolgt von denen der Rheinebene und der Weinstraße. Diese somit feststellbare positive Korrelation lässt vermuten, dass zukünftiges Planen im Meinungsbild der Bevölkerung, die schließlich besonders davon betroffen ist, auch akzeptiert werden kann. Öffentlichkeitsarbeit und die Aufklärung der Bevölkerung in lebensraumrelevanten Angelegenheiten sollten dabei nicht vernachlässigt werden.
Das Einsatzgebiet des im Rahmen von insgesamt drei Studienarbeiten eingeführten "Spontaneous Guest Access (SpoGA) & Extended Invitation Management System (E-IMS)" ist im Firmenumfeld angesiedelt. Gästen einer Firma kann durch Nutzung des Systems ohne großen Aufwand ein Zugang zu einem gesicherten, drahtlosen Firmennetzwerk ermöglicht werden, über welches auch der Zugriff aufs Internet erfolgen kann. Das System soll auch die Planung und Durchführung von Veranstaltungen wie insbesondere Konferenzen erleichtern. SpoGA soll es einem Gastgeber ermöglichen, die Netzwerkgeräte befugter Gäste für einen vorgegebenen Zeitraum automatisiert freizuschalten. Somit kann für bestimmte Geräte komfortabel und ohne großen Aufwand ein temporärer Zugang geschaffen werden, ohne die Sicherheit des Netzes zu beeinflussen. E-IMS soll den Verwaltungsaufwand bei der Organisation und Durchführung von Veranstaltungen so weit wie möglich reduzieren. Durch die Anbindung an SpoGA wird außerdem eine automatisierte Freischaltung der Netzwerkzugänge der Konferenzteilnehmer möglich. Auch Aspekte der Teilnehmer- und Ressourcenverwaltung werden berücksichtigt: automatisierter Versand von Einladungen, selbstständige Buchung der von den Teilnehmern jeweils benötigten Geräte wie Beamer und Projektoren und Übersicht über die angefallenen bzw. laufenden Kosten der Veranstaltung. Gegenstand dieser Arbeit ist die Umsetzung des zweiten Teilbereichs des E-IMS, welcher die Realisierung der Veranstaltungsverwaltung sowie der Funktion zum Abrechnen in Anspruch genommener Ressourcen umfasst. Um Nutzern einen mobilen Zugriff auf die Veranstaltungsdaten zu ermöglichen, wurde die entsprechende Anwendung prototypisch für Mobiltelefone realisiert.
Gegenstand dieser Arbeit ist die Entwicklung eines Generators für Datenschutzpolicies. Diese werden in der P3P-Sprache formuliert. P3P steht für Platform for Privacy Preferences und ist ein Standard zum Schutz der Privatsphäre im Internet, der vom World Wide Web Consortium (W3C) entwickelt wurde. Er dient zum Austausch von Datenschutzinformationen. Die Datenschutzpraktiken einer Website können durch P3P in maschinenlesbarer Form durch sogenannte Policies beschrieben werden. So wird ein automatisierter Vergleich mit den entsprechenden Präferenzen auf Nutzerseite möglich. Der im Rahmen dieser Arbeit entwickelte Generator soll das Erstellen der Policies auf Anbieterseite erleichtern. Er entstand in Zusammenarbeit mit dem Landesbeauftragten für den Datenschutz Rheinland-Pfalz und geht auf die Bedürfnisse von Behörden ein, die P3P-Policies auf ihren Webseiten verwenden wollen.
Im Laufe der Zeit fallen in einem Unternehmen große Mengen von Daten und Informationen an. Die Daten stehen im Zusammenhang mit unternehmensinternen Vorgängen, mit dem Marktumfeld, in dem das Unternehmen positioniert ist, und auch mit den Wettbewerbern. Sie sind vielfältiger Art, normalerweise inhomogen und aus verteilten Datenquellen zu beziehen. Um in dieser Flut von Daten die Übersicht zu behalten, die Menge an Informationen effektiv für das Unternehmen nutzbar zu machen, vor allem auch nachhaltig für kommende Entscheidungsfindungen, müssen die Daten analysiert und integriert werden. Diese Optimierung der Entscheidungsfindung durch Zugang zu Informationen, deren Analyse und Auswertung wird häufig unter dem Begriff "Business Intelligence" zusammengefasst. Der Wert der vorhandenen Informationen hängt stark von dem erwähnten Zugang und einer ausdrucksstarken Repräsentation ab. RIA-Techniken ermöglichen eine einfache Verfügbarkeit der verarbeiteten Geschäftsdaten über Inter- und Intranet ohne große Anforderungen an ihre Nutzbarkeit zu stellen. Sie bieten zudem spezialisierte leistungsfähige und in großem Maße programmierbare Visualisierungstechniken. Die Diplomarbeit soll zwei Schwerpunkte habe. Zum Einen wird sie sich mit Arten der Informationsvisualisierung im Allgemeinen und deren Eignung für Geschäfsdaten beschäftigen. Der Fokus liegt hierbei auf Daten und Informationen in Management-Informationsberichten. Ziel ist eine Visualisierungsform, die es dem Nutzer ermöglicht, die zu kommunizierenden Informationen effizient auszuwerten. Zum anderen untersucht die Diplomarbeit die Vor- und Nachteile des Einsatzes von RIAs. Der Implementierungsteil umfasst eine RIA als "Proof of Concept", deren Hauptaugenmerk auf eine dynamische Interaktion und optimierte Informationsvisualisierung gerichtet sein soll. Die Diplomarbeit wird bei der Altran CIS in Koblenz durchgeführt.
In den folgenden neun Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptografischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, zeigen den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens.
In unserer heutigen Welt spielen soziale Netzwerke eine immer größere werdende Rolle. Im Internet entsteht fast täglich eine neue Anwendung in der Kategorie Web 2.0. Aufgrund dieser Tatsache wird es immer wichtiger die Abläufe in sozialen Netzwerken zu verstehen und diese für Forschungszwecke auch simulieren zu können. Da alle gängigen sozialen Netzwerke heute nur im eindimensionalen Bereich arbeiten, beschäftigt sich diese Diplomarbeit mit mehrdimensionalen sozialen Netzwerken. Mehrdimensionale soziale Netzwerke bieten die Möglichkeit verschiedene Beziehungsarten zu definieren. Beispielsweise können zwei Akteure nicht nur in einer "kennt"-Beziehung stehen, sondern diese Beziehungsart könnte auch in diverse Unterbeziehungsarten, wie z.B. Akteur A "ist Arbeitskollege von" Akteur B oder Akteur C "ist Ehepartner von" Akteur D, unterteilt werden. Auf diese Art und Weise können beliebig viele, völlig verschiedene Beziehungsarten nebeneinander existieren. Die Arbeit beschäftigt sich mit der Frage, in welchem Grad die Eigenschaften von eindimensionalen auch bei mehrdimensionalen sozialen Netzwerken gelten. Um das herauszufinden werden bereits bestehende Metriken weiterentwickelt. Diese Metriken wurden für eindimensionale soziale Netzwerke entwickelt und können nun auch für die Bewertung mehrdimensionaler sozialer Netzwerke benutzt werden. Eine zentrale Fragestellung ist hierbei wie gut sich Menschen finden, die sich etwas zu sagen haben. Um möglichst exakte Ergebnisse zu erhalten, ist es notwendig reale Daten zu verwenden. Diese werden aus einem Web 2.0-Projekt, in das Benutzer Links zu verschiedenen Themen einstellen, gewonnen (siehe Kapitel 4). Der erste praktische Schritte dieser Arbeit besteht daher darin, das soziale Netzwerk einzulesen und auf diesem Netzwerk eine Kommunikation, zwischen zwei Personen mit ähnlichen Themengebieten, zu simulieren. Die Ergebnisse der Simulation werden dann mit Hilfe der zuvor entwicklelten Metriken ausgewertet.
Analyse von Geschäftsprozessen einer NPO zur Ausarbeitung der Anforderungen an eine Fachanwendung
(2008)
Im Rahmen einer Systemanalyse werden die Prozesse eines Anbieters von Ferienfreizeiten untersucht und modelliert sowie Schwachstellen ausfindig gemacht. Anhand dieser Grundlage und einer Anforderungserhebung unter den beteiligten Stakeholdern wird ein Soll-Konzept erarbeitet, welches zu Verbesserungen der allgemeinen Organisation und des Informationsflusses führen soll. Abschließend wird eine Handlungsempfehlung für das weitere Vorgehen ausgesprochen.
Diese Arbeit behandelt einen Vergleich verschiedener Algorithmen zur Vorhersage der Bewegung einer Person bei der Ausführung einer sportlichen Aktivität. Als Grundlage für die Vorhersage dienen Bildströme, welche mittels zweier Hochgeschwindigkeitskameras aufgezeichnet wurden. Im Laufe der Arbeit werden Vor- und Nachteile der umgesetzten Ansätze theoretisch erläutert und anschliessend an einer Reihe von Messergebnissen nachgewiesen. Für die Messungen wurde eine Anwendung eingesetzt, welche ebenfalls im Rahmen der Arbeit entwickelt wurde. Neben realen Aufnahmen, wurden zusätzlich synthetische Bildfolgen betrachtet, um Erkenntnisse über das Verhalten der betrachteten Algorithmen unter optimalen Bedingungen zu erlangen.
Im Rahmen von Projekten haben die Mitarbeiter in einem Unternehmen oft komplexe Problemstellungen zu bearbeiten, für die es keine objektiv richtigen oder falschen Lösungen gibt. Stattdessen werden im Rahmen der Entwurfs- und Entscheidungsprozesse mehrere Lösungsvorschläge erarbeitet um dann unter Abwägung von Pro- und Contra-Argumenten eine möglichst optimale Lösung zu finden.