Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (469)
- Ausgabe (Heft) zu einer Zeitschrift (352)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (189)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (14)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
- Buch (Monographie) (5)
- Habilitation (5)
- (1)
- Vorlesung (1)
- Preprint (1)
Sprache
- Deutsch (1134)
- Englisch (533)
- Mehrsprachig (4)
- Spanisch (2)
- (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (174)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (143)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (56)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
In Idar-Oberstein gab es ab der zweiten Hälfte des 19. Jahrhunderts eine bedeutende Produktion von Modeschmuck in zahlreichen großen Fabriken, die sich bis in die 1980er Jahre halten konnte. Neben Pforzheim, Schwäbisch Gmünd und Hanau war Idar-Oberstein eines der vier wichtigsten deutschen Schmuckzentren. Heute sind nur noch vierzehn Firmennachlässe erhalten, dazu kommen die Bestände des Museums unterhalb der Felsenkirche. In dem erhaltenen Schmuck spiegeln sich die jeweils aktuellen Kunstrichtungen vom Historismus über Jugendstil, Art déco bis hin zu Informel und Zero in den 1960er und 70er Jahren. Außerdem haben sich auch viele alte Dokumente erhalten, die zusammengenommen ein Bild des damaligen Wirkens und Werkens der Schmuckfabriken liefern. Im Zentrum dieser Arbeit steht deshalb die wissenschaftliche Aufarbeitung dieser 15 Bestände. Jedoch wurde schnell klar, dass diese nicht einfach so für sich allein stehen können. Zunächst fehlte ein geistiger Überbau, um das Phänomen Modeschmuck wirklich verstehen und einordnen zu können. Daher steht am Anfang der Arbeit die Grundlegung einer bisher noch nicht vorhandenen Schmucktheorie mit schmuckästhetischen Überlegungen, die kunsthistorische, soziologische, psychologische und philosophische Standpunkte mit einbeziehen. Aber nicht nur ein geistiger Überbau, sondern auch ein materieller Unterbau waren nötig, um das Phänomen umfassend zu klären: In der bildenden Kunst käme niemand auf die Idee, ein Kunstwerk zu beurteilen, ohne seine Entstehungstechnik zu kennen. Ob etwas eine Ätzradierung oder ein Ölgemälde ist, macht doch einen enormen Unterschied. Beim Schmuck wurden derartige Überlegungen bisher weitgehend ignoriert, obwohl sein äußeres Erscheinungsbild genauso stark von den Techniken, die bei seiner Fertigung zum Einsatz kommen, geprägt ist. So haben wir es beim Idar-Obersteiner Modeschmuck nicht nur mit einer Entwicklung des Geschmacks, sondern auch mit einer technologischen Entwicklung zu tun, die jeweils neue bzw. andere Formen ermöglichte. Darauf folgt ein industriegeschichtlicher Überblick über die Idar-Obersteiner Schmuck- und Metallwarenproduktion, in dem gezeigt wird, warum gerade Idar-Oberstein sich neben Pforzheim, Hanau und Schwäbisch Gmünd zu einem der vier wichtigsten deutschen Schmuckzentren entwickeln konnte. Von zentraler Bedeutung ist der nun folgende Abschnitt über die kunsthistorische Entwicklung des Idar-Obersteiner Modeschmucks. Besonders gewürdigt wird dort die Nähe der Entwürfe zur zeitgenössischen bildenden Kunst und der innovative Umgang mit einfachen Materialien, der schon früh zu Schmuckformen führte, die unabhängig vom Echtschmuck waren. Es folgt die wissenschaftliche Aufarbeitung der vierzehn erhaltenen Firmennachlässe. Im Katalog werden schließlich repräsentative Ausschnitte aus dem erhaltenen Schmuckbestand der einzelnen Firmen und Höhepunkte der Bestände des Museums Idar-Oberstein unterhalb der Felsenkirche gezeigt, darunter bisher unbekannte Arbeiten aus dem Magazin. Meine Arbeit soll einerseits das, was sich in Idar-Oberstein erhalten hat, dokumentieren, andererseits aber auch ganz allgemein neue Impulse zum wissenschaftlichen Umgang mit dem Thema Schmuck geben und zeigen, wie wichtig es ist, sowohl schmucktheoretische Aspekte als auch die historischen Verfahrenstechniken in die Analyse mit einzubeziehen.
IPv6 Autokonfiguration
(2008)
Diese Studienarbeit stellt verschiedene Möglichkeiten der automatischen Konfiguration von Netzwerkknoten unter IPv6, dem designierten Nachfolger des Internetprotokolls, vor. Dabei wird recht ausführlich in IPv6-Netzwerke eingeführt, wobei aber vorausgesetzt wird, dass der Leser Kenntnisse über das IP-Protokoll der Version 4 hat. Es werden sowohl die zustandslose als auch DHCPv6 ausführlich in der Theorie als auch im praktischen Einsatz gezeigt. Dafür wird das VNUML-System eingesetzt, das an der Technischen Universität Madrid entwickelt wurde und das es ermöglicht, mehrere Linuxsysteme auf einem Wirtsrechner zu simulieren.
Die Erstellung räumlicher Abbilder aus planaren Ansichten gewinnt immer mehr Bedeutung in der modernen Medizintechnik. 3D-Rekonstruktionen haben wesentlich zur besseren Detektion,wie auch zu Optimierung und Innovation in der Diagnostik und Behandlungsmethodik bestimmter Krankheitsbilder beigetragen. Durch die Verfahren der Bildverarbeitung ist es möglich, aus Bildsequenzen eine 3D-Abbildung der gefilmten Szene zu erstellen. Ziel dieser Diplomarbeit soll es sein, zu untersuchen, inwieweit sich aus der Aufnahmetechnik aus einer Reihe unkalibrierter Endoskopiebilder weitere Rückschlüsse über die Oberflächenbeschaffenheit des betrachteten Gewebes ziehen lassen. Hierbei wird das Phänomen zugrundegelegt, daß bei der Aufnahme der Bilder Glanzlichter auftreten, wenn die Beleuchtung am Kamerakopf orthogonal zur Gewebeoberfläche auftrifft. Diese Glanzlichter geben daher implizit Aufschluss über die Oberflächenorientierung des Gewebes. Aufgabe ist es nun, diese Glanzlichter in einer Reihe von unkalibrierten Endoskopieaufnahmen zu finden, die Bilder aus der Sequenz einander zuzuordnen, also Korrespondenzen zwischen den Bildern zu finden, und unter Einbeziehung der Kamerageometrie Rückschlüsse auf die Gewebeoberfläche zu ziehen. Zuerst müssen hierfür die Glanzlichter in den Einzelbildern der Sequenz gefunden werden. Dazu wird ein Verfahren verwendet, welches die Glanzlichter durch eine Zerlegung des HSV-Farbraums detektiert und deren Mittelpunkt errechnet. Um die Kamerageometrie zu schätzen, werden mihilfe eines Punktverfolgers Punktkorrespondenzen zwischen den Einzelbildern erstellt, anhand derer sich die Fundamentalmatrix durch RANSAC errechnen läßt. Unter Anwendung eines Autokalibrierungsverfahrens werden aus den geschätzten Fundamentalmatrizen dann in einem abschließenden Schritt die internen Kameraparameter ermittelt. So sollte möglich sein, die Glanzlichter durch eine Sequenz von Bildern zu verfolgen und die Oberflächennormalen einem Referenzbild zuzuordnen.
Die automatische Detektion der Lage und Ausrichtung von Unterwasser-Kabeln oder -Pipelines in Kamerabildern ermöglicht es, Unterwasserfahrzeuge autonome Kontrollfahrten durchführen zu lassen. Durch Pflanzenwuchs auf und in der Nähe von Kabeln bzw. Pipelines wird deren visuelle Erfassung jedoch erschwert: Die Bestimmug der Lage über die Detektion von Kanten mit anschließender Linien-Extraktion schlägt oft fehl. Probabilistische Ansätze sind hier den deterministischen überlegen. Durch die Modellierung von Wahrscheinlichkeiten kann trotz geringer Anzahl von extrahierten Merkmalen eine Aussage über den Zustand des Systems getroffen werden. Diese Arbeit stellt ein neues auf Partikelfiltern basierendes Tracking-System für die Verfolgung von Kabeln und Pipelines in Bildsequenzen vor. Umfangreiche Experimente auf realistischen Unterwasser-Videos zeigen die Robustheit und Performanz des gewählten Ansatzes sowie Vorteile gegenüber vorangegangenen Arbeiten.
Markerloses Tracking unter Verwendung von Analyse durch Synthese auf Basis von Featuredetektoren
(2008)
In der vorliegenden Diplomarbeit wurde ein auf "Analyse durch Synthese" sowie Featuredetektoren basierendes Trackingsystem implementiert, beschrieben und getestet. Das Ziel war die Untersuchung im Hinblick auf den Mehrwert der Computergraphik in einem markerlosen Trackingablauf, indem der Ansatz der "Analyse durch Synthese" zur Poseschätzung eingesetzt wird.
Betriebswirtschaftliche Trends wie der Wandel auf Käufermärkten, verkürzte Produktlebens- und Innovationszyklen, steigende Kundenanforderungen und immer leistungsfähiger werdende Informations- und Kommunikationstechnologien stellen für Unternehmen anspruchsvolle Herausforderungen dar. "Bis Anfang der 90er Jahre dominierten lokale Optimierungsbemühungen im Rahmen einer auf funktionale Spezialisierung ausgerichteten Aufbauorganisation entsprechend den Überlegungen zu Arbeitsteilung von beispielsweise Smith, Taylor und Ford. Aufgrund der vielfältigen Probleme dieses Ansatzes - insbesondere Schnittstellenbildung, demotivierte Mitarbeiter, mangelnde Kundenorientierung und erhöhter Aufwand zur Steuerung und Koordination der funktionalen Einheiten - vollzieht sich seit Beginn der 90er Jahre in den Wirtschaftswissenschaften und der unternehmerischen Praxis ein Paradigmenwechsel weg von der Funktions- hin zur Prozessorientierung." Die anspruchsvollen Probleme können aufgrund ihrer Kompliziertheit nicht mehr durch einfache, lokal anwendbare Maßnahmen gelöst werden. In Zeiten hoher Komplexität und Dynamik werden strategische Planungsaufgaben immer wichtiger für ein langfristig erfolgreiches Management. Entscheidungen mit großer Tragweite müssen im Vorfeld vollständig auf ihre kurz-und langfristigen Auswirkungen innerhalb und außerhalb des Unternehmens überprüft werden. Dabei sind die zeitverzögerten Rückkopplungen besonders wichtig. Es kann vorkommen, dass sich eine kurzfristig erfolgreiche Maßnahme zur Ergebnisverbesserung möglicherweise langfristig extrem negativ auf das Ergebnis auswirkt. System Dynamics, eine Methode zur Untersuchung komplexer, dynamischer Systeme, bietet die Möglichkeit, aus einer Analyse der Systemstruktur und des von ihr verursachten Verhaltens langfristig wirksame Entscheidungsregeln abzuleiten. Dabei werden Unternehmen als offene, äußerst vernetzte soziotechnische Systeme verstanden. System Dynamics, ursprünglich "Industrial Dynamics" genannt, wurde in den 50ern am MasMassachusetts Institute of Technology, MIT, entwickelt. Die Methode nimmt die Komplexität, Nichtlinearität und Rückkopplungsstrukturen, die sozialen und physikalischen Systemen enthalten, als Grundlage. Sie wird inzwischen an einer zunehmenden Zahl von Universitäten gelehrt. Unternehmen und Regierungen nutzen System Dynamics zur Simulation von Management- bzw. Politikentscheidungen. Mit der Hilfe der Methode wird es möglich, komplexe Systeme zu durchschauen, was für Entscheidungsträger eine zunehmende Herausforderung darstellt. Die "System Dynamics Society" ist bemüht, systematisches Denken einer breiten Masse von Anwendern zugänglich zu machen. Die Methode könnte die Menschen dabei unterstützen, die aktuellen Probleme und die langfristigen Auswirkungen des aktuellen Handelns zu verstehen. Die Intention dieser Arbeit ist es nun, zwei betriebswirtschaftliche Anwendungsgebiete der System Dynamics Modellierung mit jeweils einem konkreten Fallbeispiel vorzustellen. Dazu werden zunächst in Kapitel 2 die Grundlagen der Systemtheorie dargestellt. Dabei wird auf die Sichtweise von Forrester fokussiert. Darauf aufbauend wird in Kapitel 3 die die Methode detailliert vorgestellt. Nachdem die historische Entwicklung von System Dynamics aufgezeigt wird, werden die Anwendungsgebiete, die Grundlagen und die Grundsäulen der Modellierung und der Modellierungsprozess dargelegt. Im vierten Kapitel wird das erste Anwendungsgebiet untersucht, in der die System Dynamics Modellierung eingesetzt wird, die Balanced Scorecard, ein populäres Konzept für die Performancemessung in Unternehmen. Nachdem das Konzept vorgestellt wird, werden dessen Grenzen aufgezeigt, die mit der Verknüpfung des System Dynamics Ansatz überwunden werden können. Daraufhin werden die Möglichkeiten der System Dynamics Modellierung erläutert, womit die Schwächen der Balanced Scorecard reduziert werden, bevor anhand eines konkreten Fallbeispiels die Verknüpfung des System Dynamics Modellierung mit dem Balanced Scorecard Konzept vorgestellt wird. Eine abschließende Bewertung über die Anwendung wird dieses Kapitel abschließen. Im nächsten Kapitel wird die Anwendung der System Dynmaics Modellierung im Supply Chain Management untersucht. Zunächst werden die Grundlagen über das Supply Chain Management und Probleme, die damit verbunden sind, erläutert. Anhand des "Beer Game" werden die typischen Koordinationsprobleme mehrstufiger Lieferketten, der Bullwhip Effekt, verdeutlicht. Im nächsten Schritt wird die Anwendung der System Dynamics Modellierung im Supply Chain Management diskutiert, bevor die Umsetzung in einem konkreten Fallbeispiel aufgezeigt wird. Dieses Kapitel schließt mit einer Bewertung über die Anwendung von System Dynamics im Supply Chain Management ab. Mit dem abschließenden Kapitel Fazit wird die Arbeit abgerundet.
Gibt es unterschiedliche Qualitäten für das Wohnumfeld von Bewohnern ländlicher Siedlungen in der südlichen Pfalz? Wie könnte man diese Unterschiede quantifizierbar machen? Dies sind die beiden zentralen Fragen dieser Arbeit. Die Raummerkmale sollen zunächst objektiv erfasst werden. In einem weiteren Schritt werden die subjektiven Einschätzungen der Bevölkerung ermittelt und schließlich mit der objektiven Aufnahme verglichen. Zu diesem Zweck wur¬den 12 Ortschaften im Bereich der südlichen Pfalz ausgewählt. Jeweils vier Siedlungen verteilen sich auf den Pfälzerwald (Wilgartswiesen, Bundenthal, Ludwigswinkel, Silz), auf die Weinstraße (Siebeldingen, Göcklingen, Oberotterbach, Pleisweiler-Oberhofen) und auf die Rheinebene (Kapsweyer, Winden, Hayna, Büchelberg). Ein klar umgrenzter geographischer Raum wurde um jede Siedlung im Hinblick auf natürliche Gunst-/Ungunstfaktoren (aus den Bereichen Geologie, Boden, Geomorphologie, Klima, Hydrologie und Vegetation) und kulturhistorische Gunst-/Ungunstfaktoren (aus den Bereichen Siedlung, Flur, Mensch) mit ausgewählten aussagekräftigen Parametern untersucht. Diese wurden zu Merkmalskomplexen zusammengeführt und die dabei gewonnenen Erkenntnisse mit einem Bewertungsraster verknüpft und den einzelnen Orten zugeordnet. Die menschlichen Einschätzungen der gegebenen und auch der gemachten Umwelt sollen in die Überlegungen mit einfließen, und deshalb sind Befragungen der Einwohner durchgeführt worden. So erhielt man Erkenntnisse sowohl über die objektiven Lebensraumbedingungen als auch über die subjektiven Lebensraumbewertungen des Untersuchungsraumes. Eine zentrale Rolle spielt hier also der Raum mit seinen Verflechtungen, Interaktionen und Systembeziehungen für das menschliche Leben darin. Zur Ermittlung der objektiven Merkmale der Siedlungen wurden die folgenden Parameter erfasst: Ortseingänge, Naturnähe, Vielfalt, Eigenart, Ästhetik, Klima, Raum, Lärm/Luft, Erdbeben und Ertrag. Orte mit hohem Waldanteil (v. a. Pfälzerwaldorte) wiesen bessere Bewertungen in den Kategorien Naturnähe, Vielfalt, Ästhetik und Klima auf. Orte mit höheren Reb- und Ackerfluranteilen schnitten bei der Eigenart und dem Ertrag besser ab. Deshalb wurden die Orte im Pfälzerwald insgesamt und durchschnittlich am besten bewertet, gefolgt von den Siedlungen der Rheinebene und der Weinstraße. Diese Ergebnisse wurden anschließend mit den Ergebnissen der Befragungen in den einzelnen Orten, welche selbst sehr unterschiedlich ausfielen, verglichen. Dabei musste festgestellt werden, dass die Bewertung der lebensräumlichen Gegebenheiten durch die Befragten in der Regel besser ausfiel als deren objektive Einstufung. Am zufriedensten sind und am besten bewertet haben die Bewohner der Pfälzerwaldorte, gefolgt von denen der Rheinebene und der Weinstraße. Diese somit feststellbare positive Korrelation lässt vermuten, dass zukünftiges Planen im Meinungsbild der Bevölkerung, die schließlich besonders davon betroffen ist, auch akzeptiert werden kann. Öffentlichkeitsarbeit und die Aufklärung der Bevölkerung in lebensraumrelevanten Angelegenheiten sollten dabei nicht vernachlässigt werden.
Das Einsatzgebiet des im Rahmen von insgesamt drei Studienarbeiten eingeführten "Spontaneous Guest Access (SpoGA) & Extended Invitation Management System (E-IMS)" ist im Firmenumfeld angesiedelt. Gästen einer Firma kann durch Nutzung des Systems ohne großen Aufwand ein Zugang zu einem gesicherten, drahtlosen Firmennetzwerk ermöglicht werden, über welches auch der Zugriff aufs Internet erfolgen kann. Das System soll auch die Planung und Durchführung von Veranstaltungen wie insbesondere Konferenzen erleichtern. SpoGA soll es einem Gastgeber ermöglichen, die Netzwerkgeräte befugter Gäste für einen vorgegebenen Zeitraum automatisiert freizuschalten. Somit kann für bestimmte Geräte komfortabel und ohne großen Aufwand ein temporärer Zugang geschaffen werden, ohne die Sicherheit des Netzes zu beeinflussen. E-IMS soll den Verwaltungsaufwand bei der Organisation und Durchführung von Veranstaltungen so weit wie möglich reduzieren. Durch die Anbindung an SpoGA wird außerdem eine automatisierte Freischaltung der Netzwerkzugänge der Konferenzteilnehmer möglich. Auch Aspekte der Teilnehmer- und Ressourcenverwaltung werden berücksichtigt: automatisierter Versand von Einladungen, selbstständige Buchung der von den Teilnehmern jeweils benötigten Geräte wie Beamer und Projektoren und Übersicht über die angefallenen bzw. laufenden Kosten der Veranstaltung. Gegenstand dieser Arbeit ist die Umsetzung des zweiten Teilbereichs des E-IMS, welcher die Realisierung der Veranstaltungsverwaltung sowie der Funktion zum Abrechnen in Anspruch genommener Ressourcen umfasst. Um Nutzern einen mobilen Zugriff auf die Veranstaltungsdaten zu ermöglichen, wurde die entsprechende Anwendung prototypisch für Mobiltelefone realisiert.
Gegenstand dieser Arbeit ist die Entwicklung eines Generators für Datenschutzpolicies. Diese werden in der P3P-Sprache formuliert. P3P steht für Platform for Privacy Preferences und ist ein Standard zum Schutz der Privatsphäre im Internet, der vom World Wide Web Consortium (W3C) entwickelt wurde. Er dient zum Austausch von Datenschutzinformationen. Die Datenschutzpraktiken einer Website können durch P3P in maschinenlesbarer Form durch sogenannte Policies beschrieben werden. So wird ein automatisierter Vergleich mit den entsprechenden Präferenzen auf Nutzerseite möglich. Der im Rahmen dieser Arbeit entwickelte Generator soll das Erstellen der Policies auf Anbieterseite erleichtern. Er entstand in Zusammenarbeit mit dem Landesbeauftragten für den Datenschutz Rheinland-Pfalz und geht auf die Bedürfnisse von Behörden ein, die P3P-Policies auf ihren Webseiten verwenden wollen.
Öffentliche elektronische Beschaffung (eProcurement), bzw. strategischer elektronischer Einkauf (eSourcing), sind mit hoher Wahrscheinlichkeit Thema sobald eGovernment Experten aufeinander treffen. So ist es nicht überraschend, dass eProcurement im aktuellen Aktionsplan der EU als "high-impact service" eingestuft wurde. Dies lässt sich zum Großteil durch den großen Einfluss vom öffentlichen Einkauf auf die Staatskasse erklären. So macht eProcurement in der Regel bis zu 20% des BIP aus und beherbergt somit ein enormes Einsparpotenzial. Dieses Potenzial liegt zum Teil im gemeinsamen Europäischen Wirtschaftsraum, da effizientes länderübergreifendes eSourcing neue Möglichkeiten für Einkäufer sowie Lieferanten eröffnen kann. Um diese Möglichkeiten ausschöpfen zu können, müssen Prozesse und Tools in der Lage sein, miteinander zu kommunizieren, sich aufeinander abzustimmen oder transferierbar sein. In einem Wort, sie müssen interoperabel sein. In vielen wichtigen Bereichen ist Interoperabilität sehr weit fortgeschritten, in anderen hingegen muss noch viel verändert werden. Daher ist es von wesentlicher Bedeutung Interoperabilitätsanforderungen zu definieren, sowie den aktuellen Forschungs- und Entwicklungsstand zu evaluieren.
Im Laufe der Zeit fallen in einem Unternehmen große Mengen von Daten und Informationen an. Die Daten stehen im Zusammenhang mit unternehmensinternen Vorgängen, mit dem Marktumfeld, in dem das Unternehmen positioniert ist, und auch mit den Wettbewerbern. Sie sind vielfältiger Art, normalerweise inhomogen und aus verteilten Datenquellen zu beziehen. Um in dieser Flut von Daten die Übersicht zu behalten, die Menge an Informationen effektiv für das Unternehmen nutzbar zu machen, vor allem auch nachhaltig für kommende Entscheidungsfindungen, müssen die Daten analysiert und integriert werden. Diese Optimierung der Entscheidungsfindung durch Zugang zu Informationen, deren Analyse und Auswertung wird häufig unter dem Begriff "Business Intelligence" zusammengefasst. Der Wert der vorhandenen Informationen hängt stark von dem erwähnten Zugang und einer ausdrucksstarken Repräsentation ab. RIA-Techniken ermöglichen eine einfache Verfügbarkeit der verarbeiteten Geschäftsdaten über Inter- und Intranet ohne große Anforderungen an ihre Nutzbarkeit zu stellen. Sie bieten zudem spezialisierte leistungsfähige und in großem Maße programmierbare Visualisierungstechniken. Die Diplomarbeit soll zwei Schwerpunkte habe. Zum Einen wird sie sich mit Arten der Informationsvisualisierung im Allgemeinen und deren Eignung für Geschäfsdaten beschäftigen. Der Fokus liegt hierbei auf Daten und Informationen in Management-Informationsberichten. Ziel ist eine Visualisierungsform, die es dem Nutzer ermöglicht, die zu kommunizierenden Informationen effizient auszuwerten. Zum anderen untersucht die Diplomarbeit die Vor- und Nachteile des Einsatzes von RIAs. Der Implementierungsteil umfasst eine RIA als "Proof of Concept", deren Hauptaugenmerk auf eine dynamische Interaktion und optimierte Informationsvisualisierung gerichtet sein soll. Die Diplomarbeit wird bei der Altran CIS in Koblenz durchgeführt.
Ziel der vorliegenden Arbeit ist die Erforschung von Einstellungen und prosozialem Verhalten zwischen Arbeitsgruppen aus Sicht der Theorie der sozialen Identität und der Kontakthypothese. Dem Rekategorisierungsmodell von Gaertner und Dovidio (2000) folgend wird angenommen, dass "optimale" Kontaktbedingungen (Allport, 1954) eine gemeinsame organisationale Identität anregen. Diese gemeinsame Identität sollte verschiedene Arbeitsgruppen dazu motivieren, zusammenzuarbeiten und freiwilliges Arbeitsverhalten zu zeigen anstelle von Voreingenommenheiten. Vorhersagen des Rekategorisierungsmodells werden zusätzlich durch Annahmen aus dem Eigengruppen-Projektionsmodell (Mummendey & Wenzel, 1999) und dem Selbstkategorisierungsmodell der Gruppennormen (Terry & Hogg, 1996) ergänzt. Die abgeleiteten Hypothesen werden an einer Stichprobe von N1 = 281 MitarbeiterInnen aus N2 = 49 Abteilungen und den entsprechenden AbteilungsleiterInnen eines deutschen Versandhandelsunternehmens überprüft (Studie 1). Die Ergebnisse zeigen, dass Kontaktbedingungen auf Gruppen- und Personenebene weniger Voreingenommenheit zwischen Arbeitsgruppen, sowie mehr prosoziales Verhalten (d. h. Kooperation und Hilfeverhalten) vorhersagen. Die Repräsentation als gemeinsame Gruppe vermittelt diesen Zusammenhang für die Variablen Bewertung der Fremdgruppe und Kooperation. Dagegen wird der Zusammenhang zwischen gemeinsamer organisationaler Identität und Voreingenommenheit durch die relative Prototypikalität der Abteilung moderiert, wie es das Eigengruppen-Projektionsmodell vorhersagt. Der Effekt einer prosozialen Gruppennorm auf Hilfeverhalten wird durch die Identifikation mit der Arbeitsgruppe moderiert. In einer Längsschnittstudie mit insgesamt N = 57 Mitgliedern studentischer Projektgruppen wird der Befund repliziert, dass Kontakt unter "optimalen" Bedingungen zu mehr prosozialem Verhalten und weniger Voreingenommenheit zwischen organisationalen Gruppen führt. Der Mediationseffekt durch eine gemeinsame Gruppenidentität zeigt sich jedoch in Studie 2 nicht. Die Ergebnisse der ersten Studie lassen vermuten, dass interpersonales Hilfeverhalten besser durch Prädiktoren auf der gleichen Kategorisierungsebene (d. h. Personenebene) vorhergesagt werden kann (vgl. Haslam, 2004). Daher wird die zusätzliche Annahme getroffen, dass Kontakt in einem Kontext, welcher persönliche Identitäten salient macht (d. h. zu Dekategorisierung führt), interpersonales Verhalten besser vorhersagen kann. Dagegen sollte Kontakt in einem Kontext, welcher Gruppenidentitäten salient macht (d. h. zu Kategorisierung führt), intergruppales Verhalten besser vorhersagen können (vgl. Tajfel, 1978). Zusätzliche Daten aus Studie 1 belegen diesen kontextspezifischen Effekt von Kontakt auf interpersonales bzw. intergruppales prosoziales Verhalten. Im letzten Schritt wird das längsschnittliche Kontaktmodell von Pettigrew (1998) untersucht, welches Kontakt in Kontexten, die zu Dekategorisierung, Kategorisierung bzw. Rekategorisierung führen, in einer zeitlichen Abfolge miteinander verbindet. Erste Befunde aus Studie 2 zeigen, dass eine Abfolge der Kategorisierungsprozesse beginnend bei Dekategorisierung über Kategorisierung hin zu Rekategorisierung eine besonders effektive Möglichkeit zur Verbesserung der Kooperation zwischen Gruppen bieten könnte. Zum Abschluss wird ein Kontextspezifisches Kontaktmodell vorgeschlagen, das Befunde aus den beiden vorgestellten Studien integriert und zu weiterer Forschung an prosozialem Verhalten zwischen Arbeitsgruppen anregen soll. Mögliche Mediatoren und Moderatoren werden neben einer Reihe von Implikationen für die Forschung und Praxis diskutiert.
In den folgenden neun Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptografischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, zeigen den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens.
In unserer heutigen Welt spielen soziale Netzwerke eine immer größere werdende Rolle. Im Internet entsteht fast täglich eine neue Anwendung in der Kategorie Web 2.0. Aufgrund dieser Tatsache wird es immer wichtiger die Abläufe in sozialen Netzwerken zu verstehen und diese für Forschungszwecke auch simulieren zu können. Da alle gängigen sozialen Netzwerke heute nur im eindimensionalen Bereich arbeiten, beschäftigt sich diese Diplomarbeit mit mehrdimensionalen sozialen Netzwerken. Mehrdimensionale soziale Netzwerke bieten die Möglichkeit verschiedene Beziehungsarten zu definieren. Beispielsweise können zwei Akteure nicht nur in einer "kennt"-Beziehung stehen, sondern diese Beziehungsart könnte auch in diverse Unterbeziehungsarten, wie z.B. Akteur A "ist Arbeitskollege von" Akteur B oder Akteur C "ist Ehepartner von" Akteur D, unterteilt werden. Auf diese Art und Weise können beliebig viele, völlig verschiedene Beziehungsarten nebeneinander existieren. Die Arbeit beschäftigt sich mit der Frage, in welchem Grad die Eigenschaften von eindimensionalen auch bei mehrdimensionalen sozialen Netzwerken gelten. Um das herauszufinden werden bereits bestehende Metriken weiterentwickelt. Diese Metriken wurden für eindimensionale soziale Netzwerke entwickelt und können nun auch für die Bewertung mehrdimensionaler sozialer Netzwerke benutzt werden. Eine zentrale Fragestellung ist hierbei wie gut sich Menschen finden, die sich etwas zu sagen haben. Um möglichst exakte Ergebnisse zu erhalten, ist es notwendig reale Daten zu verwenden. Diese werden aus einem Web 2.0-Projekt, in das Benutzer Links zu verschiedenen Themen einstellen, gewonnen (siehe Kapitel 4). Der erste praktische Schritte dieser Arbeit besteht daher darin, das soziale Netzwerk einzulesen und auf diesem Netzwerk eine Kommunikation, zwischen zwei Personen mit ähnlichen Themengebieten, zu simulieren. Die Ergebnisse der Simulation werden dann mit Hilfe der zuvor entwicklelten Metriken ausgewertet.
Analyse von Geschäftsprozessen einer NPO zur Ausarbeitung der Anforderungen an eine Fachanwendung
(2008)
Im Rahmen einer Systemanalyse werden die Prozesse eines Anbieters von Ferienfreizeiten untersucht und modelliert sowie Schwachstellen ausfindig gemacht. Anhand dieser Grundlage und einer Anforderungserhebung unter den beteiligten Stakeholdern wird ein Soll-Konzept erarbeitet, welches zu Verbesserungen der allgemeinen Organisation und des Informationsflusses führen soll. Abschließend wird eine Handlungsempfehlung für das weitere Vorgehen ausgesprochen.
Diese Arbeit behandelt einen Vergleich verschiedener Algorithmen zur Vorhersage der Bewegung einer Person bei der Ausführung einer sportlichen Aktivität. Als Grundlage für die Vorhersage dienen Bildströme, welche mittels zweier Hochgeschwindigkeitskameras aufgezeichnet wurden. Im Laufe der Arbeit werden Vor- und Nachteile der umgesetzten Ansätze theoretisch erläutert und anschliessend an einer Reihe von Messergebnissen nachgewiesen. Für die Messungen wurde eine Anwendung eingesetzt, welche ebenfalls im Rahmen der Arbeit entwickelt wurde. Neben realen Aufnahmen, wurden zusätzlich synthetische Bildfolgen betrachtet, um Erkenntnisse über das Verhalten der betrachteten Algorithmen unter optimalen Bedingungen zu erlangen.
Im Rahmen von Projekten haben die Mitarbeiter in einem Unternehmen oft komplexe Problemstellungen zu bearbeiten, für die es keine objektiv richtigen oder falschen Lösungen gibt. Stattdessen werden im Rahmen der Entwurfs- und Entscheidungsprozesse mehrere Lösungsvorschläge erarbeitet um dann unter Abwägung von Pro- und Contra-Argumenten eine möglichst optimale Lösung zu finden.
Auditorischer Neglekt und auditorische Extinktion bei Patienten mit visuell-räumlichem Neglekt
(2008)
In der vorliegenden Arbeit wurden auditorische Vernachlässigungen (auditorische Extinktion und auditorischer Neglekt) bei Patienten mit visuell-räumlichem Neglekt untersucht. Neben diesen Patienten mit rechtshemisphärischer Hirnschädigung wurde eine hinsichtlich des Alters kontrollierte Vergleichsgruppe untersucht. Als Verfahren zur Untersuchung des auditorischen Neglekts und der auditorischen Extinktion wurden drei aus der Literatur adaptierte experimentelle Verfahren eingesetzt, in denen sowohl alltagsnahe (Zahlenwörter, Alltagsgeräusche) als auch alltagsferne (Rauschen) akustische Reize monaural und binaural präsentiert wurden. In einem der Verfahren wurde ein monaural und binaural präsentiertes Rauschen durch den Stimulus unterbrochen. Über alle Untersuchungsbedingungen hinweg wiesen die Patienten im Vergleich zu der Kontrollgruppe in den untersuchten Bereichen deutlich schlechtere Leistungen auf. Unter monauralen Untersuchungsbedingungen machten die Patienten unabhängig vom präsentierten Stimulusmaterial wenig Fehler mit einer tendenziellen Abhängigkeit der Performanz von der Präsentationsseite, wobei rechtsseitig präsentierte Reize besser erkannt wurden. Monaurale Reizdetektion bei gleichzeitiger Präsenz eines kontinuierlichen Hintergrundgeräusches führt darüber hinaus zu einer deutlich schlechteren kontraläsionalen Detektionsleistung sowie zu einer Abhängigkeit der Detektionsleistung von der Art des Stimulusmaterials. Diese Ergebnisse liefern einen Hinweis auf eine grundsätzliche Beeinträchtigung der kontraläsionalen Diskriminationsfähigkeit in der untersuchten Patientengruppe, welche in der vorliegenden Studie als kritisches Merkmal des auditorischen Neglekts angesehen werden. Bei der binauralen Stimuluspräsentation zeigte sich, dass identische, simultan an beiden Ohren präsentierte akustische Reize von den Patienten kaum ihren getrennten Ursprungsorten zugeschrieben werden können. Die Patienten identifizierten diese Reize häufig als monaural, was charakteristisch für das Störungsbild der Extinktion ist, und zeigten eine Tendenz, diese Reize dem rechten, auf der Seite der Hirnschädigung gelegenen, Ohr zuzuschreiben. Unter dichotischen Präsentationsbedingungen, das heißt bei simultaner Darbietung von zwei ungleichen akustischen Reizen, steigert sich dagegen die Lokalisations- und Identifikationsleistung der Patienten signifikant. Zusätzlich zeigte sich unter dichotischen Untersuchungsbedingungen eine deutliche Asymmetrie der Extinktionsseite, mit einer signifikant häufigeren Extinktion linksseitiger im Vergleich zu rechtsseitigen Reizen. Insgesamt zeigt sich eine Abhängigkeit der Testergebnisse von den spezifischen Bedingungen der Reizpräsentation und dem Alltagsrelevanz des Stimulusmaterials. Die Ergebnisse zeigen, dass nahezu alle untersuchten Patienten mit visuell-räumlichem Neglekt auch von Vernachlässigungsphänomenen in der auditorischen Modalität betroffen sind. Allerdings konnte kein genereller Zusammenhang der Schweregrade der Symptome in der auditorischen und visuellen Modalität nachgewiesen werden. Während sich ein Zusammenhang hinsichtlich der Schwere der Beeinträchtigung für den auditorischen Neglekt zeigte, ließ sich diese Assoziation für die auditorische Extinktion nicht nachweisen. Auf Grundlage der vergleichenden Analyse der untersuchten experimentellen Testverfahren zur auditorischen Vernachlässigung wird vorgeschlagen, dass Neglekt und Extinktion auch in der auditorischen Domäne als sinnvolle Störungsbilder beibehalten sollten und ihre Unterscheidung in Analogie zur visuellen Modalität vorgenommen werden kann. Die vorliegenden Ergebnisse unterstreichen die Notwendigkeit des Einsatzes experimentell-neuropsychologischer Aufgaben in der klinischen Praxis um räumlichattentionale Beeinträchtigungen in der akustischen Reizverarbeitung nach einer Hirnschädigung erfassen zu können. Es wird eine Testbatterie bestehend aus einem auditorischen Extinktionstest " mit simultaner Darbietung von identischen und unterschiedlichen binauralen Stimuli " sowie einem Neglekttest vorgeschlagen, bei dem unterschiedliche Zielreize in der Gegenwart eines kontinuierlichen binauralen Hintergrundrauschens detektiert werden müssen.
Computers and especially computer networks have become an important part of our everyday life. Almost every device we use is equipped with a computer or microcontroller. Recent technology has even boosted this development by miniaturization of the size of microcontrollers. These are used to either process or collect data. Miniature senors may sense and collect huge amounts of information coming from nature, either from environment or from our own bodies. To process and distribute the data of these sensors, wireless sensor networks (WSN) have been developed in the last couple of years. Several microcontrollers are connected over a wireless connection and are able to collect, transmit and process data for various applications. Today, there are several WSN applications available, such as environment monitoring, rescue operations, habitat monitoring and smart home applications. The research group of Prof. Elaine Lawrence at the University of Technology, Sydney (UTS) is focusing on mobile health care with WSN. Small sensors are used to collect vital data. This data is sent over the network to be processed at a central device such as computer, laptop or handheld device. The research group has developed several prototypes of mobile health care. This thesis will deal with enhancing and improving the latest prototype based on CodeBlue, a hardware and software framework for medical care.