Filtern
Erscheinungsjahr
- 2012 (36) (entfernen)
Dokumenttyp
- Dissertation (11)
- Diplomarbeit (8)
- Ausgabe (Heft) zu einer Zeitschrift (8)
- Bachelorarbeit (4)
- Masterarbeit (4)
- Konferenzveröffentlichung (1)
Sprache
- Englisch (36) (entfernen)
Schlagworte
- Petri-Netze (2)
- probability propagation nets (2)
- 101companies (1)
- API Analysis (1)
- API Migratiom (1)
- Africa (1)
- Afrika (1)
- Archivierung (1)
- Auditing (1)
- Ausbreitung (1)
Institut
- Fachbereich 4 (25)
- Institut für Informatik (4)
- Fachbereich 7 (3)
- Fachbereich 8 (3)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (3)
- Institute for Web Science and Technologies (3)
- Institut für Management (1)
- Institut für Wirtschafts- und Verwaltungsinformatik (1)
- Mathematisches Institut (1)
Die Magnetresonanztomographie (MRT) ist ein bildgebendes Verfahren, das in der medizinischen Diagnostik zur Darstellung von Struktur und Funktion der Gewebe und Organe im Körper eingesetzt wird. Diffusionsgewichtete Bildgebung ist ein spezielles bildgebendes MRT Verfahren, welches es ermöglicht, nichtinvasiv und in vivo Einblicke in den Verlauf von Nervenbahnen zu geben. Es erlaubt damit, Aussagen über die Struktur und Integrität dieser Verbindungsbahnen zu treffen. Im klinischen Alltag findet diese Modalität Anwendung in der neurochirurgischen Operationsplanung, wie beispielsweise bei Resektionen von Läsionen, die in wichtigen funktionellen oder tiefiegenden Arealen liegen, wo die Beschädigungsgefahr wichtiger Nervenbahnen gegeben ist. Kommt es im Zuge der Operation zu einer etwaigen Durchtrennung von wichtigen Bahnen, kann dies zu erheblichen funktionellen Beeinträchtigung führen. Diese Arbeit gibt eine Einführung in die MRT-Bildgebung und wird sich im Speziellen mit der Aufnahme von diffusionsgewichtetenMRT- Daten beschäftigen. Generell besteht das Problem, dass das Auflösungsvermögen von Diffusionsdaten relativ niedrig ist in Relation zum Aufnahmeobjekt. So werden in einem einzelnen 3D Volumenelement, auch Voxel genannt, eine Reihe von Nerventrakten abgebildet, die sich beispielsweise kreuzen, aufsplitten oder auffächern. Hier besteht die Notwendigkeit, diese Voxel zu identifizieren und zu klassifizieren, um auch in schwierigen Regionen aus den lokalen Diffusionsdaten die Verläufe von Nervenbündeln möglichst exakt zu rekonstruieren. Diese Rekonstruktion wird durch die sogenannte Traktographie realisiert. Im Zuge dieser Arbeit werden wir existierende Rekonstruktionsmethoden, wie beispielsweise diffusion tensor imaging (DTI) und q-ball imaging (QBI) auf synthetisch generierten Daten untersuchen. Wir werden herausstellen, welche wertvollen Informationen die rekonstruierten Daten liefern können und welche individuellen Einschränkungen es gibt. QBI rekonstruiert eine orientation distribution function (ODF), deren lokalen Maxima in vielen Fällen mit den Richtungen der Nervenbahnen übereinstimmen. Wir bestimmen diese lokalen Maxima. Auf den Metriken des Diffusionstensors wird eine neue voxelbasierte Klassifikation vorgestellt. Die Vereinigung von voxelbasierter Klassifikation, lokalen Maxima und globalen Informationen aus der Nachbarschaft eines Voxels ist der Hauptbeitrag dieser Arbeit und führt zur Entwicklung eines globalen Klassifikators, der mögliche Traktographie-Richtungen vorgibt und asymmetrische Konfigurationen ermittelt. Im Anschluss wird ein eigener Traktographie-Algorithmus vorgestellt, der auf den Ergebnissen des globalen Klassifikators arbeitet und somit auch Aufsplittungen von Nervenbahnen abbilden kann.
In dieser Ausarbeitung beschreibe ich die Ergebnisse meiner Untersuchungen zur Erweiterung des LogAnswer-Systemsmit nutzerspezifischen Profilinformationen. LogAnswer ist ein natürlichsprachliches open-domain Frage-Antwort-System. Das heißt: es beantwortet Fragen zu beliebigen Themen und liefert dabei konkrete (möglichst knappe und korrekte) Antworten zurück. Das System wird im Rahmen eines Gemeinschaftsprojekts der Arbeitsgruppe für künstliche Intelligenz von Professor Ulrich Furbach an der Universität Koblenz-Landau und der Arbeitsgruppe Intelligent Information and Communication Systems (IICS) von Professor Hermann Helbig an der Fernuniversität Hagen entwickelt. Die Motivation meiner Arbeit war die Idee, dass der Prozess der Antwortfindung optimiert werden kann, wenn das Themengebiet, auf das die Frage abzielt, im Vorhinein bestimmt werden kann. Dazu versuchte ich im Rahmen meiner Arbeit die Interessensgebiete von Nutzern basierend auf Profilinformationen zu bestimmen. Das Semantic Desktop System NEPOMUK wurde verwendet um diese Profilinformationen zu erhalten. NEPOMUK wird verwendet um alle Daten, Dokumente und Informationen, die ein Nutzer auf seinem Rechner hat zu strukturieren. Dazu nutzt das System ein sogenanntes Personal Information Model (PIMO) in Form einer Ontologie. Diese Ontologie enthält unter anderem eine Klasse "Topic", welche die wichtigste Grundlage für das Erstellen der in meiner Arbeit verwendeten Nutzerprofile bildete. Konkret wurde die RDF-Anfragesprache SPARQL verwendet, um eine Liste aller für den Nutzer relevanten Themen aus der Ontologie zu filtern. Die zentrale Idee meiner Arbeit war es nun diese Profilinformationen zur Optimierung des Ranking von Antwortkandidaten einzusetzen. In LogAnswer werden zu jeder gestellten Frage bis zu 200 potentiell relevante Textstellen aus der deutschen Wikipedia extrahiert. Diese Textstellen werden auf Basis von Eigenschaften (wie z.B. lexikalische Übereinstimmungen zwischen Frage und Textstelle) geordnet, da innerhalb des zur Verfügung stehenden Zeitlimits nicht alle Kandidaten bearbeitet werden können.
Mein Ansatz verfolgte das Ziel, diesen Algorithmus durch Nutzerprofile so zu erweitern, dass Antwortkandidaten, welche für den Benutzer relevante Informationen enthalten, höher in der Rangfolge eingeordnet werden. Zur Umsetzung dieser Idee musste eine Methode gefunden werden, um zu bestimmen ob ein Antwortkandidat mit dem Profil übereinstimmt. Da sich die in einer Textstelle enthaltenen Informationen in den meisten Fällen auf das übergeordnete Thema des Artikels beziehen, ohne den Namen des Artikels explizit zu erwähnen, wurde in meiner Implementierung der Artikelname betrachtet, um zu ermitteln, zu welchem Themengebiet die Textstelle Informationen liefert. Als zusätzliches Hilfsmittel wurde außerdem die DBpedia-Ontologie eingesetzt, welche die Informationen der Wikipedia strukturiert im RDF Format enthält. Mit Hilfe dieser Ontologie war es möglich, jeden Artikel in Kategorien einzuordnen, die dann mit den im Profil enthaltenen Stichworten verglichen wurden. Zur Untersuchung der Auswirkungen des Ansatzes auf das Ranking-Verfahren wurden mehrere Testläufe mit je 200 Testfragen durchgeführt. Die erste Testmenge bestand aus zufällig ausgewählten Fragen, die mit meinem eigenen Nutzerprofil getestet wurden. Dieser Testlauf lieferte kaum nutzbare Ergebnisse, da nur bei 29 der getesteten Fragen überhaupt ein Antwortkandidat mit dem Profil in Verbindung gebracht werden konnte. Außerdem konnte eine potentielle Verbesserung der Ergebnisse nur bei einer dieser 29 Fragen festgestellt werden, was zu der Schlussfolgerung führte, dass der Einsatz von Profildaten nicht für Anwendungsfälle geeignet ist, in denen die Fragen keine Korrelation mit dem genutzten Profil aufweisen.
Da die Grundannahme meiner Arbeit war, dass Nutzer in erster Linie Fragen zu den Interessensgebieten stellen, welche sich aus ihrem Profil ableiten lassen, sollten die weiteren Testläufe genau diesen Fall beleuchten. Dazu wurden 200 Testfragen aus dem Bereich Sport ausgewählt und mit einem Profil getestet, welches Stichworte zu unterschiedlichen Sportarten enthielt. Die Tests mit den Sportfragen waren wesentlich aussagekräftiger. Auch hier deuteten die Ergebnisse darauf hin, dass der Ansatz kein großes Potential zur Verbesserung des Rankings hat. Eine genauere Betrachtung einiger ausgewählter Beispiele zeigte allerdings, dass die Integration von Profildaten für bestimmte Anwendungsfälle, wie z.B. offene Fragen für die es mehr als eine korrekte Antwort gibt, durchaus zu einer Verbesserung der Ergebnisse führen kann. Außerdem wurde festgestellt, dass viele der schlechten Ergebnisse auf Inkosistenzen in der DBpedia-Ontologie und grundsätzliche Probleme im Umgang mit Wissensbasen in natürlicher Sprache beruhen.
Die Schlussfolgerung meiner Arbeit ist, dass der in dieser Arbeit vorgestellte Ansatz zur Integration von Profilinformationen für den aktuellen Anwendungsfall von LogAnswer nicht geeignet ist, da vor allem Faktenwissen aus sehr unterschiedlichen Domänen abgefragt wird und offene Fragen nur einen geringen Anteil ausmachen.
Die Bedeutung technischer Produkte in unserem Alltag geht weit über die praktischer Werkzeuge hinaus. So ist beispielsweise das Mobiltelefon ein ständiger Begleiter, das neben rein pragmatischen Funktionen auch psychologische Bedürfnisse wie Verbundenheit, Stimulation, Kompetenz, Popularität oder Sicherheit erfüllt. Interaktive Produkte bieten somit ein großes Potential zur Vermittlung freudvoller Erlebnisse, was auch von der Forschung im Bereich Mensch-Technik-Interaktion (Human-Computer Interaction, HCI) anerkannt wurde. Neben aufgabenorientierten Qualitätsaspekten berücksichtigte die HCI-Forschung vermehrt auch Selbst-orientierte, erlebnisbezogene Qualitätsaspekte. Diese Unterscheidung von pragmatischen Produktattributen (beispielsweise Usability, dt. Gebrauchstauglichkeit) und hedonischen Produktattributen (beispielsweise Schönheit) ist angelehnt an das Hedonisch-Utilitaristisch-Modell der Konsumentenpsychologie. Theoretische Modelle des Nutzererlebens (User Experience, UX) messen hedonischen und pragmatischen Attributen eine gleichermaßen wichtige Rolle für das Erleben und die Wertschätzung eines Produkts bei. Im Moment der Produktwahl kommt es jedoch oft zu einem Ungleichgewicht: hier werden vorrangig pragmatische Attribute berücksichtigt, wohingegen hedonische Attribute vernachlässigt werden. Dieses Phänomen lässt sich mit Rechtfertigung erklären. Personen haben das Bedürfnis ihre Wahl zu rechtfertigen und berücksichtigen so eher die Rechtfertigbarkeit von Produktattributen als deren Relevanz für die Freude am Produkt. Pragmatische Attribute sind hier im Vorteil. Durch ihren direkten Bezug zur primären Funktion eines Produkts lassen sie sich weitaus einfacher rechtfertigen als hedonische Attribute. Dies kann dazu führen, dass Personen entgegen ihrer eigentlichen (hedonischen) Präferenz pragmatisch wählen " was ein Dilemma darstellt, denn sie wählen nicht das, woran sie am meisten Freude haben. Die vorliegende Dissertation untersucht die Annahme eines Dilemmas des Hedonischen im Kontext interaktiver Produkte.
Eine erste Reihe von vier Studien bestätigte das angenommene Dilemma. Während Personen ohne Weiteres bereit waren, für einen Qualitätszuwachs bezüglich eines pragmatischen Attributs zu bezahlen, widerstrebte es ihnen, für einen Qualitätszuwachs bezüglich eines hedonischen Attributs zu bezahlen (Studie 1, N = 422). Studie 2 (N = 134) zeigte jedoch, dass Personen hedonische Produktattribute durchaus schätzen und ihre Wahl (insgeheim) auch daran orientieren. Sie begründen ihre Wahl aber vorrangig mit (durchaus fraglichen) pragmatischen Vorteilen. Studie 3 (N = 118) konfrontierte die Studienteilnehmer mit einer Wahl, die einen Kompromiss zwischen hedonischer und pragmatischer Qualität erforderte. Obgleich die Aussicht auf den Erhalt des hedonischen Produkts mit einem höheren Maß an positivem Affekt assoziiert wurde, wählte die Mehrheit der Teilnehmer das pragmatische Produkt, vor allem diejenigen mit einem hohen Rechtfertigungsbedürfnis. Der gefundene Zusammenhang zwischen Produktwahl und erlebtem Bedarf nach Rechtfertigung untermauerte die Annahme von Rechtfertigung als zugrundeliegenden Faktor. Studie 4 (N = 125) widmete sich der weiteren Exploration affektiver Konsequenzen sowie angeführten Begründungen für hedonische und pragmatische Wahl. Wieder war das hedonische Produkt mit einem höheren Maß an positivem Affekt assoziiert als das pragmatische " selbst unter denjenigen, die das pragmatische Produkt wählten.
Eine zweite Gruppe von drei Studien explorierte Möglichkeiten zur Reduktion des Dilemmas mittels experimenteller Manipulation von Rechtfertigung. Die getesteten Manipulationen setzten sowohl an der Rechtfertigbarkeit von Produktattributen als auch am generellen Bedarf nach Rechtfertigung an. Studie 5 (N = 129) erhöhte die jeweilige Rechtfertigbarkeit von hedonischer und pragmatischer Wahl mittels der Eindeutigkeit dargebotener Informationen über Produktattribute. Nicht eindeutige, "elastische" Informationen boten hier einen erhöhten Interpretationsspielraum, der zugunsten bestehender Präferenzen genutzt werden konnte. Erwartungsgemäß führte eine erhöhte Rechtfertigbarkeit zu einem Anstieg der Hedonisch-Wahlraten, die Pragmatisch-Wahlraten blieben von der Manipulation unbeeinflusst. Studie 6 (N = 178) erhöhte die Rechtfertigbarkeit einer hedonischen Wahl durch einen "Testbericht", der hedonische Attribute als ein scheinbar legitimes Entscheidungskriterium anführte. Auch hier zeigte sich mit steigender Rechtfertigbarkeit ein Anstieg der Hedonisch-Wahlraten. Studie 7 (N = 133) manipulierte den generellen Bedarf nach Rechtfertigung durch ein Framing des Produktkaufs als Belohnung. Für ein hedonisches Produkt zeigte sich ein positiver Effekt des Belohnungs-Framings auf die Kaufbereitschaft, für ein pragmatisches Produkt zeigte sich hingegen kein Effekt der Rechtfertigungsmanipulation.
Die vorliegenden Studien zeigen auf, dass hedonische Attribute auch bei technischen Produkten geschätzt werden, wenngleich diese landläufig oft als "Werkzeuge" betrachtet werden. Genau diese noch immer weitverbreitete rein pragmatische Sichtweise auf Technik ist es womöglich, die Personen zögern lässt, ihrem Wunsch nach hedonischer Qualität nachzugeben " zumindest solange sie glauben, ihre Wahl rechtfertigen zu müssen. Die vorliegenden Ergebnisse tragen zu einem besseren Verständnis der komplexen Konsequenzen hedonischer und pragmatischer Attribute bei, und weisen auf eine generelle Notwendigkeit der Erweiterung des Fokus der User Experience-Forschung auf den Moment der Wahl hin. Limitationen der vorliegenden Studien, Implikationen für zukünftige Forschung, sowie praktische Implikationen für die Produktgestaltung und -vermarktung werden diskutiert.
Hinsichtlich der rapide anwachsenden Menge an jährlich produzierten Daten und der wachsenden Akzeptanz des Enterprise 2.0, müssen sich Unternehmen immer stärker mit dem Management ihrer Daten befassen. Inhalt, der unkoordiniert erstellt und abgelegt wird, kann zu Datensilos führen (Williams & Hardy 2011, S.57), welche lange Suchzeiten, unzugängliche Daten und in der Konsequenz monetäre Verluste hervorrufen können. Das "sich ausdehnende digitale Universum" zwingt Unternehmen zur Entwicklung neuer Archivierungslösungen und Records Management Richtlinien (Gantz et al. 2007, S.13). Enterprise Content Management (ECM) ist das Untersuchungsfeld, welches sich mit diesen Anforderungen beschäftigt. Es ist im wissenschaftlichen Kontext des Enterprise Information Management angesiedelt. Ziel dieser Bachelor-Arbeit ist es, herauszufinden in welchem Umfang aktuelle Enterprise Content Management Systeme (ECMS) diese neuen Anforderungen, vor allem die Archivierung von Daten aus dem Enterprise 2.0, unterstützen. Zu diesem Zweck wurden drei Szenarien erstellt, mit deren Hilfe zwei verschiedene Arten von ECMS (ein Open Source - und ein proprietäres System), ausgewählt auf Grundlage einer kurzen Marktübersicht, evaluiert werden sollen. Die Anwendung der Szenarien zeigt, dass sich die Software Anbieter über die Probleme der Industrie im Klaren sind: beide Programme stellen Funktionen zur Archivierung von Daten aus online Teamarbeit sowie Möglichkeiten zum Records Management zur Verfügung. Aber die Integration beider Funktionalitäten ist nicht oder nur unvollständig gelöst. An dieser Stelle werden neue Fragen - wie z.B. "Welche im Enterprise 2.0 anfallenden Daten besitzen die Wichtigkeit, als "Business Record" gespeichert zu werden?" - aufgeworfen und müssen in zukünftiger Forschung betrachtet werden.
In einigen Bereichen des automatischen Theorembeweisens benötigt man das Wissen, dass Konstanten paarweise ungleich sind. Um dieses zu erreichen, fügt man Fakten, die dieses Wissen explizit angeben, zu den Wissensbasen hinzu. Wenn man diese Eigenschaft für viele Konstanten definieren muss, wird die Klauselmenge der Wissensbasen schnell sehr umfangreich und wegen der vielen - eigentlich irrelevanten - Ungleichheiten kann man den Blick auf das eigentlich formalisierte Problem verlieren. Da die Größe der Wissensbasis in vielen Fällen Einfluss auf die Geschwindigkeit hat, ist es auch aus diesem Grund sinnvoll, die Anzahl dieser Fakten gering zu halten. Die unique name assumption erlaubt auf die Einführung der Ungleichheits-Fakten zu verzichten, da sie festlegt, dass zwei Konstanten genau dann gleich sind, wenn ihre Interpretationen identisch sind. Auf diesem Wege lässt sich das Aufblähen von Wissensbasen mit Ungleichheits-Fakten verhinde. In dieser Arbeit wird der E-Hyper-Tableau-Kalkül erweitert um die unique name assumption nutzen zu können. Der in dieser Arbeit entwickelte Kalkül ist vollständig und korrekt, was durch formale Beweise in dieser Arbeit belegt wird. Um zu zeigen, dass die native Behandlung von Ungleichheiten dem Einführen von Ungleichheits-Fakten überlegen ist, wird der Kalkül in den Theorembeweiser E-KRHyper implementieren. Der Theorembeweiser E-KRHyper ist ein etabliertes System und basiert in seiner ursprünglichen Version auf dem E-Hyper-Tableau. Mit systematischen Tests wird dann gezeigt, dass die entwickelte Implementierung des erweiterten Kalküls nie schlechter ist, als der original E-KRHyper, diesen aber in einigen Fällen in der Ausführungsgeschwindigkeit deutlich übertrifft.