Filtern
Erscheinungsjahr
- 2016 (34) (entfernen)
Dokumenttyp
- Dissertation (18)
- Masterarbeit (8)
- Bachelorarbeit (4)
- Ausgabe (Heft) zu einer Zeitschrift (2)
- Konferenzveröffentlichung (1)
- Habilitation (1)
Sprache
- Englisch (34) (entfernen)
Schlagworte
- soil water repellency (2)
- Ad-hoc-Netz (1)
- Algorithmische Geometrie (1)
- Articles for Deletion (1)
- Beaconless (1)
- Bedrohte Tiere (1)
- Big Five (1)
- Core Self-Evaluations (1)
- Daphnia (1)
- Distributed Algorithm (1)
- Drahtloses Sensorsystem (1)
- Drahtloses vermachtes Netz (1)
- E-Participation (1)
- Ebener Graph (1)
- Enterprise Architecture Framework (1)
- Evacuation modeling (1)
- Five Factor model (1)
- Flow decomposition (1)
- Function Words (1)
- Geographic routing (1)
- Geometric spanner (1)
- Graph (1)
- I-messages (1)
- IBM Bluemix (1)
- IT-Security (1)
- Komplexität / Algorithmus (1)
- Local algorithm (1)
- Maifisch (1)
- Metamodel (1)
- Nachbarschaftsgraph (1)
- Netzwerktopologie (1)
- Optimization (1)
- Planar graphs (1)
- Einbringen (1)
- Quasi unit disk graph (1)
- Reactive algorithm (1)
- Reference Model (1)
- Rhein (1)
- Robust Principal Component Analysis (1)
- Routing (1)
- Security Requirements (1)
- Semantic Web (1)
- Semantic Web Data (1)
- Southern Amazonia (1)
- Statistical Shape Model (1)
- Unit disk graph (1)
- Verteilter Algorithmus (1)
- Wanderfische (1)
- Wikipedia (1)
- Wireless sensor network (1)
- You-messages (1)
- Zooplankton (1)
- Zusammenhängender Graph (1)
- bait-lamina test (1)
- biodegradation (1)
- cross-cultural psychology (1)
- decomposition (1)
- description logic (1)
- ecotoxicology (1)
- emic-etic (1)
- energetics (1)
- field experiment (1)
- flows over time (1)
- fluid disturbances (1)
- fungicide (1)
- greenhouse gases (1)
- internet of things (1)
- iot development platforms (1)
- kinematics (1)
- land use change (1)
- media competence model (1)
- modeling (1)
- olive mill wastewater (1)
- pesticide (1)
- phenolic compounds (1)
- privacy and personal data (1)
- privacy competence model (1)
- reasoning (1)
- risk (1)
- security awareness (1)
- soils (1)
- stream (1)
- swarming (1)
- swimming behaviour (1)
- thermal analysis (1)
- virtual reality (1)
- water re-use (1)
- zooplankton (1)
Institut
- Fachbereich 7 (7)
- Institut für Informatik (6)
- Institut für Computervisualistik (5)
- Institut für Wirtschafts- und Verwaltungsinformatik (3)
- Institute for Web Science and Technologies (3)
- Fachbereich 4 (2)
- Fachbereich 8 (2)
- Institut für Management (2)
- Mathematisches Institut (2)
- Institut für Psychologie (1)
“Did I say something wrong?” A word-level analysis of Wikipedia articles for deletion discussions
(2016)
Diese Arbeit beschäftigt sich damit, linguistische Erkenntnisse auf Wortebene über schriftlichen Diskussionen zu gewinnen. Die Unterscheidung zwischen Botschaften, welche sich förderlich auf Diskussionen auswirken und jene, welche diese unterbrechen, spielte dabei eine besondere Rolle. Hierbei lag ein Schwerpunkt darauf, zu ermitteln, ob Ich- und Du-Botschaften charakteristisch für die beiden Kommunikationsarten sind. Diese Botschaften sind über Jahre hinweg zu Empfehlungen für erfolgreiche Kommunikation avanciert. Ihre zugeschriebene Wirkung wurde zwar mehrfach bestätigt, jedoch geschah dies stets in kleineren Studien. Deshalb wurde in dieser Arbeit mithilfe der Löschdiskussionen der englischen Wikipedia und der Liste gesperrter Nutzer eine vollautomatische Erstellung eines annotierten Datensatzes entwickelt. Dabei wurden Diskussionsbotschaften entweder als förderlich oder schädlich für einen konstruktiven Diskussionsverlauf markiert. Dieser Datensatz wurde anschließend im Rahmen einer binären Klassifikation verwendet, um charakteristische Worte für die beiden Kommunikationsarten zu bestimmen. Es wurde zudem untersucht, ob anhand von Synsemantika (auch bekannt als Funktionswörter) wie Pronomen oder Konjunktionen eine Entscheidung über die Kommunikationsart einer Botschaft getroffen werden kann. Du-Botschaften wurden, übereinstimmend mit ihrer zugeschriebenen negativen Auswirkung auf Kommunikation, als schädlich in den durchgeführten Untersuchungen identifiziert. Entgegen der zugeschriebenen positiven Auswirkung von Ich-Botschaften, wurde bei diesen ebenfalls eine schädlich Wirkung festgestellt. Eine klare Aussage über die Relevanz von Synsemantika konnte anhand der Ergebnisse nicht getroffen werden. Weitere charakteristische Worte konnten nicht festgestellt werden. Die Ergebnisse deuten darauf hin, dass ein anderes Modell textliche Diskussionen potentiell besser abbilden könnte.
Um die Attraktivität eines Unternehmens für Bewerber zu steigern und die Zufriedenheit der Angestellten zu verbessern ist es heutzutage unumgänglich, eine Vielzahl an Work-Life-Balance Maßnahmen anzubieten. Doch die zeitlichen und finanziellen Kosten, welche deren Einführung verursacht, fordern eine Priorisierung der Maßnahmen. Zur Entwicklung einer solchen Empfehlung für Unternehmen untersucht diese Studie ob es Work-Life-Balance Maßnahmen gibt, welche einen höheren Einfluss auf die Arbeitszufriedenheit ausüben als andere, wie groß der relative Effekt von den Maßnahmen im Vergleich zu anderen arbeitsbezogenen und privaten Variablen auf die Veränderung der Arbeitszufriedenheit ist, ob es einen Zusammenhang zwischen der Effektivität einer Maßnahme und deren Nutzung gibt und ob es Unterschiede zwischen den Erwartungen der Angestellten und den Angeboten der Unternehmen gibt.
Diese Fragen sind in acht Forschungshypothesen formuliert, welche in einem quantitativen Design mit Daten von 289 Angestellten von fünfzehn verschiedenen deutschen Unternehmen aus einem Online-Fragebogen überprüft werden. Für die Bildung einer Hierarchie von Maßnahmen nach ihrem Einfluss auf die Arbeitszufriedenheit und die Untersuchung des relativen Effektes im Vergleich zu anderen Variablen wird eine multiple Regressionsanalyse verwendet, während für die Ermittlung der Unterschiede zwischen den Erwartungen der Angestellten und der Verfügbarkeit der Angebote T-Tests durchgeführt werden.
Unterstützung bei der Kindesbetreuung, Unterstützung bei ehrenamtlichen Tätigkeiten und Teambuilding-Events haben einen signifikant höheren Einfluss auf die Arbeitszufriedenheit als andere Maßnahmen, und die hypothetische Nutzung ist höher
als die tatsächliche Nutzung, was auf ein hohes Potenzial dieser Maßnahmen bezüglich der Verbesserung der Arbeitszufriedenheit durch deren Einführung schließen lässt. Darüber hinaus sind aus Sicht der Angestellten flexible Arbeitszeiten und Arbeitsorte sowie Freizeit- und Überstundenkonten die wichtigsten Maßnahmen, welche auch bereits flächendeckend in den befragten Unternehmen angeboten werden. Allgemein sind die Nutzung der verfügbaren Maßnahmen und die Anzahl der angebotenen Maßnahmen wichtiger im Hinblick auf die Arbeitszufriedenheit als die Art der Maßnahmen. Außerdem nehmen Work-Life-Balance Maßnahmen bei jüngeren Menschen einen höheren Stellenwert in Bezug auf die Arbeitszufriedenheit ein als bei älteren Menschen.
We are entering the 26th year from the time the World Wide Web (WWW) became reality. Since the birth of the WWW in 1990, the Internet and therewith websites have changed the way businesses compete, shifting products, services and even entire markets.
Therewith, gathering and analysing visitor traffic on websites can provide crucial information to un- derstand customer behavior and numerous other aspects.
Web Analytics (WA) tools offer a quantity of diverse functionality, which calls for complex decision- making in information management. Website operators implement Web Analytic tools such as Google Analytics to analyse their website for the purpose of identifying web usage to optimise website design and management. The gathered data leads to emergent knowledge, which provides new marketing opportunities and can be used to improve business processes and understand customer behavior to increase profit. Moreover, Web Analytics plays a significant role to measure performance and has therefore become an important component in web-based environments to make business decisions.
However, many small and medium –sized enterprises try to keep up with the web business competi- tion, but do not have the equivalent resources in manpower and knowledge to stand the pace, there- fore some even resign entirely on Web Analytics.
This research project aims to develop a Web Analytics framework to assist small and medium-sized enterprises in making better use of Web Analytics. By identifying business requirements of SMEs and connecting them to the functionality of Google Analytics, a Web Analytics framework with attending guidelines is developed, which guides SMEs on how to proceed in using Google Analytics to achieve actionable outcomes.
Aktuelle Schätzungen bestätigten, dass Binnengewässer eine erhebliche Menge Methan (CH4) und Kohlendioxid (CO2) sowohl auf regionaler Ebene, als auch global freisetzen. Jedoch basieren diese Schätzungen auf extrapolierten gemessenen Daten, ungenügender Auflösung der räumlich-zeitlichen Variabilität und es mangelt an Daten aus ariden und semi-ariden Gebieten, sowie den Kohlestoffquellen aus Kläranlagen.
Für die hier vorliegende Studie analysierten wir monatliche hydrologische und meteorologische Daten sowie Daten zur Wasserqualität von drei Stauseen aus dem Gebiet des unteren Jordans, die zur Trinkwassergewinnung und zur Bewässerung genutzt werden, und schätzten damit deren Emissionsrate an CO2 ab. Wir untersuchten den Effekt von Kläranlagen auf die umliegenden Gewässer im Hinblick auf CH4 und CO2-Emissionen indem wir saisonal aufgelöste Daten der Konzentration der beiden gelösten Gase in Kläranlagenauslässen und in Vorflutern von neun Kläranlagen in Deutschland analysierten. Mithilfe von Low-Cost-Methoden die die CO2-Transportrate und die Ausgasungsrate über Gasblasen messen, untersuchten wir die räumliche und zeitliche Variabilität der CH4 und CO2-Emissionen von aquatischen Süßwasser-Ökosystemen.
Unsere Schätzungen zeigen, dass Stauseen in semi-ariden Regionen CO2 übersättigt sind und somit CO2 an die Atmosphäre abgeben, also eine Netto-Quelle sind.
Die Größenordnung der beobachteten Transportraten der drei jordanischen Stauseen ist vergleichbar mit denen von tropischen Stauseen (3,3 g CO2 m-2 Tag-1). Die CO2-Emissionsrate ist abhängig von Änderungen der Wasseroberfläche, welche durch den Betrieb der Stauseen verursacht sind. Kläranlagen entlassen eine beachtlichen Menge an CH4 (30.9±40.7 kg Jahr-1) und CO2 (0.06±0.05 Gg Jahr-1) in ihre umgebenden Flüsse und Bäche. Deren Emissionsraten sind durch diese Einleitung der Kläranlagen um 1,2-fach für CH4 oder 8,6-fach für CO2 erhöht. Unsere Ergebnisse zeigen, dass sowohl die diffusive als auch die Gasblasenemissionsrate räumlich und zeitlich variabel ist, weshalb beide Emissionsraten bei zukünftigen Studien auch in der nötigen Auflösung gemessen werden sollten.
Wir schlussfolgern, dass bei zukünftigen Emissionsmessungen und –schätzungen von Binnengewässern auch die Gewässerbewirtschaftung, die Kohlenstoffquelle von Kläranlagen und die räumliche und zeitliche Variabilität der Emissionen beachtet werden sollten.
This habilitation thesis collects works addressing several challenges on handling uncertainty and inconsistency in knowledge representation. In particular, this thesis contains works which introduce quantitative uncertainty based on probability theory into abstract argumentation frameworks. The formal semantics of this extension is investigated and its application for strategic argumentation in agent dialogues is discussed. Moreover, both the computational as well as the meaningfulness of approaches to analyze inconsistencies, both in classical logics as well as logics for uncertain reasoning is investigated. Finally, this thesis addresses the implementation challenges for various kinds of knowledge representation formalisms employing any notion of inconsistency tolerance or uncertainty.
Die Bereitstellung elektronischer Beteiligungsverfahren (E-Partizipation) ist ein komplexes sozio-technisches Unterfangen, das eine sorgfältige Vorgehensweise erfordert. Die Herausforderung ist, dass Regierungen oder Kommunalverwaltungen, als häufigste Anbieter, bei der ganzheitlichen Planung und Umsetzung nur unzureichend unterstützt werden. Infolgedessen beschreibt die Literatur nur wenige E-Partizipationsangebote als erfolgreich. Die Wirtschaftsinformatik entwickelte das Konzept der Enterprise Architectures um die Entwicklung komplexer sozio-technischer Systeme zu unterstützen. Versteht man die Gruppe an Organisationen, die E-Partizipationsverfahren bereitstellt nun als Enterprise, so können die Prinzipien von Enterprise Architectures angewendet werden. Nichtsdestotrotz wurde dieser Ansatz in der E-Partizipationspraxis und –Forschung bisher kaum beachtet.
Motiviert durch diese Forschungslücke, untersucht die Dissertation bestehende Ansätze aus der E-Partizipationspraxis und –Forschung auf Besonderheiten und Schwachstellen, um anschließend den Nutzen bestehender Rahmenwerke für Enterprise Architectures im Kontext von E-Partizipation zu analysieren. Die Literaturstudie überprüft sowohl konzeptionelle als auch prozedurale Ansätze aus Praxis und Wissenschaft auf ihre Ganzheitlichkeit und identifiziert die Herausforderungen. Im Rahmen von vier Projekten wird das Vorgehen beim Entwurf und der Umsetzung von elektronisch unterstützten Beteiligungsverfahren dokumentiert und ausgewertet sowie Verbesserungspotenziale aufgezeigt. Enterprise Architecture Frameworks (Zachman Framework, TOGAF, DoDAF, FEA, ARIS, und ArchiMate) werden auf Anforderungen und Nützlichkeit für E-Partizipation untersucht. Die Ergebnisse zeigen die Herausforderungen bei der Übernahme existierender Enterprise Architecture Frameworks, aber auch das Potential einer Kombination aus speziellen Ansätzen für E-Partizipation mit Enterprise Architectures auf. Folglich ist das Ziel der weiteren Forschung die Entwicklung eines Architekturrahmenwerks für E-Partizipation.
Die vorliegende Dissertation führt die Ergebnisse der Literaturstudien und Aktionsforschung zusammen und wendet dementsprechend Konstruktionsforschung (Design Science Research) bei der Entwicklung des E-Participation Architecture Framework (EPART-Framework) an. Die initiale Version dieses Rahmenwerks wird in zwei unterschiedlichen Umgebungen angewandt und getestet. Die Erkenntnisse führen zu dem EPART-Framework, das in dieser Dissertation vorgestellt wird. Es besteht aus dem EPART-Metamodel, das E Partizipation aus sechs verschiedenen Perspektiven unterschiedlicher Akteure (den sog. EPART-Viewpoints) betrachtet. Die EPART-Method unterstützt den Entwurf und die Umsetzung von E-Partizipation mit Hilfe des EPART-Frameworks. Sie beschreibt fünf, durch Anforderungsmanagement begleitete, Phasen: Initiierung, Entwurf, Umsetzung, Partizipation und Evaluation. Die Ergebnisse während diesen Phasen werden in der Architekturbeschreibung (Architecture Description) und dem Solution Repository gespeichert. Das finale EPART-Framework wird im Rahmen der Arbeit evaluiert, um Empfehlungen für die Anwendung sowie weiteren Forschungsbedarf aufzuzeigen. Die Ergebnisse geben Grund zur Annahme, dass das EPART-Framework die Lücke zwischen E-Partizipation und Enterprise Architectures füllt und Forschung und Praxis in dem Feld wertvoll ergänzt.
One of the main goals of the artificial intelligence community is to create machines able to reason with dynamically changing knowledge. To achieve this goal, a multitude of different problems have to be solved, of which many have been addressed in the various sub-disciplines of artificial intelligence, like automated reasoning and machine learning. The thesis at hand focuses on the automated reasoning aspects of these problems and address two of the problems which have to be overcome to reach the afore-mentioned goal, namely 1. the fact that reasoning in logical knowledge bases is intractable and 2. the fact that applying changes to formalized knowledge can easily introduce inconsistencies, which leads to unwanted results in most scenarios.
To ease the intractability of logical reasoning, I suggest to adapt a technique called knowledge compilation, known from propositional logic, to description logic knowledge bases. The basic idea of this technique is to compile the given knowledge base into a normal form which allows to answer queries efficiently. This compilation step is very expensive but has to be performed only once and as soon as the result of this step is used to answer many queries, the expensive compilation step gets worthwhile. In the thesis at hand, I develop a normal form, called linkless normal form, suitable for knowledge compilation for description logic knowledge bases. From a computational point of view, the linkless normal form has very nice properties which are introduced in this thesis.
For the second problem, I focus on changes occurring on the instance level of description logic knowledge bases. I introduce three change operators interesting for these knowledge bases, namely deletion and insertion of assertions as well as repair of inconsistent instance bases. These change operators are defined such that in all three cases, the resulting knowledge base is ensured to be consistent and changes performed to the knowledge base are minimal. This allows us to preserve as much of the original knowledge base as possible. Furthermore, I show how these changes can be applied by using a transformation of the knowledge base.
For both issues I suggest to adapt techniques successfully used in other logics to get promising methods for description logic knowledge bases.
Reaktiv lokale Algorithmen sind verteilte Algorithmen, die den Anforderungen großer, batteriebetriebener, Drahtloser Ad Hoc und Sensornetzwerke im besonderen Maße gerecht werden. Durch Vermeidung überflüssiger Nachrichtenübertragungen sowie Verzicht auf proaktive Ermittlung von Nachbarschaftstabellen (d.h. beaconing) minimieren solche Algorithmen den Kommunikationsaufwand und skalieren gut bei wachsender Netzgröße. Auf diese Weise werden Ressourcen wie Bandbreite und Energie geschont, es kommt seltener zu Nachrichtenkollisionen und dadurch zu einer Erhöhung der Paketempfangsrate, sowie einer Reduktion der Latenzen.
Derzeit wird diese Algorithmenklasse hauptsächlich für Geografisches Routing, sowie zur Topologiekontrolle, insbesondere zur Ermittlung der Adjazenzliste eines Knotens in zusammenhängenden, kantenschnittfreien (planaren) Repräsentationen des Netzgraphen, eingesetzt. Ersteres ermöglicht drahtlose multi-hop Kommunikation auf Grundlage von geografischen Knotenpositionen ohne Zuhilfenahme zusätzlicher Netzwerkinfrastruktur, wohingegen Letzteres eine hinreichende Grundlage für effiziente, lokale Lösungen einer Reihe algorithmischer Problemstellungen ist.
Die vorliegende Dissertation liefert neue Erkenntnisse zum Forschungsgebiet der reaktiven Algorithmen, zum Einen auf einer abstrakten Ebene und zum Anderen durch die Einführung neuer Algorithmen.
Erstens betrachtet diese Arbeit reaktive Algorithmen erstmalig im Ganzen und als eigenständiges Forschungsfeld. Es wird eine umfangreiche Literaturstudie zu dieser Thematik präsentiert, welche die aus der Literatur bekannten Algorithmen, Techniken und Anwendungsfelder systematisch auflistet, klassifiziert und einordnet. Weiterhin wird das mathematische Konzept der O- und Omega-reaktiv lokalen Topologiekontrolle eingeführt. Dieses Konzept ermöglicht erstmals die eindeutige Unterscheidung reaktiver von konventionellen, beacon-basierten, verteilten Topologiekontrollalgorithmen. Darüber hinaus dient es als Klassifikationsschema für existierende, sowie zukünftige Algorithmen dieser Art. Zu guter Letzt ermöglicht dieses Konzept grundlegende Aussagen über die Mächtigkeit des reaktiven Prinzips, welche über Entwurf und Analyse von Algorithmen hinaus reichen.
Zweitens werden in dieser Arbeit neue reaktiv lokale Algorithmen zur Topologiekontrolle und Geografischem Routing eingeführt, wobei drahtlose Netze durch Unit Disk bzw. Quasi Unit Disk Graphen modelliert werden. Diese Algorithmen berechnen für einen gegebenen Knoten die lokale Sicht auf zusammenhängende, planare, Euklidische bzw. Topologische Spanner mit konstanter Spannrate bzgl. des Netzgraphen und routen Nachrichten reaktiv entlang der Kanten dieser Spanner, wobei die Nachrichtenauslieferung garantiert wird. Alle bisher bekannten Verfahren sind entweder nicht reaktiv oder gewährleisten keine konstanten Euklidischen oder Topologischen Spannraten. Ein wesentliches Teilergebnis dieser Arbeit ist der Nachweis, dass die partielle Delaunay Triangulierung (PDT) ein Euklidischer Spanner mit konstanter Spannrate für Unit Disk Graphen ist.
Die in dieser Dissertation gewonnenen Erkenntnisse bilden die Basis für grundlegende und strukturierte Forschung auf diesem Gebiet und zeigen, dass das reaktive Prinzip ein wichtiges Werkzeug des Algorithmenentwurfs für Drahtlose Ad Hoc und Sensornetzwerke ist.
Confidentiality, integrity, and availability are often listed as the three major requirements for achieving data security and are collectively referred to as the C-I-A triad. Confidentiality of data restricts the data access to authorized parties only, integrity means that the data can only be modified by authorized parties, and availability states that the data must always be accessible when requested. Although these requirements are relevant for any computer system, they are especially important in open and distributed networks. Such networks are able to store large amounts of data without having a single entity in control of ensuring the data's security. The Semantic Web applies to these characteristics as well as it aims at creating a global and decentralized network of machine-readable data. Ensuring the confidentiality, integrity, and availability of this data is therefore also important and must be achieved by corresponding security mechanisms. However, the current reference architecture of the Semantic Web does not define any particular security mechanism yet which implements these requirements. Instead, it only contains a rather abstract representation of security.
This thesis fills this gap by introducing three different security mechanisms for each of the identified security requirements confidentiality, integrity, and availability of Semantic Web data. The mechanisms are not restricted to the very basics of implementing each of the requirements and provide additional features as well. Confidentiality is usually achieved with data encryption. This thesis not only provides an approach for encrypting Semantic Web data, it also allows to search in the resulting ciphertext data without decrypting it first. Integrity of data is typically implemented with digital signatures. Instead of defining a single signature algorithm, this thesis defines a formal framework for signing arbitrary Semantic Web graphs which can be configured with various algorithms to achieve different features. Availability is generally supported by redundant data storage. This thesis expands the classical definition of availability to compliant availability which means that data must only be available as long as the access request complies with a set of predefined policies. This requirement is implemented with a modular and extensible policy language for regulating information flow control. This thesis presents each of these three security mechanisms in detail, evaluates them against a set of requirements, and compares them with the state of the art and related work.
Statistical Shape Models (SSMs) are one of the most successful tools in 3Dimage analysis and especially medical image segmentation. By modeling the variability of a population of training shapes, the statistical information inherent in such data are used for automatic interpretation of new images. However, building a high-quality SSM requires manually generated ground truth data from clinical experts. Unfortunately, the acquisition of such data is a time-consuming, error-prone and subjective process. Due to this effort, the majority of SSMs is often based on a limited set of this ground truth training data, which makes the models less statistically meaningful. On the other hand, image data itself is abundant in clinics from daily routine. In this work, methods for automatically constructing a reliable SSM without the need of manual image interpretation from experts are proposed. Thus, the training data is assumed to be the result of any segmentation algorithm or may originate from other sources, e.g. non-expert manual delineations. Depending on the algorithm, the output segmentations will contain errors to a higher or lower degree. In order to account for these errors, areas of low probability of being a boundary should be excluded from the training of the SSM. Therefore, the probabilities are estimated with the help of image-based approaches. By including many shape variations, the corrupted parts can be statistically reconstructed. Two approaches for reconstruction are proposed - an Imputation method and Weighted Robust Principal Component Analysis (WRPCA). This allows the inclusion of many data sets from clinical routine, covering a lot more variations of shape examples. To assess the quality of the models, which are robust against erroneous training shapes, an evaluation compares the generalization and specificity ability to a model build from ground truth data. The results show, that especially WRPCA is a powerful tool to handle corrupted parts and yields to reasonable models, which have a higher quality than the initial segmentations.