Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (469)
- Ausgabe (Heft) zu einer Zeitschrift (352)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (189)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (14)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1134)
- Englisch (533)
- Mehrsprachig (4)
- Spanisch (2)
- (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (174)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (143)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (56)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Künstliche Intelligenzen werden immer öfter erfolgreich in Spielen angewendet. Sie benötigen aber, je nach Komplexität des Spiels, viel Rechenleistung, um gute Ergebnisse erzielen zu können. Daher wird in dieser Arbeit ein Strategy Learning-System implementiert, welches auf der Basis von Crowd-Learned Heuristiken funktioniert. Die Heuristiken sind dabei in einem Wiki hinterlegt. Die Forschung wird nach der Design Science Research Methodology betrieben. Das implementierte System wird auf das Spiel Dominion angewandt, wofür eine Dominion-Ontologie definiert wird. Für die Implementation wird eine Mappingsprache definiert, mit der Informationen aus einem Wiki in eine Ontologie übertragen werden können. Zudem werden Metriken definiert, mit der die ermittelten Strategien bewertet werden können. Im System können Nutzer zum einen ein Mapping für die Informations-Übertragung angeben und anwenden und zum anderen für Dominion eine Menge an Karten auswählen, in der Strategien ermittelt werden sollen. Das System wird abschließend evaluiert, indem Dominion-Spieler die vom System ermittelten Strategien und die erarbeiteten Metriken bewerten.
Speziell in Anwendungen mit intensiver Temperatur- und Korrosionsbeanspruchung finden vermehrt Phosphate als sogenannte chemische Binder für Hochleistungskeramiken Verwendung. Konkret ist die Summe der Reaktionsverläufe während des Bindemechanismus in Folge einer thermisch-induzierten Aushärtung und somit die Wirkungsweise von Phosphatbindern prinzipiell innerhalb der Fachliteratur nicht eindeutig untersucht. Innerhalb dieser Arbeit wurden aufbauend auf einer umfangreichen strukturanalytischen Prüfungsanordnung (Festkörper-NMR, RBA, REM-EDX) einer exemplarischen phosphatgebundenen Al₂O₃-MgAl₂O₄-Hochtemperaturkeramikzusammensetzung unter Einbeziehung verschiedenartiger anorganischer Phosphate grundlegende Bindemechanismen charakterisiert. Mechanisch-physikochemische Eigenschaftsuntersuchungen (STA, Dilatometrie, DMA, KBF) deckten zudem den Einfluss der eingesetzten Phosphate auf die Eigenschaftsentwicklungen der Feuerfestkeramiken bezüglich des Abbindeverhaltens, der Biegefestigkeit sowie der thermischen Längenänderung auf, welche mit Strukturänderungen korreliert wurden. Es wurde gezeigt, dass sich Bindemechanismen bei Verwendung von Phosphaten temperaturgeleitet (20 °C ≤ T ≤ 1500 °C) grundsätzlich aus zwei parallel ablaufenden Reaktionsabfolgen zusammensetzen, wobei die sich entwickelnden Phosphatphasen innerhalb der Keramikmasse quantitativ und qualitativ bezüglich ihrer Bindewirkung bewertet wurden. Zum einen wurde die Bildung eines festigkeitssteigernden Bindenetzwerks aus Aluminiumphosphaten meist amorpher Struktur identifiziert und charakterisiert. Dieses bindungsfördernde, dreidimensionale Aluminiumphosphatnetzwerk baut sich innerhalb der Initialisierungs- und Vernetzungsphasen temperaturgeleitet kontinuierlich über multiple Vernetzungsreaktionen homogen auf. Zum anderen werden Reaktionsabfolgen durch parallel ablaufende Strukturumwandlungen nicht aktiv-bindender Phosphatspezies wie Magnesium-, Calcium- oder Zirkoniumphosphate ergänzt, welche lediglich thermische Umwandlungsreaktionen der Ausgangsphosphate darstellen. Vermehrt bei T > 800 °C geht das phosphatische Bindenetzwerk Festkörperreaktionen mit MgAl₂O₄ unter Ausbildung und Agglomeration von Magnesium-Orthophosphat-Sinterstrukturen ein. Die Bildung dieser niedrigschmelzenden Hochtemperaturphasen führt zu einem teilweisen Bruch des Bindenetzwerks.
Student misbehavior and its treatment is a major challenge for teachers and a threat to their well-being. Indeed, teachers are obliged to punish student misbehavior on a regular basis. Additionally, teachers’ punishment decisions are among the most frequently reported situations when it comes to students’ experiences of injustice in school. By implication, it is crucial to understand teachers’ treatment of student misbehavior vis-à-vis students’ perceptions. One key dimension of punishment behavior reflects its underlying motivation and goals. People generally intend to achieve three goals when punishing misbehavior, namely, retribution (i.e., evening out the harm caused), special prevention (i.e., preventing recidivism of the offender), and general prevention (i.e., preventing imitation of others). Importantly, people’s support of these punishment goals is subject to hierarchy and power, implying that teachers’ and students’ punishment goal preferences differ. In this dissertation, I present three research projects that shed first light on teachers’ punishment and its goals along with the students’ perception of classroom intervention strategies pursuing these goals. More specifically, I first examined students’ (i.e., children’s) general support of each of the three punishment goals sketched above. Furthermore, I applied an attributional approach to understand and study the goals teachers intend to achieve when punishing student misbehavior. Finally, I investigated teachers’ and students’ support of the punishment goals regarding the same student misbehavior to directly compare their views on these goals and reactions pursuing them. In sum, the findings show that students generally prefer retribution and special prevention to general prevention, whereas teachers prefer general prevention and special prevention to retribution. This ultimately translates into a "mismatch" of teachers and students in their preferences for specific punishment goals, and the findings suggest that this may indeed enhance students’ perception of injustice. Overall, the results of the present research program may be valuable for the development of classroom intervention strategies that may reduce rather than enhance conflicts in student-teacher-interactions.
The distributed setting of RDF stores in the cloud poses many challenges. One such challenge is how the data placement on the compute nodes can be optimized to improve the query performance. To address this challenge, several evaluations in the literature have investigated the effects of existing data placement strategies on the query performance. A common drawback in theses evaluations is that it is unclear whether the observed behaviors were caused by the data placement strategies (if different RDF stores were evaluated as a whole) or reflect the behavior in distributed RDF stores (if cloud processing frameworks like Hadoop MapReduce are used for the evaluation). To overcome these limitations, this thesis develops a novel benchmarking methodology for data placement strategies that uses a data-placement-strategy-independent distributed RDF store to analyze the effect of the data placement strategies on query performance.
With this evaluation methodology the frequently used data placement strategies have been evaluated. This evaluation challenged the commonly held belief that data placement strategies that emphasize local computation, such as minimal edge-cut cover, lead to faster query executions. The results indicate that queries with a high workload may be executed faster on hash-based data placement strategies than on, e.g., minimal edge-cut covers. The analysis of the additional measurements indicates that vertical parallelization (i.e., a well-distributed workload) may be more important than horizontal containment (i.e., minimal data transport) for efficient query processing.
Moreover, to find a data placement strategy with a high vertical parallelization, the thesis tests the hypothesis that collocating small connected triple sets on the same compute node while balancing the amount of triples stored on the different compute nodes leads to a high vertical parallelization. Specifically, the thesis proposes two such data placement strategies. The first strategy called overpartitioned minimal edge-cut cover was found in the literature and the second strategy is the newly developed molecule hash cover. The evaluation revealed a balanced query workload and a high horizontal containment, which lead to a high vertical parallelization. As a result these strategies showed a better query performance than the frequently used data placement strategies.
Stylized image triangulation
(2019)
Die stilisierte Triangulierung ist ein beliebtes Stilmittel bei der Abstraktion von Bildern. Ergebnisse sind auf Covern von Magazinen zu finden oder als Kunstwerk zu kaufen. Eingesetzt wird diese Stilisierung auch bei mobilen Anwendungen oder gar bei Programmen, die sich ausschließlich mit der automatisierten Triangulation befassen.
Diese Arbeit basiert auf einer Veröffentlichung, die die adaptive dynamische Triangulierung als Optimierungsproblem versteht und damit, hinsichtlich der visuellen und technischen Qualität, neue Ergebnisse erzielt. Ziel dieser Arbeit ist es, dieses Verfahren möglichst vielen Nutzern zugänglich zu machen. Dazu wird eine mobile Anwendung - Mesh - entworfen und umgesetzt. Ein Host-Client System wird entwickelt, um die ressourcenbedürftige Berechnung nicht auf dem mobilen Endgerät ausführen zu müssen. Im Zuge dessen wird das Verfahren für die CPU portiert und zusätzlich ein Webserver entwickelt, der die Kommunikation zwischen dem Triangulierungsverfahren und der mobilen Anwendung herstellt. Die App «Mesh» bietet die Möglichkeit, ein beliebiges Bild zu dem Server zu senden, das nach der Bearbeitung heruntergeladen werden kann.
Ein Forschungsaspekt der Arbeit thematisiert die Optimierung des Verfahrens. Dafür wird der Gradientenabstieg, der die Energieminimierung durchführt, anhand verschiedener Ansätze untersucht. Die Einschränkung der Schrittmöglichkeiten, diagonale Schrittrichtungen und eine dynamische Neupositionierung werden getestet. Es zeigt sich, dass sich bei diagonaler Schrittrichtung, anstatt horizontaler und vertikaler, keine Verbesserung verzeichnen lässt. Die Einschränkung der Schrittrichtung, dass ein Punkt seine vorherige Position nicht erneut einnehmen kann, verursacht einen Verlust an optischer Qualität. Jedoch wird der globale angestrebte Approximationsfehler in kürzerer Zeit erreicht. Die vektorbasierte Variante der flexiblen Schrittrichtung resultiert mit längerer Berechnungszeit in qualitativ hochwertigeren Ergebnissen, sodass ästhetischere Resultate erzielt werden.
Ein weiterer Bestandteil dieser Arbeit setzt sich mit der Imitation eines Kunststils auseinander. Die Werke von Josh Bryan dienen als Inspiration. Mittels eines GLSL-Shaders soll durch die Verwendung von Pseudozufälligkeit ein natürlicheres Aussehen einer schraffierten Triangulierung erreicht werden. Ergebnisse zeigen, dass der Ansatz Möglichkeiten der Verbesserung aufweist, dass jedoch eine präzisere Triangulierung für eine hochwertige Imitation notwendig ist. Als letzter Bestandteil wird ein Renderstil präsentiert, der ausgehend von einem beliebigen Ausgangspunkt, die Dreiecke der Triangulation versetzt, sodass Lücken entstehen. Durch die freie Wahl des Zentrums des Effekts, ist ein Einsatz bei Animationen denkbar.
This Master Thesis is an exploratory research to determine whether it is feasible to construct a subjectivity lexicon using Wikipedia. The key hypothesis is that that all quotes in Wikipedia are subjective and all regular text are objective. The degree of subjectivity of a word, also known as ''Quote Score'' is determined based on the ratio of word frequency in quotations to its frequency outside quotations. The proportion of words in the English Wikipedia which are within quotations is found to be much smaller as compared to those which are not in quotes, resulting in a right-skewed distribution and low mean value of Quote Scores.
The methodology used to generate the subjectivity lexicon from text corpus in English Wikipedia is designed in such a way that it can be scaled and reused to produce similar subjectivity lexica of other languages. This is achieved by abstaining from domain and language-specific methods, apart from using only readily-available English dictionary packages to detect and exclude stopwords and non-English words in the Wikipedia text corpus.
The subjectivity lexicon generated from English Wikipedia is compared against other lexica; namely MPQA and SentiWordNet. It is found that words which are strongly subjective tend to have high Quote Scores in the subjectivity lexicon generated from English Wikipedia. There is a large observable difference between distribution of Quote Scores for words classified as strongly subjective versus distribution of Quote Scores for words classified as weakly subjective and objective. However, weakly subjective and objective words cannot be differentiated clearly based on Quote Score. In addition to that, a questionnaire is commissioned as an exploratory approach to investigate whether subjectivity lexicon generated from Wikipedia could be used to extend the coverage of words of existing lexica.
In dieser Arbeit werden jeweils ein Verfahren aus den beiden Bereichen der Bildregistrierung implementiert und beschrieben. Eine direkte und eine merkmalsbasierte Methode werden verglichen und auf ihre Grenzen hin überprüft. Die implementierten Verfahren funktionieren gut und registrieren beide verschiedene Bildserien subpixelgenau. Bei der direkten Methode ist vor allem die Wahl des Transformationsmodells ausschlaggebend. Auch das Einbetten der Methode in eine Gaußpyramidenstruktur hat sich als wichtig herausgestellt. Da die merkmalsbasierte Methode aus verschiedenen Komponenten aufgebaut ist, kann jeder einzelne Schritt durch unterschiedliche Verfahren ausgetauscht werden, so z.B. die Detektion der Merkmale durch Tomasi-Kanade, SIFT oder Moravec. In der direkten Methode kann die Genauigkeit der Ergebnisse zum einen durch den gewählten Schwellwert und zum anderen durch die Anzahl der Pyramidenstufen beeinflusst werden. Bei der merkmalsbasierten Methode wiederum können unterschiedlich viele Merkmale benutzt werden, die einen unterschiedlich hohen Schwellwert besitzen können. Es wird gezeigt, dass beide Methoden zu guten Ergebnissen führen, wenn davon ausgegangen wird, dass die Verschiebung sowie die Rotation gering sind. Bei stärkeren Veränderungen jedoch wird die direkte Methode recht ungenau, während die merkmalsbasierte Methode noch gute Ergebnisse erzielt. An ihre Grenze gerät sie erst, wenn entweder der Bildinhalt sich stark ändert, oder die Rotationen einen Winkel von 20° überschreitet. Beide Verfahren arbeiten also subpixelgenau, können aber unter verschiedenen Voraussetzungen zu Ungenauigkeiten führen. Werden die jeweiligen Probleme der beiden Methoden beachtet und am besten bei der Aufnahme oder vor der Registrierung eliminiert, so können sehr gute Ergebnisse erzielt werden.
Increasingly, problematic smartphone use behavior (PSU) and excessive consumption are reported. In this study, an experiment was developed to investigate the influence of screen coloration using the grayscale setting on smartphone usage time in repeated measurements. We also investigated how individuals perceived suffering correlates with smartphone usage time and PSU, and whether differences exist by smartphone usage type (social, process, habitual). 240 subjects completed a questionnaire about smartphone usage time, PSU, perceived suffering, and smartphone usage types. Afterward, their smartphones were switched to grayscale setting for at least 24h, and thereafter 92 of these participants completed the second questionnaire. Analyses showed that grayscale setting decreases usage time and that there is a positive correlation between PSU, smartphone usage duration, and perceived suffering. The types of use (process and habitual) influence one’s perceived suffering. Thus, it shows that individuals are aware of their PSU and suffer from it. Using grayscale setting is effective in reducing smartphone use time.
Mittels facettierter Suche lassen sich große, unbekannte Datensätze einfach und gezielt erkunden. Bei der Implementation von Anwendungen für Smartphones ist zu beachten, dass im Gegensatz zu Desktop-Anwendungen ein kleinerer Bildschirm und nur beschränkte Möglichkeiten zur Interaktion zwischen Benutzer und Smartphone zur Verfügung stehen. Diese Beschränkungen können die Benutzbarkeit einer Anwendung negativ beeinflussen. Mit FaThumb und MobileFacets existieren zwei mobile Anwendungen, die die facettierte Suche umsetzen und verwenden, aber nur MobileFacets ist für gegenwärtige Smartphones mit Touchscreenbildschirm ausgelegt.
Jedoch bietet FaThumb eine neuartige Facettennavigation, die durch MFacets in dieser Arbeit für aktuelle Smartphones neu realisiert wird. Außerdem befasst sich diese Arbeit mit der Durchführung einer summativen Evaluation zwischen den beiden Anwendungen, MFacets und MobileFacets, bezüglich der Benutzbarkeit und präsentiert die ausgewerteten Ergebnisse.
Der Bereich der Annotation von digitalen Medien ist umfassend erforscht. Es gibt viele verschiedene innovative Ideen Annotationsprozesse zu gestalten. Den wahrscheinlich größten Anteil an verwandten Arbeiten hat die semiautomatische Annotation. Eine Eigenschaft aber ist allen Arbeiten gemein: Keine dieser Arbeiten untersucht, wie man ein Interface für einen Annotationsprozess optimieren kann, um den Nutzer zu unterstützen und folglich zufriedener zu machen. Die hier vorliegende Arbeit versucht im Rahmen einer Benutzerstudie die Usability Eigenschaften von verschiedenen Interface Varianten zu vergleichen, um anschließend Aussagen darüber machen zu können, welche Funktionen ein Annotationsinterface haben sollte und darf, um eben genau diese betreffenden Anforderungen zu erfüllen. Hierzu wurden verschiedene Ideen für Interfaces gesammelt, im Rahmen einer Diskussionsrunde mit Experten erörtert und letztendlich basierend auf den verbliebenen Ideen Variablen festgelegt, mit deren Kombination untereinander verschiedene Interfaces entstanden sind. Im Rahmen dieser Nutzerstudie konnte die Tendenz festgestellt werden, dass eine Autocompletion Funktion und Tag-Vorschläge während der Annotation hilfreich für den Nutzer sind. Außerdem konnte festgestellt werden, dass eine farbige Kennzeichnungen von Tag-Typen nicht störend auf den Nutzer wirken, sondern sich Ansätze in Richtung hilfreich erwiesen. Ähnliche Tendenzen wurden für ein Layout mit nur 2 User Interface Elementen aus den Daten abgelesen. Des weiteren konnte mit Hilfe der Evaluation ein weiteres Beispiel dafür gefunden werden, dass es zum Teil erhebliche Unterschiede zwischen den Nutzern gibt, was intuitiv ist und was nicht. Für die Gestaltung von zukünftigen Annotationsinterfaces bedeuten die Erkenntnisse, dass weitere Nutzerstudien im Bereich der Annotationsinterfaces durchgeführt und bei der Gestaltung der Interfaces von klassischen Merkmalen, im Sinne der Nutzerzufriedenheit, abgewichen werden darf.
Previous research concerned with early science education revealed that guided play can support young children’s knowledge acquisition. However, the questions whether guided play maintains other important prerequisites such as children’s science self-concept and how guided play should be implemented remain unanswered. The present dissertation encompasses three research articles that investigated 5- to 6-year-old children’s science knowledge, science theories, and science self-concept in the stability domain and their relation to interindividual prerequisites. Moreover, the articles examined whether children’s science knowledge, science theories, and science self-concept can be supported by different play forms, i.e., guided play with material and verbal scaffolds, guided play with material scaffolds, and free play. The general introduction of the present dissertation first highlights children’s cognitive development, their science self-concept, and interindividual prerequisites, i.e., fluid and crystallised intelligence, mental rotation ability, and interest in block play. These prerequisites are applied to possible ways of supporting children during play. The first article focused on the measurement of 5-to-6-year-old children’s stability knowledge and its relation to interindividual prerequisites. Results suggested that children’s stability knowledge could be measured reliably and validly, and was related to their fluid and crystallised intelligence. The second article was concerned with the development of children’s intuitive stability theories over three points of measurement and the effects of guided and free play, children’s prior theories as well as their intelligence on these intuitive theories. Results implied that guided play with material and verbal scaffolds supported children’s stability theories more than the other two play forms, i.e., guided play with material scaffolds and free play. Moreover, consistency of children’s prior theories, their fluid and crystallised intelligence were related to children’s theory adaptation after the intervention. The third article focused on the effect of the playful interventions on children’s stability knowledge and science self-concept over three points of measurement. Furthermore, the reciprocal effects between knowledge acquisition and science self-concept were investigated. Results implied that guided play supported knowledge acquisition and maintained children’s science self-concept. Free play did not support children’s stability knowledge and decreased children’s science self-concept. No evidence for reciprocal effects between children’s stability knowledge and their science self-concept was found. Last, in a general discussion, the findings of the three articles are combined and reflected amidst children’s cognitive development. Summarising, the present dissertation shows that children’s science knowledge, science theories, and science self-concept can be supported through guided play that considers children’s cognitive development.
Verschiedene Methoden (Gewichtsverlust, elektrochemische und Sprühkorrosionsmessungen) wurden eingesetzt, um die Korrosionsinhibierung von vier Sarkosinderivaten und einer kommerziellen Verbindung als Synergist zu bewerten. Das Basismetall war kohlenstoffarmer Stahl CR4, der unter verschiedenen Bedingungen getestet wurde. Als Arbeitsmedien wurden hauptsächlich neutrales Wasser und 0.1 M NaCl eingesetzt. Der Schutzfilm wurde auf der Stahloberfläche durch direkte Apsorption der Prüfsubstanzen während des Eintauchprozesses gebildet. Ein stark verbesserter Korrosionsschutz mit direkter Korrelation zwischen Molekulargewicht und Kohlenstoffkettenlänge der Prüfsubstanzen konnte nachgewiesen werden. Die Schutzwirkung der ausgewählten Sarkosinverbindungen auf Stahl CR4 erhöht sich in 0.1 M NaCl mit zunehmender Konzentration. In allen getesteten Methoden und Konzentrationen erwies sich Oleoylsarcosin (O) als bester Inhibitor. Es wurden Wirksamkeiten bis zu 97 % in der potentiodynamischen Polarisation (PP), 83 % bei der elektrochemische Impedanzspektroskopie (EIS) und 85 % in der Gewichtsabnahme (WL) bei 100 mmol/L als höchster hier getesteten Konzentration erzielt. Der zweitbeste Inhibitor ist Myristoylsarcosin (M) mit Effektivitäten bis zu 82 % in PP, 69 % in EIS und 75 % in WL ebenfalls bei der höchsten Konzentration. Der Inhibitor mit der kürzesten Kette in dieser Testreihe ist Lauroylsarcosin (L). L ergab Schutzwirkungen von etwas über 50 % bei 75 und 100 mmol/L und unter 50 % bei 25 und 50 mmol/L in allen angewandten Methoden. Zudem werden die Gesamteffizienzen aller verwendeten Prüfsubstanzen durch längere Einwirkzeiten beim Eintauchen der CR4 Stahlproben erhöht, wie für 50 mmol/L gezeigt werden konnte. Die Untersuchung ergab 10 Minuten als beste Zeit bezüglich Kosten- und Schutzeffizienz. Der kommerzielle Inhibitor Oley-Imidazol (OI) verbesserte die Wirksamkeit von Cocoylsarcosin (C), der natürlichen Mischung aus Kokosnussöl mit Kohlenstoffkettenlängen von C8 - C18, und verbesserte den Schutz in einer 1:1 (mol) Kombination (C+OI). Hierbei stieg der Wirkungsgrad von 47 % auf 91 % in PP, von 40 % auf 84 % in EIS und von 45 % auf 82 % in WL bei der höchsten Konzentration. Mit Hilfe von Sprühkorrosionstests wurden alle vorliegenden Sarkosinsubstanzen auf Stahl CR4 in einem realistischeren System untersucht. Der beste Inhibitor nach einem 24 Stunden-Test war O, gefolgt von der Kombination C+OI und M mit entsprechenden Wirkungsgraden von bis zu 99 % (O), 80 % (C+OI) bzw. 79 % (M). Die erhaltenen Ergebnisse zeigen eine gute Stabilität der Prüfsubstanzen bezüglich des gebildeten Schutzfilms auch nach 24 h. Alle verwendeten Methoden ergaben in der aktuellen Untersuchung übereinstimmende Ergebnisse und die gleiche Reihenfolg der Inhibitoren. Darüber hinaus wird angenommen, dass der Adsorptionsprozess der Prüfsubstanzen der Langmuir-Isotherme folgt. Die Response Surface Methodik (RSM) ist eine vom Box-Behnken Design (BBD) abhängige Optimierungsmethode. Diese wurde im aktuellen System angewandt, um die optimale Effektivität für Inhibitor O beim Korrosionsschutz von Stahl CR4 in Salzwasser zu ermitteln. Hierfür wurden vier unabhängige Variablen benutzt: Inhibitorkonzentration (A), Tauchbeschichtungszeit (B), Temperatur (C) und NaCl-Konzentration (D); jeweils in drei Stufen: untere (-1), mittlere (0) und obere (+1). Nach dem vorliegenden Ergebnis hat die Temperatur als Einzelparameter den größten Einfluss auf den Schutzprozess, gefolgt von der Inhibitorkonzentration. Anhand der Berechnung ergibt sich ein optimaler Wirkungsgrad von 99 % durch folgende Parameter- und Pegelkombination: oberer Wert (+1) jeweils für Inhibitorkonzentration, Tauchbeschichtungszeit und NaCl-Konzentration sowie ein unterer Wert (-1) für die Temperatur.
The status of Business Process Management (BPM) recommender systems is not quite clear as research states. The use of recommenders familiarized itself with the world during the rise of technological evolution in the past decade.Ever since then, several BPM recommender systems came about. However, not a lot of research is conducted in this field. It is not well known to what broad are the technologies used and how are they used. Moreover, this master’s thesis aims at surveying the BPM recommender systems existing. Building on this, the recommendations come in different shapes. They can be positionbased where an element is to be placed at an element’s front, back or to autocomplete a missing link. On the other hand, Recommendations can be textual, to fill the labels of the elements. Furthermore, the literature review for BPM recommender systems took place under the guides of a literature review framework. The framework suggests 5stages of consecutive stages for this sake. The first stage is defining a scope for the research. Secondly, conceptualizing the topic by choosing key terms for literature research. After that in the third stage, comes the research stage.As for the fourth stage, it suggests choosing analysis features over which the literature is to be synthesized and compared. Finally, it recommends defining the research agenda to describe the reason for the literature review. By invoking the mentioned methodology, this master’s thesis surveyed 18 BPM recommender systems. It was found as a result of the survey that there
are not many different technologies for implementing the recommenders. It was also found that the majority of the recommenders suggest nodes that are yet to come in the model, which is called forward recommending. Also, one of the results of the survey indicated the scarce use of textual recommendations to BPM labels. Finally, 18 recommenders are considered less than excepted for a developing field therefore as a result, the survey found a shortage in the number of BPM recommender systems. The results indicate several shortages in several aspects in the field of BPM recommender systems. On this basis, this master’s thesis recommends the future work on it the results.
In Anbetracht der wachsenden Zahl an gesetzlichen Regelungen, die Unternehmen betreffen, sollte ihnen die Möglichkeit geboten werden ihr Compliance Management durch Softwareunterstützung mithilfe von Regulationsmustern umzusetzen. Damit sie eine unternehmensinterne Effizienzsteigerung durchführen oder auf neue gesetzliche Regelungen schnell reagieren können, existieren Regulationsmuster, die Prozessfragmente strukturell und inhaltlich beschreiben. Derzeit existieren einige Forschungsbeiträge, die unterschiedliche Compliance Pattern diskutieren. Jedoch existiert zurzeit kein Katalog, der eine Liste von Regulationsmustern bereitstellt, die für Unternehmen von Bedeutung sind (Delfmann and Hübers, 2015). Die vorliegende Bachelorarbeit klassifiziert 80 Forschungsbeiträge hinsichtlich deren unterschiedlichen Ansätze von Compliance Pattern und stellt diese in einem Klassifikationszusammenhang dar. Zusätzlich werden die unternehmerischen Vorteile durch den Einsatz von Regulationsmuster dargelegt. Dafür wurde eine systematische Literaturanalyse vollzogen. Diese zeigt, dass vermehrt auf graphenbasierte Regulationsmuster in Kombination mit dem Überprüfungszeitpunkt während des Prozessdesigns zurückgegriffen wird. Im Anhang wird außerdem ein Katalog von 32 Compliance Pattern bereitgestellt, die in den analysierten Forschungsbeiträgen erfasst wurden.
Sustainable Leadership
(2023)
Thematik:
Die vorliegende Forschungsarbeit befasst sich mit dem Thema Sustainable Leadership. Dieses Forschungsgebiet der nachhaltigkeitsorientierten Forschung hat in den letzten Jah- ren durch die immer stärker werden Auswirkungen des Klimawandels erheblich an Bedeutung gewonnen. In diesem Zusammenhang rücken Unternehmen immer mehr in den Fokus. Diese müssen nun Wege und Methoden finden, die ihre Arbeitsweise und Prozesse nachhaltiger und umweltschonender gestalten. Die in der vorliegenden Arbeit zu untersuchende Forschungsfrage lautet: „Wie gestaltet sich ein Sustainable Leadership Ansatz in Unternehmen?“ Aufbauend auf dieser übergeordneten Forschungsfrage werden in untergeordneten Forschungsfrage insbesondere Merkmale, Kompetenzen und Verhaltensweisen eines nachhaltigkeitsorientierten Führungsstils betrachtet.
Methodik:
Die Forschungsmethodik der vorliegenden Arbeit ist eine qualitative Inhaltsanalyse nach Mayring (2019). Mittels semistrukturierter Interviews wurden Führungspersönlichkeiten aus Großunternehmen befragt. Auf Grundlage dieses Datenmaterials wurden induktive Kategorien abgeleitet und qualitativ analysiert und interpretiert.
Ergebnisse:
Die Ergebnisse der empirischen Forschung wurden in insgesamt fünf Oberkategorien mit jeweils zwei Unterkategorien zusammengefasst. Es wurden die theoretischen Erkennt- nisse des Forschungsbereichs mit den praktischen Erkenntnissen aus den durchgeführten Interviews ergänzt und interpretiert. Des Weiteren wurden die Ergebnisse aus Sicht einer holistischen Unternehmensperspektive in einem konzeptionellen Ansatz modelliert. Ab- schließend wurden aus den Praxiserfahrungen einige Handlungsempfehlungen formuliert und die Merkmale, Kompetenzen, Verhaltensweisen und Auswirkungen eines nachhal- tigkeitsorientierten Führungsstils diskutiert.
In der vorliegenden Arbeit wird die Synthese von N-Phenacylpyridinium-Salzen und deren Eignung als Photoinitiatoren für die Umsetzung von Epoxidgruppen beschrieben. In vorangehenden Untersuchungen werden Phenacyl-Salze als Photoinitiatoren für die kationische Polymerisation von Epoxidharz-Systemen beschrieben. Die Einflüsse der einzelnen Bestandteile der beschriebenen Photoinitiatoren sind insbesondere im Hinblick auf die Kinetik des Epoxidgruppen-Umsatzes noch nicht ausreichend erforscht. Als Grundlage für alle Verbindungen der vorliegenden Arbeit wird das N-Phenacylpyridinium-Salz gewählt und mittels Substituenten und dem Austausch der Gegenionen an verschiedenen Stellen variiert. Die Untersuchung der Einflüsse der jeweiligen Substituenten mit Fokus auf den Umsatz der Epoxidgruppen zeigt eine Abhängigkeit von drei wesentlichen Faktoren. Ein Faktor ist dabei das Substitutionsmuster der Phenacylgruppe. Anhand der gezielten Einführung von Phenyl- und Methyl-Substituenten wird Einfluss auf die Kinetik des Photolyse-Prozesses genommen. Die beiden weiteren Faktoren stellen dabei die Variation der Pyridin-Derivate und der Gegenionen dar. Je nachdem welche Pyridin-Derivate und Gegenionen eingesetzt werden, wird die Kinetik des Epoxidgruppen-Umsatzes beschleunigt oder gehemmt. Dabei stellt sich heraus, dass Pyridin-Derivate mit Substituenten, die −I- und −M-Effekte ausbilden, und Gegenionen, die starke Säuren bilden können, einen beschleunigenden Einfluss haben. Im Gegensatz dazu zeigen Pyridin-Derivate mit Substituenten, die einen +M-Effekt ausbilden, eine hemmende Wirkung auf den Epoxidgruppen-Umsatz.
Die ermittelten Umsatzraten und die Einarbeitung in eine Klebstoffformulierung zeigen, dass ausgewählte Verbindungen aus der vorliegenden Arbeit geeignete Photoinitiatoren zur Umsetzung von Epoxidharz-Systemen darstellen.
The E-KRHyper system is a model generator and theorem prover for first-order logic with equality. It implements the new E-hyper tableau calculus, which integrates a superposition-based handling of equality into the hyper tableau calculus. E-KRHyper extends our previous KRHyper system, which has been used in a number of applications in the field of knowledge representation. In contrast to most first order theorem provers, it supports features important for such applications, for example queries with predicate extensions as answers, handling of large sets of uniformly structured input facts, arithmetic evaluation and stratified negation as failure. It is our goal to extend the range of application possibilities of KRHyper by adding equality reasoning.
Betriebswirtschaftliche Trends wie der Wandel auf Käufermärkten, verkürzte Produktlebens- und Innovationszyklen, steigende Kundenanforderungen und immer leistungsfähiger werdende Informations- und Kommunikationstechnologien stellen für Unternehmen anspruchsvolle Herausforderungen dar. "Bis Anfang der 90er Jahre dominierten lokale Optimierungsbemühungen im Rahmen einer auf funktionale Spezialisierung ausgerichteten Aufbauorganisation entsprechend den Überlegungen zu Arbeitsteilung von beispielsweise Smith, Taylor und Ford. Aufgrund der vielfältigen Probleme dieses Ansatzes - insbesondere Schnittstellenbildung, demotivierte Mitarbeiter, mangelnde Kundenorientierung und erhöhter Aufwand zur Steuerung und Koordination der funktionalen Einheiten - vollzieht sich seit Beginn der 90er Jahre in den Wirtschaftswissenschaften und der unternehmerischen Praxis ein Paradigmenwechsel weg von der Funktions- hin zur Prozessorientierung." Die anspruchsvollen Probleme können aufgrund ihrer Kompliziertheit nicht mehr durch einfache, lokal anwendbare Maßnahmen gelöst werden. In Zeiten hoher Komplexität und Dynamik werden strategische Planungsaufgaben immer wichtiger für ein langfristig erfolgreiches Management. Entscheidungen mit großer Tragweite müssen im Vorfeld vollständig auf ihre kurz-und langfristigen Auswirkungen innerhalb und außerhalb des Unternehmens überprüft werden. Dabei sind die zeitverzögerten Rückkopplungen besonders wichtig. Es kann vorkommen, dass sich eine kurzfristig erfolgreiche Maßnahme zur Ergebnisverbesserung möglicherweise langfristig extrem negativ auf das Ergebnis auswirkt. System Dynamics, eine Methode zur Untersuchung komplexer, dynamischer Systeme, bietet die Möglichkeit, aus einer Analyse der Systemstruktur und des von ihr verursachten Verhaltens langfristig wirksame Entscheidungsregeln abzuleiten. Dabei werden Unternehmen als offene, äußerst vernetzte soziotechnische Systeme verstanden. System Dynamics, ursprünglich "Industrial Dynamics" genannt, wurde in den 50ern am MasMassachusetts Institute of Technology, MIT, entwickelt. Die Methode nimmt die Komplexität, Nichtlinearität und Rückkopplungsstrukturen, die sozialen und physikalischen Systemen enthalten, als Grundlage. Sie wird inzwischen an einer zunehmenden Zahl von Universitäten gelehrt. Unternehmen und Regierungen nutzen System Dynamics zur Simulation von Management- bzw. Politikentscheidungen. Mit der Hilfe der Methode wird es möglich, komplexe Systeme zu durchschauen, was für Entscheidungsträger eine zunehmende Herausforderung darstellt. Die "System Dynamics Society" ist bemüht, systematisches Denken einer breiten Masse von Anwendern zugänglich zu machen. Die Methode könnte die Menschen dabei unterstützen, die aktuellen Probleme und die langfristigen Auswirkungen des aktuellen Handelns zu verstehen. Die Intention dieser Arbeit ist es nun, zwei betriebswirtschaftliche Anwendungsgebiete der System Dynamics Modellierung mit jeweils einem konkreten Fallbeispiel vorzustellen. Dazu werden zunächst in Kapitel 2 die Grundlagen der Systemtheorie dargestellt. Dabei wird auf die Sichtweise von Forrester fokussiert. Darauf aufbauend wird in Kapitel 3 die die Methode detailliert vorgestellt. Nachdem die historische Entwicklung von System Dynamics aufgezeigt wird, werden die Anwendungsgebiete, die Grundlagen und die Grundsäulen der Modellierung und der Modellierungsprozess dargelegt. Im vierten Kapitel wird das erste Anwendungsgebiet untersucht, in der die System Dynamics Modellierung eingesetzt wird, die Balanced Scorecard, ein populäres Konzept für die Performancemessung in Unternehmen. Nachdem das Konzept vorgestellt wird, werden dessen Grenzen aufgezeigt, die mit der Verknüpfung des System Dynamics Ansatz überwunden werden können. Daraufhin werden die Möglichkeiten der System Dynamics Modellierung erläutert, womit die Schwächen der Balanced Scorecard reduziert werden, bevor anhand eines konkreten Fallbeispiels die Verknüpfung des System Dynamics Modellierung mit dem Balanced Scorecard Konzept vorgestellt wird. Eine abschließende Bewertung über die Anwendung wird dieses Kapitel abschließen. Im nächsten Kapitel wird die Anwendung der System Dynmaics Modellierung im Supply Chain Management untersucht. Zunächst werden die Grundlagen über das Supply Chain Management und Probleme, die damit verbunden sind, erläutert. Anhand des "Beer Game" werden die typischen Koordinationsprobleme mehrstufiger Lieferketten, der Bullwhip Effekt, verdeutlicht. Im nächsten Schritt wird die Anwendung der System Dynamics Modellierung im Supply Chain Management diskutiert, bevor die Umsetzung in einem konkreten Fallbeispiel aufgezeigt wird. Dieses Kapitel schließt mit einer Bewertung über die Anwendung von System Dynamics im Supply Chain Management ab. Mit dem abschließenden Kapitel Fazit wird die Arbeit abgerundet.
A taxonomic revision of the genus Pteris in tropical Africa revealed 26 species. An identification key to the species is provided. Morphological characters were used to prepare a cladistic analysis of the relevant taxa. Each species was evaluated concerning the IUCN red list status. Only Pteris mkomaziensis was considered as Near Threatened, and all other species only as Least Concern. An inventory of the ferns of Kakamega Forest / Kenya and Budongo Forest / Uganda revealed 85 species in Kakamega and 66 species in Budongo. Life form spectra were analysed and the ferns were studied for their value for bioindication.
Dracaena L. (Ruscaceae) is a predominantly African genus with a smaller centre of diversity in South-East Asia. The taxonomy of the 29 species occurring in Central, East and Southern Africa was revised through phenetic and phylogenetic analyses of the morphology as well as through herbarium, literature and field studies. An infrageneric classification is proposed, in which four sub-genera are recognised for the first time. A taxonomic account for the study area incorporating an identification key, distribution maps and an IUCN Red List assessment is presented. Analysis of Dracaena phytogeography reveals that the Guineo-Congolian centre of endemism is the richest with 21 species while the Maputaland-Pondoland regional mosaic and the Guinea-Congolia/Sudania regional transition zone are the poorest, having only one species each. Investigation of the ecology of Dracaena in the Kakamega Forest, Kenya, shows that it plays an important role in the forest ecology and is an indicator of forest quality.
The genus Cheilolejeunea (Spruce) Schiffn. (Lejeuneaceae, Jungermanniopsida) is represented by 23 species in continental tropical Africa. The morphological characters such as features of the stem, leaf, lobule and perianth traditionally used to separate the taxa at both species and generic level have been found to be unstable. The species are variably ranked in several subgenera including Cheilolejeunea (Spruce) Schiffn., Euosmolejeunea Schiffn., Strepsilejeunea (Spruce) Schiffn. and Xenolejeunea Kachroo & Schust. Although the genus has never been monographed, there are a few regional taxonomic accounts for America, Australia and China. A comprehensive revision of Cheilolejeunea species is lacking in Africa where the existing studies are based on single subgenus and sub-regional flora or checklist compilations, which are sometimes without identification keys. This study revises the taxonomy of Cheilolejeunea and the closely allied genus Leucolejeunea A. Evans, in continental Africa based on morphological data analysed using phenetic and phylogenetic methods.
Die vorliegende Arbeir zeichnet eine Kategorisierung der im deutschen Fernsehen und Rundfunk vorhandenen Gewinnspiele auf. Beginnend mit der Erläuterung von grundlegenden Begrifflichkeiten und dem Beleuchten der Verfahren zur Teilnehmerauswahl wird der Leser an das Thema der Arbeit herangeführt. Fortgesetzt wird mit der eigentlichen Darstellung der momentan vorhandenen Gewinnspielformate. Abschließend gibt die Arbeit eine erste Festlegung und Aufrechnung einer Gewinnwahrscheinlichkeit an.
Systematische Untersuchung der Android-Plattform im konzeptuellen Rahmen des 101companies Projektes
(2012)
In der vorliegenden Arbeit untersuche ich die Android-Plattform. Ich demonstriere drei verschiedene Implementationen, die sowohl Features und Technologien des 101companies Projektes abdecken als auch neue Android spezifische Besonderheiten in das Projekt integrieren. Die Implementationen zeigen Anwendungen die in der realen Welt benutzt werden können.
Der immer schnellere technologische Wandel in der Wirtschaft und die damit verbundenen, sich verkürzenden Innovationszyklen machen die Aus- und Weiterbildung der Mitarbeitenden eines Unternehmens zu einem wichtigen Wettbewerbsfaktor. Traditionelle (Weiter-)Bildungsmethoden können jedoch den resultierenden, ständig wachsenden und immer schneller zu befriedigenden Aus- und Weiterbildungsbedarf nur bedingt befriedigen. Deshalb werden in zunehmenden Maße in der Aus- und Weiterbildung Angebote aus dem Bereich des technologiebasierten Lernens eingesetzt, welche ein selbstgesteuertes und -organisiertes Lernen und durch eine Integration in tägliche Arbeitsabläufe einen optimalen Wissenstransfer mit entsprechend hohem Lernerfolg ermöglichen. Um dies aber auch zu realisieren, ist eine entsprechend hohe Angebotsqualität in Bezug auf die Unterstützung der Nutzenden bei der Erreichung ihrer Lernziele erforderlich. Die Entwicklung qualitativ hochwertiger technologiebasierter Lernangebote ist im Allgemeinen aber mit größeren Aufwänden und längeren Entwicklungszeiten verbunden, wodurch eine Verfügbarkeit eines solchen Angebots zeitnah zum entstandenen Bedarf und in der geforderten Qualität oftmals nicht gewährleistet werden kann.
Diese Arbeit beschäftigt sich deshalb mit der Forschungsfrage, wie eine Lernsoftware entwickelt werden muss, um eine qualitativ hochwertige LSW im Sinne der optimalen Ausrichtung auf die Eigenschaften und Lernziele der einzelnen Lernenden sowie auf den von ihnen geplanten Einsatzkontext für das vermittelte Wissen bei gleichzeitiger Reduzierung von Entwicklungsaufwand und -zeit zu produzieren. Die als Antwort auf die Forschungsfrage definierte IntView-Methodik zur systematischen, effizienten und zeitnahen Entwicklung von qualitativ hochwertigen technologiebasierten Lernangeboten wurde konzipiert, um die Wahrscheinlichkeit der Produktion der Angebote ohne Überschreitung von Projektzeitplänen und -budgets bei gleichzeitiger gezielter Ausrichtung des Angebots auf Zielgruppen und Einsatzkontexte zur Gewährleistung der Qualität zu erhöhen.
Hierzu wurden nach einer umfangreichen Untersuchung von bestehenden Ansätzen zur Lernsoftware-Entwicklung, aber auch zur Produktion von verwandten Produkten wie Multimedia-, Web- oder Software-Anwendungen, diejenigen Durchführungsvarianten der Aktivitäten bzw. Aktivitätsschritte zur Lernsoftware-Entwicklung zu einer systematischen Vorgehensweise integriert, welche in ihrem Zusammenspiel den größten Beitrag zu einer effizienten Produktion leisten können. Kern der Methodik ist ein Entwicklungsprozess zur ingenieursmäßigen Erstellung der Angebote, der alle Entwicklungsphasen abdeckt und die Vorgehensweisen und Methoden aller an der Entwicklung beteiligten Fachdisziplinen, inklusive einer kontinuierlichen Qualitätssicherung von Projektbeginn an, in einen gemeinsamen Prozess integriert. Dieser Prozess wird sowohl als Lebenszyklusmodell als auch als daraus abgeleitetes Prozessmodell in Form eines Abhängigkeitsmodells definiert, um eine optimale Unterstützung eines Projektteams bei Koordination und Abstimmung der Arbeiten in der Entwicklung zu ermöglichen. In Ergänzung zu den Modellen wird eine umfassende Arbeitsunterstützung mit Templates bzw. Dokumentvorlagen inklusive Handlungsanweisungen und Beispielen für die direkte Anwendung der Vorgehensweise durch die Nutzenden bereit gestellt.
Im Rahmen der Evaluation der Methodik wird der Nachweis geführt, dass sie im Zusammenspiel mit ihrer umfangreichen Autorenunterstützung eine sowohl effektive als auch effiziente Lernangebot-Entwicklung ermöglichen kann. In den hierfür durchgeführten Beispielprojekten als auch in den durchgeführten drei Fallstudien wird gezeigt, dass die Methodik zum einen an die Erstellung unterschiedlicher Arten von Lernangeboten bzw. an den Einsatz in verschiedenen Projektkontexten einfach anpassbar sowie zum anderen effizient und effektiv nutzbar ist.
Mit dieser Arbeit werden die folgenden Ziele verfolgt: Eine repräsentative Auswahl und Sammlung von Beispielen für Mobile Ticketing Systeme (insbesondere aus dem deutschsprachigen Raum) zu recherchieren, die sich im praktischen Einsatz befinden. Eine Zusammenstellung sinnvoller Kategorien (Charakteristika) zu erarbeiten, anhand derer sich Mobile Ticketing Systeme unterscheiden oder strukturieren lassen. Eine Gegenüberstellung der Beispiele und Kategorien zu erstellen, um zu untersuchen, welche typischen Klassen bei Mobile Ticketing Systemen identifiziert werden können.
Szeneneditor für ein Echtzeitanimationssystem und andere XML konfigurierte und erweiterbare Systeme
(2006)
Generalized methods for automated theorem proving can be used to compute formula transformations such as projection elimination and knowledge compilation. We present a framework based on clausal tableaux suited for such tasks. These tableaux are characterized independently of particular construction methods, but important features of empirically successful methods are taken into account, especially dependency directed backjumping and branch local operation. As an instance of that framework an adaption of DPLL is described. We show that knowledge compilation methods can be essentially improved by weaving projection elimination partially into the compilation phase.
Das Bulletin Esskulturen ist aus dem Verbundprojekt „Esskulturen. Objekte, Praktiken, Semantiken“ hervorgegangen, das im Rahmen der Förderlinie „Sprache der Objekte“ von September 2018 bis August 2021 vom Bundesministerium für Bildung und Forschung finanziert wird. In jeder Ausgabe bildet ein Objekt der Stiftung Bürgerliche Wohnkultur, Sammlung Alex Poignard (Landesmuseum Koblenz) den Ausgangspunkt für eine interdisziplinäre Auseinandersetzung mit unterschiedlichen soziokulturellen Fragen rund um das Thema Essen.
Tafel-Dekorationen. Speisegestaltung und Repräsentation,
Bulletin Esskulturen, 2. Jahrgang 2020, Mappe V, Faszikel 25-30
Inhalt der Ausgabe
Britta Stein, Tafeldekoration = Repräsentation? Einblicke in die Sammlung Alex Poignard
Barbara Weyandt, „Nur Verschwendung bringt Prestige ...“. Tafelaufsätze zwischen Luxus und sozialem Sinn
Stefanie Brüning, Vergängliche Tafelfreuden
Heinz Georg Held, Das stille Leben nach dem Leben. Zur Kunst-Sprache des Tafeldekors
Hans Körner, Eine Runkelrübe als Tischdekoration
Andreas Ackermann, Wein, dekorativ betrachtet. Unter besonderer Berücksichtigung des bundesrepublikanischen Staatsbanketts
Impressum
Data visualization is an effective way to explore data. It helps people to get a valuable insight of the data by placing it in a visual context. However, choosing a good chart without prior knowledge in the area is not a trivial job. Users have to manually explore all possible visualizations and decide upon ones that reflect relevant and desired trend in the data, are insightful and easy to decode, have a clear focus and appealing appearance. To address these challenges we developed a Tool for Automatic Generation of Good viSualizations using Scoring (TAG²S²). The approach tackles the problem of identifying an appropriate metric for judging visualizations as good or bad. It consists of two modules: visualization detection: given a data-set it creates a list of combination of data attributes for scoring and visualization ranking: scores each chart and decides which ones are good or bad. For the later, an utility metric of ten criteria was developed and each visualization detected in the first module is evaluated on these criteria. Only those visualizations that received enough scores are then presented to the user. Additionally to these data parameters, the tool considers user perception regarding the choice of visual encoding when selecting a visualization. To evaluate the utility of the metric and the importance of each criteria, test cases were developed, executed and the results presented.
Taktstraße
(2008)
Eine Taktstraße ermöglicht eine automatisierte Verarbeitung eines Werkstückes mit Hilfe von Förderbändern, Lichtschranken, Schiebern und Bearbeitungsstationen. Für eine vorgegebene Taktstraße wird eine Ansteuerung entwickelt. Dazu wird der Mikrocontroller ATMega16 von Atmel eingesetzt. Ein externer Controller sendet über den TWI-Bus Steuerbefehle an den mit der Taktstraße verbundenen Controller. Um die Taktstraße bedienbar zu machen, wird eine geeignete Platine entworfen sowie eine LCD-Bibliothek als Ausgabe- und Informationsmedium. Die Arbeit umfasst alle für ein Projekt im Rahmen eines Informatikstudiums benötigten Entwicklungsstadien von der Projektplanung über die Aneignung von spezifischem Grundlagenwissen, die Hard- und Softwareentwicklung bis hin zu ausführlichen Entwicklungs- und Testphasen.
Die pan-amazonische Baumfrosch-Gattung Osteocephalus ist unzureichend bearbeitet sowohl bezüglich ihrer Taxonomie, als auch ihrer Phylogenie. Der Status einer Reihe von Arten, die bereits oder noch nicht zu dieser Gattung gezählt werden, ist unklar und die Verwandtschaftsbeziehungen innerhalb der Gattung und zu verwandten Gattungen nicht geklärt. In dieser Arbeit wird O. cabrerai (Cochran and Goin, 1970) aus Kolumbien und Peru nochmals detailliert beschrieben und O. festae (Peracca, 1904) aus einem Anden-Vorgebirge in Ecuador revalidiert. Hyla inframaculata Boulenger, 1882, vom Unterlauf des Amazonas in Brasilien, wird in die Gattung Osteocephalus gestellt und Osteocephalus elkejungingerae (Henle, 1981) vom östlichen Andenrand in Peru wird mit Hyla mimetica (Melin, 1941) als O. mimeticus synonymisiert. Das Taxon Hyla vilarsi Melin, 1941, bisher als Synonym unterschiedlicher Arten betrachtet, wird als valide angesehen und in die Gattung Osteocephalus gestellt. Drei neue Arten werden beschrieben: Osteocephalus castaneicola aus Nord-Bolivien und Süd-Peru, O. duellmani von einer subandinen Bergkette in Süd-Ecuador und O. camufatus aus dem zentralamazonischen Teil Brasiliens. Eine phylogenetische Analyse auf Basis von bis zu neun mitochondrialen und einem Kern-Gen zeigt, dass Osteocephalus bezüglich der Gattung Tepuihyla paraphyletisch ist. Deshalb wird hier eine neue Taxonomie vorgeschlagen, die die Monophylie von Osteocephalus und Tepuihyla sichert. Eine neue Gattung, Dryaderces, wird für die Schwestergruppe von Osteocephalus aufgestellt. Die Färbung frisch metamorphosierter Jungfrösche wird als morphologische Synapomorphie von Osteocephalus angesehen. Fünf monophyletische Artengruppen werden innerhalb der Gattung aufgestellt, drei Arten der Gattung Osteocephalus (O. germani, O. phasmatus, O. vilmae) und drei der Gattung Tepuihyla (T. celsae, T. galani, T. talbergae) synonymisiert, außerdem drei Arten anderen Gattungen zugerechnet (Hyla helenae zu Osteocephalus, O. exophthalmus zu Tepuihyla und O. pearsoni zu Dryaderces gen. n.). Außerdem werden neun potentiell neue Arten identifiziert, was einer Artenzunahme von 138% im Vergleich zur derzeit bekannten Diversität entspräche. Daraus ist zu schließen, dass die tatsächliche Artenzahl weit unterschätzt wird. Unbeschriebene Arten verbergen sich vor allem unter den weit verbreiteten, polymorphen Nominatarten. Die Evolution der Fortpflanzungsstrategien innerhalb der Gattung wird im Licht der neuen Phylogenie diskutiert und ein neuer Amplexustyp (Kehlamplexus) beschrieben.
Zur Entwicklung von Webanwendungen und Webseiten existieren viele verschiedene Technologien und Konzepte. Jede dieser Technologien implementiert bestimmte Anforderungen, wie z.B. das Erzeugen von Inhalten oder die Kommunikation zwischen Client und Server. Verschiedene Konzepte helfen, diese Technologien innerhalb einer Webanwendung zusammenzufügen. Nicht zuletzt Architekturstile und -muster gehören zu diesen Konzepten. Die Diplomarbeit beschreibt einen Ansatz zur Erstellung einer Taxonomie dieser Technologien und Konzepte unter Zuhilfenahme der freien Enzyclopädie Wikipedia, im speziellen der Kategorie "Web-Application Framework". Unser 101companies Projekt benutzt Implementationen, um die einem Web-Application-Framework zugrunde liegenden Technologien zu identifizieren und zu klassifizieren. Innerhalb des Projekts werden Taxonomien und Ontologien mit Hilfe dieser Klassifikationen erstellt. Zusätzlich beschreibt die Ausarbeitung, wie nützliche Web-Application-Frameworks mit der Hilfe von Wikipedia priorisiert werden. Abschließend enthält die Diplomarbeit auch die Dokumentation der betreffenden Implementationen.
The diversity within amphibian communities in cultivated areas in Rwanda and within two selected, taxonomically challenging groups, the genera Ptychadena and Hyperolius, were investigated in this thesis. The amphibian community of an agricultural wetland near Butare in southern Rwanda comprised 15 anuran species. Rarefaction and jackknife analyses corroborated that the complete current species richness of the assemblage had been recorded, and the results of acoustic niche analysis suggested species saturation of the community. Surveys at many other Rwandan localities showed that the species recorded in Butare are widespread in cultivated and pristine wetlands. The species were readily distinguishable using morphological, bioacoustic, and molecular (DNA barcoding) features, but only eight of the 15 species could be assigned unambiguously to nominal species. The remaining represented undescribed or currently unrecognized taxa, including three species of Hyperolius, two Phrynobatrachus species, one Ptychadena species, and one species of Amietia. The diversity of the Ridged Frogs in Rwanda was investigated in two studies (Chapters III and IV). Three species of Ptychadena were recorded in wetlands in the catchment of the Nile. They can be distinguished by morphological characters (morphometrics and qualitative features) as well as by their advertisement calls and genetics. The Rwandan species of the P. mascareniensis group was shown to differ from the topotypic population as well as from other genetic lineages in sub-Saharan Africa and an old available name, P. nilotica, was resurrected from synonymy for this lineage. Two further Ptychadena species were identified among voucher specimens from Rwanda deposited in the collection of the RMCA, P. chrysogaster and P. uzungwensis. Morphologically they can be unambiguously distinguished from each other and the three other Rwandan species. A key based on qualitative morphological characters was developed, which allows unequivocal identification of specimens of all species that have been recorded from Rwanda. DNA was isolated from a Rwandan voucher specimen of P. chrysogaster, and the genetic analysis corroborated the species" distinct status.
A species of Hyperolius collected in the Nyungwe National Park was compared to all other Rwandan species of the genus and to morphologically or genetically similar species from neighbouring countries. Its distinct taxonomic status was justified by morphological, bioacoustic, and molecular evidence and it was described as a new species, H. jackie. A species of the H. nasutus group collected at agricultural sites in Rwanda was described as a new species in the course of a revision of the species of the Hyperolius nasutus group. The group was shown to consist of 15 distinct species which can be distinguished from each other genetically, bioacoustically, and morphologically.
The aerial performance, i.e. parachuting, of the Disc-fingered Reed Frog, Hyperolius discodactylus, was described. It represents a novel observation of a behaviour that has been known from a number of Southeast Asian and Neotropical frog species. Parachuting frogs, including H. discodactylus, exhibit certain morphological characteristics and, while airborne, assume a distinct posture which is best-suited for maneuvering in the air. Another study on the species addressed the validity of the taxon H. alticola which had been considered either a synonym of H. discodactylus or a distinct species. Type material of both taxa was re-examined and the status of H. alticola reassessed using morphological data from historic and new collections, call recordings, and molecular data from animals collected on recent expeditions. A northern and a southern genetic clade were identified, a divide that is weakly supported by diverging morphology of the vouchers from the respective localities. No distinction in advertisement call features could be recovered to support this split and both genetic and morphological differences between the two geographic clades are marginal and not always congruent and more likely reflect population-level variation. Therefore it was concluded that H. alticola is not a valid taxon and should be treated as a synonym of H. discodactylus.
Previous research revealed that teachers hold beliefs about gifted students combining high intellectual ability with deficits in non-cognitive domains, outlined in the so-called disharmony hypothesis. Since teachers’ beliefs about giftedness can influence which students they identify as gifted, the empirical investigation of beliefs is of great practical relevance. This dissertation comprises three research articles that investigated teacher beliefs about gifted students’ characteristics in samples of pre-service teachers using an experimental vignette approach. Chapter I starts with a general introduction into beliefs, and presents the research aims of the present dissertation. The first article (Chapter II) focused on the interaction of beliefs about giftedness and gender in a sample of Australian pre-service teachers and tested if social desirability occurred when using the vignette design. Beside evidence for beliefs in line with the disharmony hypothesis, results revealed typical gender stereotypes. However, beliefs about giftedness appeared not to be gender specific and thus, to be similar for gifted girls and boys. The vignette approach was found to be an adequate design for assessing teacher beliefs. The second article (Chapter III) investigated teacher beliefs and their relationship to motivational orientations for teaching gifted students in a cross-country sample of German and Australian pre-service teachers. Motivational orientations comprise cognitive components (self-efficacy) and affective components (enthusiasm). Findings revealed beliefs in the sense of the disharmony hypothesis for pre-service teachers from both countries. Giftedness when paired with beliefs about high maladjustment was found to be negatively related to teachers’ self-efficacy for teaching gifted students. The third article (Chapter IV) examined the role of teachers’ belief in a just world for the formation of beliefs using a sample of Belgian pre-service teachers. It was found that the stronger pre-service teachers’ belief in a just world was, the more they perceived gifted students’ high intellectual ability as unfair and thus, neutralized that injustice by de-evaluating students’ non-cognitive abilities. In a general discussion (Chapter V), findings of the three articles are combined and reflected. Taken together, the present dissertation showed that teacher beliefs about gifted students’ characteristics are not gender specific, generalizable over countries, negatively related to teacher motivation and can be driven by fairness beliefs.
Zum Inhalt:
Die Dissertation ist in einem empirisch-qualitativen Forschungssetting eingebettet, bei der das Team-Teaching als Unterrichtsmethode im Forschungsfokus steht. Die Erhebung des empirischen Datenmaterials erfolgt einerseits mittels teilnehmender Beobachtung im Forschungsfeld und andererseits durch ein Gruppeninterview, das mit Lehrkräften geführt wird, die über einen gewissen Beobachtungszeitraum Erfahrungen mit der Unterrichtsmethode des Team-Teaching gesammelt haben. Für die hier zu Grunde gelegte Feldforschung wird das „theoretical sampling“ zum Einsatz kommen, das 1967 von Glaser und Strauss im Rahmen einer empirischen Untersuchung begründet worden ist.
Zum Aufbau:
In der Einleitung wird das Forschungsinteresse, der Forschungsstand und die zentrale Forschungsfrage der Dissertation beschrieben. Im zweiten Kapitel folgt der theoretische Teil mit einer differenzierten Definition des Team-Teachings als Unterrichtsmethode. Es folgt eine allgemeine Definition zum Unterricht, um die spezifischen Merkmale des Team-Teachings differenziert herausarbeiten zu können. Die empirischen Daten werden im Rahmen einer teilnehmenden Beobachtung im Unterricht der Oberstufe einer Förderschule mit dem Förderschwerpunkt Lernen und sozial-emotionale Entwicklung erhoben. Deshalb sind im Theorieteil der Förderschwerpunkt und die curricularen Aspekte zum Förderschwerpunkt dargestellt. Die Bedeutung der Unterrichtsmethode des Team-Teachings für das Unterrichtssetting in einer Förderschule mit dem sozial-emotionalem Förderschwerpunkt ist ebenfalls im Theorieteil verortet.
Im dritten Kapitel werden die qualitativen und quantitativen Erhebungsinstrumente beschrieben und Hypothesen formuliert. Die Darstellung der Methoden zur Aufbereitung des Datenmaterials ist im vierten Kapitel verortet. Die Interpretation der Forschungsergebnisse erfolgt im fünften Kapitel. Die qualitative und quantitative Datenauswertung des empirischen Datenmaterials ist im sechsten Kapitel dargestellt. Die Dissertation schließt im siebten Kapitel mit einen Fazit und Ausblick.
Empirische Studien in der Softwaretechnik verwenden Software Repositories als Datenquellen, um die Softwareentwicklung zu verstehen. Repository-Daten werden entweder verwendet, um Fragen zu beantworten, die die Entscheidungsfindung in der Softwareentwicklung leiten, oder um Werkzeuge bereitzustellen, die bei praktischen Aspekten der Entwicklung helfen. Studien werden in die Bereiche Empirical Software Engineering (ESE) und Mining Software Repositories (MSR) eingeordnet. Häufig konzentrieren sich Studien, die mit Repository-Daten arbeiten, auf deren Ergebnisse. Ergebnisse sind aus den Daten abgeleitete Aussagen oder Werkzeuge, die bei der Softwareentwicklung helfen. Diese Dissertation konzentriert sich hingegen auf die Methoden und High-Order-Methoden, die verwendet werden, um solche Ergebnisse zu erzielen. Insbesondere konzentrieren wir uns auf inkrementelle Methoden, um die Verarbeitung von Repositories zu skalieren, auf deklarative Methoden, um eine heterogene Analyse durchzuführen, und auf High-Order-Methoden, die verwendet werden, um Bedrohungen für Methoden, die auf Repositories arbeiten, zu operationalisieren. Wir fassen dies als technische und methodische Verbesserungen zusammen um zukünftige empirische Ergebnisse effektiver zu produzieren. Wir tragen die folgenden Verbesserungen bei. Wir schlagen eine Methode vor, um die Skalierbarkeit von Funktionen, welche über Repositories mit hoher Revisionszahl abstrahieren, auf theoretisch fundierte Weise zu verbessern. Wir nutzen Erkenntnisse aus abstrakter Algebra und Programminkrementalisierung, um eine Kernschnittstelle von Funktionen höherer Ordnung zu definieren, die skalierbare statische Abstraktionen eines Repositorys mit vielen Revisionen berechnen. Wir bewerten die Skalierbarkeit unserer Methode durch Benchmarks, indem wir einen Prototyp mit MSR/ESE Wettbewerbern vergleichen. Wir schlagen eine Methode vor, um die Definition von Funktionen zu verbessern, die über ein Repository mit einem heterogenen Technologie-Stack abstrahieren, indem Konzepte aus der deklarativen Logikprogrammierung verwendet werden, und mit Ideen zur Megamodellierung und linguistischen Architektur kombiniert werden. Wir reproduzieren bestehende Ideen zur deklarativen Logikprogrammierung mit Datalog-nahen Sprachen, die aus der Architekturwiederherstellung, der Quellcodeabfrage und der statischen Programmanalyse stammen, und übertragen diese aus der Analyse eines homogenen auf einen heterogenen Technologie-Stack. Wir liefern einen Proof-of-Concept einer solchen Methode in einer Fallstudie. Wir schlagen eine High-Order-Methode vor, um die Disambiguierung von Bedrohungen für MSR/ESE Methoden zu verbessern. Wir konzentrieren uns auf eine bessere Disambiguierung von Bedrohungen durch Simulationen, indem wir die Argumentation über Bedrohungen operationalisieren und die Auswirkungen auf eine gültige Datenanalysemethodik explizit machen. Wir ermutigen Forschende, „gefälschte“ Simulationen ihrer MSR/ESE-Szenarien zu erstellen, um relevante Erkenntnisse über alternative plausible Ergebnisse, negative Ergebnisse, potenzielle Bedrohungen und die verwendeten Datenanalysemethoden zu operationalisieren. Wir beweisen, dass eine solche Art des simulationsbasierten Testens zur Disambiguierung von Bedrohungen in der veröffentlichten MSR/ESE-Forschung beiträgt.
One of the main goals of the artificial intelligence community is to create machines able to reason with dynamically changing knowledge. To achieve this goal, a multitude of different problems have to be solved, of which many have been addressed in the various sub-disciplines of artificial intelligence, like automated reasoning and machine learning. The thesis at hand focuses on the automated reasoning aspects of these problems and address two of the problems which have to be overcome to reach the afore-mentioned goal, namely 1. the fact that reasoning in logical knowledge bases is intractable and 2. the fact that applying changes to formalized knowledge can easily introduce inconsistencies, which leads to unwanted results in most scenarios.
To ease the intractability of logical reasoning, I suggest to adapt a technique called knowledge compilation, known from propositional logic, to description logic knowledge bases. The basic idea of this technique is to compile the given knowledge base into a normal form which allows to answer queries efficiently. This compilation step is very expensive but has to be performed only once and as soon as the result of this step is used to answer many queries, the expensive compilation step gets worthwhile. In the thesis at hand, I develop a normal form, called linkless normal form, suitable for knowledge compilation for description logic knowledge bases. From a computational point of view, the linkless normal form has very nice properties which are introduced in this thesis.
For the second problem, I focus on changes occurring on the instance level of description logic knowledge bases. I introduce three change operators interesting for these knowledge bases, namely deletion and insertion of assertions as well as repair of inconsistent instance bases. These change operators are defined such that in all three cases, the resulting knowledge base is ensured to be consistent and changes performed to the knowledge base are minimal. This allows us to preserve as much of the original knowledge base as possible. Furthermore, I show how these changes can be applied by using a transformation of the knowledge base.
For both issues I suggest to adapt techniques successfully used in other logics to get promising methods for description logic knowledge bases.
Das Ziel der vorliegenden Arbeit ist es, einen Überblick über das Vorgehen, den Aufbau und die Methodenvielfalt im Bereich der Technologiefrüherkennung zu bieten, einen Einblick in das Umfeld der Railways Diagnostics and Monitoring Technologies (RDMT), deren Technologiemanagement und den branchenspezifischen Anforderungen an die Technologiefrüherkennung (insbesondere im Bereich von KMU) zu geben. Kombinierend daraus wird eine Handlungsempfehlung zur konkreten Nutzung der Forschungsergebnisse in Unternehmen dieser Größenordnung und Branche gegeben. Dazu wurden Literaturrecherchen im Bereich des Innovationsmanagements und des Railway Umfelds betrieben und ein Experte eines mittelständigen Technologieherstellers der RDMT-Branche interviewt. Die wichtigste Erkenntnis dabei ist, dass eine einzelne Methode den Anforderungen nicht gerecht wird, und eine Kombination von Methoden und Organisationsformen für eine effektive Technologiefrüherkennung notwendig ist.
In dieser Bachelorarbeit wird ein System zur Kameratracking implementiert, dass auf Basis eines Partikelfilters arbeitet. Dazu wird ein Markertracking realisiert und anhand der Markerposition die Kameraposition errechnet. Der Marker soll mit ein Partikelfilter gefunden werden und um das zu bewerkstelligen werden mögliche Markerpositionen simuliert, auch Partikel genannt, und mit Likelyhood Funktionen gewichtet. Fokus liegt auf der Evaluation von verschiedenen Likelyhood-Funktionen des Partikelfilters. Die Likelyhood-Funktionen wurden in CUDA umgesetzt als Teil der Implementation.
Tracking ist ein zentraler Bestandteil vieler moderner technischer Anwendungen, insbesondere in den Bereichen autonome Systeme und Augmented Reality. Für Tracking gibt es viele unterschiedliche Ansätze. Ein erst seit kurzem verfolgter ist die Verwendung von Neuronalen Netzen. Im Rahmen dieser Masterarbeit wird eine eine Anwendung erstellt, welche für das Tracking ein Neuronales Netz verwendet. Dazu gehört ebenfalls die Erstellung von Trainingsdaten, sowie die Erstellung des Neuronalen Netzes und dessen Training.
Anschließend wird die Verwendung von Neuronalen Netzen für Tracking analysiert und ausgewertet. Hierunter fallen verschiedene Aspekte. Es wird für eine unterschiedliche Anzahl an Freiheitsgraden geprüft wie gut das Tracking funktioniert und wie viel Performance dieser Ansatz kostet. Des Weiteren wird die Menge der benötigten Trainingsdaten untersucht, der Einfluss der Architektur des Netzwerks und wie wichtig das Vorhandensein von Tiefendaten für die Funktion des Trackings ist. Dies soll einen Einblick ermöglichen wie relevant dieser Ansatz für den Einsatz in zukünftigen Produkten sein könnte.
This thesis deals with the verbal categories tense and aspect in the context of analysing the English perfect. The underlying notion of time is examined from the viewpoint of etymology and from the viewpoint of fields of knowledge that lie outside the immediate scope of temporal semantics, e.g. mathematics. The category tense is scrutinised by discussing the concept of Reichenbach tense and the concept of correlation (Giering). The starting point of the discussion of the category verbal aspect is the dichotomy perfective vs. imperfective in the Slavic languages. The main part about the perfect is concerned with the possessive perfect as a cross-linguistic phenomenon (including a comparison of the English and the Slavic perfect) and focuses on the usage and the meaning of the English present perfect. There are three appendices which are an integral part of this dissertation. Appendix A deals with the systematization of English verb forms and their graphical representation. Three different visualizations are presented, two of which are genuine to this paper. Appendix B reproduces the target setting according to which an animated visualization of English infinitives was programmed. Appendix C represents a synopsis of approaches to the English perfect in grammars and textbooks.
Das sichere Befahren von komplexen und unstruktierten Umgebungen durch autonome Roboter ist seit den Anfängen der Robotik ein Problem und bis heute eine Herausforderung geblieben. In dieser Studienarbeit werden drei Verfahren basierend auf 3-D-Laserscans, Höhenvarianz, der Principle Component Analysis (PCA) und Tiefenbildverarbeitung vorgestellt, die es Robotern ermöglichen, das sie umgebende Terrain zu klassifizieren und die Befahrbarkeit zu bewerten, sodass eine sichere Navigation auch in Bereichen möglich wird, die mit reinen 2-D-Laserscannern nicht sicher befahren werden können. Hierzu werden 3-D-Laserscans mit einem 2-D-Laserscanner erstellt, der auf einer Roll-Tilt-Einheit basierend auf Servos montiert ist, und gleichzeitig auch zur Kartierung und Navigation eingesetzt wird. Die einzeln aufgenommenen 2-D-Scans werden dann anhand des Bewegungsmodells der Roll-Tilt-Einheit in ein emeinsames 3-D-Koordinatensystem transformiert und mit für die 3-D-Punktwolkenerarbeitung üblichen Datenstrukturen (Gittern, etc.) und den o.g. Methoden klassifiziert. Die Verwendung von Servos zur Bewegung des 2-D-Scanners erfordert außerdem eine Kalibrierung und Genauigkeitsbetrachtung derselben, um zuverlässige Ergebnisse zu erzielen und Aussagen über die Qualität der 3-D-Scans treffen zu können. Als Ergebnis liegen drei Implementierungen vor, welche evolutionär entstanden sind. Das beschriebene Höhenvarianz-Verfahren wurde im Laufe dieser Studienarbeit von einem Principle Component Analysis basierten Verfahren, das bessere Ergebnisse insbesondere bei schrägen Untergründen und geringer Punktdichte bringt, abgelöst. Die Verfahren arbeiten beide zuverlässig, sind jedoch natürlich stark von der Genauigkeit der zur Erstellung der Scans verwendeten Hardware abhängig, die oft für Fehlklassifikationen verantwortlich war. Die zum Schluss entwickelte Tiefenbildverarbeitung zielt darauf ab, Abgründe zu erkennen und tut dies bei entsprechender Erkennbarkeit des Abgrunds im Tiefenbild auch zuverlässig.
Terrainklassifikation mit Markov-Zufallsfeldern auf Basis von fusionierten Kamera- und Laserdaten
(2011)
Ein mobiles System, das sich automatisiert im Outdoor-Bereich fortbewegen soll, muss dafür über ausreichende Kenntnisse des umliegenden Terrains verfügen. Zur Analyse des Terrains werden hierbei häufig ein oder mehrere Laserentfernungsmesser, teilweise auch in Kombination mit Kameras verwendet. Probleme entstehen bei lückenhaften oder verrauschten Daten, da dies zu einer fehlerhaften Bestimmung des Geländes führen kann.
Diese Arbeit hat das Ziel ein bereits vorhandenes Verfahren zu erweitern. Dieses basiert auf 3D-Daten, ermittelt durch einen 3D-Laserscanner und soll um eine kontextsensitive Komponente und Daten anderer Sensoren ergänzt werden. Die erste Erweiterung besteht aus einem Markov-Zufallsfeld, welches zum Modellieren der Nachbarschaftsbeziehungen der einzelnen Terrainabschnitte verwendet wird und somit zur Segmentierung eingesetzt werden kann.
Als zweite Erweiterung werden die Laserdaten mit Kamerabildern fusioniert,um so die Verwendung zusätzlicher Terrainmerkmale zu ermöglichen.
Wurden Echtzeitanwendungen früher meist auf hochspezialisierter Hardware und mit eigens dafür entwickelten Betriebssystemen ausgeführt, so wird heutzutage oft auch handelsübliche Hardware eingesetzt, auf dem eine Variante des Linux-Kernels läuft.
Im Rahmen dieser Arbeit wurden Testverfahren aufgestellt und in Form einer Echtzeitanwendung implementiert, welche verschiedene Leistungsmerkmale des Linux-Kernels im Hinblick auf dessen Echtzeitfähigkeit messen.
Diese Tests wurden auf drei verschiedenen Kernel-Versionen ausgeführt. Anschließend wurden die Ergebnisse der Testreihen miteinander verglichen.
This volume contains those research papers presented at the Second International Conference on Tests and Proofs (TAP 2008) that were not included in the main conference proceedings. TAP was the second conference devoted to the convergence of proofs and tests. It combines ideas from both areas for the advancement of software quality. To prove the correctness of a program is to demonstrate, through impeccable mathematical techniques, that it has no bugs; to test a program is to run it with the expectation of discovering bugs. On the surface, the two techniques seem contradictory: if you have proved your program, it is fruitless to comb it for bugs; and if you are testing it, that is surely a sign that you have given up on any hope of proving its correctness. Accordingly, proofs and tests have, since the onset of software engineering research, been pursued by distinct communities using rather different techniques and tools. And yet the development of both approaches leads to the discovery of common issues and to the realization that each may need the other. The emergence of model checking has been one of the first signs that contradiction may yield to complementarity, but in the past few years an increasing number of research efforts have encountered the need for combining proofs and tests, dropping earlier dogmatic views of their incompatibility and taking instead the best of what each of these software engineering domains has to offer. The first TAP conference (held at ETH Zurich in February 2007) was an attempt to provide a forum for the cross-fertilization of ideas and approaches from the testing and proving communities. For the 2008 edition we found the Monash University Prato Centre near Florence to be an ideal place providing a stimulating environment. We wish to sincerely thank all the authors who submitted their work for consideration. And we would like to thank the Program Committee members as well as additional referees for their great effort and professional work in the review and selection process. Their names are listed on the following pages. In addition to the contributed papers, the program included three excellent keynote talks. We are grateful to Michael Hennell (LDRA Ltd., Cheshire, UK), Orna Kupferman (Hebrew University, Israel), and Elaine Weyuker (AT&T Labs Inc., USA) for accepting the invitation to address the conference. Two very interesting tutorials were part of TAP 2008: "Parameterized Unit Testing with Pex" (J. de Halleux, N. Tillmann) and "Integrating Verification and Testing of Object-Oriented Software" (C. Engel, C. Gladisch, V. Klebanov, and P. Rümmer). We would like to express our thanks to the tutorial presenters for their contribution. It was a team effort that made the conference so successful. We are grateful to the Conference Chair and the Steering Committee members for their support. And we particularly thank Christoph Gladisch, Beate Körner, and Philipp Rümmer for their hard work and help in making the conference a success. In addition, we gratefully acknowledge the generous support of Microsoft Research Redmond, who financed an invited speaker.
Texture-based text detection in digital images using wavelet features and support vector machines
(2010)
In dieser Bachelorarbeit wird ein neues texturbasiertes Verfahren zur Detektion von Texten in digitalen Bildern vorgestellt. Das Verfahren kann im wesentlichen in zwei Hauptaufgaben unterteilt werden, in Detektion von Textblöcken und Detektion von einzelnen Wörtern, wobei die einzelnen Wörter aus den detektierten Textblöcken extrahiert werden. Im Groben agiert das entwickelte Verfahren mit mehreren Support Vector Machines, die mit Hilfe von waveletbasierten Merkmalen mögliche Textregionen eines Bildes zu wirklichen Textregionen klassiffzieren. Die möglichen Textregionen werden dabei durch unterschiedlich ausgerichtete Kantenprojektionen bestimmt. Das Resultat des Verfahrens sind X/Y Koordinaten, Breite und Höhe von rechteckigen Regionen eines Bildes, die einzelne Wörter enthalten. Dieses Wissen kann weiterverarbeitet werden, beispielsweise durch eine Texterkennungssoftware, um an die wichtigen und sehr nützlichen Textinformationrneines Bildes zu gelangen.
Zur Erstellung von 3-D-Oberflächenmodellen real existierender Objekte wird häufig sehr teure Hardware eingesetzt, z.B. 3-D-Laser-Range-Scanner. Da diese keine Grauwert- oder Farbinformationen erfassen können, muss das Objekt zur Wiedergabe farbiger Strukturen zusätzlich abfotografiert und mit den Bildern registriert werden. Die Arbeit entwickelt demgegenüber ein Verfahren zum Einsatz eines kalibrierten Stereokamerasystems. Aus den erhaltenen Sequenzen zweidimensionaler Stereobilder kann ein texturiertes 3-D-Mesh rekonstruiert werden. Im Vergleich zum Einsatz eines Scanners ist dieses Verfahren zwar weniger genau, aber dafür preisgünstiger, platzsparend und schneller einsetzbar. Den Schwerpunkt der Arbeit bilden die Fusionierung der Tiefenkarten und die Erstellung eines texturierten Meshs aus diesen.
TGraphBrowser
(2010)
Im Rahmen dieser Arbeit wird ein Webserver implementiert, mit dem man sich Graphen, die mit Hilfe des Java-Graphenlabors (JGraLab) erzeugt wurden, in einem Browser anzeigen lassen kann. Es werden dem Nutzer eine tabellarische und eine graphische Darstellung des Graphen angeboten. In jeder der beiden Darstellungsarten ist das Navigieren durch den Graphen möglich. Um Graphen mit mehreren tausend Elementen für den Nutzer überschaubarer zu machen, können die angezeigten Kanten und Knoten nach ihren Schematypen gefiltert werden. Ferner kann die dargestellte Menge an Graphelementen durch eine GReQL-Anfrage oder durch explizite Angabe bestimmt werden.
Die heutige Landwirtschaft ist in hohem Maße auf den Einsatz von Pestiziden angewiesen, um verschiedene Schädlinge zu bekämpfen und die Ernteerträge zu maximieren. Trotz detaillierter Vorschriften für den Einsatz von Pestiziden, die auf einem komplexen System der Risikobewertung beruhen, hat sich gezeigt, dass der weit verbreitete Einsatz dieser biologisch aktiven Substanzen eine Gefahr für die Umwelt darstellt. In Oberflächengewässern wurde beobachtet, dass die Pestizidbelastung die als noch umweltverträglich angesehenen Konzentrationen übersteigt und sich negativ auf die Ökologie der Fließgewässer auswirkt, was die Frage aufwirft, ob die derzeitige Risikobewertung einen nachhaltigen Einsatz von Pestiziden gewährleistet. Um diese Frage zu beantworten, hat das umfassende "Kleingewässer-Monitoring" (KgM) in den Jahren 2018 und 2019 das Vorkommen von Pestiziden und die damit verbundenen ökologischen Auswirkungen in 124 Fließgewässern in ganz Deutschland untersucht.
Basierend auf fünf wissenschaftlichen Publikationen, die aus dem KgM hervorgegangen sind, werden in dieser Arbeit die Pestizidbelastung in Fließgewässern, die ökologischen Auswirkungen und die regulatorischen Implikationen bewertet. Mehr als 1000 Wasserproben wurden auf über 100 Pestizid-Analyten untersucht, um das Vorkommen zu charakterisieren (Publikation 1). Die gemessenen Konzentrationen und Auswirkungen wurden zur Validierung der in der Risikobewertung vorhergesagten Umweltkonzentrationen und Wirkungschwellen verwendet (Veröffentlichung 2). Durch die gemeinsame Analyse von realen Pestizidanwendungsdaten und gemessenen Pestizidmischungen in Fließgewässern wurde die Missachtung von Pestizidmischungen in der Umwelt in der Risikobewertung beurteilt (Veröffentlichung 3). Das Risikopotenzial von Mischungen in Fließgewässern wurde zusätzlich mit Hilfe eines Verdachtsscreenings für 395 Chemikalien und einer Batterie von In-vitro-Bioassays untersucht (Publikation 4). Schließlich wurden die Ergebnisse des KgM verwendet, um die Eignung staatlicher Monitoringprogramme zur Identifizierung von Pestizidrisiken in Oberflächengewässern zu bewerten (Publikation 5).
Die Ergebnisse dieser Arbeit zeigen das weit verbreitete Vorkommen von Pestiziden in den Nichtzielökosystemen der Fließgewässer. Die Wasserproben wiesen eine Vielzahl von Pestiziden auf, die in komplexen Mischungen vor allem in kurzzeitigen Spitzenwerten nach Niederschlagsereignissen auftraten (Veröffentlichungen 1 & 4). Die jeweiligen Höchstwerte der Pestizidkonzentration wurden mit dem Rückgang empfindlicher Wirbellosenarten in Verbindung gebracht und überstiegen in etwa 80 % der landwirtschaftlich geprägten Fließgewässer die gesetzlich zulässigen Konzentrationen, welche als Schwellenwerte zum Teil noch als unzureichend für den Schutz der Wirbellosengemeinschaft angesehen wurden (Publikation 2). Das gleichzeitige Vorkommen von Pestiziden in Fließgewässern führte zu einem Risiko, das in der auf eine einzelne Substanzen ausgerichteten Risikobewertung in realistischen Worst-Case-Szenarien um einen Faktor von etwa 3,2 unterschätzt wurde. Dies wird durch die hohe Häufigkeit, mit der Nichtzielorganismen den Pestiziden ausgesetzt sind, weiter verstärkt (Veröffentlichung 3). Wasserproben, die nach Regenfällen entnommen wurden, verursachten in den Bioassays deutliche Effekte, die nur zu einem geringen Teil durch die vielen detektierten Analyten erklärbar waren, was auf die Relevanz unbekannter chemischer oder biologischer Mischungskomponenten hinweist (Publikation 4). Schließlich wurde festgestellt, dass die behördliche Überwachung von Oberflächengewässern gemäß der Wasserrahmenrichtlinie (WRRL) die Risiken von Pestiziden erheblich unterschätzt, da hier etwa drei Viertel der kritischen Pestizide und mehr als die Hälfte der gefährdeten Gewässer übersehen worden wären (Veröffentlichung 5).
Im Wesentlichen liefert diese Arbeit eine neue Ebene der Validierung der Risikobewertung von Pestiziden in aquatischen Ökosystemen, indem das Auftreten von Pestiziden und ihre Auswirkungen auf die Umwelt in einem bisher einzigartigen Maßstab bewertet werden. Die Ergebnisse zeigen generell, dass der derzeitige landwirtschaftliche Einsatz von Pestiziden zu erheblichen Auswirkungen auf die Fließgewässerökologie führt, die über das von der Risikobewertung tolerierte Maß hinausgehen. In dieser Arbeit wurden die Unterschätzung der Pestizidexposition, die potenzielle Unzulänglichkeit der gesetzlichen Schwellenwerte und die allgemeine Trägheit des Zulassungsverfahrens als Hauptursachen dafür ermittelt, dass entsprechende gesetzlich verankerte, ökologische Zielsetzungen momentan erwiesenermaßen nicht erreicht werden. Um einen nachhaltigen Einsatz von Pestiziden zu gewährleisten, schlägt die Arbeit wesentliche Änderungen der Risikobewertung vor. Monitoringprogramme wie das KgM, die über die derzeitigen staatlichen Überwachungsbemühungen hinausgehen, werden weiterhin erforderlich sein, um die Regulierungsbehörden für Pestizide ständig über die Gültigkeit ihrer prospektiven Risikobewertung zu informieren, die immer mit Unsicherheiten behaftet sein wird.