Refine
Year of publication
- 2009 (109) (remove)
Document Type
- Diploma Thesis (31)
- Doctoral Thesis (24)
- Part of Periodical (20)
- Study Thesis (20)
- Bachelor Thesis (9)
- Master's Thesis (3)
- Book (1)
- Habilitation (1)
Keywords
- Vorlesungsverzeichnis (6)
- Computersimulation (3)
- Semantic Web (3)
- Akzeptanz (2)
- Automatische Klassifikation (2)
- Autonomes Robotersystem (2)
- Bildverarbeitung (2)
- Echtzeitsystem (2)
- Evaluation (2)
- Frau (2)
Institute
- Institut für Computervisualistik (39)
- Institut für Wirtschafts- und Verwaltungsinformatik (15)
- Fachbereich 4 (14)
- Institut für Informatik (14)
- Institut für Softwaretechnik (8)
- Institut für Management (4)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (3)
- Institut für Erziehungswissenschaft (3)
- Institut für Integrierte Naturwissenschaften (3)
- Zentrale Einrichtungen (3)
- Institut für Anglistik und Amerikanistik (2)
- Institut für Germanistik (2)
- Institut für Umweltwissenschaften (2)
- Institut für naturwissenschaftliche Bildung (2)
- Arbeitsbereich Diagnostik, Differentielle und Persönlichkeitspsychologie, Methodik und Evaluation (1)
- Arbeitsbereich Kognitive Psychologie (1)
- Fachbereich 5 (1)
- Institut für Kommunikationspsychologie und Medienpädagogik (1)
- Institut für Psychologie (1)
- Institut für Pädagogik, Abteilung Pädagogik (1)
- Institut für Pädagogik, Abteilung Schulpädagogik/Allgemeine Didaktik (1)
- Institut für Soziologie und Politikwissenschaft (1)
- Institut für Sportwissenschaft (1)
- Institute for Web Science and Technologies (1)
Ein Switch (engl. Schalter; auch Weiche) ist eine Netzwerk-Komponente zur Verbindung mehrerer Computer bzw. Netz-Segmente in einem lokalen Netzwerk (LAN). Da Switches den Netzwerkverkehr analysieren und logische Entscheidungen treffen, werden sie auch als intelligente Hubs bezeichnet. Die Funktionsweise eines Switches ist der einer Bridge sehr ähnlich, daher wurde anfangs auch der Begriff Multi-Port-Bridge genutzt 1. Ziel der Diplomarbeit ist es, eine Dokumentation auf die Beine zu stellen, der interessierten Studenten der Informationstechnologie die Möglichkeit bietet, einerseits anhand von physikalischen Switches Administrationsaufgaben nachzuempfinden und andererseits anhand von virtuellen Switches größere Netzwerktopologien aufzubauen. Diese Virtualisierung wird durch das von Virtual Square entwickelte Tool VDE erreicht. Die physikalischen Switches bestehen aus vier Catalyst 3500 XL. Im Laufe dieser Arbeit wird sowohl die Bedienung der einzelnen Systeme untereinander, wie auch die Vernetzung der virtuellen Switches mit den physikalischen Switches erläutert. In diesem Zusammenhang wird auch auf Protokolle und Methoden wie das Spanning Tree Protokoll oder die Virtualisierung eines Netzes durch VLANs eingegangen. Zum Schluss kann der Leser das gelernte in einigen praktischen Aufgaben anwenden.
Rechnernetze gehört zu den Fächern, die ein breites Spektrum an Anwendungsgebieten abdecken. Die vielen unterschiedlichen Protokolle sind Belege dafür. Jedes Protokoll hat sozusagen ein eigenes Anwendungsbereich und doch sind deren Aufgaben unter dem Nenner gleich. Miteinander zu Kommunizieren, Informationen auszutauschen und das möglichst auf eine sichere und schnelle Art und Weise. Als Beispiel denke man an Autos, Handys, Lokale Netze in einem kleinen Betrieb, Intranet in einer größeren Organisation oder in Netze die über Länder hinweggehen. Ein modernes Auto an sich hat schon eine Vielzahl an Bussystemen in sich integriert. CAN, LIN, FlexRay oder MOST Bus sind ein paar Stichworte dazu. Wenn man jetzt von der Autoindustrie weggeht und an die Autonomen Systeme kommt, gibt es dort ein Routing Information Protokoll, das innerhalb von Autonomen Systemen verwendet wird. Routing Information Protokoll ist eines der meist verwendeten Protokolle innerhalb von Autonomen Systemen. Das Routing Information Protokoll ist einer der zentralen Bestandteile des Forschungsbereiches der AG Steigner. Die Arbeit widmet sich unter Anderem dieser Forschungsunterstützung.Diese Studienarbeit hat das Ziel die Testumgebung XTPeer auf die VNUML Version 1.8 zu integrieren.
Ziel dieser Diplomarbeit ist es, katadioptrische Stereosysteme aufzubauen und zu testen. Hierfür gilt es, die Komponenten auszuwählen und zu beschaffen. Es soll ein System mit einem Planspiegel und eines mit einem gekrümmten Spiegel aufgebaut werden. Die Vorgehensweise in beiden Fällen unterscheidet sich jedoch deutlich voneinander. Das Planspiegel-System wird unter den Vorraussetzungen angefertigt, dass es möglichst kostengünstig ist und bietet sich vor allem deshalb für eine solches Vorgehen an, da es mit handelsüblichen Komponenten realisierbar ist. Die Verwendung dieser Komponenten bringt allerdings Einschränkungen in der Bildqualität mit sich. Hinzu kommt noch die Tatsache, dass es sich um eine Computational Camera mit geringer Komplexität handelt, da es direkt rektifizierte Ergebnisse liefert und aufgrund dessen leicht zu implementieren ist. Diese Kombination von Eigenschaften macht es zu einem geeigneten Kandidaten für eine solche Herangehensweise. Das radiale System wird hingegen unter der Prämisse maximaler Qualität gebaut. Der verwendete Spiegel ist eine Einzelanfertigung und zusätzlich wird ein zirkuläres Fisheye-Objektiv benötigt, was die Kosten für ein solches System relativ hoch werden lässt. Des Weiteren ist die Dekodierung der Rohaufnahmen deutlich komplexer, als bei den bereits rektifizierten Aufnahmen des Planspiegel-Systems. Nach erfolgreichem Aufbau der beiden Gesamtsysteme sollen diese unter qualitativen Aspekten miteinander verglichen werden.
live video performances at cultural events since 2005. Until now, we have been developing single video-performance applications that mostly met the demands of a certain project. What we did not achieve so far is a) a modular software design and, b) a feature for deskewing planar surfaces that are projected at a non perpendicular angle (assuming the use of visual projectors). This paper deals with solving the first problem by desiging a modular framework and the second problem by implementing an user-friendly module for deskewing planar surfaces. The deskewing process is completely manual, letting the user edit the coordinates of the surfaces" cornerpoints by dragging the points with the mouse. For this, the cornerpoints" x- and y-values are manipulated and the z-value is left constant. While in this way, the 3D-interaction with a 2D-interface can be avoided, the exclusivley two-dimensional transformation of planar surfaces introduces undesired texture-mapping artifacts produced by the triangulation-based rendering of graphic-cards. In order to avoid these artifacts, a selected method called "adaptive subdivision" is presented that corrects the introduced rendering errors.
Many pharmaceuticals (e.g. antibiotics, contrast media, beta blockers) are excreted unmetabolized and enter wastewater treatment plants (WWTPs) through the domestic sewage system. Research has shown that many of them are not effectively removed by conventional wastewater treatment and therefore are detected in surface waters. Reverse osmosis (RO) is one of the most effective means for removing a wide range of micropollutants in water recycling. However, one significant disadvantage is the need to dispose the resultant RO concentrate. Due to the fact that there are elevated concentrations of micropollutants in the concentrate, a direct disposal to surface water could be hazardous to aquatic organisms. As a consequence, further treatment of the concentrate is necessary. In this study, ozonation was investigated as a possible treatment option for RO concentrates. Concentrate samples were obtained from a RO-membrane system which uses municipal WWTP effluents as feeding water to produce infiltration water for artificial groundwater recharge. In this study it could be shown that ozonation is efficient in the attenuation of selected pharmaceuticals, even in samples with high TOC levels (46 mg C/L). Tests with chlorinated and non-chlorinated WWTP effluent showed an increase of ozone stability, but a decrease of hydroxyl radical exposure in the samples after chlorination. This may shift the oxidation processes towards direct ozone reactions and favors the degradation of compounds with high apparent second order rate constants. Additionally it might inhibit an oxidation of compound predominantly reacting with OH radicals. Ozone reaction kinetics were investigated for beta blockers (acebutolol, atenolol, metoprolol and propranolol) which are permanently present in WWTP effluents. For beta blockers two moieties are common which are reactive towards ozone, a secondary amine group and an activated aromatic ring. The secondary amine is responsible for a pH dependence of the direct ozone reaction rate, since only the deprotonated amine reacts very quickly. At pH 7 acebutolol, atenolol and metoprolol reacted with ozone with an apparent second order rate constant of about 2000 M-1 s-1, whereas propranolol reacted at ~1.0 105 M-1 s-1. The rate constants for the reaction of the selected compounds with OH radicals were determined to be 0.5-1.0 x 1010 M-1 s-1. Oxidation products (OPs) formed during ozonation of metoprolol and propranolol were identified via liquid chromatography (LC) tandem mass spectrometry. Ozonation led to a high number of OPs being formed. Experiments were carried out in MilliQ-water at pH 3 and pH 8 as well as with and without the radical scavenger tertiary butanol (t-BuOH). This revealed the influence of pH and the OH radical exposure on OP formation. The OH radical exposure was determined by adding the probe compound para-chlorobenzoic acid (pCBA). Metoprolol: To define the impacts of the protonated and non protonated metoprolol species on OH radical formation, the measured pCBA attenuation was compared to modeled values obtained by a simplified kinetic model (Acuchem). A better agreement with the measured results was obtained, when the model was based on a stoichiometric formation of OH radical precursors (O2-) during the primary ozone reaction of metoprolol. However, for reaction of a deprotonated molecule (attack of the aromatic ring) a formation of O2- could be confirmed, but an assumed stoichiometric O2- formation over-estimated the formation of OH radicals in the system. Analysis of ozonated raw wastewater and municipal WWTP effluent spiked with 10 μM metoprolol exhibited a similar OP formation pattern as detected in the reaction system at pH 8 without adding radical scavenger. This indicated a significant impact of OH radical exposure on the formation of OPs in real wastewater matrices. Propranolol: The primary ozonation product of propranolol (OP-291) was formed by an ozone attack of the naphthalene ring, which resulted in a ring opening and two aldehyde moieties being formed. OP-291 was further oxidized to OP-307, presumably by an OH radical attack, which was then further oxidized to OP-281. Reaction pathways via ozone as well as OH radicals were proposed and confirmed by the chemical structures identified with MS2 and MS3 data. It can be concluded that ozonation of WWTP effluent results in the formation of a high number of OPs with an elevated toxic potential (i.e. formation of aldehydes).
Die vorliegende Arbeir zeichnet eine Kategorisierung der im deutschen Fernsehen und Rundfunk vorhandenen Gewinnspiele auf. Beginnend mit der Erläuterung von grundlegenden Begrifflichkeiten und dem Beleuchten der Verfahren zur Teilnehmerauswahl wird der Leser an das Thema der Arbeit herangeführt. Fortgesetzt wird mit der eigentlichen Darstellung der momentan vorhandenen Gewinnspielformate. Abschließend gibt die Arbeit eine erste Festlegung und Aufrechnung einer Gewinnwahrscheinlichkeit an.
Avoidance of routing loops
(2009)
We introduce a new routing algorithm which can detect routing loops by evaluating routing updates more thoroughly. Our new algorithm is called Routing with Metric based Topology Investigation (RMTI), which is based on the simple Routing Information Protocol (RIP) and is compatible to all RIP versions. In case of a link failure, a network can reorganize itself if there are redundant links available. Redundant links are only available in a network system like the internet if the topology contains loops. Therefore, it is necessary to recognize and to prevent routing loops. A routing loop can be seen as a circular trace of a routing update information which returns to the same router, either directly from the neighbor router or via a loop topology. Routing loops could consume a large amount of network bandwidth and could impact the endtoend performance of the network. Our RMTI approach is capable to improve the efficiency of Distance Vector Routing.
Diese Bachelorarbeit behandelt die Erweiterung eines Instant Messenger um die Funktion einer verschlüsselten Audio-/Videokonferenz. Es werden verschiedene zu diesem Zweck nutzbare Techniken beschrieben und gegenübergestellt. Besonderer Wert wird darauf gelegt, die Verbindung dementsprechend zu sichern, dass auch vertrauliche Informationen übermittelt werden können. Letztlich wird die Implementierung in Java für den Instant Messenger "Spark" sowie die Integration der Konferenz in ein eVoting-Plugin erläutert.
The research described in this thesis was designed to yield information on the impact of particle-bound pesticides on organisms living in the interface between sediment and water column in a temporarily open estuary (TOCEs). It was hypothesized that natural variables such as salinity and temperature and anthropogenic stressors such as particle-bound pesticides contribute to the variability of the system. A multiple line of evidence approach is necessary due to the variability in sediment type, contaminant distribution and spatial and temporal variability within the ecosystem in particular within TOCEs. The first aim of this thesis was to identify which particle-bound pesticides are important to the contamination of the Lourens River estuary (Western Cape, South Africa), taking into account their environmental concentrations, physico-chemical and toxicological properties (Exposure assessment). The second aim was to identify spatial and temporal variations in particle bound pesticide contamination, natural environmental variables and benthic community structure (effect assessment). The third aim was to test the hypothesis: "does adaptation to fluctuating salinities lead to enhanced survival of the harpacticoid copepod Mesochra parva when exposed to a combination of particle associated chlorpyrifos exposure and hypo-osmotic stress during a 96 h sediment toxicity test?" The last aim was to identify the driving environmental variables (including natural and anthropogenic stressors) in a "natural" (Rooiels River) compared to a "disturbed" (Lourens River) estuary and to identify if and how these variables change the benthic community structure in both estuaries. Data produced in this research thus provide important information to understand the impact of pesticides and its interaction with natural variables in a temporarily open estuary. To summarise, this study indicated, by the use of the multi-evidence approach, that the pesticides endosulfan and chlorpyrifos posed a risk towards benthic organisms in a temporarily open estuary in particular during spring season. Furthermore an important link between pesticide exposure/ toxicity and salinity was identified, which has important implications for the management of temporarily open estuaries.
In this thesis, different approaches to calibrate an optical microscope will be presented. State-of-the-art algorithms are implemented and improvements are done to get more stable results and make the calibration process more flexible. Algorithms are developed to calibrate some of the camera parameters in advance in order to achieve better end results for the calibration process. In addition, techniques will be discussed on how to reduce errors produced by noise on a given input data set so that correct parameters for a specific camera model can be calibrated. These algorithms are evaluated and compared on real and syntetic data sets.
Diese Arbeit beschäftigt sich mit Konzepten für die Anzeige eines frei programmierbaren Kombinationsinstrumentes (FPK). Ziel ist es, die zunächst theoretischen Anzeigekonzepte auf Basis einer zu ermittelnden Hard- und Softwareplattform zu entwickeln. Zu Beginn wird die Evolution von analogen, mechanischen Kombinationsinstrumenten zum FPK beschrieben. Darauf folgt ein Überblick bereits bestehender FPK-Konzepte mit einer genaueren Sicht auf dargestellte Anzeigeelemente. Dabei wird besonders auf die Personenwarnung in der Night-view-Anzeige und eine Anzeige der ökologischen Fahreffizienz eingegangen. Die Arbeit ist Teil eines in Entwicklung befindlichen FPK-Projektes. Basierend auf den durch dieses Projekt vorgegebenen Anforderungen wird eine geeignete Soft- und Hardwareplattform für die Umsetzung eines FPK ermittelt. Dabei zeigt sich, dass die optimale Plattform nur durch eine präzise Änderungsdefinition des graphischen Systems bestimmt werden kann. Da die Projektanforderungen nicht präzise genug sind, wird Adobe Flash in Verbindung mit Actionscript zur Umsetzung der Anzeigekonzepte eingesetzt, um Plattformunabhängigkeit zu erreichen. Mittels Techniken des User-centered Designs wurden Konzepte einzelner und kombinierter Anzeigeelemente entwickelt. Dabei wurde besonders darauf geachtet, die Gestaltungsmöglichkeiten durch die Größe der zur Verfügung stehenden Anzeigefläche des FPK auszunutzen. Nach theoretischen Überlegungen bezüglich des Verwendungskontexts und wahrnehmungspsychologischer Erkenntnisse werden entwickelte Konzepte skizzenhaft beschrieben und die erstellten Animationen erläutert. Den Schluss bildet eine Evaluation einzelner Prinzipien. In einer Umfrage mit 14 Probanden konnte die intuitive Erkennbarkeit einzelner Konzepte teilweise bestätigt oder widerlegt werden. Die Wirksamkeit einer entwickelten Warnmeldung zur Steuerung der Aufmerksamkeit wurde anhand eines Tests mit Nutzern in einer Simulation bestätigt. Die Warnmeldung und andere Konzepte sind nur in einem FPK umzusetzen. So wird gezeigt, dass der Einsatz eines FPK zu einer erhöhten Sicherheit und besseren Bedienbarkeit führen kann. Das FPK sollte jedoch nicht isoliert vom restlichen HMI betrachtet werden, damit seine Möglichkeiten voll ausgeschöpft werden können. Der Einsatz echter 3-D-Graphik für FPK ist zweifelhaft. Über den Bedarf muss im Einzelfall nach einem Test auf Usability entschieden werden. Die Evaluation zeigt, dass Konventionen eines herkömmlichen Kombinationsinstrumentes auch bei der Gestaltung von Anzeigeelementen für ein FPK genutzt werden sollten, um eine Lesbarkeit zu garantieren.
Entwicklung eines Regelungsverfahrens zur Pfadverfolgung für ein Modellfahrzeug mit Sattelanhänger
(2009)
Besides the progressive automation of internal goods traffic, there is an important area that should also be considered. This area is the carriage of goods in selected external areas. The use of driverless trucks in logistic centers can report economic efficiency. In particular, these precise control procedures require that trucks drive on predetermined paths. The general aim of this work is the adaption and evaluation of a path following control method for articulated vehicles. The differences in the kinematic behavior between trucks with one-axle trailer and semi-trailer vehicles will be emphasized. Additionally, the characteristic kinematic properties of semi-trailers for the adaptation of a control procedure will be considered. This control procedure was initially designed for trucks with one-axle trailer. It must work in forwards and backwards movements. This control process will be integrated as a closed component on the control software of the model vehicle. Thus, the geometry of the model vehicle will be specified, and the possible special cases of the control process will be discovered. The work also documents the most relevant software components of the implemented control process.
Zielsetzung Ziel der Diplomarbeit ist die Erforschung und Evaluation verschiedener multimodaler Interaktions- und Präsentationstechniken mit der Nintendo Wii Fernbedienung. Der zentrale Ansatz besteht darin, die verschiedenen alternativen Ein- und Ausgabemöglichkeiten der Nintendo Wiimote für Multimediapräsentationen im Bereich Bildung und Lehre nutzbar zu machen. Gesucht ist eine möglichst benutzerfreundliche Kombination verschiedener Präsentationslösungen in einem Eingabegerät, zu einem Bruchteil der Kosten existierender Lösungen. WiinterAct Um die Verbindung zwischen den multimodalen Interaktionsmöglichkeiten der Nintendo Wii Fernbedienung und den gewünschten Präsentationstechniken am Computer herzustellen, wurde die Software WiinterAct entwickelt. Mit Hilfe von WiinterAct lässt sich eine beliebige Präsentationssoftware über die Bedienknöpfe der Wiimote oder per Gestenerkennung steuern. Zusätzlich wurden alternative Mauszeigermanipulationsmöglichkeiten implementiert. So kann der Mauszeiger per interaktiver Laserpointer Metapher oder über ein interaktives Whiteboard auf Basis der Wiimote bewegt werden. Die hierfür nötige 4-Punkt-Kalibrierung wurde dabei stark vereinfacht. Neben einer intuitiven Visualisierung der Accelerometer- und Infrarotdaten aus der Wiimote wurde ferner eine Demoapplikation (FittsLaWii) zum Messen der Eingabegeschwindigkeit und Benutzerfreundlichkeit verschiedener Interaktionsmethoden bzw. Interaktionsgeräten entwickelt. Fazit Zusammenfassend lassen sich die Ergebnisse der Arbeit in viele andere Bereiche der Mensch-Computer-Interaktion übertragen.
Workflows und Logik
(2009)
In dieser Arbeit wurde gezeigt, wie die Netzdarstellung eines Workflows in eine aktionslogische, prädikatenlogische, transaktionslogische oder aktionslogische Formel umgeformt werden kann. Ebenso wurde der umgekehrte Weg beschrieben. So ist es jetzt möglich, Workflows auch mit Hilfe der verschiedenen Inferenztechniken der einzelnen Logiken zu untersuchen. Bei der Transformation wurden allerdings einige Einschränkungen getroffen. So wurde auf die Transformation von Quantoren sowie auf Zykel in den zu transformierenden Workflow-Netzen verzichtet. Außerdem wurden die möglichen Kantenlabels von pr/t-Netzen zur Umwandlung in eine prädikatenlogische Darstellung auf einzelne Tupel beschränkt.
Abstract The present work investigates the wetting characteristics of soils with regard to their dependence on environmental parameters such as water content (WC), pH, drying temperature and wetting temperature of wettable and repellent soils from two contrasting anthropogenic sites, the former sewage disposal field Berlin-Buch and the inner-city park Berlin-Tiergarten. The aim of this thesis is to deepen the understanding of processes and mechanisms leading to changes in soil water repellency. This helps to gain further insight into the behaviour of soil organic matter (SOM) and identifying ways to prevent or reduce the negative effects of soil water repellency (SWR). The first focus of this work is to determine whether chemical reactions are required for wetting repellent samples. This hypothesis was tested by time and temperature dependence of sessile drop spreading on wettable and repellent samples. Additionally, diffuse reflectance infrared Fourier transform (DRIFT) spectroscopy was used to determine whether various drying regimes cause changes in the relative abundance of hydrophobic and hydrophilic functional groups in the outer layer of soil particles and whether these changes can be correlated with water content and the degree of SWR. Finally, by artificially altering the pH in dried samples applying acidic and alkaline reagents in a gaseous state, the influence of only pH on the degree of SWR was investigated separately from the influence of changes in moisture status. The investigation of the two locations Buch and Tiergarten, each exceptionally different in the nature of their respective wetting properties, leads to new insights in the variety of appearance of SWR. The results of temperature, water content and pH dependency of SWR on the two contrasting sites resulted in one respective hypothetical model of nature of repellency for each site which provides an explanation for most of the observations made in this and earlier studies: At the Tiergarten site, wetting characteristics are most likely determined by micelle-like arrangement of amphiphiles which depends on the concentration of water soluble amphiphilic substances, pH and ionic strength in soil solution. At low pH and at high ionic strength, repulsion forces between hydrophilic charged groups are minimized allowing their aggregation with outward orientated hydrophobic molecule moieties. At high pH and low ionic strength, higher repulsion forces between hydrophilic functional groups lead to an aggregation of hydrophobic groups during drying, which results in a layer with outward oriented hydrophilic moieties on soil organic matter surface leading to enhanced wettability. For samples from the Buch site, chemical reactions are necessary for the wetting process. The strong dependence of SWR on water content indicates that hydrolysis-condensation reactions are the controlling mechanisms. Since acid catalyzed hydrolysis is an equilibrium reaction dependent on water content, an excess of water favours hydrolysis leading to an increasing number of hydrophilic functional groups. In contrast, water deficiency favours condensation reactions leading to a reduction of hydrophilic functional groups and thus a reduction of wettability. The results of the present investigation and its comparison with earlier investigations clearly show that SWR is subject to numerous antagonistically and synergistically interacting environmental factors. The degree of influence, which a single factor exerts on SWR, is site-specific, e.g., it is dependent on special characteristics of mineral constituents and SOM which underlies the influence of climate, soil texture, topography, vegetation and the former and current use of the respective site.
Absicherung und Verifikation einer Instant Messaging-Kommunikation über Diffie Hellman Key Agreement
(2009)
Im Rahmen dieser Bachelorarbeit soll die Absicherung und Verifikation einer Instant Messaging-Kommunikation beschrieben und in Form eines Plugins für ein bestehendes Instant Messaging-System realisiert werden. Dazu werden zunächst die Anforderungen an das System erhoben und mit Vorhandenen Konzepten und Systemen am Markt verglichen. Darauf aufbauend wird ein eigenes Konzept entwickelt und die Umsetzung in der Programmiersprache Java beschrieben. Der Fokus dieser Arbeit liegt dabei auf der Absicherung des Chat-Kanals einer Instant Messaging-Kommunikation, aber es werden geeignete Schnittstellen beschrieben und implementiert, die eine Erweiterung der angewendeten Verfahren für beliebige Datensätze ermöglicht.
Point Rendering
(2009)
Das Ziel dieser Arbeit war es, bestehende Point Rendering Verfahren zu untersuchen und darauf aufbauend einen eigenen Point Renderer zu entwickeln. Mit diesem sollte dann die Anwendbarkeit auf weniger komplexe Modelle geprüft werden. Dabei galt es auftretende Probleme zu analysieren und gegebenenfalls Lösungsansätze zu finden.
Das sichere Befahren von komplexen und unstruktierten Umgebungen durch autonome Roboter ist seit den Anfängen der Robotik ein Problem und bis heute eine Herausforderung geblieben. In dieser Studienarbeit werden drei Verfahren basierend auf 3-D-Laserscans, Höhenvarianz, der Principle Component Analysis (PCA) und Tiefenbildverarbeitung vorgestellt, die es Robotern ermöglichen, das sie umgebende Terrain zu klassifizieren und die Befahrbarkeit zu bewerten, sodass eine sichere Navigation auch in Bereichen möglich wird, die mit reinen 2-D-Laserscannern nicht sicher befahren werden können. Hierzu werden 3-D-Laserscans mit einem 2-D-Laserscanner erstellt, der auf einer Roll-Tilt-Einheit basierend auf Servos montiert ist, und gleichzeitig auch zur Kartierung und Navigation eingesetzt wird. Die einzeln aufgenommenen 2-D-Scans werden dann anhand des Bewegungsmodells der Roll-Tilt-Einheit in ein emeinsames 3-D-Koordinatensystem transformiert und mit für die 3-D-Punktwolkenerarbeitung üblichen Datenstrukturen (Gittern, etc.) und den o.g. Methoden klassifiziert. Die Verwendung von Servos zur Bewegung des 2-D-Scanners erfordert außerdem eine Kalibrierung und Genauigkeitsbetrachtung derselben, um zuverlässige Ergebnisse zu erzielen und Aussagen über die Qualität der 3-D-Scans treffen zu können. Als Ergebnis liegen drei Implementierungen vor, welche evolutionär entstanden sind. Das beschriebene Höhenvarianz-Verfahren wurde im Laufe dieser Studienarbeit von einem Principle Component Analysis basierten Verfahren, das bessere Ergebnisse insbesondere bei schrägen Untergründen und geringer Punktdichte bringt, abgelöst. Die Verfahren arbeiten beide zuverlässig, sind jedoch natürlich stark von der Genauigkeit der zur Erstellung der Scans verwendeten Hardware abhängig, die oft für Fehlklassifikationen verantwortlich war. Die zum Schluss entwickelte Tiefenbildverarbeitung zielt darauf ab, Abgründe zu erkennen und tut dies bei entsprechender Erkennbarkeit des Abgrunds im Tiefenbild auch zuverlässig.
Auf der Basis originaler Krankenakten von schizophrenen Frauen aus Heil- und Pflegeanstalten wurden die Einstellungen und Verhaltensdispositionen der Anstaltspsychiater hinsichtlich der praktischen Umsetzung des Gesetzes zur Verhütung erbkranken Nachwuchses untersucht. Im Zentrum der retrospektiven Studie standen die Fragen: (1) nach der institutionsbezogenen und organisatorischen Umsetzung des Gesetzes zur Verhütung erbkranken Nachwuchses durch die Anstaltspsychiater der Heil- und Pflegeanstalten. (2) nach dem Einfluss der nationalsozialistisch gelenkten eugenischen Gesundheitspolitik auf die ärztlichen Einstellungen und das ärztliche Entscheidungsverhalten hinsichtlich der Beantragung einer Zwangssterilisation bei schizophrenen Patientinnen. (3) nach der Anwendung eines klinischen Diagnoseschemas und der Untersuchung und Dokumentation von Nachweisen zur Erblichkeit der Schizophrenie bei der Diagnose- und Antragsstellung. (4) nach den selektiven ärztlichen Entscheidungsprozessen im Zusammenhang mit der Antragstellung auf Unfruchtbarmachung auf der Basis der ärztlichen Dokumentationen in den Krankenakten und den erhobenen sozialanamnestischen Daten. (5) nach dem weiteren Krankheitsverlauf und möglichen Auswirkungen des Zwangseingriffs bei den zwangssterilisierten Patientinnen. (6) nach dem Umfang von Wiedergutmachungsverfahren in der Nachkriegszeit für die von der Zwangssterilisation betroffenen Frauen.
Zufriedenheitsstudie der Studierenden des FB 4 an der Universität Koblenz-Landau am Campus Koblenz
(2009)
Nachdem der Studiengang Informationsmanagement im Jahr 2000 am Campus Koblenz der Universität Koblenz-Landau als erster deutscher Studiengang im Bachelorsystem akkreditiert wurde, haben sich im Laufe der Zeit einige Dinge verändert. Dies führte zu einer Änderung der Prüfungsordnung im Jahre 2006. Hieraus ergaben sich einige Umstellungen im Studiengang Informationsmanagement. Da im Zuge des Bolognaprozesses auch die Studiengänge Informatik und Computervisualistik in das neue System gewandelt wurden, stellten sich auch hier die Studienbedingungen um. In den letzten Jahren ist es vermehrt dazu gekommen, dass die Studierenden des Fachbereichs Informatik (im weiteren auch Fachbereich 4, oder FB 4) unzufrieden mit der augenblicklichen Situation am Campus Koblenz sind. Diese Unzufriedenheit scheint auf unterschiedlichen Ursachen zu beruhen. Da eine Unzufriedenheit innerhalb der Studierenden ein negatives Bild darstellt, ist es für eine Universität wünschenswert, wenn die Lehrenden eines Fachbereichs wissen, welche Einschätzungen die Studierenden hinsichtlich Ihres Studienfachs haben. Daher ist es von hoher Bedeutung, im Sinne der Qualitätssicherung, die Meinungen der Studenten über das Lehrkonzept sowie die einzelnen Studienfächer des Fachbereichs 4 am Campus Koblenz der Universität Koblenz-Landau zu evaluieren. Durch die Befragung der Studierenden kann somit eine Ergänzung zu der seit einiger Zeit durchgeführten Lehrveranstaltungsevaluation gebildet werden. Ziel dieser Arbeit ist es, das Meinungsbild im Fachbereich Informatik an der Universität Koblenz-Landau am Campus Koblenz zu ergründen. Anhand der Ergebnisse der Evaluation, welche im Wesentlichen von den Erfahrungen und Meinungen der Studierenden abhängig sind, können weiterführende Kenntnisse zur Verbesserung und Sicherung der Qualität von Studium und Lehre erlangt werden. Auf diese Weise erhält der Fachbereich Informatik den Stand des wahrgenommenen Profils nach außen und kann somit überprüfen, ob dieses mit den selbstgesetzten Zielvorstellungen übereinstimmt. Die Evaluation soll außerdem dazu beitragen, die eigenen Stärken und Schwächen hinsichtlich der Lehrveranstaltungen und Studiengänge zu erarbeiten sowie den Lehr- und Studien-betrieb transparenter zu gestalten. Durch diese Ergebnisse kann der Studienablauf optimiert und eine Basis für die Weiterentwicklung der Lehre geschaffen werden. Ebenfalls gilt es eventuelle Unterschiede in der Wahrnehmung der Studiensituation einzelner Studiengänge zu ermitteln, da durch verschiedene Ausrichtungen der Studierenden andere Meinungen hinsichtlich des Lehrbetriebs entstehen können. Des Weiteren gilt es dieses Meinungsbild auch innerhalb der Studiengänge zu differenzieren, damit die verschiedenen Abschlüsse, für welche die Studierenden eingeschrieben sind, herausgefiltert werden können. Ein weiterer Punkt den eine solche Evaluation mit sich führt, ist die Chance, die eigenen Kontrollmechanismen zu überprüfen und zu verbessern, damit Strategien entwickelt werden können, um die oben erwähnte Qualität der Lehre zu sichern. Somit soll neben der Darstellung der aktuellen Situation auch eine Handlungsempfehlung für den Fachbereich 4 erarbeitet werden. Die entstandene Umfrage soll so ausgelegt werden, damit weitere Befragungen im Sinne einer Panelforschung in Folgesemestern durchgeführt werden können. Hiermit soll festgestellt werden, ob sich im Laufe der Zeit Veränderungen zwischen den einzelnen Umfragen ergeben haben.
Abstract For a significant length of time, computer simulation programs have been the preferred tools of sociologists to analyse " thus confirm or refute " sociological theories, scenarios, presumptions and assumptions. Many different simulation platforms for various domains exist. The EmIL project aims to create a new simulation platform specifically to analyse norm emergence. This platform is divided into sections, thereby allowing the analysis of individual norm emergence: this is not currently possible, thus EmIL-S may represent a significant improvement over current simulation platforms. This diploma thesis describes the concepts behind the project and provides a prototype for the simulation program EmIL-S. The creation of the prototype and the underlying development process are described in detail. The experience gained during this process is analysed and described. In the course of this analysis, the malfunctions and errors within EmIL-S are explained; the solutions to these malfunctions and errors are noted, along with other proposed improvements. This diploma thesis can also be used as a helpful manual to build simulations within the simulation platform.
Colonoscopy is the gold standard for the detection of colorectal polyps that can progress into cancer. In such an examination, physicians search for polyps in endoscopic images. Thereby polyps can be removed. To support experts with a computer-aided diagnosis system, the University of Koblenz-Landau currently makes some efforts in research different methods for automatic detection. Comparable to traditional pattern recognition systems, features are initially extracted and a classifier is trained on such data. Afterwards, unknown endoscopic images can be classified with the previously trained classifier. This thesis concentrates on the extension of the feature extraction module in the existing system. New detection methods are compared to existing techniques. Several features are implemented, incorporating Graylevel Co-occurrence Matrices, Local Binary Patterns and Discrte Wavelet Transform. Different modifications on those features are applied and evaaluated.
This thesis deals with the verbal categories tense and aspect in the context of analysing the English perfect. The underlying notion of time is examined from the viewpoint of etymology and from the viewpoint of fields of knowledge that lie outside the immediate scope of temporal semantics, e.g. mathematics. The category tense is scrutinised by discussing the concept of Reichenbach tense and the concept of correlation (Giering). The starting point of the discussion of the category verbal aspect is the dichotomy perfective vs. imperfective in the Slavic languages. The main part about the perfect is concerned with the possessive perfect as a cross-linguistic phenomenon (including a comparison of the English and the Slavic perfect) and focuses on the usage and the meaning of the English present perfect. There are three appendices which are an integral part of this dissertation. Appendix A deals with the systematization of English verb forms and their graphical representation. Three different visualizations are presented, two of which are genuine to this paper. Appendix B reproduces the target setting according to which an animated visualization of English infinitives was programmed. Appendix C represents a synopsis of approaches to the English perfect in grammars and textbooks.
The STOR project aims at the development of a scientific component system employing models and knowledge for object recognition in images. This interim report elaborates on the requirements for such a component system, structures the application area by identifying a large set of basic operations, and shows how a set of appropriate data structures and components can be derived. A small case studies exemplifies the approach.
In den systematischen Neurowissenschaften werden oft Experimente durchgeführt, welche die Kommunikation von Hirnarealen bei der Bewältigung einer bestimmten Aufgabe untersuchen. Dabei wird angenommen, dass Neuronenverbände, die ihre Aktivität synchronisiert haben, an dieser Aufgabe beteiligt sind. In den aufgezeichneten EEG-Daten kann diese Zusammenarbeit anhand von interregionaler Kohärenz als Phasensynchronizität der Hirnstromfrequenz nachgewiesen bzw. quantifiziert werden. Ziel der Arbeit ist die Implementierung einer Software, welche die notwendigen Schritte der Kohärenzanalyse durchführt und die Ergebnisse statistisch aufbereitet und darstellt. Da die Verfahren und der Ablauf weitgehend durch die Anforderungsspezifikation vorgegeben sind, liegt ein Schwerpunkt der Arbeit auf dem Entwurf und der Programmierung einer intuitiv zu bedienenden Benutzeroberfläche, die den automatisierten Ablauf der Analyse ermöglicht. Ein Statistik-Toolkit soll die Überprüfung von Arbeitshypothesen ermöglichen (Signifikanz). Weiterhin soll die Darstellung den Transport und die Diskussion der Ergebnisse erleichtern.
This paper proposes model-driven techniques to extend IBM- SOMA method towards migrating legacy systems into Service-Oriented Architectures (SOA). The proposal explores how graph-based querying and transformation techniques enable the integration of legacy assets into a new SOA. The presented approach is applied to the identification and migration of services in an open source Java software system.
Process Commodities : Entwicklung eines Reifegradmodells alsBasis für Outsourcingentscheidungen
(2009)
Der vorliegende Arbeitsbericht behandelt die Anforderungen an Prozessmanagement als Basis für Outsourcingentscheidungen. Zu dieser Fragestellung erschien im Jahr 2005 ein Artikel von Thomas Davenport mit dem Titel "The Coming Commoditization of Processes". In diesem wird auf das Fehlen eines einheitlichen Verständnisses über Inhalte und Beschreibungen von Prozessen und Prozessschritten, Leistungsindikatoren sowie Prozessmanagementpraktiken hingewiesen. Der vorliegende Arbeitsbericht versucht diese Lücke in Teilen zu schließen, indem er ein Reifegradmodell für Prozessmanagement vorstellt. Mit Hilfe des Modells können Unternehmen einschätzen, in wieweit sie vorhandene Methoden des Prozessmanagements umsetzen und damit die Grundlage für Prozessoutsourcing geschaffen haben.
Die Arbeit befasst sich mit der Thematik "Frauen und Computerspiele". Um einen kurzen Überblick über die Thematik zu geben, werden zunächst einige aktuelle Studien präsentiert. Anschließend werden bisherige Erkenntnisse zu den Vorlieben weiblicher Computerspieler herausgestellt. Insbesondere wird untersucht, was Frauen motiviert, Computerspiele zu spielen, welche Themen und Konfliktlösungen sie bevorzugen. Auch die Zugangsweise zum Computer wird betrachtet und die Frage, wie hoch die Fehlertoleranz von Frauen bei Computerspielen ist. Um die Präferenzen weiblicher Spieler untersuchen zu können, wird ein Casual Game mit zwei unterschiedlichen Leveln entwickelt. Das erste ähnelt vom Aufbau her Casual Games, die aktuell im Internet zu finden sind und schon einige Frauen begeistert haben, z.B. "Cake Mania". In das Spiel, insbesondere in das zweite Level, sind zusätzliche Elemente eingebaut, welche den ausgearbeiteten Vorlieben entsprechen. Abschließend wird das Spiel weiblichen Testpersonen über das Internet zur Verfügung gestellt, und über einen Online-Fragebogen werden die herausgearbeiteten Thesen überprüft.
Diese Studienarbeit baut auf der Arbeit von Tim Steffens [Ste05] auf. Bei seiner Studienarbeit handelt es sich um ein System zur einfachen Präsentation handschriftlicher Lehrinhalte mittels eines Tablet PCs und eines Beamers. Im Wesentlichen wird das Beschreiben von Folien und deren gleichzeitige Projektion mit einem Overheadprojektor ersetzt. Das Programm, welches aus der Studienarbeit Tim Steffens hervorgegangen ist, enthält Mängel in der Programmierung und im Entwurf aus softwaretechnischer und -ergonomischer Sicht. Diese Mängel reichen von ungünstig gewählten Schaltflächen über ein immer langsamer werdendes System bis hin zu Abstürzen während des laufenden Betriebs. Meine Studienarbeit soll dieses System genauer analysieren, bestehende Fehler korrigieren und gleichzeitig das gesamte System nach neuen Anforderungen umgestalten.
Dieses Dokument legt den Standard für die Transformation von grUML-Schemas (GraphUML, [BHR+09]) nach XSD (XML Schema Definition) fest und ist im Rahmen des Arbeitspakets 5.2 "Prototypische SOAMIG-Parser und -Unparser realisieren" im SOAMIG-Projekt entstanden. Das Ziel ist der Austausch von TGraphen (typisierten, attributierten, angeordneten, gerichte Graphen [ERW08]) über XML-Dokumente. Zur Spezifikation des Austauschformats wird XSD eingesetzt. Dies erlaubt eine Validierung der XML-Instanzen auf syntaktischer Ebene. Der Ausgangspunkt ist ein gegebenes Schemas in grUML-Notation1, welches nach XSD transformiert werden soll. Mit der generierten XSD existiert ein Beschreibungsmittel für Graph-Instanzen in XML. Die dadurch beschriebenen XML-Dokumente sind flach, d.h. alle Elemente sind direkt dem root-Element untergeordnet.
World of Warcraft, das zu den populärsten gehörende Online-Rollenspiel, zieht täglich neue Besucher in eine phantasievolle Welt voller Abenteuer, die sie mit ihren selbst erstellten Avataren frei erkunden und dabei mit anderen Avataren in Kontakt treten können. Die Arbeit beschäftigt sich mit der Frage, ob sich eine Befragung in einer virtuellen Welt durchführen lässt, welche in der Realität eingesetzten Befragungsmethoden sich dabei auch in einer virtuellen Welt anwenden lassen und welche neuen Erkenntnisse dabei gewonnen werden können. Zunächst werden allgemeine Merkmale virtueller Welten umrissen auf der Grundlage des Buchs "Spielen in virtuellen Welten" von Stefan Wesener. Insbesondere werden Kommunikationsmöglichkeiten und ihre Besonderheiten in virtuellen Welten untersucht, die für eine "virtuelle" Befragung von Bedeutung sein könnten. Anschließend werden Methoden der empirischen Sozialforschung dargestellt, um eine theoretische Basis für die Durchführung einer Befragung in einer virtuellen Welt zu schaffen. Im dritten Kapitel wird der Versuch unternommen, die Erkenntnisse über Merkmale in virtuellen Welten und Besonderheiten der Kommunikation mit den Methoden der empirischen Sozialforschung zu verzahnen, um im Anschluss darauf sowohl eine qualitative als auch quantitative Befragung in einer virtuellen Welt durchführen zu können. Speziell soll dabei auf die Messung der Teilnahmebereitschaft und der Dokumentation relevanter Auffälligkeiten, vor dem Hintergrund einer virtuellen Welt, Wert gelegt werden.
Markerloses Tracking im Bereich des modellbasierten Ansatzes Analyse durch Synthese nutzt den Vergleich von Kamerabild mit einer synthetischen Computergraphik, um die Kamerapose zu bestimmen. Hier werden ein High Dynamic Range Videokamerabild und eine photorealistische Computergraphik verglichen. Die Computergraphik ist Ergebnis einer Lichtsimulation basierend auf HDR Bildern einer Kamera mit Fischaugenobjektiv. Auf Basis der Ähnlichkeit von natürlichen Merkmalen soll die Relevanz verschiedener Rendering Parameter untersucht werden.
Im Rahmen dieser Arbeit werden die Möglichkeiten und Grenzen des Geometry-Shaders in Bezug auf die Triangulierung von Freiformflächen untersucht. Dazu steht die Konzeption und Entwicklung eines Geometry-Shaders im Vordergrund, der Freiformflächen möglichst performant zur Laufzeit triangulieren kann. Hierzu werden NURBS-Datensätze eingelesen, trianguliert und dargestellt.
Since the 1990s special platforms exist on the internet which offer information and communication for people with eating disorder. Their function is consistently and ambivalently discussed. The study analyses the expectations and the perceived benefit of the persons who use self-help internet platforms and identifies moderators. Data of 230 user of a self-help platform were collected. Scales about general motives of internet use were modified and provided a basis. Results: The most important factor for gratifications sought and obtained was social helpfulness in terms of reciprocal social support. Furthermore the will to recovery (gratification sought) and convenient information retrieval (gratification obtained) played an important role. Significant moderators for gratifications sought were psychological strain, the age of the user and the duration of eating disorder. Gratifications obtained were primarily influenced by the degree of utilization of the platform offers and the use of non-medial offers. The results confirm cues to reasons of use from former studies and concretize them by explicit factors of gratifications sought and obtained. The study has been a first effort to create a theoretical model in the context of media psychological research. Thus also moderators with impact on gratifications sought and obtained for user of such internet platforms could be identified.
In dieser Arbeit wird die Implementierung des SURF-Feature-Detektors auf der GPU mit Hilfe von CUDA detailliert beschrieben und die Ergebnisse der Implementation ausgewertet. Eine Einführung in das Programmiermodell von CUDA sowie in die Funktionsweise des Hesse-Detektors des SURF-Algorithmus sind ebenfalls enthalten.
Within this thesis time evaluated predicate/transition nets (t-pr/t-nets) have been developed for the purpose to model, simulate and verify complex real-time systems. Therefore, t-pr/t-nets integrate concepts to model timing constraints and can be analysed by the means of structural analysis such as the calculation of s- and t-invariants as well as the identification of traps and co-traps. The applicability of t-pr/t-nets to model, simulate and verify complex systems in the domain of safety-critical real-time systems is proven by the Earliest-Deadline-First-Protocol (EDF) and the Priority-Inheritance-Protocol (PIP). Therefore, the EDF and PIP are modeled by means of t-pr/t-nets. The resulting t-pr/t-nets are verified using structural analysis methods. Due to the enormous complexity and the applicability of structural analysis methods for the verification of the EDF and PIP, it can be shown that t-pr/t-nets are appropriate to model, simulate and verify complex systems in the field of safety-critical real-time systems.
Rissmuster enthalten zahlreiche Informationen über die Entstehung der Risse und können für die Technik oder die Kulturgeschichte von großem Wert sein. So vereinfacht etwa die automatische oder halbautomatische Klassifizierung von Abbildungen solcher Rissmuster die Echtheitsprüfung antiker Artefakte oder die Materialforschung. Teilweise existieren bereits Klassifizierungsverfahren, die sich für die computergestützte Auswertung einsetzen lassen. Da es bislang kein Verfahren zur objektivierten Auswertung und Analyse von Rissmustern gab, entstand 2007 in Zusammenarbeit mit der Stuttgarter Staatlichen Akademie der Bildenden Künste das Projektpraktikum Rissmusteranalyse (Primus), das die automatische Klassifikation von Rissmuster-Aufnahmen ermöglicht. Daran angebunden sollte ein Datenbanksystem die Bilder samt ihrer Analyseergebnisse verwalten und darstellen können. Eine einfach zu bedienende grafische Benutzeroberfläche soll verschiedene Methoden anbieten, die mit jeweils unterschiedlichen Bildverarbeitungsverfahren eine robuste Klassifikation der Rissmuster und den anschließenden Transfer in die Datenbank ermöglichen. Zunächst werden die aktuelle Situation des Projektes Primus und dessen grundlegende Strukturen dargestellt, unter besonderer Berücksichtigung der verwendeten Programmiersprache Qt. Den Schwerpunkt der Arbeit bildet das Redesign der Benutzeroberfläche und deren Erweiterung um neue Komponenten wie Qt-Objekte und einen separaten Tracer.
Ziel der Arbeit ist es, Kriterien und Gütemaße zur Bewertung von Merkmalen aus der Musterklassifikation zu finden und diese so in eine graphische Evaluationsumgebung zu integrieren, dass der Nutzer befähigt wird, Erkenntnisse über die Struktur des Merkmalsraumes und die Qualität der einzelnen Merkmale zu erlangen, so dass er zielführend eine möglichst optimale Teilmenge - im Sinne der Klassifikationsgüte und der Anzahl der Merkmale - gewinnen kann. Zunächst werden allgemeine visuelle Merkmale von Pollenkörnern und die manuelle Pollenzählung vorgestellt sowie eine Übersicht über das Pollenmonitor-Projekt zur automatisierten Pollen-Erkennung gegeben. Einem Überblick über die Grundlagen der Mustererkennung mit den Teilschritten Merkmalsextraktion und Klassifikation folgt eine Vorstellung von Kriterien zur Merkmalsbewertung und Verfahren zur Merkmalsselektion. Im Mittelpunkt stehen Entwurf und Umsetzung der Evaluationsumgebung sowie Experimente zur Bewertung und Selektion optimaler Teilmengen aus dem Testdatensatz
The aim of this diploma thesis is to analyse the actual business architecture at the administration of the university Koblenz-Landau. Another subject matter of the article focuses on the existing application architecture. This architecture is necessary to support the employees work. The Enterprise Architecture will be described by models. They are an important instrument for the exchange of information between different stakeholders. Actual research projects from different universities are represented at the beginning of this elaboration. Subsequent to this, important enterprise architecture frameworks and methods for archiving the tasks are introduced. The concept for the analysis is represented at the outset of the empirical part. After that, a description of the as-is architecture follows. The actual state is modelled by process maps, planning schemes, data flow graphics and a process model. In the next step, an evaluation and identification of weak points is done. Different recommendations to improve the use of information technology at the administration are presented at the end of this degree dissertation. An existing cross-functional process will be analysed, modelled and evaluated. It- about the registration and authorization of projects supported by third-party funds. Finally, a prototype is introduced. The advantages and functionalities of a new system can be shown with this first model. Notices about the next steps, a conclusion and an outlook conclude the work.
Das Wissen über die genaue Position und Lage eines unbemannten Luftfahrzeugs spielt während der Durchführung einer autonomen Mission eine dominante Rolle. Unbemannte Luftfahrzeuge sind daher mit einer Vielzahl an Sensoren ausgestattet. Jeder dieser Sensoren leistet einen Beitrag zu diesem Ziel, wobei ein Sensor entweder eine absolute oder eine relative Angabe über den derzeitigen Aufenthaltsort oder die Fluglage ermöglicht. Alle Sensoren werden zu einer Gesamtlösung verknüpft, der Navigationslösung. Das am häufigsten eingesetzte - und auch meistens einzige - Verfahren zur absoluten Positionsbestimmung ist die Satellitennavigation. Diese ist abhängig von einer direkten Sichtlinie der mitgeführten Empfangsantenne zu den Satelliten. Falls es zu einer Unterbrechung dieser Sichtlinie kommt, ist eine genaue, absolute Positionsangabe nicht mehr möglich. Die Navigationslösung hat somit nur noch Sensoren zur Verfügung, die eine relative Positions- bzw. Lageangabe ermöglichen. Hierzu gehören das mitgeführte Magnetometer und das Inertialmesssystem. Beide unterliegen dem Phänomen der Drift. Dieses bedeutet, dass die Genauigkeit der Positions- und Lageangabe bei einem Ausfall der Satellitennavigation mit fortschreitender Zeit zunehmend unzuverlässig wird. Um diese Drift in einem bestimmten Rahmen zu kompensieren, kann ein Bildsensor verwendet werden. Dieser ermöglicht eine bildbasierte Bewegungsschätzung und stellt somit einen zusätzlichen Sensor zur Messung von relativen Lage- und Positionsänderungen dar. Ziel der Arbeit ist es, ein Verfahren zur bildbasierten Bewegungsschätzung für einen unbemannten Helikopter zu entwickeln und zu evaluieren.
Entwicklung eines Computermodells der lumbalen Wirbelsäule zur Bestimmung mechanischer Belastungen
(2009)
Ziel der Arbeit war die Erstellung eines MKS-Modells der menschlichen lumbalen Wirbelsäule zur Ermittlung der mechanischen Belastungen innerer Körperstrukturen. Die Oberflächen der Wirbelkörper wurden aus CT-Daten menschlichen Sektionsguts als CAD-Oberflächen generiert und bilden das Grundgerüst des Modells. Die genaue Positionierung des Facettengelenke ist dabei vorgegeben ebenso wie die Ansatzpunkte und Verlaufsrichtungen der ligamentösen Strukturen. Zwischen den starren Wirbelkörpern wurden elastische Bandscheiben eingeführt, deren Mittelpunkte als jeweiliges Drehzentrum der entsprechenden funktionalen Einheiten definiert sind. Damit sind gleichzeitig die Hebelarme zu den Ansatzpunkten der einzelnen Bänder festgelegt. Das mechanische Verhalten dieser verschiedenen Strukturen wurde über physiologische Gleichungen oder Kennlinien in das Modell implementiert. So wurde für die Facettengelenke ein Ansatz für Kontaktkräfte in horizontaler Richtung eingeführt. Für die Kraftentwicklung bei Dehnung der Bänder fanden individuelle Kennlinien aus der Literatur Verwendung. Bei der Deformation der Bandscheiben folgt die Kraftentwicklung einer mechanischen Relation in Abhängigkeit der Deformation sowie der Deformationsgeschwindigkeit. Die entsprechenden Materialkonstanten in den Gleichungen wurden über experimentelle Messdaten aus der Literatur ermittelt. Dem Aufbau von Drehmomenten bei Auslenkung der Bandscheiben um die drei möglichen Rotationsachsen liegen wiederum Kennlinien aus der Literatur zugrunde. In Anpassung an diese experimentell ermittelten Kurven wurden mechanische Gleichungen entwickelt, die letztendlich in das Modell implementiert wurden und die bei jeweiliger Verdrehung der Bandscheibe die Entwicklung eines entsprechenden Moments angeben. Die Validierung des Modells erfolgt auf der einen Seite über die Gleichgewichtsbedingung, bei der die Summe aller Kräfte und Drehmomente bezüglich des Schwerpunkts einer funktionalen Einheit Null sein muss. Dieser Zustand konnte mit dem Modell eindeutig nachgewiesen werden. Auf der anderen Seite konnten punktuell Messergebnisse aus der Literatur über die Modellrechnungen in guter Näherung reproduziert werden. Hier besteht jedoch die Schwierigkeit, dass Messungen an Sektionsgut immer nur in isoliertem Zustand und in einem definierten Versuchsaufbau mit Belastung nur einer Richtung durchgeführt wurden. Innerhalb des Modells befinden sich die Strukturen in einem beweglichen Verbund und unterliegen damit vielfältigen mechanischen Einflüssen, was der Realität im menschlichen Körper auch wesentlich mehr entspricht. Dennoch spiegelt das Materialverhalten der elastischen Elemente innerhalb des Modells größenordnungsmäßig die Ergebnisse der verschiedensten experimentellen Messungen aus der Literatur wider. Zur Simulation unterschiedlicher Belastungssituationen wurde das Modell der Lendenwirbelsäule in verschiedenen Fallbeispielen der Einwirkung einer jeweils konstanten äußeren Kraft unterschiedlicher Größe ausgesetzt. Nach einer kurzen Phase der Bewegung aller Teilstrukturen stellte sich in jedem gerechneten Fallbeispiel ein neuer Gleichgewichtszustand ein. Für alle implementierten Strukturen, wie Bandscheiben, Bänder und Facettengelenke, konnte der zeitliche Verlauf der Belastungszunahme sowie die Belastung im Endzustand berechnet werden. Eine Überprüfung ergab, dass sich alle Ergebnisse im physiologisch gesunden Wertebereich befanden. Damit ist der Nachweis erbracht, dass mit dem vorliegenden Modell ein Instrument entwickelt wurde, das im Rahmen der Genauigkeit des Modells die Belastung der inneren Strukturen bei äußerer Krafteinwirkung zuverlässig berechnet werden können. Die Anwendungen eines derartigen Modells sind vielfältiger Art. Durch Variationen von Parametern können die verschiedensten Situationen simuliert werden. Beispiele sind hier die Auswirkung von degenerierten Bandscheiben mit völlig anderem Materialverhalten auf die umgebenden gesunden Teilstrukturen. Weitere Krankheitsbilder wie schwache Bänder, Wirbelgleiten, Knochenveränderungen oder auch der Einfluss von operativen Maßnahmen wie Versteifung einzelner Abschnitte oder die Einsetzung von Implantaten können damit simuliert werden und ermöglichen quantitative Aussagen über die Veränderung der Beanspruchung der angrenzenden Strukturen. Als Beispiel einer Anwendung in der Medizin wurde der Fall einer degenerierten Bandscheibe aufgezeigt. Die Bandscheibe wurde chirurgisch entfernt und durch ein Implantat zur Versteifung ersetzt. Mit Hilfe der Simulationsrechnung wurde die Auswirkung der Versteifung auf die Deformation der angrenzenden Bandscheiben und die veränderte Kraftentwicklung dargelegt.
Over the last three decades researchers of Cognitive Metaphor Theory have shown conclusively that metaphor is motivated rather than arbitrary and often used to systematically map out conceptual territory. This cognitive semantic proposal holds the potential for alternative L2 teaching strategies. As an abstract domain, business discourse is naturally rich in metaphors and is additionally filled with consciously used metaphorical language to strategically manipulate clients and business partners. Business English courses especially stand to profit from metaphor-oriented language teaching, as (future) managers aim to quickly improve their language performance to be prepared for international business communication. In using metaphors, speakers as well as hearers conceptualize and thus experience one thing in terms of another. Having been made aware of the conceptual linkage, students are immediately equipped with a whole set of vocabulary they may already have learned for a concrete domain and are then able to elaborate in the more abstract area of business discourse. Enhanced metaphor awareness may thus prove to be a valuable vehicle for vocabulary acquisition as well as for vocabulary retention. This thesis is subdivided into ten chapters. With each successive chapter, the focus will increasingly sharpen on the main hypothesis that metaphor awareness raising and explicit teaching in the business English classroom assists the students to dip into their savings' and transfer already acquired vocabulary to abstract business discourse and thus to become more proficient business communicators. After an introduction to the main objectives, chapter two critically looks at the different strands of Cognitive Linguistic contributions to metaphor theory made within the last three decades and discusses the structure, function and processing of figurative language to single out relevant aspects of the language classroom applications. Chapter three narrows the perspective to the socio-economic discourse as the very target domain in focus and surveys the conceptual metaphors that have been identified for this target domain, namely the source domains most productive for the target and therefore most valuable for the language classroom. In chapter four Cognitive Linguistic findings are put in contact with language didactics; i.e., the Cognitive Linguistic basis is discussed in the context of language teaching and learning theories and a first classification of metaphor teaching in the theoretical framework of language didactics is proposed. Ten cornerstones summarize the theoretical output of the previous chapters and the respective didactic consequences are considered. Theories of cognitive psychology pertaining to noticing, processing, and storing metaphors are systematically revisited and expanded to formulate further didactic implications for metaphor teaching. The consequences drawn from both linguistic as well as didactic theory are translated into a list of ten short guidelines identifying essentials for the explicit integration of metaphors into the language classroom. In chapter five those experimental studies that have already been conducted in the field of Cognitive Linguistic-inspired figurative language teaching are systematically summarized and possible contributions to set up a didactic framework for metaphor teaching are investigated. Chapters six to nine then present a piece of original research. Starting out from five research questions tackling receptive and productive vocabulary acquisition and retention as well as the influence of and on the learner- level of language proficiency, a three-fold study was designed and conducted in a regular business English classroom and results are discussed in detail. The last chapter deals again with specific implications for teaching. Earlier statements about and claims for the language classroom are revisited and refined on the basis of the theoretical linguistic, didactic and empirical findings, and an agenda for further empirical investigations is sketched out.