Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (270)
- Bachelorarbeit (229)
- Dissertation (224)
- Diplomarbeit (169)
- Studienarbeit (127)
- Masterarbeit (97)
- Bericht (8)
- Sonstiges (5)
- Buch (Monographie) (4)
- Wissenschaftlicher Artikel (1)
Sprache
- Deutsch (1136) (entfernen)
Volltext vorhanden
- ja (1136) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Augmented Reality (14)
- Bildverarbeitung (12)
- Simulation (10)
- Computergrafik (9)
- Robotik (9)
- Computergraphik (8)
- Computersimulation (8)
- Computervisualistik (8)
- Routing (8)
Institut
- Institut für Computervisualistik (282)
- Fachbereich 4 (180)
- Zentrale Einrichtungen (175)
- Institut für Wirtschafts- und Verwaltungsinformatik (94)
- Institut für Management (86)
- Institut für Informatik (62)
- Institut für Softwaretechnik (39)
- Fachbereich 8 (27)
- Fachbereich 5 (25)
- Fachbereich 7 (21)
- Institut für Kulturwissenschaft (14)
- Institut für Erziehungswissenschaft (13)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (13)
- Institut für Psychologie (13)
- Institut für Pädagogik, Abteilung Pädagogik (12)
- Institut für naturwissenschaftliche Bildung (10)
- Fachbereich 6 (9)
- Institut für Evangelische Theologie (9)
- Institut für Germanistik (8)
- Institut für Sportwissenschaft (8)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (7)
- Institut für Anglistik und Amerikanistik (7)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (7)
- Institute for Web Science and Technologies (7)
- Institut für Grundschulpädagogik (6)
- Institut für Integrierte Naturwissenschaften, Abt. Geographie (6)
- Institut für Integrierte Naturwissenschaften, Abt. Physik (6)
- Institut für Kunstwissenschaft (5)
- Institut für Integrierte Naturwissenschaften (4)
- Institut für Musikwissenschaft und Musikpädagogik (4)
- Institut für Philosophie (4)
- Institut für Pädagogik, Abteilung Schulpädagogik/Allgemeine Didaktik (4)
- Institut für Sozialwissenschaften (4)
- Institut für Soziologie und Politikwissenschaft (4)
- Institut für Umweltwissenschaften (4)
- Mathematisches Institut (4)
- Arbeitsbereich Diagnostik, Differentielle und Persönlichkeitspsychologie, Methodik und Evaluation (3)
- Institut für Kommunikationspsychologie und Medienpädagogik (2)
- Institut für Kunstwissenschaft und Bildende Kunst (2)
- An-Institute (1)
- Arbeitsbereich Entwicklungspsychologie und Pädagogische Psychologie (1)
- Arbeitsbereich Kognitive Psychologie (1)
- Fachbereich 1 (1)
- Fachbereich 3 (1)
- Institut für Geschichte (1)
- Institut für Mathematik (1)
- Institut für Pflegewissenschaften (1)
- Institut für Sonderpädagogik (1)
- Zentrum für Fernstudien und Universitäre Weiterbildung (1)
Die Dissertation bietet eine Langzeituntersuchung deutscher TV-Duelle hinsichtlich der Fragen, inwieweit die in den Debatten behandelten Themen mit den seitens der Wählerschaft wahrgenommenen politischen Probleme korrespondieren sowie ob die in den TV-Duellen diskutierten, akteursspezifischen Themen einen Einfluss auf die Problemwahrnehmung der Wählerschaft und die wahrgenommene Responsivität politischer Akteure hat. Zu diesem Zweck werden die Inhalte und Effekte der Kanzlerduelle 2002-2013 sowie der zwischen 1997 und 2016 durchgeführten TV-Duelle auf Landesebene untersucht. Die empirische Untersuchung basiert auf der Durchführung und Auswertung von Inhaltsanalysen, der Analyse von Bevölkerungsumfragen und der Untersuchung von Experimentaldaten, die anlässlich der Kanzlerduelle in den Jahren 2002, 2009 und 2013 durchgeführt wurden. Die Analysen zeigen, dass TV-Duelle keine reine Show-Veranstaltung darstellen, sondern das Hauptaugenmerk in TV-Duellen auf politischen Inhalten (statt unterhaltenden Elementen) liegt, die (lagerspezifische) Responsivität des Formats im Zeitverlauf angestiegen ist und erfolgreiche Persuasion – als eine von zwei Themenmanagementstrategien – vor allem der Herausforderer dazu führen kann, dass Zuschauer die Effektivität des politischen Systems besser bewerten.
"Da wollten ich und mein Bruder jetzt so ein Lied machen und das heißt "Vergangenheitsträume" so. (...) Und da wollten wir so über alles, was wir beide so erlebt haben, schreiben." (Karsten, 17 Jahre). Dieses Zitat entstammt einem Interview, das, neben weiteren, im Rahmen dieser Forschungsarbeit ausgewertet und interpretiert wurde. Es fasst in komprimierter Form zusammen, worum es in dieser Arbeit gehen soll: Bildung und Biografie. Ein junger Menschen, Karsten, berichtet in einem Interview, dass er angefangen hat zu rappen. Die Texte handeln von Erlebnissen und Erfahrungen seines Lebens. Er blickt gemeinsam mit seinem jüngeren Bruder zurück und hält Gedanken und Gefühle hierzu fest. "Bildung" soll verstanden werden, als eine kritische Auseinandersetzung mit sich und der Welt. Hierbei steht das eigene Leben im Fokus. "Biografie" soll verstanden werden als ein soziales Konstrukt. Ereignisse und Handlungen werden in eine Ordnung, in einen Zusammenhang gebracht. Der Prozess, sich mit seinem Leben auseinanderzusetzen dient dem Selbstverstehen und dem Fremdverstehen. Es ist mit "aktivem Tun" verbunden. Es passiert nicht einfach mit einem Menschen, vielmehr stellt es einen aktiven Prozess dar. Das Ordnen, Zusammenführen, in-Beziehung-setzen und Verstehen von Erlebnissen, Erfahrungen und Träumen des eigenen Lebens steht im Vordergrund von Bildungs- und Biografisierungsprozessen. Daher wurde der Titel für diese Forschungsarbeit ausgewählt. Im Fokus dieser Studie stehen Veränderungsprozesse der Konstruktionen von "Selbstbildern" und "Weltbildern" vier junger Menschen sowie von ihren Handlungsmustern. Die Begriffe "Selbstbild" und "Weltbild" enthalten die Vorstellung, dass Menschen die Bilder, die sie von sich selbst und von der Welt in sich tragen, im Laufe des Lebens entwickeln. Kinder entfalten eine Vorstellung davon, wie sie aussehen, welche Eigenschaften sie besitzen und was sie gut oder weniger gut können. Vielfältige Faktoren tragen zur Entstehung und Entwicklung dieser konstruierten Selbst- und Weltbilder bei (vgl. beispielhaft zu Traumaerlebnissen Dillig 1983).
Es wird in dieser Arbeit versucht nachzuzeichnen, ob bzw. wie sich diese Selbst- und Weltbilder der jungen Menschen und ihre Handlungsmuster im Verlauf verändern. Dies ist dadurch möglich, weil es sich bei der vorliegenden Untersuchung um eine Langzeituntersuchung handelt. Mit den vier jungen Menschen (Anni, Ben, Julia und Karsten) wurden zu verschiedenen Zeitpunkten Interviews geführt, in denen sie über ihr Leben berichteten. In § 1 SGB VIII wird an die Kinder- und Jugendhilfe der Auftrag formuliert, die Entwicklung von Kindern zu fördern. Jugendhilfe hat den Auftrag, Einfluss auf den Prozess der Bildung zu nehmen und die Entwicklung der jungen Menschen zu fördern, sie soll Bildungsprozesse anstoßen. Kinder machen vielfältige Erfahrungen in ihrem Leben. Sie lernen ihre "Lebenswelt" kennen und entwickeln in Auseinandersetzung mit der Welt, "eigene-sinnige" Vorstellungen von sich und von ihrer Lebenswelt (vgl. dazu Tenorth / Tippelt 2007; Marotzki 2004). Die Kinder- und Jugendhilfe muss sich mit den Selbst- und Weltkonstruktionen der jungen Menschen beschäftigen, wenn sie sich als eine an der Lebenswelt orientierte Jugendhilfe verstehen will. Sie muss sich mit den Lebensgeschichten ihrer Adressaten befassen, mit ihnen gemeinsam Biografiearbeit leisten. Dazu benötigt sie unbedingt einen verstehenden Zugang zu den jungen Menschen und ihren Interpretationen vergangener Erfahrungen (Vergangenheitsträume), um mit ihnen (neue) Lebensentwürfe, Zukunftsträume entwickeln zu können.
Des Weiteren geht es in der Arbeit um Überlebensmuster junger Menschen. Vielleicht ruft die Wahl des Begriffs Verwunderung oder Unverständnis hervor. Die Vorstellung, dass es um Muster geht, die das "Überleben" sichern sollen, mutet dramatisch an. Doch zeigen die Ergebnisse der Fallrekonstruktionen, dass dieser Vergleich durchaus angemessen erscheint (vgl. dazu auch Schrapper 2002). Für die Kinder- und Jugendhilfe stellt sich zudem die Frage nach der Wirksamkeit ihrer Bemühungen. Ist die Jugendhilfe ihrem Auftrag nachgekommen? Kann dies in den Interviews mit den jungen Menschen gezeigt werden? Wenn davon ausgegangen werden kann, dass (öffentliche) Erziehung (nachhaltig) Einfluss auf das (Er)Leben und Erzählen von Jugendlichen hat und damit auch auf die Selbst- und Weltbilder und ihre Überlebensmuster, so bieten Interviews, die zu verschiedenen Zeitpunkten geführt wurden, die Chance, dieser Frage nachzugehen. Die Forschungsfragen, die dieser Arbeit zu Grunde liegen, sind jedoch Fragen die nicht auf das Thema "Geschlossene Unterbringung" begrenzt sind. Sie können in allen anderen pädagogischen Zusammenhängen gestellt und bearbeitet werden, da der theoretische Kerngedanke der Fragestellungen nicht von einer bestimmten Intervention oder vom Setting einer Hilfe abhängt. Es werden in dieser Arbeit Anforderungen an die Kinder- und Jugendhilfe formuliert, die verdeutlichen, welche Aufgaben die Kinder- und Jugendhilfe leisten muss, damit sie Kindern und Jugendlichen Bildungserfahrungen ermöglichen kann.
Die formulierten Anforderungen werden im Verlauf nochmals aufgegriffen und sollen anhand der Forschungsergebnisse diskutiert werden. Im Mittelpunkt stehen die Fallrekonstruktionen vier junger Menschen. Hier werden in einem ersten Schritt jeweils Lebens- und Hilfegeschichten der jungen Menschen tabellarisch dargelegt. Es folgt eine Darstellung des Verlaufs der Selbstbilder, der Weltbilder und der Handlungsmuster der Jugendlichen, die jeweils mit einem Fazit enden. In der Zusammenfassung werden jeweils die Bezüge und Zusammenhänge zwischen den konstruierten Selbstbildern, Weltbildern und Handlungs- bzw, Überlebensmustern vorgestellt.
"Wer kann ich werden - Wer soll ich sein?" Selbstbildungsprozesse junger Menschen in der Jugendhilfe
(2011)
"Wer kann ich werden - Wer soll ich sein?" - Mit diesen beiden grundlegende Lebensfragen resümieren die beiden Jugendlichen, deren individuellen Verarbeitungsprozesse Gegenstand der Untersuchung sind, ihren (Selbst-)Bildungsprozess. Sie verweisen dabei auf ein wesentliches Ergebnis dieser Studie: Selbstbildungsprozesse formieren sich als einen aktiven Balanceakt der jungen Menschen zwischen individuellen Selbstkonstruktionen und Fragen der Sozialintegration. Der Blick wird dabei auf die prozesshafte Entwicklung der subjektiven Bildungsbemühungen gerichtet. Es handelt sich um ein ambivalentes Spannungsgefüge, welches sich darin ausdrückt, dass einerseits "von Außen (durch den Erzieher) geleitet" und andererseits "von Innen (durch den Jugendlichen) gesteuert" wird. Letztendlich haben jedoch viele Jahrhunderte von (praktischen) Erziehungsversuchen und vielfaches (theoretisches) Nachdenken über Erziehung und Bildung gezeigt, dass der Erfolg zum großen Teil von den jungen Menschen selbst abhängt. Damit rückt in der wissenschaftlichen Auseinandersetzung die Selbsttätigkeit des Menschen in den Fokus. Die Beschäftigung mit Prozessen der Selbstbildung stellt eine äußert komplexe Herausforderung dar. Sie läuft schnell Gefahr, dies unter normativen Aspekten zu diskutieren. In diesen Forschungszusammenhang soll der Blick explizit nicht auf die normativen Anteile des Themas gelenkt werden, sondern es ist vielmehr ein Ziel der Arbeit, empirische Befunde dazu zu erarbeiten und Kontextwissen zu generieren.rnDie Untersuchung thematisiert sowohl die Verbindungen zwischen Selbstdeutungskonstruktionen junger Menschen und Fremddeutungen relevanter Erwachsener, sowie die sich daraus entwickelten Muster der Lebensbewältigung der Jugendlichen. Im Mittelpunkt der Auseinandersetzung stehen die jungen Menschen und ihre Bildungsanstrengungen. Anhand ihrer Selbstkonstruktionen, in denen sie ihre relevanten Themen zum Ausdruck bringen und den Fremddeutungen der am Fall beteiligten Erwachsenen, wird der Frage nachgegangen, ob und wie die unterschiedlichen Deutungsfolien anschlussfähig sind und welchen Einfluss sie auf die jugendlichen Selbstbildungsprozesse nehmen. Durch die Rekonstruktion der Deutungs- und Konstruktionsmuster der unterschiedlichen Fallbeteiligten sollen sowohl praxis- wie auch forschungsrelevante Erkenntnisse über Selbstbildungsprozesse junger Menschen gewonnen werden, die im Verlauf ihrer Lebensgeschichten Adressaten der Jugendhilfe geworden sind. Ein solch komplexes Forschungsvorhaben gewinnt im Bezug auf die Diskurse zur adressatenbezogenen Jugendhilfe an Bedeutung, da es möglich wird, einen Einblick in Verarbeitungsmuster und Bewältigungsstrategien der Heranwachsenden zu gewinnen. Die vorliegende Arbeit nimmt die subjektiven Sinnzuschreibungen in den Blick, um darüber einen erkenntnisgeleiteten Zugang zu den Deutungs- und Konstruktionsmustern in ihren jeweiligen Sinnzusammenhängen zu erschließen. Gesamtgesellschaftliche Modernisierungs- und Wandlungsprozesse beeinflussen individuelle Lebensverläufe und damit auch subjektive Deutungen unterschiedlichster Lebensereignisse. Biographische Werdungsprozesse weichen von vermeintlichen "Normalbiographien" ab. Aufgabe pädagogischer Fachkräfte ist es, die selbstreflexiven Verarbeitungsprozesse junger Menschen zu begleiten und zu unterstützen. Von daher scheint es erforderlich, dass Fachkräfte ihre Kompetenzen zur Entschlüsselung individueller Bildungsbemühungen und zur Wahrnehmung biographischer Deutungskonzepte weiter entwickeln und schulen, um einen verstehenden Zugang zu den Wirklichkeitskonstruktionen junger Menschen zu gewinnen. Welche subjektive Bedeutung die Heranwachsenden den Einflüssen der Jugendhilfe zusprechen ist entscheidend für die Frage, inwieweit sie diese Erfahrungen als Unterstützung für ihre individuellen Bildungsprozesse begreifen. "Selbstbildungsprozesse junger Menschen in der Jugendhilfe" setzen sich mit der Frage auseinander, über welche Bewältigungsstrategien und Interaktionsmuster die Heranwachsenden verfügen. "Mit diesem Zugang wird der Blick auf die "Eigensinnigkeit" subjektiver Äußerungen in ihren biografisch verorteten und gesellschaftsrelevanten Bezügen gelegt." (Normann 2003, 10). Es geht also um die Rekonstruktion sozialer Wirklichkeitsbezüge aus der Sicht der jungen Menschen. Die Jugendlichen werden als aktiv Handelnde und als ExpertInnen ihrer Lebenswelt verstanden, die in der Interaktion mit Anderen die Balance zwischen sozialer Anpassungsleistung und Entwicklung ihres individuellen Lebenskonzeptes finden müssen. Subjektive Deutungs- und Konstruktionsprozesse sollen in diesem Kontext herausgearbeitet und dargestellt werden.
Der Arbeitsmarkt in Deutschland erlebt einen technologisch bedingten Strukturwandel. Durch Digitalisierung werden Tätigkeiten substituierbar, Berufsbilder und dafür benötigte Qualifikationsprofile wandeln sich. Für die Arbeitskräfte resultiert daraus ein Anpassungsdruck, sich zum Erhalt ihres Humankapitals bzw. ihrer Beschäftigungsfähigkeit weiterzubilden. Fraglich ist, inwieweit die Individuen diesen Druck wahrnehmen und mit entsprechenden Weiterbildungen reagieren. Um einen Erklärungsbeitrag zum Weiterbildungsverhalten der Arbeitskräfte in Bezug auf den technologischen Wandel zu leisten, widmet sich das Promotionsvorhaben der Forschungsfrage: „Inwieweit reagieren Arbeitskräfte bezüglich ihres Weiterbildungsverhaltens auf einen sich digitalisierungsbedingt wandelnden Arbeitsmarkt?“
In dieser Arbeit soll in Form einer Machbarkeitsanalyse untersucht werden, ob der Aufbau eines universitären Startups im Bereich der IT-Beratung möglich ist. Hierzu wird zunächst der Begriff der Beratung, der Beratungsbedarf sowie der relevante Markt näher analysiert. Durch empirische Forschung in Form von persönlichen Interviews mit IT-Unternehmen in der Region Koblenz sollen zudem nähere Erkenntnisse über die Machbarkeit der Unternehmung gewonnen werden. Die Forschungsergebnisse werden in Form einer konkreten Handlungsempfehlung präsentiert.
Augmented Reality gewinnt heutzutage immer mehr an Bedeutung in Gebieten wie der Industrie, der Medizin oder der Tourismus-Branche. Dieser Anstieg kann durch die Möglichkeit der Erweiterung der realen Welt mit weiteren Information durch Augmented Reality erklärt werden. Somit ist dieses Verfahren zu einer Methode geworden, den Informationsfluss wesentlich zu verbessern. Um ein System zu erstellen, das die reale Welt mit Zusatzinhalten erweitert, muss die Relation zwischen System und realer Welt bekannt sein. Die gängigste Methode zum Erstellen dieser Verbindung ist optisches Tracking. Das System berechnet die Relation zur realen Welt aus Kamerabildern. Dabei wird eine Referenz in der realen Welt als Orientierung genutzt. Zumeist sind dies 2D-Marker oder 2D-Texturen, die in der Szene der realen Welt platziert werden. Dies bedeutet allerdings auch einen Eingriff in die Szene. Deshalb ist es wünschenswert, dass das System ohne eine solche Hilfe arbeitet. Ein Ansatz ohne Manipulation der Szene ist Objekt-Tracking. In diesem Ansatz kann ein beliebiges Objekt als Referenz genutzt werden. Da ein Objekt viel komplexer als ein Marker oder eine Textur ist, ist es für das System schwerer, daraus eine Relation zur realen Welt herzustellen. Deshalb reduzieren die meisten Ansätze für 3D-Objekt-Tracking das Objekt, indem nicht das gesamte als Referenz dient. Der Fokus dieser Arbeit liegt auf der Untersuchung, wie ein ganzes Objekt als Referenz genutzt werden kann, sodass das System oder die Kamera sich 360 Grad um das Objekt herum bewegen kann, ohne dass das System die Relation zur realen Welt verliert. Als Basis dient das Augmented Reality-Framework "VisionLib". Verschiedene Erweiterungen wurden im Rahmen dieser Arbeit für 360-Grad-Tracking in das System integriert und analysiert. Die unterschiedlichen Erweiterungen werden miteinander verglichen. Durch das Verbessern des Reinitialisierungsprozesses konnten die besten Ergebnisse erzielt werden. Dabei werden dem System aktuelle Bilder der Szene übergeben, mit dem das System schneller eine neue Relation zur realen Welt herstellen kann, wenn diese verloren geht.
3D-Kurven-Skelette werden oft verwendet, da sie im Vergleich zu der von Harry Blum 1967 vorgestellten Medialen Axen Transformation, eine Repäsentation der Objekt-Oberfläche darstellen, die in der Weiterverarbeitung weniger kompex und rechenintensiv ist.
Diese Arbeit hat das Ziel, ein Approximation-Verfahren für 3D-Kurven-Skelette zu entwickeln, welches die oben genannten Vorteile enthält und sich auf verschiedene Szenarien von Objektoberflächen-Daten anwenden lässt.
3D-Modelle werden heute in vielen Bereichen wie Multimedia Anwendungen, Robotik oder der Filmindustrie immer wichtiger. Besonders interessant ist dabei die Erstellung eines 3D-Modells aus einer monokularen Bilderserie, da die hierfür nötigen Kameras immer günstiger, kleiner und ausgereifter produziert werden. Geeignetere Kameras werden in immer mehr Geräten wie Smartphones, Tablet-PCs, Autos etc. verbaut, wodurch sich ein großes Potential für die Verwendung dieser Rekonstruktionstechnik ergibt.
Als Grundlage dieser Arbeit dient eine mit einer kalibrierten Kamera aufgenommene Bilderserie. Aus dieser werden 2D-Punktkorrespondenzen, mit den verbreiteten SURF-Features oder den A-KAZE-Features gewonnen. Aufbauend auf den 2D-Punktkorrespondenzen kann aus diesen mit Hilfe verschiedener Algorithmen ein 3D-Modell in Form einer Punktwolke und Kameraposen rekonstruiert werden.
Um Fehler in dem entstandenen Modell gering zu halten, wird insbesondere aufrnden Bündelausgleich zur Fehlerminimierung eingegangen. Anschließend wird dasrnneben dieser Arbeit entstandene Programm zur 3D-Rekonstuktion und Visualisierung des 3D-Modells erläutert. Das implementierte System wird anschließend anhand von Statistiken evaluiert und die hieraus gewonnenen Erkentnisse präsentiert.
Abschließend werden die Ergebnisse dieser Arbeit zusammengefasst und einrnAusblick auf mögliche Weiterentwicklungen gegeben.
Das Hauptziel der vorliegenden Arbeit ist die Absicherung der Qualität eines pharmazeutischen Produktionsprozesses durch die Überprüfung des Volumens mikroskopischer Polymerstäbchen mit einem hochgenauen 3D Messverfahren. Die Polymerstäbchen werden für pharmazeutische Anwendungen hergestellt. Aus Gründen der Qualitätssicherung muss das Istgewicht überprüft werden. Derzeit werden die Polymerstäbchen stichprobenartig mit einer hochpräzisen Waage gewogen. Für die nächste Generation von Polymeren wird angenommen, dass die Produktabmessungen weiter reduziert werden sollen und die Produktionstoleranzen auf 2,5% gesenkt werden. Die daraus resultierenden Genauigkeitsanforderungen übersteigen jedoch die Möglichkeiten der Wiegetechnik. Bei homogenen Materialien ist die Masse proportional zum Volumen. Aus diesem Grund kommt dessen Bestimmung als Alternative in Frage. Dies verschafft Zugang zu optischen Messverfahren und deren Flexibilität und Genauigkeitpotenzial. Für den Entwurf eines auf die Fragestellung angepassten Messkonzeptes sind weiterhin von Bedeutung, dass das Objekt kontaktlos, mit einer Taktzeit von maximal fünf Sekunden vermessen und das Volumen approximiert wird. Die Querschnitte der Polymerstäbchen sind etwa kreisförmig. Aufgrund der Herstellung der Fragmente kann nicht davon ausgegangen werden, dass die Anlageflächen orthogonal zur Symmetrieachse des Objektes sind. Daher muss analysiert werden, wie sich kleine Abweichungen von kreisförmigen Querschnitten sowie die nicht idealen Anlageflächen auswirken. Die maximale Standardabweichung für das Volumen, die nicht überschritten werden sollte, beträgt 2,5%. Dies entspricht einer maximalen Abweichung der Querschnittsfläche um 1106 µm² (Fehlerfortpfanzung). Als Bewertungskriterium wird der Korrelationskoeffzient zwischen den gemessenen Volumina und den Massen bestimmt. Ein ideales Ergebnis wäre 100%. Die Messung zielt auf einen Koeffzienten von 98% ab. Um dies zu erreichen, ist ein präzises Messverfahren für Volumen erforderlich. Basierend auf dem aktuellen Stand der Technik können die vorhandenen optischen Messverfahren nicht verwendet werden. Das Polymerstäbchen wird von einer Kamera im Durchlicht beobachtet. Daher sind der Durchmesser und die Länge sichtbar. Das Objekt wird mittels einer mechanischen Vorrichtung um die Längsachse gedreht. So können Bilder von allen Seiten aufgenommen werden. Der Durchmesser und die Länge werden mit der Bildverarbeitung berechnet. Das neue Konzept vereint die Vorteile der Verfahren: Es ist unempfindlich gegen Farb-/Helligkeitsänderungen und die Bilder können in beliebiger Anzahl aufgenommen werden. Außerdem sind die Erfassung und Auswertung wesentlich schneller. Es wird ein Entwurf und die Umsetzung einer Lösung zur hochpräzisen Volumenmessung von Polymerstäbchen mit optischer Messtechnik und Bildverarbeitung ausgearbeitet. Diese spezielle Prozesslösung in der Prozesslinie (inline) sollte eine 100%ige Qualitätskontrolle während der Produktion garantieren. Die Zykluszeiten des Systems sollte fünf Sekunden pro Polymerstäbchen nicht überschreiten. Die Rahmenbedienungen für den Prozess sind durch die Materialeigenschaften des Objekts, die geringe Objektgröße (Breite = 199 µm, Länge = 935 µm bis 1683 µm) und die undeffinierte Querschnittsform (durch den Trocknungsprozess) vorgegeben. Darüber hinaus sollten die Kosten für den Prozess nicht zu hoch sein. Der Messaufbau sollte klein sein und ohne Sicherheitsvorkehrungen oder Abschirmungen arbeiten. Das entstandene System nimmt die Objekte in verschiedenen Winkelschritten auf, wertet mit Hilfe der Bildverarbeitung die Aufnahmen aus und approximiert das Volumen. Der Korrelationskoffizient zwischen Volumen und Gewicht beträgt für 77 Polymerstäbchen mit einem Gewicht von 37 µg bis 80 µg 99; 87%. Mit Hilfe eines Referenzsystems kann die Genauigkeit der Messung bestimmt werden. Die Standardabweichung sollte maximal 2,5% betragen. Das entstandene System erzielt eine maximale Volumenabweichung von 1,7%. Die Volumenvermessung erfüllt alle Anforderungen und kann somit als Alternative für die Waage verwendet werden.
This paper describes a parallel algorithm for selecting activation functionsrnof an artifcial network. For checking the efficiency of this algorithm a count of multiplicative and additive operations is used.
In this article we analyze the privacy aspects of a mobile sensor application used for recording urban travel patterns as part of a travel-survey service. This service has been developed and field-tested within the Live+Gov EU Project. The privacy analysis follows a structured approach established in. Eight privacy recommendations are derived, and have already led to corresponding enhancements of the travel-survey service.
Die vorliegende Arbeit beschäftigt sich mit der Abbildung von Ecore nach grUML. Dabei wird sowohl die Transformation von in Ecore modellierten Modellen nach Graphen in grUML als auch die Konvertierung von Ecore-Metamodellen nach grUML-Schemas betrachtet. Zunächst werden die beiden Modellierungssprachen Ecore und grUML einzeln beschrieben. Dabei werden die Metamodelle der Sprachen erklärt und die Programmierschnittstellen vorgestellt. Im Anschluss werden Unterschiede und Gemeinsamkeiten von grUML und Ecore erläutert und auf dieser Grundlage eine Abbildung definiert. Außerdem werden Anforderungen an die Implementierung der Transformation festgehalten. Danach folgen verschiedene Details zur Realisierung. Zum Schluss wird mit Hilfe einiger Beispiele gezeigt, welche Ergebnisse durch die Transformation entstehen.
Dieses Dokument legt den Standard für die Transformation von grUML-Schemas (GraphUML, [BHR+09]) nach XSD (XML Schema Definition) fest und ist im Rahmen des Arbeitspakets 5.2 "Prototypische SOAMIG-Parser und -Unparser realisieren" im SOAMIG-Projekt entstanden. Das Ziel ist der Austausch von TGraphen (typisierten, attributierten, angeordneten, gerichte Graphen [ERW08]) über XML-Dokumente. Zur Spezifikation des Austauschformats wird XSD eingesetzt. Dies erlaubt eine Validierung der XML-Instanzen auf syntaktischer Ebene. Der Ausgangspunkt ist ein gegebenes Schemas in grUML-Notation1, welches nach XSD transformiert werden soll. Mit der generierten XSD existiert ein Beschreibungsmittel für Graph-Instanzen in XML. Die dadurch beschriebenen XML-Dokumente sind flach, d.h. alle Elemente sind direkt dem root-Element untergeordnet.
Abdriftbedingte Pflanzenschutzmittelrückstände in unbehandelten Kulturen auf angrenzenden Flächen
(2020)
Die vorliegende Arbeit beschäftigt sich mit der Abdrift von Pflanzenschutzmitteln (PSM), die auf Lebensmittelkulturen in angrenzenden Flächen, insbesondere in benachbarte Haus- und Kleingärten, gelangt. In einer Reihe von Windtunnelversuchen wurde die Abdrift von PSM aus Flächen- und Raumkulturen während der Applikation mit zwei verschiedenen Testsystemen nachgestellt. Das Testsystem Flächenkultur simuliert die Applikation auf Flächenkulturen, das Testsystem Raumkultur die auf Raumkulturen. Auf der Nicht-Zielfläche wurden die auf Grund von Abdrift entstandenen Rückstände des verwendeten Tracers Pyranin nach der Applikation entfernungsabhängig auf den Lebensmittelkulturen Kopfsalat, Erdbeeren und Tomaten gemessen. Durch die gleichzeitige Messung der Bodendeposition konnten die Messwerte mit Hilfe von Regressionsgleichungen (R² = 0,88 bis 0,97) in Bezug zu den Abdrifteckwerten (AEW) gebracht werden. Dadurch war es möglich, erste Abschätzungen der Höhe von Rückständen vorzunehmen, die über Abdrift von landwirtschaftlichen Flächen auf benachbarte Lebensmittelkulturen im Freiland gelangen können. Diese Abschätzung ist zunächst limitiert auf die drei Versuchspflanzen. Die Versuche zeigen, dass sich die meisten durch Abdrift entstehenden Rückstände auf Salatköpfen wieder finden, gefolgt von Erdbeeren und Tomaten.
Neben dem experimentellen Teil wurden Analysen mit Geoinformationssystemen (GIS) durchgeführt, um die Nachbarschaftsverhältnisse zwischen landwirtschaftlich genutzten Flächen und Gartenflächen für ganz Deutschland und speziell für Rheinland-Pfalz (RLP) zu analysieren. Dazu wurden für die deutschlandweiten Berechnungen die Daten des amtlichen topographisch-kartographischen Informationssystems (ATKIS) und für die RLP-weiten Berechnungen die Daten des amtlichen Liegenschaftskatasterinformationssystem (ALKIS) verwendet. Beachtet werden muss, dass auf Grund der Datenbeschaffenheit eine Abgrenzung der Gartenflächen zu Wohnflächen nicht möglich ist. Deutschlandweit liegen etwa 1,1 % aller potentiellen Gartenflächen innerhalb eines 5 m Pufferbereichs um Raumkulturen bzw. innerhalb eines 2 m Pufferbereichs um Flächenkulturen. Für RLP sind es 0,75 %. Mit Hilfe eines Landbedeckungsdatensatzes der Fa. RLP AgroScience GmbH und den ALKIS-Daten konnte jedoch die exakte Gartenfläche für RLP auf 47.437 ha bestimmt werden. Basierend auf dieser Datengrundlage liegen 1,2 % der Gartenfläche von RLP innerhalb der genannten Pufferbereiche. Des Weiteren ergaben Berechnungen, dass 3 % der Gärten in RLP direkt angrenzend zu landwirtschaftlich genutzten Flächen liegen.
Im Rahmen dieser Arbeit wurden nicht nur Gärten betrachtet, die an landwirtschaftliche Flächen grenzen, sondern auch Nachbarschaftsverhältnisse zwischen ökologisch und konventionell bewirtschafteten Flächen untersucht. Diese Berechnungen erfolgten mit den Daten des Integrierten Verwaltungs- und Kontrollsystems (InVeKoS). Insgesamt grenzen in RLP 47,1 % aller ökologisch bewirtschafteten Flächen unmittelbar an konventionell bewirtschaftete Flächen an.
Absicherung der analytischen Interpretation von Geolokalisierungsdaten in der Mobilfunkforensik
(2019)
Zusammenfassung
Lokalisierungsdienste gehören mit zu den wesentlichen Merkmalen moderner mobiler Endgeräte. Neben der Tatsache, dass Standortdaten zur Rekonstruktion eines Bewegungsprofils genutzt werden können, steigt der Anteil der zu untersuchenden Geräten mit entsprechender Ausstattung im Rahmen von polizeilichen Ermittlungen enorm an.
Motivation
Ziel dieser Arbeit ist es, tiefergehendes Wissen um Geolokalisierungsfragen im Bereich der Mobilfunkforensik aufzubauen, um die in den Geräten gespeicherten Standortdaten forensisch auswertbar zu machen. Darüber hinaus sollen Werkzeuge entwickelt werden, die die spezifischen Bedürfnisse der Strafverfolgungsbehörden berücksichtigen.
Probleme
Die Prozesse der Geolokalisierung in Smartphones sind komplex. Um seine Position zu lokalisieren zu können, müssen verschiedene Referenzsysteme wie z. B. GPS, Funkzellen oder WLAN-hotspots in unterschiedlicher Art und Weise verknüpft werden. Der gesamte Lokalisierungsmechanismus ist geistiges Eigentum der Hersteller und nicht mit dem Ziel forensischer Auswertungen entstanden. Ein grundlegendes Problem der forensischen Untersuchung ist, dass hauptsächlich Referenzpunkte anstelle reeller Gerätepositionen gespeichert werden. Darüber hinaus bestehen die Geolokalisierungsinformationen aus Bits und Bytes bzw. numerischen Werten, die zuverlässig an ihre Bedeutung geknüpft werden müssen. Die gewonnenen Lokalisierungsdaten sind ferner lückenhaft und stellen lediglich einen Teil des gesamten Prozesses bzw. der Gerätenutzung dar. Dieser Datenverlust muss bestimmt werden, um eine zuverlässige Aussage hinsichtlich der Vollständigkeit, Integrität und Genauigkeit der Daten zu ermöglichen. Zu guter Letzt muss, wie für jedes Beweismittel einer kriminalistischen Untersuchung, gesichert sein, dass eine Manipulation der Daten bzw. Fehler bei der Positionsschätzung des Gerätes keinen nachteiligen Einfluss auf die Auswertung haben.
Forschungsfragen
Im Zusammenhang mit Lokalisierungsdiensten in modernen Smartphones kommt es im forensischen Alltag immer wieder zu ähnlichen Fragestellungen:
* Lassen sich Standorte zu jedem beliebigen Zeitpunkt ermitteln?
* Wie genau sind die ermittelten Geodaten des Smartphones?
* Werden Standortdaten aus Smartphones vor Gericht Bestand haben?
Forschungsansatz
Zur besseren Nachvollziehbarkeit der Prozesse in modernen Smartphones und um die Qualität und Zuverlässigkeit von Geolokalisierungsdaten zu bewerten, sollen Standortdaten verschiedener Plattformen sowohl theoretisch analysiert als auch praktisch während der Lokalisierung betrachtet werden. Der Zusammenhang zwischen Daten und Entstehungskontext wird mithilfe experimenteller Live-Untersuchungen sowie Desktop- und nativen Anwendungen auf den mobilen Endgeräten untersucht werden.
Ergebnis
Im Rahmen dieser Arbeit konnten mithilfe der entwickelten Werkzeuge die forensische Untersuchung verbessert sowie die analytische Interpretation von Geodaten von- bzw. direkt auf modernen Smartphones durchgeführt werden. Dabei hat sich ein generisches Modell zur Beurteilung der Qualität von Standortdaten herauskristallisiert, das sich allgemein auf die ermittelten Geodaten aus mobilen Endgeräten anwenden lässt.
Absicherung und Verifikation einer Instant Messaging-Kommunikation über Diffie Hellman Key Agreement
(2009)
Im Rahmen dieser Bachelorarbeit soll die Absicherung und Verifikation einer Instant Messaging-Kommunikation beschrieben und in Form eines Plugins für ein bestehendes Instant Messaging-System realisiert werden. Dazu werden zunächst die Anforderungen an das System erhoben und mit Vorhandenen Konzepten und Systemen am Markt verglichen. Darauf aufbauend wird ein eigenes Konzept entwickelt und die Umsetzung in der Programmiersprache Java beschrieben. Der Fokus dieser Arbeit liegt dabei auf der Absicherung des Chat-Kanals einer Instant Messaging-Kommunikation, aber es werden geeignete Schnittstellen beschrieben und implementiert, die eine Erweiterung der angewendeten Verfahren für beliebige Datensätze ermöglicht.
Im Vergleich zu herkömmlicher Computergrafik (perspektivische Projektion) bietet Raytracing entscheidende Vorteile, die hauptsächlich in der vergleichsweise hohen physikalischen Korrektheit der Methode begründet sind. Die Schwächen liegen hingegen im immensen Rechenaufwand.
Ein Raytracer ist vergleichsweise so rechenintensiv, weil für jeden Pixel mindestens ein Strahl verschickt werden muss. Dieser muss gegen alle Objekte im Raum geschnitten werden. Hinzu kommen noch die Strahlen, die entstehen, wenn Strahlen an Objekten reflektiert werden (Rekursion). Um diesen Rechenaufwand zu verkleinern und zusätzlich ein besseres Bild zu erzeugen, soll der adaptive Sampler den Raytracer unterstützen. Der adaptive Sampler soll während des Rendervorgangs den progressiven Fortschritt in der Bildgenerierung beobachten und Pixel von der weiteren Berechnung ausschließen, für die sich ein zusätzliches Verschießen von Strahlen nicht mehr lohnt.
Anders als der rein progressive Raytracer hört der adaptive Sampler mit dem Konvergieren des Bildes auf zu rechnen. Der adaptive Sampler soll so dafür sorgen, dass schneller ein besseres Bild erzeugt wird und somit die Performanz gesteigert wird. Insgesamt erwartet man sich vom adaptiven Sampler Vorteile bei der Berechnung von bestimmten Szenen. Unter anderem eine Verbesserung bei Szenen mit rein diffus beleuchteten Bildbereichen, sowie eine Verbesserung bei Szenen mit unterschiedlich rechenintensiven Bildbereichen. Ein normaler Raytracer kann nicht beurteilen, wie sinnvoll seine Schüsse sind. Er kann nur mehr Strahlen verschießen, in der Hoffnung, das Bild damit effektiv zu verbessern.
Es gibt jedoch viele Szenarien, bei denen eine linear steigende Schussanzahl pro Pixel keine gleichmäßige Verbesserung im Bild erzeugt. Das bedeutet, dass Bereiche im Bild schon gut aussehen, während andere noch sehr verrauscht sind. Man möchte nun Bildbereiche, die bereits konvergiert sind, in denen sich ein weiterer Beschuss also nicht mehr bemerkbar macht, ausschließen und die Rechenleistung dort nutzen, wo man sie noch braucht.
Wichtig dabei ist, dass Pixel nicht ungewollt zu früh von der Berechnung ausgeschlossen werden, die nicht weit genug konvergiert sind. Der adaptive Sampler soll so lange arbeiten, bis jeder Pixel dauerhaft keine Änderungen mehr vorweist. Das bedeutet, dass die Wahrscheinlichkeit für eine signifikante Farbänderung eines Pixels durch Verschießen eines Strahls (bei mehreren Lichtquellen in RenderGin mehrere Strahlen pro Pixel) klein genug ist. Es wird zwar intern keine Wahrscheinlichkeit berechnet, jedoch bekommt der Raytracer eine Art Gedächtnis: Er speichert die Veränderungen im beleuchteten Bild und deren Verlauf in eigenen Gedächtnisbildern. Das "Gedächtnis" für das alte Bild (Zustand des Bildes in der letzten Iteration über die Pixel) repräsentiert dabei das Kurzzeitgedächtnis. Es ist absolut genau. Das Langzeitgedächtnis wird von drei verschiedenen Bildern repräsentiert. Das erste gibt die Anzahl der verschossenen Strahlen pro Pixel an. Das zweite ist ein Wahrheitswertebild, das für jeden Pixel angibt, ob dieser noch in die Berechnung einbezogen werden soll. Das dritte Bild gibt an, wie oft jeder Pixel eine Farbänderung vollzogen hat, die geringer ist als der geforderte Maximalabstand eines Pixels zu sich selbst (vor und nach dem Verschießen eines weiteren Strahls).
Mit diesen drei Bildern ist es möglich, zusätzliche quantitative Informationen zu den qualitativen Informationen des Vergleichs vom neuen und alten Bild zu berücksichtigen.
In dieser Arbeit kläre ich die Frage, ob die gewünschten Effekte eintreten und ob bei Integration in die bestehende Struktur von RenderGin ein Performanzgewinn möglich ist. Die Umsetzung eines adaptiven Samplers ist als Plug-In in der Software RenderGin von Numenus GmbH geschehen. RenderGin ist ein echtzeitfähiger, progressiver Raytracer, der sich durch seine Performanz auszeichnet. Die Bildgenerierung geschieht allein auf der CPU, die Grafikkarte wird lediglich zur Anzeige des erzeugten Bildes benötigt.
Die Umsetzung und Programmierung des Plug-Ins ist in Microsoft Visual Studio 2010 geschehen unter Verwendung des RenderGin SDK der Numenus GmbH.
Ein Switch (engl. Schalter; auch Weiche) ist eine Netzwerk-Komponente zur Verbindung mehrerer Computer bzw. Netz-Segmente in einem lokalen Netzwerk (LAN). Da Switches den Netzwerkverkehr analysieren und logische Entscheidungen treffen, werden sie auch als intelligente Hubs bezeichnet. Die Funktionsweise eines Switches ist der einer Bridge sehr ähnlich, daher wurde anfangs auch der Begriff Multi-Port-Bridge genutzt 1. Ziel der Diplomarbeit ist es, eine Dokumentation auf die Beine zu stellen, der interessierten Studenten der Informationstechnologie die Möglichkeit bietet, einerseits anhand von physikalischen Switches Administrationsaufgaben nachzuempfinden und andererseits anhand von virtuellen Switches größere Netzwerktopologien aufzubauen. Diese Virtualisierung wird durch das von Virtual Square entwickelte Tool VDE erreicht. Die physikalischen Switches bestehen aus vier Catalyst 3500 XL. Im Laufe dieser Arbeit wird sowohl die Bedienung der einzelnen Systeme untereinander, wie auch die Vernetzung der virtuellen Switches mit den physikalischen Switches erläutert. In diesem Zusammenhang wird auch auf Protokolle und Methoden wie das Spanning Tree Protokoll oder die Virtualisierung eines Netzes durch VLANs eingegangen. Zum Schluss kann der Leser das gelernte in einigen praktischen Aufgaben anwenden.
Das Just-in-Time - Verfahren ist ein neues Unterrichtskonzept aus den USA (auch in D. schon z.T. eingesetzt), bei dem ein oder zwei Tage vor der Unterrichtsstunde Fragen hauptsächlich zu qualitativem und konzeptuellem Verständnis an die SchülerInnen gestellt und von diesen per eMail beantwortet werden. Aus den Lösungen wird dann von der Lehrkraft eine Folie mit falschen und richtigen Vorschlägen erstellt (i.a. anonym), die dann in der Klasse diskutiert werden. Die besonderen Vorteile des Verfahrens sind: Adaptiver Unterricht mit kurzfristiger ("just-in-time") Reaktionsmöglichkeit auf Präkonzepte und andere Lernschwierigkeiten; Förderung der Selbsttätigkeit und Eigenverantwortung für die eingesendeten Beiträge; Schaffung einer schriftlichen (eMail-Beitrag) und mündlichen (Diskussion) Gelegenheit zur Spracharbeit an fachlichen Inhalten. Das Lernarrangement Die über Webspace verfügende Lehrkraft lädt eine themenrelevante Aufgabe ins Internet. Diese Aufgabe ist von den SchülerInnen ihres Kurses am Computer zu Hause zu bearbeiten; die Bearbeitung wird über ein Formularfenster als Mail an die Lehr-kraft gesendet. Mit den Statements ihrer SchülerInnen im Kopf begibt sich die Lehrkraft nun an die Planung der folgenden Unterrichtsstunde: Insbesondere werden die interessantesten Statements auf TLP-Folie kopiert . Sie bilden den roten Faden der in Planung befindlichen Unterrichtsstunde. Die Schülerantworten sind also zum einen Planungsgrundlage für die folgende Unterrichtsstunde, zum anderen werden sie zu einem besonderen Unterrichtsmedium des JiTT-Verfahrens (Folie o.ä. mit den interessantesten Statements). Der Unterrichtsverlauf enthält Phasen, in denen die Schüleraussagen gelesen, erörtert und diskutiert werden sowie Phasen, in denen die Gruppe mit üblichen Unterrichtsmedien und -methoden (Arbeitsblätter, Versuche) arbeitet. Im Idealfalle reduziert sich die Rolle des Lehrers in der Diskussionsphase auf die eines Moderators. Fachdidaktische und instruktionspsychologische Begründung JiTT kann als besondere Form des Adaptiven Unterrichts aufgefasst werden: Der Lehrkraft ist es möglich, insbesondere auf vorhandene Präkonzepte und andere Lernschwierigkeiten in adäquater Form zu reagieren und ihren Unterricht zu gestalten. Das Verfahren kann des weiteren auf der Ebene der Motivation wirksam sein, indem Selbstbestimmung (Mitgestaltung des Unterrichtes!) und soziale Einbindung (Diskussion der Schülerbeiträge in der Gruppe!) in besonderer Weise gefördert und gefordert werden. Selbstbestimmung und soziale Einbindung sind aber (zusammen mit Kompetenz) Hauptfaktoren in einer der führenden Theorien der Motivationspsychologie (Selbstbestimmungstheorie nach DECI & RYAN). Bemerkungen zum Design der Feldstudie In den Hauptteil der Feldstudie des Projektes zur Evaluation des Verfahrens waren zwei Physik-Leistungskurse eines rheinland-pfälzischen Gymnasiums (Teilgebiete "Mechanik" und "Elektrodynamik") eingebunden, ein Ergänzungsteil wurde im Rahmen einer Mechanik-Vorlesung des Lehramtsstudiums Physik an einer rheinland-pfälzischen Universität realisiert. Das erhobene Datenmaterial wurde insbesondere mit Hilfe des Verfahrens der multivariaten, hierarchischen Regressionsanalyse evaluiert. Ergebnis der Feldstudie und Diskussion Ein relevanter Effekt des JiTT-Verfahrens auf die Performanz der Lernenden kann nicht nachgewiesen werden. Im Hinblick auf mögliche Erklärungsmuster erscheinen folgende Aspekte von Bedeutung: Im Zuge der adäquaten Berücksichtigung von Schülervorstellungen ist es ausreichend, die "Mainstream-Päkonzepte" der Lernenden zu kennen. Detaillierte-res Wissen führt zu keinem signifikant erfolgreicheren Unterricht; Die vergleichsweise offen gestalteten JiTT-Phasen des Unterrichts scheinen insbesondere die leistungsschwächeren Lernenden zu überfordern; Ein eventuell doch vorhandener, auf JiTT zurückführbarer Einfluss auf die Performanz wird durch die Effizienz des im Unterricht eingesetzten methodischen Werkzeugs der Modellbildung überdeckt. Im Hinblick auf die motivationalen Einstellungen der Lernenden erscheint bemer-kenswert, dass man in JiTT zwar durchaus eine Bereicherung für den Unterricht sieht, dem gewachsenen zeitlichen Druck sowie den erweiterten Kontrollmöglichkeiten seitens der Lehrkraft jedoch kritisch gegenübersteht. Somit ist zweifelhaft, ob es durch den Einsatz des Verfahrens tatsächlich zu einer Verstärkung der autonom regulierten Varianten der Motivation kommt.
In dieser Arbeit wurde der Einfluss von nicht wässrigen Mahlflüssigkeiten auf Metall-Keramik-Pulvermischungen im Nassmahlprozess untersucht. Es wurden Al- und Cr-Al₂O₃-Pulvermischungen ausgewählt, um den Einfluss der Mahlflüssigkeiten auf die Mahlung von Metall-Keramik-Pulvermischungen mit einer duktilen (Aluminium) und einer spröden (Chrom) Metallkomponente zu untersuchen.