Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (270)
- Bachelorarbeit (230)
- Dissertation (224)
- Diplomarbeit (169)
- Studienarbeit (127)
- Masterarbeit (99)
- Bericht (8)
- Sonstiges (5)
- Buch (Monographie) (4)
- Wissenschaftlicher Artikel (1)
- Habilitation (1)
- Vorlesung (1)
Sprache
- Deutsch (1139) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Augmented Reality (14)
- Bildverarbeitung (12)
- Simulation (10)
- Computergrafik (9)
- Computersimulation (9)
- Robotik (9)
- Computergraphik (8)
- Computervisualistik (8)
- Routing (8)
Institut
- Institut für Computervisualistik (282)
- Fachbereich 4 (182)
- Zentrale Einrichtungen (175)
- Institut für Wirtschafts- und Verwaltungsinformatik (94)
- Institut für Management (87)
- Institut für Informatik (62)
- Institut für Softwaretechnik (39)
- Fachbereich 8 (27)
- Fachbereich 5 (25)
- Fachbereich 7 (21)
Die Dissertation bietet eine Langzeituntersuchung deutscher TV-Duelle hinsichtlich der Fragen, inwieweit die in den Debatten behandelten Themen mit den seitens der Wählerschaft wahrgenommenen politischen Probleme korrespondieren sowie ob die in den TV-Duellen diskutierten, akteursspezifischen Themen einen Einfluss auf die Problemwahrnehmung der Wählerschaft und die wahrgenommene Responsivität politischer Akteure hat. Zu diesem Zweck werden die Inhalte und Effekte der Kanzlerduelle 2002-2013 sowie der zwischen 1997 und 2016 durchgeführten TV-Duelle auf Landesebene untersucht. Die empirische Untersuchung basiert auf der Durchführung und Auswertung von Inhaltsanalysen, der Analyse von Bevölkerungsumfragen und der Untersuchung von Experimentaldaten, die anlässlich der Kanzlerduelle in den Jahren 2002, 2009 und 2013 durchgeführt wurden. Die Analysen zeigen, dass TV-Duelle keine reine Show-Veranstaltung darstellen, sondern das Hauptaugenmerk in TV-Duellen auf politischen Inhalten (statt unterhaltenden Elementen) liegt, die (lagerspezifische) Responsivität des Formats im Zeitverlauf angestiegen ist und erfolgreiche Persuasion – als eine von zwei Themenmanagementstrategien – vor allem der Herausforderer dazu führen kann, dass Zuschauer die Effektivität des politischen Systems besser bewerten.
"Da wollten ich und mein Bruder jetzt so ein Lied machen und das heißt "Vergangenheitsträume" so. (...) Und da wollten wir so über alles, was wir beide so erlebt haben, schreiben." (Karsten, 17 Jahre). Dieses Zitat entstammt einem Interview, das, neben weiteren, im Rahmen dieser Forschungsarbeit ausgewertet und interpretiert wurde. Es fasst in komprimierter Form zusammen, worum es in dieser Arbeit gehen soll: Bildung und Biografie. Ein junger Menschen, Karsten, berichtet in einem Interview, dass er angefangen hat zu rappen. Die Texte handeln von Erlebnissen und Erfahrungen seines Lebens. Er blickt gemeinsam mit seinem jüngeren Bruder zurück und hält Gedanken und Gefühle hierzu fest. "Bildung" soll verstanden werden, als eine kritische Auseinandersetzung mit sich und der Welt. Hierbei steht das eigene Leben im Fokus. "Biografie" soll verstanden werden als ein soziales Konstrukt. Ereignisse und Handlungen werden in eine Ordnung, in einen Zusammenhang gebracht. Der Prozess, sich mit seinem Leben auseinanderzusetzen dient dem Selbstverstehen und dem Fremdverstehen. Es ist mit "aktivem Tun" verbunden. Es passiert nicht einfach mit einem Menschen, vielmehr stellt es einen aktiven Prozess dar. Das Ordnen, Zusammenführen, in-Beziehung-setzen und Verstehen von Erlebnissen, Erfahrungen und Träumen des eigenen Lebens steht im Vordergrund von Bildungs- und Biografisierungsprozessen. Daher wurde der Titel für diese Forschungsarbeit ausgewählt. Im Fokus dieser Studie stehen Veränderungsprozesse der Konstruktionen von "Selbstbildern" und "Weltbildern" vier junger Menschen sowie von ihren Handlungsmustern. Die Begriffe "Selbstbild" und "Weltbild" enthalten die Vorstellung, dass Menschen die Bilder, die sie von sich selbst und von der Welt in sich tragen, im Laufe des Lebens entwickeln. Kinder entfalten eine Vorstellung davon, wie sie aussehen, welche Eigenschaften sie besitzen und was sie gut oder weniger gut können. Vielfältige Faktoren tragen zur Entstehung und Entwicklung dieser konstruierten Selbst- und Weltbilder bei (vgl. beispielhaft zu Traumaerlebnissen Dillig 1983).
Es wird in dieser Arbeit versucht nachzuzeichnen, ob bzw. wie sich diese Selbst- und Weltbilder der jungen Menschen und ihre Handlungsmuster im Verlauf verändern. Dies ist dadurch möglich, weil es sich bei der vorliegenden Untersuchung um eine Langzeituntersuchung handelt. Mit den vier jungen Menschen (Anni, Ben, Julia und Karsten) wurden zu verschiedenen Zeitpunkten Interviews geführt, in denen sie über ihr Leben berichteten. In § 1 SGB VIII wird an die Kinder- und Jugendhilfe der Auftrag formuliert, die Entwicklung von Kindern zu fördern. Jugendhilfe hat den Auftrag, Einfluss auf den Prozess der Bildung zu nehmen und die Entwicklung der jungen Menschen zu fördern, sie soll Bildungsprozesse anstoßen. Kinder machen vielfältige Erfahrungen in ihrem Leben. Sie lernen ihre "Lebenswelt" kennen und entwickeln in Auseinandersetzung mit der Welt, "eigene-sinnige" Vorstellungen von sich und von ihrer Lebenswelt (vgl. dazu Tenorth / Tippelt 2007; Marotzki 2004). Die Kinder- und Jugendhilfe muss sich mit den Selbst- und Weltkonstruktionen der jungen Menschen beschäftigen, wenn sie sich als eine an der Lebenswelt orientierte Jugendhilfe verstehen will. Sie muss sich mit den Lebensgeschichten ihrer Adressaten befassen, mit ihnen gemeinsam Biografiearbeit leisten. Dazu benötigt sie unbedingt einen verstehenden Zugang zu den jungen Menschen und ihren Interpretationen vergangener Erfahrungen (Vergangenheitsträume), um mit ihnen (neue) Lebensentwürfe, Zukunftsträume entwickeln zu können.
Des Weiteren geht es in der Arbeit um Überlebensmuster junger Menschen. Vielleicht ruft die Wahl des Begriffs Verwunderung oder Unverständnis hervor. Die Vorstellung, dass es um Muster geht, die das "Überleben" sichern sollen, mutet dramatisch an. Doch zeigen die Ergebnisse der Fallrekonstruktionen, dass dieser Vergleich durchaus angemessen erscheint (vgl. dazu auch Schrapper 2002). Für die Kinder- und Jugendhilfe stellt sich zudem die Frage nach der Wirksamkeit ihrer Bemühungen. Ist die Jugendhilfe ihrem Auftrag nachgekommen? Kann dies in den Interviews mit den jungen Menschen gezeigt werden? Wenn davon ausgegangen werden kann, dass (öffentliche) Erziehung (nachhaltig) Einfluss auf das (Er)Leben und Erzählen von Jugendlichen hat und damit auch auf die Selbst- und Weltbilder und ihre Überlebensmuster, so bieten Interviews, die zu verschiedenen Zeitpunkten geführt wurden, die Chance, dieser Frage nachzugehen. Die Forschungsfragen, die dieser Arbeit zu Grunde liegen, sind jedoch Fragen die nicht auf das Thema "Geschlossene Unterbringung" begrenzt sind. Sie können in allen anderen pädagogischen Zusammenhängen gestellt und bearbeitet werden, da der theoretische Kerngedanke der Fragestellungen nicht von einer bestimmten Intervention oder vom Setting einer Hilfe abhängt. Es werden in dieser Arbeit Anforderungen an die Kinder- und Jugendhilfe formuliert, die verdeutlichen, welche Aufgaben die Kinder- und Jugendhilfe leisten muss, damit sie Kindern und Jugendlichen Bildungserfahrungen ermöglichen kann.
Die formulierten Anforderungen werden im Verlauf nochmals aufgegriffen und sollen anhand der Forschungsergebnisse diskutiert werden. Im Mittelpunkt stehen die Fallrekonstruktionen vier junger Menschen. Hier werden in einem ersten Schritt jeweils Lebens- und Hilfegeschichten der jungen Menschen tabellarisch dargelegt. Es folgt eine Darstellung des Verlaufs der Selbstbilder, der Weltbilder und der Handlungsmuster der Jugendlichen, die jeweils mit einem Fazit enden. In der Zusammenfassung werden jeweils die Bezüge und Zusammenhänge zwischen den konstruierten Selbstbildern, Weltbildern und Handlungs- bzw, Überlebensmustern vorgestellt.
"Wer kann ich werden - Wer soll ich sein?" Selbstbildungsprozesse junger Menschen in der Jugendhilfe
(2011)
"Wer kann ich werden - Wer soll ich sein?" - Mit diesen beiden grundlegende Lebensfragen resümieren die beiden Jugendlichen, deren individuellen Verarbeitungsprozesse Gegenstand der Untersuchung sind, ihren (Selbst-)Bildungsprozess. Sie verweisen dabei auf ein wesentliches Ergebnis dieser Studie: Selbstbildungsprozesse formieren sich als einen aktiven Balanceakt der jungen Menschen zwischen individuellen Selbstkonstruktionen und Fragen der Sozialintegration. Der Blick wird dabei auf die prozesshafte Entwicklung der subjektiven Bildungsbemühungen gerichtet. Es handelt sich um ein ambivalentes Spannungsgefüge, welches sich darin ausdrückt, dass einerseits "von Außen (durch den Erzieher) geleitet" und andererseits "von Innen (durch den Jugendlichen) gesteuert" wird. Letztendlich haben jedoch viele Jahrhunderte von (praktischen) Erziehungsversuchen und vielfaches (theoretisches) Nachdenken über Erziehung und Bildung gezeigt, dass der Erfolg zum großen Teil von den jungen Menschen selbst abhängt. Damit rückt in der wissenschaftlichen Auseinandersetzung die Selbsttätigkeit des Menschen in den Fokus. Die Beschäftigung mit Prozessen der Selbstbildung stellt eine äußert komplexe Herausforderung dar. Sie läuft schnell Gefahr, dies unter normativen Aspekten zu diskutieren. In diesen Forschungszusammenhang soll der Blick explizit nicht auf die normativen Anteile des Themas gelenkt werden, sondern es ist vielmehr ein Ziel der Arbeit, empirische Befunde dazu zu erarbeiten und Kontextwissen zu generieren.rnDie Untersuchung thematisiert sowohl die Verbindungen zwischen Selbstdeutungskonstruktionen junger Menschen und Fremddeutungen relevanter Erwachsener, sowie die sich daraus entwickelten Muster der Lebensbewältigung der Jugendlichen. Im Mittelpunkt der Auseinandersetzung stehen die jungen Menschen und ihre Bildungsanstrengungen. Anhand ihrer Selbstkonstruktionen, in denen sie ihre relevanten Themen zum Ausdruck bringen und den Fremddeutungen der am Fall beteiligten Erwachsenen, wird der Frage nachgegangen, ob und wie die unterschiedlichen Deutungsfolien anschlussfähig sind und welchen Einfluss sie auf die jugendlichen Selbstbildungsprozesse nehmen. Durch die Rekonstruktion der Deutungs- und Konstruktionsmuster der unterschiedlichen Fallbeteiligten sollen sowohl praxis- wie auch forschungsrelevante Erkenntnisse über Selbstbildungsprozesse junger Menschen gewonnen werden, die im Verlauf ihrer Lebensgeschichten Adressaten der Jugendhilfe geworden sind. Ein solch komplexes Forschungsvorhaben gewinnt im Bezug auf die Diskurse zur adressatenbezogenen Jugendhilfe an Bedeutung, da es möglich wird, einen Einblick in Verarbeitungsmuster und Bewältigungsstrategien der Heranwachsenden zu gewinnen. Die vorliegende Arbeit nimmt die subjektiven Sinnzuschreibungen in den Blick, um darüber einen erkenntnisgeleiteten Zugang zu den Deutungs- und Konstruktionsmustern in ihren jeweiligen Sinnzusammenhängen zu erschließen. Gesamtgesellschaftliche Modernisierungs- und Wandlungsprozesse beeinflussen individuelle Lebensverläufe und damit auch subjektive Deutungen unterschiedlichster Lebensereignisse. Biographische Werdungsprozesse weichen von vermeintlichen "Normalbiographien" ab. Aufgabe pädagogischer Fachkräfte ist es, die selbstreflexiven Verarbeitungsprozesse junger Menschen zu begleiten und zu unterstützen. Von daher scheint es erforderlich, dass Fachkräfte ihre Kompetenzen zur Entschlüsselung individueller Bildungsbemühungen und zur Wahrnehmung biographischer Deutungskonzepte weiter entwickeln und schulen, um einen verstehenden Zugang zu den Wirklichkeitskonstruktionen junger Menschen zu gewinnen. Welche subjektive Bedeutung die Heranwachsenden den Einflüssen der Jugendhilfe zusprechen ist entscheidend für die Frage, inwieweit sie diese Erfahrungen als Unterstützung für ihre individuellen Bildungsprozesse begreifen. "Selbstbildungsprozesse junger Menschen in der Jugendhilfe" setzen sich mit der Frage auseinander, über welche Bewältigungsstrategien und Interaktionsmuster die Heranwachsenden verfügen. "Mit diesem Zugang wird der Blick auf die "Eigensinnigkeit" subjektiver Äußerungen in ihren biografisch verorteten und gesellschaftsrelevanten Bezügen gelegt." (Normann 2003, 10). Es geht also um die Rekonstruktion sozialer Wirklichkeitsbezüge aus der Sicht der jungen Menschen. Die Jugendlichen werden als aktiv Handelnde und als ExpertInnen ihrer Lebenswelt verstanden, die in der Interaktion mit Anderen die Balance zwischen sozialer Anpassungsleistung und Entwicklung ihres individuellen Lebenskonzeptes finden müssen. Subjektive Deutungs- und Konstruktionsprozesse sollen in diesem Kontext herausgearbeitet und dargestellt werden.
Der Arbeitsmarkt in Deutschland erlebt einen technologisch bedingten Strukturwandel. Durch Digitalisierung werden Tätigkeiten substituierbar, Berufsbilder und dafür benötigte Qualifikationsprofile wandeln sich. Für die Arbeitskräfte resultiert daraus ein Anpassungsdruck, sich zum Erhalt ihres Humankapitals bzw. ihrer Beschäftigungsfähigkeit weiterzubilden. Fraglich ist, inwieweit die Individuen diesen Druck wahrnehmen und mit entsprechenden Weiterbildungen reagieren. Um einen Erklärungsbeitrag zum Weiterbildungsverhalten der Arbeitskräfte in Bezug auf den technologischen Wandel zu leisten, widmet sich das Promotionsvorhaben der Forschungsfrage: „Inwieweit reagieren Arbeitskräfte bezüglich ihres Weiterbildungsverhaltens auf einen sich digitalisierungsbedingt wandelnden Arbeitsmarkt?“
In dieser Arbeit soll in Form einer Machbarkeitsanalyse untersucht werden, ob der Aufbau eines universitären Startups im Bereich der IT-Beratung möglich ist. Hierzu wird zunächst der Begriff der Beratung, der Beratungsbedarf sowie der relevante Markt näher analysiert. Durch empirische Forschung in Form von persönlichen Interviews mit IT-Unternehmen in der Region Koblenz sollen zudem nähere Erkenntnisse über die Machbarkeit der Unternehmung gewonnen werden. Die Forschungsergebnisse werden in Form einer konkreten Handlungsempfehlung präsentiert.
Augmented Reality gewinnt heutzutage immer mehr an Bedeutung in Gebieten wie der Industrie, der Medizin oder der Tourismus-Branche. Dieser Anstieg kann durch die Möglichkeit der Erweiterung der realen Welt mit weiteren Information durch Augmented Reality erklärt werden. Somit ist dieses Verfahren zu einer Methode geworden, den Informationsfluss wesentlich zu verbessern. Um ein System zu erstellen, das die reale Welt mit Zusatzinhalten erweitert, muss die Relation zwischen System und realer Welt bekannt sein. Die gängigste Methode zum Erstellen dieser Verbindung ist optisches Tracking. Das System berechnet die Relation zur realen Welt aus Kamerabildern. Dabei wird eine Referenz in der realen Welt als Orientierung genutzt. Zumeist sind dies 2D-Marker oder 2D-Texturen, die in der Szene der realen Welt platziert werden. Dies bedeutet allerdings auch einen Eingriff in die Szene. Deshalb ist es wünschenswert, dass das System ohne eine solche Hilfe arbeitet. Ein Ansatz ohne Manipulation der Szene ist Objekt-Tracking. In diesem Ansatz kann ein beliebiges Objekt als Referenz genutzt werden. Da ein Objekt viel komplexer als ein Marker oder eine Textur ist, ist es für das System schwerer, daraus eine Relation zur realen Welt herzustellen. Deshalb reduzieren die meisten Ansätze für 3D-Objekt-Tracking das Objekt, indem nicht das gesamte als Referenz dient. Der Fokus dieser Arbeit liegt auf der Untersuchung, wie ein ganzes Objekt als Referenz genutzt werden kann, sodass das System oder die Kamera sich 360 Grad um das Objekt herum bewegen kann, ohne dass das System die Relation zur realen Welt verliert. Als Basis dient das Augmented Reality-Framework "VisionLib". Verschiedene Erweiterungen wurden im Rahmen dieser Arbeit für 360-Grad-Tracking in das System integriert und analysiert. Die unterschiedlichen Erweiterungen werden miteinander verglichen. Durch das Verbessern des Reinitialisierungsprozesses konnten die besten Ergebnisse erzielt werden. Dabei werden dem System aktuelle Bilder der Szene übergeben, mit dem das System schneller eine neue Relation zur realen Welt herstellen kann, wenn diese verloren geht.
3D-Kurven-Skelette werden oft verwendet, da sie im Vergleich zu der von Harry Blum 1967 vorgestellten Medialen Axen Transformation, eine Repäsentation der Objekt-Oberfläche darstellen, die in der Weiterverarbeitung weniger kompex und rechenintensiv ist.
Diese Arbeit hat das Ziel, ein Approximation-Verfahren für 3D-Kurven-Skelette zu entwickeln, welches die oben genannten Vorteile enthält und sich auf verschiedene Szenarien von Objektoberflächen-Daten anwenden lässt.
3D-Modelle werden heute in vielen Bereichen wie Multimedia Anwendungen, Robotik oder der Filmindustrie immer wichtiger. Besonders interessant ist dabei die Erstellung eines 3D-Modells aus einer monokularen Bilderserie, da die hierfür nötigen Kameras immer günstiger, kleiner und ausgereifter produziert werden. Geeignetere Kameras werden in immer mehr Geräten wie Smartphones, Tablet-PCs, Autos etc. verbaut, wodurch sich ein großes Potential für die Verwendung dieser Rekonstruktionstechnik ergibt.
Als Grundlage dieser Arbeit dient eine mit einer kalibrierten Kamera aufgenommene Bilderserie. Aus dieser werden 2D-Punktkorrespondenzen, mit den verbreiteten SURF-Features oder den A-KAZE-Features gewonnen. Aufbauend auf den 2D-Punktkorrespondenzen kann aus diesen mit Hilfe verschiedener Algorithmen ein 3D-Modell in Form einer Punktwolke und Kameraposen rekonstruiert werden.
Um Fehler in dem entstandenen Modell gering zu halten, wird insbesondere aufrnden Bündelausgleich zur Fehlerminimierung eingegangen. Anschließend wird dasrnneben dieser Arbeit entstandene Programm zur 3D-Rekonstuktion und Visualisierung des 3D-Modells erläutert. Das implementierte System wird anschließend anhand von Statistiken evaluiert und die hieraus gewonnenen Erkentnisse präsentiert.
Abschließend werden die Ergebnisse dieser Arbeit zusammengefasst und einrnAusblick auf mögliche Weiterentwicklungen gegeben.
Das Hauptziel der vorliegenden Arbeit ist die Absicherung der Qualität eines pharmazeutischen Produktionsprozesses durch die Überprüfung des Volumens mikroskopischer Polymerstäbchen mit einem hochgenauen 3D Messverfahren. Die Polymerstäbchen werden für pharmazeutische Anwendungen hergestellt. Aus Gründen der Qualitätssicherung muss das Istgewicht überprüft werden. Derzeit werden die Polymerstäbchen stichprobenartig mit einer hochpräzisen Waage gewogen. Für die nächste Generation von Polymeren wird angenommen, dass die Produktabmessungen weiter reduziert werden sollen und die Produktionstoleranzen auf 2,5% gesenkt werden. Die daraus resultierenden Genauigkeitsanforderungen übersteigen jedoch die Möglichkeiten der Wiegetechnik. Bei homogenen Materialien ist die Masse proportional zum Volumen. Aus diesem Grund kommt dessen Bestimmung als Alternative in Frage. Dies verschafft Zugang zu optischen Messverfahren und deren Flexibilität und Genauigkeitpotenzial. Für den Entwurf eines auf die Fragestellung angepassten Messkonzeptes sind weiterhin von Bedeutung, dass das Objekt kontaktlos, mit einer Taktzeit von maximal fünf Sekunden vermessen und das Volumen approximiert wird. Die Querschnitte der Polymerstäbchen sind etwa kreisförmig. Aufgrund der Herstellung der Fragmente kann nicht davon ausgegangen werden, dass die Anlageflächen orthogonal zur Symmetrieachse des Objektes sind. Daher muss analysiert werden, wie sich kleine Abweichungen von kreisförmigen Querschnitten sowie die nicht idealen Anlageflächen auswirken. Die maximale Standardabweichung für das Volumen, die nicht überschritten werden sollte, beträgt 2,5%. Dies entspricht einer maximalen Abweichung der Querschnittsfläche um 1106 µm² (Fehlerfortpfanzung). Als Bewertungskriterium wird der Korrelationskoeffzient zwischen den gemessenen Volumina und den Massen bestimmt. Ein ideales Ergebnis wäre 100%. Die Messung zielt auf einen Koeffzienten von 98% ab. Um dies zu erreichen, ist ein präzises Messverfahren für Volumen erforderlich. Basierend auf dem aktuellen Stand der Technik können die vorhandenen optischen Messverfahren nicht verwendet werden. Das Polymerstäbchen wird von einer Kamera im Durchlicht beobachtet. Daher sind der Durchmesser und die Länge sichtbar. Das Objekt wird mittels einer mechanischen Vorrichtung um die Längsachse gedreht. So können Bilder von allen Seiten aufgenommen werden. Der Durchmesser und die Länge werden mit der Bildverarbeitung berechnet. Das neue Konzept vereint die Vorteile der Verfahren: Es ist unempfindlich gegen Farb-/Helligkeitsänderungen und die Bilder können in beliebiger Anzahl aufgenommen werden. Außerdem sind die Erfassung und Auswertung wesentlich schneller. Es wird ein Entwurf und die Umsetzung einer Lösung zur hochpräzisen Volumenmessung von Polymerstäbchen mit optischer Messtechnik und Bildverarbeitung ausgearbeitet. Diese spezielle Prozesslösung in der Prozesslinie (inline) sollte eine 100%ige Qualitätskontrolle während der Produktion garantieren. Die Zykluszeiten des Systems sollte fünf Sekunden pro Polymerstäbchen nicht überschreiten. Die Rahmenbedienungen für den Prozess sind durch die Materialeigenschaften des Objekts, die geringe Objektgröße (Breite = 199 µm, Länge = 935 µm bis 1683 µm) und die undeffinierte Querschnittsform (durch den Trocknungsprozess) vorgegeben. Darüber hinaus sollten die Kosten für den Prozess nicht zu hoch sein. Der Messaufbau sollte klein sein und ohne Sicherheitsvorkehrungen oder Abschirmungen arbeiten. Das entstandene System nimmt die Objekte in verschiedenen Winkelschritten auf, wertet mit Hilfe der Bildverarbeitung die Aufnahmen aus und approximiert das Volumen. Der Korrelationskoffizient zwischen Volumen und Gewicht beträgt für 77 Polymerstäbchen mit einem Gewicht von 37 µg bis 80 µg 99; 87%. Mit Hilfe eines Referenzsystems kann die Genauigkeit der Messung bestimmt werden. Die Standardabweichung sollte maximal 2,5% betragen. Das entstandene System erzielt eine maximale Volumenabweichung von 1,7%. Die Volumenvermessung erfüllt alle Anforderungen und kann somit als Alternative für die Waage verwendet werden.
This paper describes a parallel algorithm for selecting activation functionsrnof an artifcial network. For checking the efficiency of this algorithm a count of multiplicative and additive operations is used.
In this article we analyze the privacy aspects of a mobile sensor application used for recording urban travel patterns as part of a travel-survey service. This service has been developed and field-tested within the Live+Gov EU Project. The privacy analysis follows a structured approach established in. Eight privacy recommendations are derived, and have already led to corresponding enhancements of the travel-survey service.
Die vorliegende Arbeit beschäftigt sich mit der Abbildung von Ecore nach grUML. Dabei wird sowohl die Transformation von in Ecore modellierten Modellen nach Graphen in grUML als auch die Konvertierung von Ecore-Metamodellen nach grUML-Schemas betrachtet. Zunächst werden die beiden Modellierungssprachen Ecore und grUML einzeln beschrieben. Dabei werden die Metamodelle der Sprachen erklärt und die Programmierschnittstellen vorgestellt. Im Anschluss werden Unterschiede und Gemeinsamkeiten von grUML und Ecore erläutert und auf dieser Grundlage eine Abbildung definiert. Außerdem werden Anforderungen an die Implementierung der Transformation festgehalten. Danach folgen verschiedene Details zur Realisierung. Zum Schluss wird mit Hilfe einiger Beispiele gezeigt, welche Ergebnisse durch die Transformation entstehen.
Dieses Dokument legt den Standard für die Transformation von grUML-Schemas (GraphUML, [BHR+09]) nach XSD (XML Schema Definition) fest und ist im Rahmen des Arbeitspakets 5.2 "Prototypische SOAMIG-Parser und -Unparser realisieren" im SOAMIG-Projekt entstanden. Das Ziel ist der Austausch von TGraphen (typisierten, attributierten, angeordneten, gerichte Graphen [ERW08]) über XML-Dokumente. Zur Spezifikation des Austauschformats wird XSD eingesetzt. Dies erlaubt eine Validierung der XML-Instanzen auf syntaktischer Ebene. Der Ausgangspunkt ist ein gegebenes Schemas in grUML-Notation1, welches nach XSD transformiert werden soll. Mit der generierten XSD existiert ein Beschreibungsmittel für Graph-Instanzen in XML. Die dadurch beschriebenen XML-Dokumente sind flach, d.h. alle Elemente sind direkt dem root-Element untergeordnet.
Abdriftbedingte Pflanzenschutzmittelrückstände in unbehandelten Kulturen auf angrenzenden Flächen
(2020)
Die vorliegende Arbeit beschäftigt sich mit der Abdrift von Pflanzenschutzmitteln (PSM), die auf Lebensmittelkulturen in angrenzenden Flächen, insbesondere in benachbarte Haus- und Kleingärten, gelangt. In einer Reihe von Windtunnelversuchen wurde die Abdrift von PSM aus Flächen- und Raumkulturen während der Applikation mit zwei verschiedenen Testsystemen nachgestellt. Das Testsystem Flächenkultur simuliert die Applikation auf Flächenkulturen, das Testsystem Raumkultur die auf Raumkulturen. Auf der Nicht-Zielfläche wurden die auf Grund von Abdrift entstandenen Rückstände des verwendeten Tracers Pyranin nach der Applikation entfernungsabhängig auf den Lebensmittelkulturen Kopfsalat, Erdbeeren und Tomaten gemessen. Durch die gleichzeitige Messung der Bodendeposition konnten die Messwerte mit Hilfe von Regressionsgleichungen (R² = 0,88 bis 0,97) in Bezug zu den Abdrifteckwerten (AEW) gebracht werden. Dadurch war es möglich, erste Abschätzungen der Höhe von Rückständen vorzunehmen, die über Abdrift von landwirtschaftlichen Flächen auf benachbarte Lebensmittelkulturen im Freiland gelangen können. Diese Abschätzung ist zunächst limitiert auf die drei Versuchspflanzen. Die Versuche zeigen, dass sich die meisten durch Abdrift entstehenden Rückstände auf Salatköpfen wieder finden, gefolgt von Erdbeeren und Tomaten.
Neben dem experimentellen Teil wurden Analysen mit Geoinformationssystemen (GIS) durchgeführt, um die Nachbarschaftsverhältnisse zwischen landwirtschaftlich genutzten Flächen und Gartenflächen für ganz Deutschland und speziell für Rheinland-Pfalz (RLP) zu analysieren. Dazu wurden für die deutschlandweiten Berechnungen die Daten des amtlichen topographisch-kartographischen Informationssystems (ATKIS) und für die RLP-weiten Berechnungen die Daten des amtlichen Liegenschaftskatasterinformationssystem (ALKIS) verwendet. Beachtet werden muss, dass auf Grund der Datenbeschaffenheit eine Abgrenzung der Gartenflächen zu Wohnflächen nicht möglich ist. Deutschlandweit liegen etwa 1,1 % aller potentiellen Gartenflächen innerhalb eines 5 m Pufferbereichs um Raumkulturen bzw. innerhalb eines 2 m Pufferbereichs um Flächenkulturen. Für RLP sind es 0,75 %. Mit Hilfe eines Landbedeckungsdatensatzes der Fa. RLP AgroScience GmbH und den ALKIS-Daten konnte jedoch die exakte Gartenfläche für RLP auf 47.437 ha bestimmt werden. Basierend auf dieser Datengrundlage liegen 1,2 % der Gartenfläche von RLP innerhalb der genannten Pufferbereiche. Des Weiteren ergaben Berechnungen, dass 3 % der Gärten in RLP direkt angrenzend zu landwirtschaftlich genutzten Flächen liegen.
Im Rahmen dieser Arbeit wurden nicht nur Gärten betrachtet, die an landwirtschaftliche Flächen grenzen, sondern auch Nachbarschaftsverhältnisse zwischen ökologisch und konventionell bewirtschafteten Flächen untersucht. Diese Berechnungen erfolgten mit den Daten des Integrierten Verwaltungs- und Kontrollsystems (InVeKoS). Insgesamt grenzen in RLP 47,1 % aller ökologisch bewirtschafteten Flächen unmittelbar an konventionell bewirtschaftete Flächen an.
Absicherung der analytischen Interpretation von Geolokalisierungsdaten in der Mobilfunkforensik
(2019)
Zusammenfassung
Lokalisierungsdienste gehören mit zu den wesentlichen Merkmalen moderner mobiler Endgeräte. Neben der Tatsache, dass Standortdaten zur Rekonstruktion eines Bewegungsprofils genutzt werden können, steigt der Anteil der zu untersuchenden Geräten mit entsprechender Ausstattung im Rahmen von polizeilichen Ermittlungen enorm an.
Motivation
Ziel dieser Arbeit ist es, tiefergehendes Wissen um Geolokalisierungsfragen im Bereich der Mobilfunkforensik aufzubauen, um die in den Geräten gespeicherten Standortdaten forensisch auswertbar zu machen. Darüber hinaus sollen Werkzeuge entwickelt werden, die die spezifischen Bedürfnisse der Strafverfolgungsbehörden berücksichtigen.
Probleme
Die Prozesse der Geolokalisierung in Smartphones sind komplex. Um seine Position zu lokalisieren zu können, müssen verschiedene Referenzsysteme wie z. B. GPS, Funkzellen oder WLAN-hotspots in unterschiedlicher Art und Weise verknüpft werden. Der gesamte Lokalisierungsmechanismus ist geistiges Eigentum der Hersteller und nicht mit dem Ziel forensischer Auswertungen entstanden. Ein grundlegendes Problem der forensischen Untersuchung ist, dass hauptsächlich Referenzpunkte anstelle reeller Gerätepositionen gespeichert werden. Darüber hinaus bestehen die Geolokalisierungsinformationen aus Bits und Bytes bzw. numerischen Werten, die zuverlässig an ihre Bedeutung geknüpft werden müssen. Die gewonnenen Lokalisierungsdaten sind ferner lückenhaft und stellen lediglich einen Teil des gesamten Prozesses bzw. der Gerätenutzung dar. Dieser Datenverlust muss bestimmt werden, um eine zuverlässige Aussage hinsichtlich der Vollständigkeit, Integrität und Genauigkeit der Daten zu ermöglichen. Zu guter Letzt muss, wie für jedes Beweismittel einer kriminalistischen Untersuchung, gesichert sein, dass eine Manipulation der Daten bzw. Fehler bei der Positionsschätzung des Gerätes keinen nachteiligen Einfluss auf die Auswertung haben.
Forschungsfragen
Im Zusammenhang mit Lokalisierungsdiensten in modernen Smartphones kommt es im forensischen Alltag immer wieder zu ähnlichen Fragestellungen:
* Lassen sich Standorte zu jedem beliebigen Zeitpunkt ermitteln?
* Wie genau sind die ermittelten Geodaten des Smartphones?
* Werden Standortdaten aus Smartphones vor Gericht Bestand haben?
Forschungsansatz
Zur besseren Nachvollziehbarkeit der Prozesse in modernen Smartphones und um die Qualität und Zuverlässigkeit von Geolokalisierungsdaten zu bewerten, sollen Standortdaten verschiedener Plattformen sowohl theoretisch analysiert als auch praktisch während der Lokalisierung betrachtet werden. Der Zusammenhang zwischen Daten und Entstehungskontext wird mithilfe experimenteller Live-Untersuchungen sowie Desktop- und nativen Anwendungen auf den mobilen Endgeräten untersucht werden.
Ergebnis
Im Rahmen dieser Arbeit konnten mithilfe der entwickelten Werkzeuge die forensische Untersuchung verbessert sowie die analytische Interpretation von Geodaten von- bzw. direkt auf modernen Smartphones durchgeführt werden. Dabei hat sich ein generisches Modell zur Beurteilung der Qualität von Standortdaten herauskristallisiert, das sich allgemein auf die ermittelten Geodaten aus mobilen Endgeräten anwenden lässt.
Absicherung und Verifikation einer Instant Messaging-Kommunikation über Diffie Hellman Key Agreement
(2009)
Im Rahmen dieser Bachelorarbeit soll die Absicherung und Verifikation einer Instant Messaging-Kommunikation beschrieben und in Form eines Plugins für ein bestehendes Instant Messaging-System realisiert werden. Dazu werden zunächst die Anforderungen an das System erhoben und mit Vorhandenen Konzepten und Systemen am Markt verglichen. Darauf aufbauend wird ein eigenes Konzept entwickelt und die Umsetzung in der Programmiersprache Java beschrieben. Der Fokus dieser Arbeit liegt dabei auf der Absicherung des Chat-Kanals einer Instant Messaging-Kommunikation, aber es werden geeignete Schnittstellen beschrieben und implementiert, die eine Erweiterung der angewendeten Verfahren für beliebige Datensätze ermöglicht.
Im Vergleich zu herkömmlicher Computergrafik (perspektivische Projektion) bietet Raytracing entscheidende Vorteile, die hauptsächlich in der vergleichsweise hohen physikalischen Korrektheit der Methode begründet sind. Die Schwächen liegen hingegen im immensen Rechenaufwand.
Ein Raytracer ist vergleichsweise so rechenintensiv, weil für jeden Pixel mindestens ein Strahl verschickt werden muss. Dieser muss gegen alle Objekte im Raum geschnitten werden. Hinzu kommen noch die Strahlen, die entstehen, wenn Strahlen an Objekten reflektiert werden (Rekursion). Um diesen Rechenaufwand zu verkleinern und zusätzlich ein besseres Bild zu erzeugen, soll der adaptive Sampler den Raytracer unterstützen. Der adaptive Sampler soll während des Rendervorgangs den progressiven Fortschritt in der Bildgenerierung beobachten und Pixel von der weiteren Berechnung ausschließen, für die sich ein zusätzliches Verschießen von Strahlen nicht mehr lohnt.
Anders als der rein progressive Raytracer hört der adaptive Sampler mit dem Konvergieren des Bildes auf zu rechnen. Der adaptive Sampler soll so dafür sorgen, dass schneller ein besseres Bild erzeugt wird und somit die Performanz gesteigert wird. Insgesamt erwartet man sich vom adaptiven Sampler Vorteile bei der Berechnung von bestimmten Szenen. Unter anderem eine Verbesserung bei Szenen mit rein diffus beleuchteten Bildbereichen, sowie eine Verbesserung bei Szenen mit unterschiedlich rechenintensiven Bildbereichen. Ein normaler Raytracer kann nicht beurteilen, wie sinnvoll seine Schüsse sind. Er kann nur mehr Strahlen verschießen, in der Hoffnung, das Bild damit effektiv zu verbessern.
Es gibt jedoch viele Szenarien, bei denen eine linear steigende Schussanzahl pro Pixel keine gleichmäßige Verbesserung im Bild erzeugt. Das bedeutet, dass Bereiche im Bild schon gut aussehen, während andere noch sehr verrauscht sind. Man möchte nun Bildbereiche, die bereits konvergiert sind, in denen sich ein weiterer Beschuss also nicht mehr bemerkbar macht, ausschließen und die Rechenleistung dort nutzen, wo man sie noch braucht.
Wichtig dabei ist, dass Pixel nicht ungewollt zu früh von der Berechnung ausgeschlossen werden, die nicht weit genug konvergiert sind. Der adaptive Sampler soll so lange arbeiten, bis jeder Pixel dauerhaft keine Änderungen mehr vorweist. Das bedeutet, dass die Wahrscheinlichkeit für eine signifikante Farbänderung eines Pixels durch Verschießen eines Strahls (bei mehreren Lichtquellen in RenderGin mehrere Strahlen pro Pixel) klein genug ist. Es wird zwar intern keine Wahrscheinlichkeit berechnet, jedoch bekommt der Raytracer eine Art Gedächtnis: Er speichert die Veränderungen im beleuchteten Bild und deren Verlauf in eigenen Gedächtnisbildern. Das "Gedächtnis" für das alte Bild (Zustand des Bildes in der letzten Iteration über die Pixel) repräsentiert dabei das Kurzzeitgedächtnis. Es ist absolut genau. Das Langzeitgedächtnis wird von drei verschiedenen Bildern repräsentiert. Das erste gibt die Anzahl der verschossenen Strahlen pro Pixel an. Das zweite ist ein Wahrheitswertebild, das für jeden Pixel angibt, ob dieser noch in die Berechnung einbezogen werden soll. Das dritte Bild gibt an, wie oft jeder Pixel eine Farbänderung vollzogen hat, die geringer ist als der geforderte Maximalabstand eines Pixels zu sich selbst (vor und nach dem Verschießen eines weiteren Strahls).
Mit diesen drei Bildern ist es möglich, zusätzliche quantitative Informationen zu den qualitativen Informationen des Vergleichs vom neuen und alten Bild zu berücksichtigen.
In dieser Arbeit kläre ich die Frage, ob die gewünschten Effekte eintreten und ob bei Integration in die bestehende Struktur von RenderGin ein Performanzgewinn möglich ist. Die Umsetzung eines adaptiven Samplers ist als Plug-In in der Software RenderGin von Numenus GmbH geschehen. RenderGin ist ein echtzeitfähiger, progressiver Raytracer, der sich durch seine Performanz auszeichnet. Die Bildgenerierung geschieht allein auf der CPU, die Grafikkarte wird lediglich zur Anzeige des erzeugten Bildes benötigt.
Die Umsetzung und Programmierung des Plug-Ins ist in Microsoft Visual Studio 2010 geschehen unter Verwendung des RenderGin SDK der Numenus GmbH.
Ein Switch (engl. Schalter; auch Weiche) ist eine Netzwerk-Komponente zur Verbindung mehrerer Computer bzw. Netz-Segmente in einem lokalen Netzwerk (LAN). Da Switches den Netzwerkverkehr analysieren und logische Entscheidungen treffen, werden sie auch als intelligente Hubs bezeichnet. Die Funktionsweise eines Switches ist der einer Bridge sehr ähnlich, daher wurde anfangs auch der Begriff Multi-Port-Bridge genutzt 1. Ziel der Diplomarbeit ist es, eine Dokumentation auf die Beine zu stellen, der interessierten Studenten der Informationstechnologie die Möglichkeit bietet, einerseits anhand von physikalischen Switches Administrationsaufgaben nachzuempfinden und andererseits anhand von virtuellen Switches größere Netzwerktopologien aufzubauen. Diese Virtualisierung wird durch das von Virtual Square entwickelte Tool VDE erreicht. Die physikalischen Switches bestehen aus vier Catalyst 3500 XL. Im Laufe dieser Arbeit wird sowohl die Bedienung der einzelnen Systeme untereinander, wie auch die Vernetzung der virtuellen Switches mit den physikalischen Switches erläutert. In diesem Zusammenhang wird auch auf Protokolle und Methoden wie das Spanning Tree Protokoll oder die Virtualisierung eines Netzes durch VLANs eingegangen. Zum Schluss kann der Leser das gelernte in einigen praktischen Aufgaben anwenden.
Das Just-in-Time - Verfahren ist ein neues Unterrichtskonzept aus den USA (auch in D. schon z.T. eingesetzt), bei dem ein oder zwei Tage vor der Unterrichtsstunde Fragen hauptsächlich zu qualitativem und konzeptuellem Verständnis an die SchülerInnen gestellt und von diesen per eMail beantwortet werden. Aus den Lösungen wird dann von der Lehrkraft eine Folie mit falschen und richtigen Vorschlägen erstellt (i.a. anonym), die dann in der Klasse diskutiert werden. Die besonderen Vorteile des Verfahrens sind: Adaptiver Unterricht mit kurzfristiger ("just-in-time") Reaktionsmöglichkeit auf Präkonzepte und andere Lernschwierigkeiten; Förderung der Selbsttätigkeit und Eigenverantwortung für die eingesendeten Beiträge; Schaffung einer schriftlichen (eMail-Beitrag) und mündlichen (Diskussion) Gelegenheit zur Spracharbeit an fachlichen Inhalten. Das Lernarrangement Die über Webspace verfügende Lehrkraft lädt eine themenrelevante Aufgabe ins Internet. Diese Aufgabe ist von den SchülerInnen ihres Kurses am Computer zu Hause zu bearbeiten; die Bearbeitung wird über ein Formularfenster als Mail an die Lehr-kraft gesendet. Mit den Statements ihrer SchülerInnen im Kopf begibt sich die Lehrkraft nun an die Planung der folgenden Unterrichtsstunde: Insbesondere werden die interessantesten Statements auf TLP-Folie kopiert . Sie bilden den roten Faden der in Planung befindlichen Unterrichtsstunde. Die Schülerantworten sind also zum einen Planungsgrundlage für die folgende Unterrichtsstunde, zum anderen werden sie zu einem besonderen Unterrichtsmedium des JiTT-Verfahrens (Folie o.ä. mit den interessantesten Statements). Der Unterrichtsverlauf enthält Phasen, in denen die Schüleraussagen gelesen, erörtert und diskutiert werden sowie Phasen, in denen die Gruppe mit üblichen Unterrichtsmedien und -methoden (Arbeitsblätter, Versuche) arbeitet. Im Idealfalle reduziert sich die Rolle des Lehrers in der Diskussionsphase auf die eines Moderators. Fachdidaktische und instruktionspsychologische Begründung JiTT kann als besondere Form des Adaptiven Unterrichts aufgefasst werden: Der Lehrkraft ist es möglich, insbesondere auf vorhandene Präkonzepte und andere Lernschwierigkeiten in adäquater Form zu reagieren und ihren Unterricht zu gestalten. Das Verfahren kann des weiteren auf der Ebene der Motivation wirksam sein, indem Selbstbestimmung (Mitgestaltung des Unterrichtes!) und soziale Einbindung (Diskussion der Schülerbeiträge in der Gruppe!) in besonderer Weise gefördert und gefordert werden. Selbstbestimmung und soziale Einbindung sind aber (zusammen mit Kompetenz) Hauptfaktoren in einer der führenden Theorien der Motivationspsychologie (Selbstbestimmungstheorie nach DECI & RYAN). Bemerkungen zum Design der Feldstudie In den Hauptteil der Feldstudie des Projektes zur Evaluation des Verfahrens waren zwei Physik-Leistungskurse eines rheinland-pfälzischen Gymnasiums (Teilgebiete "Mechanik" und "Elektrodynamik") eingebunden, ein Ergänzungsteil wurde im Rahmen einer Mechanik-Vorlesung des Lehramtsstudiums Physik an einer rheinland-pfälzischen Universität realisiert. Das erhobene Datenmaterial wurde insbesondere mit Hilfe des Verfahrens der multivariaten, hierarchischen Regressionsanalyse evaluiert. Ergebnis der Feldstudie und Diskussion Ein relevanter Effekt des JiTT-Verfahrens auf die Performanz der Lernenden kann nicht nachgewiesen werden. Im Hinblick auf mögliche Erklärungsmuster erscheinen folgende Aspekte von Bedeutung: Im Zuge der adäquaten Berücksichtigung von Schülervorstellungen ist es ausreichend, die "Mainstream-Päkonzepte" der Lernenden zu kennen. Detaillierte-res Wissen führt zu keinem signifikant erfolgreicheren Unterricht; Die vergleichsweise offen gestalteten JiTT-Phasen des Unterrichts scheinen insbesondere die leistungsschwächeren Lernenden zu überfordern; Ein eventuell doch vorhandener, auf JiTT zurückführbarer Einfluss auf die Performanz wird durch die Effizienz des im Unterricht eingesetzten methodischen Werkzeugs der Modellbildung überdeckt. Im Hinblick auf die motivationalen Einstellungen der Lernenden erscheint bemer-kenswert, dass man in JiTT zwar durchaus eine Bereicherung für den Unterricht sieht, dem gewachsenen zeitlichen Druck sowie den erweiterten Kontrollmöglichkeiten seitens der Lehrkraft jedoch kritisch gegenübersteht. Somit ist zweifelhaft, ob es durch den Einsatz des Verfahrens tatsächlich zu einer Verstärkung der autonom regulierten Varianten der Motivation kommt.
In dieser Arbeit wurde der Einfluss von nicht wässrigen Mahlflüssigkeiten auf Metall-Keramik-Pulvermischungen im Nassmahlprozess untersucht. Es wurden Al- und Cr-Al₂O₃-Pulvermischungen ausgewählt, um den Einfluss der Mahlflüssigkeiten auf die Mahlung von Metall-Keramik-Pulvermischungen mit einer duktilen (Aluminium) und einer spröden (Chrom) Metallkomponente zu untersuchen.
Algorithmische Komposition
(2018)
Algorithmische Komposition ist ein interdisziplinärer Forschungsbereich, der die beiden Bereiche Musik und Wissenschaft miteinander verknüpft. Der Computer wird in den Mittelpunkt des Kompositionsprozesses gestellt und komponiert mithilfe eines Algorithmus Musik. In dieser Arbeit wird die Algorithmische Komposition unter Verwendung der biologisch inspirierten Algorithmen Lindenmayer-System und Zellulärer Automat untersucht. Dabei werden ausgewählte Verfahren vorgestellt, implementiert und evaluiert, die die erzeugten Daten der Algorithmen in ein sinnvolles musikalisches Ergebnis transformieren.
In der vorliegenden Diplomarbeit wurde gezeigt, wie sich Ambient Occlusion in einer Szene aus frei transformierbaren Starrkörpern unter Verwendung von Coherent Shadow Maps in interaktiven Frameraten berechnen und darstellen lässt. Die Vorteile von Ambient Occlusion im Vergleich zu klassischen lokalen Beleuchtungsmodellen wurden aufgezeigt - den Ansatzpunkt bildet die Approximation von Umgebungslicht und indirekter Beleuchtung durch einen konstanten Farbwert - und die vereinfachenden Annahmen, die im Vergleich zu einer Simulation globaler Beleuchtung gemacht werden, wurden nachgezeichnet - Die Gültigkeit von Ambient Occlusion beschränkt sich demnach eigentlich auf eine direkte Beleuchtung diffuser Materialien mit konstanter Leuchtdichte. Um einen umfassenden Überblick zu gewährleisten, wurden zahlreiche existierende Ansätze zur Berechnung von Ambient Occlusion ausführlich vorgestellt. Anschließend wurde auf die Berechnung der Visibilität mittels CSMs eingegangen. Es wurde gezeigt wie sich die Komprimierungsrate von CSMs durch eine gleichmäßige Verteilung der zu komprimierenden Depth Maps deutlich erhöhen lässt und ein XML-konformes Dateiformat, das die beliebige Wiederverwendung einmal komprimierter Depth Maps erlaubt, wurde eingeführt.
Im Rahmen der Masterthesis „Analyse des Managements invasiver gebietsfremder Arten am Beispiel des Roten Amerikanischen Sumpfkrebses (Procambarus clarkii) während und im Anschluss an notwendige Sanierungsarbeiten am Hochwasserrückhaltebecken Breitenauer See östlich von Heilbronn“ wurde das Vorkommen des invasiven Roten Amerikanischen Sumpfkrebses am Breitenauer See umfangreich kartiert. Auch die nahegelegene Sulm mit bekanntem Vorkommen des Signalkrebses sowie das Nonnenbachsystem mit bekanntem Vorkommen des Steinkrebses wurden erfasst. Der Fokus lag auf der Beantwortung dreier Kernfragen. Zunächst wurde untersucht, ob und wie ein dauerhaftes IAS-Management (invasive alien species) des Roten Amerikanischen Sumpfkrebses am Breitenauer See nachhaltig durchgeführt werden kann, um inakzeptable ökologische Effekte zu vermeiden. Die zweite Fragestellung bezog sich auf die Wirksamkeit ergriffener Risikomanagementmaßnahmen während der Ablassaktion des Breitenauer Sees. Abschließend war fraglich, wie sich der Rote Amerikanische Sumpfkrebs verhält, wenn sein besiedeltes Gewässer trockenfällt.
Durch das fehlerhafte Vergabemanagement und das ständige Wachstum an internetfähigen Geräten sind die IPv4-Adressen ausgeschöpft. Aus diesem Grund und den neuen Anforderungen, die an die Technik des Internets gestellt werden, ist das IPv6-Protokoll entwickelt worden. Dieses bietet einen vielfach größeren Adressraum und wird das IPv4-Protokoll nach und nach ersetzen. Jedoch müssen für das neue Internetprotokoll die Routing-Protokolle angepasst werden. In dieser Ausarbeitung wird das dynamische Routing-Protokoll RIPng aus der Familie der Inter-Gateway-Protokolle (IGP) analysiert. Mithilfe dieses Protokolls tauschen die Router innerhalb eines Netzwerkes untereinander Informationen über ihre Verbindungen aus. Des Weiteren werden die Grundlagen des IPv6-Protokolls, der verwendeten Protokoll-Algorithmen und des RIPv2-Protokolls erläutert. Im praktischen Teil der Ausarbeitung werden Eigenschaften von RIPng sowie das Counting-to-Infinity-Problem genauer betrachtet.
Das performante Rendering großer Volumendaten stellt trotz stetig gestiegener Prozessorleistungen nach wie vor hohe Anforderungen an jedes zugrunde liegende Visualisierungssystem. Insbesondere trifft dies auf direkte Rendering-Methoden mithilfe des Raycasting-Verfahrens zu, welches zum einen eine sehr hohe Qualität und Genauigkeit der generierten Bilder bietet, zum anderen aber aufgrund der dafür nötigen hohen Abtastrate relativ langsam ist. In dieser Studienarbeit wird ein Verfahren zur Beschleunigung des Raycasting- Visualierungsansatzes vorgestellt, das auf adaptivem Sampling beruht. Dabei werden statische Volumendaten zunächst in einem Vorverarbeitungsschritt einer Gradientenanalyse unterzogen, um so ein Interessensvolumen zu erstellen, das wichtige und weniger wichtige Bereiche kennzeichnet. Dieses Volumen wird anschließend von einem Raycaster genutzt, um adaptiv für jeden Abtaststrahl die Schrittweite zu bestimmen.
Analyse TV-basierter Interaktion für Senioren: Umsetzung und Evaluation im Gesundheitsbereich
(2007)
In dieser Arbeit wurde nach einer detaillierten Erklärung der Begriffe Ad-hoc Network, MANET und VANET eine Auflistung und anschließend ein Vergleich der verschiedenen Routingverfahren, die in VANETs auftreten können, durchgeführt. Unter diesen Routing Verfahren wurde das Geocasting ausgesucht, weil es sich für die hohe Mobilität der einzelnen Knoten für geeignet gezeigt hat. Anschließend wurde auf die Sicherheitsanforderungen eingegangen. Dabei wurden die Begriffe Datenintegrität, Informationsvertraulichkeit, Verfügbarkeit, Verbindlichkeit, Anonymisierung und Peudomisierung eingeführt und ihre Wichtigkeit bei VANETs anhand von Beispielen gezeigt. In Abschnitt 2.4 wurden einige Angriffszenarien genannt, wobei sie in passive und aktive Angriffe kategorisiert wurden. Anhand eines Hybridmodells wurden jeder Schicht mögliche Angriffe zugeordnet und ausführlich diskutiert. Die Angriffe, die bereits definiert wurden, sind dann in einer Tabelle zusammengefasst worden. In dieser Tabelle wurde das Risiko berechnet, das ein Angriff bei VANETs hervorrufen kann. Angriffe auf der Anwendungsschicht sind mit sehr hohem Risiko angesiedelt und stellen eine große Gefahr für VANETs dar. Deshalb wurden manche dieser Angriffe dann mit konkreten Beispielen gezeichnet und dargestellt. Das Verbreiten von falschen Informationen auf Autobahnen ist das ausgewählte Szenario für das Angriffserkennungssystem. Dabei wurde ein Konzept erstellt, wie dieses IDS vorzugehen hat, wenn ein Fahrzeug eine Nachricht bekommt, um zu überprüfen, ob sie richtig oder falsch ist. Dabei wurden Randbedingungen aufgestellt, damit das IDS richtig funktioniert. Dieses Konzept wurde anhand einer Simulation realisiert, um zu überprüfen, ob es tatsächlich seine Aufgabe erfolgreich erfüllt. Nach der Beschreibung der Simulationsimplementierung und ihren wichtigsten Komponente wurden Tests durchgeführt, um die Funktionalität der Erkennung zu testen. Dabei wurde festgestellt, dass die Dichte des Verkehrs, Entfernung des Eregnismelders von der Ereigniszone und die Anzahl der empfangenen Nachrichten in jedem Fahrzeug eine große Rolle bei der Erkennung von Ereignissen spielt.
Dynamische Nachfragebündelung und diverse Auktionsformen stehen exemplarisch für neue Formen der Preisbildung im Electronic Commerce. Eine Vielzahl dynamischer Preisbildungsmechanismen aber auch neue Möglichkeiten der statischen Preisfindung im Sinne der klassischen Preispolitik (bspw. individuelle Preisdifferenzierung) werden erst durch die Nutzung neuer Informations- und Kommunikationstechnologien ermöglicht und - im geeigneten Kontext - in ökonomischer Hinsicht effizient umsetzbar. Eine sinnvolle Nutzung dieses stark erweiterten Möglichkeitsraumes erfordert die Einordnung der Angemessenheit der Nutzung einzelner Preisbildungsmechanismen aus ökonomischer Sicht. Diese Arbeit gibt einen systematischen Überblick über sowohl statische als auch dynamische Preisbildungsmechanismen. Darauf aufbauend wird ein Bezugsrahmen entwickelt, welcher wesentliche Kriterien zur Unterstützung der Wahl geeigneter Preisbildungsmechanismen enthält. Im Anschluss erfolgt der Entwurf eines Referenzmodells zur Beschreibung dynamischer und statischer Aspekte von Auktionsformen, welche üblicherweise als die zentrale Form dynamischer Preisbildungsmechanismen eingeordnet werden. Für den Zweck der Modellierung statischer Aspekte wird eine eigene Sprache in Form eines Meta-Modells entwickelt, welches geeignete Konzepte zur Beschreibung von Auktionsformen bereitstellt. Die Modellierung dynamischer Aspekte erfolgt unter Anwendung der Prozessbeschreibungselemente der Modellierungssprache MEMOOrgML. Abschließend werden die Möglichkeiten zur Adaption und Anwendung sowohl der entwickelten Prozessmodelle als auch des vorgeschlagenen Meta-Modells diskutiert.
Analyse von Geschäftsprozessen einer NPO zur Ausarbeitung der Anforderungen an eine Fachanwendung
(2008)
Im Rahmen einer Systemanalyse werden die Prozesse eines Anbieters von Ferienfreizeiten untersucht und modelliert sowie Schwachstellen ausfindig gemacht. Anhand dieser Grundlage und einer Anforderungserhebung unter den beteiligten Stakeholdern wird ein Soll-Konzept erarbeitet, welches zu Verbesserungen der allgemeinen Organisation und des Informationsflusses führen soll. Abschließend wird eine Handlungsempfehlung für das weitere Vorgehen ausgesprochen.
Unfälle verursachen jährlich einen hohen volkswirtschaftlichen Schaden für die betroffenen Personen, die Unternehmen und den Staat. Die genaue Bezifferung der Höhe des Schadens stellt ein großes Problem dar, weil die wissenschaftlichen Studien mit ihren unterschiedlichen Berechnungsmodellen stark voneinander abweichen. Angesichts der geringen Unfallhäufigkeiten im Schienenverkehr ist die Kostenberechnung in wenigen wissenschaftlichen Untersuchungen von Bedeutung. Das Ziel dieser Arbeit ist, einen Überblick über die Vorgehensweisen bei der Berechnung von Unfallkosten zu geben und die auftretenden Probleme herauszustellen. Grundsätzlich teilen sich die Unfallkosten in Personen- und Sachschäden auf. Bei den Personenschäden werden neben den materiellen Schäden, die immateriellen Schäden mitbetrachtet. Dies führt zu Schwierigkeiten in der Bewertung, weil die Verluste schwer zu beziffern sind. Zu den Hauptkomponenten der Personenschäden zählen in Unfallkostenmodellen die Schäden für den Ausfall der menschlichen Arbeitskraft, die Kosten für die medizinische Versorgung und die Kosten zur Wiederherstellung der Rechtslage. Ein Modell zur Berechnung von Personenschäden im Schienenverkehr, das ausschließlich die Schäden in Deutschland einbezieht, liegt zum jetzigen Stand der Forschung nicht vor. Vom Bundesamt für Straßenwesen (BASt) wurde ein umfangreiches Kostenmodell zur Berechnung von Unfallkosten entwickelt. Das Ergebnis dieses Modells ist, dass der Kostensatz für einen Getöteten 1,1 Millionen Euro, für einen Schwerverletzten 106.000 Euro und für einen Leichtverletzten 5.000 Euro beträgt. In dieser Arbeit wird aufgezeigt, dass dieses Modell in vielen Bereichen für den Schienenverkehr von Bedeutung ist und in diesem Kontext angewendet werden kann. Neben diesem Modell, welches auf statistisch erhobenen Kennzahlen beruht, werden verschiedene Ansätze untersucht, die den Wert eines menschlichen Lebens beschreiben. Die untersuchten Modelle unterscheiden sich in ihrer Berechnungsweise und Ergebnisse weichen voneinander ab. Bei der Berechnung der Sachschäden sind die Anschaffungskosten eines Objekts entscheidend. Zur Eingrenzung der Sachschäden liegt der Fokus in dieser Arbeit auf den Beschädigungen an der Infrastruktur und am Zugmaterial. Mithilfe des Kostenkennwertekatalogs der Deutschen Bahn AG können die Anschaffungskosten für bestimmte Infrastrukturkomponenten ermittelt werden und bilden die Grundlage für die Schadensberechnung.
Diese Bachelorarbeit wurde bei der Rasselstein GmbH in Andernach, dem größten Weißblech produzierenden Standort der Welt, durchgeführt. Sie ist zurzeit im Begriff, ein systematisches, einheitliches Geschäftsprozessmanagement einzuführen. Im Zuge dessen wurden im Rahmen dieser Arbeit ausgewählte Massenprozesse aus dem Office-Bereich zunächst durch die Nutzung verschiedener Modellierungssprachen erfasst. Es handelt sich hierbei um Dienstleistungsprozesse, die sich durch ihr vielfaches Auftreten in der Büroumgebung besonders zum Steuern und Überwachen eignen. Der Einsatz zweier Sprachen begründet sich durch die Tatsache, jeweils differenzierte Aspekte hervorheben zu können, was zu einer umfänglichen, multiperspektivischen Gesamtdarstellung der Prozesse führt. In einem nachfolgenden Schritt wurden diese Prozesse ausführlich mit Blick auf Verbesserungspotenziale analysiert, Schwachstellen entfernt und optimierte Prozesse im Sollzustand geschaffen. Es wurde dadurch beispielhaft aufgezeigt, wie Massenprozesse im Office-Bereich in einem international tätigen Industrieunternehmen untersucht werden können. Besonders durch die Aufstellung eines, aus den gewonnenen Erkenntnissen abgeleiteten, Modells soll ein wissenschaftlicher Beitrag auf dem Forschungsgebiet der Büroprozesse geleistet werden. Neben einer daraus resultierenden Unterstützung der Arbeiten der Forschungsgruppe Betriebliche Anwendungssysteme der Universität Koblenz-Landau wurde damit ebenfalls ein Beitrag für die Rasselstein GmbH generiert. Durch die Arbeiten auf dem Gebiet der Geschäftsprozessmodellierung und -optimierung, unter Zuhilfenahme eines neu eingeführten, adäquaten Prozessmanagementtools, konnten Ergebnisse erzielt werden, die von der Unternehmung für nachfolgende Projekte genutzt werden. Die Erstellung eines umfangreichen Grundlagenkapitels diente einerseits dem Zweck, bei der Rasselstein GmbH ein fundiertes Wissen über das Geschäftsprozessmanagement zu vermitteln und andererseits, besonders in ausgewählten Kapiteln, Erkenntnisse zu aktuellen Themen der Forschungsgruppe zusammenzutragen. Schließlich wurden die ausgewählten, optimierten Office-Prozesse unter dem Fokus auf die Steuerung und Überwachung derselben betrachtet. Am Beispiel der Rasselstein GmbH wurde aufgezeigt, wo Chancen, Risiken und Schwierigkeiten zur Realisierung dieser Thematik in einem Industrieunternehmen liegen.
Gentechnisch veränderte Pflanzen werden seit etwa 25 Jahren kommerziell angebaut. Besonders häufig werden Bt-Pflanzen verwendet, die Gene des Bakteriums Bacillus thuringiensis (Bt) enthalten und Cry-Proteine produzieren. Die Risikobewertung konzentrierte sich lange auf die terrestrische Umwelt. Erst mit der Veröffentlichung von Rosi-Marshall et al. im Jahr 2007 rückten mögliche Auswirkungen auf die aquatische Umwelt in den Fokus. In dem ersten Teil dieser Dissertation wurde die vorhandene Literatur zu lower-tier Effektstudien und Studien über den Verbleib ausgewertet, die die Auswirkungen von GV-Pflanzen auf die aquatische Umwelt untersuchen. Es zeigen sich potentielle Effekte auf aquatische Organismen. Einige Studien wiesen außerdem den Eintrag von GV-Pflanzenmaterial in die aquatische Umwelt sowie das Herauswaschen der Toxine in das Wasser nach.
Im zweiten Teil der Dissertation wird die Wirkung des Cry1Ab-Toxins auf zwei Arten an Köcherfliegenlarven (Chaetopterryx spec., Sericostoma spec.) untersucht. Trichopteren sind phylogenetisch nah verwandt mit Lepidopteren, die häufig die Zielorganismen von Cry-Toxinen sind. Um mehrere Konzentrationen verabreichen zu können wurde eine neue Spiking-Methode eingesetzt, bei der gelöstes Cry1Ab-Toxin auf Blätter der Schwarzerle (Alnus glutinosa) aufgetragen wird. Effekte zeigten sich ins Besondere bei sublethalen Endpunkten. Der Lipidgehalt der Chaetopteryx spec. Larven war nach zwölf Wochen geringer mit zunehmender Cry1Ab Konzentration. Die Verringerung des Lipidgehalts könnte auf eine Erhöhung des Energiebedarfs für Reparaturmechanismen hindeuten. Bei Sericostoma spec. zeigte sich nach sechs Wochen eine Verlangsamung der Larvalentwicklung in der höchsten Cry1Ab Konzentration, was zu einer späteren Emergenz und damit zu Auswirkungen auf die Nahrungskette führen könnte.
Im dritten Teil der Dissertation wurde die Bewertung von Auswirkungen von GV-Pflanzen auf die aquatische Umwelt anhand von higher-tier Studien untersucht. Da higher-tier Studien bei Pestiziden bereits häufig vorkommen, wurden diese mit den bereits durchgeführten higher-tier Studien mit GV-Pflanzen verglichen. Es zeigt sich, dass es keine Standardisierung von higher-tier Studien mit GV-Pflanzen gibt, was für die Qualitätssicherung und die Vergleichbarkeit von Studien notwendig ist. Außerdem bestehen große Schwierigkeiten damit verschiedene Versuchskonzentrationen herzustellen, was für die Untersuchung einer Dosis-Wirkungsbeziehung notwendig ist.
Insgesamt zeigt sich, dass es noch erheblichen Forschungsbedarf gibt, was die Auswirkungen von GV-Pflanzen auf die aquatische Umwelt angeht. Weitere Studien sind für eine umfangreiche und aussagestarke Risikobewertung unumgänglich.
Die Arbeit beschäftigt sich mit der für Router und Kleingeräte entwickelten Linux-Distribution OpenWrt. Im ersten Teil der Arbeit wird die Erstellung von Softwarepaketen für OpenWrt erläutert und eine Anzeige- und Konfigurationskomponente für die Dateien des Quagga RIP-Daemons für die Benutzeroberfläche LuCI erstellt. Im zweiten Teil wird der Aufbau eines Testnetzwerkes mit OpenWrt Routern dokumentiert, sowie die Anbindung an VNUML-virtualisierte Netzwerke.
Die Nachhaltigkeitsberichterstattung kann als ein zentrales Element einer konsequenten Unternehmensstrategie zur Umsetzung der gesellschaftlichen Verantwortung (Corporate Social Responsibility) angesehen werden. Um die Unternehmen bei dieser Aufgabe zu unterstützen stellt die Global Reporting Initiative (GRI) mit ihren G4 Leitlinien einen Orientierungsrahmen bereit, dessen Anwendung sich allerdings für Klein und Mittelunternehmen sehr komplex gestaltet. Ein branchenspezifisches Sector Supplement für den Weinbau existiert derzeit noch nicht.
Ziel der vorliegenden Arbeit ist es, diese Forschungslücke durch die Entwicklung weinbauspezifischer Nachhaltigkeitsaspekte und Indikatoren zu schließen, um den Betrieben eine selbstständige GRI-konforme Berichterstattung zu ermöglichen.
Der Prozess zur Identifikation wesentlicher Nachhaltigkeitsaspekte und -indikatoren erfolgt mittels Erhebungs- und Auswertungsmethoden der qualitativen Sozialforschung in Form
von Workshops, betrieblichen Vorortanalysen und Experteninterviews.
Parallel dazu erfolgt eine umfassende Analyse der weinbaulichen Wertschöpfungskette in Form einer Internet- und Literaturrecherche. Diese umfasst vorrangig die ökologischen Nachhaltigkeitsaspekte als diejenigen Bestandteile weinbaulicher Tätigkeiten, die sich sowohl positiv als auch negativ auf die Umwelt auswirken können. Anschließend erfolgt die zentrale Priorisierung der identifizieren Handlungsfelder und Nachhaltigkeitsthemen durch die Stakeholder. Zur Visualisierung der bewerteten Handlungsfelder dient das Instrument der Wesentlichkeitsanalyse.
Auf dieser Basis erfolgt die Entwicklung eines Handlungsleitfadens zur Erstellung von Nachhaltigkeitsberichten in der Weinwirtschaft. Hiermit erlangen Weingüter die praktische Kompetenz ein eigenes Nachhaltigkeitsreporting anzugehen.
Im Rahmen der Arbeit wurde auch ein elektronisches Tool entwickelt, das den Betrieben die Möglichkeit eröffnet, betriebliche Umweltaspekte zu erfassen und zu bewerten. Gleichzeitig wird den Anwendern damit die Generierung eines überbetrieblichen Vergleichs der Umweltleistung ermöglicht (Benchmarking).
Eine weitere Forschungsfrage der vorliegenden Arbeit beschäftigt sich mit der Biodiversitätserfassung und -bewertung für Rebland. Hintergrund sind die bisher nur geringen Funde auf der durch das Bundesamt für Naturschutz festgelegten Kennartenlisten bzw. den HNV-Stichprobenflächen (High nature value farmland-Indikator) für Rebland.
Hierzu wurde mittels Geoinformationssystemen das Artenvorkommen in rheinland-pfälzischen Weinanbaugebieten analysiert und 30 Pflanzenarten als Indikatorarten für den Weinbau abgeleitet. Ergänzend wurden weinbergstypische, geschützte Tierarten als „Bonusarten“ identifiziert. Die Indikatorarten werden den Winzern als ein Instrument zur eigenständigen Erfassung der Biodiversität in den Weinbergen dienen und im Rahmen einer Nachhaltigkeitsberichterstattung herangezogen werden können.
Innovation verhilft einem nach Fortschritt strebenden Unternehmen zu sehr schnellen Wachstum. Sie eröffnet dem Unternehmen die Möglichkeit der Konkurrenz immer einen Schritt voraus zu sein und somit neue Kundengruppen für sich zu gewinnen. Allgemein stehen Unternehmen vor der Wahl zwischen einem offenen und einem geschlossenen Innovationsprozess. In dieser Ausarbeitung versuchen wir auf den offenen Innovationsprozess einzugehen und vor allem auf die Informations- und Innovationssysteme, die diesen Prozess unterstützen. Natürlich ergeben sich sowohl Vor- als auch Nachteile, wenn es dazu kommt für einen schnelleren und besseren Fortschritt als Unternehmen seine Innovationsprozesse offen zu legen. Daher werden wir einige Beispiele aus der Unternehmenswelt untersuchen und diese unter dem Aspekt des offenen Innovationsprozesses analysieren. Dabei zeichnen sich natürlich immer Unternehmen ab, die mit der Unterstützung von Informationssystemen einen erfolgreichen offenen Innovationsprozess meistern konnten und andere Unternehmen, bei denen das Konzept des offenen Innovationsprozess nicht geglückt ist.
Die Herstellung eines Europäischen Binnenmarktes, wie sie durch den Vertrag zur Gründung der Europäischen Gemeinschaft vorgesehen ist, beinhaltet unter anderem die freie grenzüberschreitende Erbringung von Dienstleistungen. Dem stehen jedoch mehrfach die Bestimmungen im Recht der EU-Mitgliedstaaten entgegen, die den freien Zugang von Dienstleistungserbringern aus anderen EU-Mitgliedstaaten zum nationalen Markt blockieren. Gründe für derartige Maßnahmen können sehr unterschiedlich sein, z.B.: der Schutz innerstaatlicher Anbieter, die Gewährleistung von Schutznormen des nationalen Arbeitsrechts oder die Verhinderung eines ruinösen Unterbietungswettlaufs. Die Richtlinie soll bürokratische Hindernisse abbauen, den grenzüberschreitenden Handel mit Dienstleistungen fördern und damit zur Verwirklichung des einheitlichen Binnenmarktes beitragen. Die Europäische Kommission hat am 12. Dezember 2006 die EU-Dienstleistungsrichtlinie verabschiedet. Jeder Mitgliedstaat der EU verpflichtet sich bis zum Jahr 2009 die Richtlinie umzusetzen und zugleich einen Bericht der Kommission vorzulegen. Innerhalb der Diplomarbeit werden mehrere Themenbereiche bearbeitet. Zu Beginn erfolgt eine allgemeine Einführung in die EU-Dienstleistungsrichtlinie. Als nächstes erfolgt eine Analyse aktueller Ansätze zur Umsetzung der EU-Richtlinie in Deutschland, Österreich und Großbritannien, dabei wird der Fortschritt der Länder anhand der Kernstrukturen der Direktive betrachtet. Zusätzlich wird für jedes betrachtete Land ein mögliches Anmeldeszenario, ohne die Vorgaben der Richtlinie, vorgestellt. Zur Vervollständigung der Betrachtung erfolgt zum Schluss eine länderübergreifende Auswertung. Diese wird sich sowohl auf die zurzeit vorherrschende Ländersituation als auch auf die erzielten Ergebnisse innerhalb der Direktive beziehen.
Kleine und mittelständische Unternehmen stehen durch den permanenten Wandel unserer Wirtschaft [Baumann & Schulte, 2002, S. 5] immer größeren Herausforderungen gegenüber, die sie bewältigen müssen [Bullinger & Buck, 2007]. Um diesen Herausforderungen zu begegnen, muss die Organisation der Geschäftsprozesse innerhalb des Unternehmens effektiv und effizient erfolgen, damit ein möglichst hohes Maß an Transparenz erreicht werden kann.
Um eine effektivere und effizientere Unternehmenssteuerung zu gewährleisten und damit den Unternehmer entlasten zu können, sowie Transparenz zu schaffen, muss der Einsatz von zielgerichteten Methoden zur Schaffung von Kompetenzen im Bereich Prozessmanagement gerade in kleinen und mittelständischen Handwerksunternehmen im Vordergrund stehen. Diese haben aber auf Grund ihrer geringen Größe meist nicht das Know-how und die Ressourcen, sich neben den operativen Aufgaben mit den neuen Strategien der Betriebsführung zu beschäftigen [Kuiper, et al., 2012, S. 107].
Eine Möglichkeit Transparenz zu schaffen liegt in der Erhebung von Kennzahlen. In dieser Arbeit werden verschiedene Kennzahlensysteme betrachtet und ihre Eignung für den Einsatz in kleinen und mittelständischen Unternehmen anhand von definierten Kriterien verglichen. Das Ergebnis dieses Vergleiches zeigt, dass die in der Literatur identifizierten Kennzahlensysteme für kleine und mittelständische Unternehmen nicht deren Anforderungen entsprechen. Die Systeme liefern darüber hinaus nur wenige konkrete Methoden, wie Kennzahlen in KMU erhoben werden können.
Im Zuge dieser Arbeit werden auch kleine und mittelständische Handwerksunternehmen nach deren Nutzung und Wissen in Bezug auf Kennzahlen befragt. Das Ergebnis dieser Befragung zeigt, dass in den meisten Unternehmen nur sehr wenig Wissen in diesem Bereich vorhanden ist.
Auf Grundlage der Ergebnisse der vergleichenden Analyse bestehender Kennzahlensysteme aus dem ersten Teil dieser Arbeit und der Analyse der Unternehmensbefragung, wird im letzten Teil dieser Arbeit ein Vorschlag für ein prozessorientiertes Kennzahlensystem entwickelt und vorgestellt. Dieser Vorschlag für ein Kennzahlensystem ist insbesondere auf die Bedürfnisse von kleinen und mittelständischen Handwerksunternehmen ausgerichtet. Aber auch mit diesem System können nicht alle Schwierigkeiten die kleine und mittelständische Unternehmen bei der Arbeit mit Kennzahlen haben, eliminiert werden. Das System gibt eine strukturierte Vorgehensweise vor, und erläutert konkrete Maßnahmen, die zur Überwindung von Barrieren bei der effektiven Arbeit mit Kennzahlen, durchgeführt werden können.
So genannte Risikomanagement-Informationssysteme (RMIS) unterstützen Unternehmen darin, ihr Risiko-Management unternehmensweit durchzuführen. Im vorliegenden Beitrag analysieren wir mit Hilfe der Scoring-Methode die inhaltlichen Anforderungen an ein RMIS und zeigen, wie das zu einer begründeten Auswahl für die Anschaffung eines RMIS führt. Dazu diskutieren wir erstens, welche Anforderungen an ein RMIS gestellt werden, zweitens klassifizieren wir die auf dem Markt existierenden RMIS bezüglich ihrer Anwendungsziele und drittens erstellen wir einen Anforderungskatalog und ein dreistufiges Verfahren zur Handhabung des Auswahlprozesses. Dieses wird im Rahmen einer erfolgreich durchgeführten Fallstudie im Rahmen einer Masterarbeit [11] in einem konkreten Konzern, der Telekommunikations- und Internetzugang anbietet (United Internet AG, Montabaur), erläutert und evaluiert. 1.
Durch die zunehmende Vernetzung von Geräten sind verteilte Anwendungen eine gängige Methode in der Software-Entwicklung. Obwohl ein Bedarf an Anonymität bei der Nutzung von verteilten Anwendungen besteht, mangelt es in der Entwicklung an der Unterstützung durch Software-Frameworks. Das Erstellen von anonymisierbar kommunizierenden Anwendungen benötigt daher meist eine aufwendige Individuallösung. Diese Arbeit integriert anonymisierbare Kommunikation mittels Remote Procedure Calls (RPCs) in ein Software-Framework für verteilte Anwendungen. Dazu wird ein Binding für das MAppLab Remote Procedure Call Framework auf der Basis des mPart-API-Frameworks konzeptuell entworfen, prototypisch implementiert und in einem Beispiel-Szenario angewendet.
Rechnernetze gehört zu den Fächern, die ein breites Spektrum an Anwendungsgebieten abdecken. Die vielen unterschiedlichen Protokolle sind Belege dafür. Jedes Protokoll hat sozusagen ein eigenes Anwendungsbereich und doch sind deren Aufgaben unter dem Nenner gleich. Miteinander zu Kommunizieren, Informationen auszutauschen und das möglichst auf eine sichere und schnelle Art und Weise. Als Beispiel denke man an Autos, Handys, Lokale Netze in einem kleinen Betrieb, Intranet in einer größeren Organisation oder in Netze die über Länder hinweggehen. Ein modernes Auto an sich hat schon eine Vielzahl an Bussystemen in sich integriert. CAN, LIN, FlexRay oder MOST Bus sind ein paar Stichworte dazu. Wenn man jetzt von der Autoindustrie weggeht und an die Autonomen Systeme kommt, gibt es dort ein Routing Information Protokoll, das innerhalb von Autonomen Systemen verwendet wird. Routing Information Protokoll ist eines der meist verwendeten Protokolle innerhalb von Autonomen Systemen. Das Routing Information Protokoll ist einer der zentralen Bestandteile des Forschungsbereiches der AG Steigner. Die Arbeit widmet sich unter Anderem dieser Forschungsunterstützung.Diese Studienarbeit hat das Ziel die Testumgebung XTPeer auf die VNUML Version 1.8 zu integrieren.
Anreizfaktoren der Wissensverwertung für Universitäten und kleine und mittelständische Unternehmen
(2014)
In dieser wissenschaftlichen Ausarbeitung werden auf Basis einer Literaturrecherche Anreizfaktoren der Wissensverwertung für Universitäten und kleine und mittelständische Unternehmen identifiziert und beschrieben. Darüber hinaus werden im Verlauf der Arbeit verschiedene Modelle adaptiert, erstellt und fortlaufend erweitert. Dieser Prozess mündet in einem integrativen Modell. Die Grundproblematik besteht in der Notwendigkeit externe Wissensquellen in die eigenen Betriebsabläufe einfließen zu lassen. Dieses Modell der Open Innovation wird in der Literatur besonders für kleine und mittelständische Unternehmen als unausweichlich angesehen, um konkurrenzfähig zu bleiben. Die Gründe dafür werden ebenso wie die Möglichkeiten einer erfolgreichen Zusammenarbeit dargelegt und beschrieben. Deutschland weist im internationalen Vergleich eine verhältnismäßig hohe Beteiligung an Wissens- und Technologietransfers auf. Dennoch geht eine Vielzahl von Unternehmen davon aus, ihre Institution würde nicht von Wissensverwertungsmaßnahmen profitieren.
In der Literatur existiert kein Modell, welches die Verwertungsschritte und die Anreize für Universitäten und Unternehmen verbindet. Somit schließt diese Ausarbeitung die identifizierte Lücke durch das in Kapitel 4.4 abgebildete integrative Modell. Durch die ausformulierten Anreizfaktoren können sowohl Universitäten und Unternehmen als auch deren Mitarbeiter erkennen, ob eine Zusammenarbeit bezüglich eines aktuellen Forschungsthemas sinnvoll erscheint.
Während auf Basis der Literaturrecherche zunächst theoretische Grundlagen definiert werden, folgt im Anschluss eine Schilderung der Anreizfaktoren der Wissensverwertung. Dabei wird zwischen materiellen und immateriellen Anreizen unterschieden. Diese Differenzierung und die Unterscheidung von extrinsischer und intrinsischer Motivation sind im Hinblick auf die folgenden Ergebnisse von großer Bedeutung. Infolgedessen wird ein Wissensverwertungsmodell vorgestellt und auf den vorliegenden Sachverhalt angepasst, bevor mit der Erweiterung des Modells um eine zusätzliche Perspektive und dem Hinzufügen der Anreizfaktoren begonnen wird.
Durch das beschriebene Vorgehen entsteht ein integratives Modell, das sowohl für Universitäten und deren Wissenschaftler als auch für kleine und mittelständische Unternehmen und deren Mitarbeiter von Bedeutung sein kann.
In einer Welt, die immer mehr durch den Einsatz von Technik geprägt wird, gewinnen Systeme, welche eigenständig Aufgaben in einem vorgegebenen Kontext übernehmen können, mehr und mehr an Bedeutung. Solche Systeme werden als autonome Systeme bezeichnet, die ein eigenständiges Verhalten und Interaktionen mit ihrer Umwelt und anderen Systemen beinhalten. Zu diesen Systemen zählen auch autonome mobile Roboter. Sie sind sozusagen intelligente Fahrzeuge, die ihnen übertragene Aufgaben ohne menschliche Unterstützung durchführen können. Um ihre Umwelt wahrzunehmen, mit ihr interagieren und in ihr navigieren zu können benötigen diese Systeme verschiedene Arten von Sensoren. Somit ist die Robotikforschung stark interdisziplinär. Diese Arbeit befasst sich ausschliesslich mit dem Bereich der Navigation, insbesondere mit der Positionsbestimmung, welche für eine gute Navigation die Grundlage bildet. Ein heutzutage häufig benutztes, weltweit verfügbares System zur Positionsbestimmung ist GPS. Ziel dieser Arbeit ist der Anschluss eines GPS-Moduls an einen Mikrocontroller und der Versuch die Positionsgenauigkeit lokal zu präzisieren, um so einem autonomen System die Möglichkeit zur eröffnen, Aufgaben, die eine höhere Genauigkeit erfordern, zu bewerkstelligen.
Die vorliegende Arbeit beschäftigt sich mit Qualitätssicherungsansätzen für modellbasierte SRS (d.h. Lasten- und Pflichtenhefte), im Speziellen mit SRS-Modellen und SRS-Modellvisualisierungen (d.h. Diagrammen). Das Besondere an modellbasierten SRS-Dokumentationen ist, dass sie durch einen Dokumentationsgenerator aus dem Input SRS-Modell, SRS-Modellvisualisierungen und modellexternen Texten generiert werden. Um die Qualität der Dokumentation zu sichern, muss somit die Qualität der folgenden vier Faktoren gesichert werden: SRS-Modell, SRS-Modellvisualisierungen, modellexterne Texte und Dokumentationsgenerator. Ziel dieser Arbeit ist es, einen Qualitätsbegriff für SRS-Modelle und -Modellvisualisierungen zu definieren und ein Vorgehen zur Realisierung automatischer Qualitätsprüfung, -messung und -bewertung (d.h. Qualitätssicherung) im Modellierungswerkzeug Innovator aufzuzeigen.
Antonio Lotti und seine liturgische Kirchenmusik – Vorstudien zu Biographie und Überlieferung
(2023)
Antonio Lotti (1667-1740) gehört zu den venezianischen Komponisten, die in der älteren wie der neueren Fachliteratur ein hohes Ansehen genießen, obwohl seine Werke bis heute nur wenig bekannt sind. Eine unklare Überlieferungslage, aber auch sachfremde ästhetische Postulate verzögerten jedoch die Auseinandersetzung mit Lottis Kompositionen. Erst in neuerer Zeit gab es ein verstärktes Interesse sowohl an seinen Opern und vokaler Kammermusik als auch an seiner Kirchenmusik.
In der vorliegenden Studie wird zunächst Lottis Biographie unter Einbeziehung neuer Quellenfunde auf dem aktuellen Stand des Wissens zusammenfassend dargestellt. Der zweite Teil bietet erstmals eine Identifikation von Lottis Buchstaben- und Notenschrift nach streng philologischen Kriterien. Angesichts des nicht mehr erhaltenen Nachlasses ist dieser Teil von besonderer Bedeutung, bietet er doch die unverzichtbare Basis zur weiteren Erforschung von Lottis Kirchenmusik, ihrer Überlieferung und Faktur.
In den folgenden acht Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptographischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, besprechen im Detail den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens. Das erste Beispiel der Verschlüsselungsprotokolle ist noch nicht sehr konkret, sondern es bildet die Grundlage der folgenden Beispiele. Denn jede Anwendung setzt eines der beiden Typen von Verschlüsselungsprotokollen ein, die im ersten Beispiel erklärt werden. Dann folgen die Beispiele Sicheres World Wide Web mit SSL, die Verschlüsselung der Luftschnittstelle im Mobilfunk, die sichere Identifikation des Karteninhabers einer ec-Karte am Geldauszahlungsautomaten, der Schutz von WLANs gegen fremde Lauscher und Eindringlinge, die sichere Identifikation elektronischer Schlüssel, darunter der Funkschlüssel bei Autotüren, das kontaktlose Flugticket zum Ausdrucken einer Boardingkarte und schließlich die Verschlüsselung im Pay-TV. Die Beschreibung der kryptografischen Anwendungen dieses Kapitels wird in einem Arbeitspapier des Instituts für Wirtschafts- und Verwaltungsinformatik der Universität Koblenz-Landau weitergepflegt und dort stets aktuell zum Download bereitgehalten [Grimm, Hundacker, Meletiadou 2006]. http://www.uni-koblenz.de/FB4/Institutes/IWVI/AGGrimm/Downloads
In den folgenden neun Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptografischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, zeigen den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens.
Der Idee des Semantic Desktop liegen die gleichen Konzepte zugrunde wie dem Semantic Web mit dem Unterschied, dass sie nun auf die Applikationen und Daten eines durchschnittlichen Desktops angewendet werden. Insbesondere geht es darum, die unterschiedlichen Sichten auf Daten, die durch unterschiedliche Anwendungen erzeugt werden, über eine kontextübergreifende Beschreibung zu integrieren. Z.B. können sich zwei Programme darin unterscheiden, dass eine E-Mail-Adresse in dem einen als aktiver Link dargestellt wird, über den sich direkt eine E-Mail versenden lässt, in dem anderen aber lediglich als Zeichenkette. In der angestrebten idealen Welt des Semantic Desktop würde diese Adresse unabhängig von ihrem Anzeigekontext auch als solche erkannt und behandelt. Ziel der Arbeit ist die Entwicklung einer Integrationsmöglichkeit, die es Applikationen erlaubt, Informationen über ihre Inhalte auszutauschen. Hierzu werden zunächst die Anforderungen an die zu erarbeitende Kommunikationskomponente aufgeführt und daraus das technische Umfeld abgeleitet. Dabei wird vor allem auf die einzusetzenden Technologien eingegangen, und die angewendeten Konzepte werden erläutert. Die Entwicklung und Beschreibung einer Testanwendung schließen den technischen Teil ab. Zuletzt wird die gesamte Entwicklung kritisch diskutiert und ein Ausblick auf mögliche fortführende Entwicklungen geboten.