Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (267)
- Bachelorarbeit (230)
- Dissertation (222)
- Diplomarbeit (169)
- Studienarbeit (127)
- Masterarbeit (99)
- Bericht (8)
- Sonstiges (5)
- Buch (Monographie) (4)
- Wissenschaftlicher Artikel (1)
Sprache
- Deutsch (1134) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Augmented Reality (14)
- Bildverarbeitung (12)
- Simulation (10)
- Computergrafik (9)
- Robotik (9)
- Computergraphik (8)
- Computersimulation (8)
- Computervisualistik (8)
- Routing (8)
Institut
- Institut für Computervisualistik (282)
- Fachbereich 4 (182)
- Zentrale Einrichtungen (173)
- Institut für Wirtschafts- und Verwaltungsinformatik (94)
- Institut für Management (86)
- Institut für Informatik (62)
- Institut für Softwaretechnik (39)
- Fachbereich 8 (27)
- Fachbereich 5 (25)
- Fachbereich 7 (21)
Eins der größten Ziele der Computergrafik ist die ästhetische Darstellung von Objekten. Neben herkömmlichen Verfahren existiert ein weiteres Feld, welches sich mit nicht-photorealistischen Renderings beschäftigt. Das Example-Based Rendering ist ein Gebiet, bei dem Benutzer ihren Kunststil, mit Hilfe einer handgemalten Vorlage, auf ein vorberechnetes 3D-Rendering übertragen können. Es existieren einige Algorithmen die bereits beeindruckende Ergebnisse liefern. Das Problem ist, dass die meisten Verfahren aus diesem Bereich zu den Offline-Verfahren zählen und nicht in der Lage sind Ergebnisse in Echtzeit zu produzieren. Aus diesem Grund zeigt diese Arbeit ein Verfahren, dass diese Bedingung erfüllt. Darüber hinaus wird untersucht, welchen Einfluss die Laufzeitminimierung auf die Resultate hat. Es sind Anforderungen definiert, auf die das Verfahren und dessen Ergebnisse überprüft werden. Dabei wird Bezug zu anderen Verfahren aus diesem Gebiet genommen und mit deren Resultaten verglichen.
Künstliche Intelligenzen werden immer öfter erfolgreich in Spielen angewendet. Sie benötigen aber, je nach Komplexität des Spiels, viel Rechenleistung, um gute Ergebnisse erzielen zu können. Daher wird in dieser Arbeit ein Strategy Learning-System implementiert, welches auf der Basis von Crowd-Learned Heuristiken funktioniert. Die Heuristiken sind dabei in einem Wiki hinterlegt. Die Forschung wird nach der Design Science Research Methodology betrieben. Das implementierte System wird auf das Spiel Dominion angewandt, wofür eine Dominion-Ontologie definiert wird. Für die Implementation wird eine Mappingsprache definiert, mit der Informationen aus einem Wiki in eine Ontologie übertragen werden können. Zudem werden Metriken definiert, mit der die ermittelten Strategien bewertet werden können. Im System können Nutzer zum einen ein Mapping für die Informations-Übertragung angeben und anwenden und zum anderen für Dominion eine Menge an Karten auswählen, in der Strategien ermittelt werden sollen. Das System wird abschließend evaluiert, indem Dominion-Spieler die vom System ermittelten Strategien und die erarbeiteten Metriken bewerten.
Speziell in Anwendungen mit intensiver Temperatur- und Korrosionsbeanspruchung finden vermehrt Phosphate als sogenannte chemische Binder für Hochleistungskeramiken Verwendung. Konkret ist die Summe der Reaktionsverläufe während des Bindemechanismus in Folge einer thermisch-induzierten Aushärtung und somit die Wirkungsweise von Phosphatbindern prinzipiell innerhalb der Fachliteratur nicht eindeutig untersucht. Innerhalb dieser Arbeit wurden aufbauend auf einer umfangreichen strukturanalytischen Prüfungsanordnung (Festkörper-NMR, RBA, REM-EDX) einer exemplarischen phosphatgebundenen Al₂O₃-MgAl₂O₄-Hochtemperaturkeramikzusammensetzung unter Einbeziehung verschiedenartiger anorganischer Phosphate grundlegende Bindemechanismen charakterisiert. Mechanisch-physikochemische Eigenschaftsuntersuchungen (STA, Dilatometrie, DMA, KBF) deckten zudem den Einfluss der eingesetzten Phosphate auf die Eigenschaftsentwicklungen der Feuerfestkeramiken bezüglich des Abbindeverhaltens, der Biegefestigkeit sowie der thermischen Längenänderung auf, welche mit Strukturänderungen korreliert wurden. Es wurde gezeigt, dass sich Bindemechanismen bei Verwendung von Phosphaten temperaturgeleitet (20 °C ≤ T ≤ 1500 °C) grundsätzlich aus zwei parallel ablaufenden Reaktionsabfolgen zusammensetzen, wobei die sich entwickelnden Phosphatphasen innerhalb der Keramikmasse quantitativ und qualitativ bezüglich ihrer Bindewirkung bewertet wurden. Zum einen wurde die Bildung eines festigkeitssteigernden Bindenetzwerks aus Aluminiumphosphaten meist amorpher Struktur identifiziert und charakterisiert. Dieses bindungsfördernde, dreidimensionale Aluminiumphosphatnetzwerk baut sich innerhalb der Initialisierungs- und Vernetzungsphasen temperaturgeleitet kontinuierlich über multiple Vernetzungsreaktionen homogen auf. Zum anderen werden Reaktionsabfolgen durch parallel ablaufende Strukturumwandlungen nicht aktiv-bindender Phosphatspezies wie Magnesium-, Calcium- oder Zirkoniumphosphate ergänzt, welche lediglich thermische Umwandlungsreaktionen der Ausgangsphosphate darstellen. Vermehrt bei T > 800 °C geht das phosphatische Bindenetzwerk Festkörperreaktionen mit MgAl₂O₄ unter Ausbildung und Agglomeration von Magnesium-Orthophosphat-Sinterstrukturen ein. Die Bildung dieser niedrigschmelzenden Hochtemperaturphasen führt zu einem teilweisen Bruch des Bindenetzwerks.
Stylized image triangulation
(2019)
Die stilisierte Triangulierung ist ein beliebtes Stilmittel bei der Abstraktion von Bildern. Ergebnisse sind auf Covern von Magazinen zu finden oder als Kunstwerk zu kaufen. Eingesetzt wird diese Stilisierung auch bei mobilen Anwendungen oder gar bei Programmen, die sich ausschließlich mit der automatisierten Triangulation befassen.
Diese Arbeit basiert auf einer Veröffentlichung, die die adaptive dynamische Triangulierung als Optimierungsproblem versteht und damit, hinsichtlich der visuellen und technischen Qualität, neue Ergebnisse erzielt. Ziel dieser Arbeit ist es, dieses Verfahren möglichst vielen Nutzern zugänglich zu machen. Dazu wird eine mobile Anwendung - Mesh - entworfen und umgesetzt. Ein Host-Client System wird entwickelt, um die ressourcenbedürftige Berechnung nicht auf dem mobilen Endgerät ausführen zu müssen. Im Zuge dessen wird das Verfahren für die CPU portiert und zusätzlich ein Webserver entwickelt, der die Kommunikation zwischen dem Triangulierungsverfahren und der mobilen Anwendung herstellt. Die App «Mesh» bietet die Möglichkeit, ein beliebiges Bild zu dem Server zu senden, das nach der Bearbeitung heruntergeladen werden kann.
Ein Forschungsaspekt der Arbeit thematisiert die Optimierung des Verfahrens. Dafür wird der Gradientenabstieg, der die Energieminimierung durchführt, anhand verschiedener Ansätze untersucht. Die Einschränkung der Schrittmöglichkeiten, diagonale Schrittrichtungen und eine dynamische Neupositionierung werden getestet. Es zeigt sich, dass sich bei diagonaler Schrittrichtung, anstatt horizontaler und vertikaler, keine Verbesserung verzeichnen lässt. Die Einschränkung der Schrittrichtung, dass ein Punkt seine vorherige Position nicht erneut einnehmen kann, verursacht einen Verlust an optischer Qualität. Jedoch wird der globale angestrebte Approximationsfehler in kürzerer Zeit erreicht. Die vektorbasierte Variante der flexiblen Schrittrichtung resultiert mit längerer Berechnungszeit in qualitativ hochwertigeren Ergebnissen, sodass ästhetischere Resultate erzielt werden.
Ein weiterer Bestandteil dieser Arbeit setzt sich mit der Imitation eines Kunststils auseinander. Die Werke von Josh Bryan dienen als Inspiration. Mittels eines GLSL-Shaders soll durch die Verwendung von Pseudozufälligkeit ein natürlicheres Aussehen einer schraffierten Triangulierung erreicht werden. Ergebnisse zeigen, dass der Ansatz Möglichkeiten der Verbesserung aufweist, dass jedoch eine präzisere Triangulierung für eine hochwertige Imitation notwendig ist. Als letzter Bestandteil wird ein Renderstil präsentiert, der ausgehend von einem beliebigen Ausgangspunkt, die Dreiecke der Triangulation versetzt, sodass Lücken entstehen. Durch die freie Wahl des Zentrums des Effekts, ist ein Einsatz bei Animationen denkbar.
In dieser Arbeit werden jeweils ein Verfahren aus den beiden Bereichen der Bildregistrierung implementiert und beschrieben. Eine direkte und eine merkmalsbasierte Methode werden verglichen und auf ihre Grenzen hin überprüft. Die implementierten Verfahren funktionieren gut und registrieren beide verschiedene Bildserien subpixelgenau. Bei der direkten Methode ist vor allem die Wahl des Transformationsmodells ausschlaggebend. Auch das Einbetten der Methode in eine Gaußpyramidenstruktur hat sich als wichtig herausgestellt. Da die merkmalsbasierte Methode aus verschiedenen Komponenten aufgebaut ist, kann jeder einzelne Schritt durch unterschiedliche Verfahren ausgetauscht werden, so z.B. die Detektion der Merkmale durch Tomasi-Kanade, SIFT oder Moravec. In der direkten Methode kann die Genauigkeit der Ergebnisse zum einen durch den gewählten Schwellwert und zum anderen durch die Anzahl der Pyramidenstufen beeinflusst werden. Bei der merkmalsbasierten Methode wiederum können unterschiedlich viele Merkmale benutzt werden, die einen unterschiedlich hohen Schwellwert besitzen können. Es wird gezeigt, dass beide Methoden zu guten Ergebnissen führen, wenn davon ausgegangen wird, dass die Verschiebung sowie die Rotation gering sind. Bei stärkeren Veränderungen jedoch wird die direkte Methode recht ungenau, während die merkmalsbasierte Methode noch gute Ergebnisse erzielt. An ihre Grenze gerät sie erst, wenn entweder der Bildinhalt sich stark ändert, oder die Rotationen einen Winkel von 20° überschreitet. Beide Verfahren arbeiten also subpixelgenau, können aber unter verschiedenen Voraussetzungen zu Ungenauigkeiten führen. Werden die jeweiligen Probleme der beiden Methoden beachtet und am besten bei der Aufnahme oder vor der Registrierung eliminiert, so können sehr gute Ergebnisse erzielt werden.
Mittels facettierter Suche lassen sich große, unbekannte Datensätze einfach und gezielt erkunden. Bei der Implementation von Anwendungen für Smartphones ist zu beachten, dass im Gegensatz zu Desktop-Anwendungen ein kleinerer Bildschirm und nur beschränkte Möglichkeiten zur Interaktion zwischen Benutzer und Smartphone zur Verfügung stehen. Diese Beschränkungen können die Benutzbarkeit einer Anwendung negativ beeinflussen. Mit FaThumb und MobileFacets existieren zwei mobile Anwendungen, die die facettierte Suche umsetzen und verwenden, aber nur MobileFacets ist für gegenwärtige Smartphones mit Touchscreenbildschirm ausgelegt.
Jedoch bietet FaThumb eine neuartige Facettennavigation, die durch MFacets in dieser Arbeit für aktuelle Smartphones neu realisiert wird. Außerdem befasst sich diese Arbeit mit der Durchführung einer summativen Evaluation zwischen den beiden Anwendungen, MFacets und MobileFacets, bezüglich der Benutzbarkeit und präsentiert die ausgewerteten Ergebnisse.
Der Bereich der Annotation von digitalen Medien ist umfassend erforscht. Es gibt viele verschiedene innovative Ideen Annotationsprozesse zu gestalten. Den wahrscheinlich größten Anteil an verwandten Arbeiten hat die semiautomatische Annotation. Eine Eigenschaft aber ist allen Arbeiten gemein: Keine dieser Arbeiten untersucht, wie man ein Interface für einen Annotationsprozess optimieren kann, um den Nutzer zu unterstützen und folglich zufriedener zu machen. Die hier vorliegende Arbeit versucht im Rahmen einer Benutzerstudie die Usability Eigenschaften von verschiedenen Interface Varianten zu vergleichen, um anschließend Aussagen darüber machen zu können, welche Funktionen ein Annotationsinterface haben sollte und darf, um eben genau diese betreffenden Anforderungen zu erfüllen. Hierzu wurden verschiedene Ideen für Interfaces gesammelt, im Rahmen einer Diskussionsrunde mit Experten erörtert und letztendlich basierend auf den verbliebenen Ideen Variablen festgelegt, mit deren Kombination untereinander verschiedene Interfaces entstanden sind. Im Rahmen dieser Nutzerstudie konnte die Tendenz festgestellt werden, dass eine Autocompletion Funktion und Tag-Vorschläge während der Annotation hilfreich für den Nutzer sind. Außerdem konnte festgestellt werden, dass eine farbige Kennzeichnungen von Tag-Typen nicht störend auf den Nutzer wirken, sondern sich Ansätze in Richtung hilfreich erwiesen. Ähnliche Tendenzen wurden für ein Layout mit nur 2 User Interface Elementen aus den Daten abgelesen. Des weiteren konnte mit Hilfe der Evaluation ein weiteres Beispiel dafür gefunden werden, dass es zum Teil erhebliche Unterschiede zwischen den Nutzern gibt, was intuitiv ist und was nicht. Für die Gestaltung von zukünftigen Annotationsinterfaces bedeuten die Erkenntnisse, dass weitere Nutzerstudien im Bereich der Annotationsinterfaces durchgeführt und bei der Gestaltung der Interfaces von klassischen Merkmalen, im Sinne der Nutzerzufriedenheit, abgewichen werden darf.
In Anbetracht der wachsenden Zahl an gesetzlichen Regelungen, die Unternehmen betreffen, sollte ihnen die Möglichkeit geboten werden ihr Compliance Management durch Softwareunterstützung mithilfe von Regulationsmustern umzusetzen. Damit sie eine unternehmensinterne Effizienzsteigerung durchführen oder auf neue gesetzliche Regelungen schnell reagieren können, existieren Regulationsmuster, die Prozessfragmente strukturell und inhaltlich beschreiben. Derzeit existieren einige Forschungsbeiträge, die unterschiedliche Compliance Pattern diskutieren. Jedoch existiert zurzeit kein Katalog, der eine Liste von Regulationsmustern bereitstellt, die für Unternehmen von Bedeutung sind (Delfmann and Hübers, 2015). Die vorliegende Bachelorarbeit klassifiziert 80 Forschungsbeiträge hinsichtlich deren unterschiedlichen Ansätze von Compliance Pattern und stellt diese in einem Klassifikationszusammenhang dar. Zusätzlich werden die unternehmerischen Vorteile durch den Einsatz von Regulationsmuster dargelegt. Dafür wurde eine systematische Literaturanalyse vollzogen. Diese zeigt, dass vermehrt auf graphenbasierte Regulationsmuster in Kombination mit dem Überprüfungszeitpunkt während des Prozessdesigns zurückgegriffen wird. Im Anhang wird außerdem ein Katalog von 32 Compliance Pattern bereitgestellt, die in den analysierten Forschungsbeiträgen erfasst wurden.
Sustainable Leadership
(2023)
Thematik:
Die vorliegende Forschungsarbeit befasst sich mit dem Thema Sustainable Leadership. Dieses Forschungsgebiet der nachhaltigkeitsorientierten Forschung hat in den letzten Jah- ren durch die immer stärker werden Auswirkungen des Klimawandels erheblich an Bedeutung gewonnen. In diesem Zusammenhang rücken Unternehmen immer mehr in den Fokus. Diese müssen nun Wege und Methoden finden, die ihre Arbeitsweise und Prozesse nachhaltiger und umweltschonender gestalten. Die in der vorliegenden Arbeit zu untersuchende Forschungsfrage lautet: „Wie gestaltet sich ein Sustainable Leadership Ansatz in Unternehmen?“ Aufbauend auf dieser übergeordneten Forschungsfrage werden in untergeordneten Forschungsfrage insbesondere Merkmale, Kompetenzen und Verhaltensweisen eines nachhaltigkeitsorientierten Führungsstils betrachtet.
Methodik:
Die Forschungsmethodik der vorliegenden Arbeit ist eine qualitative Inhaltsanalyse nach Mayring (2019). Mittels semistrukturierter Interviews wurden Führungspersönlichkeiten aus Großunternehmen befragt. Auf Grundlage dieses Datenmaterials wurden induktive Kategorien abgeleitet und qualitativ analysiert und interpretiert.
Ergebnisse:
Die Ergebnisse der empirischen Forschung wurden in insgesamt fünf Oberkategorien mit jeweils zwei Unterkategorien zusammengefasst. Es wurden die theoretischen Erkennt- nisse des Forschungsbereichs mit den praktischen Erkenntnissen aus den durchgeführten Interviews ergänzt und interpretiert. Des Weiteren wurden die Ergebnisse aus Sicht einer holistischen Unternehmensperspektive in einem konzeptionellen Ansatz modelliert. Ab- schließend wurden aus den Praxiserfahrungen einige Handlungsempfehlungen formuliert und die Merkmale, Kompetenzen, Verhaltensweisen und Auswirkungen eines nachhal- tigkeitsorientierten Führungsstils diskutiert.
In der vorliegenden Arbeit wird die Synthese von N-Phenacylpyridinium-Salzen und deren Eignung als Photoinitiatoren für die Umsetzung von Epoxidgruppen beschrieben. In vorangehenden Untersuchungen werden Phenacyl-Salze als Photoinitiatoren für die kationische Polymerisation von Epoxidharz-Systemen beschrieben. Die Einflüsse der einzelnen Bestandteile der beschriebenen Photoinitiatoren sind insbesondere im Hinblick auf die Kinetik des Epoxidgruppen-Umsatzes noch nicht ausreichend erforscht. Als Grundlage für alle Verbindungen der vorliegenden Arbeit wird das N-Phenacylpyridinium-Salz gewählt und mittels Substituenten und dem Austausch der Gegenionen an verschiedenen Stellen variiert. Die Untersuchung der Einflüsse der jeweiligen Substituenten mit Fokus auf den Umsatz der Epoxidgruppen zeigt eine Abhängigkeit von drei wesentlichen Faktoren. Ein Faktor ist dabei das Substitutionsmuster der Phenacylgruppe. Anhand der gezielten Einführung von Phenyl- und Methyl-Substituenten wird Einfluss auf die Kinetik des Photolyse-Prozesses genommen. Die beiden weiteren Faktoren stellen dabei die Variation der Pyridin-Derivate und der Gegenionen dar. Je nachdem welche Pyridin-Derivate und Gegenionen eingesetzt werden, wird die Kinetik des Epoxidgruppen-Umsatzes beschleunigt oder gehemmt. Dabei stellt sich heraus, dass Pyridin-Derivate mit Substituenten, die −I- und −M-Effekte ausbilden, und Gegenionen, die starke Säuren bilden können, einen beschleunigenden Einfluss haben. Im Gegensatz dazu zeigen Pyridin-Derivate mit Substituenten, die einen +M-Effekt ausbilden, eine hemmende Wirkung auf den Epoxidgruppen-Umsatz.
Die ermittelten Umsatzraten und die Einarbeitung in eine Klebstoffformulierung zeigen, dass ausgewählte Verbindungen aus der vorliegenden Arbeit geeignete Photoinitiatoren zur Umsetzung von Epoxidharz-Systemen darstellen.
Betriebswirtschaftliche Trends wie der Wandel auf Käufermärkten, verkürzte Produktlebens- und Innovationszyklen, steigende Kundenanforderungen und immer leistungsfähiger werdende Informations- und Kommunikationstechnologien stellen für Unternehmen anspruchsvolle Herausforderungen dar. "Bis Anfang der 90er Jahre dominierten lokale Optimierungsbemühungen im Rahmen einer auf funktionale Spezialisierung ausgerichteten Aufbauorganisation entsprechend den Überlegungen zu Arbeitsteilung von beispielsweise Smith, Taylor und Ford. Aufgrund der vielfältigen Probleme dieses Ansatzes - insbesondere Schnittstellenbildung, demotivierte Mitarbeiter, mangelnde Kundenorientierung und erhöhter Aufwand zur Steuerung und Koordination der funktionalen Einheiten - vollzieht sich seit Beginn der 90er Jahre in den Wirtschaftswissenschaften und der unternehmerischen Praxis ein Paradigmenwechsel weg von der Funktions- hin zur Prozessorientierung." Die anspruchsvollen Probleme können aufgrund ihrer Kompliziertheit nicht mehr durch einfache, lokal anwendbare Maßnahmen gelöst werden. In Zeiten hoher Komplexität und Dynamik werden strategische Planungsaufgaben immer wichtiger für ein langfristig erfolgreiches Management. Entscheidungen mit großer Tragweite müssen im Vorfeld vollständig auf ihre kurz-und langfristigen Auswirkungen innerhalb und außerhalb des Unternehmens überprüft werden. Dabei sind die zeitverzögerten Rückkopplungen besonders wichtig. Es kann vorkommen, dass sich eine kurzfristig erfolgreiche Maßnahme zur Ergebnisverbesserung möglicherweise langfristig extrem negativ auf das Ergebnis auswirkt. System Dynamics, eine Methode zur Untersuchung komplexer, dynamischer Systeme, bietet die Möglichkeit, aus einer Analyse der Systemstruktur und des von ihr verursachten Verhaltens langfristig wirksame Entscheidungsregeln abzuleiten. Dabei werden Unternehmen als offene, äußerst vernetzte soziotechnische Systeme verstanden. System Dynamics, ursprünglich "Industrial Dynamics" genannt, wurde in den 50ern am MasMassachusetts Institute of Technology, MIT, entwickelt. Die Methode nimmt die Komplexität, Nichtlinearität und Rückkopplungsstrukturen, die sozialen und physikalischen Systemen enthalten, als Grundlage. Sie wird inzwischen an einer zunehmenden Zahl von Universitäten gelehrt. Unternehmen und Regierungen nutzen System Dynamics zur Simulation von Management- bzw. Politikentscheidungen. Mit der Hilfe der Methode wird es möglich, komplexe Systeme zu durchschauen, was für Entscheidungsträger eine zunehmende Herausforderung darstellt. Die "System Dynamics Society" ist bemüht, systematisches Denken einer breiten Masse von Anwendern zugänglich zu machen. Die Methode könnte die Menschen dabei unterstützen, die aktuellen Probleme und die langfristigen Auswirkungen des aktuellen Handelns zu verstehen. Die Intention dieser Arbeit ist es nun, zwei betriebswirtschaftliche Anwendungsgebiete der System Dynamics Modellierung mit jeweils einem konkreten Fallbeispiel vorzustellen. Dazu werden zunächst in Kapitel 2 die Grundlagen der Systemtheorie dargestellt. Dabei wird auf die Sichtweise von Forrester fokussiert. Darauf aufbauend wird in Kapitel 3 die die Methode detailliert vorgestellt. Nachdem die historische Entwicklung von System Dynamics aufgezeigt wird, werden die Anwendungsgebiete, die Grundlagen und die Grundsäulen der Modellierung und der Modellierungsprozess dargelegt. Im vierten Kapitel wird das erste Anwendungsgebiet untersucht, in der die System Dynamics Modellierung eingesetzt wird, die Balanced Scorecard, ein populäres Konzept für die Performancemessung in Unternehmen. Nachdem das Konzept vorgestellt wird, werden dessen Grenzen aufgezeigt, die mit der Verknüpfung des System Dynamics Ansatz überwunden werden können. Daraufhin werden die Möglichkeiten der System Dynamics Modellierung erläutert, womit die Schwächen der Balanced Scorecard reduziert werden, bevor anhand eines konkreten Fallbeispiels die Verknüpfung des System Dynamics Modellierung mit dem Balanced Scorecard Konzept vorgestellt wird. Eine abschließende Bewertung über die Anwendung wird dieses Kapitel abschließen. Im nächsten Kapitel wird die Anwendung der System Dynmaics Modellierung im Supply Chain Management untersucht. Zunächst werden die Grundlagen über das Supply Chain Management und Probleme, die damit verbunden sind, erläutert. Anhand des "Beer Game" werden die typischen Koordinationsprobleme mehrstufiger Lieferketten, der Bullwhip Effekt, verdeutlicht. Im nächsten Schritt wird die Anwendung der System Dynamics Modellierung im Supply Chain Management diskutiert, bevor die Umsetzung in einem konkreten Fallbeispiel aufgezeigt wird. Dieses Kapitel schließt mit einer Bewertung über die Anwendung von System Dynamics im Supply Chain Management ab. Mit dem abschließenden Kapitel Fazit wird die Arbeit abgerundet.
Die vorliegende Arbeir zeichnet eine Kategorisierung der im deutschen Fernsehen und Rundfunk vorhandenen Gewinnspiele auf. Beginnend mit der Erläuterung von grundlegenden Begrifflichkeiten und dem Beleuchten der Verfahren zur Teilnehmerauswahl wird der Leser an das Thema der Arbeit herangeführt. Fortgesetzt wird mit der eigentlichen Darstellung der momentan vorhandenen Gewinnspielformate. Abschließend gibt die Arbeit eine erste Festlegung und Aufrechnung einer Gewinnwahrscheinlichkeit an.
Systematische Untersuchung der Android-Plattform im konzeptuellen Rahmen des 101companies Projektes
(2012)
In der vorliegenden Arbeit untersuche ich die Android-Plattform. Ich demonstriere drei verschiedene Implementationen, die sowohl Features und Technologien des 101companies Projektes abdecken als auch neue Android spezifische Besonderheiten in das Projekt integrieren. Die Implementationen zeigen Anwendungen die in der realen Welt benutzt werden können.
Der immer schnellere technologische Wandel in der Wirtschaft und die damit verbundenen, sich verkürzenden Innovationszyklen machen die Aus- und Weiterbildung der Mitarbeitenden eines Unternehmens zu einem wichtigen Wettbewerbsfaktor. Traditionelle (Weiter-)Bildungsmethoden können jedoch den resultierenden, ständig wachsenden und immer schneller zu befriedigenden Aus- und Weiterbildungsbedarf nur bedingt befriedigen. Deshalb werden in zunehmenden Maße in der Aus- und Weiterbildung Angebote aus dem Bereich des technologiebasierten Lernens eingesetzt, welche ein selbstgesteuertes und -organisiertes Lernen und durch eine Integration in tägliche Arbeitsabläufe einen optimalen Wissenstransfer mit entsprechend hohem Lernerfolg ermöglichen. Um dies aber auch zu realisieren, ist eine entsprechend hohe Angebotsqualität in Bezug auf die Unterstützung der Nutzenden bei der Erreichung ihrer Lernziele erforderlich. Die Entwicklung qualitativ hochwertiger technologiebasierter Lernangebote ist im Allgemeinen aber mit größeren Aufwänden und längeren Entwicklungszeiten verbunden, wodurch eine Verfügbarkeit eines solchen Angebots zeitnah zum entstandenen Bedarf und in der geforderten Qualität oftmals nicht gewährleistet werden kann.
Diese Arbeit beschäftigt sich deshalb mit der Forschungsfrage, wie eine Lernsoftware entwickelt werden muss, um eine qualitativ hochwertige LSW im Sinne der optimalen Ausrichtung auf die Eigenschaften und Lernziele der einzelnen Lernenden sowie auf den von ihnen geplanten Einsatzkontext für das vermittelte Wissen bei gleichzeitiger Reduzierung von Entwicklungsaufwand und -zeit zu produzieren. Die als Antwort auf die Forschungsfrage definierte IntView-Methodik zur systematischen, effizienten und zeitnahen Entwicklung von qualitativ hochwertigen technologiebasierten Lernangeboten wurde konzipiert, um die Wahrscheinlichkeit der Produktion der Angebote ohne Überschreitung von Projektzeitplänen und -budgets bei gleichzeitiger gezielter Ausrichtung des Angebots auf Zielgruppen und Einsatzkontexte zur Gewährleistung der Qualität zu erhöhen.
Hierzu wurden nach einer umfangreichen Untersuchung von bestehenden Ansätzen zur Lernsoftware-Entwicklung, aber auch zur Produktion von verwandten Produkten wie Multimedia-, Web- oder Software-Anwendungen, diejenigen Durchführungsvarianten der Aktivitäten bzw. Aktivitätsschritte zur Lernsoftware-Entwicklung zu einer systematischen Vorgehensweise integriert, welche in ihrem Zusammenspiel den größten Beitrag zu einer effizienten Produktion leisten können. Kern der Methodik ist ein Entwicklungsprozess zur ingenieursmäßigen Erstellung der Angebote, der alle Entwicklungsphasen abdeckt und die Vorgehensweisen und Methoden aller an der Entwicklung beteiligten Fachdisziplinen, inklusive einer kontinuierlichen Qualitätssicherung von Projektbeginn an, in einen gemeinsamen Prozess integriert. Dieser Prozess wird sowohl als Lebenszyklusmodell als auch als daraus abgeleitetes Prozessmodell in Form eines Abhängigkeitsmodells definiert, um eine optimale Unterstützung eines Projektteams bei Koordination und Abstimmung der Arbeiten in der Entwicklung zu ermöglichen. In Ergänzung zu den Modellen wird eine umfassende Arbeitsunterstützung mit Templates bzw. Dokumentvorlagen inklusive Handlungsanweisungen und Beispielen für die direkte Anwendung der Vorgehensweise durch die Nutzenden bereit gestellt.
Im Rahmen der Evaluation der Methodik wird der Nachweis geführt, dass sie im Zusammenspiel mit ihrer umfangreichen Autorenunterstützung eine sowohl effektive als auch effiziente Lernangebot-Entwicklung ermöglichen kann. In den hierfür durchgeführten Beispielprojekten als auch in den durchgeführten drei Fallstudien wird gezeigt, dass die Methodik zum einen an die Erstellung unterschiedlicher Arten von Lernangeboten bzw. an den Einsatz in verschiedenen Projektkontexten einfach anpassbar sowie zum anderen effizient und effektiv nutzbar ist.
Mit dieser Arbeit werden die folgenden Ziele verfolgt: Eine repräsentative Auswahl und Sammlung von Beispielen für Mobile Ticketing Systeme (insbesondere aus dem deutschsprachigen Raum) zu recherchieren, die sich im praktischen Einsatz befinden. Eine Zusammenstellung sinnvoller Kategorien (Charakteristika) zu erarbeiten, anhand derer sich Mobile Ticketing Systeme unterscheiden oder strukturieren lassen. Eine Gegenüberstellung der Beispiele und Kategorien zu erstellen, um zu untersuchen, welche typischen Klassen bei Mobile Ticketing Systemen identifiziert werden können.
Szeneneditor für ein Echtzeitanimationssystem und andere XML konfigurierte und erweiterbare Systeme
(2006)
Das Bulletin Esskulturen ist aus dem Verbundprojekt „Esskulturen. Objekte, Praktiken, Semantiken“ hervorgegangen, das im Rahmen der Förderlinie „Sprache der Objekte“ von September 2018 bis August 2021 vom Bundesministerium für Bildung und Forschung finanziert wird. In jeder Ausgabe bildet ein Objekt der Stiftung Bürgerliche Wohnkultur, Sammlung Alex Poignard (Landesmuseum Koblenz) den Ausgangspunkt für eine interdisziplinäre Auseinandersetzung mit unterschiedlichen soziokulturellen Fragen rund um das Thema Essen.
Tafel-Dekorationen. Speisegestaltung und Repräsentation,
Bulletin Esskulturen, 2. Jahrgang 2020, Mappe V, Faszikel 25-30
Inhalt der Ausgabe
Britta Stein, Tafeldekoration = Repräsentation? Einblicke in die Sammlung Alex Poignard
Barbara Weyandt, „Nur Verschwendung bringt Prestige ...“. Tafelaufsätze zwischen Luxus und sozialem Sinn
Stefanie Brüning, Vergängliche Tafelfreuden
Heinz Georg Held, Das stille Leben nach dem Leben. Zur Kunst-Sprache des Tafeldekors
Hans Körner, Eine Runkelrübe als Tischdekoration
Andreas Ackermann, Wein, dekorativ betrachtet. Unter besonderer Berücksichtigung des bundesrepublikanischen Staatsbanketts
Impressum
Taktstraße
(2008)
Eine Taktstraße ermöglicht eine automatisierte Verarbeitung eines Werkstückes mit Hilfe von Förderbändern, Lichtschranken, Schiebern und Bearbeitungsstationen. Für eine vorgegebene Taktstraße wird eine Ansteuerung entwickelt. Dazu wird der Mikrocontroller ATMega16 von Atmel eingesetzt. Ein externer Controller sendet über den TWI-Bus Steuerbefehle an den mit der Taktstraße verbundenen Controller. Um die Taktstraße bedienbar zu machen, wird eine geeignete Platine entworfen sowie eine LCD-Bibliothek als Ausgabe- und Informationsmedium. Die Arbeit umfasst alle für ein Projekt im Rahmen eines Informatikstudiums benötigten Entwicklungsstadien von der Projektplanung über die Aneignung von spezifischem Grundlagenwissen, die Hard- und Softwareentwicklung bis hin zu ausführlichen Entwicklungs- und Testphasen.
Zum Inhalt:
Die Dissertation ist in einem empirisch-qualitativen Forschungssetting eingebettet, bei der das Team-Teaching als Unterrichtsmethode im Forschungsfokus steht. Die Erhebung des empirischen Datenmaterials erfolgt einerseits mittels teilnehmender Beobachtung im Forschungsfeld und andererseits durch ein Gruppeninterview, das mit Lehrkräften geführt wird, die über einen gewissen Beobachtungszeitraum Erfahrungen mit der Unterrichtsmethode des Team-Teaching gesammelt haben. Für die hier zu Grunde gelegte Feldforschung wird das „theoretical sampling“ zum Einsatz kommen, das 1967 von Glaser und Strauss im Rahmen einer empirischen Untersuchung begründet worden ist.
Zum Aufbau:
In der Einleitung wird das Forschungsinteresse, der Forschungsstand und die zentrale Forschungsfrage der Dissertation beschrieben. Im zweiten Kapitel folgt der theoretische Teil mit einer differenzierten Definition des Team-Teachings als Unterrichtsmethode. Es folgt eine allgemeine Definition zum Unterricht, um die spezifischen Merkmale des Team-Teachings differenziert herausarbeiten zu können. Die empirischen Daten werden im Rahmen einer teilnehmenden Beobachtung im Unterricht der Oberstufe einer Förderschule mit dem Förderschwerpunkt Lernen und sozial-emotionale Entwicklung erhoben. Deshalb sind im Theorieteil der Förderschwerpunkt und die curricularen Aspekte zum Förderschwerpunkt dargestellt. Die Bedeutung der Unterrichtsmethode des Team-Teachings für das Unterrichtssetting in einer Förderschule mit dem sozial-emotionalem Förderschwerpunkt ist ebenfalls im Theorieteil verortet.
Im dritten Kapitel werden die qualitativen und quantitativen Erhebungsinstrumente beschrieben und Hypothesen formuliert. Die Darstellung der Methoden zur Aufbereitung des Datenmaterials ist im vierten Kapitel verortet. Die Interpretation der Forschungsergebnisse erfolgt im fünften Kapitel. Die qualitative und quantitative Datenauswertung des empirischen Datenmaterials ist im sechsten Kapitel dargestellt. Die Dissertation schließt im siebten Kapitel mit einen Fazit und Ausblick.
Das Ziel der vorliegenden Arbeit ist es, einen Überblick über das Vorgehen, den Aufbau und die Methodenvielfalt im Bereich der Technologiefrüherkennung zu bieten, einen Einblick in das Umfeld der Railways Diagnostics and Monitoring Technologies (RDMT), deren Technologiemanagement und den branchenspezifischen Anforderungen an die Technologiefrüherkennung (insbesondere im Bereich von KMU) zu geben. Kombinierend daraus wird eine Handlungsempfehlung zur konkreten Nutzung der Forschungsergebnisse in Unternehmen dieser Größenordnung und Branche gegeben. Dazu wurden Literaturrecherchen im Bereich des Innovationsmanagements und des Railway Umfelds betrieben und ein Experte eines mittelständigen Technologieherstellers der RDMT-Branche interviewt. Die wichtigste Erkenntnis dabei ist, dass eine einzelne Methode den Anforderungen nicht gerecht wird, und eine Kombination von Methoden und Organisationsformen für eine effektive Technologiefrüherkennung notwendig ist.
In dieser Bachelorarbeit wird ein System zur Kameratracking implementiert, dass auf Basis eines Partikelfilters arbeitet. Dazu wird ein Markertracking realisiert und anhand der Markerposition die Kameraposition errechnet. Der Marker soll mit ein Partikelfilter gefunden werden und um das zu bewerkstelligen werden mögliche Markerpositionen simuliert, auch Partikel genannt, und mit Likelyhood Funktionen gewichtet. Fokus liegt auf der Evaluation von verschiedenen Likelyhood-Funktionen des Partikelfilters. Die Likelyhood-Funktionen wurden in CUDA umgesetzt als Teil der Implementation.
Das sichere Befahren von komplexen und unstruktierten Umgebungen durch autonome Roboter ist seit den Anfängen der Robotik ein Problem und bis heute eine Herausforderung geblieben. In dieser Studienarbeit werden drei Verfahren basierend auf 3-D-Laserscans, Höhenvarianz, der Principle Component Analysis (PCA) und Tiefenbildverarbeitung vorgestellt, die es Robotern ermöglichen, das sie umgebende Terrain zu klassifizieren und die Befahrbarkeit zu bewerten, sodass eine sichere Navigation auch in Bereichen möglich wird, die mit reinen 2-D-Laserscannern nicht sicher befahren werden können. Hierzu werden 3-D-Laserscans mit einem 2-D-Laserscanner erstellt, der auf einer Roll-Tilt-Einheit basierend auf Servos montiert ist, und gleichzeitig auch zur Kartierung und Navigation eingesetzt wird. Die einzeln aufgenommenen 2-D-Scans werden dann anhand des Bewegungsmodells der Roll-Tilt-Einheit in ein emeinsames 3-D-Koordinatensystem transformiert und mit für die 3-D-Punktwolkenerarbeitung üblichen Datenstrukturen (Gittern, etc.) und den o.g. Methoden klassifiziert. Die Verwendung von Servos zur Bewegung des 2-D-Scanners erfordert außerdem eine Kalibrierung und Genauigkeitsbetrachtung derselben, um zuverlässige Ergebnisse zu erzielen und Aussagen über die Qualität der 3-D-Scans treffen zu können. Als Ergebnis liegen drei Implementierungen vor, welche evolutionär entstanden sind. Das beschriebene Höhenvarianz-Verfahren wurde im Laufe dieser Studienarbeit von einem Principle Component Analysis basierten Verfahren, das bessere Ergebnisse insbesondere bei schrägen Untergründen und geringer Punktdichte bringt, abgelöst. Die Verfahren arbeiten beide zuverlässig, sind jedoch natürlich stark von der Genauigkeit der zur Erstellung der Scans verwendeten Hardware abhängig, die oft für Fehlklassifikationen verantwortlich war. Die zum Schluss entwickelte Tiefenbildverarbeitung zielt darauf ab, Abgründe zu erkennen und tut dies bei entsprechender Erkennbarkeit des Abgrunds im Tiefenbild auch zuverlässig.
Terrainklassifikation mit Markov-Zufallsfeldern auf Basis von fusionierten Kamera- und Laserdaten
(2011)
Ein mobiles System, das sich automatisiert im Outdoor-Bereich fortbewegen soll, muss dafür über ausreichende Kenntnisse des umliegenden Terrains verfügen. Zur Analyse des Terrains werden hierbei häufig ein oder mehrere Laserentfernungsmesser, teilweise auch in Kombination mit Kameras verwendet. Probleme entstehen bei lückenhaften oder verrauschten Daten, da dies zu einer fehlerhaften Bestimmung des Geländes führen kann.
Diese Arbeit hat das Ziel ein bereits vorhandenes Verfahren zu erweitern. Dieses basiert auf 3D-Daten, ermittelt durch einen 3D-Laserscanner und soll um eine kontextsensitive Komponente und Daten anderer Sensoren ergänzt werden. Die erste Erweiterung besteht aus einem Markov-Zufallsfeld, welches zum Modellieren der Nachbarschaftsbeziehungen der einzelnen Terrainabschnitte verwendet wird und somit zur Segmentierung eingesetzt werden kann.
Als zweite Erweiterung werden die Laserdaten mit Kamerabildern fusioniert,um so die Verwendung zusätzlicher Terrainmerkmale zu ermöglichen.
Wurden Echtzeitanwendungen früher meist auf hochspezialisierter Hardware und mit eigens dafür entwickelten Betriebssystemen ausgeführt, so wird heutzutage oft auch handelsübliche Hardware eingesetzt, auf dem eine Variante des Linux-Kernels läuft.
Im Rahmen dieser Arbeit wurden Testverfahren aufgestellt und in Form einer Echtzeitanwendung implementiert, welche verschiedene Leistungsmerkmale des Linux-Kernels im Hinblick auf dessen Echtzeitfähigkeit messen.
Diese Tests wurden auf drei verschiedenen Kernel-Versionen ausgeführt. Anschließend wurden die Ergebnisse der Testreihen miteinander verglichen.
Zur Erstellung von 3-D-Oberflächenmodellen real existierender Objekte wird häufig sehr teure Hardware eingesetzt, z.B. 3-D-Laser-Range-Scanner. Da diese keine Grauwert- oder Farbinformationen erfassen können, muss das Objekt zur Wiedergabe farbiger Strukturen zusätzlich abfotografiert und mit den Bildern registriert werden. Die Arbeit entwickelt demgegenüber ein Verfahren zum Einsatz eines kalibrierten Stereokamerasystems. Aus den erhaltenen Sequenzen zweidimensionaler Stereobilder kann ein texturiertes 3-D-Mesh rekonstruiert werden. Im Vergleich zum Einsatz eines Scanners ist dieses Verfahren zwar weniger genau, aber dafür preisgünstiger, platzsparend und schneller einsetzbar. Den Schwerpunkt der Arbeit bilden die Fusionierung der Tiefenkarten und die Erstellung eines texturierten Meshs aus diesen.
TGraphBrowser
(2010)
Im Rahmen dieser Arbeit wird ein Webserver implementiert, mit dem man sich Graphen, die mit Hilfe des Java-Graphenlabors (JGraLab) erzeugt wurden, in einem Browser anzeigen lassen kann. Es werden dem Nutzer eine tabellarische und eine graphische Darstellung des Graphen angeboten. In jeder der beiden Darstellungsarten ist das Navigieren durch den Graphen möglich. Um Graphen mit mehreren tausend Elementen für den Nutzer überschaubarer zu machen, können die angezeigten Kanten und Knoten nach ihren Schematypen gefiltert werden. Ferner kann die dargestellte Menge an Graphelementen durch eine GReQL-Anfrage oder durch explizite Angabe bestimmt werden.
In der vorliegenden Arbeit wird das thermochemische Wechselwirkungsverhalten verschiedener Magnesiakohlenstoffmaterialen in Abhängigkeit verschiedener Einflussgrößen wissenschaftlich untersucht. Schwerpunkte der experimentellen Arbeiten bilden thermoanalytische Experimente, Gefügeuntersuchungen der Magnesiakohlenstoff-Proben sowie thermodyna-mische Berechnungen und Auswertungen durch CAT (Computer Aided Thermochemistry) mittels des Softwarepakets FactSage.
Erster Themenbereich dieser Arbeit ist die Untersuchung des Einflusses der in dem Rohstoff Magnesia enthaltenen mineralogischen Nebenphasen Merwinit (C3MS2), Monticellit (CMS) und Belit (C2S) auf den carbothermisch induzierten Verschleiß im MgO-C-Material. Für die Messreihen wurden die Nebenphasen eigens synthetisiert und hiermit MgO-C-Nebenphase-Modellwerkstoffe hergestellt. Die Nebenphase Monticellit ist unbeständig gegenüber der carbothermischen Reduktion. Monticellit wird im MgO-C-Gefüge durch Kohlenstoff reduziert und hieraus ergibt sich ein erhöhter Gewichtsverlust des Probenmaterials. Auch Merwinit wird bei T = 1600°C reduziert, der Gewichtsverlust wird dadurch allerdings nicht erhöht. Belit ist im MgO-C-Gefüge stabil gegenüber carbothermischer Reduktion.
Ein weiterer Schwerpunkt der Arbeit lag auf der Untersuchung des Einflusses des klassischen Antioxidans Aluminium auf die thermochemische Stabilität von MgO-C. Bei geringen Sauerstoffpartialdrücken ist die Reaktion des Aluminium-Metalls bzw. des bereits zu Al4C3 carbidisierten Aluminiums mit dem steineigenen Periklas unter Mg(g)-Bildung möglich, was einen erhöhten Gewichtsverlust zur Folge hat. Aber auch nach der Oxidation zu Al2O3 bzw. Spinell liegt Aluminium in signifikanten Mengen als Al(g) und Al2O(g) in der Gasphase vor und greift des Weiteren die Nebenphasen an, was ebenfalls zu einem messbaren Gewichtsverlust führt.
Dritter Arbeitsschwerpunkt war die Untersuchung des Einflusses des Umgebungsdruckes auf die carbothermische Reduktion von MgO. Die Ergebnisse zeigen, dass der Druck sich in zweierlei Hinsicht auf die carbothermische Reduktion von MgO auswirkt. Zum einen bewirkt ein sinkender Umgebungsdruck eine Beschleunigung der carbothermischen Reduktion durch die Verschiebung des thermodynamischen Gleichgewichts auf die Produktseite. Des Weiteren sorgt er für einen schnelleren Abtransport der Produktgase vom Reaktionsort und ver-hindert somit die Einstellung eines lokalen Gleichgewichts im Gefüge. Dritter Effekt ist die mit steigendem Druck verstärkt ablaufende Kohlenstoffoxidation durch Umgebungssauerstoff, da die Sauerstoffmenge in der Umgebung des MgO-C-Materials vom Umgebungsdruck bestimmt wird. Für die Geschwindigkeit des thermochemischen Verschleißes von Magnesiakohlenstoffmaterialien, der immer eine Kombination aus Kohlenstoffoxidation und carbothermischer Reduktion darstellt, bedeutet dies, dass sie in Abhängigkeit vom Umgebungsdruck in unterschiedlichem Ausmaß von diesen beiden Reaktionen beeinflusst wird.
Im Bereich Augmented Reality ist es von großer Bedeutung, dass virtuelle
Objekte möglichst realistisch in ein Kamerabild eingebettet werden. Nur
so ist es möglich, dem Nutzer eine immersive Erfahrung zu bieten. Dazu
gehört unter anderem, Verdeckung dieser Objekte korrekt zu behandeln.
Während schon verschiedene Ansätze existieren, dieses Verdeckungsproblem
zu beheben, wird in dieser Arbeit eine Lösung mittels Natural Image
Matting vorgestellt. Mit Hilfe einer Tiefenkamera wird das Kamerabild in
Vorder- und Hintergrund aufgeteilt und anschließend das virtuelle Objekt
im Bild platziert. Für Bereiche, in denen die Zugehörigkeit zu Vorder- oder
Hintergrund nicht eindeutig ist, wird anhand bekannter Pixel ein Transparenz-
Wert geschätzt. Es werden Methoden präsentiert, welche einen
Ablauf des Image Matting in Echtzeit ermöglichen. Zudem werden
Verbesserungsmöglichkeiten dieser Methoden präsentiert und gezeigt, dass
durch diese eine höhere Bildqualität für schwierige Szenen erreicht wird.
Das Bulletin Esskulturen ist aus dem Verbundprojekt „Esskulturen. Objekte, Praktiken, Semantiken“ hervorgegangen, das im Rahmen der Förderlinie „Sprache der Objekte“ von September 2018 bis August 2021 vom Bundesministerium für Bildung und Forschung finanziert wird. In jeder Ausgabe bildet ein Objekt der Stiftung Bürgerliche Wohnkultur, Sammlung Alex Poignard (Landesmuseum Koblenz) den Ausgangspunkt für eine interdisziplinäre Auseinandersetzung mit unterschiedlichen soziokulturellen Fragen rund um das Thema Essen.
Tisch-Ordnungen. Hierarchisierung und Egalisierung,
Bulletin Esskulturen, 1. Jahrgang 2019, Mappe 1, Faszikel 1-6
Inhalt der Ausgabe
Cordula Stadtfeld, Aufgetischt. Menuhalter aus der Sammlung
Alex Poignard im Landesmuseum
Michaela Bauks, Tischordnung im frühen Christentum.
Die Umwandlung gesellschaftlicher Werte
Marion Steinicke,
Ungeladene Gäste.
Tischordnungen für Lebende und Tote
Nicole Maruo-Schröder,
„A Family of Peculiar Construction“. Tisch-(Un-)Ordnungen in Frank J. Webbs The Garies and Their Friends
Andreas Ackermann,
„Und die Mutter blicket stumm
auf dem ganzen Tisch herum“. Über Tisch-(Un-)Ordnungen
Tanita Burda, Tischordnungen.
Makro im Mikro – Ein Gedankenspiel
Impressum
Die moderne Bildgebung in der Medizin arbeitet oft mit Daten höheren Tonwertumfangs. So haben beispielsweise Bilder aus CT-Geräten einen Dynamikbereich von 12 Bit, was 4096 Graustufen entspricht. Im Bereich der photorealistischen Computergrafik und zunehmend in der Bildverarbeitung sind Bilddaten viel höheren Tonwertumfangs üblich, die als HDR-Bilder (High Dynamic Range) bezeichnet werden. Diese haben eine Bittiefe von 16, oftmals sogar 32 Bit und können dadurch sehr viel mehr Informationen speichern, als herkömmliche 8-Bit-Bilder. Um diese Bilder auf üblichen Monitoren darstellen zu können, muss man die Bildinformation auf den Tonwertumfang des Ausgabegerätes abbilden, was man als Tonemapping bezeichnet. Es existieren zahlreiche solcher Tonemapping-Verfahren, die sich durch ihre Arbeitsweise, Geschwindigkeit und visuelle Qualität unterscheiden lassen. Im Rahmen dieser Studienarbeit sollen Tonemapping-Verfahren auf medizinische Bilddaten angewendet werden. Dabei soll sowohl die visuelle Qualität, als auch die Geschwindigkeit im Vordergrund stehen.
Im Rahmen dieser Diplomarbeit wird ein Transaktionskonzept für die aktuelle Implementationsversion der TGraphenbibliothek JGraLab Carnotaurus umgesetzt. Nach einer grundlegenden Einführung in das Konzept der TGraphen werden die relevanten Implementationsdetails der TGraphenbibliothek erläutert. Anschließend erfolgt ein konzeptueller Entwurf, in dem die formalen Grundlagen des Transaktionskonzepts beschrieben werden. Das aus der Datenbankwelt bekannte ACID-Paradigma für Transaktionen dient dabei als wissenschaftliche Grundlage. In einem nächsten Schritt erfolgt der objektorientierte Feinentwurf der Integration des zu entwickelnden Transaktionskonzepts in das vorhandene Gesamtsystem, anhand dessen die Implementation durchgeführt wird. Eine Analyse und Bewertung des umgesetzten Transaktionskonzepts (vor allem im Hinblick auf den Speicherverbrauch und das Laufzeitverhalten) schließen die Arbeit ab.
Dezentrale digitale Transaktionssysteme mit öffentlicher Transaktionshistorie haben ihrer Architektur nach keine Transaktionsüberwachung, um unerwünschte Transaktionen zu unterbinden und deren Sender und Empfänger zu identifizieren. Mit Einführung einer öffentlichen Liste von Adressen, welche zu solchen unerwünschten Transaktionen gehören, ist es möglich, diese Adressen durch allgemeinen Ausschluss zu isolieren und dadurch die unerwünschten Transaktionen zu unterbinden sowie Besitzer unerwünschter Adressen zu deanonymisieren. Die Verwaltung von öffentlichen Listen kann dabei dezentral von mehreren Instanzen mit Hilfe eines Vertrauensnetzwerks durchgeführt werden, sodass der dezentrale Charakter der Systeme erhalten bleibt.
Im Rahmen dieser Arbeit werden die Möglichkeiten und Grenzen des Geometry-Shaders in Bezug auf die Triangulierung von Freiformflächen untersucht. Dazu steht die Konzeption und Entwicklung eines Geometry-Shaders im Vordergrund, der Freiformflächen möglichst performant zur Laufzeit triangulieren kann. Hierzu werden NURBS-Datensätze eingelesen, trianguliert und dargestellt.
Die Computergrafik befasst sich mit der Erzeugung von virtuellen Bildern. Im Bereich der 3D-Computergrafik werden die dargestellten Objekte im dreidimensionalen Raum beschrieben. Dazu bedient man sich diverser Generierungsverfahren. Einer dieser so genannten Renderer ist das Raytracing-Verfahren. Es erfreut sich in der Computergrafik wegen der erreichten Bildqualität bei ueberschaubarer Komplexität großer Beliebtheit. Dabei wird versucht, immer realistischere Ergebnisse zu erreichen. In der Vergangenheit wurde Raytracing deswegen beispielsweise um globale Beleuchtungsmodelle oder um reflektierende beziehungsweise um transparente Objekte erweitert. Dabei wurde aber ein wichtiger Punkt häufig vernachlässigt, welcher ebenfalls den Grad an Realismus deutlich erhöhen kann: die Kamera. Meistens geht man auch heutzutage von einem vereinfachten Lochkameramodell aus. Aus diesem Grund genügen solche Modelle nicht den Ansprüchen physikalisch-korrekter Renderingverfahren. Eine wirklich umfassend korrekte Abbildung von Szenen darf also nicht vernachlässigen, dass ein generiertes Bild durch ein Linsensystem noch einmal entscheidend beeinflusst wird. In dieser Arbeit wird deswegen ein physikalisch korrektes Kameramodell vorgestellt, welches die geometrischen Eigenschaften des Linsensystems berücksichtigt und die Belichtung auf der Bildebene korrekt berechnet.
Diese Arbeit befasst sich mit der Migration von Software-Systemen hin zur Verwendung des im Unicode-Standard definierten Zeichensatzes. Die Arbeit wird als Fallstudie am Dokumenten-Management-System PROXESS durchgeführt. Es wird ein Umstellungsprozess entworfen, der die Arbeitsschritte der Migration für das gesamte System und eine beliebige Zerlegung des Systems in einzelne Module definiert. Die Arbeitsschritte für die einzelnen Module können zu großen Teilen zeitlich unabhängig voneinander durchgeführt werden. Für die Umstellung der Implementierung wird ein Ansatz zur automatischen Erkennung von Verwendungsmustern eingesetzt. Im abstrakten Syntaxbaum werden Sequenzen von Anweisungen gesucht, die einem bestimmten Verwendungsmuster zugeordnet werden. Ein Verwendungsmuster definiert eine weitere Sequenz von Anweisungen, die eine Musterlösung für die Unicode-basierte Handhabung von Strings darstellt. Durch das Anwenden einer Transformationsregel wird die ursprüngliche Anweisungssequenz in die zum Verwendungsmuster gehörende Anweisungssequenz überführt. Dieser Mechanismus ist ein Ausgangspunkt für die Entwicklung von Tools, die Transformationen von Anweisungssequenzen automatisch durchführen.
Uniprisma Ausg. 2005
(2015)
Uniprisma Ausg. 2006
(2015)
Uniprisma Ausg. 2007
(2015)
Uniprisma Ausg. 2008
(2015)
Uniprisma Ausg. 2009
(2015)
Uniprisma Ausg. 2010
(2015)
Uniprisma Ausg. 2011
(2016)
Praktika als gängige Lehr-Lernformate in hochschulischen Kontexten setzen stets die Zusammenarbeit verschiedener Institutionen und Personen voraus, da Studierende mit einem Praktikum den Lernort der Universität verlassen und in einen beruflichen Handlungszusammenhang mit den zugehörigen organisationalen Strukturen versetzt werden. Praktika werden unter anderem als Elemente der Berufsorientierung gesellschaftliche Implikationen zugeschrieben. Als Format innerhalb eines hochschulischen Bildungsgangs sind sie darüber hinaus mit didaktischen Begründungen verbunden und durch die Beteiligung verschiedener Personen auch mit individuellen Interessen. Studierende sind während eines Praktikums in der Rolle als Praktikant*in in besonderer Weise individuell gefordert. Ergänzt werden diese Perspektiven durch die Betrachtung disziplinärer und professioneller Implikationen, die sich für Praktika erziehungswissenschaftlicher Studiengänge ergeben. Zusammenarbeit findet in Praktika zwischen Organisationen, in Organisationen und zwischen Personen statt. Der geringe Forschungsstand zu Perspektiven auf Fragen der Zusammenarbeit für in erziehungswissenschaftliche Studiengänge integrierte Praktika bietet den Anlass der Studie. Um die verschiedenen Perspektiven auf Praktika als Zusammenarbeit zu erheben, werden qualitative episodische Interviews sowohl mit den Studierenden und Lehrenden einer Universität, als auch mit für Praktika verantwortlichen Tätigen aus dem beruflichen Bereich durchgeführt, die nach der qualitativen inhaltlich strukturierenden Inhaltsanalyse ausgewertet werden. Aus der Auswertung der geführten Interviews mit den drei Akteur*innen-Gruppen ergibt sich ein Einblick darin, wie sich Zusammenarbeit zwischen pädagogisch tätigen Institutionen, Universitäten und Studierenden in und durch Praktika konkretisiert. Es werden beispielsweise Aspekte der Interaktionsbezogenen Dimensionen beschrieben, wie auftauchende Dilemmata, Resonanzen, Kulturen des Umgangs, Interessenslagen und Konstellationen von Akteur*innen. Diese werden ergänzt um Aspekte der Dimensionen mit Bezug zu Institutionen, Umwelt, Aufgaben und Personen. Die Interviewaussagen von drei interviewten Akteur*innen-Gruppen Studierende, Praxisanleiter*innen, universitäre Lehrende werden vergleichend anhand dieser Dimensionen betrachtet und als Ergebnisse dieser Studie dargestellt. Die Ergebnisse liefern Aussagen dazu, wie Zusammenarbeit in Praktika erziehungswissenschaftlicher Studiengänge von den beteiligten Akteur*innen-Gruppen wahrgenommen wird. Dies kann dazu beitragen die differierenden Perspektiven anschlussfähig zu machen für die didaktische und organisatorische Gestaltung von Praktika durch Institutionen wie Universitäten und Praktikumseinrichtungen, aber auch durch Initiative von Studierenden in der Rolle als Praktikant*innen während eines erziehungswissenschaftlichen Studiums. Auch für weitere Forschungsprojekte zum Zusammenwirken der Beteiligten in Praktika kann die Studie Anstöße bieten.
Auszug Vorwort: "... Die aus Anlass des Jubiläums erstellte Broschüre soll einen kleinen Einblick in die Vergangenheit der Universitätsbibliothek geben, einige - auch unterhaltsame - Details aus der Bibliotheksarbeit präsentieren und zeigen, dass wir fortwährend daran interessiert sind, unseren Nutzern auf sie zugeschnittene Services zu bieten ..." Dr. Thomas Wollschläger
Unternehmen in Netzwerken
(2007)
Die Dissertation bietet einen internationalen Vergleich von Gestaltungsmustern der Flexibilitätssteuerung von Unternehmen mit Schwerpunkt auf die Automobilindustrie. Vor dem Hintergrund unterschiedlicher nationaler institutioneller Systeme werden betriebliche Flexibilitätsstrategien analysiert und deren Hintergründe und Funktionsweisen detailliert erläutert. Die Analyse institutioneller Rahmenbedingungen erfolgt mittels der "Varieties of Capitalism". Die Eruierung von Flexibilitätsstrategien basiert auf einer internationalen Fallstudie.
Im Rahmen von Projekten haben die Mitarbeiter in einem Unternehmen oft komplexe Problemstellungen zu bearbeiten, für die es keine objektiv richtigen oder falschen Lösungen gibt. Stattdessen werden im Rahmen der Entwurfs- und Entscheidungsprozesse mehrere Lösungsvorschläge erarbeitet um dann unter Abwägung von Pro- und Contra-Argumenten eine möglichst optimale Lösung zu finden.
Die vorliegende Arbeit beschäftigt sich mit den Unterstützungsmöglichkeiten des stationären Vertriebs mithilfe aktueller mobiler Anwendungen. Das Internet hat bereits dafür gesorgt, dass der Handelsmarkt dynamischer und die Bedingungen für den langjährigen stationären Vertrieb anspruchsvoller geworden sind. Online-Händler bieten aufgrund kleinerer Kostenstrukturen Preise an, bei denen der stationäre Point of Sale nur schwerlich mithalten kann. Zudem steigert sich die Akzeptanz Online-Kaufabschlüsse umzusetzen, weil sich Serviceleistungen der e-Shops verbessert haben und digitale Transaktionen für moderne Konsumenten immer attraktiver werden. Heute haben Smartphones und Tablets die Digitalisierung unserer Gesellschaft auf ein ganz neues Niveau katapultiert. Durch den Einzug des mobilen Internets haben sich die Effekte, die das stationäre Internet bereits hervorbrachte, intensiviert. Die Frage die sich dabei stellt ist: Wie sehr werden sich die Wettbewerbsbedingungen für den stationären Vertrieb verändern? Dabei verfolgt die Arbeit das Ziel aktuelle mobile Dienste, ihre Funktionalitäten und Praxisanwendungen zusammenzutragen und in geeigneter Form in den Vertriebsprozess zu integrieren. Dadurch soll die Erkenntnis gewonnen werden, ob der Einzug des mobilen Internets nicht doch als ein Vorteil für den stationären Vertrieb angesehen werden darf.