Filtern
Dokumenttyp
- Bachelorarbeit (3)
- Dissertation (3)
- Diplomarbeit (2)
- Masterarbeit (2)
Sprache
- Deutsch (10) (entfernen)
Volltext vorhanden
- ja (10) (entfernen)
Schlagworte
- Simulation (10) (entfernen)
Simulationen in der Computergraphik haben das Ziel, die Realität so genau wie möglich in einer Szene einzufangen. Dafür werden intern und extern wirkende Kräfte berechnet, aus denen Beschleunigungen berechnet werden. Mit diesen werden letztendlich die Positionen von Geometrien oder Partikeln verändert.
Position Based Dynaimcs arbeitet direkt auf den Positionen. Durch Constraints wird eine Menge von Regeln aufgestellt, die zu jedem Zeitpunkt in der Simulation gelten sollen. Ist dies nicht der Fall, so werden die Positionen so verändert, dass sie den Constraints entsprechen. In dieser Arbeit wird ein PBD-Framework implementiert, in dem Solide und Fluide simuliert werden. Die Constraints werden durch ein Gauss-Seidel-Lösungsverfahren und ein Gauss-Jakobi-Lösungsverfahren gelöst. Die Berechnungen finden dabei komplett auf der GPU statt. Die Ergebnisse sind physikalisch plausible Simulationen, die in Echtzeit laufen.
Die vorliegende Arbeit betrachtet den Einfluss von Wald- und Wirtschaftswegen auf Abflussentstehung und Bodenerosionsraten innerhalb eines bewaldeten Einzugsgebiets im Naturschutzgebiet Laacher See. Hierfür wurden sowohl bestehende Erosions- und Akkumulationsformen im Gelände kartiert, als auch Erosionssimulationen mittels einer Kleinberegnungsanlage durchgeführt. Zuletzt erfolgte eine Modellierung des Erosionspotentials auf Grundlage der Simulationsergebnisse.
Die Analyse bestehender Erosions- und Akkumulationsformen im Gelände gab einen Hinweis auf Bodenerosionsraten von Wegoberflächen, die zwischen 27,3 und 93,5 t ha-1 a-1 und somit in derselben Größenordnung wie Erosionsraten unter intensiver ackerbaulicher Nutzung lagen.
Die Simulationsläufe zeigten, dass persistente Waldwege ein deutlich verändertes Infiltrationsverhalten aufwiesen. Auf natürlichen Waldböden lag der Anteil des infiltrierten Niederschlags bei durchschnittlich 96%. Im Falle von Waldwegen nahm dieser Anteil im Mittel auf 14% bis 7% ab. Besonders auffällig waren die Ergebnisse auf Rückegassen, auf denen ein erheblicher Einfluss der Bodenverdichtung durch Befahrung nachgewiesen werden konnte. Hier sank der Anteil des infiltrierten Niederschlags auf 31% in den Fahrspuren, zwischen den Spuren wurden noch 76 % infiltriert.
Während der Simulationsläufe konnten maximale Sedimentmengen von 446 g m-2 erodiert werden, was einer mittleren Bodenerosionsrate von 4,96 g m-2 min-1 entspricht. Diese hohen Abtragsraten wurden auf persistenten Wegen mit geringer Befestigung gemessen. Rückegassen wiesen die geringsten Abtragswerte auf, maximal konnten 37 g m-2 erodiert werden, gleichbedeutend mit einer Abtragsrate von 0,41 g m-2 min-1. Die erodierten Sedimentmengen betrugen im Mittel bei Wegen 167 bis 319 g m-2 und im Falle von Rückegassen 17 g m-2. Anhand von Vergleichsmessungen auf Waldstandorten, bei denen ein mittlerer Bodenabtrag von ca. 5 g m-2 festgestellt wurde, konnte eine erhöhte Erodierbarkeit für jedwede Form der Weganlage bestätigt werden.
Auf Basis der im Gelände gemessenen Abtragsraten wurden die Modellierungen kalibriert. Die Ergebnisse der ABAG / DIN 19708 zeigten für das betrachtete Untersuchungsgebiet eine mittlere jährliche Bodenerosionsgefährdung von 2,4 - 5,8 t ha-1 a-1 für persistente Wege und von 0,5 t ha-1 a-1 für Rückegassen. Im Vergleich zum Mittelwert weitgehend unbeeinflusster Waldflächen im Untersuchungsgebiet von 0,1 t ha-1 a-1 zeigte sich abermals ein erhöhtes Abtragspotential. Die physikalisch basierte Modellierung der Beregnungsversuche mittels WEPP zeigte ein zufriedenstellendes Ergebnis bei der Einschätzung des Abflussverhaltens, so wurden für persistente Wege nur Abweichungen von maximal -5% festgestellt. Die Abflussmodellierung auf Rückegassen sowie die generelle Modellierung der Bodenerosion während der Beregnungsversuche zeigte sich im Kontrast hierzu noch fehlerbehaftet, was ursächlich mit der für ein physikalisches Modell relativ geringen Eingangsdatentiefe zu begründen ist.
Es wurde nachgewiesen, dass Waldwege einen bedeutenden Einfluss auf den Wasserhaushalt und das Bodenerosionsgeschehen haben. Der Rückhalt von Niederschlägen wird gemindert und es kommt zu intensivierten Bodenerosionsprozessen. Schlecht befestigte Wege zeigten einen stark erhöhten Bodenabtrag, der zu ökologischen Folgeschäden führen kann. Der Abtrag kann ebenso zu einer Beeinträchtigung der Befahrbarkeit führen. Anhand der Folgen lässt sich die Relevanz der Betrachtung von Abfluss- und Bodenerosionsprozessen auf Wald- und Wirtschaftswegen deutlich machen. Die vorliegende Arbeit stellt die erste Studie dar, innerhalb derer Abfluss- und Bodenerosionspozesse für Walderschließungsnetzwerke in Mitteleuropa untersucht wurden.
Zur Planung von Veranstaltungen werden Menschenmengen-Simulationen eingesetzt, die die Evakuierung der Menschenmenge simulieren, um eventuelle Gefahren einschätzen und vermeiden zu können. Diese Menschenmengen-Simulationen analysieren zum größten Teil nur den Bewegungsfluss einer Menschenmenge. Oft werden physische und psychische Faktoren in diesen Simulationen nicht bedacht und verhindern dadurch, Kollisionen zwischen Agenten abzubilden wie deren Umfallen und das sich verändernde Verhalten auf äußere Einflüsse.
Aus diesem Grund wird in der vorliegenden Arbeit das Ziel verfolgt, das psychische Verhalten und die physischen Krafteinwirkungen der Menschenmenge zu untersuchen. Dazu wurde eine echtzeitfähige Menschenmengen-Simulation entwickelt, die zum einen Verfahren für Videospiele und zum anderen eine Verhaltens-KI für die Agenten der Simulation beinhaltet. Mit Rigid Bodies aus einer Physik-Engine wurde die physikalische Repräsentation der Agenten realisiert, um physische Interaktionen der Agenten untereinander und mit der Umwelt sowie die Fortbewegung der Agenten physikalisch plausibel umzusetzen. Zur Fortbewegung der Agenten wurde zusätzlich das Verfahren von Navigationmeshes und ein geeigneter Algorithmus zur Kollisionsvermeidung realisiert.
Mit der Entwicklung einer Verhaltens-KI wurde ein physisch-psychischer Zustand entworfen, der sich aus einem Stressniveau als psychischer und aus einem Gesundheitswert als physischer Zustand zusammensetzt. Die entwickelte Simulation kann physische Faktoren wie das Gedränge von Agenten oder das Erdrücken eines Agenten sowie die Interaktion der Agenten mit ihrer Umwelt darstellen und psychische Faktoren wie Stress visuell abbilden.
Anhand einer Evaluation von durchgeführten Testszenarien der Simulation wurde untersucht, ob eine Kombination von physischen und psychischen Faktoren in einer Simulation erfolgreich umsetzbar ist und einen Aufschluss über das Verhalten der Agenten in gefährlichen oder stressbehafteten Situationen gibt. Zusätzlich wurde der Nutzen der Komplexität der physikalischen Repräsentation analysiert.
Im Zeitraum zwischen 1985 bis 1994 hatten ethnische Konflikte einen Anteil von über 50% der Gesamtzahl aller Konflikte. Oft entstehen Konflikte zwischen verschiedenen ethnischen Gruppen oder zwischen einer ethnischen Gruppe und dem Staat. Die Gründe hierbei sind sehr vielfältig und reichen von der sozialen Benachteiligung bis hin zur Bedrohung kollektiver Identität. Eine wesentliche Schlüsselrolle spielt dabei die politische Elite, die politische und ökonomischen Kriesen ausnutzt, um ethnische Gruppen zu mobilisieren.
Diese Diplomarbeit versucht die Ursachen solcher ethnischer Konflikte am Beispiel des ehemaligen Jugoslawiens zu untersuchen und fokusiert sich dabei besonders auf die Rolle der politische Elite. Hierfür wurde der Ansatz der agentenbasierten Simulation verfolgt. Das mit ArcGIS, EmIL und Repast realisierte agentenbasierte Modell erlaubt eine gründliche Untersuchung solcher Konflikte. Die Haupteigenschaft liegt dabei in der Fähigkeit der Agenten, ein normatives Verhalten entwickeln zu können, womit komplexte soziale Verhaltensweisen simuliert werden können.
Die vorliegende Arbeit beschäftigt sich mit der Verteilung großer virtueller Rechnernetze auf mehrere physische Hosts unter Verwendung der beiden Virtualisierungstools VNUML und EDIV. Dabei ist VNUML für die eigentliche Simulation des Netzwerks zuständig, während EDIV in erster Linie für die entsprechende Verteilung sorgt. Nach einer kurzen Erklärung grundlegender Begriffe und Konzepte aus dem Gebiet der Netzwerksimulation wird zunächst ausführlich auf die beiden erwähnten Virtualisierungstools eingegangen. Dies beginnt jeweils mit einer detaillierten Beschreibung hinsichtlich der korrekten Installation und Konfiguration, gefolgt von einer Demonstration der wichtigsten Funktionalitäten, wie das Starten oder Beenden einer Simulation. Auch auf das Erstellen eines geeigneten Netzwerkszenarios und auf die von EDIV bereitgestellten Skripte zur Überwachung dieser Szenarien wird in diesem Zusammenhang näher eingegangen. Um die vorgestellten Möglichkeiten der beiden Tools auch in der Praxis anwenden zu können, wird zum Schluss ein eigenes Netzwerkszenario entworfen und auf mehrere Rechner verteilt, sodass die verschiedenen Funktionen von EDIV vorgeführt und beschrieben werden können.
Normen entstehen in jeder Gemeinschaft. Sie sind in der Lage, abseits von Gesetzbüchern und Vertragswerken, für ein rücksichtsvolles Zusammenleben zu sorgen. Dabei haben sie die Fähigkeit zur Anpassung und sind das Durchgangsprodukt eines sich ewig erneuernden Widerstreits zwischen erfahrungsbasierten Erwartungen, die das Handeln bestimmen und Rückmeldungen der Außenwelt, die zu neuen Erfahrungen werden. Gesetzestexte dagegen, die ursprünglich den Versuch darstellten, solche Normen mit der weitesten Verbreitung, festzuhalten und somit das Leben des Einzelnen zu vereinfachen, besitzen durch ihre Statik eine viel geringere Rückkopplung; werden darüber hinaus, sobald der Urzusammenhang mit Normen weitgehend vergessen ist, zum Spielball von Machtinteressen und entfremden sich so vom Normempfinden des Einzelmenschen. Für Normen gilt das "Panta rhei", welches voraussetzt, daß lebendige Einzelwesen ihre Träger sind. Der Versuch die Norm abzutrennen, bspw. durch Niederschrift muss also immer ein Versuch bleiben, der höchstens angenähert zum Erfolg führt. Nicht zuletzt wegen der Unschärfe die dadurch entsteht, daß obwohl wir von einer Norm sprechen, in jedem Einzelnen dem sie bekannt ist, doch wieder eine Abwandlung der generellen Norm existiert und bei ihm, auch nur auf den Zeitpunkt der Erhebung beschränkt, existiert. Somit ist die Simulation von Normentwicklung sicherlich eine schwierige Aufgabe, die allerdings bei Erfolg wichtige Aufschlüsse über das Menschenwesen in der Gesellschaft bringen kann. Wenn das Verständnis über Selbstregulierung dadurch verbessert werden kann, besteht die Hoffnung einen Impuls dafür zu geben, Selbstregulierung auch häufiger den Vortritt vor Regulierung zu lassen. Die Aufgabe, Normentwicklung zu simulieren, stellt sich das EMIL Projekt: "The main technological aim of the project is to construct a simulator for exploring and experimenting norm-innovation. The forecasted impact of the project is to contribute to the regulation of ecommunities by handing out a simulator for the emergence of new norms in complex social systems."1 "While the simulator will be designed as a general-purpose tool, some specific study cases will be selected as so to provide the necessary grounding parameters. Eine agentenbasierte Simulation, die für jeden Agenten über ein komplexes Gedächtnis von bereits gehaltenen Normen verfügt und Lernalgorithmen, die nach Interaktion einen Normenwandel einleiten, sollen das Ziel erreichbar machen. Die vorliegende Arbeit ist eine der ersten Implementationen mit EMIL und soll Impulse für eine Verbesserung der Simulationssoftware geben. Das hier vorgestellte Szenario basiert auf dem Verhalten von Mikrofinanzgruppen.
Entwicklung eines Computermodells der lumbalen Wirbelsäule zur Bestimmung mechanischer Belastungen
(2009)
Ziel der Arbeit war die Erstellung eines MKS-Modells der menschlichen lumbalen Wirbelsäule zur Ermittlung der mechanischen Belastungen innerer Körperstrukturen. Die Oberflächen der Wirbelkörper wurden aus CT-Daten menschlichen Sektionsguts als CAD-Oberflächen generiert und bilden das Grundgerüst des Modells. Die genaue Positionierung des Facettengelenke ist dabei vorgegeben ebenso wie die Ansatzpunkte und Verlaufsrichtungen der ligamentösen Strukturen. Zwischen den starren Wirbelkörpern wurden elastische Bandscheiben eingeführt, deren Mittelpunkte als jeweiliges Drehzentrum der entsprechenden funktionalen Einheiten definiert sind. Damit sind gleichzeitig die Hebelarme zu den Ansatzpunkten der einzelnen Bänder festgelegt. Das mechanische Verhalten dieser verschiedenen Strukturen wurde über physiologische Gleichungen oder Kennlinien in das Modell implementiert. So wurde für die Facettengelenke ein Ansatz für Kontaktkräfte in horizontaler Richtung eingeführt. Für die Kraftentwicklung bei Dehnung der Bänder fanden individuelle Kennlinien aus der Literatur Verwendung. Bei der Deformation der Bandscheiben folgt die Kraftentwicklung einer mechanischen Relation in Abhängigkeit der Deformation sowie der Deformationsgeschwindigkeit. Die entsprechenden Materialkonstanten in den Gleichungen wurden über experimentelle Messdaten aus der Literatur ermittelt. Dem Aufbau von Drehmomenten bei Auslenkung der Bandscheiben um die drei möglichen Rotationsachsen liegen wiederum Kennlinien aus der Literatur zugrunde. In Anpassung an diese experimentell ermittelten Kurven wurden mechanische Gleichungen entwickelt, die letztendlich in das Modell implementiert wurden und die bei jeweiliger Verdrehung der Bandscheibe die Entwicklung eines entsprechenden Moments angeben. Die Validierung des Modells erfolgt auf der einen Seite über die Gleichgewichtsbedingung, bei der die Summe aller Kräfte und Drehmomente bezüglich des Schwerpunkts einer funktionalen Einheit Null sein muss. Dieser Zustand konnte mit dem Modell eindeutig nachgewiesen werden. Auf der anderen Seite konnten punktuell Messergebnisse aus der Literatur über die Modellrechnungen in guter Näherung reproduziert werden. Hier besteht jedoch die Schwierigkeit, dass Messungen an Sektionsgut immer nur in isoliertem Zustand und in einem definierten Versuchsaufbau mit Belastung nur einer Richtung durchgeführt wurden. Innerhalb des Modells befinden sich die Strukturen in einem beweglichen Verbund und unterliegen damit vielfältigen mechanischen Einflüssen, was der Realität im menschlichen Körper auch wesentlich mehr entspricht. Dennoch spiegelt das Materialverhalten der elastischen Elemente innerhalb des Modells größenordnungsmäßig die Ergebnisse der verschiedensten experimentellen Messungen aus der Literatur wider. Zur Simulation unterschiedlicher Belastungssituationen wurde das Modell der Lendenwirbelsäule in verschiedenen Fallbeispielen der Einwirkung einer jeweils konstanten äußeren Kraft unterschiedlicher Größe ausgesetzt. Nach einer kurzen Phase der Bewegung aller Teilstrukturen stellte sich in jedem gerechneten Fallbeispiel ein neuer Gleichgewichtszustand ein. Für alle implementierten Strukturen, wie Bandscheiben, Bänder und Facettengelenke, konnte der zeitliche Verlauf der Belastungszunahme sowie die Belastung im Endzustand berechnet werden. Eine Überprüfung ergab, dass sich alle Ergebnisse im physiologisch gesunden Wertebereich befanden. Damit ist der Nachweis erbracht, dass mit dem vorliegenden Modell ein Instrument entwickelt wurde, das im Rahmen der Genauigkeit des Modells die Belastung der inneren Strukturen bei äußerer Krafteinwirkung zuverlässig berechnet werden können. Die Anwendungen eines derartigen Modells sind vielfältiger Art. Durch Variationen von Parametern können die verschiedensten Situationen simuliert werden. Beispiele sind hier die Auswirkung von degenerierten Bandscheiben mit völlig anderem Materialverhalten auf die umgebenden gesunden Teilstrukturen. Weitere Krankheitsbilder wie schwache Bänder, Wirbelgleiten, Knochenveränderungen oder auch der Einfluss von operativen Maßnahmen wie Versteifung einzelner Abschnitte oder die Einsetzung von Implantaten können damit simuliert werden und ermöglichen quantitative Aussagen über die Veränderung der Beanspruchung der angrenzenden Strukturen. Als Beispiel einer Anwendung in der Medizin wurde der Fall einer degenerierten Bandscheibe aufgezeigt. Die Bandscheibe wurde chirurgisch entfernt und durch ein Implantat zur Versteifung ersetzt. Mit Hilfe der Simulationsrechnung wurde die Auswirkung der Versteifung auf die Deformation der angrenzenden Bandscheiben und die veränderte Kraftentwicklung dargelegt.
Mit dem Projektpraktikum "MicSim" wurde 2004 der Grundstein für ein auf Java basierendes Mikrosimulationssystem gelegt. Für das gleichnamige Produkt diente UMDBS von Prof. Dr. Thomas Sauerbier, Fachhochschule Giessen-Friedberg als Vorlage, welche eine Modellimplementierung in MISTRAL vorsieht. Da MISTRAL eine veraltete prozedurale Programmiersprache ist und somit nicht mehr dem objektorientierten Zeitgeist entspricht, entschloss sich die Projektgruppe eine gänzlich neue objektorientierte Umgebung zu erstellen. Diese sollte sowohl den Funktionsumfang von UMDBS beinhalten, als auch eine bequeme Möglichkeit bieten, objektorientierte Modelle einer Mikrosimulation in Java zu erstellen. Das Projektpraktikum endete 2005 mit einem lauffähigen objektorientierten Nachfolger von UMDBS. Da jedoch MicSim noch einige Schwachstellen aufwies, wurde dieses System in der Studienarbeit "MicSim - Agentenbasierte Mikrosimulation" von Pascal Berger, Dennis Fuchs, Peter Hassenpflug und Christian Klein 2006 weiterentwickelt und zu dem heutigen "CoMICS" umbenannt. Jedoch konnten nicht alle Probleme der Software beseitigt werden. So blieb das schlecht skalierende Ablaufverhalten einer Simulation und die unzureichende Unterstützung des Benutzers bei syntaktischen Programmierfehlern weiterhin bestehen. Dies führte zu dem Entschluss, ausgehend von CoMICS, die Idee eines java-basierten Mikrosimulationssystems weiter auszubauen. Im Zuge einer Analyse dieses Systems kristallisierten sich sehr schnell einige Punkte heraus, die uns verbesserungswürdig erschienen. Die gravierendste Veränderung stellte hierbei die Umstellung auf eine event-orientierte Mikrosimulation dar. Hierzu mussten die komplette Modellstruktur, Ablauflogik und sogar jegliche Modellierungswerkzeuge neu entwickelt werden. All dies führte dazu, dass CoMICS II von Grund auf neu entwickelt werden musste.
Betriebswirtschaftliche Trends wie der Wandel auf Käufermärkten, verkürzte Produktlebens- und Innovationszyklen, steigende Kundenanforderungen und immer leistungsfähiger werdende Informations- und Kommunikationstechnologien stellen für Unternehmen anspruchsvolle Herausforderungen dar. "Bis Anfang der 90er Jahre dominierten lokale Optimierungsbemühungen im Rahmen einer auf funktionale Spezialisierung ausgerichteten Aufbauorganisation entsprechend den Überlegungen zu Arbeitsteilung von beispielsweise Smith, Taylor und Ford. Aufgrund der vielfältigen Probleme dieses Ansatzes - insbesondere Schnittstellenbildung, demotivierte Mitarbeiter, mangelnde Kundenorientierung und erhöhter Aufwand zur Steuerung und Koordination der funktionalen Einheiten - vollzieht sich seit Beginn der 90er Jahre in den Wirtschaftswissenschaften und der unternehmerischen Praxis ein Paradigmenwechsel weg von der Funktions- hin zur Prozessorientierung." Die anspruchsvollen Probleme können aufgrund ihrer Kompliziertheit nicht mehr durch einfache, lokal anwendbare Maßnahmen gelöst werden. In Zeiten hoher Komplexität und Dynamik werden strategische Planungsaufgaben immer wichtiger für ein langfristig erfolgreiches Management. Entscheidungen mit großer Tragweite müssen im Vorfeld vollständig auf ihre kurz-und langfristigen Auswirkungen innerhalb und außerhalb des Unternehmens überprüft werden. Dabei sind die zeitverzögerten Rückkopplungen besonders wichtig. Es kann vorkommen, dass sich eine kurzfristig erfolgreiche Maßnahme zur Ergebnisverbesserung möglicherweise langfristig extrem negativ auf das Ergebnis auswirkt. System Dynamics, eine Methode zur Untersuchung komplexer, dynamischer Systeme, bietet die Möglichkeit, aus einer Analyse der Systemstruktur und des von ihr verursachten Verhaltens langfristig wirksame Entscheidungsregeln abzuleiten. Dabei werden Unternehmen als offene, äußerst vernetzte soziotechnische Systeme verstanden. System Dynamics, ursprünglich "Industrial Dynamics" genannt, wurde in den 50ern am MasMassachusetts Institute of Technology, MIT, entwickelt. Die Methode nimmt die Komplexität, Nichtlinearität und Rückkopplungsstrukturen, die sozialen und physikalischen Systemen enthalten, als Grundlage. Sie wird inzwischen an einer zunehmenden Zahl von Universitäten gelehrt. Unternehmen und Regierungen nutzen System Dynamics zur Simulation von Management- bzw. Politikentscheidungen. Mit der Hilfe der Methode wird es möglich, komplexe Systeme zu durchschauen, was für Entscheidungsträger eine zunehmende Herausforderung darstellt. Die "System Dynamics Society" ist bemüht, systematisches Denken einer breiten Masse von Anwendern zugänglich zu machen. Die Methode könnte die Menschen dabei unterstützen, die aktuellen Probleme und die langfristigen Auswirkungen des aktuellen Handelns zu verstehen. Die Intention dieser Arbeit ist es nun, zwei betriebswirtschaftliche Anwendungsgebiete der System Dynamics Modellierung mit jeweils einem konkreten Fallbeispiel vorzustellen. Dazu werden zunächst in Kapitel 2 die Grundlagen der Systemtheorie dargestellt. Dabei wird auf die Sichtweise von Forrester fokussiert. Darauf aufbauend wird in Kapitel 3 die die Methode detailliert vorgestellt. Nachdem die historische Entwicklung von System Dynamics aufgezeigt wird, werden die Anwendungsgebiete, die Grundlagen und die Grundsäulen der Modellierung und der Modellierungsprozess dargelegt. Im vierten Kapitel wird das erste Anwendungsgebiet untersucht, in der die System Dynamics Modellierung eingesetzt wird, die Balanced Scorecard, ein populäres Konzept für die Performancemessung in Unternehmen. Nachdem das Konzept vorgestellt wird, werden dessen Grenzen aufgezeigt, die mit der Verknüpfung des System Dynamics Ansatz überwunden werden können. Daraufhin werden die Möglichkeiten der System Dynamics Modellierung erläutert, womit die Schwächen der Balanced Scorecard reduziert werden, bevor anhand eines konkreten Fallbeispiels die Verknüpfung des System Dynamics Modellierung mit dem Balanced Scorecard Konzept vorgestellt wird. Eine abschließende Bewertung über die Anwendung wird dieses Kapitel abschließen. Im nächsten Kapitel wird die Anwendung der System Dynmaics Modellierung im Supply Chain Management untersucht. Zunächst werden die Grundlagen über das Supply Chain Management und Probleme, die damit verbunden sind, erläutert. Anhand des "Beer Game" werden die typischen Koordinationsprobleme mehrstufiger Lieferketten, der Bullwhip Effekt, verdeutlicht. Im nächsten Schritt wird die Anwendung der System Dynamics Modellierung im Supply Chain Management diskutiert, bevor die Umsetzung in einem konkreten Fallbeispiel aufgezeigt wird. Dieses Kapitel schließt mit einer Bewertung über die Anwendung von System Dynamics im Supply Chain Management ab. Mit dem abschließenden Kapitel Fazit wird die Arbeit abgerundet.
Die Abschätzung der Eintragswahrscheinlichkeit von Pestiziden in Gewässer ist insbesondere im Landschaftsmaßstab aufgrund der erforderlichen ereignisbezogenen Probenahmetechniken mit erheblichem Kostenaufwand verbunden. Simulationsmodelle können hierbei eine wichtige Alternative zur Planung von Risiko-Minimierungsmaßnahmen darstellen. Hauptziele dieser Arbeit waren (A) die Entwicklung eines Simulationswerkzeugs, mit dessen Hilfe das Eintragsrisiko von Pestiziden in Oberflächengewässer im Landschaftsmaßstab abgeschätzt werden kann und sich Risiko-Minimierungsmaßnahmen effektiv planen lassen, sowie (B) die Durchführung einer Expositions- und Risikoabschätzung sowie die Abschätzung negativer Effekte von Pestiziden auf die Artenzahlen von Fließgewässer-Lebensgemeinschaften des Braunschweiger Umlands. Exposition, Risiko und Effekte In den Abschnitten 1.1 und 1.2 wurde das Simulationsmodell auf landwirtschaftlich beeinflusste Fließgewässer des Braunschweiger Umlands angewendet. Abschnitt 1.3 gibt einen Überblick über allgemeine Anwendungsmöglichkeiten des Simulators und den Systemaufbau. Abschnitt 1.1 - Scenario based simulation of runoff-related pesticide entries into small streams on a landscape level (Englische Publikation, S. 27): Auf Basis des von der OECD vorgeschlagenen (ratio of exposure to toxicity) REXTOX-Modells wurde der Pestizideintrag für 737 Probestellen bei kleineren Fließgewässern des Braunschweiger Umlands simuliert. Die Simulation wurde für die 15 im Untersuchungsgebiet am häufigsten nachgewiesenen Pestizide für je acht verschiedene Umweltszenarien durchgeführt. Die Szenarien umfassten Management-Maßnahmen, wie z.B. die Variation der Randstreifenbreite, sowie klimatische und saisonale Aspekte. Die höchsten Konzentrationen wurden für ein Szenario ohne Randstreifen und gleichzeitig erhöhten Niederschlägen vorhergesagt. Anhand der simulierten Konzentrationen wurde das Risiko für aquatische Lebensgemeinschaften auf Basis von Standard-Toxizitätstests (Endpunkte EC50, LC50) und eines Sicherheitsfaktors abgeschätzt. Abschnitt 1.2 - Linking land use variables and invertebrate taxon richness in small and medium-sized agricultural streams on a landscape level (Englische Publikation, S. 50): In dieser Studie wurden die langjährigen mittleren Artenzahlen von Fließgewässer-Invertebratentaxa im landwirtschaftlich geprägten Braunschweiger Umland (Untersuchungen über 15 Jahre bei 90 Gewässern an 202 Probestellen) auf Wechselbeziehungen mit verschiedenen Umweltfaktoren, wie z.B. der Gewässerbreite, der Landnutzung (Landwirtschaft, Wald, Wiese, Siedlung), der Bodenart sowie landwirtschaftlich bedingter Stressoren untersucht. Der Stress, der von der landwirtschaftlichen Nutzung ausgeht, wurde dabei durch das Risiko des Auftretens von Oberflächenabfluss (runoff) von der Ackerfläche in das Gewässer ausgedrückt. Der Faktor "Risk of Runoff" wurde von dem von der OECD vorgeschlagenen "ratio of exposure to toxicity" (REXTOX)-Modell abgeleitet. Durch multivariate Statistik konnten insgesamt 39,9% der Varianz in der Artenzahl erklärt werden, wobei die Gewässerbreite mit 25,3% den wichtigsten Faktor darstellte, gefolgt vom Faktor "Risk of Runoff" mit 9,7%. Abschnitt 1.3 - Informationssystem zur ökotoxikologischen Bewertung der Gewässergüte in Bezug auf Pflanzenschutzmitteleinträge aus der Landwirtschaft - Systemaufbau und Anwendungsmöglichkeiten (Tagungsbeitrag S. 61): Abschnitt 1.3 enthält einen kurzen Überblick über das Simulationssystem, generelle Anwendungsmöglichkeiten sowie Anwendungsbeispiele. Das Simulationssystem Ein wichtiger Aspekt für den Einsatz eines Simulationsmodells im Rahmen der Risikoabschätzung ist dessen einfache Anwendbarkeit in der Praxis. Dazu zählen die leichte Verfügbarkeit der benötigten Eingangsdaten, die Umsetzung des Modells in eine Softwareanwendung sowie die entsprechende Dokumentation des Systems. Abschnitt 1.4 - Informationssystem zur ökotoxikologischen Bewertung der Gewässergüte in Bezug auf Pflanzenschutzmitteleinträge aus der Landwirtschaft - Simulationsmodell und Systemaufbau (BMBF-Bericht, S. 67): In diesem Abschnitt wird das verwendete Modell, die "simplified formula for indirect loadings caused by runoff" (SFIL), der schematische Aufbau des Simulationssystems sowie der Ablauf des Datenverarbeitungsprozesses dargestellt. Abschnitt 1.5 - Benutzerhandbuch (BMBF-Bericht, S. 71): Das Benutzerhandbuch enthält Informationen über die Installation des Systems, die Erzeugung der benötigten Eingangsdaten, zur allgemeinen Arbeit mit dem System sowie Anwendungsbeispiele (Was-wäre-wenn-Analyse). Abschnitt 1.6 - Technische Dokumentation (BMBF-Bericht, S. 104): Die technische Dokumentation beschreibt die Struktur der Import-/Export-Datenbanktabellen des Simulators.