Filtern
Erscheinungsjahr
- 2012 (75) (entfernen)
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (21)
- Bachelorarbeit (17)
- Diplomarbeit (14)
- Dissertation (12)
- Masterarbeit (7)
- Studienarbeit (4)
Sprache
- Deutsch (75) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (7)
- Customer Relationship Management (3)
- Akkreditierung (2)
- Android <Systemplattform> (2)
- DOCHOUSE (2)
- E-Government (2)
- Fallstudie (2)
- IBM Lotus Quickr (2)
- Tablet PC (2)
- 18. Jahrhundert (1)
- Ad-Hoc Routing (1)
- Agriotes spp. (1)
- Aktualisierung (1)
- Ambulante Psychotherapie (1)
- Android (1)
- Android 2 (1)
- Android 3 (1)
- Android 4 (1)
- App (1)
- App <Programm> (1)
- ArcGIS (1)
- Argumentation (1)
- Aspect-orientation (1)
- Aspekt-Orientierung (1)
- B2B (1)
- BPMN (1)
- Backtrack (1)
- Befragungsinstrument (1)
- Beispiel (1)
- Bodenfeuchtesimulation (1)
- Bürgerliches Drama (1)
- C-Programmierung (1)
- CamInSens (1)
- Cheops (1)
- Commitment <Management> (1)
- Computer (1)
- Computersimulation (1)
- Congestion Control (1)
- Dienstleistungsproduktivität (1)
- Drahtwürmer (1)
- Dramengestalt (1)
- Dramenschluss (1)
- Dyadische Interaktion (1)
- Dynamische Geometrie (1)
- E-Learning (1)
- E-Partizipation (1)
- E-Procurement (1)
- Echtzeitsystem (1)
- Edellaubmischwälder (1)
- Electronic Government (1)
- Elektrischer Servomotor (1)
- Emil (1)
- Expertise (1)
- Expertiseentwicklung (1)
- Forschungslandkarte (1)
- Framework (1)
- Freiheitsgrad (1)
- Fremdeinschätzung (1)
- Fusarium spp. (1)
- Führungskraft (1)
- Gerechtigkeit (1)
- Gesangverein (1)
- Gesprächsanalyse (1)
- Good Government (1)
- Grundschule (1)
- Gruppentherapie (1)
- Hambacher Fest (1)
- Handelsvertretung (1)
- Hirschzunge (1)
- Historisierung (1)
- Hochschulbindung (1)
- Identifikation (1)
- Informatik (1)
- Interaktion (1)
- Jakob Heinrich Lützel (1)
- Java (1)
- Johann Ludwig Dacqué (1)
- Johann Schwager (1)
- Kinematik (1)
- Kommunikationsprotokoll (1)
- Kommunikative Kompetenz (1)
- Kompetenz (1)
- Kompetenzmessung (1)
- LMX (1)
- Laie (1)
- Lehrerbildung (1)
- Lehrerprofessionalisierung (1)
- Linguistik (1)
- Literaturwissenschaft (1)
- Ludwig Heydenreich (1)
- Lunaria (1)
- Mathematik (1)
- Mikrocontroller AVR (1)
- Mindestlohn (1)
- Minimum wage (1)
- Mobile BI (1)
- Mobile Business Intelligence (1)
- Modell (1)
- Musikverein (1)
- Männerchor (1)
- Nagios (1)
- Nationalbewegung (1)
- Natura 2000 (1)
- Netlogo (1)
- Network Monitoring (1)
- Network Simulation (1)
- Netzwerksimulation (1)
- Netzwerküberwachung (1)
- OCR (1)
- Objective-C (1)
- Ohrgeräusch (1)
- Online-Befragung (1)
- Online-Self-Assessment (1)
- Optische Zeichenerkennung (1)
- PHP (1)
- Parallelmanipulator (1)
- Pfalz (1)
- Philipp Walter (1)
- Phytophthora infestans (1)
- Polystichum (1)
- Praxiswissen (1)
- Problemlösen (1)
- Pulsweitenmodulation (1)
- Qualität (1)
- RCT (1)
- Rahmenmodell (1)
- Rechnernetz (1)
- Repast (1)
- Research Map (1)
- Revolution <1848> (1)
- Route Planning (1)
- Routenplanung (1)
- Routing (1)
- Sales Ageny (1)
- Schulleitung (1)
- Selbsteinschätzung (1)
- Selbstmord (1)
- Selbsttötung (1)
- Serielle Schnittstelle (1)
- Simulation (1)
- Smartphone (1)
- Software-Customizing (1)
- Softwarespezifikation (1)
- Stakeholder (1)
- Stakeholder-Beteiligung (1)
- Stakeholderanalyse (1)
- Staukontrollmechanismen (1)
- Stewart-Plattform (1)
- Stomp (1)
- Sängerfest (1)
- TCP/IP (1)
- Temporale Datenhaltung (1)
- Tesseract (1)
- Textaufgaben (1)
- Theater (1)
- Translation (1)
- Umfrage (1)
- Virtual Networks (1)
- Visualisierung (1)
- Web 2.0- basierte Stakeholderplattform (1)
- Wirksamkeit (1)
- Xcode (1)
- agent-based model (1)
- agentenbasierte Modellierung (1)
- argumentation (1)
- automatisierte Videoüberwachung (1)
- communication competency (1)
- competence-development (1)
- competence-measurement (1)
- computer (1)
- computer science (1)
- dynamic geometry (1)
- ethnic conflicts (1)
- ethnische Konflikte (1)
- example (1)
- iOS (1)
- iOS 5 (1)
- iOS-SDK (1)
- leader-member exchange (1)
- mathematics (1)
- online survey (1)
- online-self-assessment (1)
- practical knowledge (1)
- primary school (1)
- quality (1)
- school principal (1)
- selbstgenerierte Repräsentationen (1)
- simulation of soil moisture (1)
- speech (1)
- standardized measure (1)
- survey (1)
- teacher-education (1)
- theoretical framework (1)
- verbal interaction (1)
- verbale Interaktion (1)
- virtuelle Netze (1)
- wireworms (1)
- Übersetzung (1)
- Überwachung (1)
- Überwachungstechnik (1)
Institut
- Fachbereich 4 (42)
- Zentrale Einrichtungen (16)
- Fachbereich 8 (5)
- Fachbereich 5 (3)
- Institut für Wirtschafts- und Verwaltungsinformatik (3)
- Institut für Germanistik (2)
- Institut für Informatik (2)
- Fachbereich 7 (1)
- Institut für Computervisualistik (1)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (1)
Führungskommunikation ist in Organisationen und damit auch in der Organisation Schule von zentraler Bedeutung. Erstaunlicherweise weist die Forschung zur Schnittstelle von Führungs- und Kommunikationstheorien dennoch deutliche Defizite auf (Cohen, 2004). In jüngster Zeit belegen erste Untersuchungen die Verbindung zwischen Kommunikationskompetenz, Führung und weiteren organisationspsychologischen Konstrukten (z.B. Arbeitszufriedenheit) (u.a. Madlock, 2008; Payne, 2005).
In der Schulleitungsforschung hat die Kommunikationskompetenz bislang noch keine Beachtung gefunden. Diese Dissertation verfolgte daher zwei Ziele: Zum einen sollte ein theoretisch fundiertes Messinstrument entwickelt werden, um die Kommunikationskompetenz von schulischen Führungskräften reliabel und valide erheben zu können. Zum anderen sollte das Konstrukt Kommunikationskompetenz von schulischen Führungskräften in ein theoretisches Rahmenmodell eingebettet werden, das eine Brücke schlägt zwischen der Führungsforschung und der Kommunikationskompetenz-Forschung und damit Cohens Kritik eines unverbundenen Nebeneinanders beider Forschungsstränge begegnet. Das Rahmenmodell wurde auf der Basis eines allgemeinen Kommunikationsprozessmodells von Jablin und Kollegen (1994) sowie der Theorie der Führungsdyaden (LMX, Graen &amp; Uhl-Bien, 1995) entwickelt. Kommunikationskompetenz wird definiert als mehrdimensionales Konstrukt (z. B. Jablin &amp; Sias, 2001; Spitzberg &amp; Cupach, 1984). Die Instrumententwicklung und -validierung erfolgte in fünf Phasen. In Phase I wurden die Items zusammengestellt und mit Hilfe eines Itemratings durch Expert(inn)en inhaltlich validiert. Der so entstandene Itempool wurde in Phase II in einer Online-Befragung von Lehrkräften getestet. Mit exploratorischen Faktorenanalysen wurde die latente Struktur untersucht. Das resultierende 3-Faktoren-Modell mit den Subdimensionen Alterzentrismus, Kommunikationswissen und -bereitschaft sowie Selbstregulationsfähigkeit wurde in Phase III an einer weiteren Stichprobe kreuzvalidiert. Die konfirmatorischen Faktorenanalysen führten zu einer guten Modellpassung (strukturelle Validität). In Phase IV konnte mit Hilfe der Test-Retest-Reliabilität nachgewiesen werden, dass das Instrument zuverlässig misst. Die Einbettung in das nomologische Netzwerk verwandter Konstrukte wurde in Phase V durch die Berechnung von Korrelationen und Regressionen untersucht. Darüber hinaus konnte in dieser Phase nachgewiesen werden, dass das Instrument unabhängig vom Geschlecht der Schulleitungsperson gleichgut misst (Generalisierbarkeit) und dass mit Hilfe der Bewertung der Kommunikationskompetenz der Schulleitungsperson relevante Ergebniskriterien (Arbeitszufriedenheit, Commitment der Lehrkräfte) vorhergesagt werden können.
Als Ergebnis dieser Forschungsarbeit stehen ein Messinstrument und ein theoretisches Rahmenmodell zur Verfügung, die zum einen in der Praxis zur Analyse und Optimierung der Kommunikationskompetenz von schulischen Führungskräften eingesetzt werden können. Zum anderen bildet das Rahmenmodell die Grundlage für die Ableitung von Forschungsfragen, um die Bedeutung der Kommunikationskompe-tenz von Schulleitungspersonen für die Organisation Schule systematisch weiter zu untersuchen.
In einem randomisierten Kontrollgruppen-Design wurde die Wirksamkeit zweier ambulanter psychologischer Tinnitus-Therapien (12-wöchige psychologische Tinnitus-Therapie (PTT) sowie 4-wöchige psychologische Kurzzeit-Tinnitus-Therapie (KPTT)) miteinander verglichen. Die Überprüfung der Wirksamkeit erfolgte mittels folgender Parameter: Tinnitusbelastung, subjektive Lautheit, Dauer der Tinnituswahrnehmung, Tinnitusbelästigung, Copingfähigkeit, Stimmung, Depressivität, Schlaf und Kontrollüberzeugung. An der Studie nahmen 90 Patienten mit chronischem Tinnitus teil, die zufällig der PTT, der KPTT oder einer Wartekontrollgruppe (WKG) zugeteilt wurden. Die Datenerhebung erfolgte zu drei Messzeitpunkten: vor Therapiebeginn, nach Therapieende sowie 6 Monate nach Therapieende. Beide Interventionen führen zur signifikanten Reduktion der Tinnitusbelastung, der subjektiv wahrgenommenen Lautheit, der Dauer der Tinnituswahrnehmung und der Tinnitusbelästigung. Weiterhin führen beide Therapien zum Erlernen und zur Anwendung von effektiven Copingstrategien und damit auch zur Erhöhung der Kontrollüberzeugung. Alle berichteten Verbesserungen bleiben auch 6 Monate nach dem Therapieende stabil. Nachdem in der WKG nach 4 und nach 12 Wochen keine signifikanten Veränderungen beobachtet werden konnten, sind die Veränderungen in den Therapiegruppen in den o.g. Variablen als Therapieeffekte zu sehen. Keine der beiden Interventionen führt zu einer signifikanten Veränderung des Schlafes und der Stimmung. Als einziger signifikanter Prädiktor des Therapieerfolgs hat sich die Tinnitusdauer herausgestellt. Während die PTT unabhängig von der Tinnitusdauer zu einer Reduktion der Tinnitusbelastung führt, ist die KPTT umso wirksamer, je kürzer die Tinnitusdauer ist. Das Vorhandensein einer komorbiden psychischen Störung, die Ausgangsbelastung sowie die Veränderungsbereitschaft beeinflussen die Therapiewirksamkeit nicht. Da sich diese beiden ambulanten psychologischen Tinnitus-Therapien nicht in ihrer Wirksamkeit und in ihren langfristigen Auswirkungen voneinander unterscheiden, kann resümiert werden, dass beide gut für eine ambulante psychologische Behandlung von Patienten mit chronischem Tinnitus geeignet sind. Die kürzere KPTT ist jedoch aufgrund des niedrigeren Zeit- und Kostenaufwandes als effizienter zu bewerten.
In dieser Arbeit wurde die Realisierung einer mobilen Sicherheitslösung für Überwachungszwecke vorgestellt, welche unter Zuhilfenahme des staatlich geförderten Forschungsprojekts CamInSens entwickelt wurde. CamInSens soll erreichen, in überwachten Gefahrenbereichen die erhaltenen Video- und Sensorendaten so zu analysieren, dass Bedrohungen möglichst frühzeitig erkannt und behandelt werden können. Das Ziel dieser Arbeit war, auf Basis von verarbeiteten Daten aus CamInSens eine Interaktion und Visualisierung zu entwickeln, die bei einem späteren Praxiseinsatz mobilem Sicherheitspersonal dabei hilft, in Bedrohungssituationen fundierte Entscheidungen treffen zu können. Zu diesem Zweck wurde nicht nur eine Software implementiert, sondern auch eine Marktsichtung hinsichtlich geeigneter Geräte und einsetzbarer Softwarebibliotheken durchgeführt.
Im Rahmen dieser Arbeit wurde die Effizienz von Anfragen an OWL-Ontologien und Anfragen an TGraphen evaluiert. Dabei wurden die zwei unterschiedlichen Transformationsverfahren Schema-Aware Mapping und Simple Mapping getestet. Bei der Transformation einer OWL-Ontologie in einen TGraphen über Schema-Aware Mapping werden ein TGraph-Schema und ein TGraph erzeugt. Im Gegensatz zu Schema-rnAware Mapping besitzt Simple Mapping ein schon vordefiniertes TGraph-Schema, das für alle OWLOntologien anwendbar ist. Damit wird bei der Transformation einer OWL-Ontologie in einen TGraphen über Simple Mapping nur ein TGraph - kein TGraph-Schema - generiert. Mit den Verfahren wurden entsprechend auch SPARQL-Anfragen in GReQL-Anfragen transformiert.
Der immer schnellere technologische Wandel in der Wirtschaft und die damit verbundenen, sich verkürzenden Innovationszyklen machen die Aus- und Weiterbildung der Mitarbeitenden eines Unternehmens zu einem wichtigen Wettbewerbsfaktor. Traditionelle (Weiter-)Bildungsmethoden können jedoch den resultierenden, ständig wachsenden und immer schneller zu befriedigenden Aus- und Weiterbildungsbedarf nur bedingt befriedigen. Deshalb werden in zunehmenden Maße in der Aus- und Weiterbildung Angebote aus dem Bereich des technologiebasierten Lernens eingesetzt, welche ein selbstgesteuertes und -organisiertes Lernen und durch eine Integration in tägliche Arbeitsabläufe einen optimalen Wissenstransfer mit entsprechend hohem Lernerfolg ermöglichen. Um dies aber auch zu realisieren, ist eine entsprechend hohe Angebotsqualität in Bezug auf die Unterstützung der Nutzenden bei der Erreichung ihrer Lernziele erforderlich. Die Entwicklung qualitativ hochwertiger technologiebasierter Lernangebote ist im Allgemeinen aber mit größeren Aufwänden und längeren Entwicklungszeiten verbunden, wodurch eine Verfügbarkeit eines solchen Angebots zeitnah zum entstandenen Bedarf und in der geforderten Qualität oftmals nicht gewährleistet werden kann.
Diese Arbeit beschäftigt sich deshalb mit der Forschungsfrage, wie eine Lernsoftware entwickelt werden muss, um eine qualitativ hochwertige LSW im Sinne der optimalen Ausrichtung auf die Eigenschaften und Lernziele der einzelnen Lernenden sowie auf den von ihnen geplanten Einsatzkontext für das vermittelte Wissen bei gleichzeitiger Reduzierung von Entwicklungsaufwand und -zeit zu produzieren. Die als Antwort auf die Forschungsfrage definierte IntView-Methodik zur systematischen, effizienten und zeitnahen Entwicklung von qualitativ hochwertigen technologiebasierten Lernangeboten wurde konzipiert, um die Wahrscheinlichkeit der Produktion der Angebote ohne Überschreitung von Projektzeitplänen und -budgets bei gleichzeitiger gezielter Ausrichtung des Angebots auf Zielgruppen und Einsatzkontexte zur Gewährleistung der Qualität zu erhöhen.
Hierzu wurden nach einer umfangreichen Untersuchung von bestehenden Ansätzen zur Lernsoftware-Entwicklung, aber auch zur Produktion von verwandten Produkten wie Multimedia-, Web- oder Software-Anwendungen, diejenigen Durchführungsvarianten der Aktivitäten bzw. Aktivitätsschritte zur Lernsoftware-Entwicklung zu einer systematischen Vorgehensweise integriert, welche in ihrem Zusammenspiel den größten Beitrag zu einer effizienten Produktion leisten können. Kern der Methodik ist ein Entwicklungsprozess zur ingenieursmäßigen Erstellung der Angebote, der alle Entwicklungsphasen abdeckt und die Vorgehensweisen und Methoden aller an der Entwicklung beteiligten Fachdisziplinen, inklusive einer kontinuierlichen Qualitätssicherung von Projektbeginn an, in einen gemeinsamen Prozess integriert. Dieser Prozess wird sowohl als Lebenszyklusmodell als auch als daraus abgeleitetes Prozessmodell in Form eines Abhängigkeitsmodells definiert, um eine optimale Unterstützung eines Projektteams bei Koordination und Abstimmung der Arbeiten in der Entwicklung zu ermöglichen. In Ergänzung zu den Modellen wird eine umfassende Arbeitsunterstützung mit Templates bzw. Dokumentvorlagen inklusive Handlungsanweisungen und Beispielen für die direkte Anwendung der Vorgehensweise durch die Nutzenden bereit gestellt.
Im Rahmen der Evaluation der Methodik wird der Nachweis geführt, dass sie im Zusammenspiel mit ihrer umfangreichen Autorenunterstützung eine sowohl effektive als auch effiziente Lernangebot-Entwicklung ermöglichen kann. In den hierfür durchgeführten Beispielprojekten als auch in den durchgeführten drei Fallstudien wird gezeigt, dass die Methodik zum einen an die Erstellung unterschiedlicher Arten von Lernangeboten bzw. an den Einsatz in verschiedenen Projektkontexten einfach anpassbar sowie zum anderen effizient und effektiv nutzbar ist.
Systematische Untersuchung der Android-Plattform im konzeptuellen Rahmen des 101companies Projektes
(2012)
In der vorliegenden Arbeit untersuche ich die Android-Plattform. Ich demonstriere drei verschiedene Implementationen, die sowohl Features und Technologien des 101companies Projektes abdecken als auch neue Android spezifische Besonderheiten in das Projekt integrieren. Die Implementationen zeigen Anwendungen die in der realen Welt benutzt werden können.
Mittels facettierter Suche lassen sich große, unbekannte Datensätze einfach und gezielt erkunden. Bei der Implementation von Anwendungen für Smartphones ist zu beachten, dass im Gegensatz zu Desktop-Anwendungen ein kleinerer Bildschirm und nur beschränkte Möglichkeiten zur Interaktion zwischen Benutzer und Smartphone zur Verfügung stehen. Diese Beschränkungen können die Benutzbarkeit einer Anwendung negativ beeinflussen. Mit FaThumb und MobileFacets existieren zwei mobile Anwendungen, die die facettierte Suche umsetzen und verwenden, aber nur MobileFacets ist für gegenwärtige Smartphones mit Touchscreenbildschirm ausgelegt.
Jedoch bietet FaThumb eine neuartige Facettennavigation, die durch MFacets in dieser Arbeit für aktuelle Smartphones neu realisiert wird. Außerdem befasst sich diese Arbeit mit der Durchführung einer summativen Evaluation zwischen den beiden Anwendungen, MFacets und MobileFacets, bezüglich der Benutzbarkeit und präsentiert die ausgewerteten Ergebnisse.
Verwaltungen, Unternehmen, Non-Profits sowie private Stakeholder sind in unterschiedlichen Formen und Rollen in E-Government Projekten beteiligt oder davon betroffen. E-Government Projekte zeichnen sich u.a. dadurch aus, dass sie eine komplexe Stakeholder-Struktur aufweisen, infolgedessen hängt der Erfolg von IKT-Projekten maßgeblich von der Einbindung einzelner Stakeholdergruppen in Gestaltungsprozesse der E-Government Lösung ab. In diesem Zusammenhang wird eine größere Stakholderbeteiligung angestrebt, hilfreiche Initiativen wie Open Government und Good Governance treiben diesen Prozess voran. Die Ermittlung der Stakeholdergruppen durch eine sog. Stakeholder-Analyse ist methodisch unzureichend entwickelt, dabei ist es wichtig, die Ziele, Erwartungen und Machteigenschaften der Projektbeteiligten und Projektbetroffenen zu analysieren.
Das Ziel dieser Bachelorarbeit ist es, die verbreiteten Stakeholder-Theorien, Stakeholderbeteiligungsansätze sowie die Stakeholderanalyse aufzugreifen und auf Verwaltungsebene zu übertragen und die Anwendbarkeit zu überprüfen. Es werden geeignete Mappingverfahren für die Einordnung der Stakeholdergruppen mittels Stakeholdertheorien von Freeman, Mitchel et. al. und Rowley erläutert und systematisiert. Dabei werden mittels Literaturanalyse wichtige Stakeholderkonzepte erläutert und deren Anwendung an konkreten E-Government Projekten überprüft, um daraus Anregungen und Handlungsempfehlungen für zukünftige E-Government Projekte zu generieren. Außerdem gilt es herauszuarbeiten, wie Stakeholdergruppen in die Entwicklungsprozesse einzelner E-Government Projekte mittels Web 2.0 aktiv eingebunden werden können. Die Rolle von Web 2.0 Anwendungen als ein zusätzlicher Kommunikationskanal und Beteiligungsinstrument wird aufgezeigt und bewertet.
Es soll ein Leitfaden für erfolgreiche Projektbeteiligung von Stakeholdern entwickelt werden. Dieser soll Vorgehensmodelle zur Stakeholderidentifikation, Stakeholdergruppierung und "priorisierung sowie Handlungsanweisungen zum Web 2.0 Einsatz aufzeigen.
Das Erstellen virtueller Netzwerke hat den Vorteil, dass Routingalgorithmen oder auch verteilte Software sehr einfach, übersichtlich und kostengünstig getestet werden können. Zu den Routingalgorithmen gehört auch das Optimized Link State Routing und der Babel Algorithmus für mobile Ad-Hoc Netze. Die folgende Ausarbeitung beschäftigt sich mit den beiden Algorithmen im Zusammenhang mit fehlerbehafteten Verbindungen in solchen Netzwerken. Normalerweise sind die virtuellen Verbindungen, welche in einem virtuellen Netzwerk erstellt werden, nahe an den optimalen Bedingungen. Oftmals sollen die Routingalgorithmen aber nicht unter optimalen Bedingungen getestet werden, um ein möglichst realistisches Verhalten zu simulieren.
Aus diesem Grund sollen sie mithilfe des Netzwerktools Traffic Control unter nicht optimalen Bedingungen getestet werden. Traffic Control stellt einige Werkzeuge zur Verfügung, um Verbindungen hinsichtlich ihrer Verzögerung oder des Paketverlustes zu manipulieren. In dieser Arbeit werden einige Szenarien erstellt, in denen dies getestet wird. Zusätzlich zu den Routingalgorithmen werden noch Staukontrollverfahren, die dazu dienen Datenstau in Netzwerkverbindungen zu verhindern, auf ihre Arbeitsweise untersucht. Mit Traffic Control ist es auch möglich eine gestaute Verbindung zu simulieren.
Im Zeitraum zwischen 1985 bis 1994 hatten ethnische Konflikte einen Anteil von über 50% der Gesamtzahl aller Konflikte. Oft entstehen Konflikte zwischen verschiedenen ethnischen Gruppen oder zwischen einer ethnischen Gruppe und dem Staat. Die Gründe hierbei sind sehr vielfältig und reichen von der sozialen Benachteiligung bis hin zur Bedrohung kollektiver Identität. Eine wesentliche Schlüsselrolle spielt dabei die politische Elite, die politische und ökonomischen Kriesen ausnutzt, um ethnische Gruppen zu mobilisieren.
Diese Diplomarbeit versucht die Ursachen solcher ethnischer Konflikte am Beispiel des ehemaligen Jugoslawiens zu untersuchen und fokusiert sich dabei besonders auf die Rolle der politische Elite. Hierfür wurde der Ansatz der agentenbasierten Simulation verfolgt. Das mit ArcGIS, EmIL und Repast realisierte agentenbasierte Modell erlaubt eine gründliche Untersuchung solcher Konflikte. Die Haupteigenschaft liegt dabei in der Fähigkeit der Agenten, ein normatives Verhalten entwickeln zu können, womit komplexte soziale Verhaltensweisen simuliert werden können.
Diese Masterarbeit beschreibt und evaluiert die im Rahmen der Arbeit entwickelten Erweiterungen zur Schellings Segregationsimulation. Der Nobelpreisträger Thomas C. Schelling simulierte als erster ab 1969 die Segregation. Die dabei entstandenen Ergebnisse erlaubten eine genauere Analyse der auftretenden Phänomene. Uri Wilensky, Mitarbeiter der "Northwestern University", entwickelte seit 1999 eine Segregationssimulation in NetLogo.
Im Rahmen meiner Masterarbeit habe ich das NetLogo-Model von Uri Wilensky in sechs unterschiedlichen Szenarien weiterentwickelt.
Diese Studienarbeit befasst sich mit dem Thema der Routenplanung in der Handelsvertretung. Ziel ist es, eine Analyse bestehender kostenloser und kostenpflichtiger Dienste durchzuführen und geeignete Komponenten zu finden, mit denen eine bestehende Software theoretisch um die Funktion einer Routenplanung erweitert werden kann.
Replikation einer Multi-Agenten-Simulationsumgebung zur Überprüfung auf Integrität und Konsistenz
(2012)
In dieser Master -Arbeit möchte ich zunächst eine Simulation vorstellen, mit der das Verhalten von Agenten untersucht wird, die in einer generierten Welt versuchen zu über leben und dazu einige Handlungsmöglichkeiten zur Auswahl haben. Anschließend werde ich kurz die theoretischen Aspekte beleuchten, welche hier zu Grunde liegen. Der Hauptteil meiner Arbeit ist meine Replikation einer Simulation, die von Andreas König im Jahr 2000 in Java angefertigt worden ist [Kö2000] . Ich werde hier seine Arbeit in stark verkürzter Form darstellen und anschließend auf meine eigene Entwicklung eingehen.
Im Schlussteil der Arbeit werde ich die Ergebnisse meiner Simulation mit denen von Andreas König vergleichen und die verwendeten Werkzeuge (Java und NetLogo) besprechen. Zum Abschluss werde ich in einem Fazit mein Vorhaben kurz zusammenfassen und berichten was sich umsetzen ließ, was nicht funktioniert hat und warum.