Filtern
Erscheinungsjahr
- 2012 (75) (entfernen)
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (21)
- Bachelorarbeit (17)
- Diplomarbeit (14)
- Dissertation (12)
- Masterarbeit (7)
- Studienarbeit (4)
Sprache
- Deutsch (75) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (7)
- Customer Relationship Management (3)
- Akkreditierung (2)
- Android <Systemplattform> (2)
- DOCHOUSE (2)
- E-Government (2)
- Fallstudie (2)
- IBM Lotus Quickr (2)
- Tablet PC (2)
- 18. Jahrhundert (1)
Institut
- Fachbereich 4 (42)
- Zentrale Einrichtungen (16)
- Fachbereich 8 (5)
- Fachbereich 5 (3)
- Institut für Wirtschafts- und Verwaltungsinformatik (3)
- Institut für Germanistik (2)
- Institut für Informatik (2)
- Fachbereich 7 (1)
- Institut für Computervisualistik (1)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (1)
Diversität und Verbreitung von Schluchtwäldern (Tilio-Acerion) im Rheinischen Schiefergebirge
(2012)
Im Rahmen dieser Studie wurde die Diversität der Gefäßpflanzen von Edellaubmischwäldernrn im Rheinischen Schiefergebirge statistisch erfasst und dabei erstmalig deren Artenzusammensetzung anhand einer angewandten Standortanalyse soziologisch-floristisch beschrieben sowie deren Verbreitung im Einzugsbereich von unterer Mosel, unterer Lahn und dem Mittelrheingebiet zusammenfassend dargestellt.
Zudem war es Ziel dieser Untersuchung die Variabilität und Struktur der Artenzusammensetzung in Abhängigkeit von edaphischen und mikroklimatischen Umweltfaktoren auf Schiefer als anstehendem Gestein zu analysieren und diesbezüglich das Tilio-Acerion des Untersuchungsraums mit den bisher vorwiegend auf kalkhaltigem Untergrund untersuchten Edellaubmischwaldgesellschaften der übrigen deutschen Gebirge zu vergleichen. Mit Blick auf die Einstufung dieser Waldgesellschaft als "prioritären Lebensraum" innerhalb des NATURA 2000-Schutzgebietssystems und der an die FFH-Richtlinie gekoppelten Berichtspflicht von Rheinland-Pfalz, die alle 6 Jahre erfüllt werden muss,wurde die bisherige Einstufung der Ausprägung dieser Waldgesellschaft für die naturräumlichen Haupteinheiten im Untersuchungsraum revidiert. Dabei wurden auch anthropogene Gefährdungen untersucht und Schutzmaßnahmen für den Erhalt dieses in Mitteleuropa streng geschützten Fauna-Flora-Habitats diskutiert sowie Vorschläge zur Eingliederung von bisher unberücksichtigten Regionen in das NATURA 2000-Schutzgebietssystem abgegeben. Insgesamt wurden 191 Taxa in 1209 Aufnahmen erfasst und 29 Arten davon auf Grund ihrer Seltenheit oder Schutzwürdigkeit als bemerkenswert eingestuft. Des Weiteren wurden 3 Assoziationen und eine bisher noch unbekannte Festuca altissima-Tilia cordata-Gesellschaft beschrieben, wobei der überwiegende Teil der Aufnahmen dem Fraxino-Aceretum pseudoplatani zugeordnet wurde, das sich synsystematisch in weitere standörtlich bedingte Untereinheiten differenzieren lässt. Dabei hebt sich das Tilio-Acerion im Rheinischen Schiefergebirge gemeinsam mit Beständen weiterer silikatischer Gebirge von Edellaubmischwäldern auf karbonatischen Gebirgen in Deutschland durch säuretolerante Arten einer Polystichum aculeatum-Variante syntaxonomisch ab. Zudem konnte das in der Literatur bisher umstrittene Adoxo moschatellinae-Aceretum als eigene, dem Tilio-Acerion zugehörige Assoziation anhand von Kennarten wie dem im Untersuchungsraum hochsteten Polystichum aculeatum in der für die syntaxonomische Bewertung prioritären Krautschicht validiert werden. Regionale Unterschiede der Edellaubmischwälder sind im Untersuchungsgebiet anhand der dortigen Verbreitungsgrenzen submediterraner, (sub-)atlantischer und (sub-)kontinentaler Florenelemente erkennbar. Edaphische und mikroklimatische Faktoren haben sich als besonders einflussreich für diverse Ausprägungen der Schluchtwaldflora herausgestellt. Das Tilio-Acerion ist im Einzugsbereich der Mosel besonders artenreich, was lokal auch auf das Lahngebiet zutrifft. Der Straßen- und Wegebau wird als häufigste Gefährdung eingestuft, in den Tieflagen des oberen Mittelrhein- und Moselgebiets kommen Niederwald-Effekte in Form von haselreichen Degradationsstadien hinzu, in den Hochlagen sind Nadelwaldaufforstungen problematisch. Entsprechend wird gefordert derartige Maßnahmen sowie die Abholzung und Totholzentnahme in Edellaubmischwäldern zu vermeiden und diese sich stattdessen ihrer natürlichen Sukzession zu überlassen.
Die Studie hat gezeigt, dass die naturräumlichen Haupteinheiten Hunsrück, Westerwald, Taunus sowie das Mosel-, Lahn- und Mittelrheintal entgegen bisheriger Einstufung ein "Hauptvorkommen" an Schlucht- und Hangmischwäldern mit "guter Ausprägung" aufweisen.
Problembewältigung stellt eine essentielle (kognitive) Aktivität im alltäglichen Leben, wie auch im Berufsleben, dar. Bereits in der Grundschule wird diese Fähigkeit, z.B. bei der Lösung von mathematischen Textaufgaben, gefordert und gefördert. Trotzdem bereitet dies Schülern verschiedener Klassenstufen nach wie vor große Schwierigkeiten. Das Lösen von Textaufgaben erfordert eine Vielzahl kognitiver Operationen. Dies ist besonders dann der Fall, wenn es sich bei den Aufgaben nicht um Routineaufgaben handelt. Für die Bearbeitung von Textaufgaben können Schüler auf verschiedene Repräsentationen zurückgreifen, wobei sowohl interne und externe als auch depiktionale (abbildende) und deskriptionale (beschreibende) unterschieden werden können. Da bisher kaum empirische Forschungsarbeiten zum Umgang von Schülern mit problemhaltigen Textaufgaben vorliegen, und darüber hinaus sehr wenig über die selbstgenerierten Repräsentationen bei der Bearbeitung von Textaufgaben bekannt ist, ist die vorliegende Arbeit z.T. explorativ angelegt. Im Fokus stehen die spontanen und individuellen Lösungsprozesse von Schülern verschiedener Klassenstufen bei der Bearbeitung von problemhaltigen Textaufgaben. Dabei wurde vorrangig untersucht, auf welche Repräsentationsformen die Schüler bei ihren Lösungsprozessen zurückgreifen.
Insgesamt 268 Schüler verschiedener Klassenstufen (Grundschüler der 3. und 4. Klasse; Gymnasiasten der 6. und 9. Klasse) wurden in Einzeluntersuchungen gebeten, jeweils fünf problemhaltige Textaufgaben zu lösen. Diese wurden ursprünglich im Hinblick auf die Primarstufe entwickelt, scheinen jedoch auch für Schüler höherer Klassenstufen ihren anspruchsvollen Charakter nicht zu verlieren. Für die Aufgabenlösungen standen den einzelnen Schülern verschiedene Materialien zur Verfügung. Von Seiten der Versuchsleitung wurden keinerlei Hilfestellungen gegeben. Nach jeder Aufgabe wurden die Schüler zu ihren Vorgehensweisen mittels halbstrukturiertem Interview befragt. Das individuelle Vorgehen wurde durch Videoaufzeichnungen festgehalten.
Das gewonnene Videomaterial wurde durch drei geschulte Beobachter anhand eines selbstentwickelten Kodiersystems quantifiziert und schließlich statistisch ausgewertet.
Allgemein kann gesagt werden, dass alle Schüler Schwierigkeiten bei der Bearbeitung der fünf Textaufgaben aufwiesen. So gab es nicht einen Schüler, der alle fünf Aufgaben richtig lösen konnte. Trotzdem nahm die Anzahl der richtigen Lösungen mit höherer Klassenstufe signifikant zu. In diesem Zusammenhang ergaben sich jedoch unterschiedlich starke Zuwächse in Abhängigkeit von der jeweiligen Aufgabe und ihren Anforderungen.
Hinsichtlich der selbstgenerierten Repräsentationsformen ergaben sich u.a. folgende Ergebnisse. Erstens operierten die Grundschüler im Vergleich zu den Gymnasiasten sehr stark intern deskriptional, d.h., sie waren versucht, die gesamten Aufgaben durch Kopfrechnen zu bewältigen. Zweitens griffen die Schüler mit höherer Klassenstufe eher auf verschiedene Repräsentationsformen zurück, was für einen flexibleren Umgang mit ihnen spricht. Drittens scheint die Verwendung multipler Repräsentationen bei der Konstruktion des mathematischen Modells nicht per se zu einer richtigen Lösung zu führen. Aber sie verhindert, unabhängig von der Klassenstufe, eine gänzlich falsche Aufgabenbearbeitung bzw. -lösung. Im Bezug auf das Lösungsvorgehen konnte kein eindeutiges Ergebnis erzielt werden. Hier scheinen je nach Aufgabenanforderungen (und wahrscheinlich auch Personenfähigkeiten) ganzheitliche und zergliedernde Vorgehensweisen unterschiedlich gut geeignet zu sein im Hinblick auf den Lösungserfolg. Nachfolgende Untersuchungen müssen die hier berichteten Ergebnisse überprüfen. Die Ergebnisse legen jedoch nahe, dass hinsichtlich des Umgangs von Schülern mit anspruchsvollen Textaufgaben nach wie vor Handlungsbedarf bestehen sollte. Gerade der im Mathematikunterricht gelegte Schwerpunkt auf deskriptionale Repräsentationsformen im Sinne von Rechnungen und Gleichungen scheint bedenklich. Vielmehr sollte eine Schulkultur etabliert werden, die den flexiblen Einsatz von verschiedenen Repräsentationsformen, und hier im Besonderen die Verwendung depiktionaler Repräsentationen, als legitim und durchaus notwendig erachtet.
Das Erstellen virtueller Netzwerke hat den Vorteil, dass Routingalgorithmen oder auch verteilte Software sehr einfach, übersichtlich und kostengünstig getestet werden können. Zu den Routingalgorithmen gehört auch das Optimized Link State Routing und der Babel Algorithmus für mobile Ad-Hoc Netze. Die folgende Ausarbeitung beschäftigt sich mit den beiden Algorithmen im Zusammenhang mit fehlerbehafteten Verbindungen in solchen Netzwerken. Normalerweise sind die virtuellen Verbindungen, welche in einem virtuellen Netzwerk erstellt werden, nahe an den optimalen Bedingungen. Oftmals sollen die Routingalgorithmen aber nicht unter optimalen Bedingungen getestet werden, um ein möglichst realistisches Verhalten zu simulieren.
Aus diesem Grund sollen sie mithilfe des Netzwerktools Traffic Control unter nicht optimalen Bedingungen getestet werden. Traffic Control stellt einige Werkzeuge zur Verfügung, um Verbindungen hinsichtlich ihrer Verzögerung oder des Paketverlustes zu manipulieren. In dieser Arbeit werden einige Szenarien erstellt, in denen dies getestet wird. Zusätzlich zu den Routingalgorithmen werden noch Staukontrollverfahren, die dazu dienen Datenstau in Netzwerkverbindungen zu verhindern, auf ihre Arbeitsweise untersucht. Mit Traffic Control ist es auch möglich eine gestaute Verbindung zu simulieren.
In der hier vorliegenden Forschungsarbeit wurden die Auswirkungen der Bodenfeuchte und der Bodenart auf die ausgewählten Schaderreger Phytophthora infestans (Mont.) de Bary, Fusarium graminearum Schwabe bzw. F. culmorum (W.G. Smith) Saccardo und die Larven der wichtigsten Elateridenarten Agriotes lineatus Linnaeus, A. obscurus Linnaeus, A. sputator Linnaeus, A. sordidus Illiger sowie A. ustulatus Schaller (im Folgenden als Drahtwürmer zusammengefasst) untersucht. Ziel war die Integration von Bodenmodulen in Prognosemodelle für landwirtschaftliche und gartenbauliche Schaderreger, um die Terminierung von Befallskontrollen weiter zu optimieren, die Bekämpfungsnotwendigkeit festzustellen und somit eine Reduzierung vorbeugender Pflanzenschutzmittelanwendungen zu erreichen. Wegen des hohen Aufwandes zur Messung der Bodenfeuchte sowie ihrer kleinräumigen Variabilität fand dieser Parameter bisher in der Schaderregerprognose nur geringe Beachtung. Im Rahmen dieser Arbeit wurden die Möglichkeiten zur standortspezifischen Simulation der Bodenfeuchte überprüft. Dabei wurde das Bodenfeuchtesimulationsmodell SIMPEL (HÖRMANN 1998) an landwirtschaftliche Problemstellungen angepasst und die standortspezifische Simulation der Bodenfeuchte auf Grundlage der Niederschlagsdaten des Radermessnetzes des Deutschen Wetterdienstes (DWD) sowie interpolierten Wetterdaten (ZEUNER 2007) durchgeführt. Mit einer hochsignifikanten Korrelation zum Signifikanzniveau Alpha = 0,01 und mittleren Abweichungen der simulierten Bodenfeuchte von Feldmessungen von 3,8 % kann diese zuküftig schlagspezifisch berechnet und in den Schaderregermodellen berücksichtigt werden. Die Ergebnisse der Labor- und Freilandversuche und die durchgeführten Datenanalysen zeigten, dass der Einfluss von Bodenparametern auf die drei untersuchten Schaderreger unterschiedlich stark ausgeprägt ist. Während sich bei den Untersuchungen zum Einfluss der Bodenfeuchte auf P. infestans keine eindeutigen Korrelationen aufzeigen ließen, gab es deutliche Zusammenhänge zwischen der Bodenfeuchte bzw. Bodenart und dem Vorkommen von Drahtwürmern sowie von F. graminearum bzw. F. culmorum. Zur Prognose des Drahtwurmauftretens in den oberen 15 cm der Bodenschicht wurde das Modell SIMAGRIO-W entwickelt. In den durchgeführten Versuchen ergaben sich hochsignifikante Zusammenhänge der Bodenfeuchte und der Bodenart auf das Vorkommen der Drahtwürmer. Der Einfluss der Bodenart auf den Schaderreger F. graminearum bzw. F. culmorum wurde in das bestehende Modell FUS-OPT integriert. Eine Korrelation von aus der Luft gefangenen Sporen von F. graminearum mit dem simulierten Perithezienwachstum des veränderten Modells FUS-OPT ergab im Test nach PEARSON einen hochsignifikanten Zusammenhang. Die Ergebnisse dieser Arbeit zeigen, dass die Integration von Bodenfeuchte- und Bodenartmodulen in die Schaderregermodelle möglich ist. Die entwickelten bzw. modifizierten Modelle werden den Pflanzenschutzdiensten der Länder zukünftig zur praktischen Beratung über das Internetportal www.isip.de zur Verfügung stehen.
In einem randomisierten Kontrollgruppen-Design wurde die Wirksamkeit zweier ambulanter psychologischer Tinnitus-Therapien (12-wöchige psychologische Tinnitus-Therapie (PTT) sowie 4-wöchige psychologische Kurzzeit-Tinnitus-Therapie (KPTT)) miteinander verglichen. Die Überprüfung der Wirksamkeit erfolgte mittels folgender Parameter: Tinnitusbelastung, subjektive Lautheit, Dauer der Tinnituswahrnehmung, Tinnitusbelästigung, Copingfähigkeit, Stimmung, Depressivität, Schlaf und Kontrollüberzeugung. An der Studie nahmen 90 Patienten mit chronischem Tinnitus teil, die zufällig der PTT, der KPTT oder einer Wartekontrollgruppe (WKG) zugeteilt wurden. Die Datenerhebung erfolgte zu drei Messzeitpunkten: vor Therapiebeginn, nach Therapieende sowie 6 Monate nach Therapieende. Beide Interventionen führen zur signifikanten Reduktion der Tinnitusbelastung, der subjektiv wahrgenommenen Lautheit, der Dauer der Tinnituswahrnehmung und der Tinnitusbelästigung. Weiterhin führen beide Therapien zum Erlernen und zur Anwendung von effektiven Copingstrategien und damit auch zur Erhöhung der Kontrollüberzeugung. Alle berichteten Verbesserungen bleiben auch 6 Monate nach dem Therapieende stabil. Nachdem in der WKG nach 4 und nach 12 Wochen keine signifikanten Veränderungen beobachtet werden konnten, sind die Veränderungen in den Therapiegruppen in den o.g. Variablen als Therapieeffekte zu sehen. Keine der beiden Interventionen führt zu einer signifikanten Veränderung des Schlafes und der Stimmung. Als einziger signifikanter Prädiktor des Therapieerfolgs hat sich die Tinnitusdauer herausgestellt. Während die PTT unabhängig von der Tinnitusdauer zu einer Reduktion der Tinnitusbelastung führt, ist die KPTT umso wirksamer, je kürzer die Tinnitusdauer ist. Das Vorhandensein einer komorbiden psychischen Störung, die Ausgangsbelastung sowie die Veränderungsbereitschaft beeinflussen die Therapiewirksamkeit nicht. Da sich diese beiden ambulanten psychologischen Tinnitus-Therapien nicht in ihrer Wirksamkeit und in ihren langfristigen Auswirkungen voneinander unterscheiden, kann resümiert werden, dass beide gut für eine ambulante psychologische Behandlung von Patienten mit chronischem Tinnitus geeignet sind. Die kürzere KPTT ist jedoch aufgrund des niedrigeren Zeit- und Kostenaufwandes als effizienter zu bewerten.
Die Nutzung mehrerer Merkmalsräume führt zu einer Steigerung der Erkennungsrate. Jedoch darf die Menge der für einen Merkmalsvektor gespeicherten Daten nicht zu großrnwerden, da es sonst zu Laufzeitproblemen in der zeitkritischen Erkennungsphase kommt. Der Vergleichsaufwand steigt stark an, da aus dem zu analysierenden Bild annährend dieselbe Menge Daten generiert werden müssen und mit allen Objektdaten aus der Objektdatenbank verglichen werden müssen. Hierbei könnte ein Baumstruktur innerhalb der Objektdatenbank helfen, die mittels abstrakter Objekte in den oberen Ebenen eine Vorselektierung anhand bestimmter Merkmalsvektorwerte trifft und damit unnötige Vergleichsoperationen verhindern. Im Allgemeinen berücksichtigen die wenigsten Objekterkennungsmethoden den semantischen als auch realen Kontextes eines Objektes, welche für die menschliche Wahrnehmung eine essentielle Bedeutung hat. Dieses Merkmal könnte man neben den anderen in dieser Arbeit vorgestellten Merkmalen in einen Erkennungsalgorithmus einbringen. Solche Algorithmen, die diese Zusammenhänge verarbeiten, benötigen große semantische Netzwerke, die die Beziehung von Objekten zueinander sowie die Wahrscheinlichkeit des Vorkommens von Objekten im Umfeld von anderen Objekten abbilden. Auch hier müsste natürlich auch darauf geachtet werden das die Vergleichsoperationen nicht die nahezu echtzeitfähige Ausführung behindern.
Der immer schnellere technologische Wandel in der Wirtschaft und die damit verbundenen, sich verkürzenden Innovationszyklen machen die Aus- und Weiterbildung der Mitarbeitenden eines Unternehmens zu einem wichtigen Wettbewerbsfaktor. Traditionelle (Weiter-)Bildungsmethoden können jedoch den resultierenden, ständig wachsenden und immer schneller zu befriedigenden Aus- und Weiterbildungsbedarf nur bedingt befriedigen. Deshalb werden in zunehmenden Maße in der Aus- und Weiterbildung Angebote aus dem Bereich des technologiebasierten Lernens eingesetzt, welche ein selbstgesteuertes und -organisiertes Lernen und durch eine Integration in tägliche Arbeitsabläufe einen optimalen Wissenstransfer mit entsprechend hohem Lernerfolg ermöglichen. Um dies aber auch zu realisieren, ist eine entsprechend hohe Angebotsqualität in Bezug auf die Unterstützung der Nutzenden bei der Erreichung ihrer Lernziele erforderlich. Die Entwicklung qualitativ hochwertiger technologiebasierter Lernangebote ist im Allgemeinen aber mit größeren Aufwänden und längeren Entwicklungszeiten verbunden, wodurch eine Verfügbarkeit eines solchen Angebots zeitnah zum entstandenen Bedarf und in der geforderten Qualität oftmals nicht gewährleistet werden kann.
Diese Arbeit beschäftigt sich deshalb mit der Forschungsfrage, wie eine Lernsoftware entwickelt werden muss, um eine qualitativ hochwertige LSW im Sinne der optimalen Ausrichtung auf die Eigenschaften und Lernziele der einzelnen Lernenden sowie auf den von ihnen geplanten Einsatzkontext für das vermittelte Wissen bei gleichzeitiger Reduzierung von Entwicklungsaufwand und -zeit zu produzieren. Die als Antwort auf die Forschungsfrage definierte IntView-Methodik zur systematischen, effizienten und zeitnahen Entwicklung von qualitativ hochwertigen technologiebasierten Lernangeboten wurde konzipiert, um die Wahrscheinlichkeit der Produktion der Angebote ohne Überschreitung von Projektzeitplänen und -budgets bei gleichzeitiger gezielter Ausrichtung des Angebots auf Zielgruppen und Einsatzkontexte zur Gewährleistung der Qualität zu erhöhen.
Hierzu wurden nach einer umfangreichen Untersuchung von bestehenden Ansätzen zur Lernsoftware-Entwicklung, aber auch zur Produktion von verwandten Produkten wie Multimedia-, Web- oder Software-Anwendungen, diejenigen Durchführungsvarianten der Aktivitäten bzw. Aktivitätsschritte zur Lernsoftware-Entwicklung zu einer systematischen Vorgehensweise integriert, welche in ihrem Zusammenspiel den größten Beitrag zu einer effizienten Produktion leisten können. Kern der Methodik ist ein Entwicklungsprozess zur ingenieursmäßigen Erstellung der Angebote, der alle Entwicklungsphasen abdeckt und die Vorgehensweisen und Methoden aller an der Entwicklung beteiligten Fachdisziplinen, inklusive einer kontinuierlichen Qualitätssicherung von Projektbeginn an, in einen gemeinsamen Prozess integriert. Dieser Prozess wird sowohl als Lebenszyklusmodell als auch als daraus abgeleitetes Prozessmodell in Form eines Abhängigkeitsmodells definiert, um eine optimale Unterstützung eines Projektteams bei Koordination und Abstimmung der Arbeiten in der Entwicklung zu ermöglichen. In Ergänzung zu den Modellen wird eine umfassende Arbeitsunterstützung mit Templates bzw. Dokumentvorlagen inklusive Handlungsanweisungen und Beispielen für die direkte Anwendung der Vorgehensweise durch die Nutzenden bereit gestellt.
Im Rahmen der Evaluation der Methodik wird der Nachweis geführt, dass sie im Zusammenspiel mit ihrer umfangreichen Autorenunterstützung eine sowohl effektive als auch effiziente Lernangebot-Entwicklung ermöglichen kann. In den hierfür durchgeführten Beispielprojekten als auch in den durchgeführten drei Fallstudien wird gezeigt, dass die Methodik zum einen an die Erstellung unterschiedlicher Arten von Lernangeboten bzw. an den Einsatz in verschiedenen Projektkontexten einfach anpassbar sowie zum anderen effizient und effektiv nutzbar ist.
Auswirkung der Einführung eines Mindestlohns auf den Arbeitsmarkt, anhand eines Simulationsmodells
(2012)
Die Diskussion zum Thema Mindestlohn ist ein stets aktuelles und findet zur Jahreswende 2011/2012, in der diese Arbeit entstanden ist, von der Politik und Wirtschaft besonders viel Aufmerksamkeit. Die Aktualität dieses Themas und ihre Dynamik werden besonders darin bemerkbar, dass bei der Untersuchung der deutschen Literatur zu diesem Thema viele der Aussagen und Thesen nicht mehr zutreffen. Das eingangs aufgeführte Zitat von der amtierenden Bundesministerin für Arbeit und Soziales, Ursula von der Leyen, bringt zum Ausdruck, dass mittlerweile in der Politik ein Konsens darüber existiert, dass vollzeitbeschäftigte Arbeitnehmer in der Lage sein müssen, ihren Lebensunterhalt aus ihrem Einkommen zu sichern. Dies stellt für die christlich-demokratische Regierungspartei einen Dogmenwechsel dar. Während die CDU in den letzten Jahrzehnten auf die Tarifbindung gesetzt und einen Mindestlohn kategorisch abgelehnt hat, geht sie nun dazu über, Lohnuntergrenzen für alle Branchen zum Ziel ihrer Regierungsarbeit zu machen. Dies ist in starkem Maße darauf zurückzuführen, dass auf dem Arbeitsmarkt in den letzten Jahren die Lohnspreizung, die traditionell in Deutschland niedrig war, eine stark divergente Entwicklung genommen hat.
Ein weiterer Grund ist die abnehmende Rolle der Tarifbindung der letzten Jahre. Die Folge dieser Entwicklungen ist, dass 1,2 Millionen Menschen, somit vier Prozent der Beschäftigten, für Löhne unter fünf Euro. Weitere 2,2 Millionen Menschen arbeiten für Stundenlöhne unter sechs Euro, 3,7 Millionen Menschen verdienen unter sieben Euro und 5,1 Millionen Menschen arbeiten für Löhne unter acht Die Frage inwieweit ein Leben in Würde unter diesen Voraussetzungen möglich ist, beschäftigt große Teile der Gesellschaft. Denn damit sind das Volumen und die Lohnhöhe des Niedriglohnsektors auf ein Niveau gesunken, welche gesellschaftlich und politisch nicht mehr einfach zu vertreten sind. Zur Abwendung dieser Entwicklung wird das wirtschaftspolitische Instrument Mindestlohn, als probates Mittel, häufig in die Diskussion gebracht. So haben in der Vergangenheit viele Staaten den Mindestlohn auf unterschiedliche Art eingesetzt. Die Einführung eines flächendeckenden Mindestlohns in der Bundesrepublik wird vor allem mit den folgenden Zielen befürwortet.
Der Mindestlohn soll zum einen gewährleisten, dass Vollzeitbeschäftigte ein Einkommen erzielen, dass mindestens ihrem soziokulturellen Existenzminimum entspricht. Andererseits soll die Einführung des Mindestlohns die Notwendigkeit des Aufstockens mit dem Arbeitslosengeld II hemmen und somit die öffentlichen Kassen entlasten. Die Gegner des Mindestlohns lehnen die Einführung eines flächendeckenden allgemeinverbindlichen Mindestlohns, vor allem aufgrund arbeitsmarkttheoretischer Überlegungen, kategorisch ab. Diese vertreten die Ansicht, dass die Mechanismen des Arbeitsmarktes eine selbstregulierende Wirkung besitzen und ergänzt um die Tarifautonomie ausreichend geregelt sind. Eine drohende Vernichtung bestehender Arbeitsplätze und eine ausbleibende Schaffung neuer Arbeitsplätze werden als Folge der Einführung von Mindestlohn weiterhin argumentiert.
Hinzu kommt, dass in der Theorie je nach Denkschule und Position eine entgegengesetzte Auswirkung auf den Arbeitsmarkt prognostiziert werden kann. Vor dem Hintergrund der aktuellen Debatte untersucht die vorliegende Arbeit die Auswirkung der Einführung eines Mindestlohns. Um eine objektive Wertung für die vorliegende Problemstellung zu finden, wird mit Hilfe von Netlogo die computergestützte agentenbasierte Simulation benutzt. Anhand eines fiktiven Marktes mit fiktiven Akteuren/"Agenten" wird der Versuch unternommen, eine modellhafte Darstellung des Arbeitsmarktes abzubilden. Insbesondere soll untersucht werden, inwieweit die Einführung eines Mindestlohns, branchenspezifisch oder flächendeckend, den Beschäftigungsgrad und die Höhe der Löhne beeinflusst.
Grundordnung der Universität Koblenz-Landau.
Dritte Satzung zur Änderung der Satzung der Universität Koblenz-Landau über das Auswahlverfahren in zulassungsbeschränkten Studiengängen.
Zweite Satzung zur Änderung der Satzung der Universität Koblenz-Landau über das Auswahlverfahren in zulassungsbeschränkten Studiengängen.
Zweite Ordnung zur Änderung der Gemeinsamen Prüfungsordnung für den Bachelorstudiengang und den Masterstudiengang "Psychologie" des Fachbereichs Psychologie der Universität Koblenz-Landau, Campus Landau.
Beispielkommunikation: Formen und Funktionen der Beispielverwendung in der verbalen Interaktion
(2012)
Das Beispiel ist ein hoch komplexer, historisch sich vielfach ausdifferenzierender Begriff, mit dem sich seit der Antike die geisteswissenschaftlichen Disziplinen intensiv auseinandergesetzt haben. Die Orientierung am Besonderen, am Konkreten, am Einzelfall, am Exemplarischen ist eine zentrale menschliche Denkbewegung bei der Erkenntnisgewinnung, der Wissensvermittlung, dem Verstehen und der Verständigung ebenso wie bei der Überzeugung und Glaubhaftmachung. Wie wir aber in unserem ganz gewöhnlichen, alltäglichen Sprechen mit Beispielen umgehen, welche Rolle "das Exemplarische" insbesondere in der verbalen, mündlichen Interaktion spielt, wozu und wie wir Beispiele einsetzen, das ist linguistisch wenig und vor allem nicht systematisch untersucht. Wir nehmen im Alltag immer wieder explizit metasprachlich auf das Beispielgeben Bezug, wenn wir etwa sagen "Gib mir doch mal ein Beispiel" oder "Ich mach mal ein Beispiel". Die Analyse der Gesprächspraxis zeigt zudem, dass die Beispielverwendung kein randständiges, sondern ein sehr häufig zu beobachtendes sprachliches Phänomen in verschiedenen Kommunikationskontexten ist, von dem sich vermuten lässt, dass es gerade für die Alltagskommunikation fundamental ist.
Die vorliegende Arbeit hat deshalb zum Ziel, Beispiele in der Sprachverwendung als eine Form des sprachlichen Handelns fassbar und analysierbar zu machen und die Erscheinungsformen sowie Wirkungs- und Funktionsweisen auf der Grundlage von Transkripten natürlichsprachiger Dialoge empirisch zu untersuchen. Aus der Perspektive verschiedener Disziplinen werden Dimensionen des Beispielbegriffs, des fallbezogenen Denkens und des Argumentierens mit Beispielen betrachtet. Es wird auf die grundlegende Rolle des Beispiels, des Besonderen beim Erkennen und Verstehen des Allgemeinen eingegangen, auf die Beschreibungen der Beispielfunktionen und "Funktionslogiken" auf verschiedenen Ebenen. Ausführlich wird auf die bisherigen Analysen zur Beispielverwendung in der Text- und Gesprächslinguistik eingegangen. Im Kontext der Analyse der Sprachverwendung in der natürlichen Sprache wird das Beispiel allerdings nur selten als eigenes Thema behandelt, das Exemplifizieren / Beispielnennen wird häufig als sprachliche Handlung selbstverständlich vorausgesetzt, jedoch dabei nicht konzeptuell betrachtet. Aufbauend auf die Betrachtung und Bewertung der bisherigen Untersuchungen wird in der vorliegenden Arbeit Beispielverwenden als sprachliche Handlung konzeptualisiert, die im Kern eine Konnexstiftung von Besonderem und Allgemeinem enthält. Dabei werden gesprächsanalytische und hermeneutische Ansätze aus der Handlungssemantik aufeinander bezogen und Möglichkeiten für eine Adaption gezeigt.
Die empirischen Analyse stützt sich auf ein umfangreiches Korpus transkribierter verbaler Interaktionen (Diskussionen, Talkshow, Konfliktgespräch). Die Analyseergebnisse bestehen zum einen aus korpusgestützten Beschreibungen und (für Erweiterungen offenen) Typologisierungen von Realisierungsformen und des "displays" von Beispielverwendung sowie der empirisch gestützten Beschreibung von Handlungs- und Interaktionsmustern der Beispielverwendung im Gespräch und ausführlichen, exemplarischen, funktionsbezogenen Einzelanalysen.
Gerechtigkeitswahrnehmungen haben sich im Unternehmenskontext als bedeutsame Prädiktoren von Bindungsphänomenen und Extra-Rollenverhalten zugunsten der Organisation erwiesen, aber für Alumni als ehemalige Mitglieder einer Organisation wurde dieser Zusammenhang bisher noch nicht untersucht. Die vorliegende Arbeit gibt einen Überblick über Konzepte, mit denen das in den Sozialwissenschaften bislang wenig adressierte und elaborierte Konzept der Alumnnibindung theoretisch gefasst und mit Konzepten der psychologischen Gerechtigkeitsforschung in Verbindung gebracht werden kann. Um die Bedeutsamkeit von Gerechtigkeitswahrnehmungen während der Hochschulzeit für spätere Alumnibindung und späteres Alumni-Engagement zu untersuchen, wird ein theoretisches Modell vorgeschlagen, das Gerechtigkeit mit bereits bekannten Einflussfaktoren integriert.
Die empirische Studie erfasste zu drei Messzeitpunkten zunächst die Kontrollvariablen und in einer zweiten Erhebungswelle die Gerechtigkeitswahrnehmungen von Studierenden. In einer dritten Erhebung ca. 6-12 Monaten nach Abschluss des Studiums die affektive und normative Hochschulbindung, sowie die Engagement-Bereitschaften von Alumni erhoben. Anhand der Stichprobe, die je nach Messzeitpunkt und beteiligten Variablen zwischen N = 296 bis N =795 Teilnehmenden umfasst, werden einzelne Hypothesen über die Auswirkung von Gerechtigkeitswahrnehmungen, sowie deren Bedeutung innerhalb eines multiplen regressionsanalytischen Mediationsmodelles überprüft.
Die Ergebnisse lassen darauf schließen, dass sich Hochschulbindung und Engagement-Bereitschaften von Alumni nicht nur prinzipiell durch Gerechtigkeitswahrnehmungen vorhersagen lassen, sondern diese insbesondere in ihrer prozeduralen und interaktionalen Komponente einen bedeutsamen Beitrag zur Vorhersage von Hochschulbindung und Engagement-Bereitschaften auch über andere Einflussfaktoren hinaus leisten. Ferner zeigte sich, der Einfluss von Gerechtigkeitswahrnehmungen auf Engagement-Bereitschaften von Alumni je nach konkretem Kriterium über eine affektive oder normative Form der Hochschulbindung mediiert wird.
Die Prinzipien des Projektmanagements befinden sich aufgrund der Einflüsse wirtschaftlicher Rahmenbedingungen und der technologischen Entwicklung im Umbruch [Wills 1998 & Jons-son et al. 2001]. Die zunehmende internationalisierung, verkürzte Markteinführungszeiten (Time-to-Market), sich ändernde Arbeitskosten und die steigende Einbeziehung von Fachkräf-ten aus verschiedenen geografischen Standorten, treiben die Wandlungen der Projektland-schaft an [Evaristo/van Fenema 1999]. Resultierend daraus, wird die Nutzung kollaborativer Technologien ein entscheidender Faktor für den Erfolg eines Projektes [Romano et al. 2002]. Die bisherige Forschung zum Thema kollaborative Technologien für Projektmanagementzwe-cke, fokussiert vor allem die Entwicklung von modellartigen, allgemeingültigen Systemarchi-tekturen zur Eruierung der Anforderungen an ein speziell entwickeltes kollaboratives Projekt-managementsystem. Diese Arbeit untersucht die Herausforderungen und Vorteile, die aus der Einführung einer Standard-Business-Software als kollaboratives Projektmanagementsystem in einem mittel-ständischen Unternehmen resultieren.
Führungskommunikation ist in Organisationen und damit auch in der Organisation Schule von zentraler Bedeutung. Erstaunlicherweise weist die Forschung zur Schnittstelle von Führungs- und Kommunikationstheorien dennoch deutliche Defizite auf (Cohen, 2004). In jüngster Zeit belegen erste Untersuchungen die Verbindung zwischen Kommunikationskompetenz, Führung und weiteren organisationspsychologischen Konstrukten (z.B. Arbeitszufriedenheit) (u.a. Madlock, 2008; Payne, 2005).
In der Schulleitungsforschung hat die Kommunikationskompetenz bislang noch keine Beachtung gefunden. Diese Dissertation verfolgte daher zwei Ziele: Zum einen sollte ein theoretisch fundiertes Messinstrument entwickelt werden, um die Kommunikationskompetenz von schulischen Führungskräften reliabel und valide erheben zu können. Zum anderen sollte das Konstrukt Kommunikationskompetenz von schulischen Führungskräften in ein theoretisches Rahmenmodell eingebettet werden, das eine Brücke schlägt zwischen der Führungsforschung und der Kommunikationskompetenz-Forschung und damit Cohens Kritik eines unverbundenen Nebeneinanders beider Forschungsstränge begegnet. Das Rahmenmodell wurde auf der Basis eines allgemeinen Kommunikationsprozessmodells von Jablin und Kollegen (1994) sowie der Theorie der Führungsdyaden (LMX, Graen &amp; Uhl-Bien, 1995) entwickelt. Kommunikationskompetenz wird definiert als mehrdimensionales Konstrukt (z. B. Jablin &amp; Sias, 2001; Spitzberg &amp; Cupach, 1984). Die Instrumententwicklung und -validierung erfolgte in fünf Phasen. In Phase I wurden die Items zusammengestellt und mit Hilfe eines Itemratings durch Expert(inn)en inhaltlich validiert. Der so entstandene Itempool wurde in Phase II in einer Online-Befragung von Lehrkräften getestet. Mit exploratorischen Faktorenanalysen wurde die latente Struktur untersucht. Das resultierende 3-Faktoren-Modell mit den Subdimensionen Alterzentrismus, Kommunikationswissen und -bereitschaft sowie Selbstregulationsfähigkeit wurde in Phase III an einer weiteren Stichprobe kreuzvalidiert. Die konfirmatorischen Faktorenanalysen führten zu einer guten Modellpassung (strukturelle Validität). In Phase IV konnte mit Hilfe der Test-Retest-Reliabilität nachgewiesen werden, dass das Instrument zuverlässig misst. Die Einbettung in das nomologische Netzwerk verwandter Konstrukte wurde in Phase V durch die Berechnung von Korrelationen und Regressionen untersucht. Darüber hinaus konnte in dieser Phase nachgewiesen werden, dass das Instrument unabhängig vom Geschlecht der Schulleitungsperson gleichgut misst (Generalisierbarkeit) und dass mit Hilfe der Bewertung der Kommunikationskompetenz der Schulleitungsperson relevante Ergebniskriterien (Arbeitszufriedenheit, Commitment der Lehrkräfte) vorhergesagt werden können.
Als Ergebnis dieser Forschungsarbeit stehen ein Messinstrument und ein theoretisches Rahmenmodell zur Verfügung, die zum einen in der Praxis zur Analyse und Optimierung der Kommunikationskompetenz von schulischen Führungskräften eingesetzt werden können. Zum anderen bildet das Rahmenmodell die Grundlage für die Ableitung von Forschungsfragen, um die Bedeutung der Kommunikationskompe-tenz von Schulleitungspersonen für die Organisation Schule systematisch weiter zu untersuchen.
Quadrokopter sind Helikopter mit vier in einer Ebene angeordneten Rotoren. Kleine unbemannte Modelle, die oft nur eine Schubkraft von wenigen Newton erzeugen können, sind im Spielzeug- und Modellbaubereich beliebt, werden aber auch von Militär und Polizei als Drohne für Aufklärungs- und Überwachungsaufgaben eingesetzt. Diese Diplomarbeit befasst sich mit den theoretischen Grundlagen der Steuerung eines Quadrokopters und entwickelt darauf aufbauend eine kostengünstige Steuerplatine für einen Modellquadrokopter.
Die theoretischen Grundlagen enthalten eine Untersuchung der Dynamik eines frei fliegenden Quadrokopters, bei der Bewegungsgleichungen hergeleitet und mit den Ergebnissen verglichen werden, die in "Design and control of quadrotors with application to autonomous flying" ([Bou07]) vorgestellt wurden. Weiterhin wird die Funktionsweise verschiedener Sensoren beschrieben, die zur Bestimmung der aktuellen räumlichen Ausrichtung geeignet sind, und es werden Verfahren besprochen, mit denen die Ausrichtung aus den Messwerten dieser Sensoren abgeschätzt werden kann. Zusätzlich wird in den Schiefkörper der Quaternionen eingeführt, in dem dreidimensionale Rotationen kompakt dargestellt und effizient verkettet werden können.
Daran anschließend wird die Entwicklung einer einfachen Steuerplatine beschrieben, die sowohl einen autonomen Schwebeflug als auch Fernsteuerung ermöglicht. Die Platine wurde auf einem X-Ufo-Quadrokopter der Firma Silverlit entwickelt und getestet, der daher ebenfalls vorgestellt wird. Die eingesetzten Bauteile und deren Zusammenspiel werden besprochen. Dabei ist insbesondere die WiiMotionPlus hervorzuheben, die als kostengünstiges Gyrosensormodul verwendet wird. Daneben werden verschiedene Aspekte der Steuersoftware erläutert: die Auswertung der Sensordaten, die Zustandsschätzung mit Hilfe des expliziten komplementären Filters nach Mahony et al. ([MHP08]), die Umsetzung des Ausrichtungsreglers sowie die Erzeugung der Steuersignale für die Motoren. Sowohl die Steuersoftware als auch Schaltplan und Platinenlayout der Steuerplatine liegen dieser Arbeit auf einer CD bei. Schaltplan und Platinenlayout sind zusätzlich im Anhang der Arbeit abgedruckt.
Im Rahmen der vorliegenden Arbeit wurde eine Umfrage bei Absolventen des Fachbereichs 4: Informatik der Universität Koblenz-Landau konzipiert, durchgeführt und ausgewertet. Zielsetzung war die Unterstützung der Task Force Bachelor Master, welche sich mit der Reakkreditierung der Studiengänge befasst hat. Zunächst wurden mithilfe von Desk Research die theoretischen Voraussetzungen zur Konzipierung der Umfrage geschaffen. Weiterhin wurden vergangene Befragungen ähnlicher Art recherchiert, die teilweise als Vorlage dienten. Der unter Berücksichtigung aktueller Veränderungen entstandene Umfrage-Prototyp wurde mithilfe eines Pre-Tests weiter verbessert. Die finale Version wurde schließlich in das OpenSource-Tool LimeSurvey implementiert, welches als technische Grundlage für die Durchführung der Befragung diente. Die Empfänger der Teilnahmeaufforderung an der Umfrage waren Mitglieder von Alumnivereinen sowie Absolventen aus den vorangegangen Jahren.rnAus der Umfrage konnten Erkenntnisse über die Zufriedenheit der Absolventen mit ihrem Studiengang gewonnen werden, aber auch über die Studiensituation im Allgemeinen. Darüber hinaus wurde die Meinung zu zwei neuen Master-Studiengängen, E-Government und Web Science, abgefragt.
Die Resonanz war aus vier Studiengängen stark genug, um aussagekräftige Ergebnisse liefern zu können, aus fünf anderen konnten nur die studiengangübergreifenden Aussagen ausgewertet werden. Insgesamt gab es eine hohe Zufriedenheit der Studierenden mit ihrem Studium. Es konnten aber auch einige Verbesserungsvorschläge und Kritikpunkte gesammelt werden. Diese bezogen sich verstärkt auf die Themen Internationalität, Gewichtung der Lehrinhalte, Wahlfreiheit/Spezialisierung sowie Praxisrelevanz.
Als Ergebnis der Ausarbeitung ließ sich eine Handlungsempfehlung aussprechen, die in Kombination mit den Detailergebnissen aus der Befragung zu einer Verbesserung der Qualität und des Bedarfs der Lehre im Fachbereich 4: Informatik führen soll.
Gartner prognostiziert, dass bereits im Jahr 2013 33 Prozent der Zugriffe auf Business Intelligence (BI) Funktionalitäten über mobile Endgeräte erfolgen. Neben der großen Verbreitung mobiler Endgeräte im privaten Umfeld etablieren sich diese Geräte auch zunehmend in Unternehmen und es werden vermehrt sinnvolle Einsatzszenarien für entsprechende Anwendungen entwickelt. Auch im Themenbereich BI ist die Entwicklung mobiler Applikationen aktuell in vollem Gange. Das Forschungsthema Mobile Business Intelligence (mBI) behandelt die Erweiterung der Konzepte traditioneller BI in den Bereich der Mobilität, was die Nutzung von BI Funktionalitäten auf mobilen Endgeräten wie Smartphones und Tablet Computer möglich macht. Die Aktualität sowie die Potenziale, die dem Thema mBI zugesprochen werden, wie zum Beispiel eine Erhöhung der Effektivität und Effizienz der Geschäftsprozesse sowie eine Steigerung der Mitarbeiterproduktivität, sind Anlass für die Behandlung von mBI in dieser Master Thesis. Der Hauptaspekt der vorliegenden Arbeit ist die Entwicklung einer mBI Strategie, welche der Ausgestaltung der wichtigen Punkte für mBI sowie der Ausgestaltung der Tätigkeiten aller mit dem Thema Mobilität betrauten Akteure an einheitlichen Zielen dient. Wichtige Punkte einer mBI Strategie sind die Identifikation von Chancen und Risiken sowie die Definition von Zielen, die Adaption von mBI an den Anwenderkontext, die Integration von mBI in die bestehende IT Infrastruktur und Anwendungslandschaft, die Architekturen für mBI Systeme sowie die Sicherheit von mBI Systemen. Neben dem ausführlich behandelten Thema der mBI Strategie wird außerdem ein Überblick über den Markt für mBI verschafft. Können die Aspekte der mBI Strategie sowie weitere für das Thema wichtige Punkte mittels eines strukturierten Vorgehens auf ein einheitliches Ziel ausgerichtet werden, bildet dies beste Voraussetzungen für die erfolgreiche Realisierung von mBI in Unternehmen.
Verwaltungen, Unternehmen, Non-Profits sowie private Stakeholder sind in unterschiedlichen Formen und Rollen in E-Government Projekten beteiligt oder davon betroffen. E-Government Projekte zeichnen sich u.a. dadurch aus, dass sie eine komplexe Stakeholder-Struktur aufweisen, infolgedessen hängt der Erfolg von IKT-Projekten maßgeblich von der Einbindung einzelner Stakeholdergruppen in Gestaltungsprozesse der E-Government Lösung ab. In diesem Zusammenhang wird eine größere Stakholderbeteiligung angestrebt, hilfreiche Initiativen wie Open Government und Good Governance treiben diesen Prozess voran. Die Ermittlung der Stakeholdergruppen durch eine sog. Stakeholder-Analyse ist methodisch unzureichend entwickelt, dabei ist es wichtig, die Ziele, Erwartungen und Machteigenschaften der Projektbeteiligten und Projektbetroffenen zu analysieren.
Das Ziel dieser Bachelorarbeit ist es, die verbreiteten Stakeholder-Theorien, Stakeholderbeteiligungsansätze sowie die Stakeholderanalyse aufzugreifen und auf Verwaltungsebene zu übertragen und die Anwendbarkeit zu überprüfen. Es werden geeignete Mappingverfahren für die Einordnung der Stakeholdergruppen mittels Stakeholdertheorien von Freeman, Mitchel et. al. und Rowley erläutert und systematisiert. Dabei werden mittels Literaturanalyse wichtige Stakeholderkonzepte erläutert und deren Anwendung an konkreten E-Government Projekten überprüft, um daraus Anregungen und Handlungsempfehlungen für zukünftige E-Government Projekte zu generieren. Außerdem gilt es herauszuarbeiten, wie Stakeholdergruppen in die Entwicklungsprozesse einzelner E-Government Projekte mittels Web 2.0 aktiv eingebunden werden können. Die Rolle von Web 2.0 Anwendungen als ein zusätzlicher Kommunikationskanal und Beteiligungsinstrument wird aufgezeigt und bewertet.
Es soll ein Leitfaden für erfolgreiche Projektbeteiligung von Stakeholdern entwickelt werden. Dieser soll Vorgehensmodelle zur Stakeholderidentifikation, Stakeholdergruppierung und "priorisierung sowie Handlungsanweisungen zum Web 2.0 Einsatz aufzeigen.
Diese Arbeit thematisiert die theoretische Grundlegung, Entwicklung und Validierung eines Instrumentariums, das Lehramtsstudierenden zum Abschluss der Bachelorphase einen Einblick in die eigene Kompetenzentwicklung ermöglicht sowie erste "Praxiserfahrungen" aufarbeiten hilft. Hierdurch wird die Ausbildung der Reflexionsfähigkeit der Studierenden unterstützt. Diese beiden Aspekte und zwei darauf ausgerichteten Instrumente sind die Grundlage für ein Online-Self-Assessment (Tour 3-RLP), das in Anlehnung an das Carreer-Counselling for Teachers (CCT, vgl. cct-germany.de) konzipiert und auf die Kompetenzerfassung ausgerichtet ist. Die Instrumente dienen der Förderung der Professionalisierung der Studierenden und entsprechen dem Anliegen der Reform der Lehrerausbildung in Rheinland-Pfalz. Dieses Reformkonzept, die KMK-Standards für die Lehrerbildung (Bildungswissenschaften), der rheinland-pfälzische "Orientierungsrahmen Schulqualität" sowie die Handreichungen und Manuale zur Durchführung der Vertiefenden Praktika in der Lehrerausbildung bilden die rationale Basis zur Itemgenerierung und Konstruktion der Instrumente.
Der erste Teil dieser Schrift widmet sich den theoretischen Grundlagen zur Erstellung des Instrumentariums für die "CCT-Tour 3-RLP" mit dem Hintergrund der Professionalisierung im Lehrberuf. Ihre historischen Dimensionen und die damit verbundenen Ansätze der Lehrerbildungsforschung stellen ein umfassendes Wissensgebiet dar, das von der "Lehrerpersönlichkeit" bis hin zur Implementation von Standards für die Lehrerausbildung sowie der Outputorientierung reicht. War es in den 60er und 70er Jahren noch der Persönlichkeitsansatz, der in der Lehrerbildungsforschung eine große Rolle spielte, so sind es nun die Ansätze zur Expertiseentwicklung und Modelle der Kompetenzentwicklung, die im Fokus des wissenschaftlichen Interesses stehen.
Im Theorieteil der Dissertationsschrift werden daher sukzessive die diesem momentanen Trend vorausgehenden Paradigmen beschrieben. Im Kontext dieser Erörterungen wird auf das Konzept der Lehrerselbstwirksamkeit eingegangen, es wird ferner intensiv auf topologische und typologische Modelle der Professionalisierung Bezug genommen. Ferner werden die Praxiselemente der Lehrerausbildung und deren Beitrag zur Professionalisierung angehender Lehrkräfte beleuchtet. Professionell reflektierte Praxis, so die Annahme, bildet eine Grundlage zur Expertiseentwicklung. Gerade deshalb ist es unumgänglich, die Transferierbarkeit von Theoriewissen in Praxishandeln zu hinterfragen und die hierzu vorliegenden Erkenntnisse aufzuarbeiten. Eine verbindende Theorie zwischen der Integrationshypothese (Theoriewissen kann in Praxishandeln "übertragen" werden) und der Differenzhypothese (Lehrerkönnen stellt eine eigene, vom Theoriewissen unabhängige Art von Wissensverwendung dar) stellt die kognitive Psychologie, und hier wiederum die Expertiseforschung, bereit. Sie kann annähernd erklären, wie propositionales Wissen (Regelwissen) und die über das berufliche Handeln über kategoriale Wahrnehmung und die Ausbildung von Schemata erzeugten Wissenskomponenten zum professionellen Agieren führen (können). Endpunkt des theoretischen Diskurses ist die Bilanzierung der vorliegenden Erkenntnisse, deren Verbindung mit den Anliegen der Reform der Lehrerbildung in Rheinland-Pfalz und die Rolle, welche die Tour 3-RLP in diesem Kontext spielen kann. rnIm empirischen Teil dieser Arbeit werden die Schritte zur Validierung des Instrumentariums erörtert.
Einführend erfolgt die Darstellung der Professionsstandards der PH Zentralschweiz, die als Modell zum Aufbau eines kompetenzstufenorientierten Instrumentariums gelten können. Eine Analyse von verschiedenen Methoden zur Ermittlung von Cut-Scores mit dem Ziel, Kompetenzstufen zu entwickeln, bildet ebenfalls eine Grundlage zum Aufbau geeigneter Verfahrensweisen innerhalb des eigenen Anliegens. Aus den Ergebnissen der beiden Validierungsstudien Studie lässt sich eine nach psychometrischen Kriterien abgesicherte Skalenstruktur für das Instrument zur Erfassung des Kompetenzstands ableiten und ein Tool aufbauen, das die Erfahrungsverarbeitung der Studierenden fokussiert und der Selbstreflexion dienen soll.
Kernanliegen beider Instrumentarien ist die Förderung der Studierenden, die mit dem Online-Self-Assessment über geeignete Rückmeldestrukturen und daran gekoppelte Handlungsempfehlungen realisiert wird. Der Ausblick widmet sich der Frage, ob eine kompetenzmodellierende oder auf Standards basierende Auseinandersetzung mit dem Thema Professionalisierung die einzige Möglichkeit darstellt, sich dem Thema der Kompetenzentenwicklung anzunähern. Die Rolle der Reflexion erweist sich im integrativen wie auch im differenziellen Ansatz zum Wissenstransfer und Kompetenzaufbau als das verbindende Element zwischen beiden Positionen.
Die wesentliche Zielsetzung der Bachelor-Arbeit war es, entlang der Anforderungen an DMS/WMS aus dem DOMEA-Konzept und aus dem Kommunalen Gebietsrechenzentrum Koblenz (KGRZ) verschiedene Systeme zu evaluieren. Weiteres Ziel war es, ein System, das die Anforderungen am besten erfüllt, zu identifizieren. Entlang der Evaluation wurde exemplarisch der Workflow des KGRZ untersucht, bewertet und ggf. angepasst. Des Weiteren wurde auf die Frage eingegangen, ob ein einheitliches System im Rahmen des Föderalismus nicht nur in Koblenz sondern auch Rheinland-Pfalz weit eingesetzt werden kann, oder ob ämterspezifische Lösungen vorteilhafter sind.
Replikation einer Multi-Agenten-Simulationsumgebung zur Überprüfung auf Integrität und Konsistenz
(2012)
In dieser Master -Arbeit möchte ich zunächst eine Simulation vorstellen, mit der das Verhalten von Agenten untersucht wird, die in einer generierten Welt versuchen zu über leben und dazu einige Handlungsmöglichkeiten zur Auswahl haben. Anschließend werde ich kurz die theoretischen Aspekte beleuchten, welche hier zu Grunde liegen. Der Hauptteil meiner Arbeit ist meine Replikation einer Simulation, die von Andreas König im Jahr 2000 in Java angefertigt worden ist [Kö2000] . Ich werde hier seine Arbeit in stark verkürzter Form darstellen und anschließend auf meine eigene Entwicklung eingehen.
Im Schlussteil der Arbeit werde ich die Ergebnisse meiner Simulation mit denen von Andreas König vergleichen und die verwendeten Werkzeuge (Java und NetLogo) besprechen. Zum Abschluss werde ich in einem Fazit mein Vorhaben kurz zusammenfassen und berichten was sich umsetzen ließ, was nicht funktioniert hat und warum.
Diese Studienarbeit befasst sich mit dem Thema der Routenplanung in der Handelsvertretung. Ziel ist es, eine Analyse bestehender kostenloser und kostenpflichtiger Dienste durchzuführen und geeignete Komponenten zu finden, mit denen eine bestehende Software theoretisch um die Funktion einer Routenplanung erweitert werden kann.
Neben den theoretischen Grundkonzepten der automatisierten Fließtextanalyse, die das Fundament dieser Arbeit bilden, soll ein Überblick in den derzeitigen Forschungsstand bei der Analyse von Twitter-Nachrichten gegeben werden. Hierzu werden verschiedene Forschungsergebnisse der, derzeit verfügbaren wissenschaftlichen Literatur erläutert, miteinander verglichen und kritisch hinterfragt. Deren Ergebnisse und Vorgehensweisen sollen in unsere eigene Forschung mit eingehen, soweit sie sinnvoll erscheinen. Ziel ist es hierbei, den derzeitigen Forschungsstand möglichst gut zu nutzen.
Ein weiteres Ziel ist es, dem Leser einen Überblick über verschiedene maschinelle Datenanalysemethoden zur Erkennung von Meinungen zu geben. Dies ist notwendig, um die Bedeutung der im späteren Verlauf der Arbeit eingesetzten Analysemethoden in ihrem wissenschaftlichen Kontext besser verstehen zu können. Da diese Methoden auf verschiedene Arten durchgeführt werden können, werden verschiedene Analysemethoden vorgestellt und miteinander verglichen. Hierdurch soll die Machbarkeit der folgenden Meinungsauswertung bewiesen werden. Um eine hinreichende Genauigkeit bei der folgenden Untersuchung zu gewährleisten, wird auf ein bereits bestehendes und evaluiertes Framework zurückgegriffen. Dieses ist als API 1 verfügbar und wird daher zusätzlich behandelt. Der Kern Inhalt dieser Arbeit wird sich der Analyse von Twitternachrichten mit den Methoden des Opinion Mining widmen.
Es soll untersucht werden, ob sich Korrelationen zwischen der Meinungsausprägung von Twitternachrichten und dem Börsenkurs eines Unternehmens finden lassen. Es soll dabei die Stimmungslage der Firma Google Inc. über einen Zeitraum von einem Monat untersucht und die dadurch gefunden Erkenntnisse mit dem Börsenkurs des Unternehmens verglichen werden. Ziel ist es, die Erkenntnisse von (Sprenger & Welpe, 2010) und (Taytal & Komaragiri, 2009) auf diesem Gebiet zu überprüfen und weitere Fragestellungen zu beantworten.
Ein neueres Thema innerhalb des Forschungsbereichs Semantic Web behandelt die Verarbeitung von Anfragen über Linked Open Data (LOD). Wie in der Literatur bereits diskutiert wurde, lässt sich der losen Zergliederung innerhalb des "Web of Data" und dessen Datenquellen durch moderne föderierte Verarbeitungsstrategien bezüglich eingehender Anfragen begegnen. Dieser Ansatz ist jedoch umso mehr abhängig von aktuellen statistischen Informationen (Datenstatistiken) über sämtliche der benutzten Datenquellen einerseits, und genauen Schätzungen von Kardinalitäten und Selektivitäten andererseits. Da föderierte Datenquellen im Allgemeinen keine Auskunft über die Statistik der von ihnen verwalteten Daten geben, schlagen sich Änderungen an diesen Daten nicht automatisch in den zentralen Datenstatistikkatalogen nieder - die verwalteten Datenstatistiken werden obsolet. In der vorliegenden Arbeit wird die Erweiterung eines RDF-basierten Query-Federators beschrieben, die die Obsoleszenz von zentral verwalteten Datenstatistiken beurteilen und eine gegebenenfalls notwendige Aktualisierung einzelner Datenstatistiken unternehmen können soll. Als Grundlage dazu dient die Beobachtung auftretender Fehler in der Kardinalitätsschätzung ausgewerteter Queries. Eine Evaluation des Systems wird anschließend beschrieben. Die Ergebnisse zeigen die prinzipielle Richtigkeit der zugrundeliegenden Überlegungen, die praktische Anwendbarkeit kann jedoch nicht überzeugend demonstriert werden. Die Wiederverwendung der entwickelten Systemerweiterung für vielversprechendere Ansätze erscheint jedoch möglich und wird diskutiert.
Wie kaum ein anderes Phänomen hat die Frage nach der Legalität der Selbsttötung, die in ihrer letzten Konsequenz immer eine Frage nach dem Selbstbestimmungsrecht des Menschen ist, Gesellschaften gespalten. Stellte die Selbsttötung in der Antike ein durchaus tolerierbares Mittel dar, um einem qualvollen Leben zu entfliehen, so wurde sie im Mittelalter unter dem Einfluss des Christentums fast durchgängig verboten. Für die Aufklärung, die im allgemeinen Verständnis als eine Epoche gilt, in der sich der Grundgedanke durchsetzt, die Vernunft als allgemeingültigen Wertemaßstab für alles menschliche Handeln heranzuziehen und die Bevormundung durch Autoritäten zu hinterfragen, stellt die Bewertung der Selbsttötung eine besondere "Provokation" dar. Die über einen langen Zeitraum sowohl von kirchlichen als auch weltlichen Autoritäten gleichermaßen propagierte Auffassung von der Unzulässigkeit des aus eigener Hand herbeigeführten Todes konnte unter Perspektive eines Individuationsprozesses im Zeitalter der Aufklärung nicht weiterhin unhinterfragt hingenommen werden.
Während die deutschen Philosophen und Theologen der Aufklärung weitestgehend in traditionellen Bewertungsmustern verhaftet blieben und die Tat je nach Ausrichtung als ein Vergehen wider Gott, die Gemeinschaft oder das eigene Ich verstanden, machten sich Veränderungen in der öffentlichen Wahrnehmung und Bewertung der Selbsttötung vor allem in der Strafrechtsdebatte und im medizinisch-anthropologischen Diskurs bemerkbar. Hier stand nun nicht mehr die Bewertung der Tat im Vordergrund, sondern die Frage nach deren Ursachen. Blieb die Wahrnehmung der Selbsttötung als ein Akt entgegen der Vernunft zunächst zu weiten Teilen bestehen, setzte sich jedoch zunehmend das Verständnis durch, die Selbsttötung als das tödliche Ende einer Krankheit zu begreifen. Eine derartige Bewertung führte beispielsweise dazu, dass die gängige und sowohl im weltlichen als auch im kanonischen Recht verankerte Praxis der Bestrafung der Selbstmörder immer häufiger ausgesetzt wurde.
Gleichzeitig vollzieht sich im Geiste der Aufklärung ein deutlicher Wandel im literarischen Diskurs. Allen voran Johann Christoph Gottsched, dessen Trauerspiel Der Sterbende Cato das Analysekapitel der Arbeit einleitet, wollte ausdrücklich das Trauerspiel in den Dienst der rationalen Philosophie gestellt wissen. Aufbauend auf einem Verständnis, dass Literatur sich als Resonanzraum außerliterarischer Diskurse verstehen lässt und zugleich selbst diskursschaffend ist, stellt sich aus der Zusammenschau der ausgeführten Entwicklungslinien die Frage, wie das Motiv der Selbsttötung, das seit Sophokles als ein erlaubtes und taugliches Inventar des Trauerspiels galt und in der barocken Tragödie vielfach als eine nachahmungs- und bewunderungswürdige Tat dramatisiert wurde, von den Literaten des Aufklärungsjahrhunderts gestaltet wurde. Die Relevanz der Studie ergibt sich somit aus einem Zusammenspiel von Untersuchungszeitraum, Gattung und Selbsttötung als solcher. Die Dissertation leistet einen Beitrag zur Geschichte der Selbsttötung unter Perspektive einer literaturwissenschaftlichen Motivanalyse und legt hierbei ein theoretisch expliziertes Verständnis des Motivbegriffs vor, innerhalb dessen das Motiv nicht ausschließlich als ein handlungsführendes und strukturbildendes Element verstanden wird, sondern darüber hinaus strukturell durch die Gattung bestimmt in den jeweiligen Kontextualisierungen Auskunft über kollektive Denkformen und kommunikative Konventionen gibt. Dieses Konzept ermöglicht es, die Entwicklung des Motivs im literarischen Diskurs anhand der dominierenden Wahrnehmungsparadigmen zu beschreiben. Hierbei werden drei zentrale "Motivgestalten" präsentiert, in denen das Motiv in ähnlichen oder verwandten Implikationen auftritt. Die besprochenen Texte reichen von kanonisierten Klassikern wie Schillers Die Räuber bis hin zu jenen, die nur am Rande der literaturwissenschaftlichen Betrachtung eine Rolle spielen so z.B. Die neue Arria von Freidrich Maximilian Klinger.
Forschungsergebnisse zum Männerchorwesen Deutschlands im 19. Jahrhundert belegen dessen gesellschaftliche und politische Relevanz. Das so genannte Sängerwesen leistete demnach einen wesentlichen Beitrag zur Nationsbildung in Deutschland, da die Sänger durch ihren Gesang sowie durch ihre Aktivitäten im Verein und in der Öffentlichkeit zur inneren Einigung der Bevölkerung beitrugen und somit halfen, eine einheitliche Nation zu formen. Im Gegensatz dazu gab es bislang kaum Erkenntnisse über die gesellschaftlichen und politischen Hintergründe des Männerchorwesens der Pfalz im gleichen Zeitraum. Um diese Lücke zu schließen, wurde mit der vorliegenden Arbeit die Geschichte des Männerchorwesens der Pfalz erforscht, insbesondere hinsichtlich seiner Bedeutung für die Nationsbildung Deutschlands. Der Untersuchungszeitraum erstreckt sich von 1816, dem Jahr, in dem die Pfalz zum bayerischen Staatsgebiet wurde, bis zur Gründung des Deutschen Reiches im Jahre 1871.
Zunächst wird die Entwicklung des pfälzischen Sängerwesens bezüglich der Zahl der gegründeten Vereinen in den einzelnen Jahren und Orten sowie bezüglich des Feierns lokaler und regionaler Sängerfeste im Überblick und im Vergleich zum Musikvereinswesen der Pfalz im gleichen Zeitraum dargestellt. Dieser Betrachtung des pfälzischen Männerchorwesens als Ganzem folgt die Untersuchung seiner Einzelteile, der Personen und Ereignisse innerhalb einzelner Sängervereine und innerhalb bestimmter Zeitabschnitte, vor dem Hintergrund der jeweiligen politischen und gesellschaftlichen Situation. Bedeutend sind in diesem Zusammenhang vor allem die Auswirkungen der politisch-gesellschaftlichen Großereignisse Hambacher Fest von 1832 sowie Revolution von 1848/49 auf die laienmusikalischen Vereinskulturen.
Schließlich werden die einzelnen Phänomene und die Gesamtentwicklung aufeineander bezogen. Der Anhang der Forschungsarbeit beinhaltet, neben Auszügen aus den Protokollbüchern des "Cäcilienverein-Liedertafel Dürkheim" sowie Plakaten von pfälzischen Musik- und Sängerfesten der 1840er Jahre, Übersichtstabellen mit Informationen zu den Pfälzischen Musikfesten des 19. Jahrhunderts sowie zu den im Untersuchungszeitraum gegründeten Sängervereinen, außerdem Kartenmaterial zur räumlichen Verbreitung der Vereine sowie Notenmaterial zum freimaurerischen "Weihelied" des Kaiserslauterer Seminarlehrers Philipp Walter.
Computer unterstützen Menschen zunehmend in Alltagssituationen. Ihre fortwährend voranschreitende Miniaturisierung erlaubt die Erschließung weiterer Einsatzmöglichkeiten und trägt zu einer wachsenden Bedeutung und Verbreitung in der Gesellschaft bei. Längst sind solche Systeme in vielerlei Alltagsgegenständen Realität und ihre Mobilität spielt eine immer größer werdende Rolle: von Laptops über Smartphones und Tablets hin zu am oder im Körper tragbaren Systemen (engl. wearable computing) wie Hörgeräte und Pulsuhren, unterstützen sie den Menschen aktiv und kontextsensitiv in ihrem Alltag.
Als ein Teilgebiet des wearable computing gilt die Entwicklung von Head-mounted Displays (kurz HMD). Das sind Helme oder Brillen die dem Benutzer auf einer oder mehreren Darstellungsflächen computergenerierte Bilder (virtual reality) oder mit Zusatzinformationen versehene Aufnahmen der Umgebung (enhanced reality) präsentieren. Aktuell sind HMDs welche LC-Displays nutzen weit verbreitet, innovativer sind solche welche das Bild direkt auf die Netzhaut des Benutzers projizieren. Neuste Entwicklungen deuten auf weitere Miniaturisierung des Konzepts, hin zu Kontaktlinsen mit integriertem Bildschirm. Für die Sammlung dazustellender Daten werden eine Vielzahl Sensoren hinzugezogen, wie Head-Tracker oder GPS. Auch durch Erweiterungen im Bereich der Bedienbarkeit - zum Beispiel durch Spracheingabe über ein Mikrofon - und die Steigerung des Immersionsgefühls - zum Beispiel durch stereoskopische Bilder oder integrierte Kopfhörer - wandeln sich HMDs von einfachen Anzeigen hin zu stetig besser ausgerüsteten Geräten mit ständig wachsenden Einsatzgebieten. Längst werden HMDs in einer Vielzahl von Feldern benutzt. rnIm Vordergrund dieser Arbeit steht der Entwurf und die Erstellung einer Anwendung für das Betriebssystem Apple iOS 5, als softwaretechnischen Beitrag zur Entwicklung eines HMD auf Basis von Apple-Mobilgeräten mit hochauflösendem Retina Display. Das RollerCoaster2000-Projekt soll zur Darstellung des grafischen Inhalts genutzt werden, aus Gründen einer freien Lizenz, frei zugänglichen Quellcodes sowie einer effizienten OpenGL-ES-Portierung. Dabei soll ein leichter Austausch oder die Erweiterung dieses grafischen Grundgerüsts gegeben sein um die Einsatzmöglichkeiten des HMD zu erhöhen. Über die reine Nutzung als Darstellungsmedium soll die erstellte Anwendung die vielfältigen, sensorischen Fähigkeiten und Vernetzungsmöglichkeiten aktueller Apple-Endgeräte nutzen um mehrere Geräte zu einer Datenbrille zu verbinden und die Kopfbewegungen des Benutzers auszuwerten, in der virtuellen Szene abzubilden und zwischen den Geräten synchron zu halten. Zur leichten Orientierung des Benutzers während der Bedienung soll außerdem auf die integrierte Gerätekamera zugegriffen werden.
Um die Realisierung einer den Kriterien gerecht werdenden Anwendung zu ermöglichen wird in dieser Arbeit in den Bereich der iOS-Entwicklung eingeführt. Zuerst erfolgt eine Einleitung in die historischen Entwicklungen auf dem Gebiet der mobilen Entwicklung für Apple-Mobilgeräte, von der Entstehung des objektorientierten Paradigmas hin zur heutigen Ausprägung des iOS-SDK. Letzteres ergibt sich dabei aus der Summe einer Vielzahl, stark kohärenter Komponenten. Dazu gehören die Grundsteine einer jeden iOS-Applikation, die objektorientierte, dynamische und streng typisierte Sprache Objective-C sowie den durch Apple an die eigenen Bedürfnisse angepassten LLVM-Compiler und die von Apple angepasste LLVM-Laufzeitumgebung. Zudem sind das Cocoa Framework und die Entwicklungsumgebung Xcode, die zur Erstellung mobiler Anwendungen von Apple entwickelt wurden, Gegenstand dieser Arbeit. Anhand der gewonnenen Kenntnisse im Bereich der mobilen Anwendungsentwicklung werden Anforderungen an eine Anwendung für ein HMD erhoben und die Erstellung einer, diesen Kriterien genügenden, Software beschrieben.
Ordnung für die Prüfung im Bachelorstudiengang "Angewandte Naturwissenschaften" der Universität Koblenz-Landau
Ordnung für die Prüfung im Bachelorstudiengang und im Masterstudiengang Erziehungswissenschaft an der Universität Koblenz-Landau, Campus Landau
Gemeinsame Prüfungsordnung für die Bachelor- und Masterstudiengänge des Fachbereichs Informatik an der Universität Koblenz-Landau
Ordnung zur Aufhebung der Ordnung für die Diplomprüfung in Erziehungswissenschaften an der Erziehungswissenschaftlichen Hochschule Rheinland-Pfalz
Diese Arbeit setzt sich kritisch mit dem Google Kalender auseinander. Zu diesem Zweck werden die angebotenen Funktionen des Kernprodukts auf Aspekte des Datenschutzes untersucht. Es wird zum einen ermittelt, in welchem Umfang das Produkt die Privatsphäre der Nutzer verletzen kann, zum anderen werden die dadurch entstehenden Risiken aufgezeigt. Des Weiteren werden die Funktionen im Hinblick auf ihren Nutzen, sowohl für den Dienstanbieter Google, als auch für den Nutzer betrachtet. Eine eingehende Analyse zeigt die kritischen Stellen auf, an denen zwischen Datenschutz und Funktionalität entschieden werden muss. Die Lösungsmöglichkeiten, um die aufgezeigten Risiken mit Mechanismen der IT-Sicherheit zu minimieren, werden im Folgenden vorgestellt, diskutiert und in Bezug auf ihre Umsetzbarkeit untersucht. Die einzelnen Lösungsansätze werden daraufhin in einem Sicherheitskonzept zusammengefasst und weitere Anforderungen erläutert. Abschließend soll ein Addon für Firefox erstellt werden, welches das beschriebene Lösungskonzept umsetzt, um so die bestehenden Schwachstellen bestmöglich zu beheben. Letztlich wird der Funktionsumfang des Addons mit technischer Umsetzung im Einzelnen erläutert.
Im Rahmen dieser Masterarbeit wird der Spanning Tree Simulator um diverse Funktionalitäten erweitert. Dieser wurde in der Bachelorarbeit [Jan10b] von Andreas Sebastian Janke im Jahr 2010 entwickelt. Mithilfe eines Conguration-Files kann ein beliebiges Netzwerk ins Programm geladen und grafisch dargestellt werden. Solch ein Configuration-File muss in XML geschrieben werden und repräsentiert ein Netzwerk bestehend aus Switches und Hosts. Anschließend kann auf diesem Netzwerk der Spanning Tree Algorithmus IEEE 802.1D laufen gelassen werden. Anders als in der Bachelorarbeit sind jetzt nur noch die Switches als Threads realisiert, um weniger Systemressourcen zu benötigen. Nach Abschluss des Algorithmus entsteht ein Spannbaum, der die Schleifen im vorliegenden Netzwerk aufbricht. Dies ist notwendig, da diese beim Verschicken von Nachrichten zu einer stetig steigenden Auslastung des Netzes führen können.
Mittels facettierter Suche lassen sich große, unbekannte Datensätze einfach und gezielt erkunden. Bei der Implementation von Anwendungen für Smartphones ist zu beachten, dass im Gegensatz zu Desktop-Anwendungen ein kleinerer Bildschirm und nur beschränkte Möglichkeiten zur Interaktion zwischen Benutzer und Smartphone zur Verfügung stehen. Diese Beschränkungen können die Benutzbarkeit einer Anwendung negativ beeinflussen. Mit FaThumb und MobileFacets existieren zwei mobile Anwendungen, die die facettierte Suche umsetzen und verwenden, aber nur MobileFacets ist für gegenwärtige Smartphones mit Touchscreenbildschirm ausgelegt.
Jedoch bietet FaThumb eine neuartige Facettennavigation, die durch MFacets in dieser Arbeit für aktuelle Smartphones neu realisiert wird. Außerdem befasst sich diese Arbeit mit der Durchführung einer summativen Evaluation zwischen den beiden Anwendungen, MFacets und MobileFacets, bezüglich der Benutzbarkeit und präsentiert die ausgewerteten Ergebnisse.
Diese Bachelorarbeit beschreibt den Entwurf und die Implementierung eines Übersetzungsprogramms für die Android Plattform. Die Besonderheit der Anwendung ist die selbstständige Texterkennung mit Hilfe des Kamerabildes. Diese Methode soll den Übersetzungsvorgang in bestimmten Situationen erleichtern und beschleunigen. Nach einer Einführung in die Texterkennung, die ihr zugrundeliegenden Technologien und das Betriebssystem Android, werden sinnvolle Anwendungsmöglichkeiten vorgestellt. Anschließend wird ein Entwurf der Anwendung erstellt und die Implementierung erläutert. Zum Schluss wird eine Evaluation durchgeführt, dessen Absicht das Aufzeigen von Stärken und Schwächen der Anwendung ist.
Die vorliegende Fallstudie entstand als Untersuchungsobjekt zu einer Bachelorarbeit und wurde nach der eXperience Fallstudienmethodik erstellt. Ziel der Bachelorarbeit war die Identifizierung von Nutzenaspekten in diesem konkreten Fall. Im Anwenderunternehmen DOCHOUSE wurde hier eine Schnittstelle zwischen dem internen CRM-System und einem kollaborativen System für den externen Zugriff eingeführt.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer DOCHOUSE GmbH), der die Erstellung der Fallstudie motiviert hat und die FG BAS mit deren Durchführung betraute. Die Fallstudie wurde im Winter 2011 von dem Studenten Martin Surrey und Roland Diehl, wissenschaftlicher Mitarbeiter der Forschungsgruppe, erhoben.
Standards haben längst Einzug in das Gebiet der Informatik gehalten. Verschiedenste Organisationen beschäftigen sich mit der Beschließung von Normen für die standardisierte Lösung von Problemen in der Informatik. Ein wichtiger Teilaspekt ist die Spezifizierung von Datenformaten, die die Interoperabilität von Programmen sichern kann. Dabei existieren viele verschiedene Schemasprachen, die auf unterschiedliche Anforderungen ausgelegt sind, und mit deren Hilfe die Menge der konformen Dokumente beschrieben werden kann. Die Kombination mehrerer Schemasprachen ist sinnvoll, da die Mächtigkeit einer Sprache oftmals nicht ausreicht, um die Anforderungen zu erfassen. So auch im Fall der, von IMS entwickelten, Spezifikation Common-Cartridge. Das Common-Cartridge-Format beschreibt valide Zip-Pakete, die dazu genutzt werden können, verschiedene Lernobjekte zu aggregieren und als zusammenhängende Lerneinheit in eine Lernplattform zu importieren. Die Spezifikation benutzt bereits vorhandene und bewährte Spezifikationen, um Teile gültiger XML-Dokumente zu beschreiben. Diese sind selbst Teil eines Pakets und können Referenzen enthalten, die den Inhalt mit der Paketstruktur in Verbindung bringen. Dabei wird das Common-Cartridge-Format durch ein sogenanntes Domain-Profile erfasst. Ein solches erlaubt die Anpassung einer oder mehrerer Standards bzw. Spezifikationen, um die Bedürfnisse einer bestimmten Domäne abzudecken. Zudem können sogenannte Testregeln definiert werden, die für die Bestimmung der für ein Datenpaket auszuführenden Testaufgaben genutzt werden können. Letztlich kann die automatische Erstellung eines Testsystems veranlasst werden, welches diese Aufgaben ausführen kann. Somit stellt sich die Frage, ob ein Domain-Profile ebenso dazu eignet ist, die Anforderungen anderer paket-basierter Datenformate zu erfassen, und ob die nötigen Änderungen an den unterstützenden Tools vorgenommen werden können. Schließlich würde dies die Überprüfung gestellter Anforderungen ermöglichen.
Diese Arbeit soll sich mit einer beispielhaften Anwendung des Verfahrens befassen, um diese Fragen nach Möglichkeit zu beantworten. Dazu soll der verwendete Ansatz auf die Datenformate übertragen werden, die Teil der Spezifikation des Virtual Company Dossiers - VCD - sind. Diese legen ebenso paket-basierte Formate fest, die innerhalb eines elektronischen Ausschreibungsprozesses verwendet werden. Sie ermöglichen die Erfassung von Evidenzen, die die notwendige Qualifikation eines Bewerbers, sowie die Erfüllung der, mit dem Ausschreibungsverfahren verbundenen Kriterien nachweisen.
Im praktischen Teil werden somit zuerst die Ähnlichkeiten der beiden Formate herausgearbeitet. Diese dienten der Identifizierung abstrakter Anforderungen, die, soweit möglich, mit den gleichen Formalismen festgehalten wurden. Dabei wurden Änderungen an den unterstützenden Tools vorgenommen, um die Erfassung aller VCD-spezifischen Anforderungen zu ermöglichen. So wurden das Format, und das Tool zur Erstellung von Applikationsprofilen, angepasst. Schließlich erfolgten Änderungen am generischen Testsystem, welches zur Herleitung konkreter Testsysteme genutzt wird. Letztlich stellte sich heraus, dass ähnliche Anforderungen bestehen, und die unterstützenden Tools in einer Weise angepasst werden konnten, die die Menge der erfassbaren Anforderungen erweitert. Da der Hintergrund der beteiligten Spezifikationen sich zudem signifikant unterscheidet, ist davon auszugehen, dass das Verfahren in einem weiten Spektrum von Anwendungsfällen eingesetzt werden kann.
Die Messung der Produktivität von Dienstleistungen ist trotz zunehmender Relevanz immer noch ein wenig durchdrungenes Forschungsfeld. Ursachen hierfür sind vor allem in den besonderen Merkmalen von Dienstleistungen - Immaterialität und Integrativität - zu suchen. Eine typische Dienstleistung der B2B Softwarebranche ist die Anpassung von Systemen an die Bedürfnisse des Kunden - das sogenannte Customizing. Die Ausschöpfung des Customizing-Potentials von Standardsoftware und -produkten und eine stärkere Einbeziehung des Kunden in Innovationsprozesse werden jedoch dadurch erschwert, dass die Produktivität dieser Dienstleistung nur unzureichend mess- und somit bewertbar zu sein scheint.
Der vorliegende Beitrag beschreibt die Entwicklung eines Modells zur Messung der Produktivität von Dienstleistungen auf der Basis unterschiedlicher Vorstudien im Rahmen des CustomB2B Projektes an der Universität Koblenz-Landau.
Cloud-Computing ist aktuell ein besonderer Trend in der IT-Branche. ERP-Systeme sind in den heutigen Unternehmen ebenfalls nicht mehr wegzudenken. Durch die Analyse ausgewählter Literatur wird aufgezeigt, dass Cloud-Computing als Betriebsmodell für ERP-Systeme besonderer Untersuchung bedarf, da beim Zusammenspiel dieser Technologien noch unterschiedliche Herausforderungen geklärt werden müssen. Darauf aufbauend werden mit Hilfe von drei verschiedenen Praxispartnern Fallstudien zu deren Cloud-ERP-Lösungen erstellt, um in einem nächsten Schritt die theoretische Literatur mit den praktischen Ergebnissen zu vergleichen.
Ziel dieser Arbeit ist es mit Hilfe der Forschungsfragen, differenzierte Nutzenaspekte von Cloud-ERP-Lösungen aufzudecken und zu erklären, wie die Theorie mit praktischen Erfahrungswerten von Experten übereinstimmt. Durch die Fallstudien wird deutlich, dass sich die drei unterschiedlichen Cloud-ERP-Anbieter vor allem durch den Umfang ihrer Software und die Unternehmensgrößen der Zielgruppen im Markt differenzieren. Zusätzlich zeigt sich im Analyseteil und Fazit der Arbeit, dass über die in der Theorie identifizierten Nutzenaspekte hinaus, zusätzliche Nutzenaspekte durch die Kombination von Cloud-ERP-Lösungen generiert werden können und dass es aktuell schon eine spezielle Zielgruppe für Cloud-ERP-Lösungen gibt. Für die Zukunft bleibt abzuwarten, wie sich der Cloud-ERP-Markt weiterentwickeln wird und welche weiteren Funktionalitäten in die Cloud ausgelagert werden können, sodass sich On-Demand ERP-Systeme zu einer Konkurrenz von On-Premise-Lösungen entwickeln können.
Systematische Untersuchung der Android-Plattform im konzeptuellen Rahmen des 101companies Projektes
(2012)
In der vorliegenden Arbeit untersuche ich die Android-Plattform. Ich demonstriere drei verschiedene Implementationen, die sowohl Features und Technologien des 101companies Projektes abdecken als auch neue Android spezifische Besonderheiten in das Projekt integrieren. Die Implementationen zeigen Anwendungen die in der realen Welt benutzt werden können.