Filtern
Erscheinungsjahr
- 2013 (87) (entfernen)
Dokumenttyp
- Bachelorarbeit (31)
- Dissertation (23)
- Ausgabe (Heft) zu einer Zeitschrift (13)
- Masterarbeit (12)
- Diplomarbeit (3)
- Studienarbeit (3)
- Konferenzveröffentlichung (1)
- Habilitation (1)
Schlagworte
- Pflanzenschutzmittel (3)
- Information Retrieval (2)
- Routing (2)
- Vorlesungsverzeichnis (2)
- ABox (1)
- Abduktion <Logik> (1)
- Aggregation (1)
- Agrochemikalien (1)
- Arbeitsbelastungen (1)
- Arbeitszufriedenheit (1)
- Bach (1)
- Bewertung (1)
- Biogeografie (1)
- Biomonitoring (1)
- Boden (1)
- Bodenchemie (1)
- Bodenökologie (1)
- Burn-out-Syndrom (1)
- Burnout (1)
- C++ (1)
- CIDR (1)
- Calculus (1)
- Cations (1)
- Chironomus riparius (1)
- Computational Toxicology (1)
- Compute Shader (1)
- Computergraphik (1)
- Computermodell (1)
- Computervisualistik (1)
- Cooperative Learning; Teaching Methods (1)
- Crayfish (1)
- Crayfish plague (1)
- Deduktion (1)
- Defi-Now! (1)
- Defibrillator (1)
- Differentia Scanning Calorimetry (1)
- Differential scanning calorimetry (1)
- Digitale Bibliothek (1)
- Distance Vector Routing (1)
- Distanz Vektor Routing (1)
- Distribution <Linguistik> (1)
- E-KRHyper (1)
- E-KRHyper theorem prover (1)
- Edelkrebs (1)
- Elektronische Bibliothek (1)
- Emergenz (1)
- Endokrine Regulation (1)
- Englisch (1)
- Enterprise 2.0 (1)
- Entwicklung (1)
- Environmental Risk Assessment (1)
- Erste Hilfe (1)
- Fabric Simulation (1)
- First aid (1)
- Fledermäuse (1)
- Flugbegleiter (1)
- Fluss (1)
- Fragebeantwortung (1)
- GIRT (1)
- Game Design (1)
- Gefrierpunktserniedrigung (1)
- Genetic diversity (1)
- Genetische Variabilität (1)
- Gewässer (1)
- Glasumwandlung (1)
- Glasübergang (1)
- Graphik (1)
- Grundwasser (1)
- Grundwasserfauna (1)
- Grundwasserökologie (1)
- Hyaluronan (1)
- Hyaluronsäure (1)
- Hydratation (1)
- Hydration (1)
- Individualisierung von Lernwegen (1)
- Individualized Learning (1)
- Individuelle Förderung (1)
- Informatik (1)
- Information (1)
- Information Flow Ontology (1)
- Information Visualization (1)
- Informationsverarbeitung (1)
- Informationsverlinkung (1)
- Informationsvisualisierung (1)
- Informetrie (1)
- Integrated Model (1)
- Interactive Visualizations (1)
- Interaktive Visualisierungen (1)
- Internetregulierung (1)
- Kation-Brücken (1)
- Kationen (1)
- Kognitive Linguistik (1)
- Kontiguität (1)
- Konturfindung (1)
- Konzept (1)
- Kookkurrenz (1)
- Kooperatives Lernen (1)
- Krebspest (1)
- Landwirtschaft (1)
- Lendenwirbelsäule (1)
- Limnologie (1)
- Limology (1)
- Line Space (1)
- Linespace (1)
- Linked Data Modeling (1)
- Linking of Information (1)
- Literaturrecherche (1)
- Logischer Schluss (1)
- Lookup-Algorithmen (1)
- MKS-Simulation (1)
- Magnetis (1)
- Mesofauna (1)
- Methode (1)
- Mikroorganismus (1)
- Mitarbeiterzufriedenheit (1)
- Mixture Toxicity (1)
- Museums visitors (1)
- Museumsbesucher (1)
- N-Body Simulation (1)
- N-Körper Simulation (1)
- NMR-Spektroskopie (1)
- Non-freezing water (1)
- Nuclear Magnetic R (1)
- OWL (1)
- Online-Kommunikation (1)
- Ontologie (1)
- OpenGL (1)
- OpenGL Shading Language (1)
- Operationsplanung (1)
- Organische Bodensubstanz (1)
- Pestizid (1)
- Pestizide (1)
- Phylogeographie (1)
- Plasticization; Glass transition (1)
- Plastifizieren (1)
- Plastifizierung (1)
- Politik (1)
- Polysaccharide (1)
- Polysaccharides (1)
- Power Law (1)
- Predictive Model (1)
- Programmierung (1)
- Prädikatenlogik (1)
- Präposition (1)
- RDF (1)
- Rechnernetz (1)
- Risikoabschätzung (1)
- Risikoanalyse (1)
- Risikomanagement (1)
- Route Aggregation (1)
- Routen-Aggregation (1)
- Router (1)
- Routing- und Forwarding Tabellen (1)
- Schlussfolgern (1)
- Schreibprozess (1)
- Semantic Web (1)
- Simulation (1)
- Situationales Interesse (1)
- Smartphone Applikation (1)
- Softwareergonomie (1)
- Spiel (1)
- Steuerung (1)
- Stoffsimulation (1)
- Streams (1)
- Stress (1)
- Stygofauna (1)
- Stygoregion (1)
- Suchmaschine (1)
- Supernetting (1)
- Support System (1)
- Säugetiere (1)
- Süßwasserhaushalt (1)
- TBox (1)
- Text Analysis (1)
- Text Mining (1)
- Textlinguistik (1)
- Theorem prover (1)
- Theorembeweiser (1)
- Torf (1)
- Umweltchemikalie (1)
- Umwelttoxikologie (1)
- Umweltwissenschaften (1)
- Unterrichtsmethoden (1)
- Usability (1)
- Videospiel (1)
- Visualisierung (1)
- Vocabulary Mapping (1)
- Wachstumsregler (1)
- Web 2.0 (1)
- Web Analytics (1)
- Wikipedia (1)
- Wirbellose (1)
- Wissensbasis (1)
- World Wide Web (1)
- Zuckmücken (1)
- agent-based simulation (1)
- agriculture (1)
- aquatic ecotoxicology (1)
- automated theorem prover (1)
- bats (1)
- biogeography (1)
- biomonitoring (1)
- burnout (1)
- by-stander effect (1)
- cation bridges (1)
- co-occurrence (1)
- cognitive linguistic approach (1)
- concept (1)
- conflicting information (1)
- contiguity (1)
- development (1)
- digital library (1)
- ecological risk management (1)
- ecosystem functions (1)
- emergence (1)
- endocrine disrupting chemicals (1)
- endokrine Regulation (1)
- english prepositions (1)
- flight attendant (1)
- freshwater ecosystem (1)
- game (1)
- governance (1)
- groundwater ecology (1)
- groundwater fauna (1)
- iSearch (1)
- information flow regulation (1)
- information processing (1)
- interaktiv (1)
- invertebrates (1)
- knowledge base (1)
- kollaboratives Schreiben (1)
- konfligierende Information (1)
- kooperatives Schreiben (1)
- landscape (1)
- life cycle test (1)
- mammals (1)
- metasearch engine (1)
- microorganisms (1)
- minimum self-contained graphs (1)
- modelling (1)
- nicht gefrierbares Wasser (1)
- norm (1)
- ontology (1)
- peat (1)
- pesticide (1)
- pesticides (1)
- plant protection products (1)
- policy modelling (1)
- probabilistic (1)
- question answering (1)
- risk assessment (1)
- search engine (1)
- situational interest (1)
- smartphone app (1)
- soil (1)
- soil organic matter (1)
- stygofauna (1)
- teaching (1)
- usability study (1)
- video game (1)
- workload (1)
- Ökologie (1)
- Ökosystem (1)
- Ökotoxologie (1)
Institut
- Fachbereich 4 (50)
- Fachbereich 7 (9)
- Zentrale Einrichtungen (8)
- Fachbereich 8 (4)
- Institut für Computervisualistik (4)
- Institut für Informatik (4)
- Institute for Web Science and Technologies (2)
- Fachbereich 5 (1)
- Institut für Germanistik (1)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (1)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (1)
- Institut für Integrierte Naturwissenschaften, Abt. Geographie (1)
- Institut für Management (1)
- Institut für Soziologie und Politikwissenschaft (1)
- Institut für Wirtschafts- und Verwaltungsinformatik (1)
- Mathematisches Institut (1)
English prepositions take only a small proportion of the language but play a substantial role. Although prepositions are of course also frequently used in English textbooks for secondary school, students fail to incidentally acquire them and often show low achievements in using prepositions correctly. The strategy commonly employed by language instructors is teaching the multiple senses of prepositions by rote which fails to help the students to draw links between the different meanings in usage. New findings in Cognitive Linguistics (CL) suggest a different approach to teaching prepositions and thus might have a strong impact on the methodologies of foreign language teaching and learning on the aspects of meaningful learning. Based on the Theory of Domains (Langacker, 1987), the notions of image schemas (Johnson, 1987) as well as the Conceptual Metaphor Theory (Lakoff & Johnson, 1980), the present study developed a CL-inspired approach to teaching prepositions, which was compared to the traditional teaching method by an empirical study conducted in a German school setting. Referring to the participants from the higher track and the medium track, who are at different proficiency levels, the results indicate that the CL-inspired teaching approach improved students" performance significantly more than the traditional approach in all the cases for the higher track and in some cases for the medium track. Thus, these findings open up a new perspective of the CL-inspired meaningful learning approach on language teaching. In addition, the CL-inspired approach demonstrates the unification of the integrated model of text and picture comprehension (the ITPC model) in integrating the new knowledge with related prior knowledge in the cognitive structure. According to the learning procedure of the ITPC model, the image schema as visual image is first perceived through the sensory register, then is processed in the working memory by conceptual metaphor, and finally it is integrated with cognitive schemata in the long term memory. Moreover, deep-seated factors, such as transfer of mother tongue, the difficulty of teaching materials, and the influence of prior knowledge, have strong effects on the acquisition of English prepositions.
Das Kommunikationsverhalten hat sich in den letzten Jahren durch die Smartphonenutzung verändert. Die Nutzer kommunizieren oft nur noch über den elektronischen Weg. Die persönliche Kommunikation, außerhalb des Smartphones, nimmt ab. Das Umfeld gerät unterdessen in Vergessenheit. In der vorliegenden Arbeit werden verschiedene Spielkonzepte entwickelt, welche die Kommunikation steigern sollen. Realisiert wird der Ansatz in einer prototypischen Stadtführer-App, nach den Spielkonzepten von "Scotland Yard" und "Schnitzeljagd". Während der Nutzung müssen die Spieler verschiedene Aufgaben lösen. Welches Spielkonzept sich in Bezug auf die Kommunikationsförderung am besten eignet, wird in einer Evaluation analysiert.
Die folgende Arbeit analysiert die Funktionsweise und Programmiermöglichkeiten von Compute Shadern. Dafür wird zunächst in Kapitel 2 eine Einführung in Compute Shader gegeben, in der gezeigt wird, wie diese funktionieren und wie sie programmiert werden können. Zusätzlich wird das Zusammenspiel von Compute Shadern und OpenGL 4.3 anhand zweier einführender Beispiele gezeigt. Kapitel 3 beschreibt dann eine N-Körper Simulation, welche implementiert wurde um die Rechenleistung von Compute Shadern und den Einsatz von gemeinsamen Speicher zu zeigen. Danach wird in Kapitel 4 gezeigt, inwiefern sich Compute Shader für physikalische Simulationen eignen und wo Probleme auftauchen können. In Kapitel 5 wird ein eigens konzipierter und entwickelter Algorithmus zur Erkennung von Linien in Bildern beschrieben und anschließend mit der Hough Transformation verglichen. Zuletzt wird in Kapitel 6 ein abschließendes Fazit gezogen.
Die Arbeit stellt Path Tracing zum Rendern von Bildern mitrnglobaler Beleuchtung vor. Durch die Berechnung der Rendergleichung, mithilfe von Zufallsexperimenten, ist das Verfahren physikalisch plausibel. Entscheidend für die Qualität der Ergebnisse ist Sampling. Der Schwerpunktrnder Arbeit ist die Untersuchung verschiedener Samplingstrategien. Dazu werden die Ergebnisse unterschiedlicher Dichtefunktionen verglichenrnund die Methoden bewertet. Außerdem werden Effekte, wie beispielsweise Depth of Field, mittels Sampling visualisiert.
Früher wurden in Museen den Besuchern meist gesicherte Wissensbestände präsentiert. Heute ist das vielfach anders: Nicht nur fraglos geltendes Wissen, sondern auch der Prozess dorthin wird aufgezeigt. Die dargebotene Information ist teilweise nicht mehr konsistent und widerspruchsfrei sondern konfligierend. Wie aber reagieren die Besucher auf konfligierende Information? Wie unterstützen ihre persönlichen Vorrausetzungen eine differenziertere Betrachtung? Wie können Museen " obwohl ihre Information doch freiwillig, selbstbestimmt, ohne Zwang und Pression rezipiert wird - die Informationsverarbeitung ihrer Besucher durch eine bestimmte räumliche Informationsanordnung beeinflussen? Diese Fragen wurden mittels vier Feldstudien vor Ort untersucht:
Studie 1 charakterisiert Museumsbesucher durch Persönlichkeitsprofile, die aus den für die Verarbeitung konfligierender Information als relevant betrachteten Personenmerkmalen (epistemologischen Überzeugungen, Ambiguitätstoleranz, Selbstwirksamkeitsannahmen) erstellt sind.
Studie 2 untersucht den Einfluss dieser Personenmerkmale und des situationalen Interesses auf die Tendenz zur Konfliktverarbeitung, ohne Fähigkeiten und Fassungskraft des Besuchers zu berücksichtigen.
Studie 3 überprüft die Effekte von situationalem Interesse, epistemologischen Überzeugungen, Ambiguitätstoleranz und Selbstwirksamkeitsannahmen auf die Konfliktverarbeitungsleistung.
In Studie 4 wird schließlich die Wirkung räumlich naher Informationspräsentation untersucht.
Museumsbesucher können durch die Persönlichkeitsprofile "selbstzweifelnd skeptisch", "selbstbewusst vertrauensvoll" und "stabilitätsgläubig" charakterisiert werden. Eine überwältigende Mehrheit zeigt die Bereitschaft, Konflikte wahrzunehmen und ein großer Teil ist darüber hinaus bereit, konfligierende Informationen auf tieferer Ebene zu verarbeiten. Eine räumlich nahe (thematisch kontinuierliche) Präsentation unterstützt die Tendenz, tief zu verarbeiten. Etwa drei Viertel der Besucher konnten erkennen, wann konfligierende Information logisch widersprüchlich ist und konnten überzufällig gut bei konsistenter und konfligierender Information Kohärenz bilden. Positive Selbstwirksamkeitsannahmen unterstützen vermittelt über hohes situationales Interesse die Tendenz, Information tiefer zu verarbeiten und steigern die Fähigkeit, Kohärenz zu bilden. Reifere epistemologische Überzeugungen der Dimension "Sicherheit" und "Veränderlichkeit" fördern Kohärenzbildung.
Interaktive Visualisierungen für den Linking- und Suchprozess heterogener Informationen im Web
(2013)
Die Informationsmenge im Web nimmt stetig zu und auch die Art und Vielfalt von Informationen wird immer größer. Es stehen die unterschiedlichsten Informationen wie Nachrichten, Artikel, Statistiken, Umfragedaten, Börsendaten, Veranstaltungen, Literaturnachweise usw. zur Verfügung. Die Informationen zeichnen sich durch Heterogenität in Aspekten wie Informationsart, Modalität, Strukturiertheit, Granularität, Qualität und ihre Verteiltheit aus. Die zwei Haupttechniken, mit denen Nutzer im Web nach diesen Informationen suchen, sind die Suche mit Websuchmaschinen und das Browsing über Links zwischen Informationseinheiten. Die vorherrschende Art der Informationsdarstellung ist dabei weitgehend statisch in Form von Text, Bildern und Grafiken. Interaktive Visualisierungen bieten eine Reihe von Vorteilen für die Aufbereitung und Exploration von heterogenen Informationen im Web: (1) Sie bieten verschiedene Darstellungsformen für unterschiedliche, sehr große und auch komplexe Informationsarten und (2) große Datenmengen können interaktiv anhand ihrer Eigenschaften exploriert werden und damit den Denkprozess des Nutzers unterstützen und erweitern. Bisher sind interaktive Visualisierungen aber noch kein integraler Bestandteil des Suchprozesses im Web. Die technischen Standards und Interaktionsparadigmen, um interaktive Visualisierungen als Massentechnik im Web nutzbar zu machen, werden erst langsam durch Standardisierungsgremien eingeführt. Diese Arbeit untersucht, wie interaktive Visualisierungen für den Linking- und Suchprozess heterogener Informationen im Web eingesetzt werden können. Basierend auf Grundlagen in den Bereichen Informationssuche, Informationsvisualisierung und Informationsverarbeitung wird ein Modell gebildet, das bestehende Strukturmodelle der Informationsvisualisierung um zwei neue Prozesse erweitert: (1) das Linking von Informationen in Visualisierungen und (2) das Glyphenbasierte Suchen, Browsen und Filtern. Das Vizgr-Toolkit implementiert das entwickelte Modell in einer Webanwendung. In vier verschiedenen Anwendungsszenarien werden Teilaspekte des Modells instanziiert und in Nutzertests evaluiert oder anhand von Beispielen untersucht.
Im Rahmen des "Design Thinking"-Prozesses kommen unterschiedliche Varianten kreativitätsfördernder Techniken zum Einsatz. Aufgrund der zunehmenden Globalisierung ergeben sich immer häufiger Kollaborationen, bei denen sich die jeweiligen Projektteilnehmer an verteilten Standorten befinden. Somit erweist sich die Digitalisierung des Design-Prozesses als durchaus erstrebenswert. Ziel der hier vorliegenden Untersuchung ist daher die Erstellung eines Bewertungsschemas, welches die Eignung digitaler Kreativitätstechniken in Bezug auf das "Entrepreneurial Design Thinking" misst. Des Weiteren soll geprüft werden, inwiefern sich der Einsatz von e-Learning-Systemen in Kombination mit der Verwendung digitaler Kreativitätstechniken eignet. Diese Prüfung soll am Beispiel der e-Learning Software "WebCT" konkretisiert werden. Hieraus ergibt sich die folgende Fragestellung: Welche digitalen Kreativitätstechniken eignen sich für die Anwendung im Bereich des "Entrepreneurial Design Thinkings" unter Einsatz der e-Learning Plattform "WebCT"? Zunächst wird eine Literaturanalyse bezüglich des "Entrepreneurial Design Thinkings", der klassische und digitale Kreativitätstechniken sowie des Arbeitens in Gruppen, was auch das Content Management, e-Learning-Systeme und die Plattform "WebCT" beinhaltet, durchgeführt. Im Anschluss daran wird eine qualitative Untersuchung durchgeführt. Auf Basis bereits bestehender Literatur, soll ein Bewertungsschema erstellt werden, welches misst, welche der behandelten digitalen Kreativitätstechniken für den Einsatz im "Entrepreneurial Design Thinking" am besten geeignet ist. Darauf aufbauend erfolgt die Verknüpfung des digitalisierten "Design Thinking"-Prozesses mit der e-Learning Plattform "WebCT". Abschließend wird diskutiert, in wie fern diese Zusammenführung als sinnvoll erachtet werden kann.
This paper presents a method for the evolution of SHI ABoxes which is based on a compilation technique of the knowledge base. For this the ABox is regarded as an interpretation of the TBox which is close to a model. It is shown, that the ABox can be used for a semantically guided transformation resulting in an equisatisfiable knowledge base. We use the result of this transformation to effciently delete assertions from the ABox. Furthermore, insertion of assertions as well as repair of inconsistent ABoxes is addressed. For the computation of the necessary actions for deletion, insertion and repair, the E-KRHyper theorem prover is used.
Die vorliegende Arbeit befasst sich mit der volkswirtschaftlichen Untersuchung von Arbeit in virtuellen Welten und hat als Kerninhalt die Analyse des Arbeitsmarktes in "Massively Multiplayer Online Role-Playing Games" (MMORPGs). Als Ausgangsbasis diente zum einen der Faktor Arbeit in der Realität, zum anderen wurden zusätzliche Besonderheiten von MMORPGs in die Betrachtung miteinbezogen, woraus sich ein Gesamtbild des virtuellen Arbeitsmarkts ergab, aus dem sich relevante Indikatoren ableiten ließen. Neben dem grundsätzlichen Befund der Existenz eines virtuellen Arbeitsmarktes, wurden Ähnlichkeiten zum realen Arbeitsmarkt deutlich. So war es möglich virtuelle Stundenlöhne zu berechnen, unternehmensähnliche Strukturen in Spielergruppierungen nachzuweisen und ausgehend von der Humankapitaltheorie, eine modifizierte Theorie ("Avatarkapital") für virtuelle Welten zu ermitteln. Allerdings ergaben sich auch Unterschiede, so ist die Komplexität der Herstellungsprozesse in den untersuchten MMORPGs in der Regel weitaus geringer als in der Realität. Durch eine Gegenüberstellung von Motivationsfaktoren in beiden Arbeitswelten wurden weiterhin Gemeinsamkeiten, aber auch Unterschiede festgestellt und dargelegt. Zusätzlich wurde aufgezeigt, dass das aktuell diskutierte Thema Mindestlohn auch in virtuellen Arbeitsmärkten von MMORPGs anzutreffen ist und als Spielmechanik implementiert wurde, um Motivation durch andauernde Beschäftigung zu gewährleisten. Über diese Parallelen hinaus, wurde anhand einer Analyse von Waren- und Geldtransaktionen (Real-Money-Trading) zwischen Virtualität und Realität eine Verbindung beider Welten nachgewiesen, die beide Arbeitsmärkte gleichermaßen betrifft. Neben der theoretischen Untersuchung, war es auch Ziel eigene Beobachtungen und Ansätze in die Ergebnisse einfließen zu lassen. Besonders in der abschließenden empirischen Untersuchung war es somit möglich weitere Faktoren zu entdecken, die nicht ausreichend aus der Theorie heraus zu ermitteln waren. Vor allem weitere Erkenntnisse zum Thema Produktivitätsmessung in virtuellen Welten konnten so aus der Praxis in die Theorie einfließen. Schlussendlich wurde aber auch deutlich, dass sich die Untersuchungen zum Thema Arbeitsmarkt in virtuellen Welten noch in einem frühen Stadium befinden und zahlreiche Forschungsobjekte in diesem Bereich existieren, die mit Sicherheit zu einem Erkenntnisgewinn in der Volkswirtschaftslehre führen.
Zur Zeit ist die Microsoft Kinect in verschiedensten Anwendungsbereichen populär, da sie sowohl günstig als auch genau ist. Für die Steuerung des Mauszeigers ist sie jedoch noch ungeeignet da die Skelettdaten zittern. In meinem Ansatz wird versucht mit gängigen Methoden aus der Bildverarbeitung die Mauszeiger Position zu stabilisieren. Dabei wird als Input die Farbkamera der Kinect dienen. Aus den verschiedenen ermittelten Positionen soll anschließend eine finale Position bestimmt werden. Die rechte Hand steuert dabei die Maus. Eine einfache Klick Geste wird ebenfalls entwickelt. In der Evaluation wird gezeigt ob dieser Ansatz eine Verbesserung darstellt.
ERP market analysis
(2013)
Der aktuelle ERP Markt wird dominiert von den fünf größten Anbietern SAP, Oracle, Microsoft, Infor und Sage. Da der Markt und die angebotenen Lösungen vielfältig sind, bedarf es einer fundierten Analyse der Systeme. Die Arbeit beleuchtet dabei anhand ausgesuchter Literatur und Kennzahlen der verschiedenen Unternehmen die theoretische Seite der angebotenen Lösungen der fünf großen ERP Anbieter. Daneben wird die Nutzung der Systeme in der Praxis anhand der Befragung von sechs Anwendern analysiert und die Systeme miteinander verglichen.
Ziel der Arbeit ist es, dass die Forschungsfragen beantwortet werden und dass es bezogen auf die Systeme dem Leser der Arbeit ersichtlich wird, welches ERP System für welche Unternehmensbranche und Unternehmensgröße am besten geeignet ist.
Des Weiteren gibt die Arbeit Aufschluss darüber, welche Trends für ERP Systeme für die Zukunft zu erwarten sind und welche Herausforderungen sich dadurch für die Unternehmen stellen.
In dieser Studienarbeit sollen verschiedene Routing-Lookup Algorithmen aufgelistet und verglichen werden, mit denen eine Routing-Tabelle erstellt und angepasst werden kann. Dazu werden hier nur dynamische Verfahren in Betracht gezogen. Allgemein wird die Funktionsweise einer Routing-Tabelle erklärt und drei Verfahren bzw. Algorithmen analysiert und bewertet. Die Algorithmen werden anhand von Beispielen erläutert und in einem abschließenden Kapitel gegenüber gestellt. Dabei werden die Vor- und Nachteile der einzelnen Verfahren aufgelistet.
Viele Suchmaschinen betreiben Formen der Internetregulierung. Diese ist für den Endbenutzer teils schwer ersichtlich und leicht umgehbar. Weiter ist es oft schwierig, Hintergrundinformationen zu Regulierungen zu erfahren. Um diese Schwachstellen zu beheben, wird die Entwicklung der prototypischen Meta-Suchmaschine "Polsearchine" beschrieben. Ihre Regulierung erfolgt mittels der von Kasten und Scherp für Internetregulierung entwickelten Ontologie InFO. Dabei wird die konkrete Erweiterung SEFCO zur Anwendung auf Suchmaschinenebene verwendet. Zur Beschaffung der Suchergebnisse wird eine externe Suchmaschinen-API genutzt. Um nicht von einer bestimmten API abhängig zu sein, kann die API leicht ausgetauscht werden.
Die weltweite Zugänglichkeit und umfangreiche Nutzung des Internets machen dieses Medium zu einem effizienten und beliebten Informations-, Kommunikations-, und Verkaufsinstrument. Immer mehr Menschen und Organisationen versuchen, diese Vorzüge durch eine eigene Website für ihre Zwecke zu verwenden. Als hilfreiches Mittel zur Optimierung von Webpräsenzen bewährte sich in den letzten Jahren der Einsatz von Web-Analytics-Software. Durch diese Software sind Websitebetreiber in der Lage, Informationen über die Besucher ihrer Website und deren Nutzungsverhalten zu sammeln und zu messen. Das angestrebte Resultat sind Optimierungsentscheidungen auf Basis von Daten an Stelle von Annahmen und wirkungsvolle Testmöglichkeiten.
Für den Bereich des E-Commerce existieren bis dato zahlreiche wissenschaftliche und praxiserprobte Hilfestellungen für Web-Analytics-Projekte. Informationswebsites hingegen werden trotz ihrer Wichtigkeit nur vereinzelt thematisiert. Um diesem Defizit entgegenzuwirken, hat Hausmann 2012 das Framework for Web Analytics entwickelt, welches dem Anwender ein hilfreiches Referenzmodell für sein Web Analytics-Vorhaben bietet. Diesen Ansatz weiter voranzutreiben ist das Ziel der Abschlussarbeit. Dazu wird mithilfe einer Literaturanalyse und einer Fallstudie das Framework validiert und ergänzt, sowie weitere Handlungsempfehlungen identifiziert. Als Ergebnis werden die wichtigsten Erkenntnisse dieser Forschung zusammengefasst und für den zukünftigen Gebrauch festgehalten.
Große Mengen qualitativer Daten machen die Verwendung computergestützter Verfahren bei deren Analyse unvermeidlich. In dieser Thesis werden Text Mining als disziplinübergreifender Ansatz, sowie die in den empirischen Sozialwissenschaften üblichen Methoden zur Analyse von schriftlichen Äußerungen vorgestellt. Auf Basis dessen wird ein Prozess der Extraktion von Konzeptnetzwerken aus Texten skizziert, und die Möglichkeiten des Einsatzes von Verfahren zur Verarbeitung natürlicher Sprachen aufgezeigt. Der Kern dieses Prozesses ist die Textverarbeitung, zu deren Durchführung Softwarelösungen die sowohl manuelles als auch automatisiertes Arbeiten unterstützen, notwendig sind. Die Anforderungen an diese Werkzeuge werden unter Berücksichtigung des initiierenden Projektes GLODERS, welches sich der Erforschung von Schutzgelderpressung durchführenden Gruppierungen als Teil des globalen Finanzsystems widmet, beschrieben, und deren Erfüllung durch die zwei hervorstechendsten Kandidaten dargelegt. Die Lücke zwischen Theorie und Praxis wird durch die prototypische Anwendung der Methode unter Einbeziehung der beiden Lösungen an einem dem Projekt entspringenden Datensatz geschlossen.
In dieser Arbeit wird das in letzter Zeit zunehmend wichtiger werdende Thema der Routenaggregation und deren Auswirkung auf die Verhinderung von Routingschleifen behandelt. Als Basis für die Implementation und Evaluation dient das an der Universität Koblenz entwickelte RMTI-Protokoll, bei dem es sich um eine Weiterentwicklung des in RFC2453 spezifizierten Routing Information Protocol Version 2 handelt. Dieses Protokoll kommt, in dieser Arbeit, innerhalb der virtuellen Netzwerkumgebung Virtual Network User-Mode-Linux (VNUML) zum Einsatz. Mit VNUML ist es möglich konkrete Netzwerkszenarien virtuell zu betreiben und zu untersuchen. Der RMTI ist bereits in der Lage topologische Schleifen zu erkennen und dadurch das Entstehen von Routingschleifen nachweislich zu verhindern. Im Rahmen der Arbeit wird die Funktionsweise des RMTI beschrieben und anschließend darauf eingegangen, unter welchen Umständen eine Routenaggregation vorgenommen werden darf ohne das die Aggregation Routinganomalien nach sich zieht. Um diese Änderungen vornehmen zu können ist ein tieferes Verständnis der Struktur von Routingtabellen notwendig, daher wird deren Aufbau anhand von Beispielen erläutert. Im Anschluss wird beschrieben an welchen Stellen Änderungen am RMTI vorgenommen werden müssen um trotz Aggregation eine Verhinderung von Routingschleifen bewirken zu können. Am Ende der Arbeit findet abschließend eine Evaluation der Reorganisationsfähigkeit des virtuellen Netzes bei vorgenommener Routenaggregation statt.
Diese Arbeit beschreibt die Implementation eines Pfadplanungs-Algorithmus für Seriengespannfahrzeuge mithilfe von Maschinellen Lernalgorithmen. Zu diesem Zwecke wird ein allgemeiner Überblick über genetische Algorithmen gegeben, alternative Ansätze werden ebenfalls kurz erklärt. Die Software die zu diesem Zwecke entwickelt wurde basiert auf der EZSystem Simulationssoftware der AG Echtzeitsysteme der Universität Koblenz-Landau, sowie auf der von Christian Schwarz entwickelten Pfadkorrektursoftware, die ebenfalls hier beschrieben wird. Diese enthält auch eine Beschreibung des, zu Simulationszwecken, verwendeten Fahrzeugs. Genetische Algorithmen als Lösung von Pfadplanungsproblemen in komplexen Szenarien werden dann, basierend auf der entwickelten Simulationssoftware, evaluiert und diese Ergebnisse werden dann mit alternativen, nicht-maschinellen Lernalgorithmen, verglichen. Diese werden ebenfalls kurz erläutert.
Forwarding loops
(2013)
Durch die Verbreitung von Smartphones und der damit einhergehenden, erhöhten Aufmerksamkeit für Augmented Reality Anwendungen, ist es spannend einen wirklichen Mehrwert durch eine solche Anwendung zu generieren. Es ist wichtig, die Grundfunktionen eines Computers mit den möglichen Vorteilen einer AR-Anwendung zu einer hilfreichen App zu verbinden. Es muss die Rechenkraft eines Computers mit hilfreichen, virtuellen Informationen in der realen Welt sinnvoll angereichert werden. Wichtig ist zudem, dass eine einfache Bedienung und schneller Umgang mit einer solchen Anwendung gewährleistet sein.
Ein Poker-Assistent kann all diese Stärken des Computers und einer AR-Anwendung einsetzen. Die schwierige Wahrscheinlichkeitsberechnung von Gewinnchancen sowie die schnelle automatisierte Kartenerfassung sollen hierbei im Vordergrund stehen.
AR-Anwendungen auf Smartphones bilden den Grundstein für ein zukünftiges AR-bestimmtes Leben. In diesem Kontext soll eine der Kernfragen dieser Masterarbeit die Frage nach dem wirklichen Mehrwert für Nutzer dieser App im Vergleich zu nicht unterstützten Spielern sein. Wobei auch geklärt werden soll, ob dieses Anwendungsbeispiel eine sinnvolle AR-Unterstützung benötigt und wie, im Hinblick auf die Zukunft und zukünftige Technologien, eine sinnvolle AR-Unterstützung aussehen sollte.