Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (270)
- Bachelorarbeit (230)
- Dissertation (224)
- Diplomarbeit (169)
- Studienarbeit (127)
- Masterarbeit (99)
- Bericht (8)
- Sonstiges (5)
- Buch (Monographie) (4)
- Wissenschaftlicher Artikel (1)
Sprache
- Deutsch (1139) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Augmented Reality (14)
- Bildverarbeitung (12)
- Simulation (10)
- Computergrafik (9)
- Computersimulation (9)
- Robotik (9)
- Computergraphik (8)
- Computervisualistik (8)
- Routing (8)
- Computerspiel (7)
- Forschen in Koblenz (7)
- Junges Forschen (7)
- Visualisierung (7)
- Wissenschaft Koblenz (7)
- Datenschutz (6)
- Führung (6)
- Informatik (6)
- Inklusion (6)
- Java (6)
- OpenGL (6)
- Android (5)
- Evaluation (5)
- GPGPU (5)
- Grundwasserfauna (5)
- Interaktion (5)
- Modellierung (5)
- Mustererkennung (5)
- Objektverfolgung (5)
- Semantic Web (5)
- Volumendaten (5)
- Business Intelligence (4)
- E-Learning (4)
- Frau (4)
- GPU (4)
- Inhaltsanalyse (4)
- Innovation (4)
- Programmierung (4)
- RIP-MTI (4)
- Raytracing (4)
- Rechnernetz (4)
- Router (4)
- Shader (4)
- Supply Chain Management (4)
- Tracking (4)
- Unterrichtsforschung (4)
- VNUML (4)
- VOXEL (4)
- Web 2.0 (4)
- Wiki (4)
- Analyse durch Synthese (3)
- Arbeitszufriedenheit (3)
- Biomechanik (3)
- Computer (3)
- Computermodell (3)
- Customer Relationship Management (3)
- Datenanalyse (3)
- Datenstruktur (3)
- Dialog (3)
- E-Partizipation (3)
- Echtzeitsystem (3)
- Echtzeitsysteme (3)
- Electronic Government (3)
- Erweiterte Realität (3)
- Globale Beleuchtung (3)
- Grundschule (3)
- Grundwasser (3)
- Information Retrieval (3)
- Informationssystem (3)
- Innovationsmanagement (3)
- Instant Messaging (3)
- Integration (3)
- Kamera (3)
- Kryptographie (3)
- Kultur (3)
- Lendenwirbelsäule (3)
- Lernen (3)
- Line Space (3)
- Markerloses Tracking (3)
- Mikrocontroller (3)
- Mikrocontroller AVR (3)
- Mikroskopie (3)
- Modellbasiertes Tracking (3)
- Netzwerk (3)
- Netzwerksimulation (3)
- Online-Befragung (3)
- Ontologie (3)
- Persönlichkeit (3)
- Pfalz (3)
- Pflanzenschutzmittel (3)
- Physikunterricht (3)
- Prozessmanagement (3)
- Qualität (3)
- Qualitätssicherung (3)
- Ray tracing (3)
- Rechnernetze (3)
- Rettungsroboter (3)
- SPARQL (3)
- Segmentierung (3)
- Selbstwirksamkeit (3)
- Sicherheit (3)
- Smartphone (3)
- Software (3)
- Spiel (3)
- Sport (3)
- Stereosehen (3)
- TGraph (3)
- Transformation (3)
- Virtual Reality (3)
- Volumen-Rendering (3)
- Wikipedia (3)
- World of Warcraft (3)
- XTPeer (3)
- groundwater fauna (3)
- interaktiv (3)
- 3D (2)
- Abdrift (2)
- Akkreditierung (2)
- Android <Systemplattform> (2)
- App (2)
- Applikation (2)
- Augenbewegung (2)
- Autonome Fahrzeuge (2)
- Autonomes Robotersystem (2)
- BPMN (2)
- Betriebspädagogik (2)
- Bewertung (2)
- Bild (2)
- Bildregistrierung (2)
- Bildung (2)
- Bildung für nachhaltige Entwicklung (2)
- Bildverstehen (2)
- Biographieforschung (2)
- Biomonitoring (2)
- Browser (2)
- C++ (2)
- CCRDMT (2)
- CSCW (2)
- Chronischer Schmerz (2)
- Compute Shader (2)
- Computer Supported Cooperative Work (2)
- Computeranimation (2)
- Controlling (2)
- Coping (2)
- DOCHOUSE (2)
- Datenaustausch (2)
- Datensicherheit (2)
- Digital Rights Management (2)
- E-Government (2)
- E-IMS (2)
- E-Mail (2)
- Eltern (2)
- Empirische Forschung (2)
- Entwicklung (2)
- Exposition (2)
- Eyetracking (2)
- Fahrerassistenzsystem (2)
- Fahrzeug (2)
- Faktorenanalyse (2)
- Fallstudie (2)
- Fließgewässer (2)
- Framework (2)
- Fremdsprachenunterricht (2)
- GLSL (2)
- GPS (2)
- Gaze Tracker (2)
- Gender (2)
- Geschichte (2)
- Geschäftsprozess (2)
- Global Illumination (2)
- Google App Engine (2)
- Google Web Toolkit (2)
- Governance (2)
- Grafikkarte (2)
- Grafikprozessor (2)
- Graphik (2)
- Graphikprozessor (2)
- Grounded Theory (2)
- Haare (2)
- Heilanstalt (2)
- High dynamic Range (2)
- Hydrogeologie (2)
- IBM Lotus Quickr (2)
- IPv6 (2)
- Immersion (2)
- Information Flow Ontology (2)
- Informationsmanagement (2)
- Informationsvisualisierung (2)
- Internet (2)
- Internetzugang (2)
- Jugendhilfe (2)
- Jugendstil (2)
- Kalibrierung (2)
- Kinematik (2)
- Klassifikation (2)
- Klimawandel (2)
- Kommunikation (2)
- Kompetenz (2)
- Konfirmatorische Faktorenanalyse (2)
- Konflikt (2)
- Konvergenz (2)
- Künstliche Intelligenz (2)
- Laserinduzierte Plasmaspektroskopie (2)
- Laserscanner (2)
- Lehrerbildung (2)
- Linespace (2)
- Logistik (2)
- Macht (2)
- Makroinvertebraten (2)
- Management (2)
- Medizinische Visualisierung (2)
- Metriken (2)
- Mittelrhein (2)
- Modell (2)
- Modellieren (2)
- Modelltransformation (2)
- Monitoring (2)
- Motivation (2)
- Nachhaltigkeit (2)
- Naturwissenschaften (2)
- Navigation (2)
- Network (2)
- Netzwerkmanagement (2)
- Norm (2)
- Open Source (2)
- OpenGL Shading Language (2)
- Organisationsentwicklung (2)
- Partikelsystem (2)
- Path Tracing (2)
- Personalausweis (2)
- Pestizid (2)
- Petri-Netze (2)
- Pflege (2)
- Pflegeanstalt (2)
- Physikdidaktik (2)
- Physiksimulation (2)
- Point Rendering (2)
- Professionalität (2)
- Program Slicing (2)
- Psychologie (2)
- Pädagogik (2)
- RDF <Informatik> (2)
- RFID (2)
- RIP (2)
- RMTI (2)
- Realistische Computergrafik (2)
- Reflexion (2)
- Registrierung <Bildverarbeitung> (2)
- Rendering (2)
- Ressourcen (2)
- Rollenspiel (2)
- Schatten (2)
- Schizophrenie (2)
- Selbstlokalisation (2)
- Semantic Desktop (2)
- Semantik (2)
- Social Software (2)
- Sonderpädagogik (2)
- Spielkonsole (2)
- SpoGA (2)
- Starrkörper (2)
- Stress (2)
- Tablet PC (2)
- Technologiemanagement (2)
- Textur-Mapping (2)
- Tourismus (2)
- Transferfunktion (2)
- Transform Feedback (2)
- Umfrage (2)
- Universität Koblenz-Landau (2)
- Unternehmen (2)
- Usage Rights Management (2)
- Virtualisierung (2)
- Virtuelle Realität (2)
- Virtuelle Welt (2)
- Volumen (2)
- Volumenrendering (2)
- WLAN (2)
- Wasseroberfläche (2)
- WebGL (2)
- Webcam (2)
- Whiteboard (2)
- Wii (2)
- Wiimote (2)
- Wissen (2)
- Wissensrepräsentation (2)
- World Wide Web (2)
- XML (2)
- Zertifikat (2)
- Zielverfolgung (2)
- biomonitoring (2)
- computer science (2)
- confirmatory factor analysis (2)
- dialogische Führung (2)
- evaluation (2)
- game (2)
- information system (2)
- mentale Repräsentation (2)
- migration (2)
- physics (2)
- prevention (2)
- runoff (2)
- simulation (2)
- Ökologie (2)
- 18. Jahrhundert (1)
- 2-D (1)
- 2D/3D-Segmentierung (1)
- 3-D-Laserscannen (1)
- 3-D-Modell (1)
- 3-D-Modelle (1)
- 3-D-Scanning (1)
- 360 Grad (1)
- 360 degree (1)
- 3D Modell Referenz Bildsynthese (1)
- 3D Painting (1)
- 3D-Abbildungen (1)
- 3D-Color-Structure-Code (1)
- 3D-Darstellung (1)
- 3D-Kartierung (1)
- 3D-Modell (1)
- 3D-Modelle (1)
- 3D-RETISEG (1)
- 3D-Scan (1)
- 3D-Vermessung (1)
- 3D-Videospiel (1)
- 3D-Visualisierung (1)
- ACL injury (1)
- AD(H)S Bindung (1)
- ADHS (1)
- ADS (1)
- AMIRE (1)
- AR (1)
- ARIS (1)
- ARToolkit (1)
- ARToolkitPlus (1)
- ATMega 16 (1)
- ATmega644 (1)
- ATtiny2313 (1)
- Abfluss (1)
- Abfragesprache (1)
- Absorptive capacity (1)
- Abwasser (1)
- Achtsamkeit (1)
- Acquis communautaire (1)
- Ad-Hoc Routing (1)
- Adaptive Abtastung (1)
- Adaptiver Test (1)
- Adhäsion (1)
- Administration (1)
- Adobe Flash (1)
- Adressatenorientierung (1)
- Advanced Encryption Standard (1)
- Advertising (1)
- Aesthetics (1)
- Agent (1)
- Aggregation (1)
- Agoraphobie (1)
- Agriotes spp. (1)
- Aktivität (1)
- Aktualisierung (1)
- Akuter Schmerz (1)
- Akzeptanz (1)
- Alex Bernstein (1)
- Algorithmus (1)
- Allgemeine Systemtheorie (1)
- Allianz (1)
- Alltagsgeschichte (1)
- Alltäglichkeit (1)
- Altlast (1)
- Altlasten (1)
- Aluminiumorthophosphat (1)
- Ambient Occlusion (1)
- Ambulante Behandlung (1)
- Ambulante Psychotherapie (1)
- Analoge Methoden (1)
- Analyse (1)
- Analyse-durch-Synthese (1)
- Analytischer Hierarchieprozess (1)
- Android 2 (1)
- Android 3 (1)
- Android 4 (1)
- Android development (1)
- Androidentwicklung (1)
- Aneignung (1)
- Anforderung (1)
- Anforderungskatalog (1)
- Anforderungsprofil (1)
- Angiographiebilder (1)
- Anhänger (1)
- Anhängerfahrzeug (1)
- Animation (1)
- Animationsfilm (1)
- Animationsverfahren (1)
- Annotationsmodell (1)
- Anreiz (1)
- Anstaltspsychiater (1)
- Anterior Cruciate Ligament Injury (1)
- Anwendungsintegration (1)
- Anwendungssoftware (1)
- Anzeige (1)
- App <Programm> (1)
- Arbeitsbelastungen (1)
- Arbeitsmotivation (1)
- ArcGIS (1)
- Architekturbewertung (1)
- Archäologie (1)
- Argumentation (1)
- Art Déco (1)
- Arzt-Angehörigen-Kommunikation (1)
- Aspect-orientation (1)
- Aspekt-Orientierung (1)
- Assembly (1)
- Assoziierungsabkommen der EU mit der Ukraine (1)
- Astrophysik (1)
- Audiodatei (1)
- Aufgabe (1)
- Aufgabenkultur (1)
- Aufmerksamkeit (1)
- Aufsatzdidaktik (1)
- Augenblick-SDK (1)
- Augmented Reality Szenario (1)
- Auslandsaufenthalt (1)
- Auslassung (1)
- Ausrichtungswerkzeug (1)
- Aussagenlogik (1)
- Ausstellung (1)
- Austausch (1)
- Austenitischer Stahl (1)
- Auszeichnungssprache (1)
- Authentifizierung (1)
- Authentisierung (1)
- Autokorrelation (1)
- Automatische Klassifikation (1)
- Automatische Kontrolle im Produktionsprozess (1)
- Automatisches Beweisverfahren (1)
- Autonome Exploration (1)
- Autonome Robotik (1)
- Autonomes Fahrzeug (1)
- Autonomous Exploration (1)
- Autorensystem (1)
- Außeralltäglichkeit (1)
- Außerschulische Lernorte (1)
- Avatare (1)
- Awareness (1)
- Axiomatische Geometrie (1)
- Axis Aligned Bounding Box (AABB) (1)
- B2B (1)
- BGV A1 (1)
- BI (1)
- BNE (1)
- BNE-Kriterien (1)
- BRDF (1)
- Bachelor (1)
- Bachelorstudiengang (1)
- Backtrack (1)
- Bakterien (1)
- Balanced Scorecard (1)
- Balancetheorie (1)
- Bandenemission (1)
- Barriere (1)
- Barrieren (1)
- Bauen mit Bauklötzen (1)
- Bauxit (1)
- Beethoven (1)
- Befragungsinstrument (1)
- Begutachtung (1)
- Behinderungen (1)
- Beispiel (1)
- Beleuchtung (1)
- Beleuchtungsverfahren (1)
- Benefits Realisation Management (1)
- Benutzerorientierung (1)
- Benutzerprofil (1)
- Benutzerschnittstelle (1)
- Benutzerverhalten (1)
- Beobachtungskompetenz (1)
- Beregnung (1)
- Berichterstattung (1)
- Bertelsmann Transformationsindex (1)
- Berufsausbildung (1)
- Berufsorientierung (1)
- Beschleunigungsensor (1)
- Besuchersoftware (1)
- Betriebliche Ausbildung (1)
- Betriebssystem (1)
- Bewegung (1)
- Bewegungsablauf (1)
- Bewegungsapparat (1)
- Bewegungsmodell (1)
- Bewegungssteuerung (1)
- Bewertungssystem (1)
- Bewertungsverfahren (1)
- Bewältigung (1)
- Big Five (1)
- BildKlang (1)
- Bildanalyse (1)
- Bildanalyse-Verfahren (1)
- Bildaufloesung (1)
- Bildauflösung (1)
- Bilderkennung (1)
- Bildsensor (1)
- Bildungsaspiration (1)
- Bildungserfolg (1)
- Bildungsinteresse (1)
- Bildungssprache (1)
- Bill Clinton (1)
- Billard (1)
- Binäre XML-Formate (1)
- Biofilm (1)
- Biofouling (1)
- Biogasanlage (1)
- Biogeografie (1)
- Biographie (1)
- Bioindikator (1)
- Biomechanics (1)
- Biometrie (1)
- Bioreaktor (1)
- Biotopkartierung (1)
- Bioökonomie (1)
- Blinder Fleck (1)
- Boden (1)
- Bodenerosion (1)
- Bodenfeuchtesimulation (1)
- Bologna-Prozess (1)
- Boppard (1)
- Bordinstrument (1)
- Bororthophosphat (1)
- Bounding Volume Hierarchie (1)
- Bounding Volume Hierarchy (1)
- Breaking (1)
- Brechung (1)
- Bruchsimulation (1)
- Building Performance Evaluation (1)
- Burg (1)
- Burn-out-Syndrom (1)
- Burnout (1)
- Business Continuity Management (1)
- Business Software (1)
- Business intelligence (1)
- Bürgerliches Drama (1)
- C-Programmierung (1)
- C-Socketbibliothek (1)
- CAD (1)
- CAD-System (1)
- CB2 (1)
- CIDR (1)
- CMS (1)
- CSCA (1)
- CSG (1)
- CSMs (1)
- CSV (1)
- CT-Datensätze (1)
- CTI (1)
- CTI -Problem (1)
- CamInSens (1)
- Campus Koblenz (1)
- Cascada (1)
- Case Study (1)
- Casual Game (1)
- Cg (1)
- Chancengerechtigkeit (1)
- Chancengleichheit (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Charisma (1)
- Charles Darwin (1)
- Charta der Vereinten Nationen (1)
- Cheops (1)
- Chief Executive Officer (1)
- Chiffrierung (1)
- Christusbekenntnis (1)
- Chronische Niereninsuffizienz (1)
- Cicero (1)
- Circumscription (1)
- Cisco Catalyst 3500XL (1)
- Citizen Science (1)
- Classification (1)
- Classroom-Management (1)
- Closed Source (1)
- Clusteranalyse (1)
- Clustering (1)
- Codierungstheorie (1)
- Cognitive-behavioral group therapy (1)
- CollaborativeWriting (1)
- Colonoscopy (1)
- Color Structure Code (1)
- ColorSym (1)
- Comic (1)
- Commitment <Management> (1)
- Common Annotation Framework (1)
- Communication System (1)
- Computational logic (1)
- Compute-Shader (1)
- Computer Networks (1)
- Computer-aided diagnosis (1)
- Computerbased Communication (1)
- Computerspiele (1)
- Computertomografie (1)
- Computertomographie (1)
- Computerunterstützte Kommunikation (1)
- Congestion Control (1)
- Constitutive Model (1)
- Content Management (1)
- Cooperative Learning; Teaching Methods (1)
- Corruption (1)
- CosiMail (1)
- Counting-to-Infinity (1)
- Crowdsourcing (1)
- Cybersickness (1)
- DCMTK (1)
- DEMO_net (1)
- DHCPv6 (1)
- DICOM (1)
- DIN EN ISO 9241 (1)
- DMF-DMA (1)
- DNNF (1)
- DPLL (1)
- DTI (1)
- Darmspiegelung (1)
- Darwinismus (1)
- Data Analysis (1)
- Data Warhousing (1)
- Data analysis (1)
- Data flow analysis (1)
- Data-Mining (1)
- Data-Warehouse-Konzept (1)
- Datenaustauschstandard (1)
- Datenbank (1)
- Datenbanksystem (1)
- Datenbrille (1)
- Datenfluss (1)
- Datenflussanalyse (1)
- Datenflussmodell (1)
- Datenschutz, Datensicherheit, Apps, Informatik im Kontext (1)
- Datenschutzkompetenz (1)
- Datenschutzkompetenzmodell (1)
- Datenschutzpolicy (1)
- David Hume (1)
- Deep Learning (1)
- Defekte Demokratie (1)
- Definitivartikel (1)
- Delphi (1)
- Delphi-Studie (1)
- Delta (1)
- Demokratieförderung der Ukraine (1)
- Demokratieförderung durch die Europäische Union (1)
- Demokratiestatus (1)
- Demokratische Werte und Normen (1)
- Demoskopie (1)
- Denkmal (1)
- Deposition (1)
- Derivatisierung (1)
- Derrida (1)
- Design Thinking (1)
- Design-Based-Research-Studie (1)
- Designforschung (1)
- Designwerkzeug (1)
- Desktop (1)
- Deutungsmuster (1)
- Dezentralisierungsreform (1)
- DiaLex (1)
- Diagnose (1)
- Diagnostik (1)
- Diagramm (1)
- Dialekt (1)
- Didaktik (1)
- Dienstleistungsproduktivität (1)
- Diffie-Hellman-Algorithmus (1)
- Digital Storytelling (1)
- Digitale Bibliothek (1)
- Digitale Bildung (1)
- Digitale Medien (1)
- Digitale Steuerung (1)
- Digitalisierung (1)
- Disaster Recovery (1)
- Diskriminierung (1)
- Diskurs (1)
- Diskursanalyse (1)
- Diskursmeter (1)
- Diskursverständnis (1)
- Disney (1)
- Displacement Mapping (1)
- Display (1)
- Dispositiv (1)
- Dissens (1)
- Distance Vector Routing (1)
- Distanz Vektor Routing (1)
- Distanz-Vektor (1)
- Distanzfeld (1)
- Distribution <Linguistik> (1)
- Dokumentation (1)
- Drahtloses Sensorsystem (1)
- Drahtmodell (1)
- Drahtwürmer (1)
- Dramengestalt (1)
- Dramenschluss (1)
- Dreidimensionale Visualisierung (1)
- Dreidimensionales Modell (1)
- Drucktechnik (1)
- Duale Ausbildung (1)
- Duales System (1)
- Dyadische Interaktion (1)
- Dynamische Geometrie (1)
- Dynamische Netzwerkanalyse (1)
- Dynamische Programmierung (1)
- E-Commerce (1)
- E-Demokratie (1)
- E-KRHyper (1)
- E-Procurement (1)
- E-participation (1)
- EEG (1)
- EEPROM (1)
- EMIL-S (1)
- EP Wahl (1)
- EPC (1)
- EPK (1)
- EPROM (1)
- ERP-System (1)
- ERP-Systeme (1)
- ESSA (1)
- EU (1)
- EU Advisory Mission (EUAM) (1)
- EU-Dienstleistungsrichtlinie (1)
- EU-Strategie der Demokratieförderung (1)
- EU-Ukraine Assoziationsagenda (1)
- EU-Ukraine Assoziationsrat (1)
- EU-Ukraine Parlamentarische Assoziationsrat (1)
- EU-Ukraine Partnerschafts- und Kooperationsabkommen (1)
- Eating Disorder (1)
- Echtzeit (1)
- Echtzeit Anwendung (1)
- Echtzeit Raytracing (1)
- Echtzeit-Interaktion (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitanimationssystem (1)
- Echtzeitfähigkeit (1)
- Echtzeitphysik (1)
- Eclipse (1)
- Eclipse <Programmierumgebung> (1)
- Ecore (1)
- Edellaubmischwälder (1)
- Ehe (1)
- Ehescheidung (1)
- Eigenschaften von Teammitgliedern (1)
- Eigensinn (1)
- Einchip-Computer (1)
- Einstellung (1)
- Einstellungen und Haltungen zu Inklusion (1)
- Eisenbahn-Unfalluntersuchungsstellen (1)
- Eisenbahnunfalldatenbank (1)
- Eisenbahnunfallkosten (1)
- Electronic Commerce (1)
- Elektrischer Servomotor (1)
- Elektrizitätslehre (1)
- Elektroencephalographie (1)
- Elektronische Bibliothek (1)
- Elektronische Signaturen (1)
- Elektronisches Wasserzeichen (1)
- Elektrostimulation (1)
- Elternschaft (1)
- EmIL (1)
- Emergence in the Loop (EMIL) (1)
- Emergenzen (1)
- Emil (1)
- Empfehlung (1)
- Empirische Sozialforschung (1)
- Empirismus (1)
- England (1)
- Enhanced Reality (1)
- Enterprise 2.0 (1)
- Enterprise Architect (1)
- Enterprise Architecture (1)
- Enterprise Architecture Frameworks (1)
- Enterprise Collaboration Sytems (1)
- Enterprise Resource Planning (1)
- Enterprise-Resource-Planning (1)
- Entropia Universe (1)
- Entscheidungsprozess (1)
- Entscheidungstheorie (1)
- Entwurfssprache (1)
- Epifluoreszenzmikroskopie (1)
- Epipolargeometrie (1)
- Erfolgsfaktor (1)
- Erleben (1)
- Erneuerbare Energien (1)
- Erstgebärende (1)
- Erwachsenenbildung (1)
- Erwartung (1)
- Erweiterte Realität <Informatik> (1)
- Erziehung (1)
- Erziehungsverhalten (1)
- Erziehungswissenschaft (1)
- Erzählung (1)
- Essstörung (1)
- Ethik (1)
- Ethnographie (1)
- Ethnography (1)
- Euklidische Geometrie (1)
- Eulerian grid (1)
- Eurokrise (1)
- Euromaidan (1)
- European Union Support Group for Ukraine (1)
- Europäische Kommission (1)
- Europäische Nachbarschaftspolitik (1)
- Europäische Wirtschaftsgemeinschaft (1)
- Europäischer Auswärtiger Dienst (1)
- Europäischer Binnenmarkt (1)
- Europäischer Rat (1)
- Europäisches Nachbarschaftsinstrument (1)
- Euroskeptizismus (1)
- Evangelium (1)
- Event (1)
- Exegese (1)
- Experiment (1)
- Experimente (1)
- Experimentieren (1)
- Experteninterview (1)
- Expertise (1)
- Expertiseentwicklung (1)
- Explorationstransformation (1)
- Exporation Transform (1)
- Extended Reality (1)
- Extension (1)
- Extinktion (1)
- Eye-Tracking (1)
- FPIC (1)
- Facebook App (1)
- Facettentheorie; (1)
- Fachdidaktik (1)
- Fachhochschule (1)
- Fachinformationssysteme (1)
- Fahrerassistenzsysteme (1)
- Fahrerlose Transportsysteme (1)
- Fahrsimulator (1)
- Fahrzeugverhalten (1)
- Faktorinvarianz (1)
- Fallrekonstruktion (1)
- Familie (1)
- Familienbeziehungen (1)
- Farbsymmetrie (1)
- Fast Convolution (1)
- FastSLAM Algorithmus (1)
- Fedora (1)
- Fehlertypen (1)
- Fehlerverhütung (1)
- Fell (1)
- Fell Rendering (1)
- Fernarbeitsregelungen (1)
- Fernsehtechnik (1)
- Fertilitaet (1)
- Feuer (1)
- Field programmable gate array (1)
- Filmdarstellung (1)
- Filmfiguren (1)
- Filmgestalt (1)
- Finanzberatung (1)
- Finanzpolitik (1)
- Fire (1)
- Firewall (1)
- Fiskalische Kosten (1)
- Fiskalpolitik (1)
- Flow-Erlebnis (1)
- Flowing Inland Waters (1)
- Flugbegleiter (1)
- Flugkörper (1)
- Fluid Simulation (1)
- Fluid dynamics (1)
- Fluiddynamik (1)
- Fluidsimulation (1)
- Flächenmodell (1)
- Flächennutzung (1)
- Flächennutzungskonkurrenz (1)
- Foils <Programm> (1)
- Folgenanreize (1)
- Folie (1)
- Forensik (1)
- Forschungslandkarte (1)
- Forschungsprojekt KMU 2.0 (1)
- Forsterschließung (1)
- Forstwirtschaft (1)
- Foucault, Michel (1)
- Fourier (1)
- Fracturing (1)
- Fragebogen (1)
- Fragmentshader (1)
- Frame-Semantik (1)
- Framework <Informatik> (1)
- Frameworks (1)
- Französisch (1)
- Französisch als L1 (1)
- Französisch als L2 (1)
- Französischunterricht (1)
- Freedom House (1)
- Frei Programmierbares Kombinationsinstrument (1)
- Freiheitsgrad (1)
- Freilandlabor (1)
- Fremddeutung (1)
- Fremdeinschätzung (1)
- Fremdsprachenlernen (1)
- Fresnel (1)
- Fritz Schütze (1)
- Frühpädagogik (1)
- Fungicide (1)
- Fungizid (1)
- Funkerkennung (1)
- Funknetzwerk (1)
- Funktionelle NMR-Tomographie (1)
- Funktionelle Störung (1)
- Fusarium spp. (1)
- Fusion (1)
- Fußballschuhe (1)
- Fähigkeitsselbstkonzept (1)
- Föderiertes System (1)
- Förderschule (1)
- Förderschwerpunkt geistige Entwicklung (1)
- Förderung (1)
- Führung durch Selbstführung (1)
- Führungskraft (1)
- Führungskräfteentwicklung, Selbstwirksamkeit, Situational Judgment Test (1)
- Führungskultur (1)
- Führungstheorie (1)
- GC-MS (1)
- GIRT (1)
- GIS (1)
- GMI-Controlling (1)
- GPGPU-Programmierung (1)
- GPU - Raycasting (1)
- GPU Programmierung (1)
- GPU basiert (1)
- GPU-Programmierung (1)
- GReQL 2 (1)
- GReTL (1)
- GUPRO (1)
- Game Design (1)
- Gamebased (1)
- Gamebasiertheit (1)
- Ganzheitlichkeit (1)
- Gaps (1)
- Gatekeeper (1)
- Gaze-Tracking (1)
- Gebrauchsgraphik (1)
- Gebrauchstauglichkeit (1)
- Geburt (1)
- Geburtshaus (1)
- Gebäudemodelle (1)
- Gedächtnis (1)
- Gegenstandsanreize (1)
- Geistige Behinderung (1)
- Geländemodell (1)
- Gemeinsame Außen- und Sicherheitspolitik (GASP) (1)
- Gemeinschaftlicher Besitzstand (1)
- Genealogie (1)
- Generation Z (1)
- Generative Modellierung (1)
- Geodaten (1)
- Geoinformation (1)
- Geoinformationssysteme (1)
- Geometrie-Shader (1)
- Geometriedidaktik (1)
- Geometry (1)
- Geometry-Shader (1)
- Geometryshader (1)
- Geomorphologie (1)
- Geothermie (1)
- Gerechtigkeit (1)
- Gerstner (1)
- Gesangverein (1)
- Geschlossene Unterbringung (1)
- Geschäftsmodell (1)
- Geschäftsmodellinnovation (1)
- Geschäftsprozessmodell (1)
- Geschäftsprozessmodellierung (1)
- Gesellschaft für Internationale Zusammenarbeit (GIZ) (1)
- Gespann (1)
- Gesprächsanalyse (1)
- Geste (1)
- Gesteninterpretation (1)
- Gesundheit (1)
- Gesundheitsbezogene Lebensqualität (1)
- Gesundheitskommunikation (1)
- Gesundheitswesen (1)
- Gewinnspiel (1)
- Gewinnspielsendung (1)
- Gewässer (1)
- Gewässerchemie (1)
- Gittererzeugung (1)
- Glaukom (1)
- Glint Center Estimation Algorithmus (1)
- Gonioreflectometer (1)
- Good Government (1)
- Gradientenanalyse (1)
- Grafik (1)
- Graph (1)
- GraphUML (1)
- Graphic novel (1)
- Graphikhardware (1)
- Graphpipes (1)
- Grundwasserfauna-Index (1)
- Grundwasserökologie (1)
- Gruppentherapie (1)
- Gupro (1)
- HDR-Bild (1)
- HDR-Bilder (1)
- HDR-Kamera (1)
- HNF-Algorithmus (1)
- HTML 5.0 (1)
- HZE (1)
- Habitat (1)
- Habitus (1)
- Halbleiter (1)
- Halbschatten (1)
- Haltung (1)
- Hambacher Fest (1)
- Handelsvertretung (1)
- Handlungsempfehlungen (1)
- Handlungskompetenz (1)
- Handlungsmuster (1)
- Handlungsorientierung (1)
- Handlungstheorie (1)
- Haptik (1)
- Hausgeburt (1)
- Haushaltspolitik (1)
- Headerdaten Netzwerkpaket SOCK_RAW SOCK_PACKET (1)
- Headtracking (1)
- Hebamme (1)
- Heidelberg Retina Tomograph (1)
- Heimerziehung (1)
- Herausforderung (1)
- Herausforderungen (1)
- Hermite-Normalform (1)
- Herzerkrankungen (1)
- Heuristiken (1)
- High-Traffic (1)
- Hilfe zur Erziehung (1)
- Hirschkäfer (1)
- Hirschzunge (1)
- Historisierung (1)
- Hochgeschwindigkeitstracking (1)
- Hochpräzise Volumenmessung (1)
- Hochschulbindung (1)
- Hochschuldidaktik (1)
- Hochschulorganisation (1)
- Hochschulpolitik (1)
- HoloLens (1)
- Holzhaus (1)
- Homeoffice (1)
- Hydrochemie (1)
- Hydrologie (1)
- Hyperspace-Modell (1)
- ICP-Algorithmus (1)
- IEC 61131 (1)
- IK-Algorithmus (1)
- IM-Systeme (1)
- IP 6 (1)
- IP-Adressen (1)
- IPTV (1)
- ISO 9001 (1)
- IT security analysis (1)
- IT-Risk-Management (1)
- IT-Sicherheitsmodelle (1)
- Idar-Oberstein (1)
- Identifikation (1)
- Immanuel Kant (1)
- Implizite Oberfläche (1)
- InFO (1)
- India (1)
- Indien (1)
- Indirekte Beleuchtung (1)
- Individualisierung (1)
- Individualisierung von Lernwegen (1)
- Individualized Learning (1)
- Individuelle Computermodelle (1)
- Individuelle Förderung (1)
- Inflation (1)
- Infobroker (1)
- Informatikunterricht (1)
- Information (1)
- Information Supply Chain (1)
- Information Visualization (1)
- Information-Retrieval (1)
- Informationsmanagementsystem (1)
- Informationstheorie (1)
- Informationsverarbeitung (1)
- Informationsverlinkung (1)
- Informel (1)
- Informelle Pflege (1)
- Informetrie (1)
- Innenarchitektur (1)
- Innerbetriebliche Kommunikation (1)
- InstaHub (1)
- Instruktionspsychologie (1)
- Instrumentalismus (1)
- Integration in der SEK II (1)
- Integrierte Lernumgebung (1)
- Integriertes Informationssystem (1)
- Interactive Visualizations (1)
- Interactive engagement (1)
- Interaktionselemente (1)
- Interaktive Visualisierungen (1)
- Interaktives Fernsehen (1)
- Interaktives Quiz (1)
- Interaktives Whiteboard (1)
- Interdisziplinarität (1)
- Interferenz <Linguistik> (1)
- Interimsprache (1)
- Interior Gateway Protokoll (1)
- Internationaler Währungsfonds (IWF) (1)
- Internetregulierung (1)
- Internetworking (1)
- Interoperabilität (1)
- Interpersonale Kommunikation (1)
- Interpretierer (1)
- Intervention (1)
- Intranet-Zugang (1)
- Invarianzmessung (1)
- Inverse Kinematik (1)
- Inverses Modell (1)
- Irak Krieg (1)
- Iran (1)
- Islam (1)
- Iterative Closest Points (1)
- Iterative Dual Correspondences (1)
- J2EE (1)
- J2ME (1)
- JCryp-Tool (1)
- JGraLab (1)
- JGraph (1)
- Jabber (1)
- Jabber <Programm> (1)
- Jakob Heinrich Lützel (1)
- Java-Quelltext (1)
- JavaScript (1)
- Johann Ludwig Dacqué (1)
- Johann Schwager (1)
- John Dewey (1)
- Join (1)
- Jubiläum (1)
- Judentum (1)
- Jugendamt (1)
- Jump'n Run-Spiel (1)
- Jungunternehmen (1)
- Just-in-Time Teaching (1)
- Jüdisch (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- KI-Strategie (1)
- KONECS (1)
- KPI (1)
- KSAO (1)
- Kabel (1)
- Kalibrieren <Messtechnik> (1)
- Kamera Pose Tracking (1)
- Kamerakalibrierung (1)
- Kant, Immanuel (1)
- Karriere (1)
- Karrierefaktor (1)
- Karst (1)
- Karstgrundwasserleiter (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kartographie (1)
- Katadioptrisches Stereosystem (1)
- Katastrophenschutz (1)
- Kausalanalyse (1)
- Kennzahl (1)
- Kindheit (1)
- Kinect (1)
- Kirk-Coleman-Modell (1)
- Klassifikationsframework (1)
- Klassische Musik (1)
- Klausellogik (1)
- Kleine und mittlere Unternehmen (1)
- Kletterer (1)
- Klimaerwärmung (1)
- Klimaänderung (1)
- Klingenmünster (1)
- Klinische Psychologie (1)
- Kluftgrundwasserleiter (1)
- Knieverletzungen (1)
- Knowledge Compilation (1)
- Knowledge Graph (1)
- Kognitiv-behaviorale Gruppentherapie (1)
- Kognitive Verhaltenstherapie (1)
- Kohärenz (1)
- Kohärenzanalyse (1)
- Kolb-Test (1)
- Kollaboration (1)
- Kollaborationsplattform (1)
- Kollisionserkennung (1)
- Koloskopie (1)
- Kommunikation (intern) (1)
- Kommunikationsprotokoll (1)
- Kommunikative Kompetenz (1)
- Kommunitarismus (1)
- Kompetenzdiagnostik (1)
- Kompetenzentwicklung (1)
- Kompetenzmessung (1)
- Komplexe Beeinträchtigungen (1)
- Komponentenanalyse (1)
- Kondertal (1)
- Konditionierungen (1)
- Konfliktfähigkeit (1)
- Konfliktkultur (1)
- Konstruieren (1)
- Kontextbezogener Dienst (1)
- Kontextorientierung (1)
- Kontiguität (1)
- Kontingenz (1)
- Kontinuität (1)
- Kontinuitätsmanagement (1)
- Kontrastlose Oberflächen (1)
- Kontrollerleben (1)
- Konzept der Eingebetteten Demokratie (1)
- Konzeption (1)
- Kookkurrenz (1)
- Kooperation (1)
- Kooperatives Informationssystem (1)
- Kooperatives Lernen (1)
- Kopenhagener Kriterien (1)
- Korruption (1)
- Korrutionsprävention (1)
- Kraftfahrzeug (1)
- Kran (1)
- Krankenhausinformationssystem (1)
- Krankheitsverarbeitung (1)
- Kreuzbandverletzung (1)
- Kriegsneurose (1)
- Krisenberichterstattung (1)
- Krisenmanagement (1)
- Kristallisation (1)
- Kriterien des Erfolgs von Organisationen (1)
- Kriterienkatalog (1)
- Kritisches Lebensereignis (1)
- Kubismus (1)
- Kulturelle Bildung (1)
- Kulturlandschaft (1)
- Kundendienst (1)
- Kundenmanagement (1)
- Kunst (1)
- Kunstgeschichte (1)
- Kunstpädagogik (1)
- Kunststoff (1)
- Körper (1)
- Körperproportionen (1)
- LIBS (1)
- LMX (1)
- Laacher See <Region> (1)
- Laie (1)
- Landschaftsebene (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Landwirtschaft (1)
- Laser (1)
- Lastenheft (1)
- Laugung (1)
- Laura Mulvey (1)
- Layout (1)
- Layout <Mikroelektronik> (1)
- Leap-Motion (1)
- Lebensbewältigung (1)
- Lebensmittelabfall (1)
- Lebensmittelabfälle (1)
- Lebensmittelallergie (1)
- Lebensqualität (1)
- Lebensraumqualität (1)
- Lehr-Lern-Forschung (1)
- Lehrer (1)
- Lehrerprofessionalisierung (1)
- Leiblich-Affektiv (1)
- Leiblichkeit (1)
- Leistungsbeurteilung (1)
- Leistungsmessung (1)
- Leistungsmotivation (1)
- Leitstandmodul (1)
- Lenkassistenzsystem (1)
- Lenkung (1)
- Lernerfolg (1)
- Lernerorientierte Qualitätstestierung (LQW) (1)
- Lernklima (1)
- Lernkontext (1)
- Lernmaterial (1)
- Lernort (1)
- Lernortlandschaft (1)
- Lernpsychologie (1)
- Lernsoftware (1)
- Lernspiel (1)
- Lernstation (1)
- Lernstilanalysen (1)
- Lernumgebung (1)
- Lernumwelt (1)
- Lernzirkel (1)
- LexLearn (1)
- Lexikon (1)
- Liaison (1)
- Lichttransport (1)
- Lied (1)
- Liedbearbeitungen (1)
- Light Injection (1)
- Limnologie (1)
- Linguistik (1)
- Linguistische Gesprächsanalyse (1)
- Linienkorrelationen (1)
- Linking of Information (1)
- Linux (1)
- Literaturrecherche (1)
- Literaturwissenschaft (1)
- Lockergesteinleiter (1)
- Logging (1)
- Lokale Bildmerkmale (1)
- Lokalisierung (1)
- Lookup-Algorithmen (1)
- Lucanus cervus (1)
- Ludwig Heydenreich (1)
- Lumbago (1)
- Lumbalgie (1)
- Lumbar Spine (1)
- Lunaria (1)
- Ländliche Entwicklung (1)
- Ländliche Räume (1)
- Ländliche Siedlung (1)
- Ländlicher Raum (1)
- Längsschnittuntersuchung (1)
- MBS Model (1)
- MKS (1)
- MKS-Simulation (1)
- MMORPG (1)
- MP3 Player (1)
- MTASC (1)
- Machine Learning (1)
- Macro Financial Assistance Programs (1)
- Mail-Filter (1)
- Makrofinanzielle Unterstützungsprogramme (1)
- Makrozoobenthos (1)
- Malen (1)
- Mammographie (1)
- Mann-Whitney (1)
- Manöver-Visualisierung (1)
- Markerfunktion (1)
- Marketing (1)
- Markov Zufallsfelder (1)
- Marktanalyse (1)
- Markusevangelium (1)
- Massenkommunikation (1)
- Massenspektrometrie (1)
- Master (1)
- Masterstudiengang (1)
- Matching-Verfahren (1)
- Matchingverfahren (1)
- Material Culture (1)
- Material Point Method (1)
- Material point method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Mathematik (1)
- Matting (1)
- Maya (1)
- Media Asset Management (1)
- Medialität (1)
- Mediator (1)
- Medien (1)
- Mediengewalt (1)
- Mediennutzung (1)
- Medienphilosophie (1)
- Medienpsychologie (1)
- Medienpädagogik (1)
- Medientheorie (1)
- Medienwirkung (1)
- Medium (1)
- Medizinische Bildverarbeitung (1)
- Medizintechnik (1)
- Mehragentensystem (1)
- Mehrbenutzer-Annotationssystem (1)
- Mehrebenenanalyse (1)
- Mehrkörpersystem (1)
- Mehrkörpersysteme (1)
- Mehrprozessorsystem (1)
- Meliorismus (1)
- Mensch-Maschine-Schnittstelle (1)
- Menschen mit Lernschwierigkeiten (1)
- Menschenmengen-Evakuierung (1)
- Mentalität (1)
- Merkmal (1)
- Merkmalsbewertung (1)
- Merkmalsmanagement (1)
- Merkmalssynthese (1)
- Mesofauna (1)
- Mesophiler Laubwald (1)
- Messung (1)
- Messung der Ökoeffizienz (1)
- Meteor (1)
- Methodenvergleich (1)
- Metric based Icp (1)
- Mezzanine-Finanzierung (1)
- Micro Finance (1)
- Migration (1)
- Mikroanalytisches Modell (1)
- Mikroanalytisches Simulationsmodell (1)
- Mikrosensus (1)
- Mikrosimulationsmodell (1)
- Mikroskopische Objekte (1)
- Mikrozensus (1)
- Mind Maps (1)
- Mindestlohn (1)
- Minimum wage (1)
- Minsker Abkommen (1)
- Missionarin (1)
- Misskonzepte (1)
- Mitarbeiterzufriedenheit (1)
- Mitgefühl (1)
- Mittelstand (1)
- Mixed Methods (1)
- Mixed Reality (1)
- Mobile Arbeit (1)
- Mobile BI (1)
- Mobile Business Intelligence (1)
- Mobile Commerce (1)
- Mobile Health (1)
- Mobile Kommunikation (1)
- Mobile Parking (1)
- Mobile Payment (1)
- Mobile Roboter (1)
- Mobile Robots (1)
- Mobile Ticketing (1)
- MobileFacets System (1)
- Mobiler Roboter (1)
- Mobiles Informatinssystem (1)
- Mobiles Multiplayerspiel (1)
- Mobiles Umfeld (1)
- Mobilkommunikation (1)
- Mobiltelefon (1)
- Model View Presenter (1)
- Modellfahrzeug (1)
- Modellierungskompetenz (1)
- Modellierungstool (1)
- Modellierungswerkzeug (1)
- Modellprojekt PSB NIERE (1)
- Moderierte Diskussionen (1)
- Modeschmuck (1)
- Modul (1)
- Modulare Softwarearchitektur (1)
- Modulares Softwaresystem (1)
- Modulhandbuch (1)
- Modulnetze (1)
- Montage (1)
- Montageablauf (1)
- Monte-Carlo-Simulation (1)
- Morphologie (1)
- Motion Sickness (1)
- Multi-Agenten-Simulation (1)
- Multiagentensystem (1)
- Multimediale Assets (1)
- Multiple somatoforme Symptome (1)
- Multitrait-Multimethod-Modelle (1)
- Multivariate Datenanalyse (1)
- Museums visitors (1)
- Museumsbesucher (1)
- Musik (1)
- Musiklehrendenforschung (1)
- Musikpädagogik (1)
- Musikunterricht (1)
- Musikverein (1)
- Musteranalyse (1)
- Myokard (1)
- Männerchor (1)
- NPO (1)
- NSSV (1)
- NURBS (1)
- Nachhaltigkeitsbericht (1)
- Nachrichtenwerttheorie (1)
- Nagios (1)
- Narrative Interviews (1)
- Narrativität (1)
- National Investigation Bodies (1)
- Nationalbewegung (1)
- Nationalsozialismus (1)
- Nato (1)
- Nato Globale Partner (1)
- Nato Response Force (1)
- Nato Transformation (1)
- Natronwasserglas (1)
- Natura 2000 (1)
- Natural Image Matting (1)
- Naturalismus (1)
- Naturpotential (1)
- Naturräumliche Gliederung (1)
- Naturschutz (1)
- Naturwissenschaftlicher Unterricht (1)
- Navier"Stokes equations (1)
- Navier-Stokes-Gleichungen (1)
- Neokonservative (1)
- Netlogo (1)
- Network Monitoring (1)
- Network Simulation (1)
- Network Virtualization (1)
- Networked Graphs (1)
- Netzhaut (1)
- Netzwerk Protokollen (1)
- Netzwerk Virtualisierung (1)
- Netzwerk kleiner und mittlerer Unternehmen (1)
- Netzwerkchip (1)
- Netzwerkmanagment (1)
- Netzwerkmonitoring (1)
- Netzwerkschicht (1)
- Netzwerktechnik (1)
- Netzwerküberwachung (1)
- Neurowissenschaften (1)
- Nicht-photorealistisches Rendering (1)
- Nintendo DS (1)
- Nintendo Wii Fernbedienung (1)
- Nonprofit-Organisation (1)
- Normentstehung (1)
- North Atlantic Treaty Organization - NATO (1)
- Notfall (1)
- Notfallmanagement (1)
- Notfallvorsorge (1)
- Nutzen (1)
- Nutzen Condition Monitoring (1)
- Nutzerzufriedenheit (1)
- Nutzungsanalyse (1)
- Nutzungsrechte (1)
- Nvidia CUDA (1)
- OCR (1)
- ODRLv2 (1)
- OGRE (1)
- OMW (1)
- OSS (1)
- OWL (1)
- OWL <Informatik> (1)
- OWL-DL (1)
- Obama (1)
- Oberflächenabfluss (1)
- Oberflächenentwurf (1)
- Oberflächengestaltung (1)
- Oberflächenorientierung (1)
- Oberflächenstruktur (1)
- Objective-C (1)
- Objekterkennung (1)
- Objektorientierung (1)
- Octree Textur (1)
- Offener Innovationsprozess (1)
- Offensiver Neorealismus (1)
- Office-Prozess (1)
- Ohrgeräusch (1)
- Oktalbaum (1)
- Oktonärbäume (1)
- Olivenölproduktion (1)
- Online-Kommunikation (1)
- Online-Self-Assessment (1)
- Online-Überwachung (1)
- Onlinespiele (1)
- Onlinesucht (1)
- Onlinewahl (1)
- Ontologie <Wissensverarbeitung> (1)
- Ontology (1)
- Open Digital Rights Language (1)
- Open Innovation (1)
- Open Source 3D Graphics Engine (1)
- Open Source Software (1)
- OpenCL (1)
- OpenWrt (1)
- Operationsplanung (1)
- Opinion mining (1)
- Optimierung (1)
- Optimismus (1)
- Optische Messtechnik (1)
- Optische Zeichenerkennung (1)
- Optisches Mikroskop (1)
- Ordensfrau (1)
- Organisation für Sicherheit und Zusammenarbeit in Europa (OSZE) (1)
- Orientierungsstufe (1)
- Ornamentik (1)
- Ornamentklassifikation (1)
- Outsourcing (1)
- P2P (1)
- P3P (1)
- P3P-Policy-Generator (1)
- PACS- Picture Archiving (1)
- PBRT (1)
- PDA (1)
- PHP (1)
- Packet Header SOCK_RAW SOCK_PACKET (1)
- Panikstörung (1)
- Paniksyndrom (1)
- Par (1)
- Parallelmanipulator (1)
- Parkinsonismus (1)
- Parkinsonsyndrom (1)
- Parteienkommunikation (1)
- Partikel (1)
- Partikelsimulation (1)
- Partizipation (1)
- Partnerschaft (1)
- Path transformation (1)
- Pathtracing (1)
- Perfluorcarbonsäuren (1)
- Perinatalbogen (1)
- Personal Key Infrastruktur (1)
- Personalentwicklung (1)
- Personenidentifizierung (1)
- Personentracking (1)
- Personenverfolgungssystem (1)
- Pestizide (1)
- Petri-Netz (1)
- Petri-Netz-Theorie (1)
- Petrus (1)
- Pfadtransformation (1)
- Pflegebedürftigkeit (1)
- Pflegedienst (1)
- Pflichtenheft (1)
- Phantom Omni (1)
- Philipp Walter (1)
- Philosophie (1)
- Photogrammetrie Kalibrierung EMVA-1288 (1)
- Photogrammetry (1)
- Photovoltaik (1)
- Physik (1)
- Physikalische Therapie (1)
- Physikengine (1)
- Phytophthora infestans (1)
- Planspiegel-System (1)
- Planspiel 2.0 (1)
- Plugin (1)
- Politische Kampagne (1)
- Politische Kommunikation (1)
- Politische Meinungsbildung (1)
- Politische Steuerung (1)
- Politisches und Sicherheitspolitisches Komitee (PSK) (1)
- Politolinguistik (1)
- Pollenanalyse (1)
- Polymere (1)
- Polypendetektion (1)
- Polystichum (1)
- Population (1)
- Portfolio <Pädagogik> (1)
- Portfolioarbeit (1)
- Pose (1)
- Posebestimmung (1)
- Poser analysis (1)
- Poser-Analyse (1)
- Poseschätzung (1)
- Position Based Dynamics (1)
- Positionierung (1)
- Positionsbestimmung (1)
- Positive Peer Culture (1)
- PostgreSQL (1)
- Potenzialfeld (1)
- Power Law (1)
- Pragmatismus (1)
- Pragmatizismus (1)
- Praktikant (1)
- Praktikum (1)
- Praktikumsbegleitung (1)
- Praxiswissen (1)
- Pre-Integration (1)
- Predictive Maintenance (1)
- Preemptive strike (1)
- Preisbildung (1)
- Prevention (1)
- Primarstufe (1)
- Primus (1)
- Primzahl (1)
- Primzahlen (1)
- Privacy (1)
- Privacy Competence Model (1)
- Privatvermögen (1)
- Problemlösekompetenz (1)
- Problemlösen (1)
- Professionalisierung (1)
- Programmanalyse (1)
- Programmiergerät (1)
- Programmiersprache (1)
- Programmiersprachen (1)
- Programmierumgebung (1)
- Projekt iCity (1)
- Projektlernen (1)
- Projektpraktikum (1)
- Projektunterricht (1)
- Propositional Logic (1)
- Protocol (1)
- Prototyp (1)
- Prototype (1)
- Prozessanalyse (1)
- Prozessanalyse <Prozessmanagement> (1)
- Prozesskette (1)
- Prädikatenlogik (1)
- Prädiktor (1)
- Präkonzepte (1)
- Präliminarienartikel (1)
- Präsentation (1)
- Prävention (1)
- Präventivmedizin (1)
- Psychiatrie (1)
- Psychische Erkrankungen (1)
- Psychische Störung (1)
- Psychohygiene (1)
- Psychosomatische Störung (1)
- Psychosoziale Begleitung (1)
- Psychotherapie (1)
- Public-Key-Infrastruktur (1)
- Pulsweitenmodulation (1)
- Punktkorrelationen (1)
- Punktrendering (1)
- Pupil Center Estimation Algorithmus (1)
- Qt/C++ (1)
- Qualitative Inhaltsanalyse (1)
- Qualitätsdimensionen (1)
- Qualitätsmanagement (1)
- Qualitätsmerkmale (1)
- Qualitätsmodell (1)
- Quantitative Inhaltsanalyse (1)
- Quantitative Untersuchung (1)
- Quelle <Hydrologie> (1)
- Quellen (1)
- Quellfauna (1)
- Quelltypen (1)
- RCP (1)
- RCT (1)
- RDMT (1)
- RFCO (1)
- RIP-MTI Algorithmus (1)
- RIP-XT (1)
- RIPng (1)
- RMIS (1)
- Radiales System (1)
- Radiosity (1)
- Rahmenmodell (1)
- Railway Diagnostics & Monitoring Technologies (1)
- Ralf Schauf (1)
- Raman-Spektroskopie (1)
- Randomisierte kontrollierte Therapieevaluation (1)
- Randstreifen (1)
- Rangtest (1)
- Rat der Europäischen Union (1)
- Ratgeber (1)
- Rationalität (1)
- Raumplanung (1)
- Ray Tracer (1)
- Ray Tracing (1)
- Ray casting (1)
- Ray-Casting (1)
- ReMiP (1)
- Real-time computing (1)
- Realistisches Kameramodell (1)
- Rechtemanagement (1)
- Reengineering (1)
- Referenzmetamodell (1)
- Reflexionsprozesse (1)
- Regieren (1)
- Regionalbanken (1)
- Register (1)
- Regler (1)
- Regression (1)
- Regulierung (1)
- Rehabilitation (1)
- Reisedokument (1)
- Rekonstruktion (1)
- Rekonstruktion (der Philosophie) (1)
- Relationale Datenbank (1)
- Relationales Datenbanksystem (1)
- Relativitätstheorie (1)
- Repast (1)
- Repräsentation (1)
- Requirement-Engineering (1)
- Requirements-Engineering (1)
- Rescue League (1)
- Rescue Robots (1)
- Rescueanalyser (1)
- Research Map (1)
- Response-Shift (1)
- Responsible Research and Innovation (1)
- Restrukturierung (1)
- Retinex-Algorithmus (1)
- Reverberation (1)
- Revolution <1848> (1)
- Revolution in military affairs (1)
- Rheingau-Taunus-Kreis (1)
- Rheinland-Pfalz (1)
- Rich Internet Application (1)
- Rieselmassen (1)
- Risiko (1)
- Risiko- und Schutzfaktoren (1)
- Risiko-Beurteilung (1)
- Risiko-Minimierung (1)
- Risikomanagement-Informationssysteme (1)
- Risikominderungsmaßnahmen (1)
- Risk (1)
- Riss (1)
- Rissmusteranalyse (1)
- Robbie (1)
- Robert P. Abelson (1)
- RoboCup Rescue (1)
- Roboter (1)
- Robotersystem (1)
- Rollstuhlbasketball (1)
- Route Aggregation (1)
- Route Planning (1)
- Routen-Aggregation (1)
- Routenplanung (1)
- Router-based Flow Control Ontology (1)
- Routing Information Protocol (1)
- Routing information protocol (1)
- Routing- und Forwarding Tabellen (1)
- Routing-Loop (1)
- RuneScape (1)
- Runoff (1)
- Rückfahrkamera (1)
- Rückwärtsfahrt (1)
- SAC (1)
- SIFT-Algorithmus (1)
- SIFT-Merkmale (1)
- SIFT-Verfahren (1)
- SIMD (1)
- SNMP (1)
- SOA (1)
- SOA-Webservice (1)
- SOAMIG (1)
- SOK-Modell (1)
- SOMA (1)
- STOR (1)
- STP (1)
- SURF-Algorithmus (1)
- SVG (1)
- Sales Ageny (1)
- Salm (1)
- Sand (1)
- Sanktionen der EU (1)
- Scaffolding (1)
- Scanmatching (1)
- Scheidung (1)
- Scheidungsfolgen (1)
- Schlaf (1)
- Schlaganfall (1)
- Schlauch (1)
- Schleifenerkennung (1)
- Schmerz (1)
- Schmerzbewältigung (1)
- Schmerztherapie (1)
- Schmerzveränderung (1)
- Schmucktheorie (1)
- Schnee (1)
- Schnelle Faltung (1)
- Schottland (1)
- Schreibdidaktik (1)
- Schreibprozess (1)
- Schrifttheorie (1)
- Schule (1)
- Schulklima (1)
- Schulleitung (1)
- Schutzprofil (1)
- Schwachstellen (1)
- Schwangerschaft (1)
- Schülerwahrnehmungen (1)
- Second Life (1)
- Security (1)
- Selbstbild (1)
- Selbstdeutung (1)
- Selbsteinschätzung (1)
- Selbstführung (1)
- Selbstführungskompetenz (1)
- Selbsthilfe (1)
- Selbstkonzept (1)
- Selbstmanagement (1)
- Selbstmitgefühl (1)
- Selbstmord (1)
- Selbsttötung (1)
- Selbstwert (1)
- Self-help (1)
- Semantisches Wiki (1)
- Semiotik (1)
- Sensor (1)
- Sensorensteuerung (1)
- Separating-Axis-Theorem (1)
- Serdar Ayalp (1)
- Serielle Schnittstelle (1)
- Serigrafie (1)
- Service (1)
- Service Oriented Architecture (1)
- Service-Oriented Architectures (SOA) (1)
- Service-Qualität (1)
- Serviceorientierte Architektur (1)
- Servicepersonal (1)
- Serviceroboter (1)
- Sesame (1)
- Sexualisierung (1)
- Shaderframework (1)
- Shaderhochsprache (1)
- Shaderprogramm (1)
- Shared Annotation Model (1)
- Shared Annotations (1)
- Shattering (1)
- Sich langsam verändernde Dimensionen (1)
- Sicherheitsanforderungen (1)
- Simulations-Wiki (1)
- Situationales Interesse (1)
- Situiertes Lernen (1)
- Skepsis (1)
- Skeptizismus (1)
- Skript (1)
- Skript <Programm> (1)
- Skriptsprache (1)
- Slowly Changing Dimensions (1)
- SocSimNet (1)
- Social Network Analysis (1)
- Socket (1)
- Socket-Schnittstelle (1)
- Software Engineering (1)
- Software- Ergonomie (1)
- Software-Customizing (1)
- Softwareentwicklung (1)
- Softwareentwurf (1)
- Softwaremodellierung (1)
- Softwarespezifikation (1)
- Solarzelle (1)
- Somatoform disorder (1)
- Somatoform symptoms (1)
- Somatoforme Störung (1)
- Somatoforme Störungen (1)
- Sonorisierung (1)
- Sozialarbeit (1)
- Soziale Netzwerke (1)
- Soziale Online Systeme (1)
- Sozialgericht (1)
- Sozialkompetenz (1)
- Sozialkonstruktivismus (1)
- Sozialwissenschaftliche Methodenlehre (1)
- Soziologie (1)
- Soziooekonomisches Panel (1)
- Spam-Mail (1)
- Spannender Baum (1)
- Spanning Tree (1)
- Spaß (1)
- Spektroskopie (1)
- Spielarten des Kapitalismus (1)
- Spieleentwicklung (1)
- Spiritualität (1)
- SpoGa (1)
- Sports (1)
- Sportverletzung (1)
- Sprachkompetenz (1)
- Sprachliche Handlungsmuster (1)
- Sprachspielkompetenz (1)
- Sprachtheorie (1)
- Sprachverarbeitung (1)
- Sprechtherapie (1)
- St. Goar (1)
- St. Goarshausen (1)
- Staat (1)
- Staatsschuldenkrise (1)
- Stadt (1)
- Stadtmodelle (1)
- Stakeholder (1)
- Stakeholder-Beteiligung (1)
- Stakeholderanalyse (1)
- Standortanalyse (1)
- Standortbestimmung (1)
- Startups (1)
- State (1)
- Statische Analyse (1)
- Statistics , Social Science Methods (1)
- Statistik (1)
- Statistische Analyse (1)
- Statistische Versuchsplanung (1)
- Staukontrollmechanismen (1)
- Stereobildfolgen (1)
- Stereografie (1)
- Stereoskopie (1)
- Sterne (1)
- Steuerung (1)
- Stewart-Plattform (1)
- Stilisierung (1)
- Stollendesign (1)
- Stomp (1)
- Strategie (1)
- Strategy (1)
- Stresstheorien (1)
- Struktur (1)
- Studienanfänger (1)
- Studiengang (1)
- Studienleistung (1)
- Studium (1)
- Stygofauna (1)
- Stygoregion (1)
- Suat Algin (1)
- Subjektbildung (1)
- Subsurface Scattering (1)
- Suchmaschine (1)
- Supernetting (1)
- Symbolischer Interaktionismus (1)
- Symboltheorie (1)
- Syntax (1)
- System Dynamics (1)
- Systemanalyse (1)
- Systemische Beratung (1)
- Systemtheorie (1)
- Szeneneditor (1)
- Szenengraph (1)
- Sängerfest (1)
- Südpfalz (1)
- TCP/IP (1)
- TESiOH (1)
- TGraphen (1)
- TQM (1)
- TRIZ (1)
- TSK <Test> (1)
- TV debates (1)
- TV-Duelle (1)
- Tableau <Logik> (1)
- Tageslichtprojektor (1)
- Taktstraße (1)
- Tanzspiel (1)
- Tarrain Klassifikation (1)
- Tastatur (1)
- Tastatureingabeverhalten (1)
- Taxonomie (1)
- Teamteaching (1)
- Technikfolgenabschätzung (1)
- Technikgeschichte (1)
- Technologiefrüherkennung (1)
- Technology Acceptance Model (1)
- Technology Management (1)
- Teilregime und Indikatoren (1)
- Telearbeit (1)
- Telemedizin (1)
- Temperaturmessung (1)
- Temperaturpräferenzen (1)
- Templerhaus (1)
- Temporale Datenhaltung (1)
- Terme (1)
- Tesseract (1)
- Text-Bild-Integration (1)
- Textaufgaben (1)
- Textlinguistik (1)
- Textur (1)
- Texturierung (1)
- Textverstehen (1)
- Theater (1)
- Theorem des Demokratischen Friedens (1)
- Therapieerfolg (1)
- Thunderbird <Programm> (1)
- Tiefenbild (1)
- Tiefenkarte (1)
- Tod (1)
- Ton (1)
- Tone Mapping (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tonemapping (1)
- Tonemapping-Verfahren (1)
- Top-Management (1)
- Total Quality Management (1)
- Touchscreen (1)
- Tourism (1)
- Trackingsystem (1)
- Trait (1)
- Trajektorien (1)
- Traktions-Testgerät (1)
- Transaction concept (1)
- Transaktion (1)
- Transaktionskonzept (1)
- Transfer function (1)
- Transition (1)
- Transkranielle Elektrostimulation (1)
- Translation (1)
- Transportschicht (1)
- Trauer (1)
- Triangulierung (1)
- Triangulierungsverfahren (1)
- Tundish (1)
- Tätigkeitsanreize (1)
- UML (1)
- UML Activity Diagrams (1)
- UML Aktivitätsdiagramm (1)
- URM (1)
- USA (1)
- USARSim (1)
- USB (1)
- Ubuntu (1)
- Uferfiltration (1)
- Uferrandstreifen (1)
- Ultrakurze Pulse (1)
- Ultraschall (1)
- Umgebungslicht (1)
- Umweltkontrolle (Selbstgestal- tungen, Regulierungen von Stressoren, soziale Kont rolle), Wohlbefinden, Lern- und Arbeitsleistung, Sozialverhalten (1)
- Umweltleistungsbewertung (1)
- Umweltqualität (1)
- Unfallkostenberechnung (1)
- Ungarische Methode (1)
- Uniforme Raumunterteilung (1)
- United Internet AG (1)
- Universitäre Lehrveranstaltung (1)
- Universitätsbibliothek (1)
- Unterhaltung (1)
- Unternehmensarchitektur (1)
- Unternehmenserfolg (1)
- Unternehmensflexibilität (1)
- Unternehmensnetzwerke (1)
- Unterricht (1)
- Unterrichts-Klima-Instrument (1)
- Unterrichtsbeurteilung (1)
- Unterrichtsmaterial (1)
- Unterrichtsmethode (1)
- Unterrichtsmethoden (1)
- Untersuchungsmethode (1)
- Upper-Body/Lower-Body (1)
- Urteilerübereinstimmung (1)
- Urteilsgenauigkeit (1)
- User Interface (1)
- User-Needs Analysis (1)
- Uses and gratifications approach (1)
- VDE (1)
- VDE-Switch (1)
- VHDL (1)
- VLAN (1)
- VR (1)
- VST (1)
- VTP (1)
- Validierung (1)
- Validität (1)
- Varieties of Capitalism (1)
- Veranstaltung (1)
- Verantwortung (1)
- Verbindungsschicht (1)
- Verbraucherforschung (1)
- Vereinbarkeitsproblem (1)
- Vergleichende Politikwissenschaft (1)
- Verhaltensökonomie (1)
- Verhältnis Ukraine-Russland (1)
- Verhältnis der Ukraine zu Russland (1)
- Verkehrssprache (1)
- Verlaufskurvenanalyse (1)
- Verlust (1)
- Vermeidung (1)
- Vermittlung (1)
- Verortung (1)
- Versorgungspraxis (1)
- Verteilte Systeme (1)
- Vertex Buffer Object (1)
- Vertex Buffer Objekt (1)
- Vertrag über die Arbeitsweise der Europäischen Union (1)
- Verwaltungsautomation (1)
- Very High Readiness Joint Task Foce (1)
- Veränderung von Vorstellungen (1)
- Video (1)
- Video-Installation (1)
- Videodiagnosetool ViviAn (1)
- Videospiel (1)
- Videospiele (1)
- Videospielentwicklung (1)
- Videoübertragung (1)
- Virtual Networks (1)
- Virtual Square (1)
- Virtual network user mode Linux (1)
- Virtualisation (1)
- Virtuelle Menschen (1)
- Virtuelle Teams (1)
- Virtuelle Welten (1)
- Virtuelle Zusammenarbeit (1)
- Virtuelle Ökonomien (1)
- Virtueller Raum (1)
- Virtuelles Netz (1)
- Visualisierungstechniken (1)
- Visuelle Installation (1)
- Visuelle Kommunikation (1)
- Visuelle Odometrie (1)
- Volume Raycasting (1)
- Volume Rendering (1)
- Volumenmodell (1)
- Volumenvisualisierung (1)
- Voluntarismus (1)
- Vorausschauende Instandhaltung (1)
- Vorbeugung (1)
- Vorliebe (1)
- Vorschulkinder (1)
- Vorsorge (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Voxelisierung (1)
- W-LAN (1)
- Wachstum (1)
- Wagenschein (1)
- Wahl- und Einstellungsforschung (1)
- Waist-to-Hip-Ratio (1)
- Waist-to-Shoulder-Ratio (1)
- Water Surface Temperature (1)
- Wayside Train Monitoring Systems (1)
- Web 2.0- basierte Stakeholderplattform (1)
- Web Analytics (1)
- Web Services (1)
- Web3D (1)
- Webanwendung (1)
- Webseiten (1)
- Webserver (1)
- Webservice Sail (1)
- Wegebau (1)
- Weibliches Publikum (1)
- Weinbau (1)
- Weiterbildung (1)
- Weiterbildungsverhalten (1)
- Weiterentwicklung (1)
- Wellen (1)
- Weltbild (1)
- Weltkrieg <1939-1945> (1)
- Werbeform (1)
- Werbung (1)
- Wertschöpfungskette (1)
- Wiederhall (1)
- Wii-Balance Board (1)
- Wii-Kamera (1)
- Wilcoxon-Rangsummentest (1)
- Will Eisner (1)
- William James (1)
- Windtunnel (1)
- Wirbelsäule (1)
- Wireless Sensor Networks (1)
- Wireshark (1)
- Wirkfaktor (1)
- Wirkfaktoren (1)
- Wirksamkeit (1)
- Wirtschaftsprojekt (1)
- Wissenselemente (1)
- Wissenskompilation (1)
- Wissensmanagement (1)
- Wissensvermittlung (1)
- Wohlbefinden (1)
- Wohlfahrtspflege (1)
- Wolkensimulation (1)
- Workflow (1)
- World Wide Web 2.0 (1)
- Writing Conference (1)
- Wärme (1)
- Wäschereibranche (1)
- X-Cosim (1)
- XML-Dokument (1)
- XMPP (1)
- XSD (1)
- XTpeer (1)
- Xcode (1)
- YAWL (1)
- Zeichentheorie (1)
- Zeichentrick (1)
- Zeichentrickfilm (1)
- Zeichnen (1)
- Zerbrechen (1)
- Zero (1)
- Ziel (1)
- Zifferndarstellung (1)
- Zirkumskription (1)
- Zoll (1)
- Zufriedenheit (1)
- Zugang (1)
- Zukunftsszenario (1)
- Zusammenarbeit (1)
- Zuständigkeiten der EU (1)
- Zuwanderung (1)
- Zwangssterilisation (1)
- Zweiter Weltkrieg (1)
- accelerometer (1)
- achievement assessment (1)
- activation functions of neurons (1)
- adaptiv (1)
- adaptiver Unterricht (1)
- adhesion (1)
- advertisements (1)
- agent (1)
- agent-based model (1)
- agentenbasierte Modellierung (1)
- agriculture (1)
- alternative fromeworks (1)
- ambulante Pflege (1)
- amtliche Haushaltsbefragungen (1)
- andLinux (1)
- andLinux. (1)
- android (1)
- anthropogener Wärmeeintrag (1)
- area light (1)
- argumentation (1)
- art deco (1)
- art nouveau (1)
- artifcial neural networks (1)
- assertive multilateralism (1)
- assessment (1)
- assignment-based philosophy (1)
- attitude (1)
- auditorischer Neglekt (1)
- augmented reality (1)
- automatisierte Videoüberwachung (1)
- bachelor (1)
- bacteria (1)
- bank filtration (1)
- behavior of employers (1)
- biofilm (1)
- biogeography (1)
- bioindicator (1)
- biomass (1)
- biomechanics (1)
- bioreactor (1)
- buffer strips (1)
- buffer zones (1)
- burnout (1)
- business process (1)
- camera calibration (1)
- care (1)
- climate change (1)
- co-occurrence (1)
- cognitive load (1)
- cognitive-behavioral therapy (1)
- collaboration plattform (1)
- communication competency (1)
- competence-development (1)
- competence-measurement (1)
- computer (1)
- computer clusters (1)
- computer games (1)
- conflicting information (1)
- contaminated sites (1)
- content analysis (1)
- context-sensitivity (1)
- contiguity (1)
- control beliefs (1)
- convergence analysis (1)
- costume jewellery (1)
- crowd evacuation (1)
- cubism (1)
- data-mining (1)
- database (1)
- depth map (1)
- deutschsprachiger Markt (1)
- development (1)
- diagnostische Kompetenz (1)
- diagram (1)
- dialogische Kommunikation (1)
- dialogisches Management (1)
- digital library (1)
- disability-adjusted life year (1)
- disparity map (1)
- dreidimensionale Computergraphik (1)
- dynamic geometry (1)
- dynamic programming (1)
- dynamic stability (1)
- e-ID (1)
- e-service quality (1)
- eGovernment (1)
- eGroupware (1)
- eID (1)
- ePA (1)
- ediv (1)
- educational achievement (1)
- educational aspirations (1)
- electricity (1)
- elektronische Anwendung (1)
- elektronische Anwendungen (1)
- emic-etic (1)
- energy (1)
- engine (1)
- ethnic conflicts (1)
- ethnische Konflikte (1)
- evaluation process (1)
- event (1)
- example (1)
- expectations (1)
- experiment (1)
- experimentelle Kompetenz (1)
- externe Repräsentationen (1)
- factor analysis (1)
- factorial invariance (1)
- fauna of springs (1)
- flight attendant (1)
- flow (1)
- football shoes (1)
- forest roads (1)
- fur rendering (1)
- gait (1)
- general purpose (1)
- geometry shader (1)
- gesundheitsgerechtes Führen (1)
- grUML (1)
- graphics card (1)
- groundwater ecology (1)
- groundwater-fauna-index (1)
- gälisch (1)
- health-related quality of life (1)
- heat exchanger (1)
- high-traffic (1)
- human resources management (1)
- humanistische Psychologie (1)
- hybride App (1)
- hydrochemistry (1)
- hydrogeology (1)
- hydrological interactions (1)
- hydrologische Interaktionen (1)
- hydrology (1)
- iOS (1)
- iOS 5 (1)
- iOS-SDK (1)
- iSearch (1)
- id card (1)
- identification of organization (1)
- image processing (1)
- inclusive education (1)
- indirect lighting (1)
- indirektes Licht (1)
- information flow regulation (1)
- information processing (1)
- inszeniertes Charisma (1)
- integration (1)
- interaction (1)
- interactive (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- java (1)
- jump'n run game (1)
- keltisch (1)
- keystroke biometric recognition (1)
- kollaboratives Lernen (1)
- kollaboratives Schreiben (1)
- konfligierende Information (1)
- kontext-reduzierte Gespräche (1)
- kooperatives Schreiben (1)
- land use (1)
- landscape level (1)
- laubassoziierter aquatischer Pilzgemeinschaften (1)
- leader (1)
- leader-member exchange (1)
- leadership (1)
- leaf-associated aquatic fungal communities (1)
- learning context (1)
- learning portfolio (1)
- legacy software (1)
- line space (1)
- linear (1)
- lineare Algebra (1)
- low back pain (1)
- macroinvertebrates (1)
- male gaze, (1)
- mann-whitney (1)
- markerless tracking (1)
- master (1)
- mathematical modeling (1)
- mathematics (1)
- mathematische Frühförderung (1)
- mathematische Kompetenz (1)
- mathematisches Modellieren (1)
- measurement of invariance (1)
- mechanism of action (1)
- medizinische Bilddaten (1)
- menschliches Auge (1)
- metasearch engine (1)
- methodical comparison (1)
- metrics (1)
- midwife (1)
- missionary (1)
- mobile phones (1)
- model (1)
- modeling (1)
- modeling competency (1)
- modellgetriebene Softwareentwicklung (1)
- module handbook (1)
- monitoring (1)
- morphology (1)
- motivation (1)
- movement (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- multikriterielles Bewertungssystem (1)
- multilevel analysis (1)
- multimediales Lernen (1)
- multiprocessing (1)
- multitrait-multimethod models (1)
- myAnnotations (1)
- nPA (1)
- nachhaltigkeitsorientierter Führungsstil (1)
- natural language processing (1)
- naturwissenschaftliche Konzepte (1)
- natürliche Sprache (1)
- nichtamtliche Haushaltsbefragungen (1)
- nun (1)
- object orientation (1)
- octree texture (1)
- offensive neorealism (1)
- official household surveys (1)
- olive oil mill wastewater (1)
- oncological rehabilitation (1)
- onkologische Rehabilitation (1)
- online survey (1)
- online-self-assessment (1)
- ontology (1)
- out-of-hospital birth (1)
- parallel algorithms (1)
- parallel computing (1)
- parents (1)
- pedagogy (1)
- perinatal (1)
- person (1)
- personality characteristics (1)
- personnel psychology (1)
- pesticide (1)
- pesticides (1)
- photovoltaic (1)
- physical interaction (1)
- physical therapy (1)
- physics education (1)
- physics simulation (1)
- physische Interaktion (1)
- politische Sprachverwendung (1)
- politolinguistische Lexikanalyse (1)
- politolinguistische Wahlprogrammanalyse der Alternative für Deutschland (1)
- polymer films (1)
- polyp detection (1)
- portfolio assessment (1)
- practical knowledge (1)
- predictor (1)
- pregnancy (1)
- primary care (1)
- primary school (1)
- privacy (1)
- privacy protection (1)
- problemhaltige Textaufgaben (1)
- projektives Malen (1)
- prozedural (1)
- psychisches Verhalten (1)
- psychological behavior (1)
- qualitativ-explorative empirische Studie (1)
- quality (1)
- quality adjusted life year (1)
- quality assurance (1)
- quantitativ (1)
- quasi-experimentelles Design (1)
- rainfall simulation (1)
- randomized controlled trial (1)
- rationality (1)
- ray casting (1)
- ray tracing (1)
- raycasting (1)
- raytracing (1)
- real-time computing (1)
- realtime physics (1)
- reference meta model (1)
- reflection (1)
- refraction (1)
- rehabilitation (1)
- relativity (1)
- reputation of company (1)
- resources (1)
- response-shift (1)
- revenue management (1)
- rigid body (1)
- rip (1)
- risk assessment (1)
- risk mitigation measures (1)
- rmti (1)
- rtx (1)
- schizophrene Frau (1)
- school (1)
- school principal (1)
- schottisch-gaelisch (1)
- schottische Lieder (1)
- scorecard (1)
- search engine (1)
- security (1)
- security requirements (1)
- selbstgenerierte Repräsentationen (1)
- self-concept (1)
- self-efficacy (1)
- sensor control (1)
- sensor data (1)
- shader (1)
- simulation of soil moisture (1)
- situational interest (1)
- situierte Beobachtung (1)
- snow (1)
- soccer (1)
- social competence (1)
- social networks (1)
- social system (1)
- soft shadow (1)
- soil erosion (1)
- somatoform disorders (1)
- soziale Konstruktion von Wirklichkeit (1)
- soziales System (1)
- spatial (1)
- special educational needs (1)
- speech (1)
- sport therapy (1)
- springs (1)
- stainless steel (1)
- standardized measure (1)
- stationäre Pflege (1)
- stereo vision (1)
- stereotracking (1)
- stress (1)
- structure (1)
- stud design (1)
- student portfolio (1)
- student ratings (1)
- stygofauna (1)
- surface energy (1)
- surface roughness (1)
- surface water (1)
- survey (1)
- syntaktische Analyse (1)
- taxonomy (1)
- teacher-education (1)
- teaching and learning research (1)
- teaching research (1)
- texturing (1)
- theoretical framework (1)
- therapy outcome (1)
- traction test device (1)
- traffic survey (1)
- transcultural (1)
- transform feedback (1)
- travel document (1)
- turn (1)
- unofficial household surveys (1)
- unternehmerische Eignungsmerkmale (1)
- usage-mining (1)
- validity (1)
- value of a statistical life (1)
- verbal interaction (1)
- verbale Interaktion (1)
- video game (1)
- videogames (1)
- virtual human (1)
- virtual network user mode linux (1)
- virtuelle Netze (1)
- visualization (1)
- visuell-räumlicher Neglekt (1)
- vnuml (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- vulkan (1)
- water surface (1)
- waves (1)
- wireworms (1)
- workload (1)
- xtpeer (1)
- Ärger (1)
- Ätiologie (1)
- Öffentliche Verwaltung (1)
- Öko-Effizienz (1)
- Ökoeffizienz (1)
- Österreich (1)
- Östliche Partnerschaft der EU (1)
- Übergang von der Grundschule zur weiterführenden Schule (1)
- Übersetzung (1)
- Überwachung (1)
- Überwachungstechnik (1)
- öffentlich-privat (1)
Institut
- Institut für Computervisualistik (282)
- Fachbereich 4 (182)
- Zentrale Einrichtungen (175)
- Institut für Wirtschafts- und Verwaltungsinformatik (94)
- Institut für Management (87)
- Institut für Informatik (62)
- Institut für Softwaretechnik (39)
- Fachbereich 8 (27)
- Fachbereich 5 (25)
- Fachbereich 7 (21)
Replikation einer Multi-Agenten-Simulationsumgebung zur Überprüfung auf Integrität und Konsistenz
(2012)
In dieser Master -Arbeit möchte ich zunächst eine Simulation vorstellen, mit der das Verhalten von Agenten untersucht wird, die in einer generierten Welt versuchen zu über leben und dazu einige Handlungsmöglichkeiten zur Auswahl haben. Anschließend werde ich kurz die theoretischen Aspekte beleuchten, welche hier zu Grunde liegen. Der Hauptteil meiner Arbeit ist meine Replikation einer Simulation, die von Andreas König im Jahr 2000 in Java angefertigt worden ist [Kö2000] . Ich werde hier seine Arbeit in stark verkürzter Form darstellen und anschließend auf meine eigene Entwicklung eingehen.
Im Schlussteil der Arbeit werde ich die Ergebnisse meiner Simulation mit denen von Andreas König vergleichen und die verwendeten Werkzeuge (Java und NetLogo) besprechen. Zum Abschluss werde ich in einem Fazit mein Vorhaben kurz zusammenfassen und berichten was sich umsetzen ließ, was nicht funktioniert hat und warum.
Standards haben längst Einzug in das Gebiet der Informatik gehalten. Verschiedenste Organisationen beschäftigen sich mit der Beschließung von Normen für die standardisierte Lösung von Problemen in der Informatik. Ein wichtiger Teilaspekt ist die Spezifizierung von Datenformaten, die die Interoperabilität von Programmen sichern kann. Dabei existieren viele verschiedene Schemasprachen, die auf unterschiedliche Anforderungen ausgelegt sind, und mit deren Hilfe die Menge der konformen Dokumente beschrieben werden kann. Die Kombination mehrerer Schemasprachen ist sinnvoll, da die Mächtigkeit einer Sprache oftmals nicht ausreicht, um die Anforderungen zu erfassen. So auch im Fall der, von IMS entwickelten, Spezifikation Common-Cartridge. Das Common-Cartridge-Format beschreibt valide Zip-Pakete, die dazu genutzt werden können, verschiedene Lernobjekte zu aggregieren und als zusammenhängende Lerneinheit in eine Lernplattform zu importieren. Die Spezifikation benutzt bereits vorhandene und bewährte Spezifikationen, um Teile gültiger XML-Dokumente zu beschreiben. Diese sind selbst Teil eines Pakets und können Referenzen enthalten, die den Inhalt mit der Paketstruktur in Verbindung bringen. Dabei wird das Common-Cartridge-Format durch ein sogenanntes Domain-Profile erfasst. Ein solches erlaubt die Anpassung einer oder mehrerer Standards bzw. Spezifikationen, um die Bedürfnisse einer bestimmten Domäne abzudecken. Zudem können sogenannte Testregeln definiert werden, die für die Bestimmung der für ein Datenpaket auszuführenden Testaufgaben genutzt werden können. Letztlich kann die automatische Erstellung eines Testsystems veranlasst werden, welches diese Aufgaben ausführen kann. Somit stellt sich die Frage, ob ein Domain-Profile ebenso dazu eignet ist, die Anforderungen anderer paket-basierter Datenformate zu erfassen, und ob die nötigen Änderungen an den unterstützenden Tools vorgenommen werden können. Schließlich würde dies die Überprüfung gestellter Anforderungen ermöglichen.
Diese Arbeit soll sich mit einer beispielhaften Anwendung des Verfahrens befassen, um diese Fragen nach Möglichkeit zu beantworten. Dazu soll der verwendete Ansatz auf die Datenformate übertragen werden, die Teil der Spezifikation des Virtual Company Dossiers - VCD - sind. Diese legen ebenso paket-basierte Formate fest, die innerhalb eines elektronischen Ausschreibungsprozesses verwendet werden. Sie ermöglichen die Erfassung von Evidenzen, die die notwendige Qualifikation eines Bewerbers, sowie die Erfüllung der, mit dem Ausschreibungsverfahren verbundenen Kriterien nachweisen.
Im praktischen Teil werden somit zuerst die Ähnlichkeiten der beiden Formate herausgearbeitet. Diese dienten der Identifizierung abstrakter Anforderungen, die, soweit möglich, mit den gleichen Formalismen festgehalten wurden. Dabei wurden Änderungen an den unterstützenden Tools vorgenommen, um die Erfassung aller VCD-spezifischen Anforderungen zu ermöglichen. So wurden das Format, und das Tool zur Erstellung von Applikationsprofilen, angepasst. Schließlich erfolgten Änderungen am generischen Testsystem, welches zur Herleitung konkreter Testsysteme genutzt wird. Letztlich stellte sich heraus, dass ähnliche Anforderungen bestehen, und die unterstützenden Tools in einer Weise angepasst werden konnten, die die Menge der erfassbaren Anforderungen erweitert. Da der Hintergrund der beteiligten Spezifikationen sich zudem signifikant unterscheidet, ist davon auszugehen, dass das Verfahren in einem weiten Spektrum von Anwendungsfällen eingesetzt werden kann.
Für die Planung von Wegen eines Gespanns sind komplexe Bewegungen verschiedener Bezugspunkte des Fahrzeugs zu beachten. Um die Betrachtung dieser Bewegungen zu vereinfachen, wird eine Fahrt in elementare Fahrbewegungen aufgeteilt, diese werden als Manöver bezeichnet. Ein Manöver besteht in diesem Zusammenhang aus zwei Elementen. Zum einen werden Pfade für bestimmte Bezugspunkte konstruiert, zum anderen wird das Gespann während der Manöverausführung von einem Korridor umschlossen. Die Pfade des Fahrzeugs müssen dabei fahrbar sein, das heißt, sie müssen die kinematischen Einschränkungen des Fahrzeugs beachten. Der Manöverkorridor kann als Grundlage verwendet werden, um die Kollisionsfreiheit zu garantieren. Während des Manövers verlässt kein Fahrzeugteil den Korridor. Es gibt verschiedene Manövertypen. Derzeit werden das Kurvenmanöver, das Wendemanöver und die Geradeausfahrt unterschieden. Außerdem kann ein Manöver zur Zeit mit zwei unterschiedlichen Konstruktionsmethoden erstellt werden, der konventionellen und der iterativen Methode.
In dieser Diplomarbeit wird eine Datenstruktur entworfen und implementiert, die ein Manöver konstruiert. Diese Datenstruktur wird in ein schon bestehendes Werkzeug integriert. Dabei kann der Benutzer mit der Software interagieren, um verschiedene Parameter eines Manövers zu verändern. Das Manöver wird daraufhin auf der Grundlage dieser Parameter konstruiert. Dazu gehört auch eine Visualisierung innerhalb der Software, in der die Bestandteile eines Manövers dargestellt werden können. Die Visualisierung kann in eine Bilddatei exportiert werden.
Die vorliegende Arbeit befasst sich mit der Realisierung eines Schrittmo- tortreibers auf einem 8-Bit Mikrocontroller des Unternehmens Atmel. Der Schwerpunkt liegt hierbei in der Entwicklung einer Stromregelung, welche neben den grundlegenden Betriebsmodi wie Voll- und Halbschritt auch den Mikroschritt ermöglicht. Hierfür wird mithilfe physikalischer und regelungs- technischer Grundlagen ein PI-Regler hergeleitet, welcher auf dem Mikro- controller implementiert wird. In diesem Zusammenhang wird auf die erfor- derlichen Kenntnisse für die praktische Umsetzung eingegangen. Zusätzlich wird die Entwicklung der Hardware dokumentiert, welche für die benötigte Strommessung von großer Bedeutung ist.
Die vorliegende Arbeit gibt einen Überblick über die Rahmenbedingungen der Programmierung von Grafikkarten. Dazu werden die zur wichtigsten am Markt vorhandenen Application Programming Interfaces (APIs) vorgestellt und miteinander verglichen. Anschließend werden zwei Standardalgorithmen aus der Datenverarbeitung, Prefix Sum und Radixsort vorgestellt und im Hinblick auf die Implementierung mit paralleler Programmierung auf der GPU zu untersucht. Beide Algorithmen wurden unter Nutzung der OpenGL-API und OpenGL Compute Shadern implementiert. Abschließend wurden die Ausführungszeiten der beiden Algorithmen miteinander verglichen.
Um den wachsenden Anforderungen an die Automobilindustrie gerecht zu werden, reduzieren Automobilhersteller stetig die Fertigungstiefe und verlagern wertschöpfende Anteile zunehmend auf die Zulieferer. Dies macht es erforderlich, dass Unternehmen enger zusammenarbeiten und fördert die Entstehung komplexer Logistiknetzwerke.
Um den damit einhergehenden Anforderungen an den Informationsaustausch zu begegnen, wurde 2009 das Projekt RFID-based Automotive Network (RAN) ins Leben gerufen. Die Initiative hat sich zum Ziel gesetzt, eine standardisierte Architektur für eine effiziente Materialflusssteuerung entlang der gesamtem Supply Chain zu schaffen. Kernkomponente dieser Architektur ist der Infobroker, eine Informationseinheit, die über Auto-ID-Technologie erfasste Daten aus dem Materialfluss automatisiert an Teilnehmer der Supply Chain kommuniziert. Die Abschlussarbeit beschäftigt sich in Kooperation mit der IBS AG, einem Softwareunternehmen und Konsortialpartner im Projekt, mit einem Teilbereich des Austausches von Warendaten.
Zunächst werden theoretische Grundlagen geschaffen, indem auf Merkmale einer Supply Chain eingegangen und anschließend Standardisierungsbestrebungen beschrieben werden. Um den Bezug zum Projekt herstellen zu können, wird im Supply Chain Kapitel näher auf die Automobilindustrie und Trends in diesem Sektor eingegangen. Im Bereich der Standardisierung werden Standards im elektronischen Datenaustausch vertiefend dargestellt, um auch hier eine Überleitung zum Infobroker-Konzept zu schaffen. Im Analyseteil werden zu Beginn Projekte mit ähnlicher Problemstellung wie bei RAN vorgestellt und durch die Beschreibung von Gemeinsamkeiten und Unterschieden ein Bezug hergestellt. Daraufhin werden anhand von Projektdokumenten Anforderungen an das System beschrieben und mehrere Modelle zur Problemstellung entworfen. Mit Rich Pictures werden die IST-Problematik und der SOLL-Zustand zunächst beschrieben. Darauf aufbauend wird der Fluss von Warendaten zwischen zwei Unternehmen veranschaulicht und die Funktion des Infobrokers beim Informationsaustausch verdeutlicht. Ziel ist die Schaffung eines Verständnisses für die Herausforderungen des Projektes und wie die vorgeschlagenen Konzepte der RAN-Initiative zur Optimierung einer Automotive Supply Chain beitragen können.
Die vorliegende Arbeit betrachtet den Einfluss von Wald- und Wirtschaftswegen auf Abflussentstehung und Bodenerosionsraten innerhalb eines bewaldeten Einzugsgebiets im Naturschutzgebiet Laacher See. Hierfür wurden sowohl bestehende Erosions- und Akkumulationsformen im Gelände kartiert, als auch Erosionssimulationen mittels einer Kleinberegnungsanlage durchgeführt. Zuletzt erfolgte eine Modellierung des Erosionspotentials auf Grundlage der Simulationsergebnisse.
Die Analyse bestehender Erosions- und Akkumulationsformen im Gelände gab einen Hinweis auf Bodenerosionsraten von Wegoberflächen, die zwischen 27,3 und 93,5 t ha-1 a-1 und somit in derselben Größenordnung wie Erosionsraten unter intensiver ackerbaulicher Nutzung lagen.
Die Simulationsläufe zeigten, dass persistente Waldwege ein deutlich verändertes Infiltrationsverhalten aufwiesen. Auf natürlichen Waldböden lag der Anteil des infiltrierten Niederschlags bei durchschnittlich 96%. Im Falle von Waldwegen nahm dieser Anteil im Mittel auf 14% bis 7% ab. Besonders auffällig waren die Ergebnisse auf Rückegassen, auf denen ein erheblicher Einfluss der Bodenverdichtung durch Befahrung nachgewiesen werden konnte. Hier sank der Anteil des infiltrierten Niederschlags auf 31% in den Fahrspuren, zwischen den Spuren wurden noch 76 % infiltriert.
Während der Simulationsläufe konnten maximale Sedimentmengen von 446 g m-2 erodiert werden, was einer mittleren Bodenerosionsrate von 4,96 g m-2 min-1 entspricht. Diese hohen Abtragsraten wurden auf persistenten Wegen mit geringer Befestigung gemessen. Rückegassen wiesen die geringsten Abtragswerte auf, maximal konnten 37 g m-2 erodiert werden, gleichbedeutend mit einer Abtragsrate von 0,41 g m-2 min-1. Die erodierten Sedimentmengen betrugen im Mittel bei Wegen 167 bis 319 g m-2 und im Falle von Rückegassen 17 g m-2. Anhand von Vergleichsmessungen auf Waldstandorten, bei denen ein mittlerer Bodenabtrag von ca. 5 g m-2 festgestellt wurde, konnte eine erhöhte Erodierbarkeit für jedwede Form der Weganlage bestätigt werden.
Auf Basis der im Gelände gemessenen Abtragsraten wurden die Modellierungen kalibriert. Die Ergebnisse der ABAG / DIN 19708 zeigten für das betrachtete Untersuchungsgebiet eine mittlere jährliche Bodenerosionsgefährdung von 2,4 - 5,8 t ha-1 a-1 für persistente Wege und von 0,5 t ha-1 a-1 für Rückegassen. Im Vergleich zum Mittelwert weitgehend unbeeinflusster Waldflächen im Untersuchungsgebiet von 0,1 t ha-1 a-1 zeigte sich abermals ein erhöhtes Abtragspotential. Die physikalisch basierte Modellierung der Beregnungsversuche mittels WEPP zeigte ein zufriedenstellendes Ergebnis bei der Einschätzung des Abflussverhaltens, so wurden für persistente Wege nur Abweichungen von maximal -5% festgestellt. Die Abflussmodellierung auf Rückegassen sowie die generelle Modellierung der Bodenerosion während der Beregnungsversuche zeigte sich im Kontrast hierzu noch fehlerbehaftet, was ursächlich mit der für ein physikalisches Modell relativ geringen Eingangsdatentiefe zu begründen ist.
Es wurde nachgewiesen, dass Waldwege einen bedeutenden Einfluss auf den Wasserhaushalt und das Bodenerosionsgeschehen haben. Der Rückhalt von Niederschlägen wird gemindert und es kommt zu intensivierten Bodenerosionsprozessen. Schlecht befestigte Wege zeigten einen stark erhöhten Bodenabtrag, der zu ökologischen Folgeschäden führen kann. Der Abtrag kann ebenso zu einer Beeinträchtigung der Befahrbarkeit führen. Anhand der Folgen lässt sich die Relevanz der Betrachtung von Abfluss- und Bodenerosionsprozessen auf Wald- und Wirtschaftswegen deutlich machen. Die vorliegende Arbeit stellt die erste Studie dar, innerhalb derer Abfluss- und Bodenerosionspozesse für Walderschließungsnetzwerke in Mitteleuropa untersucht wurden.
Innovation verhilft einem nach Fortschritt strebenden Unternehmen zu sehr schnellen Wachstum. Sie eröffnet dem Unternehmen die Möglichkeit der Konkurrenz immer einen Schritt voraus zu sein und somit neue Kundengruppen für sich zu gewinnen. Allgemein stehen Unternehmen vor der Wahl zwischen einem offenen und einem geschlossenen Innovationsprozess. In dieser Ausarbeitung versuchen wir auf den offenen Innovationsprozess einzugehen und vor allem auf die Informations- und Innovationssysteme, die diesen Prozess unterstützen. Natürlich ergeben sich sowohl Vor- als auch Nachteile, wenn es dazu kommt für einen schnelleren und besseren Fortschritt als Unternehmen seine Innovationsprozesse offen zu legen. Daher werden wir einige Beispiele aus der Unternehmenswelt untersuchen und diese unter dem Aspekt des offenen Innovationsprozesses analysieren. Dabei zeichnen sich natürlich immer Unternehmen ab, die mit der Unterstützung von Informationssystemen einen erfolgreichen offenen Innovationsprozess meistern konnten und andere Unternehmen, bei denen das Konzept des offenen Innovationsprozess nicht geglückt ist.
Wireshark und VNUML Im Rahmen dieser Studienarbeit sollen einige Netzwerk-Protokolle mit dem Protokollanalyser Wireshark beobachtet und der Umgang damit beschrieben werden. Wireshark ist ein Ableger von "Ethereal", einem der bekanntesten Protokoll-Analyser. Wireshark analysiert Netzwerkverkehr, zeichnet ihn auf und stellt ihn übersichtlich dar. Für die Simulation des Netzwerks wird VNUML verwendet. Da VNUML nur unter Linux verwendet werden kann, wird andLinux als virtuelle Maschine dazwischen geschaltet um auch in Windows arbeiten zu können.
Hintergrund und Fragestellung: Auf Grund hoher Prävalenzen und deutlicher einhergehender sozioökonomischer Folgen stellen multiple somatoforme Symptome ein ernst zu nehmendes Problem dar. Dem steht ein ausgeprägter Mangel an hochwertigen Interventionsstudien gegenüber. Mit der vorliegenden randomisierten kontrollierten Untersuchung zur Effektivität kognitiv-behavioraler Gruppentherapie im ambulanten Kontext sollen Mängel bisheriger Studien berücksichtigt und somit der Forschungsstand verbessert werden. Die Behandlung hat zum Ziel, über die Veränderung kognitiver, behavioraler und sozialer Reaktionsmuster kurz- und langfristig eine Verbesserung der körperlichen und psychischen Symptomatik, des körperlichen und psychischen Funktionsniveaus sowie krankheitsbezogener Denk- und Verhaltensmuster zu bewirken. Methode: 135 Patientinnen und Patienten nahmen an der randomisierten Kontrollgruppenstudie teil. Die manualisierten Interventionen umfassten acht 90-minütige Termine, die wöchentlich stattfanden. Verglichen wurden die Effekte einer Wartekontrollgruppe (WG), einer kognitiv-behavioralen Gruppenintervention (KBT) und einer Entspannungsgruppe (PMR). Ergebnis: Die kognitiv-behaviorale Behandlung führte im Vergleich zur Wartegruppe zu einer signifikanten Verbesserung der somatoformen Beschwerden (SOMS-7). Im Vergleich der Veränderung der subjektiven psychischen Gesundheit (SF12) in KBT und WG war die KBT tendenziell überlegen. Der differenzielle Vergleich zwischen KBT und PMR führte auf keiner der Outcome-Variablen zu einem signifikanten Ergebnis. Diskussion: Die untersuchte ambulante kognitiv-behaviorale Gruppenbehandlung hat positive Effekt auf die Körperbeschwerden bei Patientinnen und Patienten mit multiplen somatoformen Symptomen. Um Effektstärken zu erhöhen und differenzielle Unterschiede im Vergleich zur PMR zu ermöglichen wird in zukünftigen Untersuchungen u.a. eine Intensivierung der Behandlung diskutiert.
In diesem Bericht wird der Einsatz von drahtlosen Sensornetzen zur Temperaturmessung in Fließgewässern untersucht. Es wird dargestellt, inwieweit solche Netze als Bindeglied zwischen Fernerkundung und stationären Sensoren eingesetzt werden können. Es werden die Anforderungen an Sensornetze für die Anwendung Gewässermonitoring ermittelt und eine prototypische Realisierung von Netzknoten für ein solches Sensornetz dargestellt. Als Ergebnis dieser Arbeit werden die Genauigkeit von Temperaturmessungen mit solchen Sensorknoten im Vergleich zu einem Temperaturlogger als Referenzsystem dargestellt. Die Messungen zeigen, dass eine vergleichsweise gute Messgenauigkeit zu geringen Kosten erreichbar ist. Durch Weiterentwicklung des hier dargestellten Prototypen steht für die Temperaturüberwachung in Gewässern ein vielversprechendes und kostengünstiges neues Messinstrument zur Verfügung. Dieses kann auf der einen Seite in tieferen Regionen Gewässertemperaturen messen, als dies mit Fernerkundung möglich ist, und auf der anderen Seite eine höhere räumliche Auflösung als stationäre Messstationen erreichen. Zusätzlich dienen die Literaturrecherche und die Formulierung der Kriterien einer Eingrenzung des Anwendungsbereichs für weiterführende Arbeiten.
Analyse TV-basierter Interaktion für Senioren: Umsetzung und Evaluation im Gesundheitsbereich
(2007)
Remote Rendering ist eine Möglichkeit aufwändige Grafik von leistungsstarker Hardware für leistungsschwächere Endgeräte bereitzustellen. Durch den Transfer der Daten über ein Netzwerk entsteht eine Verzögerung, welche die Interaktivität einschränkt. Ein Verfahren, um Befehle an eine virtuelle Kamera auf dem Endgerät direkt umzusetzen, wird 3D-Warping genannt. Das Verfahren erzeugt jedoch Bildartefakte. In dieser Arbeit werden verschiedene Ansätze für Remote Rendering Setups aufgezeigt. Zusätzlich werden die auftretenden Artefakte des Warpings und Methoden zur Verbesserung des Verfahrens beschrieben. Es werden eigene Implementationen und Verbesserungen vorgestellt und untersucht.
In den letzten Jahren konzentrierte sich das E-Government auf die administrativen Aspekte der Verwaltungsmodernisierung. Im nächsten Schritt werden die E-Diskurse als Instrument der Bürgernähe und Mittel der E-Demokratie/E-Partizipation an Bedeutung gewinnen. Mit zunehmender Akzeptanz solcher E-Diskurse werden diese schnell eine Komplexität erreichen, die von den Teilnehmern nicht mehr zu bewältigen ist. Das Problem liegt in der eingeschränkten Möglichkeit, einen in Raum und Zeit verteilten Diskurs zu verfolgen und sich ein Bild von ihm zu machen. Viele Eindrücke, die sich aus Präsenzdiskussionen gewinnen lassen, fehlen. Deswegen hat die vorliegende Arbeit die Zielsetzung der Konzeption und der prototypischen Implementierung eines Instrumentariums (Diskursmeter), womit sich die Teilnehmer, insbesondere die Moderatoren, des E-Diskurses jederzeit einen Überblick über den E-Diskurs schaffen können und so zu ihrem Diskursverständnis (Discourse Awareness) zu gelangen. Über das aktuelle Geschehen im E-Diskurs informiert die gegenwartsorientierte und über das vergangene Geschehen die vergangenheitsorientierte Discourse Awareness, über die etwaige Trends sichtbar sind. Der Fokus der Discourse Awareness liegt in der quantitativen Betrachtung des Geschehens im E-Diskurs. Aus dem in dieser Arbeit entwickelten Modell des E-Diskurses resultieren die Fragestellungen zur Discourse Awareness, deren Konkretisierung Grundlage für die Implementierung des Diskursmeters ist. Die an das Modell des E-Diskurses angebrachten Diskurssensoren zeichnen das Geschehen im E-Diskurs auf, die zu Diskursereignissen führen, die das Diskursmeter in unterschiedlichen Visualisierungsformen präsentiert. Den Moderatoren des E-Diskurses bietet das Diskursmeter die gegenwartsorientierte Discourse Awareness als Monitoring und die vergangenheitsorientierte Discourse Awareness als Abfrage (quantitative Analyse) an.
Einer der Forschungsschwerpunkte der AG Rechnernetze ist das Routing Information Protocol. Eine eigene kompatible Erweiterung dieses Routingprotokolls ist der Routing Information Protocol with Metric-based Topology Investigation (RMTI [ehemals RIP-MTI]). Um dieses Protokoll testen und mit seinem Vorgänger vergleichen zu können, wird die Virtualisierungssoftware VNUML eingesetzt. In diesen virtualisierten Netzwerken werden Router, die das RMTI-Protokoll einsetzten, mittels der Zebra/Quagga Routing Software Suite beobachtet. Dabei wird das Verhalten des Protokolls in unterschiedlichsten Simulationssituationen analysiert und bewertet. Um solche Testabläufe zentral zu steuern und protokollieren zu können wurde die Anwendung RIP-XT (XTPeer) erstellt und in fortführenden Diplomarbeiten kontinuierlich erweitert. Sie ist Schnittstelle zu den Zebra/Quagga-Routern und kann diese steuern. Zusätzlich sammelt und analysiert sie die Routing-Informationen der Router.Über ein GUI kann ein Benutzer diese Abläufe steuern. Um einen visuellen Überblick über eine Netzwerktopologie zu erhalten, besitzt das GUI auch eine Topologie-Anzeige. Die Anzeige repräsentiert das Gesamte Netzwerk durch Symbole, über die auch Interaktionen mit der Simulation möglich sind. Ziel dieser Diplomarbeit war es, die bisherige Topologie-Anzeige zu überarbeiten, um sie für neue Anforderungen anzupassen. Des weiteren wurden funktionale Erweiterungen in das GUI des RIP-XTs eingebettet.
Außerschulische Lernorte und deren Wirksamkeit im Kontext von BNE-Bildungsmaßnahmen wurden bislang wenig untersucht. Mithilfe einer mehrstufi-gen Analyse identifiziert die vorliegende Studie außerschulische Lernorte mit Be-zug zum BNE-Bildungskonzept im Untersuchungsraum Rheinland-Pfalz. Dazu wurden zunächst mittels qualitativer Literaturanalysen BNE-Kriterien generiert, die als methodisches Instrument in Form einer BNE-Checkliste für außerschulische Lernorte operationalisiert wurden. Die auf diesem Wege gewonnenen Daten liefern die Grundlage für die Erstellung einer geografisch orientierten Lernortdatenbank mit BNE-Bezug. Eine kartografische Visualisierung der Daten ergibt ein räumliches Verteilungsmuster: So zeigen sich mit BNE-Lernorten gut versorgte Landkreise und kreisfreie Städte, aber auch regelrechte BNE-Lernort-Wüsten, an denen Nachhol-bedarf besteht. Des Weiteren zeigt sich eine Häufung von BNE-Lernorten in wald-nahen Gebieten.
Zur Frage, wie die außerschulische BNE im Bundesland Rheinland-Pfalz imple-mentiert wurde, inwiefern Optimierungsbedarf besteht und welche fortsetzenden Maßnahmen im Rahmen der Agenda 2030 für die außerschulische BNE getroffen werden, liefert ein leitfadenbasiertes exploratives Interview mit zwei BNE-Experten zusätzliche Erkenntnisse.
Weiterführend wurde mit 1358 Schülerinnen und Schülern an 30 außerschuli-schen Lernorten nach Teilnahme an einer Bildungsmaßnahme eine quantitative Fragebogenstudie durchgeführt, bei der auch das Umweltbewusstsein, Einstellun-gen zum Umweltverhalten und das Lernen vor Ort betrachtet wurden. Durch ein Miteinbeziehen von Nicht-BNE-Lernorten wurde eine Vergleichsstudie zur Wirk-samkeit von BNE-Lernorten möglich. Die statistische Datenauswertung führt zu ei-ner Vielzahl an interessanten Ergebnissen. Kontraintuitiv zeigt sich beispielsweise die Art des Lernorts (BNE- oder Nicht-BNE-Lernort) als nicht signifikanter Prädiktor für das Umweltbewusstsein und Umweltverhalten der befragten Schüler, wohinge-gen Kommunikationsstrukturen innerhalb von Bildungsmaßnahmen an außerschu-lischen Lernorten, die Multimedialität und Handlungsorientierung sowie die Dauer von Bildungsmaßnahmen einen signifikanten Einfluss ausüben.
Schlüsselwörter: Außerschulische Lernorte, Bildung für nachhaltige Entwicklung (BNE), BNE-Kriterien, Lernortlandschaft Rheinland-Pfalz, BNE-Lernorte, Umwelt-bewusstsein, Umweltverhalten.
Ziel der Arbeit ist es, einen MP3-Player zu entwickeln, der eine Benutzerinteraktion ermöglicht, wie es gängige Computerprogramme zur Wiedergabe von Musik tun. Der Benutzer soll über eine grafische Oberfläche MP3-Dateien laden, abspielen und in Playlisten organisieren können. Ferner soll es möglich sein, Metadaten wie Titel, Autor, Genre, Veröffentlichungsjahr und vieles weitere als zusätzlichen Tag zu speichern und zu editieren. Diese Informationen soll die Software auch beim Abspielen eines Musikstückes auslesen und dem Nutzer übersichtlich anzeigen. Hier scheitern die meisten Player aufgrund ihres kleinen Displays. Außerdem soll der MP3-Player auch rudimentäre Funktionen zur Echtzeitmanipulation der Musikwiedergabe bieten. Als Hardware zum Abspielen der Musikdateien dient die Spielekonsole Nintendo DS, welche aufgrund ihrer beiden Displays genügend Anzeigemöglichkeiten für eine grafische Benutzerführung bietet. Eines der beiden Displays dient zudem als Touchscreen und kann für Eingaben verwendet werden.
Die Forschung im Bereich der modellbasierten Objekterkennung und Objektlokalisierung hat eine vielversprechende Zukunft, insbesondere die Gebäudeerkennung bietet vielfaltige Anwendungsmöglichkeiten. Die Bestimmung der Position und der Orientierung des Beobachters relativ zu einem Gebäude ist ein zentraler Bestandteil der Gebäudeerkennung.
Kern dieser Arbeit ist es, ein System zur modellbasierten Poseschätzung zu entwickeln, das unabhängig von der Anwendungsdomäne agiert. Als Anwendungsdomäne wird die modellbasierte Poseschätzung bei Gebäudeaufnahmen gewählt. Vorbereitend für die Poseschätzung bei Gebäudeaufnahmen wird die modellbasierte Erkennung von Dominosteinen und Pokerkarten realisiert. Eine anwendungsunabhängige Kontrollstrategie interpretiert anwendungsspezifische Modelle, um diese im Bild sowohl zu lokalisieren als auch die Pose mit Hilfe dieser Modelle zu bestimmen. Es wird explizit repräsentiertes Modellwissen verwendet, sodass Modellbestandteilen Bildmerkmale zugeordnet werden können. Diese Korrespondenzen ermöglichen die Kamerapose aus einer monokularen Aufnahme zurückzugewinnen. Das Verfahren ist unabhängig vom Anwendungsfall und kann auch mit Modellen anderer rigider Objekte umgehen, falls diese der definierten Modellrepräsentation entsprechen. Die Bestimmung der Pose eines Modells aus einem einzigen Bild, das Störungen und Verdeckungen aufweisen kann, erfordert einen systematischen Vergleich des Modells mit Bilddaten. Quantitative und qualitative Evaluationen belegen die Genauigkeit der bestimmten Gebäudeposen.
In dieser Arbeit wird zudem ein halbautomatisches Verfahren zur Generierung eines Gebäudemodells vorgestellt. Das verwendete Gebäudemodell, das sowohl semantisches als auch geometrisches Wissen beinhaltet, den Aufgaben der Objekterkennung und Poseschätzung genügt und sich dennoch an den bestehenden Normen orientiert, ist Voraussetzung für das Poseschätzverfahren. Leitgedanke der Repräsentationsform des Modells ist, dass sie für Menschen interpretierbar bleibt. Es wurde ein halbautomatischer Ansatz gewählt, da die automatische Umsetzung dieses Verfahrens schwer die nötige Präzision erzielen kann. Das entwickelte Verfahren erreicht zum einen die nötige Präzision zur Poseschätzung und reduziert zum anderen die Nutzerinteraktionen auf ein Minimum. Eine qualitative Evaluation belegt die erzielte Präzision bei der Generierung des Gebäudemodells.
Rettungsroboter helfen nach Katastrophen wie z.B. Erdbeben dabei, in zerstörten Gebäuden Überlebende zu finden. Die Aufgabe, die Umgebung effizient möglichst vollständig abzusuchen und dabei eine Karte zu erstellen, die den Rettungskräften bei der Bergung der Opfer zur Orientierung dient, soll der Roboter autonom erfüllen. Hierzu wird eine Explorationsstrategie benötigt; eine Strategie zur Navigation in bekanntem und zur Erkundung von unbekanntem Gelände. Für den mobilen Roboter "Robbie" der Arbeitsgruppe Aktives Sehen wurde in dieser Arbeit ein Grenzen-basierter Ansatz zur Lösung des Explorationsproblems ausgewählt und implementiert. Hierzu werden Grenzen zu unbekanntem Gelände aus der Karte, die der Roboter erstellt, extrahiert und angefahren. Grundlage der Navigation zu einem so gefundenen Wegpunkt bildet die sog. Pfad-Transformation (Path-Transform).
Wie bereitet man komplizierte, technische Sachverhalte einfach und verständlich auf, damit sie auch der normalen Benutzer ohne tiefergehendes technisches Hintergrundwissen schnell und ohne lange Einarbeitungszeit und langwierige Erklärungen zu nutzen weiß? In dieser Studenarbeit geht es um genau diese Frage - Nichtinformatikern die Vorzüge und die Arbeit mit semantischen (Such)anfragen zu erleichtern, wenn nicht sogar überhaupt erst zu ermöglichen, sowie die Neuentwicklung und SPARQL-Erweiterung Networked Graphs von Simon Schenk innerhalb der AG Staab/Universität Koblenz zu präsentieren.
In dieser Arbeit wird ein System zur Erzeugung und Darstellung stereoskopischen Video-Panoramen vorgestellt. Neben der theoretischen Grundlagen werden der Aufbau und die Funktionsweise dieses Systems erläutert.
Dazu werden spezielle Kameras verwendet, die Panoramen aufnehmen
können und zur Wiedergabe synchronisiert werden. Anschließend wird ein Renderer implementiert, welcher die Panoramen mithilfe einer VirtualReality Brille stereoskopisch darstellen kann. Dafür werden separate Aufnahmen für die beiden Augen gemacht und getrennt wiedergegeben. Zum Abschluss wird das entstandene Video-Panorama mit einem Panorama eines schon bestehenden Systems verglichen.
Der Wettbewerb um die besten Technologien zur Realisierung des autonomen Fahrens ist weltweit in vollem Gange.
Trotz großer Anstrengungen ist jedoch die autonome Navigation in strukturierter und vor allem unstrukturierter Umgebung bisher nicht gelöst.
Ein entscheidender Baustein in diesem Themenkomplex ist die Umgebungswahrnehmung und Analyse durch passende Sensorik und entsprechende Sensordatenauswertung.
Insbesondere bildgebende Verfahren im Bereich des für den Menschen sichtbaren Spektrums finden sowohl in der Praxis als auch in der Forschung breite Anwendung.
Dadurch wird jedoch nur ein Bruchteil des elektromagnetischen Spektrums genutzt und folglich ein großer Teil der verfügbaren Informationen zur Umgebungswahrnehmung ignoriert.
Um das vorhandene Spektrum besser zu nutzen, werden in anderen Forschungsbereichen schon seit Jahrzehnten \sog spektrale Sensoren eingesetzt, welche das elektromagnetische Spektrum wesentlich feiner und in einem größeren Bereich im Vergleich zu klassischen Farbkameras analysieren. Jedoch können diese Systeme aufgrund technischer Limitationen nur statische Szenen aufnehmen. Neueste Entwicklungen der Sensortechnik ermöglichen nun dank der \sog Snapshot-Mosaik-Filter-Technik die spektrale Abtastung dynamischer Szenen.
In dieser Dissertation wird der Einsatz und die Eignung der Snapshot-Mosaik-Technik zur Umgebungswahrnehmung und Szenenanalyse im Bereich der autonomen Navigation in strukturierten und unstrukturierten Umgebungen untersucht. Dazu wird erforscht, ob die aufgenommen spektralen Daten einen Vorteil gegenüber klassischen RGB- \bzw Grauwertdaten hinsichtlich der semantischen Szenenanalyse und Klassifikation bieten.
Zunächst wird eine geeignete Vorverarbeitung entwickelt, welche aus den Rohdaten der Sensorik spektrale Werte berechnet. Anschließend wird der Aufbau von neuartigen Datensätzen mit spektralen Daten erläutert. Diese Datensätze dienen als Basis zur Evaluation von verschiedenen Klassifikatoren aus dem Bereich des klassischen maschinellen Lernens.
Darauf aufbauend werden Methoden und Architekturen aus dem Bereich des Deep-Learnings vorgestellt. Anhand ausgewählter Architekturen wird untersucht, ob diese auch mit spektralen Daten trainiert werden können. Weiterhin wird die Verwendung von Deep-Learning-Methoden zur Datenkompression thematisiert. In einem nächsten Schritt werden die komprimierten Daten genutzt, um damit Netzarchitekturen zu trainieren, welche bisher nur mit RGB-Daten kompatibel sind. Abschließend wird analysiert, ob die hochdimensionalen spektralen Daten bei der Szenenanalyse Vorteile gegenüber RGB-Daten bieten
Will Eisners Graphic Novels zeugen von einer tiefgehenden Identitifation mit dem Judentum als Volkszugehörigkeit, Religion und Kultur und spiegeln das Judentum in all seinen Facetten wider. Dabei ist besonders hervorzuheben, dass die Entwicklung des Gesamtwerks parallel verläuft zur Geschichte der Emanzipation der jüdischen Bevölkerung in New York City. Der Band clustert die jüdischen Aspekte in Eisners Werk in beispielsweise Faktoren kollektiver Erinnerung, Umgang mit und Kampf gegen Antisemitismus und religiöse Besonderheiten.
Im Vergleich zu herkömmlicher Computergrafik (perspektivische Projektion) bietet Raytracing entscheidende Vorteile, die hauptsächlich in der vergleichsweise hohen physikalischen Korrektheit der Methode begründet sind. Die Schwächen liegen hingegen im immensen Rechenaufwand.
Ein Raytracer ist vergleichsweise so rechenintensiv, weil für jeden Pixel mindestens ein Strahl verschickt werden muss. Dieser muss gegen alle Objekte im Raum geschnitten werden. Hinzu kommen noch die Strahlen, die entstehen, wenn Strahlen an Objekten reflektiert werden (Rekursion). Um diesen Rechenaufwand zu verkleinern und zusätzlich ein besseres Bild zu erzeugen, soll der adaptive Sampler den Raytracer unterstützen. Der adaptive Sampler soll während des Rendervorgangs den progressiven Fortschritt in der Bildgenerierung beobachten und Pixel von der weiteren Berechnung ausschließen, für die sich ein zusätzliches Verschießen von Strahlen nicht mehr lohnt.
Anders als der rein progressive Raytracer hört der adaptive Sampler mit dem Konvergieren des Bildes auf zu rechnen. Der adaptive Sampler soll so dafür sorgen, dass schneller ein besseres Bild erzeugt wird und somit die Performanz gesteigert wird. Insgesamt erwartet man sich vom adaptiven Sampler Vorteile bei der Berechnung von bestimmten Szenen. Unter anderem eine Verbesserung bei Szenen mit rein diffus beleuchteten Bildbereichen, sowie eine Verbesserung bei Szenen mit unterschiedlich rechenintensiven Bildbereichen. Ein normaler Raytracer kann nicht beurteilen, wie sinnvoll seine Schüsse sind. Er kann nur mehr Strahlen verschießen, in der Hoffnung, das Bild damit effektiv zu verbessern.
Es gibt jedoch viele Szenarien, bei denen eine linear steigende Schussanzahl pro Pixel keine gleichmäßige Verbesserung im Bild erzeugt. Das bedeutet, dass Bereiche im Bild schon gut aussehen, während andere noch sehr verrauscht sind. Man möchte nun Bildbereiche, die bereits konvergiert sind, in denen sich ein weiterer Beschuss also nicht mehr bemerkbar macht, ausschließen und die Rechenleistung dort nutzen, wo man sie noch braucht.
Wichtig dabei ist, dass Pixel nicht ungewollt zu früh von der Berechnung ausgeschlossen werden, die nicht weit genug konvergiert sind. Der adaptive Sampler soll so lange arbeiten, bis jeder Pixel dauerhaft keine Änderungen mehr vorweist. Das bedeutet, dass die Wahrscheinlichkeit für eine signifikante Farbänderung eines Pixels durch Verschießen eines Strahls (bei mehreren Lichtquellen in RenderGin mehrere Strahlen pro Pixel) klein genug ist. Es wird zwar intern keine Wahrscheinlichkeit berechnet, jedoch bekommt der Raytracer eine Art Gedächtnis: Er speichert die Veränderungen im beleuchteten Bild und deren Verlauf in eigenen Gedächtnisbildern. Das "Gedächtnis" für das alte Bild (Zustand des Bildes in der letzten Iteration über die Pixel) repräsentiert dabei das Kurzzeitgedächtnis. Es ist absolut genau. Das Langzeitgedächtnis wird von drei verschiedenen Bildern repräsentiert. Das erste gibt die Anzahl der verschossenen Strahlen pro Pixel an. Das zweite ist ein Wahrheitswertebild, das für jeden Pixel angibt, ob dieser noch in die Berechnung einbezogen werden soll. Das dritte Bild gibt an, wie oft jeder Pixel eine Farbänderung vollzogen hat, die geringer ist als der geforderte Maximalabstand eines Pixels zu sich selbst (vor und nach dem Verschießen eines weiteren Strahls).
Mit diesen drei Bildern ist es möglich, zusätzliche quantitative Informationen zu den qualitativen Informationen des Vergleichs vom neuen und alten Bild zu berücksichtigen.
In dieser Arbeit kläre ich die Frage, ob die gewünschten Effekte eintreten und ob bei Integration in die bestehende Struktur von RenderGin ein Performanzgewinn möglich ist. Die Umsetzung eines adaptiven Samplers ist als Plug-In in der Software RenderGin von Numenus GmbH geschehen. RenderGin ist ein echtzeitfähiger, progressiver Raytracer, der sich durch seine Performanz auszeichnet. Die Bildgenerierung geschieht allein auf der CPU, die Grafikkarte wird lediglich zur Anzeige des erzeugten Bildes benötigt.
Die Umsetzung und Programmierung des Plug-Ins ist in Microsoft Visual Studio 2010 geschehen unter Verwendung des RenderGin SDK der Numenus GmbH.
In der vorliegenden Untersuchung stehen geometrische Aufgaben und die in den seit 2004 national verbindlichen Bildungsstandards im Fach Mathematik für den Primarbereich formulierten Anforderungsbereiche im Zentrum. Diese zeigen die kognitiven Anforderungen an Schülerinnen und Schüler bei der Bearbeitung von Aufgaben auf, wobei zwischen „Reproduzieren", „Zusammenhänge herstellen" und „Verallgemeinern und Reflektieren" unterschieden wird (KMK, 2005a, S. 13).
Durch die drei Anforderungsbereiche sollen Lehrkräfte unter anderem die Chance zur Entwicklung einer anforderungsbezogenen Aufgabenkultur erhalten. Des Weiteren soll die Integration von Aufgaben aus allen drei Anforderungsbereichen im Unterricht angeregt und einem einseitig ausgerichteten Unterricht entgegen gewirkt werden.
Da die Anforderungsbereiche bislang nicht empirisch validiert wurden und in den Veröffentlichungen der Kultusministerkonferenz nicht klar zur Schwierigkeit von Aufgaben abgegrenzt werden (KMK, 2005a, S. 13; KMK, 2005b, S. 17; KMK, 2004b, S. 13), wurde in der vorliegenden Untersuchung zum einen die Möglichkeit der eindeutigen Zuordnung geometrischer Aufgaben zu den drei Anforderungsbereichen geprüft.
Zum anderen wurde untersucht, inwiefern die in den geometrischen Aufgaben enthaltenen kognitiven Anforderungen in Zusammenhang mit der empirischen Schwierigkeit von Aufgaben, der mathematischen Leistungsfähigkeit von Schülerinnen und Schülern, dem Geschlecht und den Anforderungen der im Unterricht gestellten Aufgaben stehen.
Vor dem Hintergrund der dem deutschen Mathematikunterricht nachgesagten Kalkül- beziehungsweise Fertigkeitsorientierung (Baumert et al., 2001, S. 296; Granzer & Walther, 2008, S. 9) und den damit einhergehenden Stärken deutscher Schülerinnen und Schüler im Bereich von Routineaufgaben und Schwächen im Bereich von Aufgaben mit höheren kognitiven Anforderungen (Grassmann et al., 2014, S. 11; Reiss & Hammer, 2013, S. 82; Schütte, 2008, S. 41) wurde zudem die Verteilung der im Rahmen der Untersuchung gewonnenen, schriftlich fixierten geometrischen Schulbuch- und Unterrichtsaufgaben auf die drei Anforderungsbereiche analysiert.
Durch die Betrachtung geometrischer Aufgaben konnte stichprobenartig der quantitative Geometrieanteil in den Schulbüchern und im Unterricht der vierten Jahrgangsstufe ermittelt werden, um so den Forschungsstand zum Stellenwert des Geometrieunterrichts (Maier, 1999; Backe-Neuwald, 2000; Roick, Gölitz & Hasselhorn, 2004) zu aktualisieren beziehungsweise zu ergänzen.
In dieser Arbeit wurde untersucht, wie sich das bestehende Modell der Kabelsimulation verbessern lässt. Hierfür wurde zunächst analysiert, welches die Einflussfaktoren auf eine Simulation sind. Des Weiteren wurde der Einfluss der Rand- und Nebenbedingungen auf die Genauigkeit der Verlaufssimulation untersucht.
Da Software heute nahezu alle Bereiche des Alltags durchdringt, ist Sicherheit von Softwaresystemen ein wichtigeres Anliegen als je zuvor. Die Sicherheit eines Softwaresystems zu bewerten stellt in der Praxis jedoch eine Herausforderung dar, da nicht viele Metriken existieren, die Sicherheitseigenschaften von Sourcecode auf Zahlenwerte abbilden. Eine geläufige Annahme ist, dass das Auftreten von Sicherheitslücken in Korrelation mit der Qualität von Software-Designs steht, allerdings fehlt es momentan an klaren Belegen für diese Annahme. Der Nachweis einer vorhandenen Korrelation kann dazu beitragen die Messung von Programmsicherheit zu optimieren, da man dann gezielt Qualitätsmetriken zum Messen von Sicherheit einsetzen könnte. Zu diesem Zweck wurden in dieser Arbeit für 50 Android-Apps aus dem Open Source-Bereich drei Sicherheits- und sieben Qualitätsmetriken, sowie Korrelationen zwischen diesen Metriken berechnet. Bei den Qualitätsmetriken handelt es sich um einfache Code-Metriken bis hin zu High-Level-Metriken, wie objektorientierte Antipatterns, die zusammen ein umfassendes Bild der Qualität vermitteln. Um die Sicherheit darzustellen wurden zwei Sichtbarkeitsmetriken zusammen mit einer Metrik, die die minimale Rechteanforderung mobiler Applikationen berechnet, ausgewählt. Es wurde festgestellt, dass auf Basis der betrachteten Evaluationsprojekte deutliche Korrelationen zwischen den meisten Qualitätsmetriken liegen. Zu den Sicherheitsmetriken wurden dahingegen keine signifikanten Korrelationen gefunden. Es werdendiese Korrelationen und deren Ursachen diskutiert und auf dieser Basis Empfehlungen formuliert.
Performanz von RIP-MTIfi
(2009)
Diese Diplomarbeit beschäftigt sich mit der Performanz von RIP-MTI, insbesondere mit der Performanz der Schleifenerkennung. Ziel der Arbeit ist es, die Zeitdauer der Schleifenerkennung von RIP-MTI zu untersuchen und Probleme, welche bei der Erkennung von Schleifen auftreten könen, aufzudecken und zu lösen.
Die Instandhaltungsstrategie Predictive Maintenance, welche sich durch das Treffen von Vorhersagen zum Ausfallverhalten technischer Einheiten auf Basis von moderner Sensortechnik auszeichnet, nimmt vor dem Hintergrund einer Industrie 4.0 eine Schlüsselrolle in Smart Factories ein. In der vorliegenden Arbeit wird der gegenwärtige Forschungsstand zur Strategie evaluiert und ein Überblick der bisherigen Einsatzgebiete gegeben. Mithilfe einer qualitativen Videoanalyse wird die Realisierung in den involvierten Branchen und Unternehmensbereichen sowie die Art der überwachten Güter untersucht. Die analysierten Videoclips wurden von verschiedenen Unternehmen, welche unterschiedliche Blickwinkel auf Predictive Maintenance einnehmen, auf der Plattform YouTube beispielsweise zu Marketingzwecken hochgeladen. Anhand eines vorab festgelegten Kodierplans wurde im Rahmen der Videoanalyse die Kodierung des Videomaterials vorgenommen. Die Ergebnisse zeigen eine überwiegende Anwendung im produzierenden Gewerbe, in dem Predictive Maintenance zur Überwachung von Anlagen und Maschinen, welche an den Produktionsprozessen beteiligt sind, eingesetzt wird. Zudem wird die Strategie in hohem Maße zur Überwachung von Verkehrsmitteln eingesetzt, welche der Güter- und Personenbeförderung auf verschiedenen Verkehrswegen dienen. Resultierend aus der Videoanalyse wird der gegenwärtig hohe Erklärungsbedarf zu Predictive Maintenance sichtbar. Durch die Betrachtung dieser Erklärungen lassen sich die Besonderheiten in Abgrenzung zu anderen Instandhaltungsstrategien erkennen.
Forschungsergebnisse zum Männerchorwesen Deutschlands im 19. Jahrhundert belegen dessen gesellschaftliche und politische Relevanz. Das so genannte Sängerwesen leistete demnach einen wesentlichen Beitrag zur Nationsbildung in Deutschland, da die Sänger durch ihren Gesang sowie durch ihre Aktivitäten im Verein und in der Öffentlichkeit zur inneren Einigung der Bevölkerung beitrugen und somit halfen, eine einheitliche Nation zu formen. Im Gegensatz dazu gab es bislang kaum Erkenntnisse über die gesellschaftlichen und politischen Hintergründe des Männerchorwesens der Pfalz im gleichen Zeitraum. Um diese Lücke zu schließen, wurde mit der vorliegenden Arbeit die Geschichte des Männerchorwesens der Pfalz erforscht, insbesondere hinsichtlich seiner Bedeutung für die Nationsbildung Deutschlands. Der Untersuchungszeitraum erstreckt sich von 1816, dem Jahr, in dem die Pfalz zum bayerischen Staatsgebiet wurde, bis zur Gründung des Deutschen Reiches im Jahre 1871.
Zunächst wird die Entwicklung des pfälzischen Sängerwesens bezüglich der Zahl der gegründeten Vereinen in den einzelnen Jahren und Orten sowie bezüglich des Feierns lokaler und regionaler Sängerfeste im Überblick und im Vergleich zum Musikvereinswesen der Pfalz im gleichen Zeitraum dargestellt. Dieser Betrachtung des pfälzischen Männerchorwesens als Ganzem folgt die Untersuchung seiner Einzelteile, der Personen und Ereignisse innerhalb einzelner Sängervereine und innerhalb bestimmter Zeitabschnitte, vor dem Hintergrund der jeweiligen politischen und gesellschaftlichen Situation. Bedeutend sind in diesem Zusammenhang vor allem die Auswirkungen der politisch-gesellschaftlichen Großereignisse Hambacher Fest von 1832 sowie Revolution von 1848/49 auf die laienmusikalischen Vereinskulturen.
Schließlich werden die einzelnen Phänomene und die Gesamtentwicklung aufeineander bezogen. Der Anhang der Forschungsarbeit beinhaltet, neben Auszügen aus den Protokollbüchern des "Cäcilienverein-Liedertafel Dürkheim" sowie Plakaten von pfälzischen Musik- und Sängerfesten der 1840er Jahre, Übersichtstabellen mit Informationen zu den Pfälzischen Musikfesten des 19. Jahrhunderts sowie zu den im Untersuchungszeitraum gegründeten Sängervereinen, außerdem Kartenmaterial zur räumlichen Verbreitung der Vereine sowie Notenmaterial zum freimaurerischen "Weihelied" des Kaiserslauterer Seminarlehrers Philipp Walter.
Das Organische Qualitätsmanagement (OQM) hat seine Wurzeln in der "Natürlichen Gemeindeentwicklung" (NGE). Der evangelische Theologe Christian A. Schwarz und der Diplompsychologe Christoph Schalk gingen im Rahmen eines internationalen Forschungsprojektes der Frage nach, ob es universell gültige Prinzipien für das qualitative und quantitative Wachstum von Kirchengemeinden gibt. Diese Studie wurde zu einem der größten Forschungsprojekte, das jemals über das Wachstum von Gemeinden durchgeführt wurde. Bis Februar 2011 wurden in über 70 Ländern 71.512 Profile für Kirchengemeinden unterschiedlichster Prägung und Konfession erstellt.
Das Ergebnis dieser fortschreitenden Studie bietet eine wissenschaftlich zu verifizierende Antwort auf die Frage: "Was sind die Wachstumsprinzipien, die unabhängig von Kultur, theologischer Prägung und Frömmigkeitsrichtung gelten und können sich diese Prinzipien auch positiv auf Non Profit Organisationen und säkulare Wirtschaftsunternehmen anwenden lassen? Kapitel 1 beschreibt zunächst die Entstehung, Herkunft und Entwicklung des OQM, d.h. den Übertragungsprozess aller Erkenntnisse aus der Entwicklung von Kirchengemeinden auf die Realität von kirchlichen Organisationen und später auf die Anforderungen eines Wirtschaftsunternehmens. Kapitel 2 geht ausführlich auf die Beschreibung der acht Qualitätsmerkmale ein. Hierbei stehen weniger die Substantive (Leitung, Mitarbeiter, Strukturen, Beziehungen etc.) im Mittelpunkt, als vielmehr die Adjektive (bevollmächtigend, gabenorientiert, zweckmäßig, vertrauensvoll etc.). Sie beschreiben, auf was es in Veränderungsprozessen wirklich ankommt.
Zu Beginn des Projektes war nicht abzusehen, ob und in welcher Weise sich die Qualitätsmerkmale und die christlichen Sozialprinzipien als Erfolgsfaktoren auch in anderen Unternehmensformen beweisen können. In Kapitel 3 werden Praxisbeispiele zeigen, dass ein dialogisch arbeitendes OQM nicht nur Kirchengemeinden sondern auch caritativen Unternehmen und sogar Wirtschaftsunternehmen helfen kann zu wachsen und somit erfolgreich zu sein.
Vereine, wie zum Beispiel die Pfadfinder, stützen sich auf die Arbeit ihrer ehrenamtlichen Mitglieder, welche eine Vielzahl von Aufgaben zu erledigen haben. Oftmals kommt es in den Reihen der Mitglieder zu plötzlichen Änderungen in den Organisationsteams und Ämtern, wobei Planungsschritte verloren gehen und Unerfahrenheit bezüglich der Planung besteht. Da die speziellen Anforderungen durch bereits existierende Tools nicht abgedeckt werden, wird zur Unterstützung von Vereinen in Bezug auf die genannte Problematik in dieser Arbeit ScOuT, ein Planungstool für die Organisationsverwaltung, konzipiert und entwickelt. Der Schwerpunkt lag darauf verschiedene geeignete Richtlinien und heuristische Methoden zu identifizieren und zu verwenden, um eine gebrauchstaugliche Benutzeroberfläche erstellen zu können. Das entwickelte Produkt wurde im Rahmen der Arbeit empirisch durch eine Benutzerumfrage bezüglich der Gebrauchstauglichkeit ausgewertet. Das Ergebnis dieser Studie zeigt, dass bereits ein hohes Maß des angestrebten Ziels durch den Einbezug der Richtlinien und Methoden erreicht werden konnte.
Daraus lässt sich im großen Kontext schließen, dass mithilfe von benutzerspezifischen Konzeptideen und der Anwendung geeigneter Richtlinien und Methoden eine zielführende Grundlage für eine gebrauchstaugliche Anwendung zur Unterstützung von Vereinen erstellt werden kann.
Mit der Microsoft Kinect waren die ersten Aufnahmen von synchronisierten Farb- und Tiefendaten (RGB-D) möglich, ohne hohe finanzielle Mittel aufwenden zu müssen und neue Möglichkeiten der Forschung eröffneten sich. Mit fortschreitender Technik sind auch mobile Endgeräte in der Lage, immer mehr zu leisten. Lenovo und Asus bieten die ersten kommerziell erwerblichen Geräte mit RGB D-Wahrnehmung an. Mit integrierten Funktionen der Lokalisierung, Umgebungserkennung und Tiefenwahrnehmung durch die Plattform Tango von Google gibt es bereits die ersten Tests in verschiedenen Bereichen des Rechnersehens z.B. Mapping. In dieser Arbeit wird betrachtet, inwiefern sich ein Tango Gerät für die Objekterkennung eignet. Aus den Ausgangsdaten des Tango Geräts werden RGB D-Daten extrahiert und für die Objekterkennung verarbeitet. Es wird ein Überblick über den aktuellen Stand der Forschung und gewisse Grundlagen bezüglich der Tango Plattform gegeben. Dabei werden existierende Ansätze und Methoden für eine Objekterkennung auf mobilen Endgeräten untersucht. Die Implementation der Erkennung wird anhand einer selbst erstellten Datenbank von RGB-D Bildern gelernt und getestet. Neben der Vorstellung der Ergebnisse werden Verbesserungen und Erweiterungen für die Erkennung vorgeschlagen.
Online Handschrifterkennung chinesischer Schriftzeichen auf androidfähigen mobilen Endgeräten
(2014)
Um mobile Wörterbücher oder Übersetzer zu verwenden, braucht es eine Eingabe. Diese muss zuvor verarbeitet werden, um nutzbar zu sein. Für chinesische Zeichen bietet sich die Handschrift an, da die Schrift hauptsächlich aus Piktogrammen und Ideogrammen besteht.
In dieser Bachelorarbeit wird ein prototypisches Erkennungssystem auf einem mobilen Endgerät implementiert. Die Erkennung soll dabei online und somit während des Schreibens erfolgen. Dies kann dem Benutzer Zeit ersparen, indem verschiedene erkannte Vorschläge zur Laufzeit gegeben werden.
Es werden Grundlagen erläutert und ein Überblick über den aktuellen Stand der Forschung gegeben. Ein Ansatz wird ausgewählt und implementiert, der möglichst schnell ist und wenig Speicherplatz erfordert. Die Implementation wird getestet und es wird gezeigt, dass es möglich ist, eine schnelle Erkennung auf einem kleinen Gerät laufen zu lassen. Es werden Verbesserungen und Erweiterungen vorgeschlagen, sowie ein Ausblick gegeben.
Forwarding loops
(2013)
Die Motivation für diese Arbeit bestand darin, den Studierenden in den Rechnerpools der Universität Koblenz die Möglichkeit zu geben, mit der Simulationssoftware VNUML (Virtual Network User Mode Linux) zu arbeiten. Eingesetzt wird diese Software in den Vorlesungen und Übungen zu Rechnernetzen I und II, was eine Anwendung der Software für die Studenten unumgänglich macht. In der Vergangenheit gab es jedoch immer wieder Probleme bei der Installation und Einrichtung auf den privaten Rechnern, obwohl in früheren Studienarbeiten mehrfach vereinfachte Installationsroutinen entwickelt worden waren. Ein weiteres Problem für die Verwendung von VNUML stellt auch die Tatsache dar, dass die Software nur in einer Linux-Umgebung lauffähig ist. Da aber nicht alle Studierenden das Betriebssystem Linux benutzen und viele vor einer Installation allein zur Verwendung von VNUML zurückschrecken, war es schon länger angedacht, diese Software an den Rechnern der Universität zur Verfügung zu stellen. In dieser Arbeit wird der Prozess beschrieben, wie eine Installation der VNUML-Software in den Rechnerpools möglich war, welche Probleme dabei aufgetreten sind und welche Alternativen zur gewählten Vorgehensweise möglich gewesen wären. Das Ergebnis bietet auch eine sehr einfache Installation für den privaten Anwender, ohne dass hierfür eine eigenständige Linux-Installation nötig wäre. Auch wurden während der Entwicklung immer weitere Verbesserungen vorgenommen, welche die Anwenderfreundlichkeit der endgültigen Lösung weiter erhöhten. Die Möglichkeiten und Ideen sind dabei auch so vielfältig, dass sich die Arbeitsgruppe noch weiter mit diesem Thema beschäftigen wird und weitere Optimierungen vorgenommen werden können.
Seit Beginn des World Wide Web hat sich die Erzeugung und Verteilung digitaler Güter (digital assets) entschieden verändert. Zur Erzeugung, Bearbeitung, Verteilung und Konsumierung bedarf es heute nicht mehr spezieller physischer Gerätschaften. Dadurch hat sich die Geschwindigkeit, in der Medien generiert und transportiert werden, enorm gesteigert. Auch die Möglichkeiten der Kooperation waren dadurch einem Wandel unterlegen bzw. wurden mancherorts erst möglich gemacht.
Die Nutzung des Internets ermöglichte zwar die Loslösung digitaler Güter von ihren physischen Trägermedien, die Bestimmungen des Urheberrechts gelten jedoch weiterhin. Dies führt gerade bei juristisch weniger erfahrenen Nutzern zu Unsicherheit darüber, wie ein konkretes digitales Gut genutzt werden darf. Andererseits wird von vielen Nutzern das gewohnte Tauschen von Medien auch auf das digitale Umfeld übertragen. Die Urheberrechtsverletzungen, die zuvor im privaten Umfeld im kleinen Rahmen stattfanden, geschehen nun global und für alle sichtbar. Da diese Form des Tausches das primäre Geschäftsmodell der Verwerter gefährdet, wird versucht, die Nutzung digitaler Güter einzuschränken bzw. für nicht berechtigte Nutzer zu unterbinden. Dies geschah und geschieht unter anderem mit Verfahren der digitalen Rechte-Verwaltung (Digital Rights Management - DRM).
Diese Verfahren sind unter Nutzern bisweilen umstritten oder werden sogar offen abgelehnt, da sie die Nutzung digitaler Güter im Vergleich zum physischen Pendant erschweren können. Zudem erwiesen sich viele dieser Verfahren als nicht sicher, so dass die verwendeten Verschlüsselungsverfahren gebrochen wurden. Mit einer "Nutzungsrechte-Verwaltung" (Usage Rights Management - URM) soll DRM im Kernprinzip zwar erhalten bleiben. Die praktische Umsetzung soll aber in eine andere Richtung vorstoßen. Der Nutzer bekommt die volle Kontrolle über die digitalen Güter (ohne die restriktiven Maßnahmen klassischer DRM-Umsetzungen), aber auch wieder die volle Verantwortung. Unterstützt wird er dabei von Software, die ihn über die rechtlichen Möglichkeiten informiert und auf Wunsch des Nutzers auch software-technische Schranken in der Benutzung setzt, ähnlich der Rechtedurchsetzung (Enforcement) bei klassischen DRM-Systemen.
URM nutzt dabei die offene Rechtedefinitionssprache ODRL. Die vorliegende Studienarbeit ist Teil des URM-Projektes der Forschungsgruppe IT-Risk-Management, welches wiederum Teil des SOAVIWA-Projektes ist. Ziel der Studienarbeit ist es, eine Java-Klasse zu entwickeln, mit der in ODRL verfasste Lizenzen als Java-Objekte abgebildet werden. Weitere zu entwickelnde Komponenten sollen diese Objekte verwalten und das Modifizieren und Erzeugen neuer Objekte zulassen. Alle Komponenten sollen Bestandteil des bereits anfänglich implementierten Toolkit für URM (TURM) sein.
Diese Arbeit beschreibt den Entwurf und die Implementierung eines Software-Routers für eine Policy-basierte Internetregulierung. Die Grundlage bildet die von Kasten und Scherp beschriebene Ontologie InFO. InFO dient der System-unabhängigen Beschreibung von Regulierungsmaßnahmen. Zudem ermöglicht InFO eine transparente Regulierung durch Verknüpfung der Regulierungsmaßnahmen mit Hintergrundinformationen. Die InFO-Erweiterung RFCO erweitert die Ontologie um Router-spezifische Entitäten. Es wird ein Software-Router entwickelt, der die RFCO auf IP-Ebene umsetzt. Die Regulierung wird transparent gestaltet, indem betroffene Nutzer vom Router über Regulierungsmaßnahmen informiert werden. Die Router-Implementierung wird exemplarisch in einer virtuellen Netzwerkumgebung getestet.
Ein Werkzeug zur schnellen Erstellung individueller Schriftarten für die jeweiligen akuten Bedürfnisse wäre ein hilfreiches Instrument für Grafiker und Typographen. Die Anforderung für ein solches Instrument kann kaum sein, gute Schriftsätze zu erzeugen, dies liegt in den Händen des Gestalters, jedoch sollte sie jedem, der sich mit dem Thema befassen möchte, einen leichten Einstieg in die Gestaltung geben. Diese Arbeit versucht somit eine möglichst simple Lösung für das komplexe Thema der Schriftgestaltung zu liefern.
Diese Bachelorarbeit befasst sich mit der Konzeption, Implementierung und Evaluation eines Jump'n'Run Spiels und der Betrachtung des Einflusses von Erfolgssystemen auf Spieler. Im Spiel Age of Tunes spielt man Bardur, den bartlosen Barden und muss versuchen, die verfluchten magischen Geschöpfe in der Welt Harmonica zu befreien. Der Schwerpunkt der Arbeit lag bei der sauberen Konzeption und schrittweisen Entwicklung des Spiels, ansprechender graphischer Qualität, Einbindung von Gegnern, einem Minispiel und der Betrachtung von Auswirkungen eines Erfolgssystems auf Spieler. In einer abschließenden Evaluation konnten das Spiel und das Verhalten bezüglich der Erfolge bewertet werden.
Es gibt einige Gaze Tracking Systeme, sowohl high- als auch low-cost. Low-cost Systeme gehen meist mit low-resolution Kameras einher. Da hier die Bildqualität schlechter ist, müssen die Algorithmen umso besser arbeiten. Aber wie soll man die Algorithmen die der Erkennung der Blickrichtung dienen, testen, wenn die Bildqualität geringer ist und man nie korrekte Aussagen über die Referenzpunkte treffen kann? Hier greift die Idee dieser Arbeit: Mit Hilfe synthetischer Augenbilder testet man die betreffenden Algorithmen und kann diese, da die Referenzpunkte bekannt sind, analysieren. Eine Veränderung der Komplexität dieser Bilder z. B. mit Hilfe eines zuschaltbaren Gaußrauschens oder eines weiteren Reflektionspunktes, macht es möglich, diese in Stufen der Realität anzunähern. Im Idealfall kann man die Algorithmen mit den aus den Testreihen gewonnenen Erkenntnissen verbessern und bei Anwendung innerhalb eines low-resolution Systems dessen Genauigkeit erhöhen.
Der Bereich der Annotation von digitalen Medien ist umfassend erforscht. Es gibt viele verschiedene innovative Ideen Annotationsprozesse zu gestalten. Den wahrscheinlich größten Anteil an verwandten Arbeiten hat die semiautomatische Annotation. Eine Eigenschaft aber ist allen Arbeiten gemein: Keine dieser Arbeiten untersucht, wie man ein Interface für einen Annotationsprozess optimieren kann, um den Nutzer zu unterstützen und folglich zufriedener zu machen. Die hier vorliegende Arbeit versucht im Rahmen einer Benutzerstudie die Usability Eigenschaften von verschiedenen Interface Varianten zu vergleichen, um anschließend Aussagen darüber machen zu können, welche Funktionen ein Annotationsinterface haben sollte und darf, um eben genau diese betreffenden Anforderungen zu erfüllen. Hierzu wurden verschiedene Ideen für Interfaces gesammelt, im Rahmen einer Diskussionsrunde mit Experten erörtert und letztendlich basierend auf den verbliebenen Ideen Variablen festgelegt, mit deren Kombination untereinander verschiedene Interfaces entstanden sind. Im Rahmen dieser Nutzerstudie konnte die Tendenz festgestellt werden, dass eine Autocompletion Funktion und Tag-Vorschläge während der Annotation hilfreich für den Nutzer sind. Außerdem konnte festgestellt werden, dass eine farbige Kennzeichnungen von Tag-Typen nicht störend auf den Nutzer wirken, sondern sich Ansätze in Richtung hilfreich erwiesen. Ähnliche Tendenzen wurden für ein Layout mit nur 2 User Interface Elementen aus den Daten abgelesen. Des weiteren konnte mit Hilfe der Evaluation ein weiteres Beispiel dafür gefunden werden, dass es zum Teil erhebliche Unterschiede zwischen den Nutzern gibt, was intuitiv ist und was nicht. Für die Gestaltung von zukünftigen Annotationsinterfaces bedeuten die Erkenntnisse, dass weitere Nutzerstudien im Bereich der Annotationsinterfaces durchgeführt und bei der Gestaltung der Interfaces von klassischen Merkmalen, im Sinne der Nutzerzufriedenheit, abgewichen werden darf.
Ziel dieser Arbeit war es, den in [Rhe06] dargestellten operationalen Ansatz zur Modelltransformation mit Hilfe der am Institut für Softwaretechnik der Universität Koblenz-Landau vorhandenen Bibliotheken "JGraLab" und "GReQL" in Java zu implementieren. Die Implementierung sollte beweisen, dass der aufgezeigte Transformationsansatz in der Praxis umsetzbar ist. Dies wurde durch verschiedene Beispiele bewiesen. Die geplante Verwendung in weiteren Projekten des IST wird für die Zukunft zeigen, ob sich weitere Transformationen umsetzten lassen oder wo die Grenzen des Ansatzes sind. Des weiteren ist denkbar, die Transformationen nicht mehr in zwei Schritten (Schematransformation vor Graphtransformation), sondern beide Schritte auf einmal ablaufen zu lassen. Dieser Schritt setzt jedoch voraus, dass JGraLab dies ebenfalls unterstützt.
Die Digitalisierung und die mediale Weiterentwicklung sind Kernprozesse des aktuellen digitalen Zeitalters. Damit auch Unternehmen vom technischen Fortschritt profitieren können, müssen jeweilige Kompetenzen vorhanden sein oder erworben werden. Unternehmen stehen hier also vor der Aufgabe mit der Masse an Neuheiten und Möglichkeiten nicht überfordert zu sein und diese im besten Fall für die eigene Leistungssteigerung nutzen zu können.
Da kleine und mittelständische Unternehmen 99 % aller Unternehmen in Deutschland darstellen und nicht bekannt ist, wie vor allem die sehr kleinen Unternehmen und ihre Mitarbeiter mit o.g. Entwicklung mitziehen können, wird genau diese Thematik in der vorliegenden Arbeit erforscht. Die Forschungsfrage besteht somit aus zwei Teilforschungsfragen. Zum einen: „Wird sich in den Kleinstunternehmen um die Kompetenzförderung der Mitarbeiter gekümmert?“ und zum anderen: „Wo sind hier die Chancen und Herausforderungen für Unternehmen dieser Größe?“
Um die Forschungsfrage zu beantworten, wurde sich einer qualitativen Forschungsmethode bedient, dem leitfadengestützten Interview. Die interviewten Unternehmen bewegten sich alle im Medien- und IT-Bereich. Somit konnte sich durch die aufgezeichneten und transkribierten Daten ein realer Einblick in die aktuelle Situation in Kleinstunternehmen verschafft werden.
Die Antworten der Interviews zeigten, dass Unternehmen mit sehr geringen Mitarbeiteranzahlen, von ihren Mitarbeitern abhängiger sind als andere. Also ist das Engagement der Mitarbeiter entscheidend für den Erfolg des Ganzen. Dieses zu fördern und die Mitarbeiterzufriedenheit zu gewährleisten ist die Aufgabe der Unternehmensleitung.
Unternehmen, in denen die Förderung der Mitarbeiter mehr Beachtung erfährt, bilden also die perfekte Anlaufstelle für Berufseinsteiger, die sich und ihren gesamten Erfahrungshorizont noch weiterentwickeln müssen und/oder wollen.
Fehler in der Anforderungsanalyse führen häufig zu Misserfolgen in der Entwicklung von Softwaresystemen. Seit einiger Zeit wird versucht, diesem Problem durch Requirements- Engineering zu begegnen. Durch die frühe Beteiligung aller Stakeholder an der Entwicklung eines Systems sowie eine strukturierte Vorgehensweise zur Ermittlung und Analyse von Anforderungen an ein zu erstellendes System hat es als erster Schritt in der Entwicklung von Softwaresystemen zunehmend an Bedeutung gewonnen. Die steigende Komplexität moderner Softwaresysteme bringt jedoch eine gewaltige Menge an Informationen mit sich, die während der Analyse erfasst und verwaltet werden müssen. Dieser Informationsflut ist ohne Unterstützung durch entsprechende Software kaum beizukommen. Vor allem in größeren, räumlich verteilten Projekten wäre ein effektives Requirements-Engineering sonst kaum möglich. Es gibt inzwischen eine Vielzahl von Tools, die das Requirements-Engineering unterstützen. Diese Tools sind bereits seit geraumer Zeit im Einsatz und setzen in ihren aktuellsten Versionen die wichtigsten Konzepte des Requirements-Engineering um. Im Rahmen dieser Arbeit werden einige dieser Tools im Hinblick auf Funktionsumfang und Verzeichnisstruktur untersucht. Besonderes Interesse galt der Verwaltung von Anforderungen und deren Abhängigkeiten untereinander. Die gewonnenen Erkenntnisse werden anschließend in ein Referenzmodell integriert.
Die vorliegende Arbeit beschäftigt sich mit Qualitätssicherungsansätzen für modellbasierte SRS (d.h. Lasten- und Pflichtenhefte), im Speziellen mit SRS-Modellen und SRS-Modellvisualisierungen (d.h. Diagrammen). Das Besondere an modellbasierten SRS-Dokumentationen ist, dass sie durch einen Dokumentationsgenerator aus dem Input SRS-Modell, SRS-Modellvisualisierungen und modellexternen Texten generiert werden. Um die Qualität der Dokumentation zu sichern, muss somit die Qualität der folgenden vier Faktoren gesichert werden: SRS-Modell, SRS-Modellvisualisierungen, modellexterne Texte und Dokumentationsgenerator. Ziel dieser Arbeit ist es, einen Qualitätsbegriff für SRS-Modelle und -Modellvisualisierungen zu definieren und ein Vorgehen zur Realisierung automatischer Qualitätsprüfung, -messung und -bewertung (d.h. Qualitätssicherung) im Modellierungswerkzeug Innovator aufzuzeigen.
Politiker wünschen die Nähe zu den Bürgern und damit die Nähe der Bürger zu ihnen. Diese zunächst wie ein Gemeinplatz anmutende These wird bestätigt durch die im Jahre 2010 erstellte Deutsche Parlamentarier Studie (DEUPAS). Die Studie macht deutlich, dass mit der Bürgernähe der Wunsch nach verstärkter Einbindung der Bürger in politische Entscheidungsprozesse einhergeht. Wie auch in anderen Bereichen sozialer Interaktionen zeigt sich das Internet in diesem Zusammenhang als mögliche Schnittstelle zwischen Bürgern und Entscheidern. So stellt auch die Politik unter dem Begriff E-Partizipation digitale Beteiligungsmöglichkeiten bereit, in der Absicht, Reaktionen und Kommentare der Bürger zu besonderen Angelegenheiten oder Themen zu sammeln. Auch wenn diese Angebote bisweilen erfolgreiche Konzepte beinhalten, werden die meisten nur von einer geringen Anzahl potenzieller Adressaten genutzt. Gleichzeitig steigt abseits dieser strukturierten und problemzentrierten Portale die Begeisterung der Gesellschaft für die Nutzung sozialer Netzwerke, die somit Eingang in den Alltag gefunden haben. Hier ist eine hohe Aktivität auf allen mehr oder minder relevanten Gebieten zu beobachten, unter anderem auch in der Diskussion politischer Themen. Insofern sind soziale Netzwerke für Politiker wichtig und attraktiv, und zwar auf allen politischen Ebenen, wo die sozialen Netzwerke inzwischen in die alltägliche Arbeit integriert sind.
Problematisch ist jedoch der kontinuierliche Anstieg digitaler "Informationsschnipsel" (englisch: information overload). Eine manuelle Filterung relevanter aus der Vielzahl irrelevanter Beiträge erscheint nahezu unmöglich. Folglich werden neue Techniken und Konzepte (Analyse-Software) zur Sammlung und Analyse der Informationsflut präsentiert. Sie versprechen einen leichten und schnellen Überblick, um die relevanten Informationen zu extrahieren. Insofern ist es gerade für die Politik von hoher Dringlichkeit, nach Nutzbarkeit und Nützlichkeit solcher Instrumente zu fragen.
Die vorliegende Arbeit untersucht die Relevanz von Analysesoftware-Ergebnissen für die Verwendung im politischen Alltag. Der Schwerpunkt liegt auf den sozialen Netzwerken Facebook und Twitter als Datenlieferanten. Die Bewertung erfolgt in Kooperation mit und durch politische Entscheider aus dem Deutschen Bundestag, dem Landtag von Nordrhein-Westfalen, der Staatskanzlei des Saarlandes sowie der Städte Köln (Abteilung E-Government) und Kempten (Pressestelle der Stadt Kempten, Allgäu, im Büro des Oberbürgermeisters).
In der Hauptuntersuchung wird für jeden Teilnehmer ein individueller Analysereport erstellt, der mit einem Methodenmix aus qualitativen Verfahren ausgewertet wird. Die Analysedaten werden mit der WeGov-Toolbox, eine Entwicklung des EU-Projektes WeGov und den darin enthaltenen Analysekomponenten erzeugt. Der Fokus liegt dabei auf der Auswertung des Wahlkreises, des lokalen Bereiches sozialer Netzwerke. Im Rahmen dieser Arbeit wird nicht nur der Relevanz von Analysedaten nachgegangen, sondern es wird auch untersucht, ob Bürgernähe oder sogar Bürgerbeteiligung mit den aus der Analysesoftware gewonnenen Ergebnissen und den daraus resultierenden Rückschlüssen und möglicherweise Handlungen positiv vorangetrieben werden kann.
Die Antworten der Teilnehmer führen zu wesentlichen Schlussfolgerungen:
1) Keiner der Teilnehmer geht davon aus, dass Bürgerbeteiligung über diesen Weg gelingt. Anders fällt die Bewertung in Bezug auf eine Realisierung von Bürgernähe aus: Die Teilnehmer bestätigen vereinzelte Ergebnisse, die besagen, dass Bürgernähe über diesen Ansatz, d.h. über die daraus gewonnenen Erkenntnisse unterstützt werden kann. Damit erhalten Politiker Informationen darüber, was die Bürger denken und sagen.
2) Potenzielle Nutzer werden in der Regel solche sein, die zwar Erfahrung mit sozialen Netzwerken besitzen, jedoch keine "Poweranwender" sind. Daher bietet sich der Einsatz der Tools eher auf Parteiebene und in der Parlamentsarbeit an als auf der Ebene des einzelnen Politikers, der eher gewohnt ist, auf Facebook und Twitter direkt zu reagieren, die analytische Arbeit jedoch bevorzugt von den Partei- und/ oder Abgeordnetenbüros erledigen lässt.
3) Vergleicht man die ländlichen mit den urbanen Regionen, zeigt sich, dass die Menge von relevanten politischen Informationen auf dem Land gering ist. Während die Menge öffentlich zugänglicher Informationen in urbanen Regionen relativ groß ist, hat diese Menge in ländlichen Bereichen sehr viel weniger Gewicht.
Die Erkenntnisse aus den Befragungen werden in der vorliegenden Dissertation systematisch erhoben und ausgewertet.
In der vorliegenden Arbeit wird die Integration einer Business Intelligence-Lösung in eine bestehende Social Software beschrieben. Dafür wird zunächst der Begriff Business Intelligence und Social Software, der Aufbau sowie deren Bestandteile näher erläutert. Danach erfolgt eine Analyse der IST-Situation der Zielgruppe durch Interviews, deren Auswertungen in der SOLL-Konzeptionierung in eine Anforderungsliste transformiert werden. Abschließend werden die herausgearbeiteten Anforderungen an der finalen Installation geprüft und getestet, um festzustellen ob die Erwartungen der Zielgruppe und ihre Vorstellungen von Business Intelligence realisierbar sind.
Das Ergebnis dieser Arbeit soll eine installierte Business Intelligence-Lösung in einer Social Software sein. Diese soll einen Überblick darüber geben, was mit der aktuellsten Version der Software bereits möglich ist und kritisch aufzeigen, wo es Stärken und Schwächen gibt, die bei zukünftigen Versionenrnbedacht werden sollten.
Retrospektive Analyse der Ausbreitung und dynamische Erkennung von Web-Tracking durch Sandboxing
(2018)
Aktuelle quantitative Analysen von Web-Tracking bieten keinen umfassenden Überblick über dessen Entstehung, Ausbreitung und Entwicklung. Diese Arbeit ermöglicht durch Auswertung archivierter Webseiten eine rückblickende Erfassung der Entstehungsgeschichte des Web-Trackings zwischen den Jahren 2000 und 2015. Zu diesem Zweck wurde ein geeignetes Werkzeug entworfen, implementiert, evaluiert und zur Analyse von 10000 Webseiten eingesetzt. Während im Jahr 2005 durchschnittlich 1,17 Ressourcen von Drittparteien eingebettet wurden, zeigt sich ein Anstieg auf 6,61 in den darauffolgenden 10 Jahren. Netzwerkdiagramme visualisieren den Trend zu einer monopolisierten Netzstruktur, in der bereits ein einzelnes Unternehmen 80 % der Internetnutzung überwachen kann.
Trotz vielfältiger Versuche, dieser Entwicklung durch technische Maßnahmen entgegenzuwirken, erweisen sich nur wenige Selbst- und Systemschutzmaßnahmen als wirkungsvoll. Diese gehen häufig mit einem Verlust der Funktionsfähigkeit einer Webseite oder mit einer Einschränkung der Nutzbarkeit des Browsers einher. Mit der vorgestellten Studie wird belegt, dass rechtliche Vorschriften ebenfalls keinen hinreichenden Schutz bieten. An Webauftritten von Bildungseinrichtungen werden Mängel bei Erfüllung der datenschutzrechtlichen Pflichten festgestellt. Diese zeigen sich durch fehlende, fehlerhafte oder unvollständige Datenschutzerklärungen, deren Bereitstellung zu den Informationspflichten eines Diensteanbieters gehören.
Die alleinige Berücksichtigung klassischer Tracker ist nicht ausreichend, wie mit einer weiteren Studie nachgewiesen wird. Durch die offene Bereitstellung funktionaler Webseitenbestandteile kann ein Tracking-Unternehmen die Abdeckung von 38 % auf 61 % erhöhen. Diese Situation wird durch Messungen von Webseiten aus dem Gesundheitswesen belegt und aus technischer sowie rechtlicher Perspektive bewertet.
Bestehende systemische Werkzeuge zum Erfassen von Web-Tracking verwenden für ihre Messung die Schnittstellen der Browser. In der vorliegenden Arbeit wird mit DisTrack ein Framework zur Web-Tracking-Analyse vorgestellt, welches eine Sandbox-basierte Messmethodik verfolgt. Dies ist eine Vorgehensweise, die in der dynamischen Schadsoftwareanalyse erfolgreich eingesetzt wird und sich auf das Erkennen von Seiteneffekten auf das umliegende System spezialisiert. Durch diese Verhaltensanalyse, die unabhängig von den Schnittstellen des Browsers operiert, wird eine ganzheitliche Untersuchung des Browsers ermöglicht. Auf diese Weise können systemische Schwachstellen im Browser aufgezeigt werden, die für speicherbasierte Web-Tracking-Verfahren nutzbar sind.
Eine zutreffende Diagnose über den aktuellen Kenntnisstand der jeweiligen Schülerinnen und Schüler ist notwendig, um adäquat in Gruppenarbeitsprozesse intervenieren zu können. Von diesem Zusammenhang wird in der Literatur weit-gehend ausgegangen, jedoch gibt es bisher kaum empirische Studien, die diesen belegen. Die vorliegende Arbeit widmet sich schwerpunktmäßig dem Interventi-onsverhalten von Studierenden. Dabei wird die prozessdiagnostische Fähigkeit „Deuten“ zugrundegelegt, um unterschiedliches Interventionsverhalten auf diese Fähigkeit zurückführen zu können. Sowohl beim Aufbau diagnostischer Fähig-keiten als auch bei der (Weiter-)Entwicklung des eigenen Lehrerhandelns gilt Reflexion als hilfreich. Entsprechend wird auch das Zusammenspiel von Pro-zessdiagnose und Reflexionsverhalten sowie von Interventionsverhalten und Reflexionsverhalten untersucht.
Für die Erhebung der prozessdiagnostischen Fähigkeit „Deuten“ wurden drei Videovignetten erstellt und in das Videodiagnosetool ViviAn eingebunden. Die Videovignetten zeigen jeweils vier Schülerinnen, die sich mit dem Thema „Ter-me“ beschäftigen. Im Rahmen eines Lehr-Lern-Labores wurden über vier Se-mester hinweg alle teilnehmenden Studierenden dazu angehalten, die Videovig-netten zu bearbeiten. Ebenso konzipierten sie jeweils zu dritt eine Laborstation im Mathematik-Labor „Mathe ist mehr“ und erprobten diese mit einer Schul-klasse. Dabei wurden die Interventionen der Studierenden in die Gruppenarbeits-prozesse der Schülerinnen und Schüler videographiert. Anschließend reflektierten die Studierenden in Kleingruppen über die Erprobungen und über die getätigten Interventionen. Die Reflexionsgespräche wurden ebenfalls videographiert.
Es zeigt sich, dass die Studierenden, die sich zum Zeitpunkt der Erhebung im Masterstudium befanden, noch Entwicklungsspielraum in Bezug auf ihre pro-zessdiagnostische Fähigkeit „Deuten“ besitzen. Im Hinblick auf die Interventio-nen waren responsive Interventionen häufiger angemessen als invasive Interven-tionen, wobei responsive Internvetionen auch vergleichsweise häufiger dazu führten, dass mehr Schülerinnen und Schüler nach der Intervention aktiv waren. Studierende mit höherer prozessdiagnostischer Fähigkeit „Deuten“ intervenierten jedoch häufiger invasiv und tätigten dabei trotzdem angemessenere und aktivie-rendere Interventionen als ihre Kommilitoninnen und Kommilitonen. Entspre-chend scheint sich die prozessdiagnostische Fähigkeit „Deuten“ positiv auf die Interventionen der Studierenden auszuwirken und sollte daher bereits im Rah-men des (Lehramts-)Studiums verstärkt geschult werden.
In der Masterthesis von Benjamin Waldmann mit dem Titel „Flusskrebse in Deutschland – Aktueller Stand der Verbreitung heimischer und invasiver gebietsfremder Flusskrebse in Deutschland; Überblick über die erfolgten Schutzmaßnahmen und den damit verbundenen Erfahrungen; Vernetzung der Akteure im Flusskrebsschutz“ wurden erstmals für alle heimischen wie gebietsfremden Flusskrebsarten (Zehnfußkrebse) Verbreitungskarten für Deutschland vorgelegt. Grundlage der Arbeit waren umfangreiche Recherchen und Abfragen zur Verbreitung der Arten in den Bundesländern bei den zuständigen Behörden, Institutionen, Artexperten und Privatpersonen. Die Rohdaten wurden qualitätsgesichert und in einem Geoinformationssystem aufbereitet und dargestellt, so dass daraus bundesweite Verbreitungskarten für jede Art in einem zehn Kilometerraster (UTM-Gitter im Bezugssystem ETRS89) erstellt werden konnten. Darüber hinaus wurden, ebenfalls auf Basis umfangreicher Recherchen und Abfragen, die unterschiedlichen Möglichkeiten für Schutzmaßnahmen für heimische Flusskrebspopulationen aufgezeigt, bewertet und daraus Empfehlungen abgeleitet. Besonderes Augenmerk wurde dabei auf das Management invasiver gebietsfremder Flusskrebsarten sowie der Umgang mit der Tierseuche Krebspest (Aphanomyces astaci) gelegt. Abschließend wurden Empfehlungen zur Vernetzung der Akteure im Flusskrebsschutz gegeben sowie die Ansprechpartner:innen in den einzelnen Bundesländern aufgeführt.
Abstract zum Print-Buch: Walden, R. (2008). Architekturpsychologie: Schule, Hochschule und Bürogebäude der Zukunft. Lengerich: Pabst Science Publishers. Menschen wünschen sich im Allgemeinen „Kontrolle“ über ihre Umweltbedingungen (vgl. Flammer, 1990; Burger, 1992). Dieses Bedürfnis kommt in Form von Selbstgestaltungen von Architektur und Selbstregulierungen von Stressoren zum Ausdruck. Aus diesem Grund wird das Konzept der Umweltkontrolle als zentrales Kriterium für gebaute Umwelten in allen drei Fall-Studien zu Schule, Hochschule und Büro angewendet. Die Erhebung smethoden Programming (nutzerorientierte Programmentwicklung), User-Needs Analysis (Nutzer-Bedarfs-Analyse) und Post-Occupancy Evaluation werden im Hinblick auf ihren Stellenwert für die Building Performance Evaluation (Gebäudeleistungsevaluation) (Preiser & Schramm, 1997; 2005) erläutert. Der „Koblenzer Architekturfragebogen“ wird als Instrument zur Beurteilung von gebauten Umwelten in drei Varianten vorgestellt. Es werden zu den drei Studien jeweils ausgewählte Ergebnisse zu zwei verschiedenen Umweltbereichen berichtet.
Auswirkungen von Architektur auf Performance von Nutzern (vgl. BOSTI-Studien, 1984, 2001) werden im empirischen Teil in drei Studien zu innovativen Gebäuden (Waldorfschule in Köln, Universität in Koblenz, Post Tower in Bonn) ermittelt. Performance wird gemessen anhand von 1) Lern- und Arbeitsleistungen, 2) Wohlbefinden und 3) Umweltkontrolle sowie 4) Sozialverhalten im Fall der Schulstudie und mit der Hilfe von 16 (Bürogebäude) bzw. 21 (Universität) psychologischen Kriterien für den Erfolg von Organisationen. Ziel aller drei Studien ist unter anderem, das theoretische Konzept „Umweltkontrolle“ zu überprüfen und Empfehlungen für Verbesserungen von Um- bzw. Neubauten benennen zu können. Zwei zentrale Frages tellungen lauten daher: Unterscheidet sich in einer User-Needs Analysis eine Einschätzung des Gebäudes „zur Zeit“ von der Beurteilung der „Wichtigkeit in Zukunft“? Haben Merkmale der Architektur Auswirkungen auf die Performance-Kriterien?
Zu den Studien wurden drei Abbildungssätze nach dem Facettenansatz (Borg, 1996) und zwei Schemata zur Beurteilung der Qualität von Schul- und Bürogebäuden entwickelt. Aus den Schemata wurden zur Schule 139 Fragen für 26 Lehrer und 86 Fragen für 122 Schüler gewonnen, zur Hochschule 203 Fragen für 147 Studierende und 28 Dozenten sowie zu dem Bürogebäude 254 Fragen für 56 studentische Beurteiler. Einzelne Merkmale von Gebäuden wurden anhand einer Skala von +2 ☺☺ („zur Zeit“ sehr gut bzw. sehr wichtig „in Zukunft“) bis –2 // („zur Zeit“ sehr schlecht bzw. sehr unwichtig „in Zukunft“) bewertet. Die drei Performance-Hauptkriterien, insbesondere zu der Einschätzung der „Wichtigkeit in Zukunft“, korrelieren in der Regel in allen drei Studien substanziell und hoch signifikant miteinander, so dass erwartet werden kann, dass eine höhere Ei nschätzung von Umweltkontrolle durch die Nutzer
zu mehr Wohlbefinden führt und über beide Va riablen auch die Beurteilungen von Lern- und Arbeitsleistungen „in Zukunft“ gesteigert werden können. Nach den Ergebnissen der drei Studien wünschen si ch die Nutzer bzw. Beurteiler beispielsweise in allen drei Umwelten Rückzugsmöglichkeiten, in der Schule in Form von Schülerbüros, Nischen und Sitzgruppen im Klassenzimmer, in der Universität in Form von geschützten Bänken im Außenbereich und Arbeitstischen zum Beispiel in der Cafeteria und im Bürogebäude durch weniger Transparenz im Kombibüro und damit weniger Einsicht aller Tätigkeiten durch Vorgesetzte und Kollegen. Die in den drei Studien ermittelten Zusammenhänge der zentralen Perfor mance-Kriterien lassen begründet annehmen, dass durch gezielte Verbesserungen wichtiger Umweltaspekte, insbesondere solcher, die Umweltkontrolle ermöglichen, das Wohlbefinden und somit die Leistung von Nutzern positiv beeinflusst werden kann.
Menschen wünschen sich im Allgemeinen "Kontrolle" über ihre Umweltbedingungen. Dieses Bedürfnis kommt in Form von Selbstgestaltungen von Architektur und Selbstregulierungen von Stressoren zum Ausdruck. Aus diesem Grund wird das Konzept der Umweltkontrolle als zentrales Kriterium für gebaute Umwelten in allen drei Fall-Studien zu Schule (Waldorfschule Köln), Hochschule (Universität Koblenz) und Bürogebäude (Post Tower Bonn) angewendet. Im deutschen Sprachraum werden damit erstmalig in einer Monographie psychologische Untersuchungen von innovativen Gebäuden in Anlehnung an die International Building Performance Evaluation (Gebäudeleistungsevaluation) beschrieben. Der "Koblenzer Architekturfragebogen" wird als Instrument zur Beurteilung von gebauten Umwelten in drei Varianten vorgestellt. Bis zu 21 psychologische Kriterien für den Erfolg von Organisationen werden pro Studie angewandt. Ziel aller drei Studien ist unter anderem, Empfehlungen für Verbesserungen von Um- und Neubauten benennen zu können. Zwei zentrale Fragestellungen lauten daher: Unterscheidet sich in einer User-Needs Analysis eine Einschätzung des Gebäudes "zur Zeit" von der Beurteilung der "Wichtigkeit in Zukunft"? Haben Merkmale der Architektur Auswirkungen auf die Performance-Kriterien? Zu den Studien wurden drei Abbildungssätze nach dem Facettenansatz und zwei Schemata zur Beurteilung der Qualität von Schul- und Bürogebäuden entwickelt. Die in den drei Studien ermittelten Zusammenhänge der zentralen Performance-Kriterien lassen begründet annehmen, dass durch gezielte Verbesserungen wichtiger Umweltaspekte, insbesondere solcher, die Umweltkontrolle ermöglichen, das Wohlbefinden und somit die Leistung von Nutzern positiv beeinflusst werden können.
Die vorliegende Diplomarbeit thematisiert die quantitative Analyse und die Visualisierung von Infarktgewebe des linken Herzmuskels. Im Mittelpunkt der Untersuchung steht das Ausmaß der Narbe und deren Deformation ueber den Herzzyklus. Fuer die Narbenausdehnung stehen so genannte Late-Enhancement-Daten zur Verfuegung, die das avitale Gewebe durch ein Kontrastmittel hervorheben. Anhand von automatisierten Verfahren wird die Narbe aus den Bilddaten extrahiert und auf ihre Groesse, Lokalisation und Transmuralitaet quantifiziert. Die Transmuralitaet gibt dabei das lokale Verhaeltnis zwischen der Herzwand- und der Narbenbreite an. Des Weiteren wird die Narbe für die Beurteilung der Beschaffenheit dreidimensional in dem Analysefenster dargestellt. Der Mediziner kann durch das entwickelte Verfahren innerhalb kuerzester Zeit Aussagen ueber das Ausmass und den Ursprung des Herzinfarktes treffen und zudem die Ergebnisse durch verschiedene visuelle Darstellungen kontrollieren. Die Deformation des Narbengewebes über den Herzzyklus und deren Integration mit den dynamischen Cine-Daten wurde bereits in einer vorangegangenen Diplomarbeit umgesetzt. Im Rahmen dieser Arbeit wird eine visuelle Verbesserung der Deformationsergebnisse angestrebt, die das Narbengewebe aus den Volumendaten extrahiert. Das avitale Gewebe wird durch das Eliminieren von uninteressanten Bildinformationen hervorgehoben und verbessert somit die visuelle Analyse der Narbendeformation ueber den Herzzyklus. Beide Verfahren liefern eine detaillierte und eindeutige Analyse des Infarktgewebes, die die manuelle Untersuchung in der klinischen Praxis ergaenzen kann.
In der vorliegenden Untersuchung geht es um methodische Fragen der Unterrichtswahrnehmung aus Schülersicht. Dabei werden theoretische Ansätze zur Urteilsbildung aus der Klassenklima- und der kognitiv fundierten Survey-Forschung sowie der Forschung zur Interpersonalen Wahrnehmung diskutiert. Weiterhin werden Modelle zur inhaltlichen Interpretation von Aggregatmerkmalen (sogenannte Kompositionsmodelle) und zum Einfluss sogenannter "Halo"-Effekte berücksichtigt. Die relevanten Aspekte aus den genannten Theorien sowie empirische Befunde zum Einfluss von Fachleistung, Schulnote und Geschlecht auf die Beurteilung des Unterrichts werden in einem Modell zur Unterrichtswahrnehmung aus Schülersicht zusammengeführt. Daneben werden in der vorliegenden Untersuchung Möglichkeiten und Grenzen verschiedener statistischer Verfahren zur Analyse von Daten zur Wahrnehmung des Unterrichts aus Schülersicht aufgezeigt und diskutiert. Dabei geht es um Fragen der absoluten Übereinstimmung von Urteilern vs. der Interrater-Reliabilität. Weiterhin werden Grundlagen und Effekte von Verletzungen der Annahmen mehrebenenanalytischer konfirmatorischer Faktorenanalysen dargestellt, die im Rahmen einer Monte-Carlo-Studie überprüft werden. Datengrundlage der vorliegenden Untersuchung sind im Rahmen des Projekts DESI (Deutsch Englisch Schülerleistungen International) erhobene Fragebogendaten aus 330 Klassen bzw. Kursen der neunten Jahrgangsstufe, sowie im Längsschnitt erhobene Testleistungen in den Bereichen Deutsch und Englisch. Die Ergebnisse der Analysen bestätigen in großen Teilen das zugrunde gelegte theoretische Modell: Es zeigen sich hohe relative Übereinstimmungen der unterrichtsbezogenen Urteile von Schülerinnen und Schülern. Der Einfluss der Kommunikation mit Mitschülern auf die Urteilsbildung zeigt sich v.a. in der Gruppe der Mädchen. Die theoretischen Unterrichtsmerkmale lassen sich als Faktoren auf beiden Analyseebenen (innerhalb von Klassen und zwischen Klassen) nachweisen, wobei diese " bis auf wenige Ausnahmen " ebenen- sowie fachübergreifend nur im Sinne analoger und nicht "isomorpher" Konstrukte interpretierbar sind. Daneben finden sich deutliche Hinweise auf eine eher Lehrkraft- statt Unterrichtsfach-bezogene Wahrnehmung auf beiden Ebenen. Der Itemformulierung (Ich vs. Klassen-Bezug) kommt insgesamt betrachtet eine eher geringe Bedeutung zu. Bezüglich der Unterrichtswahrnehmungen finden sich Einflüsse der oben genannten Prädiktoren insbesondere auf der Ebene innerhalb von Klassen. Auf Klassenebene zeigt sich ein möglicher Einfluss einer "milden" Benotung auf die geteilte Unterrichtswahrnehmung. Die auf beiden Ebenen deutlichsten Effekte auf die Unterrichtswahrnehmung finden sich bei den Globalurteilen bezüglich der jeweiligen Lehrkraft. Zusammengenommen mit den extrem hohen Interkorrelationen der Faktoren innerhalb eines Fachs (die sich jeweils auf dieselbe Lehrkraft beziehen) und den " aufgrund von Effekten auf Schulebene etc. erwartungswidrigen " niedrigen bis nicht vorhandenen fachübergreifenden Interkorrelationen spricht dies in hohem Maße für eine Verzerrung der Unterrichtswahrnehmung im Sinne einer globalen Wahrnehmungstendenz. Die globale Wahrnehmung muss allerdings gleichzeitig überwiegend als Ergebnis von Unterrichtswahrnehmungen betrachtet werden: Hier zeigen sich die auf der Basis empirischer Untersuchungen theoretisch postulierten unterschiedlichen Gewichtungen der einzelnen Unterrichtsmerkmale über verschiedene Klassen hinweg.
Das Lernen und Verstehen dynamischer Sachverhalte kann sowohl anhand von statischen Bildern als auch von Animationen erfolgen. Da die bisher vorliegenden Befunde keine eindeutige Überlegenheit der einen oder der anderen Repräsentationsform erkennen lassen, sind differenziertere Wirkungsanalysen erforderlich. Grundannahme der vorliegenden Dissertation war, dass beide Darstellungsformen unterschiedlich gut für den Aufbau dynamischer mentaler Modelle einerseits und den Aufbau dynamischer perzeptueller Repräsentationen andererseits geeignet sind. Es wurde erstens angenommen, dass dynamische mentale Modelle keine kontinuierlichen mentalen Simulationen ermöglichen, sondern aus einer Sequenz von diskreten prototypischen Prozess-Zuständen (sog. "key states") bestehen und deshalb besser anhand statischer Bilder dieser "key states" als anhand einer Animation konstruiert werden können. Zweitens wurde angenommen, dass perzeptuelle Repräsentationen dynamischer Sachverhalte aus dynamischen Schemata bestehen, die besser anhand einer Animation als anhand von statischen Bildern gebildet werden können. Als Indikator für die Qualität mentaler Modelle wurden Inferenzaufgaben verwendet, bei denen durch Manipulation dieser Modelle neue Informationen zu erschließen sind. Als Indikator für die Qualität dynamischer perzeptueller Repräsentationen wurden Leistungen bei der Kategorisierung von Bewegungsabläufen verwendet. Die erste Annahme wurde am Beispiel der synaptischen Informationsübertragung (nach einer Vorpilot- und Pilotstudie) in einer ersten Hauptstudie mit 61 Probanden überprüft.
Die Ergebnisse weisen darauf hin, dass die Hypothese eher bei Probanden mit höherem Vorwissen als bei solchen mit niedrigerem Vorwissen zutrifft. Die zweite Annahme wurde am Beispiel des Erkennens der Gangart von Pferden (nach einer Pilotstudie) in einer zweiten Hauptstudie mit 52 Probanden überprüft. Die Ergebnisse zeigten durchwegs Unterschiede in der erwarteten Richtung, die jedoch nicht oder nur marginal signifikant sind. Allerdings führten die Animationen zu einer hochsignifikant geringeren kognitiven Belastung als statische Bilder. Darüber hinaus zeigten sich signifikante Interaktionen mit den räumlichen Fähigkeiten: Probanden mit geringeren Fähigkeiten profitieren bei der Kategorisierung von Bewegungsabläufen bedeutsam mehr von Animationen als von statischen Bildern.
Implementierung eines Subsurface Scattering Shader Plugins für die Augenblick Raytracing Engine
(2009)
In dieser Ausarbeitung werden drei Beleuchtungsverfahren und mögliche Implementierungen zur Realisierung eines Subsurface Scattering Shaders vorgestellt und diskutiert. Subsurface Scattering bezeichnet allgemein den Lichttransport in die Oberfläche von Objekten hinein und durch sie hindurch. Die korrekte Darstellung dieses Phänomens ist sehr komplex und ist nicht mittels einer einfachen BRDF und gängiger Beleuchtungsverfahren darstellbar. Die drei Verfahren sind: Physikalisch korrektes Subsurface Scattering durch das Monte Carlo Pathtracing, vereinfachtes Subsurface Scattering durch Nutzung eines Licht-Lots, stark vereinfachtes Subsurface Scattering durch ein normalenabhängiges Aufhellen der Kanten. Durch die Nutzung des Monte Carlo Pathtracers können zudem Beleuchtungseffekte wie das sogennante Colorbleeding, dass heißt Lichttransport von einer farbigen Fläche auf eine andere mittels indirekter Beleuchtung, ermöglicht werden. Jedes Verfahren beinhaltet eine andere Kombination der bekanntlich gegenläufigen Eigenschaften Performanz und Korrektheit, je nachdem in welchem Rahmen und Aufgabenbereich Subsurface Scattering benötigt wird.Am Schluss der Arbeit werden Ergebnisse präsentiert, diskutiert und ein Ausblick auf weiterführende Arbeiten gegeben. Alle drei Verfahren wurden als Plugin für den Raytracer Augenblick von Oliver Abert realisiert.
In dieser Bachelorarbeit wird die Frage behandelt, ob ein Jump'n Run-Spiel mit Sensorensteuerung für Android-Geräte sinnvoll ist. Hierzu wurde ein Spiel entwickelt, das in unterschiedlichen Level einmal mit und ohne Sensoren steuerbar ist. In einer zweiten Version wird das Spiel komplett anhand von Sensoren gesteuert, damit man später die Steuerungen vergleichen kann. Es wird erklärt, wie das Spiel geplant, entworfen und untersucht wurde. Zudem wird geprüft, ob es schon Spiele mit Sensorensteuerung generell gibt. Die Engine, mit der das Spiel entwickelt wurde, wird ebenfalls vorgestellt. Abschließend erfolgt die Auswertung eines dafür ausgearbeiteten Nutzertests über die Spieltauglichkeit des Spiels hinsichtlich der Steuerung.
Für die Netzwerkprogrammierung hat sich auf breiter Front das Socket API nach Vorbild der Berkley Sockets durchgesetzt. Die "normalen" Sockets in Form von Stream- oder Datagram-Sockets erleichtern zwar die Programmierarbeit, verschleiern jedoch auch zahlreiche Details der Netzwerkkommunikation vor dem Programmierer. So ist man beispielsweise auf die Nutzung der Protokolle TCP oder UDP eingeschränkt und agiert zwangsläufig bereits auf dem Application-Layer des TCP/IP Referenzmodells. Für den Zugriff auf tiefer gelegene Netzwerkschichten, d.h. für den Zugriff auf die Headerdaten eines Netzwerkpaketes, hält das Socket API die sogenannten RAW Sockets bereit. Mit ihnen ist es möglich, alle IP Pakete inklusive Headerdaten zu lesen oder von Grund auf neu zu generieren. Hiermit ist es nun auch möglich, Protokolle zu verwenden, die dem Anwendungsprogrammierer bislang nicht zugänglich waren (z.B. ICMP oder OSPF) oder sogar eigene IP basierte Protokolle zu entwickeln. RAW Sockets stoßen an ihre Grenzen, wenn es darum geht auf den Data-Link-Layer der Netzwerkkommunikation zuzugreifen. Unter Linux gibt es hierfür einen weiteren Socket-Typ: Den PACKET Socket. Die Studienarbeit möchte einen Einstieg in die Programmierung mit den eher unbekannten RAW und PACKET Sockets schaffen. Dabei werden einige Beispielprogramme vorgestellt und mögliche Anwendungsgebiete aufgezeigt.
Eine systematische Literaturstudie zu beaconless Algorithmen für drahtlose Ad-hoc- und Sensornetze
(2014)
Drahtlose Sensornetzwerke (DSN) sind Rechnernetze von Sensorknoten. In positionsbasierten Protokollen senden solche Knoten ihre Positionsdaten periodisch als Nachrichten (Beacon) über Funk an umliegende Knoten. Beacons bringen jedoch Nachteile mit sich, die sog. "beaconless" Algorithmen zu lösen versuchen. Diese Algorithmen benutzen keine Beacons, sollen aber die gleichen Einsatzgebiete abdecken wie ihre Beacon-behafteten Gegenstücke. Trotz ihrer Wichtigkeit im Forschungsgebiet der Rechnernetze sind beaconless Verfahren nach unserem derzeitigen Kenntnisstand noch nicht systematisch untersucht worden.
Ziel dieser Arbeit ist eine möglichst umfassende und systematische Übersicht von beaconless Algorithmen seit der Jahrtausendwende. Relevante Artikel werden anhand ihrer Gemeinsamkeiten kategorisiert und ihre Unterschiede werden gegenübergestellt. Diese Arbeit dient somit als Nachschlagewerk zum aktuellen Forschungsstand von beaconless Algorithmen sowie als Basis zum Aufdecken von Forschungslücken.
Die normative Selbstorganisation von sozialen Online-Systemen am Beispiel der Enzyklopädie Wikipedia
(2010)
Als Teil des Projektes "EMergence In the Loop: simulating the two way dynamics of norm innovation" geht die vorliegende Arbeit der Frage nach, welche Mechanismen die systematische Selbst-Organisation auf Diskussionsseiten der Online-Enzyklopädie Wi-kipedia beeinflussen. Sie setzt dabei an der Studie "Explaining Normative Behavior in Wikipedia" von Chris GOLDSPINK an. Untersuchungsgegenstand dieser Arbeit sind zwei Diskussionsthemen ebenso aus der freien Online-Enzyklopädie Wikipedia, die im Vergleich zu dem Untersuchungsmaterial GOLDSPINKS jedoch nach modifizierten Merkmalen ausgewählt wurden. Die Untersuchung der Diskussionsthemen erfolgt mittels computergestützter qualitativer und quantitativer Datenanalyse unter Nutzung der von GOLDSPINK erweiterten Verbal-Response-Mode. Als zentrales Resultat der vorliegenden Studie des Verfassers lässt sich festhalten, dass die mit dieser Untersuchung gewonnen Erkenntnisse die Ergebnisse der Studie GOLDSPINK grundsätzlich untermauern. Darüber hinaus bietet diese Studie aber auch drei neue Anhaltspunkte für weitere Analysen: Erstens ist hervorzuheben, dass die Reaktionsart von Benutzern auf negativen Kommunikationsstil in kontrovers geführten Diskussionen überwiegend negativ ist. Zweitens ist eine signifikante Häufigkeit von Gegennormzitierung (Antinormzitierung) als Reaktion auf eine Normzitierung erkennbar. Drittens sei auf das Phänomen verwiesen, dass ein Akteur als eine Art Diskussionsführer hervortritt.
Im Rahmen dieser Diplomarbeit wird eine Datenbank-Persistenzlösung für die TGraphenbibliothek JGraLab entwickelt. Diese erlaubt das Persistieren von TGraphen in Datenbanken ausgewählter Technologien und sorgt gleichzeitig dafür, dass die Datenbankpersistenz eines TGraphen für den Benutzer transparent bleibt. Nach der Anforderungserhebung und der Recherche zur Bewertung der Tauglichkeit von bereits bestehenden Werkzeugen für dieses Projekt, wird die Anwendungsdomäne erläutert. Anschließend wird dargelegt wie die Persistierung von TGraphen mit allen ihren Eigenschaften in Datenbanken ermöglicht werden kann. Dem schließt sich der konzeptuelle Entwurf an, in dem die Details der Lösung beschrieben werden. Als nächstes wird der objektorientierte Feinentwurf zur Integration der Lösung in die TGraphenbibliothek JGraLab entwickelt, der die Grundlage der programmatischen Umsetzung bildet. Eine Anleitung zur Verwendung der Lösung und eine Bewertung des Laufzeitverhaltens der umgesetzten Implementation schließen die Arbeit ab.
Die Diplomarbeit "E-Partizipation Virtuelles Ressourcen Portal" beschreibt die Konzeptionalisierung und Implementierung des Virtual Resource Centre (VRC), eines internationalen Ressourcen- und Wissensportals für die multidisziplinäre Forschung und Anwendungsgebiete im Bereich E-Partizipation. Die Notwendigkeit für ein solches Portal entstand im Rahmen des europäischen DEMO_net Projekts, dem Exzellenznetzwerk für E-Partizipation. Das Ziel des Portals ist die verbesserte Verbreitung der aktuellen Wissensstände der angeschlossenen Forscher und Praktiker im Bereich von E-Partizipation. Dabei sollen gemeinsame Arbeiten und Diskussionen in den verteilten Projekten verbessert und die Ergebnisse dieser Arbeiten publiziert und gespeichert werden. Dazu ist ein leicht bedienbares und gut strukturiertes Portal notwendig, da viele angeschlossene Institutionen nicht aus dem technischen Bereich kommen. Die weiteren Ziele des VRC sind unter anderem, redundante Entwicklungen zu vermeiden, exzellente Forschungs- und Umsetzungseinrichtungen des Themenfeldes auszuweisen und die laufenden Projekte in E-Partizipation nach wählbaren Kategorien dynamisch aufzulisten. Die technische Grundlage für das Wissensportal ist ein mit vielen Erweiterungen versehenes Web Content Management System (WCMS). Um das den Anforderungen entsprechende WCMS zu ermitteln, werden mittels einer Nutzwertanalyse die verschiedene Systeme Plone, TYPO3 und Xoops verglichen. Durch das Einbinden und Entwickeln von Erweiterungen werden die speziellen Anforderungen an das VRC erfüllt, die die Verwaltung von Publikationen, Übersicht über Projekte, und Forschungsdisziplinen usw. unter Verwendung aktueller Web 2.0 Funktionalitäten beinhalten. Der Diplomarbeit liegen zwei Forschungsmethodiken zu Grunde. Design Research wurde als die grundlegende Methodik für diese Diplomarbeit gewählt. Design Research beschreibt in fünf Phasen einen Leitfaden nach dem ein Portal modelliert und anschließend realisiert werden kann. Eine weitere angewandte Methodik ist das Hypertext Design Modell, welches zum Erstellen eines Modells des VRC genutzt wird. In der Beschreibung der Implementierungen werden neben den Änderungen am WCMS, unter anderem auch die Benutzerverwaltung und Zugriffssteuerung, handbuchartig beschrieben. Zum Abschluss wird ein Überblick über die entstandenen Herausforderungen und Empfehlungen für weitere Entwicklungen und mögliche Arbeiten gegeben.
Neben den theoretischen Grundkonzepten der automatisierten Fließtextanalyse, die das Fundament dieser Arbeit bilden, soll ein Überblick in den derzeitigen Forschungsstand bei der Analyse von Twitter-Nachrichten gegeben werden. Hierzu werden verschiedene Forschungsergebnisse der, derzeit verfügbaren wissenschaftlichen Literatur erläutert, miteinander verglichen und kritisch hinterfragt. Deren Ergebnisse und Vorgehensweisen sollen in unsere eigene Forschung mit eingehen, soweit sie sinnvoll erscheinen. Ziel ist es hierbei, den derzeitigen Forschungsstand möglichst gut zu nutzen.
Ein weiteres Ziel ist es, dem Leser einen Überblick über verschiedene maschinelle Datenanalysemethoden zur Erkennung von Meinungen zu geben. Dies ist notwendig, um die Bedeutung der im späteren Verlauf der Arbeit eingesetzten Analysemethoden in ihrem wissenschaftlichen Kontext besser verstehen zu können. Da diese Methoden auf verschiedene Arten durchgeführt werden können, werden verschiedene Analysemethoden vorgestellt und miteinander verglichen. Hierdurch soll die Machbarkeit der folgenden Meinungsauswertung bewiesen werden. Um eine hinreichende Genauigkeit bei der folgenden Untersuchung zu gewährleisten, wird auf ein bereits bestehendes und evaluiertes Framework zurückgegriffen. Dieses ist als API 1 verfügbar und wird daher zusätzlich behandelt. Der Kern Inhalt dieser Arbeit wird sich der Analyse von Twitternachrichten mit den Methoden des Opinion Mining widmen.
Es soll untersucht werden, ob sich Korrelationen zwischen der Meinungsausprägung von Twitternachrichten und dem Börsenkurs eines Unternehmens finden lassen. Es soll dabei die Stimmungslage der Firma Google Inc. über einen Zeitraum von einem Monat untersucht und die dadurch gefunden Erkenntnisse mit dem Börsenkurs des Unternehmens verglichen werden. Ziel ist es, die Erkenntnisse von (Sprenger & Welpe, 2010) und (Taytal & Komaragiri, 2009) auf diesem Gebiet zu überprüfen und weitere Fragestellungen zu beantworten.
Zahlreiche Untersuchungen weisen darauf hin, dass die Kombination von Texten und Bildern beim Wissenserwerb zu besseren Lern- und Behaltensleistungen führt, als wenn nur mit Texten gearbeitet wird. Dieser Multimediaeffekt ist häufig auch dann zu beobachten, wenn beispielsweise Schüler oder Studierende Bild und Text sequenziert lernen. Einige Arbeiten haben dabei gezeigt, dass die Reihenfolge, in der die beiden Formate verarbeitet werden, großen Einfluss auf den Wissenserwerb hat. Erfolgt die Präsentation des Bildes vor dem Text, gelingt es den Lernenden in der Regel mehr Fakten zu erinnern. Das Phänomen des picture-text-sequencing-Effekts wurde von zwei Forschern aufgegriffen und anhand alternativer Theoriemodelle auf unterschiedliche Weise erklärt. Während einer der Autoren kapazitätsspezifische Merkmale der mentalen Repräsentation des Bildes als Ursache ansieht, macht der andere Autor Interferenzen für den Einfluss der Verarbeitungsreihenfolge verantwortlich. Das Ziel der Arbeit war es daher, zu untersuchen, welcher der beiden Ansätze der Wahrheit am ehesten entspricht. Zu diesem Zweck wurde eine Studie durchgeführt, bei der Verarbeitungsreihenfolge und Informationverhältnis beim Lernen mit multiplen Repräsentationen experimentell variierte. Das Stimulusmaterial bestand aus Texten und Bildern zur Geodynamik, die in einer komplementären und einer kongruenten Version vorlagen. Anders als erwartet, zeigte sich jedoch kein eindeutiges Ergebnis, obwohl die Analyse der Lernzeiten letztlich gegen die Annahme eines besonderen Kapäzitätsvorteils sprach. Eine Anschlussuntersuchung erbrachte die Möglichkeit, Personen, die Texte und Bilder erhalten hatten, mit Teilnehmern zu vergleichen, die nur auf ein Format zurückgreifen konnten. Die Auswertungen ergab Unterschiede hinsichtlich der mentalen Belastung bei äquivalenten Leistungen im Wissenstest. Interpretiert wurden diese Resultate als Hinweis für das Auftreten von Interferenzen, die immer dann entstanden, wenn die Versuchspersonen das Bild nach dem Text lernten. In diesem Zusammenhang hatte die dritte und letzte Untersuchung den Zweck, weitere Belege für die Interferenzannahme zu finden. Anhand von Blickbewegungsparametern, die während des sequenzierten Lernens mit den Texten und Bildern erhoben worden waren, konnten jedoch keine Unterschiede festgestellt werden. Insgesamt ließ sich die Schlussfolgerung ziehen, dass hinsichtlich des sequenzierten Lernens mit Texten und Bildern weiterhin ein großer Spielraum für zusätzliche Forschungsarbeiten besteht.
Smart Building Solutions - Generischer Ansatz für die Identifikation von Raumsteuerungsfunktionen
(2018)
40 Prozent der Wohnungs- und Immobilienunternehmen planen, im Rahmen von Neubau und Modernisierung intelligente Steuerungssysteme in ihre Liegenschaften zu integrieren. Gleichzeitig drängen Internetunternehmen mit ihren Geräten in Häuser und Wohnungen und versprechen intelligente Dienste für die Nutzer. Für beide Arten der neuen Technologien wird der Begriff des „Smart Home“ angewendet. Dabei hat die erste Gruppe der Systeme Ihren Ursprung im Bereich der „Gebäudeautomation“, die zweite Gruppe entwickelt sich aus dem Konzept des „Internet of Things“.
Um zu ergründen, was die Unterschiede sind und welche gemeinsamen Grundlagen existieren, werden die Bereiche der Gebäudeautomation und das Internet of Things als Systeme analysiert und einander gegenübergestellt.
Zentraler Beitrag der Arbeit ist die Erkenntnis, dass beide Domänen auf ähnlichen Konzepten aufbauen und eine Integration möglich ist, ohne die Integrität der Systeme selbst zu beeinträchtigen. Zudem liefert die Arbeit einen Ansatz dafür, wie die Planung von Gebäudesteuerungssystemen unter Einbeziehung des Internet of Things gestaltet werden kann.
Die Forschungsarbeit beschäftigt sich mit der zentralen Frage, welche Erfolgsfaktoren einen Effekt auf eine erfolgreiche Crowdfunding Kampagne haben. Als Untersuchungsfeld stehen deutsche Startup-Unternehmen im Fokus, die bereits erfolgreiche CrowdfundingKampagnen durchgeführt haben.
Zur Beantwortung dieser Frage wird zunächst eine systematische Literaturanalyse durchgeführt, durch die relevante Erfolgsfaktoren für eine Crowdfunding-Kampagne ermittelt werden. Diese Faktoren werden anschließend einem Mixed-Method-Ansatz unterzogen, bei dem qualitative Ergebnisse, basierend auf einer Fallstudienforschung, mit den statistisch ausgewerteten quantitativen Ergebnissen aus der Fragebogenforschung verglichen und überprüft werden. Dabei liegt der Fokus insbesondere auf der Identifikation von signifikanten Wirkungszusammenhängen zwischen den Erfolgsfaktoren und einer erfolgreichen Crowdfunding-Kampagne.
Im Ergebnis konnten diesbezüglich Wirkungszusammenhänge innerhalb dieser Thesis nachgewiesen werden. Sechs der festgestellten Zusammenhänge aus der qualitativen Analyse werden durch die quantitative Analyse bestätigt. Es konnte jedoch keine Signifikanz der Korrelationen festgestellt werden. Auch die Hypothese, dass sich die Erfolgsaussichten einer Kampagne durch eine höhere Anzahl jeweils kombinierter Erfolgsfaktoren erhöhen, wurde sowohl in der qualitativen als auch in der quantitativen Betrachtung widerlegt. Demnach galt es für den Autor der vorliegenden Thesis künftige Forschungsfelder zu definieren, die die ermittelten Ergebnisse erweitern und konkretisieren. Es bleibt beispielsweise einer weiterführenden Forschung überlassen, zu klären, ob bestimmte Kombinationen der Erfolgsfaktoren zu signifikanten Wirkungszusammenhängen führen. Darüber hinaus bietet sich eine weiterführende statistische Regressionsanalyse an, um die kausalen Effekte zu untersuchen und Prognosen für erfolgreiche Crowdfunding-Kampagnen zu formulieren.
Zur Zeit ist die Microsoft Kinect in verschiedensten Anwendungsbereichen populär, da sie sowohl günstig als auch genau ist. Für die Steuerung des Mauszeigers ist sie jedoch noch ungeeignet da die Skelettdaten zittern. In meinem Ansatz wird versucht mit gängigen Methoden aus der Bildverarbeitung die Mauszeiger Position zu stabilisieren. Dabei wird als Input die Farbkamera der Kinect dienen. Aus den verschiedenen ermittelten Positionen soll anschließend eine finale Position bestimmt werden. Die rechte Hand steuert dabei die Maus. Eine einfache Klick Geste wird ebenfalls entwickelt. In der Evaluation wird gezeigt ob dieser Ansatz eine Verbesserung darstellt.
Das wissenschaftliche Interesse an nichtsuizidalen Selbstverletzungen (NSSV) von Jugendlichen hat in den letzten zwei Jahrzehnten deutlich zugenommen. Hohe Prävalenz- und Komorbiditätsraten sowie die geringe Lebensqualität und das erhöhte Suizidrisiko betroffener Jugendlicher betonen die Wichtigkeit dieses Forschungszweiges. Die vorliegende Dissertation widmet sich intra- und interpersonellen Faktoren, die sich als relevant für die Entstehung und Aufrechterhaltung von NSSV erwiesen haben.
Ziel der Studie 1 war die Untersuchung der Persönlichkeitsmerkmale von Jugendlichen mit NSSV ohne Borderline-Persönlichkeitsstörung (NSSV-BPS) in Abgrenzung zu Jugendlichen mit NSSV und einer BPS (NSSV+BPS), einer klinischen Kontrollgruppe (KKG) und einer gesunden Kontrollgruppe (GKG). Jugendliche mit NSSV erzielten im Vergleich zur KKG höhere Werte auf den Persönlichkeitsdimensionen Neugierverhalten und Schadensvermeidung und niedrigere Werte auf den Dimensionen Beharrungsvermögen, Selbstlenkungsfähigkeit und Kooperativität. Für Jugendliche mit NSSV+BPS zeigte sich ein ähnliches Persönlichkeitsmus-ter, welches jedoch deutlich ausgeprägter war.
NSSV von Jugendlichen beeinflussen das gesamte Familiensystem und gehen häufig mit Konflikten und einer veränderten Familiendynamik einher. Eltern von betroffenen Jugendlichen berichten von einer hohen Belastung, Unsicherheit und Hilflosigkeit. Jugendliche mit NSSV nehmen im Vergleich zu Jugendlichen ohne NSSV mehr Kritik und Kontrolle und weniger Unterstützung von Seiten der Eltern wahr. In Studie 2 wurde das Erziehungsverhalten in Familien von Jugendlichen mit NSSV untersucht und mit einer KKG und GKG verglichen. Im Vergleich zur GKG berichteten Jugendliche mit NSSV weniger mütterliche Wärme und Unterstützung. Mütter von Jugendlichen mit NSSV erzielten im Vergleich zu Müttern in der GKG höhere Psychopathologiewerte und berichteten weniger Elternzufriedenheit als Mütter der KKG und GKG.
Auch Geschwisterkinder leiden unter der veränderten Familiendynamik. Ziel der Studie 3 war die Untersuchung der Geschwisterbeziehung von Jugendlichen mit NSSV im Vergleich zu einer KKG und GKG. Geschwister von Jugendlichen mit NSSV berichteten von einer Viel-zahl von negativen emotionalen und familiären Konsequenzen bedingt durch die NSSV der Schwester. Im Vergleich zu Geschwistern in der KKG und GKG berichteten sie häufiger von Nötigung/Zwang in der Geschwisterbeziehung. Jugendliche mit NSSV gaben im Vergleich zur GKG höhere Rivalitätswerte und weniger Empathie und Wärme in der Geschwisterbeziehung an. Sowohl für Jugendliche mit NSSV als auch deren Geschwister zeigten sich Zusammenhänge zwischen der geschwisterlichen Beziehungsqualität und internalisierenden Symptomen.
Zur genaueren Untersuchung des familiären Klimas, wurde in Studie 4 das Ausmaß an Expressed Emotion (EE) von Jugendlichen mit NSSV, Jugendlichen einer KKG, einer GKG und deren Müttern erfasst und verglichen. Bisherige Studien zeigen einen Zusammenhang zwischen einem hohen Maß an EE (HEE) der Eltern und NSSV der Jugendlichen. Insbesondere elterliche Kritik scheint mit NSSV assoziiert zu sein. Der Fokus bisheriger Studien lag auf dem EE-Status der Eltern, was womöglich ein unvollständiges Bild darstellt. Aus diesem Grund wurden in dieser Studie auch die EE-Ausprägungen der Jugendlichen miteinbezogen. Jugendliche in der NSSV Gruppe und KKG erfüllten im Vergleich zur GKG häufiger die Kriterien für HEE. Jugendliche mit NSSV äußerten gegenüber ihren Müttern mehr verdeckte Kritik und kritischen Tonfall als Jugendliche der KKG und GKG. HEE der Jugendlichen ging mit Emotionsregulationsschwierigkeiten einher. Für die Gesamtstichprobe zeigte sich eine moderate Übereinstimmung zwischen den HEE-Ausprägungen der Jugendlichen und Mütter.
Die Ergebnisse dieser Arbeit beinhalten wichtige Implikationen für die Behandlung von Jugendlichen mit NSSV. Die Unterschiede in den Persönlichkeitsmerkmalen von Jugendlichen mit NSSV mit und ohne BPS betonen die Relevanz der dimensionalen Persönlichkeitsdiagnostik sowie gezielter Behandlungsprogramme für Jugendliche mit NSSV-BPS. Familiäre Konflikte sind häufige Trigger für NSSV, daher sollten Interventionen für Jugendliche mit NSSV sowohl die Verbesserung der Emotionsregulation als auch der familiären Kommunikation und Interaktion zum Ziel haben. Nebst der Reduktion negativer Beziehungsaspekte, sollte in der Psychotherapie auch an der Steigerung positiver Beziehungsqualitäten gearbeitet werden. Die emotionale Belastung von Familienangehörigen weist auf die Notwendigkeit von Unterstützungsangeboten für Eltern und Geschwister hin.
Im Rahmen des vorliegenden Promotionsprojekts wird untersucht, welche Körperideologien in den drei unterschiedlichen Sportfeldern Hochleistungs-, Gesundheits- sowie Erlebnis- bzw. Funsport gegeben sind und welchen gesellschaftswirksamen Einfluss diese Ideologien aufweisen. Im Rahmen der zentralen Forschungsfrage wird des Weiteren erforscht, welche diskursiven Mittel bei Körperideologien im Sportbereich eingesetzt werden, welche Formationen in Bezug auf den Gegenstand, welche Äußerungsmodalitäten, Begrifflichkeiten und Strategien dem Diskurs zugrundeliegen und wer als TrägerIn oder AdressatIn des Diskurses identifiziert werden kann. Außerdem steht die Fragestellung im Fokus, welche Bezüge zu anderen Diskursen bestehen und um welche Diskurse es sich dabei handelt. Körperideologien des Sports werden in diesem Zusammenhang als Vorstellungen von einem (idealen) Körper betrachtet, welche durch den Sport übertragen und in der Gesellschaft verbreitet werden. Dabei wird zunächst der Begriff der Ideologie theoretisch hergeleitet und definiert sowie im Hinblick auf die vorliegende Arbeit als Weltdeutung mit einem Anspruch auf Alleinvertretung aufgefasst. Des Weiteren wird die Gouvernementalitätstheorie von Foucault aufgegriffen und für die Identifizierung der Macht- und Herrschaftsstrukturen in Bezug auf die untersuchten Körperideologien herangezogen. Dabei geht es darum, inwieweit die durch den Sport übermittelten Körperideologien dazu geeignet sind, in einem gouvernementalitätstheoretischen Sinne Führung zur Selbstführung zu ermöglichen. In einer sportsoziologischen Hinsicht beinhaltet der Sport leistungsbezogene Eigenschaften, welche in auf Effektivität abzielenden wirtschaftlichen Prozessen eine grundlegende Voraussetzung darstellen. Im Rahmen der Studie werden für jeden der drei genannten Sportbereiche jeweils zwei Individualsportarten ausgewählt, bei welchen die fokussierten Körperideologien untersucht werden. Während im Bereich des Hochleistungssports Schwimmen und Biathlon und im Bereich des Gesundheitssports Nordic Walking sowie Pilates betrachtet werden, stellen Stand Up Paddling und Parkour die fokussierten Sportarten im Bereich des Fun- bzw. Erlebnissports dar. Für die vorliegende Untersuchung kommt das Verfahren der kritischen Diskursanalyse (KDA) von Jäger zur Anwendung, da dieses für die Rekonstruktion von ideologischen Diskursen geeignet erscheint. Hierfür werden aus den drei Sportbereichen sowohl Print- als auch Onlinepublikationen sondiert und anhand von Strukturanalysen hinsichtlich verschiedener formaler und inhaltlicher Charakteristika untersucht. Des Weiteren wird mit Hilfe der tiefergehenden Feinanalyse jeweils ein Artikel pro Sportart explorativ analysiert, um verschiedene Muster zu vorhandenen Körperideologien in den fokussierten Sportarten und Sportbereichen identifizieren und anhand ausgewählter Textstellen belegen zu können. Bei den Ergebnissen zeigt sich, dass der Körper in den Hochleistungssportarten Schwimmen und Biathlon als formbares Material bzw. als Instrument zur Erbringung sportlicher Höchstleistungen betrachtet und dargestellt wird. Auch im Gesundheitssport wird der Körper als form- bzw. trainierbar hervorgehoben, wobei hierbei die Gesundheit im Fokus steht und mit Schlankheit gleichgesetzt wird. Im Bereich des Fun- bzw. Erlebnissports zeigt sich bei der Sportart Stand Up Paddling der Körper ebenfalls als zu bearbeitendes Objekt. Dagegen wird bei der Sportart Parkour der angenommene Normalismus von Jugendlichkeit anhand der Ergebnisse widerlegt. Deutlich wird, dass als diskursives Mittel vor allem der Körper als formbares Material erscheint. Dabei stehen in Bezug auf die Äußerungsmodalitäten und Begrifflichkeiten der Diskurse vor allem das Leistungsmaximum, aber auch Schlankheit und Fitness im Fokus. Die identifizierten Diskurse sind an die gesamte Gesellschaft adressiert und werden zudem durch sich selbst getragen, wodurch sie nicht nur die Realität abbilden, sondern auch ein Eigenleben in der Form entwickeln, dass sie als Träger von Wissen fungieren.
Die folgende Arbeit beschreibt die prototypische Konzeption und Entwicklung des Stat-Raising Spiels "Adventurer's Guild" mithilfe der Spielengine Ren'Py. Das Spiel soll eine durch Spielentscheidungen und Planung von Aktivitäten beeinflussbare Narrative haben und Spaß machen sowie optisch ansprechend sein.
Nach einem Überblick über das "Stat-Raising" als Genre sollen die existierenden Spiele "Dandelion - Wishes Brought to You", "Pastry Lovers", "Long Live the Queen" und "Magical Diary" analysiert werden, um anhand dessen die Schwächen und Stärken der verschiedenen Umsetzungen herauszufiltern.
Die daraus gewonnenen Erkenntnisse werden für die anschließende Konzeption eines neuen Stat-Raising Spiels genutzt.
Die Spielmechaniken und die getroffenen Designentscheidungen des resultierenden Spiels werden anschließend mit Screenshots gezeigt und ausführlich erklärt.
In einer finalen Bewertung wird das Spiel hinsichtlich der Aufgabenstellung untersucht. Im Ausblick werden weitere Ausbau- und Verbesserungsmöglichkeiten des Spiels aufgezeigt.
Ziel dieser Forschungsarbeit ist die Auswahl und Evaluierung von Open-Source ERPSystemen auf effiziente Anwendbarkeit in Unternehmen zum Zwecke des Aufbaus eines "ERP-Future-Labs", in welchem mittelständische Handelsunternehmen das/die installierte(n) System(e) testen können. Den Projektabschluss bildet hierbei die Installation eines lauffähigen Systems, auf welchem die vom Auftraggeber vorgegebenen Geschäftsprozesse abgewickelt werden können. Ferner sollen die Auftraggeber auf dem System geschult, eine Dokumentation der Software (Installation/Bedienung) und des Projekts erstellt werden.
Für die Entwicklung sicherer Softwaresysteme erweitert UMLsec die UML durch die Definition von Sicherheitsanforderungen, die erfüllt sein müssen. In Klassendiagrammen können Attribute und Methoden von Klassen Sicherheitseigenschaften wie secrecy oder integrity haben, auf die nicht authorisierte Klassen keinen Zugriff haben sollten. Vererbungen zwischen Klassen erzeugen eine Komplexität und werfen die Frage auf, wie man mit der Vererbung von Sicherheitseigenschaften umgehen sollte. Neben der Option in sicherheitskritischen Fällen auf Vererbungen zu verzichten, gibt es im Gebiet der objektorientierten Datenbanken bereits viele allgemeine Recherchen über die Auswirkungen von Vererbung auf die Sicherheit. Das Ziel dieser Arbeit ist es, Ähnlichkeiten und Unterschiede von der Datenbankseite und den Klassendiagrammen zu identifizieren und diese Lösungsansätze zu übertragen und zu formalisieren. Eine Implementierung des Modells evaluiert, ob die Lösungen in der Praxis anwendbar sind.
Betriebswirtschaftliche Trends wie der Wandel auf Käufermärkten, verkürzte Produktlebens- und Innovationszyklen, steigende Kundenanforderungen und immer leistungsfähiger werdende Informations- und Kommunikationstechnologien stellen für Unternehmen anspruchsvolle Herausforderungen dar. "Bis Anfang der 90er Jahre dominierten lokale Optimierungsbemühungen im Rahmen einer auf funktionale Spezialisierung ausgerichteten Aufbauorganisation entsprechend den Überlegungen zu Arbeitsteilung von beispielsweise Smith, Taylor und Ford. Aufgrund der vielfältigen Probleme dieses Ansatzes - insbesondere Schnittstellenbildung, demotivierte Mitarbeiter, mangelnde Kundenorientierung und erhöhter Aufwand zur Steuerung und Koordination der funktionalen Einheiten - vollzieht sich seit Beginn der 90er Jahre in den Wirtschaftswissenschaften und der unternehmerischen Praxis ein Paradigmenwechsel weg von der Funktions- hin zur Prozessorientierung." Die anspruchsvollen Probleme können aufgrund ihrer Kompliziertheit nicht mehr durch einfache, lokal anwendbare Maßnahmen gelöst werden. In Zeiten hoher Komplexität und Dynamik werden strategische Planungsaufgaben immer wichtiger für ein langfristig erfolgreiches Management. Entscheidungen mit großer Tragweite müssen im Vorfeld vollständig auf ihre kurz-und langfristigen Auswirkungen innerhalb und außerhalb des Unternehmens überprüft werden. Dabei sind die zeitverzögerten Rückkopplungen besonders wichtig. Es kann vorkommen, dass sich eine kurzfristig erfolgreiche Maßnahme zur Ergebnisverbesserung möglicherweise langfristig extrem negativ auf das Ergebnis auswirkt. System Dynamics, eine Methode zur Untersuchung komplexer, dynamischer Systeme, bietet die Möglichkeit, aus einer Analyse der Systemstruktur und des von ihr verursachten Verhaltens langfristig wirksame Entscheidungsregeln abzuleiten. Dabei werden Unternehmen als offene, äußerst vernetzte soziotechnische Systeme verstanden. System Dynamics, ursprünglich "Industrial Dynamics" genannt, wurde in den 50ern am MasMassachusetts Institute of Technology, MIT, entwickelt. Die Methode nimmt die Komplexität, Nichtlinearität und Rückkopplungsstrukturen, die sozialen und physikalischen Systemen enthalten, als Grundlage. Sie wird inzwischen an einer zunehmenden Zahl von Universitäten gelehrt. Unternehmen und Regierungen nutzen System Dynamics zur Simulation von Management- bzw. Politikentscheidungen. Mit der Hilfe der Methode wird es möglich, komplexe Systeme zu durchschauen, was für Entscheidungsträger eine zunehmende Herausforderung darstellt. Die "System Dynamics Society" ist bemüht, systematisches Denken einer breiten Masse von Anwendern zugänglich zu machen. Die Methode könnte die Menschen dabei unterstützen, die aktuellen Probleme und die langfristigen Auswirkungen des aktuellen Handelns zu verstehen. Die Intention dieser Arbeit ist es nun, zwei betriebswirtschaftliche Anwendungsgebiete der System Dynamics Modellierung mit jeweils einem konkreten Fallbeispiel vorzustellen. Dazu werden zunächst in Kapitel 2 die Grundlagen der Systemtheorie dargestellt. Dabei wird auf die Sichtweise von Forrester fokussiert. Darauf aufbauend wird in Kapitel 3 die die Methode detailliert vorgestellt. Nachdem die historische Entwicklung von System Dynamics aufgezeigt wird, werden die Anwendungsgebiete, die Grundlagen und die Grundsäulen der Modellierung und der Modellierungsprozess dargelegt. Im vierten Kapitel wird das erste Anwendungsgebiet untersucht, in der die System Dynamics Modellierung eingesetzt wird, die Balanced Scorecard, ein populäres Konzept für die Performancemessung in Unternehmen. Nachdem das Konzept vorgestellt wird, werden dessen Grenzen aufgezeigt, die mit der Verknüpfung des System Dynamics Ansatz überwunden werden können. Daraufhin werden die Möglichkeiten der System Dynamics Modellierung erläutert, womit die Schwächen der Balanced Scorecard reduziert werden, bevor anhand eines konkreten Fallbeispiels die Verknüpfung des System Dynamics Modellierung mit dem Balanced Scorecard Konzept vorgestellt wird. Eine abschließende Bewertung über die Anwendung wird dieses Kapitel abschließen. Im nächsten Kapitel wird die Anwendung der System Dynmaics Modellierung im Supply Chain Management untersucht. Zunächst werden die Grundlagen über das Supply Chain Management und Probleme, die damit verbunden sind, erläutert. Anhand des "Beer Game" werden die typischen Koordinationsprobleme mehrstufiger Lieferketten, der Bullwhip Effekt, verdeutlicht. Im nächsten Schritt wird die Anwendung der System Dynamics Modellierung im Supply Chain Management diskutiert, bevor die Umsetzung in einem konkreten Fallbeispiel aufgezeigt wird. Dieses Kapitel schließt mit einer Bewertung über die Anwendung von System Dynamics im Supply Chain Management ab. Mit dem abschließenden Kapitel Fazit wird die Arbeit abgerundet.
Durch die Verbreitung von Smartphones und der damit einhergehenden, erhöhten Aufmerksamkeit für Augmented Reality Anwendungen, ist es spannend einen wirklichen Mehrwert durch eine solche Anwendung zu generieren. Es ist wichtig, die Grundfunktionen eines Computers mit den möglichen Vorteilen einer AR-Anwendung zu einer hilfreichen App zu verbinden. Es muss die Rechenkraft eines Computers mit hilfreichen, virtuellen Informationen in der realen Welt sinnvoll angereichert werden. Wichtig ist zudem, dass eine einfache Bedienung und schneller Umgang mit einer solchen Anwendung gewährleistet sein.
Ein Poker-Assistent kann all diese Stärken des Computers und einer AR-Anwendung einsetzen. Die schwierige Wahrscheinlichkeitsberechnung von Gewinnchancen sowie die schnelle automatisierte Kartenerfassung sollen hierbei im Vordergrund stehen.
AR-Anwendungen auf Smartphones bilden den Grundstein für ein zukünftiges AR-bestimmtes Leben. In diesem Kontext soll eine der Kernfragen dieser Masterarbeit die Frage nach dem wirklichen Mehrwert für Nutzer dieser App im Vergleich zu nicht unterstützten Spielern sein. Wobei auch geklärt werden soll, ob dieses Anwendungsbeispiel eine sinnvolle AR-Unterstützung benötigt und wie, im Hinblick auf die Zukunft und zukünftige Technologien, eine sinnvolle AR-Unterstützung aussehen sollte.
Gefährdete Weltmacht USA
(2017)
Ziele und Befunde der Arbeit
Das durchgeführte Forschungsvorhaben zeigt durch einen holistischen, gleichzeitig politikwissenschaftlichen wie auch historischen Ansatz Folgendes: Nämlich, warum und wie das liberale, regelbasierte Weltordnungssystem im Untersuchungsraum der US-Präsidentschaften von Clinton bis Obama kontinuierlich durch ein System der realistischen, kurzfristig wirkenden Durchsetzung vitaler Interessen mittels militärischer Instrumentenpräferenz unter fortlaufender militärischer Optimierung ergänzt bzw. ersetzt wird. Dies erklärt auch, warum die „transaktionale Führung Trumps“(1), die nach dem Untersuchungsraum von 1993 bis 2017 mit Außenwirkung die Reduktion idealistischer „Grand Strategy“-Elemente bzw. wohlwollender Ordnungsmacht unter Kostenabwälzung und Vorteilsverringerung europäischer Nato-Verbündeter vornimmt, in Kontinuität zur ausgeübten Führungsmacht der Amtsvorgänger steht. Ergebnisse dieser Dissertation wie die sich ab 1993 immer nachdrücklicher abzeichnende Auflösung der multilateralen Grundordnung legen damit nahe, Trumps bisherige Außen- und Sicherheitspolitik als deutlich spürbares Krisensymptom und nicht als Ursache dieses Abbaus der nach 1945 eingerichteten Weltordnung einzustufen. Diese Auflösung ist mit einer Erosion des letztlich transatlantisch angestoßenen bipolaren „amerikanischen Systems“ gleichzusetzen. Die Implementierung dieses Systems erfolgte als „Lernstunde zweier Weltkriege“ auf Basis der mit der Aufklärung und den amerikanischen Gründungskennziffern eingeleiteten neuzeitlichen Ordnungskonzeptionen: Daher ist diese Auflösung auch ein Indikator für das Scheitern neuzeitlicher Ordnungskennziffern, die sich im „American way of life“ entfalten konnten.
Als ursächlich für die geschilderte Entwicklung wird eine von Clinton bis Obama konstant ansteigende Gesamtbedrohung nachgewiesen, mit der die konsequente Schwächung amerikanischer Vormacht verknüpft ist. Diese fußt u.a. auf der Basis von seit 1979 postulierten Klimawandeleffekten als Bedrohungsverstärker bei erreichter amerikanischer Förderspitze in fossilen Rohstoffen und ansteigendem Ressourcenbedarf im Kontext schrumpfender Rohstoffvorkommen. Weiter sind für den Untersuchungsraum die zunehmende Einwirkung der in den 1980er Jahren begonnenen „US-Konservativen Revolution“ auf die Ausübung der Außen- und Sicherheitspolitik unter Einflusszugewinn von Konzernen und Lobbygruppen auf beispielsweise policy-Implementierung sowie die neuen Rahmenbedingungen zu addieren. Darunter fallen die sich ausformende Digitalisierung, die hohen Ressourcenverbrauch mit sich bringt, und die ansteigende Weltbevölkerung unter spezifischen demographischen Vorzeichen. Darüber hinaus sind beispielsweise die Beibehaltung des bipolar angewachsenen Rüstungssektors als ökonomische Basis militärischer Vormacht und das langsame Abbröckeln der Dollar-Hegemonie seit etwa 1973 zu berücksichtigen. Durch komplexes Zusammenspiel von „Grand Strategy“-Umsetzung gemäß der Prämisse amerikanischen Führungsmachtausbaus unter neokonservativem bzw. christlich-rechtem Einfluss mit asymmetrischen sowie reaktivierten konventionellen Bedrohungsgegenständen, Bedrohungsverstärkern und neuen Rahmenbedingungen wird der lineare Verlauf der Gesamtbedrohung im Zeitraum von 1993 bis 2017 verständlich: Im Kontext der „Grand Strategy“-Ausführungen erklären insbesondere das Bedrohungsabwehr-, Bedrohungsverstärker- und Marktwirtschaftsverständnis der US-Far Right in komplexer Wechselwirkung mit erstarkenden transnationalen Konzernen, Lobbygruppen, Individuen(2), informellen Netzwerken und staatlichen Akteuren in Bezug auf Bedrohungsgegenstände sowie Bedrohungsverstärker(3) im Zusammenhang mit der post-bipolaren, globalen Verankerung amerikanischer Wirtschafts- und Konsummuster das Folgende: Nämlich die Anpassung der amerikanischen Bedrohungsabwehr - unter Aufbau der „imperial presidency“(4) bzw. Einhegung des Systems von „checks and balances“ - samt deren Implikationen auf das bipolare liberale Ordnungssystem. Sodann wird die notwendige Weiterführung in der Nato durch amerikanisch aufgeworfenen Nato-Umbau zur entsprechenden Umsetzung transformierter amerikanischer Bedrohungsabwehr bzw. Legitimierung der systemischen Anpassung begreifbar.
Genauso wird nachvollziehbar, dass die so eingerichtete Bedrohungsabwehr nur kurzfristig abwehrt: Stattdessen verstärkt sie asymmetrische und konventionelle Bedrohung wie auch Bedrohungsverstärker - unter Einleitung von Rüstungsspiralen bzw. Demontierung der Rüstungskontrolle - und damit die Gesamtbedrohung. Dies lässt einen Konfliktausbruch jenseits des bisher Vorstellbaren konstant näher rücken. Gleichzeitig ist der dringende Bedarf an Mobilisierung der transatlantischen Zusammenarbeit im Hinblick auf Förderung der globalen Kooperation staatlicher, aber auch nichtstaatlicher Akteure hinsichtlich der Bedrohungswurzeln samt der sich verschlechternden Voraussetzungen illustriert: Denn mit jedem Anstieg der Gesamtbedrohung ist durch die eingeleitete amerikanische sicherheitspolitische Anpassung und deren Weiterführung in der Nato ein Abbau der regelbasierten Basiskennziffern im Untersuchungsraum verknüpft. Dies reduziert in fortlaufender Konsequenz die Grundlage für oben genannte, konstant zentraler werdende Zusammenarbeit, um eine sukzessive Erosion des bipolaren „amerikanischen Systems“ unter künftigen Dystopien zu verhindern bzw. zumindest zu begrenzen.
Durch die Forschungsergebnisse wird der bisherige Forschungsstand auf den Kopf gestellt, da so beispielsweise gezeigt werden kann, dass mittels der Transformation der Nato keine gleichberechtigte transatlantische Lastenteilung oder eine Weiterentwicklung der Nato gemäß der Nato-Gründungskennziffern erzeugt wird. Dies gilt auch für den europäischen Widerstand gegenüber der tatsächlichen Verankerung der Natotransformationspositionen(5), der auf die Erosion des bipolaren liberalen Ordnungssystems bzw. der US-Vorteilsgewährung sowie so begünstigter Partikularinteressensicherung abhebt. Außerdem wird deutlich, dass eine Kontinuitätslinie in der Bedrohungsabwehr von Clinton bis Obama unter unterschiedlicher Außenwirkung und dem Grundmuster „Battleship America“ vorliegt - und eben nicht eine multilateral ausgerichtete Außen- und Sicherheitspolitik unter Clinton, die als Folge von 9/11 in einen unilateralen Pendelausschlag unter G. W. Bush 43 mündet, der durch die Obama-Administration wieder zurückgenommen wird.
Die Arbeit basiert auf einer umfassenden Fülle an Literatur, die das aufwendige Literaturverzeichnis widerspiegelt: Darunter fallen vielfältige amerikanische und europäische Publikationen, Monographien und entsprechende Sekundärliteratur, wie Biographien, Veröffentlichungen unterschiedlichster Natur wichtiger Vertreter der transatlantischen Forschungselite, Akteure der entsprechenden Politikplanung und -ausführung und wissenschaftliche Artikel aus Fachzeitschriften zu allen Forschungsbereichen bzw. politikwissenschaftlicher Methodik und Theorie. Weiter wurden u.a. Veröffentlichungen bzw. relevante Dokumente von Regierungen, Außenministerien, Verteidigungsministerien, Regierungsorganen, Denkfabriken, universitären Forschungszentren sowie der Nato verwendet.
Struktur der Arbeit
Konkret ist die vorliegende Dissertation in zwei Bände sowie einen Anhangsband unterteilt: Band 1 umfasst Schwerpunkt 1, eine Prozessanalyse unter offensiver neorealistischer Verortung, Band 2 den darauf aufbauenden Schwerpunkt 2, einen Vergleich („structured focussed comparison“) unter defensiver neorealistischer Verortung. Im Anhangsband finden sich ergänzende Ausführungen zu Kapitel 1, Band 1 in Bezug auf den Forschungsstand, Literatur und Quellenlage, theoretische Verortung sowie Wahl des Untersuchungsraumes bzw. ausgewählter europäischer Nato-Partner. Weiter sind ein historisches Kapitel als Voraussetzung zum „process-tracing“ in Kapitel 2, Band 1 und ein Abbildungs- und Abkürzungsverzeichnis wie auch ein Literaturverzeichnis enthalten.
Insgesamt ermitteln die beiden aufeinander aufbauenden Schwerpunkte mittels qualitativer Methoden das Folgende: Nämlich die übergeordnete amerikanische sicherheitspolitische Reaktion auf eine neue Gesamtbedrohung sowie deren Weiterführung und Legitimierungschance in der Nato im Untersuchungsraum von Clinton bis Obama.
Auf Basis des ersten Teils der Hypothese wird in Schwerpunkt 1, Band 1 ein Zusammenhang zwischen der Beibehaltung des bipolaren „US-Grand Strategy“-Ziels amerikanischer Führungs- und Ordnungsmacht sowie bipolarer außenpolitischer „Grand Strategy“-Kennziffern bzw. einer sich komplex entwickelnden neuen Gesamtbedrohung, amerikanischer sicherheitspolitischer Anpassung und der notwendigen Weiterführung in der Nato durch Natotransformation mittels amerikanisch aufgeworfener Natotransformationspositionen hergestellt.
In Schwerpunkt 2, Band 2 wird auf Basis des zweiten Teils der Hypothese der transatlantische Aushandlungsprozess zur Etablierung der amerikanisch vorgeschlagenen Natotransformationspositionen in Augenschein genommen: Vor diesem Hintergrund wird überprüft, ob diese tatsächliche Verankerung bzw. Konkretisierung des Ausbaus amerikanischen Vormacht am Widerstand der ausgewählten europäischen Nato-Bündnispartner Frankreich, Deutschland und Großbritannien scheitert.
Im Gesamtergebnis zeigt sich, dass aufgrund einer sich entwickelnden komplexen, linear ansteigenden Gesamtbedrohung die Chance zum Ausbau amerikanischer Führungsmacht konstant abnimmt. Dies muss mittels amerikanischer sicherheitspolitischer Anpassung kompensiert werden. Die daher erfolgende amerikanische sicherheitspolitische Neuausrichtung auf Basis der eingeleiteten „Revolution im Militärwesen“ modifiziert wiederum die Kennziffern bipolarer kollektiver Sicherheitsgewährleistung. Alles wird mittels tatsächlicher Verankerung der amerikanischen Natotransformationspositionen ermöglicht bzw. legitimiert. Das tatsächliche Erreichen der - die sicherheitspolitische amerikanische Anpassung konsequent weiterführenden - Transformation der Nato ermöglicht eine missionsorientierte, reaktionsbeschleunigende, flexible und globale Sicherheitsprojektion. Außerdem ist die Voraussetzung für „alliances of choice“ innerhalb der Nato geschaffen. Weiter zementiert die Modifikation der „bipolaren Nato“ die mittels sicherheitspolitischer amerikanischer Anpassung eingeleitete Erosion zentraler zivilisatorischer Errungenschaften bzw. Aufgaben bipolarer kollektiver Sicherheitsgewährleistung unter Vorteilsverringerung europäischer Nato-Bündnispartner.
Die tatsächliche Verankerung der Natotransformationspositionen erfolgt mittels der Reaktivierung konventioneller Bedrohung im Kontext der Ukraine-Krise von 2014 und der Erweiterung der Nato-Partnerschaftsringe auf globaler Ebene, ohne diesen den Status eines Nato-Mitgliedsstaates zu gewähren. Damit wird der Bündnisfall nicht globalisiert. Der ausgeübte deutsch-französische Widerstand wird besonders intensiv durch den Einbezug der europäischen Gründungsstaaten befördert, dagegen unterbleibt die Ausbildung einer europäischen Führungstroika durch Frankreich, Deutschland und Großbritannien.
Darüber hinaus zeigt insbesondere die entsprechende Ursachenermittlung, dass trotz konstanter, aufeinander aufbauender amerikanischer sicherheitspolitischer Reaktion unter unterschiedlicher Außenwirkung sowie tatsächlicher Weiterführung in der Nato die Gesamtbedrohung nicht langfristig abgebremst wird: Dies führt zu einem konstanten Anstieg der Gesamtbedrohung unter fortlaufendem Einflussverlust staatlicher Akteure bzw. Machtdiffusion und -konzentration samt einer sukzessiven Chancenerhöhung reaktivierter konventioneller, nuklearer, Cyber- und ökologischer Zerstörungsszenarien. Auf dieser Basis entsteht die Konsequenz einer immer umfassenderen und die Reaktion beschleunigende Präzisionsabwehr unter ansteigender Versicherheitlichung, um die kontinuierliche Einengung amerikanischer Vormacht auszugleichen. Dies erzeugt im Fortlauf einen konstanten Abbau der Strahlungs- und Schlagkraft des liberalen, regelbasierten, bipolaren „amerikanischen Systems“ sowie der Etablierung „idealistischer, liberaler“ „Grand Strategy“-Elemente. Weiter ist damit - auf der Grundlage der aufeinander aufbauenden Natotransformationspositionen sowie Obamas „smart power“(6) im Untersuchungsraum - eine zunehmende Vorteilsverringerung der europäischen Nato-Verbündeten bzw. ein ansteigender Bedarf an US-Kostendämpfung verquickt. Zudem entwickelt sich eine immer geringer werdende Chance zur Entfaltung des postbipolar als „nicht verhandelbar“ postulierten und global ausgebreiteten amerikanischen Lebensentwurfes in individueller, innerstaatlicher Ausprägung: Deren Artikulation erfolgt beispielsweise mittels zunehmendem Rechtspopulismus, Wahl von Außenseiterkandidaten, Zerfall traditioneller Parteiensysteme, isolationistischen Tendenzen unter ethnischer, regionaler Erstarkung, und Ablehnung von Supranationalität oder religiösem Fundamentalismus. Gleichzeitig ist die fortlaufende Erosion der globalen öffentlichen Güter identifizierbar.
Damit ebnet all das oben Genannte den Boden für die Begrenzung amerikanischer wohlwollender Ordnungsmacht bzw. der Handlungsspielräume staatlicher Akteure - und für die Rückkehr zu klassischer Machtpolitik im Kontext entstandener Machtdiffusion bzw. -konzentration. Dies erschwert angesichts der Dringlichkeit einer langfristigen Eindämmung asymmetrischer bzw. konventioneller Sicherheitsbedrohungsgegenstände, -verstärker, -cluster und globalen Rahmenbedingungen folgende Chance: Nämlich die zu transatlantischer Zusammenarbeit in der Nato unter Wiederbelebung der politischen Organisation derselben sowie Erweiterung auf zusätzliche Ebenen und Akteure im Sinne von Vorbeugung bzw. vernetzter Sicherheit zur Erreichung entsprechender globaler Kooperation in Bezug auf Einhegen der Bedrohungswurzeln.
Insgesamt wird durch diese Forschungsarbeit transparent, wie und warum die für den Untersuchungsraum von 1993 bis 2017 antizipierte „Friedensdividende“ und das durch Präsident Clinton postulierte „age of hope“ kaum spürbar wurden.
Fußnoten
(1) Vgl. Braml, Josef (2018), Trumps transaktionaler Transatlantizismus, in: Jäger, Thomas (Hrsg.), Zeitschrift für Außen- und Sicherheitspolitik, Oktober 2018, Volume 11, Ausgabe 4, S. 439-448, Wiesbaden.
(2) Vgl. National Intelligence Council (Hrsg.) (2012), Global Trends 2013: Alternative Worlds (NIC 2012-001), https://publicintelligence.net/global-trends-2030/, letzter Zugriff: 12.04.19. Vgl. dazu auch das „international financial leadership, self-selected at Davos“ bei McCoy, Alfred W. (2017), In the Shadows of the American Century. The Rise and Decline of US Global Power, Chicago.
(3) Vgl. zu Bedrohungsverstärkern beispielsweise Mazo, Jeffrey (2010), Climate Conflict. How global warming threatens security and what to do about it, London, Abingdon.
1990 wurde bereits in Bezug auf den Bedrohungsverstärker Klimawandel für die entstehenden asymmetrischen bzw. konventionellen Bedrohungsgegenstände komplexe Cluster konstatiert: „Over the next half century, the global average temperature may increase by approximately 4 degrees C. (…) All nations will be affected. (…) How much time will there be to confirm the amount of change and then to act? (…) However, many believe that we will have waited too lang to avoid major dislocation, hardship and conflict - on a scale not as yet seen by man“. Vgl. Kelley, Terry P. (1990), Global Climate Change. Implications For The United States Navy (The United States Naval War College, Newport, RI), http://documents.theblackvault.com/documents/weather/climatechange/globalclimatechange-navy.pdf, letzter Zugriff: 30.03.19. Dies lässt Hinweise auf die sich entwickelnde, konstant ansteigende Gesamtbedrohung im Untersuchungsraum von 1993-2017 zu.
(4) Vgl. Schlesinger, Arthur M., Jr. (1973), The Imperial Presidency, Boston.
(5) Die amerikanisch vorgeschlagenen Positionen zur Anpassung der Nato, die Nato Response Force sowie die Global Partnership Initiative, werden als „Natotransformationspositionen“ bezeichnet: Mit deren tatsächlicher Etablierung war eine Transformation der Nato in konsequenter Weiterführung amerikanisch erfolgter sicherheitspolitischer Anpassung verknüpft.
(6) Smart power geht auf Suzanne Nossel, Mitarbeiterin des UN-Botschafters Holbrooke während der Clinton-Administration, zurück: Vgl. Nossel, Suzanne (2004), Smart Power. Reclaiming Liberal Internationalism, http://www.democracyarsenal.org/SmartPowerFA.pdf, letzter Zugriff: 26.08.17. Weiter wird er Joseph Nye im Jahre 2003 als Reaktion auf die unilaterale Konzentration auf das militärische Instrument der G.W. Bush–Ära zugeschrieben. Vgl. Nye, Joseph S. Jr. (2011), The Future of Power, New York bzw. Nye, Joseph S. Jr. (2011), Macht im 21sten Jahrhundert. Politische Strategien für ein neues Zeitalter, München.
Vgl. Rodham Clinton, Hillary (2010), Leading Through Civilan Power. Redefining American Diplomacy and Development, in: Foreign Affairs, November/December 2010, Vol. 89, No.6, S. 13-24.
Das Ziel dieser Bachelorarbeit ist es, die diskrete Fouriertransformation, die diskrete Kosinustransformation und die Hadamard-Walsh Transformation im Kontext der Bildverarbeitung zu vermitteln und diese unter ausgewählten Gesichtspunkten zu vergleichen. Hierfür soll allgemein das Wissen für den aus der linearen Algebra stammenden Begriff der Transformation gefördert werden und auf die Bildverarbeitung übertragen werden. Anschließend wird das Verständnis für die Fouriertransformation sukzessive aufgebaut und mit den beiden weiteren Transformationen verknüpft. Abschließend werden die Transformationen verglichen und ihr Nutzen innerhalb der Bildverarbeitung erläutert.
Entwicklung eines augmentierten Montageszenarios mit Lego-Bausteinen für die Microsoft HoloLens
(2017)
Augmented Reality ist schon seit einigen Jahren in verschiedenen Formen verfügbar. Durch Fortschritte in der Technik können nun auch kompakte Augmented Reality Brillen hergestellt werden, wodurch sich viele neue Möglichkeiten der Interaktion und Anwendung von Augmented Reality eröffnen.
Diese Arbeit beschäftigt sich mit der Microsoft HoloLens und den Möglichkeiten, welche die Brille für Verbraucher und Industrie bieten kann. Im Rahmen dieser Arbeit wurde eine interaktive und augmentierte Anwendung entwickelt, um die Grenzen und Möglichkeiten der Microsoft HoloLens zu bewerten. Dazu wurde exemplarisch ein Montageszenario nachgestellt, bei dem ein Modell aus Lego-Bausteinen zusammengesetzt wird. Die HoloLens zeigt dabei schrittweise an, wo die nächsten Bausteine platziert werden sollen. Dabei stellte sich heraus, dass die HoloLens schon heute Vorteile bei der Montage bietet und gut zur Unterstützung von Arbeitsschritten verwendet werden kann, es wurden allerdings auch einige Schwächen deutlich.
Die Analyse ortsbezogener Strukturdaten und Merkmale ist eine der wesentlichen Voraussetzungen für die Bewertung von Standorten und Räumen. Durch die Erfassung der lokalen Ausprägung ausgewählter Standortfaktoren und unter Zuhilfenahme eines Geographischen Informationssystems werden in der vorliegenden Dissertation die Städte und Gemeinden des hessischen Rheingau-Taunus-Kreises kategorisiert und miteinander verglichen. Hierbei erfolgt eine besondere Fokussierung auf die lokal bestehende technische und soziale Infrastruktur, um vorrangig das vorhandene Gewerbe- und Wohnumfeld sowie die darüber hinaus existierenden räumlichen Disparitäten eingehend veranschaulichen und beurteilen zu können.
Unterschiedliche Quellen (Print-Medien, Fernsehberichte u. Ä.) berichten immer wieder davon, dass es mit der Datenschutzkompetenz bei Kindern und Jugendlichen schlecht bestellt ist. Daher ist dem Thema Datenschutz im Informatikunterricht eine besondere Bedeutung zuzuschreiben.
Im Rahmen der Dissertation von Herrn Hug wird ein Datenschutzkompetenzmodell [Quelle INFOS17] entwickelt, anhand dessen die Datenschutzkompetenz von Schülerinnen und Schülern im Altern von 10 bis 13 Jahren gemessen werden kann.
Im Rahmen dieser Masterarbeit werden existierende Unterrichtsmaterialien zum Thema Datenschutz gesammelt und dazu eine Unterrichtsreihe entwickelt. Hierbei werden auch eigene Zugänge aufzeigt, um ein kohärentes und abgeschlossenes Projekt zu entwerfen, bei dem aktuelle Gefahren für Schülerinnen und Schüler aufgezeigt werden. Ziel ist es, dass die Schülerinnen und Schüler dazu befähigt werden, ihr Verhalten bezüglich Datenschutz besser einzuschätzen und verantwortungsvoller mit ihren persönlichen Daten umzugehen. Im Rahmen eines Feldversuches in einer 6. Klasse eines Gymnasiums wurde die Unterrichtsreihe erprobt.
Globale Beleuchtung im Bildraum unter besonderer Berücksichtigung der Sichtbarkeitsbestimmung
(2009)
Die Simulation einer globalen Beleuchtung im dreidimensionalen Objektraum ist sehr rechenintensiv und hängt von der Komplexität der Szene ab. Dabei ist besonders die Berechnung der Sichtbarkeit aufwändig, also der Test, ob sich zwei Punkte in der Szene gegenseitig sehen können. Verfahren, die die globale Beleuchtung vom Objektraum in den Bildraum verlagern (Screen-Space, Image-Space), umgehen das Problem der Szenenkomplexität und haben somit einen wesentlichen Geschwindigkeitsvorteil. Auf diese Weise erzeugte Effekte sind zwar naturgemäß nicht physikalisch korrekt, da die aus Sicht der Kamera verdeckte Geometrie ignoriert wird, dennoch können sie für die menschliche Wahrnehmung überzeugend sein und realistisch wirken. Schlagworte hierfür sind "Fake-"Global-Illumination oder auch "Quasi-"Global-Illumination. Ein bekanntes Beispiel für ein bildraum-basiertes Verfahren zur Annäherung einer globalen Beleuchtung mithilfe weicher Schatten ist Screen Space Ambient Occlusion (SSAO). In dieser Studienarbeit wird untersucht, inwieweit sich die Sichtbarkeitsbestimmung im Bildraum nicht nur für nah gelegene Geometrie wie beim Ambient Occlusion, sondern in Bezug auf die gesamte Szene realisieren lässt. Aktuelle Ansätze werden dahingehend untersucht und das geeignetste Verfahrend wird als Grundlage für die Implementierung eines Testszenarios für Screen-Space Global Illumination genutzt. Das umgesetzte Verfahren wird anhand verschiedener Testszenen bewertet.
Für die realistische Betrachtung einer virtuellen Szene spielt neben der direkten Beleuchtung auch die Ausbreitung des indirekten Lichtes eine wichtige Rolle. Die Berechnung der indirekten Beleuchtung benötigt grundsätzlich Informationen über die gesamte Szene, nicht nur über den für die Kamera sichtbaren Ausschnitt, der in bildraumbasierten Techniken zum Einsatz kommt. Mittels Voxelisierung kann die Szene in eine dreidimensionale, diskrete und GPU-freundliche Repräsentation überführt werden. In dieser Arbeit werden Voxelrepräsentationen hinsichtlich ihrer Eignung für den globalen Lichtaustausch in dynamischen und großen Szenen untersucht. Nach einer Einführung und einem Literaturüberblick über existierende Voxelisierungs- und Beleuchtungsverfahren, die Voxel als Grundlage nutzen, wird ein Voxelisierungsverfahren entwickelt, das sich für Szenen mit dynamischen Objekten eignet. Auf der Grundlage des Strahlenschnitt-Tests mit binärer Voxelhierarchie werden dann zwei Beleuchtungsalgorithmen umgesetzt, implementiert und evaluiert: Monte-Carlo-Integration der Hemisphäre eines Szenenpunktes und Beleuchtung der Szenenpunkte mit virtuellen Punktlichtquellen.
Community-Plattformen im Internet verwenden codebasierte Governance, um ihre hohe Anzahl an Nutzerbeiträgen zu verwalten. Dazu gehören alle Arten von Funktionalitäten, mit denen die Community Nutzerbeiträge in irgendeiner Form direkt oder indirekt beurteilen kann. Diese Arbeit erklärt zunächst die Bedeutung codebasierter Governance und der verschiedenen dafür nutzbaren Funktionalitäten. Anschließend werden die erfolgreichsten 50 Community-Plattformen auf codebasierte Governance untersucht. Das Ergebnis zeigt die Zusammenhänge zwischen dem Aufbau einer Plattform, der Beschaσffenheit der Nutzerbeiträge und der darauf ausübbaren codebasierten Governance auf.
Maßnahmen der Führungskräfteentwicklung verfolgen das Ziel den Führungsnachwuchs des Unternehmens zu bilden und für einen reibungslosen Einstieg in die Füh-rungsaufgabe zu sorgen. In der Literatur gibt es zahlreiche Theorien und Modelle zu Führung und deren Entwicklung, doch offen bleibt meist, wie es um den praktischen Einsatz und die Effektivität steht. Das Ziel dieser Arbeit ist die Identifikation wesentlicher Bestandteile der Führungskräfteentwicklung, die effektiv Einfluss auf (Nachwuchs-)Führungskräfte nehmen. Drei Studien beschäftigen sich jeweils mit unter-schiedlichen Schwerpunkten mit der Gestaltung und Wirksamkeit von modularen Programmen der Führungskräfteentwicklung. Zur Beschreibung der Gestaltung wurde eine Expertenbefragung unter Verantwortlichen für Führungskräfteentwicklung in 4 Großunternehmen durchgeführt. Zur Prüfung der Wirksamkeit wurden zwei Prädiktoren erfolgreichen Führens, die praktische Führungsintelligenz und die Führungswirksamkeitserwartung (FWE), in zwei repräsentativen modularen Programmen gemessen. Dafür wurden zwei quasiexperimentelle Designs mit Prätest-Posttest durchgeführt: ein Design mit zusätzlicher Kontrollgruppe (Nexp = 14, Nkontr = 12), ein Design mit zusätzlicher Fremdeinschätzung (N = 11 bis N =57 je nach Messzeitpunkt und beteiligten Variablen). Die praktische Führungsintelligenz wurde anhand eines für die Untersuchung entwickelten Situational Judgment Tests (SJTs) gemessen. Neben der FWE (in Anlehnung an die Skala zur Erfassung der beruflichen Selbstwirksamkeitserwartung, BSW-Skala) wurden weitere Konstrukte wie Selbstregulation (Locomotion-Assessment-Fragebogen, L-A-F), Optimismus (Skala Optimismus-Pessimismus-2, SOP2) Selbstmanagement (Fragebogens zur Erfassung von Ressourcen und Selbstmanagementfähigkeiten, FERUS) erfasst, sowie explorativ entwicklungsförderliche Merkmale erhoben. Entsprechend der Annahme verdichten sich die Ergebnisse auf drei Merkmale wirksamer Trainingsgestaltung: Erfahrungssammlung, Feedback, Selbstreflexion. Es konnte nachgewiesen werden, dass Programme mit hohem erfahrungsorientiertem Trainingsanteil, die Erfolgserlebnisse und Modelllernen fördern sowie persönliche Gespräche und Feedback beinhalten, die FWE (ŋ2 = .24, ŋ2 = .50) und die praktische Führungsintelligenz (ŋ2 = .54). signifikant (p<.05) steigern. Deutlich wurde auch der enge Zusammenhang zwischen Merkmalen der Person (wie Ausprägung der FWE oder Selbstregulationsfähigkeiten) und der Wirksamkeit der Programme. Aus den Ergebnissen werden Empfehlungen zur praktischen Umsetzung in der Führungskräfteentwicklung abgeleitet und Anregungen für zukünftige Forschung diskutiert.
Die Ukraine sieht seit dem Euromaidan im Jahr 2014 ihre Zukunft in einer stabilen Veran-kerung im westlichen Wertesystem. Für die EU ist die Ukraine ein priority partner und damit von besonderem Gewicht. Deshalb lag es folgerichtig im Interesse der EU, die Ukra-ine nach Kräften auf diesem Weg zu unterstützen.
Die wissenschaftliche Forschung zur EU-Demokratieförderung konzentrierte sich bis-her im Wesentlichen auf Staaten mit konkreter EU-Beitrittsperspektive. Sie kam zu dem Ergebnis, dass der Erfolg der Demokratieförderung maßgeblich von der Konditionierung eines EU-Beitritts getragen war. Damit konnte dieser Erfolg der EU als dominanter Träger der Demokratieförderung zugeordnet werden.
Mit dem Fokus auf Staaten ohne EU-Beitrittsperspektive entfällt diese Konditionie-rung. Auch weitere Akteure traten bei der Demokratieförderung hinzu, und die Wirksam-keit der Demokratieförderung kann nicht mehr der EU direkt zugeordnet werden. Es ent-stand also eine Forschungslücke, in welcher Weise jetzt die Wirksamkeit der EU-Demokratieförderung analysiert werden kann. Die vorliegende Studie greift diese For-schungslücke auf.
Zunächst wird analysiert, welcher Demokratiestatus der Ukraine und welche Defizite sich für den Untersuchungszeitraum ermitteln lassen. Im Anschluss erfolgt die Analyse der EU-Demokratieförderung auf der Grundlage einer eigens dafür entworfenen Definition von kohärenter Strategie, die eine statische und eine dynamische Dimension abbildet.
Die statische Dimension geht der Frage nach, ob die Zielsetzungen und Vorhaben der EU-Demokratieförderung auf die Demokratiedefizite zugeschnitten waren. Die dynami-sche Dimension des Transformationsprozesses beschäftigt sich mit der Frage, ob das jewei-lige Vorgehen den Prinzipien aus sozialkonstruktivistischer Perspektive folgte. Mit dieser sozialkonstruktivistischen Perspektive wird ein Weg aufgezeigt, wie man ohne eine EU-Beitritts-Konditionierung die Transformation demokratischer Werte und Normen erfolg-reich ausgestalten kann.
Das Ergebnis ist, dass die EU-Strategie der Demokratieförderung zwar mit ihren Ziel-setzungen und Vorhaben auf die Demokratiedefizite der Ukraine ausgerichtet war, aber auch, dass das Vorgehen in einem Fall nicht den Prinzipien aus sozialkonstruktivistischer Perspektive entsprach. Diesem Vorgehen lag keine kohärente EU-Strategie zugrunde.
Die Analyse auf der Ebene der Strategie lässt der EU-Demokratieförderung keine di-rekte Wirkung zuweisen, da auch andere Akteure eine Wirkung entfalten. Auf der Ebene eines konkreten Reformprojekts konnte dann der Nachweis geführt werden, dass die De-zen-tralisierungsreform direkt der EU zugeordnet werden kann, das Vorgehen den Prinzi-pien aus sozialkonstruktivistischer Perspektive folgt und eine positive Wirkung entfaltet.
Begünstigt wurde dieser Erfolg, da er sich auf demokratische Werte und Normen ab-stützen konnte, die in überdurchschnittlicher Ausprägung bereits vorhanden waren. Dar-über hinaus wurde aufgezeigt, dass dieses Projekt eine breit gefächerte potenzielle Wirkung auf den Reformprozess in Richtung Demokratie entfaltet.
Die Dissertation wurde am 14. Dezember 2021 abgeschlossen und an der Universität Koblenz-Landau eingereicht. Im Nachgang bietet ein „Postskript“ mit Datum September 2022 unter Berücksichtigung aktueller Entwicklungen eine Perspektive für weiterführende Forschungsfragen.
Literaturanalyse und Darstellung aktueller Forschungsschwerpunkte zum Thema Entrepreneurial Strategy
(2019)
Entrepreneurial Strategy ist in der Literaturwelt weit verbreitet. Dieser Begriff fand schon im 20. Jahrhundert seine Anwendung und zieht sich bis ins heutige Zeitalter weiter. Diese Beständigkeit und Entwicklung des Entrepreneurs und dem Wunsch nach einem eigenen Unternehmen trieben die Diskussion dieses Themas voran. Die Wahl der passenden unternehmerischen Strategie ist eine der wichtigsten Entscheidungen, die ein Unternehmer treffen muss. Diese Problematik sorgte für eine Analyse und genaue Forschung der Entscheidungen und Einflussfaktoren. Resultate davon wurden festgehalten und interpretiert um die Branche der Entrepreneure zu fördern und somit die Wirtschaft anzutreiben. In der vorliegenden Arbeit wird zunächst ein Grundverständnis für die wichtigsten Begrifflichkeiten ausgearbeitet. Grundlage dieser Bachelorarbeit ist jedoch, anhand einer Literaturanalyse nach Webster und Watson (2002) einen Einblick in die Forschung der Entwicklung von Entrepreneurial Strategy zu geben und den aktuellen Stand herauszuarbeiten. Anahnd dieser Literaturanalyse werden Referenzen, Konzepte und die Notwendigkeit von Strategien verdeutlicht und die Rolle in einem Start-Up erklärt. Aus der Analyse und dem Vergleich zu älteren Veröffentlichungen geht hervor, das der Prozess der Strategiefindung eine Differenzierung in zwei Teile aufweist. Es wird unter dem Strategiesuch- und dem Strategieauswahlprozess uinterschieden. Merkmale, die früher als Allgemeine Einflussfaktoren für die Wahl der Strategie angenommen wurden, werden in der heutigen Literatur den genauen Prozessen und Phasen zugeteilt. Das Resultiert, das Merkmale, wie die persönlichen Eigenschaften, die Umgebung und das Humankapital eines Unternehmers mehr Einfluss während dem Suchprozess haben als während der darauffolgenden Auswahl. Zudem wurden für die Auwahl Methoden und Richtlinien entwickelt, die dem Unternehmer helfen sollen seine Alternativen zu sortieren und daraus zu wählen.
Die vorliegende Arbeit beschäftigt sich mit den Unterstützungsmöglichkeiten des stationären Vertriebs mithilfe aktueller mobiler Anwendungen. Das Internet hat bereits dafür gesorgt, dass der Handelsmarkt dynamischer und die Bedingungen für den langjährigen stationären Vertrieb anspruchsvoller geworden sind. Online-Händler bieten aufgrund kleinerer Kostenstrukturen Preise an, bei denen der stationäre Point of Sale nur schwerlich mithalten kann. Zudem steigert sich die Akzeptanz Online-Kaufabschlüsse umzusetzen, weil sich Serviceleistungen der e-Shops verbessert haben und digitale Transaktionen für moderne Konsumenten immer attraktiver werden. Heute haben Smartphones und Tablets die Digitalisierung unserer Gesellschaft auf ein ganz neues Niveau katapultiert. Durch den Einzug des mobilen Internets haben sich die Effekte, die das stationäre Internet bereits hervorbrachte, intensiviert. Die Frage die sich dabei stellt ist: Wie sehr werden sich die Wettbewerbsbedingungen für den stationären Vertrieb verändern? Dabei verfolgt die Arbeit das Ziel aktuelle mobile Dienste, ihre Funktionalitäten und Praxisanwendungen zusammenzutragen und in geeigneter Form in den Vertriebsprozess zu integrieren. Dadurch soll die Erkenntnis gewonnen werden, ob der Einzug des mobilen Internets nicht doch als ein Vorteil für den stationären Vertrieb angesehen werden darf.
Das Ziel dieser Arbeit war es, durch agentenbasierte Simulation die Unfall- und Verkehrsmodellierung von Oman (Muskat City) unter theoretischen Annahmen darzustellen. TRASS sollte als Grundlage für die Simulationsumgebung genommen werden. Zusätzlich sollten mögliche Gegenmaßnahmen in Bezug auf die hohe Unfallrate vorgeschlagen werden können, die sich durch unterschiedliche Simulationsvarianten ergeben.
Ob die theoretischen Annahmen durch die Simulation in der Realität tatsächlich eine Anwendung finden und umgesetzt werden sollen, war nicht Teil dieser Arbeit.
Zu prüfen war es noch, ob sich drei verschiedene Simulationsvarianten durch die Simulation mit TRASS unterschiedlich darstellen lassen. Die drei Varianten wurden aufgeteilt in Simulationsablauf mit Ampelsteuerung, ohne Ampelsteuerung und schließlich mit Ampelsteuerung, die aber mit einer Wahrscheinlichkeit von 70% ignorieret werden soll. Alle drei Varianten konnten unterschiedliche Ergebnisse liefern. Es wurde gezeigt, dass alle drei Varianten Vor- und Nachteile im Bezug auf Verkehrsfluss und Unfallrate haben.
Nicht zu vernachlässigen ist die Tatsache, dass in dieser Arbeit ausschließlich mit TRASS-Framework modelliert, analysiert und ausgewertet wurde. Alle Potenziale und Defizite fließen somit in den Gesamtrahmen dieser Arbeit ein. Daher ist nach kritischer Betrachtung diese Aussage nur aus einem Blickwinkel betrachtet worden: Zu Grunde lagen die theoretischen Annahmen von Oman und die Modelliergrenzen von TRASS. Um eine vielversprechende Aussage über die tatsächliche Umsetzung der Vorschläge machen zu können, bedarf es noch weitere umfassende Analysen und Simulationen in weitaus größerem Variantenumfang des Verkehrs für Oman.
Die Arbeit beschäftigt sich mit der für Router und Kleingeräte entwickelten Linux-Distribution OpenWrt. Im ersten Teil der Arbeit wird die Erstellung von Softwarepaketen für OpenWrt erläutert und eine Anzeige- und Konfigurationskomponente für die Dateien des Quagga RIP-Daemons für die Benutzeroberfläche LuCI erstellt. Im zweiten Teil wird der Aufbau eines Testnetzwerkes mit OpenWrt Routern dokumentiert, sowie die Anbindung an VNUML-virtualisierte Netzwerke.
Ziel dieser Arbeit ist es, ein einfaches Konzept zur Überwachung von Hunden, die mehrere Stunden alleine zu Hause sind, zu entwickeln. Die prototypische Implementierung einer solchen„DogCam“ kann als Proof of Concept angesehen werden. Die Grundlage für die Implementierung des Prototypen sind die im Rahmen einer Anforderungsanalyse herausgearbeiteten Anforderungen. Weiterhin zeigt die vorliegende Arbeit auf, welche Verbesserungen und Erweiterungen der prototypischen „DogCam“ möglich sind und welche ähnlichen Projekte bereits existieren.
Diese Masterarbeit behandelt den Themenbereich des interkulturellen Webdesigns im Internet. Dabei werden exemplarisch zwei an dieselbe Zielgruppe gerichtete Webseiten aus verschiedenen Ländern miteinander verglichen. Anhand von Kulturdimensionen werden kulturelle Unterschiede auf der jeweiligen Webseite aufgezeigt. Bei der Internetseiten-Analyse wird insbesondere auf die Frage eingegangen, wie ausführlich sich die jeweiligen Webseitengestalter und -betreiber Gedanken über kulturelle Unterschiede ihrer Nutzer/-innen und die Erzeugung eines entsprechenden interkulturellen Webdesigns gemacht haben. Die Analyse zeigt auf, auf welche kulturellen und insbesondere interkulturellen Aspekte der Länder bei der Webseitengestaltung Rücksicht genommen wird. Da hierbei im Rahmen der durchgeführten Untersuchung festgestellt wurde, dass die Umsetzung des interkulturellen Webdesigns nicht konsequent in der Gesamtheit der Webseite erfolgt, werden konkrete Vorschläge zu möglichen Verbesserungen aufgezeigt.