Refine
Year of publication
Document Type
- Part of Periodical (270)
- Bachelor Thesis (229)
- Doctoral Thesis (224)
- Diploma Thesis (169)
- Study Thesis (127)
- Master's Thesis (97)
- Report (8)
- Other (5)
- Book (4)
- Article (1)
Language
- German (1136) (remove)
Has Fulltext
- yes (1136) (remove)
Keywords
- Vorlesungsverzeichnis (55)
- Augmented Reality (14)
- Bildverarbeitung (12)
- Simulation (10)
- Computergrafik (9)
- Robotik (9)
- Computergraphik (8)
- Computersimulation (8)
- Computervisualistik (8)
- Routing (8)
- Computerspiel (7)
- Forschen in Koblenz (7)
- Junges Forschen (7)
- Visualisierung (7)
- Wissenschaft Koblenz (7)
- Datenschutz (6)
- Führung (6)
- Informatik (6)
- Inklusion (6)
- Java (6)
- OpenGL (6)
- Android (5)
- Evaluation (5)
- GPGPU (5)
- Grundwasserfauna (5)
- Interaktion (5)
- Modellierung (5)
- Mustererkennung (5)
- Objektverfolgung (5)
- Semantic Web (5)
- Volumendaten (5)
- Business Intelligence (4)
- E-Learning (4)
- Frau (4)
- GPU (4)
- Inhaltsanalyse (4)
- Innovation (4)
- Programmierung (4)
- RIP-MTI (4)
- Raytracing (4)
- Rechnernetz (4)
- Router (4)
- Shader (4)
- Supply Chain Management (4)
- Tracking (4)
- Unterrichtsforschung (4)
- VNUML (4)
- VOXEL (4)
- Web 2.0 (4)
- Wiki (4)
- Analyse durch Synthese (3)
- Arbeitszufriedenheit (3)
- Biomechanik (3)
- Computer (3)
- Computermodell (3)
- Customer Relationship Management (3)
- Datenanalyse (3)
- Datenstruktur (3)
- Dialog (3)
- E-Partizipation (3)
- Echtzeitsystem (3)
- Echtzeitsysteme (3)
- Electronic Government (3)
- Erweiterte Realität (3)
- Globale Beleuchtung (3)
- Grundschule (3)
- Grundwasser (3)
- Information Retrieval (3)
- Informationssystem (3)
- Innovationsmanagement (3)
- Instant Messaging (3)
- Integration (3)
- Kamera (3)
- Kryptographie (3)
- Kultur (3)
- Lendenwirbelsäule (3)
- Lernen (3)
- Line Space (3)
- Markerloses Tracking (3)
- Mikrocontroller (3)
- Mikrocontroller AVR (3)
- Mikroskopie (3)
- Modellbasiertes Tracking (3)
- Netzwerk (3)
- Netzwerksimulation (3)
- Online-Befragung (3)
- Ontologie (3)
- Persönlichkeit (3)
- Pfalz (3)
- Pflanzenschutzmittel (3)
- Physikunterricht (3)
- Prozessmanagement (3)
- Qualität (3)
- Qualitätssicherung (3)
- Ray tracing (3)
- Rechnernetze (3)
- Rettungsroboter (3)
- SPARQL (3)
- Segmentierung (3)
- Selbstwirksamkeit (3)
- Sicherheit (3)
- Smartphone (3)
- Software (3)
- Spiel (3)
- Sport (3)
- Stereosehen (3)
- TGraph (3)
- Transformation (3)
- Virtual Reality (3)
- Volumen-Rendering (3)
- Wikipedia (3)
- XTPeer (3)
- groundwater fauna (3)
- interaktiv (3)
- 3D (2)
- Abdrift (2)
- Akkreditierung (2)
- Android <Systemplattform> (2)
- App (2)
- Applikation (2)
- Augenbewegung (2)
- Autonome Fahrzeuge (2)
- Autonomes Robotersystem (2)
- BPMN (2)
- Betriebspädagogik (2)
- Bewertung (2)
- Bild (2)
- Bildregistrierung (2)
- Bildung (2)
- Bildung für nachhaltige Entwicklung (2)
- Bildverstehen (2)
- Biographieforschung (2)
- Biomonitoring (2)
- Browser (2)
- C++ (2)
- CCRDMT (2)
- CSCW (2)
- Chronischer Schmerz (2)
- Compute Shader (2)
- Computer Supported Cooperative Work (2)
- Computeranimation (2)
- Controlling (2)
- Coping (2)
- DOCHOUSE (2)
- Datenaustausch (2)
- Datensicherheit (2)
- Digital Rights Management (2)
- E-Government (2)
- E-IMS (2)
- E-Mail (2)
- Eltern (2)
- Empirische Forschung (2)
- Entwicklung (2)
- Exposition (2)
- Eyetracking (2)
- Fahrerassistenzsystem (2)
- Fahrzeug (2)
- Faktorenanalyse (2)
- Fallstudie (2)
- Fließgewässer (2)
- Framework (2)
- Fremdsprachenunterricht (2)
- GLSL (2)
- GPS (2)
- Gaze Tracker (2)
- Gender (2)
- Geschichte (2)
- Geschäftsprozess (2)
- Global Illumination (2)
- Google App Engine (2)
- Google Web Toolkit (2)
- Governance (2)
- Grafikkarte (2)
- Grafikprozessor (2)
- Graphik (2)
- Graphikprozessor (2)
- Grounded Theory (2)
- Haare (2)
- Heilanstalt (2)
- High dynamic Range (2)
- Hydrogeologie (2)
- IBM Lotus Quickr (2)
- IPv6 (2)
- Immersion (2)
- Information Flow Ontology (2)
- Informationsmanagement (2)
- Informationsvisualisierung (2)
- Internet (2)
- Internetzugang (2)
- Jugendhilfe (2)
- Jugendstil (2)
- Kalibrierung (2)
- Kinematik (2)
- Klassifikation (2)
- Klimawandel (2)
- Kommunikation (2)
- Kompetenz (2)
- Konfirmatorische Faktorenanalyse (2)
- Konflikt (2)
- Konvergenz (2)
- Künstliche Intelligenz (2)
- Laserinduzierte Plasmaspektroskopie (2)
- Laserscanner (2)
- Lehrerbildung (2)
- Linespace (2)
- Logistik (2)
- Macht (2)
- Makroinvertebraten (2)
- Management (2)
- Medizinische Visualisierung (2)
- Metriken (2)
- Mittelrhein (2)
- Modell (2)
- Modellieren (2)
- Modelltransformation (2)
- Monitoring (2)
- Motivation (2)
- Nachhaltigkeit (2)
- Naturwissenschaften (2)
- Navigation (2)
- Network (2)
- Netzwerkmanagement (2)
- Norm (2)
- Open Source (2)
- OpenGL Shading Language (2)
- Organisationsentwicklung (2)
- Partikelsystem (2)
- Path Tracing (2)
- Personalausweis (2)
- Pestizid (2)
- Petri-Netze (2)
- Pflege (2)
- Pflegeanstalt (2)
- Physikdidaktik (2)
- Physiksimulation (2)
- Point Rendering (2)
- Professionalität (2)
- Program Slicing (2)
- Psychologie (2)
- Pädagogik (2)
- RDF <Informatik> (2)
- RFID (2)
- RIP (2)
- RMTI (2)
- Realistische Computergrafik (2)
- Reflexion (2)
- Registrierung <Bildverarbeitung> (2)
- Rendering (2)
- Ressourcen (2)
- Rollenspiel (2)
- Schatten (2)
- Schizophrenie (2)
- Selbstlokalisation (2)
- Semantic Desktop (2)
- Semantik (2)
- Social Software (2)
- Sonderpädagogik (2)
- Spielkonsole (2)
- SpoGA (2)
- Starrkörper (2)
- Stress (2)
- Tablet PC (2)
- Technologiemanagement (2)
- Textur-Mapping (2)
- Tourismus (2)
- Transferfunktion (2)
- Transform Feedback (2)
- Umfrage (2)
- Universität Koblenz-Landau (2)
- Unternehmen (2)
- Usage Rights Management (2)
- Virtualisierung (2)
- Virtuelle Realität (2)
- Virtuelle Welt (2)
- Volumen (2)
- Volumenrendering (2)
- WLAN (2)
- Wasseroberfläche (2)
- WebGL (2)
- Webcam (2)
- Whiteboard (2)
- Wii (2)
- Wiimote (2)
- Wissen (2)
- Wissensrepräsentation (2)
- World Wide Web (2)
- World of Warcraft (2)
- XML (2)
- Zertifikat (2)
- Zielverfolgung (2)
- biomonitoring (2)
- computer science (2)
- confirmatory factor analysis (2)
- dialogische Führung (2)
- evaluation (2)
- game (2)
- information system (2)
- mentale Repräsentation (2)
- migration (2)
- physics (2)
- prevention (2)
- runoff (2)
- simulation (2)
- Ökologie (2)
- 18. Jahrhundert (1)
- 2-D (1)
- 2D/3D-Segmentierung (1)
- 3-D-Laserscannen (1)
- 3-D-Modell (1)
- 3-D-Modelle (1)
- 3-D-Scanning (1)
- 360 Grad (1)
- 360 degree (1)
- 3D Modell Referenz Bildsynthese (1)
- 3D Painting (1)
- 3D-Abbildungen (1)
- 3D-Color-Structure-Code (1)
- 3D-Darstellung (1)
- 3D-Kartierung (1)
- 3D-Modell (1)
- 3D-Modelle (1)
- 3D-RETISEG (1)
- 3D-Scan (1)
- 3D-Vermessung (1)
- 3D-Videospiel (1)
- 3D-Visualisierung (1)
- ACL injury (1)
- AD(H)S Bindung (1)
- ADHS (1)
- ADS (1)
- AMIRE (1)
- AR (1)
- ARIS (1)
- ARToolkit (1)
- ARToolkitPlus (1)
- ATMega 16 (1)
- ATmega644 (1)
- ATtiny2313 (1)
- Abfluss (1)
- Abfragesprache (1)
- Absorptive capacity (1)
- Abwasser (1)
- Achtsamkeit (1)
- Acquis communautaire (1)
- Ad-Hoc Routing (1)
- Adaptive Abtastung (1)
- Adaptiver Test (1)
- Adhäsion (1)
- Administration (1)
- Adobe Flash (1)
- Adressatenorientierung (1)
- Advanced Encryption Standard (1)
- Advertising (1)
- Aesthetics (1)
- Agent (1)
- Aggregation (1)
- Agoraphobie (1)
- Agriotes spp. (1)
- Aktivität (1)
- Aktualisierung (1)
- Akuter Schmerz (1)
- Akzeptanz (1)
- Algorithmus (1)
- Allgemeine Systemtheorie (1)
- Allianz (1)
- Alltagsgeschichte (1)
- Alltäglichkeit (1)
- Altlast (1)
- Altlasten (1)
- Aluminiumorthophosphat (1)
- Ambient Occlusion (1)
- Ambulante Behandlung (1)
- Ambulante Psychotherapie (1)
- Analoge Methoden (1)
- Analyse (1)
- Analyse-durch-Synthese (1)
- Analytischer Hierarchieprozess (1)
- Android 2 (1)
- Android 3 (1)
- Android 4 (1)
- Android development (1)
- Androidentwicklung (1)
- Aneignung (1)
- Anforderung (1)
- Anforderungskatalog (1)
- Anforderungsprofil (1)
- Angiographiebilder (1)
- Anhänger (1)
- Anhängerfahrzeug (1)
- Animation (1)
- Animationsfilm (1)
- Animationsverfahren (1)
- Annotationsmodell (1)
- Anreiz (1)
- Anstaltspsychiater (1)
- Anterior Cruciate Ligament Injury (1)
- Anwendungsintegration (1)
- Anwendungssoftware (1)
- Anzeige (1)
- App <Programm> (1)
- Arbeitsbelastungen (1)
- Arbeitsmotivation (1)
- ArcGIS (1)
- Architekturbewertung (1)
- Archäologie (1)
- Argumentation (1)
- Art Déco (1)
- Arzt-Angehörigen-Kommunikation (1)
- Aspect-orientation (1)
- Aspekt-Orientierung (1)
- Assembly (1)
- Assoziierungsabkommen der EU mit der Ukraine (1)
- Astrophysik (1)
- Audiodatei (1)
- Aufgabe (1)
- Aufgabenkultur (1)
- Aufmerksamkeit (1)
- Aufsatzdidaktik (1)
- Augenblick-SDK (1)
- Augmented Reality Szenario (1)
- Auslandsaufenthalt (1)
- Auslassung (1)
- Ausrichtungswerkzeug (1)
- Aussagenlogik (1)
- Ausstellung (1)
- Austausch (1)
- Austenitischer Stahl (1)
- Auszeichnungssprache (1)
- Authentifizierung (1)
- Authentisierung (1)
- Autokorrelation (1)
- Automatische Klassifikation (1)
- Automatische Kontrolle im Produktionsprozess (1)
- Automatisches Beweisverfahren (1)
- Autonome Exploration (1)
- Autonome Robotik (1)
- Autonomes Fahrzeug (1)
- Autonomous Exploration (1)
- Autorensystem (1)
- Außeralltäglichkeit (1)
- Außerschulische Lernorte (1)
- Avatare (1)
- Awareness (1)
- Axiomatische Geometrie (1)
- Axis Aligned Bounding Box (AABB) (1)
- B2B (1)
- BGV A1 (1)
- BI (1)
- BNE (1)
- BNE-Kriterien (1)
- BRDF (1)
- Bachelor (1)
- Bachelorstudiengang (1)
- Backtrack (1)
- Bakterien (1)
- Balanced Scorecard (1)
- Balancetheorie (1)
- Bandenemission (1)
- Barriere (1)
- Barrieren (1)
- Bauen mit Bauklötzen (1)
- Bauxit (1)
- Beethoven (1)
- Befragungsinstrument (1)
- Begutachtung (1)
- Behinderungen (1)
- Beispiel (1)
- Beleuchtung (1)
- Beleuchtungsverfahren (1)
- Benefits Realisation Management (1)
- Benutzerorientierung (1)
- Benutzerprofil (1)
- Benutzerschnittstelle (1)
- Benutzerverhalten (1)
- Beobachtungskompetenz (1)
- Beregnung (1)
- Berichterstattung (1)
- Bertelsmann Transformationsindex (1)
- Berufsausbildung (1)
- Berufsorientierung (1)
- Beschleunigungsensor (1)
- Besuchersoftware (1)
- Betriebliche Ausbildung (1)
- Betriebssystem (1)
- Bewegung (1)
- Bewegungsablauf (1)
- Bewegungsapparat (1)
- Bewegungsmodell (1)
- Bewegungssteuerung (1)
- Bewertungssystem (1)
- Bewertungsverfahren (1)
- Bewältigung (1)
- Big Five (1)
- BildKlang (1)
- Bildanalyse (1)
- Bildanalyse-Verfahren (1)
- Bildaufloesung (1)
- Bildauflösung (1)
- Bilderkennung (1)
- Bildsensor (1)
- Bildungsaspiration (1)
- Bildungserfolg (1)
- Bildungsinteresse (1)
- Bildungssprache (1)
- Bill Clinton (1)
- Billard (1)
- Binäre XML-Formate (1)
- Biofilm (1)
- Biofouling (1)
- Biogasanlage (1)
- Biogeografie (1)
- Biographie (1)
- Bioindikator (1)
- Biomechanics (1)
- Biometrie (1)
- Bioreaktor (1)
- Biotopkartierung (1)
- Bioökonomie (1)
- Blinder Fleck (1)
- Boden (1)
- Bodenerosion (1)
- Bodenfeuchtesimulation (1)
- Bologna-Prozess (1)
- Boppard (1)
- Bordinstrument (1)
- Bororthophosphat (1)
- Bounding Volume Hierarchie (1)
- Bounding Volume Hierarchy (1)
- Breaking (1)
- Brechung (1)
- Bruchsimulation (1)
- Building Performance Evaluation (1)
- Burg (1)
- Burn-out-Syndrom (1)
- Burnout (1)
- Business Continuity Management (1)
- Business Software (1)
- Business intelligence (1)
- Bürgerliches Drama (1)
- C-Programmierung (1)
- C-Socketbibliothek (1)
- CAD (1)
- CAD-System (1)
- CB2 (1)
- CIDR (1)
- CMS (1)
- CSCA (1)
- CSG (1)
- CSMs (1)
- CSV (1)
- CT-Datensätze (1)
- CTI (1)
- CTI -Problem (1)
- CamInSens (1)
- Campus Koblenz (1)
- Cascada (1)
- Case Study (1)
- Casual Game (1)
- Cg (1)
- Chancengerechtigkeit (1)
- Chancengleichheit (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Charisma (1)
- Charles Darwin (1)
- Charta der Vereinten Nationen (1)
- Cheops (1)
- Chief Executive Officer (1)
- Chiffrierung (1)
- Christusbekenntnis (1)
- Chronische Niereninsuffizienz (1)
- Cicero (1)
- Circumscription (1)
- Cisco Catalyst 3500XL (1)
- Citizen Science (1)
- Classification (1)
- Classroom-Management (1)
- Closed Source (1)
- Clusteranalyse (1)
- Clustering (1)
- Codierungstheorie (1)
- Cognitive-behavioral group therapy (1)
- CollaborativeWriting (1)
- Colonoscopy (1)
- Color Structure Code (1)
- ColorSym (1)
- Comic (1)
- Commitment <Management> (1)
- Common Annotation Framework (1)
- Communication System (1)
- Computational logic (1)
- Compute-Shader (1)
- Computer Networks (1)
- Computer-aided diagnosis (1)
- Computerbased Communication (1)
- Computerspiele (1)
- Computertomografie (1)
- Computertomographie (1)
- Computerunterstützte Kommunikation (1)
- Congestion Control (1)
- Constitutive Model (1)
- Content Management (1)
- Cooperative Learning; Teaching Methods (1)
- Corruption (1)
- CosiMail (1)
- Counting-to-Infinity (1)
- Crowdsourcing (1)
- Cybersickness (1)
- DCMTK (1)
- DEMO_net (1)
- DHCPv6 (1)
- DICOM (1)
- DIN EN ISO 9241 (1)
- DMF-DMA (1)
- DNNF (1)
- DPLL (1)
- DTI (1)
- Darmspiegelung (1)
- Darwinismus (1)
- Data Analysis (1)
- Data Warhousing (1)
- Data analysis (1)
- Data flow analysis (1)
- Data-Mining (1)
- Data-Warehouse-Konzept (1)
- Datenaustauschstandard (1)
- Datenbank (1)
- Datenbanksystem (1)
- Datenbrille (1)
- Datenfluss (1)
- Datenflussanalyse (1)
- Datenflussmodell (1)
- Datenschutz, Datensicherheit, Apps, Informatik im Kontext (1)
- Datenschutzkompetenz (1)
- Datenschutzkompetenzmodell (1)
- Datenschutzpolicy (1)
- David Hume (1)
- Deep Learning (1)
- Defekte Demokratie (1)
- Definitivartikel (1)
- Delphi (1)
- Delphi-Studie (1)
- Delta (1)
- Demokratieförderung der Ukraine (1)
- Demokratieförderung durch die Europäische Union (1)
- Demokratiestatus (1)
- Demokratische Werte und Normen (1)
- Demoskopie (1)
- Denkmal (1)
- Deposition (1)
- Derivatisierung (1)
- Derrida (1)
- Design Thinking (1)
- Design-Based-Research-Studie (1)
- Designforschung (1)
- Designwerkzeug (1)
- Desktop (1)
- Deutungsmuster (1)
- Dezentralisierungsreform (1)
- DiaLex (1)
- Diagnose (1)
- Diagnostik (1)
- Diagramm (1)
- Dialekt (1)
- Didaktik (1)
- Dienstleistungsproduktivität (1)
- Diffie-Hellman-Algorithmus (1)
- Digital Storytelling (1)
- Digitale Bibliothek (1)
- Digitale Bildung (1)
- Digitale Medien (1)
- Digitale Steuerung (1)
- Digitalisierung (1)
- Disaster Recovery (1)
- Diskriminierung (1)
- Diskurs (1)
- Diskursanalyse (1)
- Diskursmeter (1)
- Diskursverständnis (1)
- Disney (1)
- Displacement Mapping (1)
- Display (1)
- Dispositiv (1)
- Dissens (1)
- Distance Vector Routing (1)
- Distanz Vektor Routing (1)
- Distanz-Vektor (1)
- Distanzfeld (1)
- Distribution <Linguistik> (1)
- Dokumentation (1)
- Drahtloses Sensorsystem (1)
- Drahtmodell (1)
- Drahtwürmer (1)
- Dramengestalt (1)
- Dramenschluss (1)
- Dreidimensionale Visualisierung (1)
- Dreidimensionales Modell (1)
- Drucktechnik (1)
- Duale Ausbildung (1)
- Duales System (1)
- Dyadische Interaktion (1)
- Dynamische Geometrie (1)
- Dynamische Netzwerkanalyse (1)
- Dynamische Programmierung (1)
- E-Commerce (1)
- E-Demokratie (1)
- E-KRHyper (1)
- E-Procurement (1)
- E-participation (1)
- EEG (1)
- EEPROM (1)
- EMIL-S (1)
- EP Wahl (1)
- EPC (1)
- EPK (1)
- EPROM (1)
- ERP-System (1)
- ERP-Systeme (1)
- ESSA (1)
- EU (1)
- EU Advisory Mission (EUAM) (1)
- EU-Dienstleistungsrichtlinie (1)
- EU-Strategie der Demokratieförderung (1)
- EU-Ukraine Assoziationsagenda (1)
- EU-Ukraine Assoziationsrat (1)
- EU-Ukraine Parlamentarische Assoziationsrat (1)
- EU-Ukraine Partnerschafts- und Kooperationsabkommen (1)
- Eating Disorder (1)
- Echtzeit (1)
- Echtzeit Anwendung (1)
- Echtzeit Raytracing (1)
- Echtzeit-Interaktion (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitanimationssystem (1)
- Echtzeitfähigkeit (1)
- Echtzeitphysik (1)
- Eclipse (1)
- Eclipse <Programmierumgebung> (1)
- Ecore (1)
- Edellaubmischwälder (1)
- Ehe (1)
- Ehescheidung (1)
- Eigenschaften von Teammitgliedern (1)
- Eigensinn (1)
- Einchip-Computer (1)
- Einstellung (1)
- Einstellungen und Haltungen zu Inklusion (1)
- Eisenbahn-Unfalluntersuchungsstellen (1)
- Eisenbahnunfalldatenbank (1)
- Eisenbahnunfallkosten (1)
- Electronic Commerce (1)
- Elektrischer Servomotor (1)
- Elektrizitätslehre (1)
- Elektroencephalographie (1)
- Elektronische Bibliothek (1)
- Elektronische Signaturen (1)
- Elektronisches Wasserzeichen (1)
- Elektrostimulation (1)
- Elternschaft (1)
- EmIL (1)
- Emergence in the Loop (EMIL) (1)
- Emergenzen (1)
- Emil (1)
- Empfehlung (1)
- Empirismus (1)
- England (1)
- Enhanced Reality (1)
- Enterprise 2.0 (1)
- Enterprise Architect (1)
- Enterprise Architecture (1)
- Enterprise Architecture Frameworks (1)
- Enterprise Collaboration Sytems (1)
- Enterprise Resource Planning (1)
- Enterprise-Resource-Planning (1)
- Entropia Universe (1)
- Entscheidungsprozess (1)
- Entscheidungstheorie (1)
- Entwurfssprache (1)
- Epifluoreszenzmikroskopie (1)
- Epipolargeometrie (1)
- Erfolgsfaktor (1)
- Erleben (1)
- Erneuerbare Energien (1)
- Erstgebärende (1)
- Erwachsenenbildung (1)
- Erwartung (1)
- Erweiterte Realität <Informatik> (1)
- Erziehung (1)
- Erziehungsverhalten (1)
- Erziehungswissenschaft (1)
- Erzählung (1)
- Essstörung (1)
- Ethik (1)
- Ethnographie (1)
- Ethnography (1)
- Euklidische Geometrie (1)
- Eulerian grid (1)
- Eurokrise (1)
- Euromaidan (1)
- European Union Support Group for Ukraine (1)
- Europäische Kommission (1)
- Europäische Nachbarschaftspolitik (1)
- Europäische Wirtschaftsgemeinschaft (1)
- Europäischer Auswärtiger Dienst (1)
- Europäischer Binnenmarkt (1)
- Europäischer Rat (1)
- Europäisches Nachbarschaftsinstrument (1)
- Euroskeptizismus (1)
- Evangelium (1)
- Event (1)
- Exegese (1)
- Experiment (1)
- Experimente (1)
- Experimentieren (1)
- Experteninterview (1)
- Expertise (1)
- Expertiseentwicklung (1)
- Explorationstransformation (1)
- Exporation Transform (1)
- Extended Reality (1)
- Extension (1)
- Extinktion (1)
- Eye-Tracking (1)
- FPIC (1)
- Facebook App (1)
- Facettentheorie; (1)
- Fachdidaktik (1)
- Fachhochschule (1)
- Fachinformationssysteme (1)
- Fahrerassistenzsysteme (1)
- Fahrerlose Transportsysteme (1)
- Fahrsimulator (1)
- Fahrzeugverhalten (1)
- Faktorinvarianz (1)
- Fallrekonstruktion (1)
- Familie (1)
- Familienbeziehungen (1)
- Farbsymmetrie (1)
- Fast Convolution (1)
- FastSLAM Algorithmus (1)
- Fedora (1)
- Fehlertypen (1)
- Fehlerverhütung (1)
- Fell (1)
- Fell Rendering (1)
- Fernarbeitsregelungen (1)
- Fernsehtechnik (1)
- Fertilitaet (1)
- Feuer (1)
- Field programmable gate array (1)
- Filmdarstellung (1)
- Filmfiguren (1)
- Filmgestalt (1)
- Finanzberatung (1)
- Finanzpolitik (1)
- Fire (1)
- Firewall (1)
- Fiskalische Kosten (1)
- Fiskalpolitik (1)
- Flow-Erlebnis (1)
- Flowing Inland Waters (1)
- Flugbegleiter (1)
- Flugkörper (1)
- Fluid Simulation (1)
- Fluid dynamics (1)
- Fluiddynamik (1)
- Fluidsimulation (1)
- Flächenmodell (1)
- Flächennutzung (1)
- Flächennutzungskonkurrenz (1)
- Foils <Programm> (1)
- Folgenanreize (1)
- Folie (1)
- Forensik (1)
- Forschungslandkarte (1)
- Forschungsprojekt KMU 2.0 (1)
- Forsterschließung (1)
- Forstwirtschaft (1)
- Foucault, Michel (1)
- Fourier (1)
- Fracturing (1)
- Fragebogen (1)
- Fragmentshader (1)
- Frame-Semantik (1)
- Framework <Informatik> (1)
- Frameworks (1)
- Französisch (1)
- Französisch als L1 (1)
- Französisch als L2 (1)
- Französischunterricht (1)
- Freedom House (1)
- Frei Programmierbares Kombinationsinstrument (1)
- Freiheitsgrad (1)
- Freilandlabor (1)
- Fremddeutung (1)
- Fremdeinschätzung (1)
- Fremdsprachenlernen (1)
- Fresnel (1)
- Fritz Schütze (1)
- Frühpädagogik (1)
- Fungicide (1)
- Fungizid (1)
- Funkerkennung (1)
- Funknetzwerk (1)
- Funktionelle NMR-Tomographie (1)
- Funktionelle Störung (1)
- Fusarium spp. (1)
- Fusion (1)
- Fußballschuhe (1)
- Fähigkeitsselbstkonzept (1)
- Föderiertes System (1)
- Förderschule (1)
- Förderschwerpunkt geistige Entwicklung (1)
- Förderung (1)
- Führung durch Selbstführung (1)
- Führungskraft (1)
- Führungskräfteentwicklung, Selbstwirksamkeit, Situational Judgment Test (1)
- Führungskultur (1)
- Führungstheorie (1)
- GC-MS (1)
- GIRT (1)
- GIS (1)
- GMI-Controlling (1)
- GPGPU-Programmierung (1)
- GPU - Raycasting (1)
- GPU Programmierung (1)
- GPU basiert (1)
- GPU-Programmierung (1)
- GReQL 2 (1)
- GReTL (1)
- GUPRO (1)
- Game Design (1)
- Gamebased (1)
- Gamebasiertheit (1)
- Ganzheitlichkeit (1)
- Gaps (1)
- Gatekeeper (1)
- Gaze-Tracking (1)
- Gebrauchsgraphik (1)
- Gebrauchstauglichkeit (1)
- Geburt (1)
- Geburtshaus (1)
- Gebäudemodelle (1)
- Gedächtnis (1)
- Gegenstandsanreize (1)
- Geistige Behinderung (1)
- Geländemodell (1)
- Gemeinsame Außen- und Sicherheitspolitik (GASP) (1)
- Gemeinschaftlicher Besitzstand (1)
- Genealogie (1)
- Generation Z (1)
- Generative Modellierung (1)
- Geodaten (1)
- Geoinformation (1)
- Geoinformationssysteme (1)
- Geometrie-Shader (1)
- Geometriedidaktik (1)
- Geometry (1)
- Geometry-Shader (1)
- Geometryshader (1)
- Geomorphologie (1)
- Geothermie (1)
- Gerechtigkeit (1)
- Gerstner (1)
- Gesangverein (1)
- Geschlossene Unterbringung (1)
- Geschäftsmodell (1)
- Geschäftsmodellinnovation (1)
- Geschäftsprozessmodell (1)
- Geschäftsprozessmodellierung (1)
- Gesellschaft für Internationale Zusammenarbeit (GIZ) (1)
- Gespann (1)
- Gesprächsanalyse (1)
- Geste (1)
- Gesteninterpretation (1)
- Gesundheit (1)
- Gesundheitsbezogene Lebensqualität (1)
- Gesundheitskommunikation (1)
- Gesundheitswesen (1)
- Gewinnspiel (1)
- Gewinnspielsendung (1)
- Gewässer (1)
- Gewässerchemie (1)
- Gittererzeugung (1)
- Glaukom (1)
- Glint Center Estimation Algorithmus (1)
- Gonioreflectometer (1)
- Good Government (1)
- Gradientenanalyse (1)
- Grafik (1)
- Graph (1)
- GraphUML (1)
- Graphic novel (1)
- Graphikhardware (1)
- Graphpipes (1)
- Grundwasserfauna-Index (1)
- Grundwasserökologie (1)
- Gruppentherapie (1)
- Gupro (1)
- HDR-Bild (1)
- HDR-Bilder (1)
- HDR-Kamera (1)
- HNF-Algorithmus (1)
- HTML 5.0 (1)
- HZE (1)
- Habitat (1)
- Habitus (1)
- Halbleiter (1)
- Halbschatten (1)
- Haltung (1)
- Hambacher Fest (1)
- Handelsvertretung (1)
- Handlungsempfehlungen (1)
- Handlungskompetenz (1)
- Handlungsmuster (1)
- Handlungsorientierung (1)
- Handlungstheorie (1)
- Haptik (1)
- Hausgeburt (1)
- Haushaltspolitik (1)
- Headerdaten Netzwerkpaket SOCK_RAW SOCK_PACKET (1)
- Headtracking (1)
- Hebamme (1)
- Heidelberg Retina Tomograph (1)
- Heimerziehung (1)
- Herausforderung (1)
- Herausforderungen (1)
- Hermite-Normalform (1)
- Herzerkrankungen (1)
- Heuristiken (1)
- High-Traffic (1)
- Hilfe zur Erziehung (1)
- Hirschkäfer (1)
- Hirschzunge (1)
- Historisierung (1)
- Hochgeschwindigkeitstracking (1)
- Hochpräzise Volumenmessung (1)
- Hochschulbindung (1)
- Hochschuldidaktik (1)
- Hochschulorganisation (1)
- Hochschulpolitik (1)
- HoloLens (1)
- Holzhaus (1)
- Homeoffice (1)
- Hydrochemie (1)
- Hydrologie (1)
- Hyperspace-Modell (1)
- ICP-Algorithmus (1)
- IEC 61131 (1)
- IK-Algorithmus (1)
- IM-Systeme (1)
- IP 6 (1)
- IP-Adressen (1)
- IPTV (1)
- ISO 9001 (1)
- IT security analysis (1)
- IT-Risk-Management (1)
- IT-Sicherheitsmodelle (1)
- Idar-Oberstein (1)
- Identifikation (1)
- Immanuel Kant (1)
- Implizite Oberfläche (1)
- InFO (1)
- India (1)
- Indien (1)
- Indirekte Beleuchtung (1)
- Individualisierung (1)
- Individualisierung von Lernwegen (1)
- Individualized Learning (1)
- Individuelle Computermodelle (1)
- Individuelle Förderung (1)
- Inflation (1)
- Infobroker (1)
- Informatikunterricht (1)
- Information (1)
- Information Supply Chain (1)
- Information Visualization (1)
- Information-Retrieval (1)
- Informationsmanagementsystem (1)
- Informationstheorie (1)
- Informationsverarbeitung (1)
- Informationsverlinkung (1)
- Informel (1)
- Informelle Pflege (1)
- Informetrie (1)
- Innenarchitektur (1)
- Innerbetriebliche Kommunikation (1)
- InstaHub (1)
- Instruktionspsychologie (1)
- Instrumentalismus (1)
- Integration in der SEK II (1)
- Integrierte Lernumgebung (1)
- Integriertes Informationssystem (1)
- Interactive Visualizations (1)
- Interactive engagement (1)
- Interaktionselemente (1)
- Interaktive Visualisierungen (1)
- Interaktives Fernsehen (1)
- Interaktives Quiz (1)
- Interaktives Whiteboard (1)
- Interdisziplinarität (1)
- Interferenz <Linguistik> (1)
- Interimsprache (1)
- Interior Gateway Protokoll (1)
- Internationaler Währungsfonds (IWF) (1)
- Internetregulierung (1)
- Internetworking (1)
- Interoperabilität (1)
- Interpretierer (1)
- Intervention (1)
- Intranet-Zugang (1)
- Invarianzmessung (1)
- Inverse Kinematik (1)
- Inverses Modell (1)
- Irak Krieg (1)
- Iran (1)
- Islam (1)
- Iterative Closest Points (1)
- Iterative Dual Correspondences (1)
- J2EE (1)
- J2ME (1)
- JCryp-Tool (1)
- JGraLab (1)
- JGraph (1)
- Jabber (1)
- Jabber <Programm> (1)
- Jakob Heinrich Lützel (1)
- Java-Quelltext (1)
- JavaScript (1)
- Johann Ludwig Dacqué (1)
- Johann Schwager (1)
- John Dewey (1)
- Join (1)
- Jubiläum (1)
- Judentum (1)
- Jugendamt (1)
- Jump'n Run-Spiel (1)
- Jungunternehmen (1)
- Just-in-Time Teaching (1)
- Jüdisch (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- KI-Strategie (1)
- KONECS (1)
- KPI (1)
- KSAO (1)
- Kabel (1)
- Kalibrieren <Messtechnik> (1)
- Kamera Pose Tracking (1)
- Kamerakalibrierung (1)
- Kant, Immanuel (1)
- Karriere (1)
- Karrierefaktor (1)
- Karst (1)
- Karstgrundwasserleiter (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kartographie (1)
- Katadioptrisches Stereosystem (1)
- Katastrophenschutz (1)
- Kausalanalyse (1)
- Kennzahl (1)
- Kindheit (1)
- Kinect (1)
- Kirk-Coleman-Modell (1)
- Klassifikationsframework (1)
- Klassische Musik (1)
- Klausellogik (1)
- Kleine und mittlere Unternehmen (1)
- Kletterer (1)
- Klimaerwärmung (1)
- Klimaänderung (1)
- Klingenmünster (1)
- Klinische Psychologie (1)
- Kluftgrundwasserleiter (1)
- Knieverletzungen (1)
- Knowledge Compilation (1)
- Knowledge Graph (1)
- Kognitiv-behaviorale Gruppentherapie (1)
- Kognitive Verhaltenstherapie (1)
- Kohärenz (1)
- Kohärenzanalyse (1)
- Kolb-Test (1)
- Kollaboration (1)
- Kollaborationsplattform (1)
- Kollisionserkennung (1)
- Koloskopie (1)
- Kommunikation (intern) (1)
- Kommunikationsprotokoll (1)
- Kommunikative Kompetenz (1)
- Kommunitarismus (1)
- Kompetenzdiagnostik (1)
- Kompetenzentwicklung (1)
- Kompetenzmessung (1)
- Komplexe Beeinträchtigungen (1)
- Komponentenanalyse (1)
- Kondertal (1)
- Konditionierungen (1)
- Konfliktfähigkeit (1)
- Konfliktkultur (1)
- Konstruieren (1)
- Kontextbezogener Dienst (1)
- Kontextorientierung (1)
- Kontiguität (1)
- Kontingenz (1)
- Kontinuität (1)
- Kontinuitätsmanagement (1)
- Kontrastlose Oberflächen (1)
- Kontrollerleben (1)
- Konzept der Eingebetteten Demokratie (1)
- Konzeption (1)
- Kookkurrenz (1)
- Kooperation (1)
- Kooperatives Informationssystem (1)
- Kooperatives Lernen (1)
- Kopenhagener Kriterien (1)
- Korruption (1)
- Korrutionsprävention (1)
- Kraftfahrzeug (1)
- Kran (1)
- Krankenhausinformationssystem (1)
- Krankheitsverarbeitung (1)
- Kreuzbandverletzung (1)
- Kriegsneurose (1)
- Krisenberichterstattung (1)
- Krisenmanagement (1)
- Kristallisation (1)
- Kriterien des Erfolgs von Organisationen (1)
- Kriterienkatalog (1)
- Kritisches Lebensereignis (1)
- Kubismus (1)
- Kulturelle Bildung (1)
- Kulturlandschaft (1)
- Kundendienst (1)
- Kundenmanagement (1)
- Kunst (1)
- Kunstgeschichte (1)
- Kunstpädagogik (1)
- Kunststoff (1)
- Körper (1)
- Körperproportionen (1)
- LIBS (1)
- LMX (1)
- Laacher See <Region> (1)
- Laie (1)
- Landschaftsebene (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Landwirtschaft (1)
- Laser (1)
- Lastenheft (1)
- Laugung (1)
- Laura Mulvey (1)
- Layout (1)
- Layout <Mikroelektronik> (1)
- Leap-Motion (1)
- Lebensbewältigung (1)
- Lebensmittelabfall (1)
- Lebensmittelabfälle (1)
- Lebensmittelallergie (1)
- Lebensqualität (1)
- Lebensraumqualität (1)
- Lehr-Lern-Forschung (1)
- Lehrer (1)
- Lehrerprofessionalisierung (1)
- Leiblich-Affektiv (1)
- Leiblichkeit (1)
- Leistungsbeurteilung (1)
- Leistungsmessung (1)
- Leistungsmotivation (1)
- Leitstandmodul (1)
- Lenkassistenzsystem (1)
- Lenkung (1)
- Lernerfolg (1)
- Lernerorientierte Qualitätstestierung (LQW) (1)
- Lernklima (1)
- Lernkontext (1)
- Lernmaterial (1)
- Lernort (1)
- Lernortlandschaft (1)
- Lernpsychologie (1)
- Lernsoftware (1)
- Lernspiel (1)
- Lernstation (1)
- Lernstilanalysen (1)
- Lernumgebung (1)
- Lernumwelt (1)
- Lernzirkel (1)
- LexLearn (1)
- Lexikon (1)
- Liaison (1)
- Lichttransport (1)
- Lied (1)
- Liedbearbeitungen (1)
- Light Injection (1)
- Limnologie (1)
- Linguistik (1)
- Linguistische Gesprächsanalyse (1)
- Linienkorrelationen (1)
- Linking of Information (1)
- Linux (1)
- Literaturrecherche (1)
- Literaturwissenschaft (1)
- Lockergesteinleiter (1)
- Logging (1)
- Lokale Bildmerkmale (1)
- Lokalisierung (1)
- Lookup-Algorithmen (1)
- Lucanus cervus (1)
- Ludwig Heydenreich (1)
- Lumbago (1)
- Lumbalgie (1)
- Lumbar Spine (1)
- Lunaria (1)
- Ländliche Entwicklung (1)
- Ländliche Räume (1)
- Ländliche Siedlung (1)
- Ländlicher Raum (1)
- Längsschnittuntersuchung (1)
- MBS Model (1)
- MKS (1)
- MKS-Simulation (1)
- MMORPG (1)
- MP3 Player (1)
- MTASC (1)
- Machine Learning (1)
- Macro Financial Assistance Programs (1)
- Mail-Filter (1)
- Makrofinanzielle Unterstützungsprogramme (1)
- Makrozoobenthos (1)
- Malen (1)
- Mammographie (1)
- Mann-Whitney (1)
- Manöver-Visualisierung (1)
- Markerfunktion (1)
- Marketing (1)
- Markov Zufallsfelder (1)
- Marktanalyse (1)
- Markusevangelium (1)
- Massenspektrometrie (1)
- Master (1)
- Masterstudiengang (1)
- Matching-Verfahren (1)
- Matchingverfahren (1)
- Material Culture (1)
- Material Point Method (1)
- Material point method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Mathematik (1)
- Matting (1)
- Maya (1)
- Media Asset Management (1)
- Medialität (1)
- Mediator (1)
- Medien (1)
- Mediengewalt (1)
- Mediennutzung (1)
- Medienphilosophie (1)
- Medienpsychologie (1)
- Medienpädagogik (1)
- Medientheorie (1)
- Medienwirkung (1)
- Medium (1)
- Medizinische Bildverarbeitung (1)
- Medizintechnik (1)
- Mehrbenutzer-Annotationssystem (1)
- Mehrebenenanalyse (1)
- Mehrkörpersystem (1)
- Mehrkörpersysteme (1)
- Mehrprozessorsystem (1)
- Meliorismus (1)
- Mensch-Maschine-Schnittstelle (1)
- Menschen mit Lernschwierigkeiten (1)
- Menschenmengen-Evakuierung (1)
- Mentalität (1)
- Merkmal (1)
- Merkmalsbewertung (1)
- Merkmalsmanagement (1)
- Merkmalssynthese (1)
- Mesofauna (1)
- Mesophiler Laubwald (1)
- Messung (1)
- Messung der Ökoeffizienz (1)
- Meteor (1)
- Methodenvergleich (1)
- Metric based Icp (1)
- Mezzanine-Finanzierung (1)
- Micro Finance (1)
- Migration (1)
- Mikroanalytisches Modell (1)
- Mikroanalytisches Simulationsmodell (1)
- Mikrosensus (1)
- Mikrosimulationsmodell (1)
- Mikroskopische Objekte (1)
- Mikrozensus (1)
- Mind Maps (1)
- Mindestlohn (1)
- Minimum wage (1)
- Minsker Abkommen (1)
- Missionarin (1)
- Misskonzepte (1)
- Mitarbeiterzufriedenheit (1)
- Mitgefühl (1)
- Mittelstand (1)
- Mixed Methods (1)
- Mixed Reality (1)
- Mobile Arbeit (1)
- Mobile BI (1)
- Mobile Business Intelligence (1)
- Mobile Commerce (1)
- Mobile Health (1)
- Mobile Kommunikation (1)
- Mobile Parking (1)
- Mobile Payment (1)
- Mobile Roboter (1)
- Mobile Robots (1)
- Mobile Ticketing (1)
- MobileFacets System (1)
- Mobiler Roboter (1)
- Mobiles Informatinssystem (1)
- Mobiles Multiplayerspiel (1)
- Mobiles Umfeld (1)
- Mobilkommunikation (1)
- Mobiltelefon (1)
- Model View Presenter (1)
- Modellfahrzeug (1)
- Modellierungskompetenz (1)
- Modellierungstool (1)
- Modellierungswerkzeug (1)
- Modellprojekt PSB NIERE (1)
- Moderierte Diskussionen (1)
- Modeschmuck (1)
- Modul (1)
- Modulare Softwarearchitektur (1)
- Modulares Softwaresystem (1)
- Modulhandbuch (1)
- Modulnetze (1)
- Montage (1)
- Montageablauf (1)
- Monte-Carlo-Simulation (1)
- Morphologie (1)
- Motion Sickness (1)
- Multi-Agenten-Simulation (1)
- Multiagentensystem (1)
- Multimediale Assets (1)
- Multiple somatoforme Symptome (1)
- Multitrait-Multimethod-Modelle (1)
- Multivariate Datenanalyse (1)
- Museums visitors (1)
- Museumsbesucher (1)
- Musik (1)
- Musiklehrendenforschung (1)
- Musikpädagogik (1)
- Musikunterricht (1)
- Musikverein (1)
- Musteranalyse (1)
- Myokard (1)
- Männerchor (1)
- NPO (1)
- NSSV (1)
- NURBS (1)
- Nachhaltigkeitsbericht (1)
- Nachrichtenwerttheorie (1)
- Nagios (1)
- Narrative Interviews (1)
- Narrativität (1)
- National Investigation Bodies (1)
- Nationalbewegung (1)
- Nationalsozialismus (1)
- Nato (1)
- Nato Globale Partner (1)
- Nato Response Force (1)
- Nato Transformation (1)
- Natronwasserglas (1)
- Natura 2000 (1)
- Natural Image Matting (1)
- Naturalismus (1)
- Naturpotential (1)
- Naturräumliche Gliederung (1)
- Naturschutz (1)
- Naturwissenschaftlicher Unterricht (1)
- Navier"Stokes equations (1)
- Navier-Stokes-Gleichungen (1)
- Neokonservative (1)
- Netlogo (1)
- Network Monitoring (1)
- Network Simulation (1)
- Network Virtualization (1)
- Networked Graphs (1)
- Netzhaut (1)
- Netzwerk Protokollen (1)
- Netzwerk Virtualisierung (1)
- Netzwerk kleiner und mittlerer Unternehmen (1)
- Netzwerkchip (1)
- Netzwerkmanagment (1)
- Netzwerkmonitoring (1)
- Netzwerkschicht (1)
- Netzwerktechnik (1)
- Netzwerküberwachung (1)
- Neurowissenschaften (1)
- Nicht-photorealistisches Rendering (1)
- Nintendo DS (1)
- Nintendo Wii Fernbedienung (1)
- Nonprofit-Organisation (1)
- Normentstehung (1)
- North Atlantic Treaty Organization - NATO (1)
- Notfall (1)
- Notfallmanagement (1)
- Notfallvorsorge (1)
- Nutzen (1)
- Nutzen Condition Monitoring (1)
- Nutzerzufriedenheit (1)
- Nutzungsanalyse (1)
- Nutzungsrechte (1)
- Nvidia CUDA (1)
- OCR (1)
- ODRLv2 (1)
- OGRE (1)
- OMW (1)
- OSS (1)
- OWL (1)
- OWL <Informatik> (1)
- OWL-DL (1)
- Obama (1)
- Oberflächenabfluss (1)
- Oberflächenentwurf (1)
- Oberflächengestaltung (1)
- Oberflächenorientierung (1)
- Oberflächenstruktur (1)
- Objective-C (1)
- Objekterkennung (1)
- Objektorientierung (1)
- Octree Textur (1)
- Offener Innovationsprozess (1)
- Offensiver Neorealismus (1)
- Office-Prozess (1)
- Ohrgeräusch (1)
- Oktalbaum (1)
- Oktonärbäume (1)
- Olivenölproduktion (1)
- Online-Kommunikation (1)
- Online-Self-Assessment (1)
- Online-Überwachung (1)
- Onlinespiele (1)
- Onlinesucht (1)
- Onlinewahl (1)
- Ontologie <Wissensverarbeitung> (1)
- Ontology (1)
- Open Digital Rights Language (1)
- Open Innovation (1)
- Open Source 3D Graphics Engine (1)
- Open Source Software (1)
- OpenCL (1)
- OpenWrt (1)
- Operationsplanung (1)
- Opinion mining (1)
- Optimierung (1)
- Optimismus (1)
- Optische Messtechnik (1)
- Optische Zeichenerkennung (1)
- Optisches Mikroskop (1)
- Ordensfrau (1)
- Organisation für Sicherheit und Zusammenarbeit in Europa (OSZE) (1)
- Orientierungsstufe (1)
- Ornamentik (1)
- Ornamentklassifikation (1)
- Outsourcing (1)
- P2P (1)
- P3P (1)
- P3P-Policy-Generator (1)
- PACS- Picture Archiving (1)
- PBRT (1)
- PDA (1)
- PHP (1)
- Packet Header SOCK_RAW SOCK_PACKET (1)
- Panikstörung (1)
- Paniksyndrom (1)
- Par (1)
- Parallelmanipulator (1)
- Parkinsonismus (1)
- Parkinsonsyndrom (1)
- Parteienkommunikation (1)
- Partikel (1)
- Partikelsimulation (1)
- Partizipation (1)
- Partnerschaft (1)
- Path transformation (1)
- Pathtracing (1)
- Perfluorcarbonsäuren (1)
- Perinatalbogen (1)
- Personal Key Infrastruktur (1)
- Personalentwicklung (1)
- Personenidentifizierung (1)
- Personentracking (1)
- Personenverfolgungssystem (1)
- Pestizide (1)
- Petri-Netz (1)
- Petri-Netz-Theorie (1)
- Petrus (1)
- Pfadtransformation (1)
- Pflegebedürftigkeit (1)
- Pflegedienst (1)
- Pflichtenheft (1)
- Phantom Omni (1)
- Philipp Walter (1)
- Philosophie (1)
- Photogrammetrie Kalibrierung EMVA-1288 (1)
- Photogrammetry (1)
- Photovoltaik (1)
- Physik (1)
- Physikalische Therapie (1)
- Physikengine (1)
- Phytophthora infestans (1)
- Planspiegel-System (1)
- Planspiel 2.0 (1)
- Plugin (1)
- Politische Kommunikation (1)
- Politische Steuerung (1)
- Politisches und Sicherheitspolitisches Komitee (PSK) (1)
- Politolinguistik (1)
- Pollenanalyse (1)
- Polymere (1)
- Polypendetektion (1)
- Polystichum (1)
- Population (1)
- Portfolio <Pädagogik> (1)
- Portfolioarbeit (1)
- Pose (1)
- Posebestimmung (1)
- Poser analysis (1)
- Poser-Analyse (1)
- Poseschätzung (1)
- Position Based Dynamics (1)
- Positionierung (1)
- Positionsbestimmung (1)
- Positive Peer Culture (1)
- PostgreSQL (1)
- Potenzialfeld (1)
- Power Law (1)
- Pragmatismus (1)
- Pragmatizismus (1)
- Praktikant (1)
- Praktikum (1)
- Praktikumsbegleitung (1)
- Praxiswissen (1)
- Pre-Integration (1)
- Predictive Maintenance (1)
- Preemptive strike (1)
- Preisbildung (1)
- Prevention (1)
- Primarstufe (1)
- Primus (1)
- Primzahl (1)
- Primzahlen (1)
- Privacy (1)
- Privacy Competence Model (1)
- Privatvermögen (1)
- Problemlösekompetenz (1)
- Problemlösen (1)
- Professionalisierung (1)
- Programmanalyse (1)
- Programmiergerät (1)
- Programmiersprache (1)
- Programmiersprachen (1)
- Programmierumgebung (1)
- Projekt iCity (1)
- Projektlernen (1)
- Projektpraktikum (1)
- Projektunterricht (1)
- Propositional Logic (1)
- Protocol (1)
- Prototyp (1)
- Prototype (1)
- Prozessanalyse (1)
- Prozessanalyse <Prozessmanagement> (1)
- Prozesskette (1)
- Prädikatenlogik (1)
- Prädiktor (1)
- Präkonzepte (1)
- Präliminarienartikel (1)
- Präsentation (1)
- Prävention (1)
- Präventivmedizin (1)
- Psychiatrie (1)
- Psychische Erkrankungen (1)
- Psychische Störung (1)
- Psychohygiene (1)
- Psychosomatische Störung (1)
- Psychosoziale Begleitung (1)
- Psychotherapie (1)
- Public-Key-Infrastruktur (1)
- Pulsweitenmodulation (1)
- Punktkorrelationen (1)
- Punktrendering (1)
- Pupil Center Estimation Algorithmus (1)
- Qt/C++ (1)
- Qualitative Inhaltsanalyse (1)
- Qualitätsdimensionen (1)
- Qualitätsmanagement (1)
- Qualitätsmerkmale (1)
- Qualitätsmodell (1)
- Quantitative Inhaltsanalyse (1)
- Quantitative Untersuchung (1)
- Quelle <Hydrologie> (1)
- Quellen (1)
- Quellfauna (1)
- Quelltypen (1)
- RCP (1)
- RCT (1)
- RDMT (1)
- RFCO (1)
- RIP-MTI Algorithmus (1)
- RIP-XT (1)
- RIPng (1)
- RMIS (1)
- Radiales System (1)
- Radiosity (1)
- Rahmenmodell (1)
- Railway Diagnostics & Monitoring Technologies (1)
- Ralf Schauf (1)
- Raman-Spektroskopie (1)
- Randomisierte kontrollierte Therapieevaluation (1)
- Randstreifen (1)
- Rangtest (1)
- Rat der Europäischen Union (1)
- Ratgeber (1)
- Rationalität (1)
- Raumplanung (1)
- Ray Tracer (1)
- Ray Tracing (1)
- Ray casting (1)
- Ray-Casting (1)
- ReMiP (1)
- Real-time computing (1)
- Realistisches Kameramodell (1)
- Rechtemanagement (1)
- Reengineering (1)
- Referenzmetamodell (1)
- Reflexionsprozesse (1)
- Regieren (1)
- Regionalbanken (1)
- Register (1)
- Regler (1)
- Regression (1)
- Regulierung (1)
- Rehabilitation (1)
- Reisedokument (1)
- Rekonstruktion (1)
- Rekonstruktion (der Philosophie) (1)
- Relationale Datenbank (1)
- Relationales Datenbanksystem (1)
- Relativitätstheorie (1)
- Repast (1)
- Repräsentation (1)
- Requirement-Engineering (1)
- Requirements-Engineering (1)
- Rescue League (1)
- Rescue Robots (1)
- Rescueanalyser (1)
- Research Map (1)
- Response-Shift (1)
- Responsible Research and Innovation (1)
- Restrukturierung (1)
- Retinex-Algorithmus (1)
- Reverberation (1)
- Revolution <1848> (1)
- Revolution in military affairs (1)
- Rheingau-Taunus-Kreis (1)
- Rheinland-Pfalz (1)
- Rich Internet Application (1)
- Rieselmassen (1)
- Risiko (1)
- Risiko- und Schutzfaktoren (1)
- Risiko-Beurteilung (1)
- Risiko-Minimierung (1)
- Risikomanagement-Informationssysteme (1)
- Risikominderungsmaßnahmen (1)
- Risk (1)
- Riss (1)
- Rissmusteranalyse (1)
- Robbie (1)
- RoboCup Rescue (1)
- Roboter (1)
- Robotersystem (1)
- Rollstuhlbasketball (1)
- Route Aggregation (1)
- Route Planning (1)
- Routen-Aggregation (1)
- Routenplanung (1)
- Router-based Flow Control Ontology (1)
- Routing Information Protocol (1)
- Routing information protocol (1)
- Routing- und Forwarding Tabellen (1)
- Routing-Loop (1)
- RuneScape (1)
- Runoff (1)
- Rückfahrkamera (1)
- Rückwärtsfahrt (1)
- SAC (1)
- SIFT-Algorithmus (1)
- SIFT-Merkmale (1)
- SIFT-Verfahren (1)
- SIMD (1)
- SNMP (1)
- SOA (1)
- SOA-Webservice (1)
- SOAMIG (1)
- SOK-Modell (1)
- SOMA (1)
- STOR (1)
- STP (1)
- SURF-Algorithmus (1)
- SVG (1)
- Sales Ageny (1)
- Salm (1)
- Sand (1)
- Sanktionen der EU (1)
- Scaffolding (1)
- Scanmatching (1)
- Scheidung (1)
- Scheidungsfolgen (1)
- Schlaf (1)
- Schlaganfall (1)
- Schlauch (1)
- Schleifenerkennung (1)
- Schmerz (1)
- Schmerzbewältigung (1)
- Schmerztherapie (1)
- Schmerzveränderung (1)
- Schmucktheorie (1)
- Schnee (1)
- Schnelle Faltung (1)
- Schottland (1)
- Schreibdidaktik (1)
- Schreibprozess (1)
- Schrifttheorie (1)
- Schule (1)
- Schulklima (1)
- Schulleitung (1)
- Schutzprofil (1)
- Schwachstellen (1)
- Schwangerschaft (1)
- Schülerwahrnehmungen (1)
- Second Life (1)
- Security (1)
- Selbstbild (1)
- Selbstdeutung (1)
- Selbsteinschätzung (1)
- Selbstführung (1)
- Selbstführungskompetenz (1)
- Selbsthilfe (1)
- Selbstkonzept (1)
- Selbstmanagement (1)
- Selbstmitgefühl (1)
- Selbstmord (1)
- Selbsttötung (1)
- Selbstwert (1)
- Self-help (1)
- Semantisches Wiki (1)
- Semiotik (1)
- Sensor (1)
- Sensorensteuerung (1)
- Separating-Axis-Theorem (1)
- Serdar Ayalp (1)
- Serielle Schnittstelle (1)
- Serigrafie (1)
- Service (1)
- Service Oriented Architecture (1)
- Service-Oriented Architectures (SOA) (1)
- Service-Qualität (1)
- Serviceorientierte Architektur (1)
- Servicepersonal (1)
- Serviceroboter (1)
- Sesame (1)
- Sexualisierung (1)
- Shaderframework (1)
- Shaderhochsprache (1)
- Shaderprogramm (1)
- Shared Annotation Model (1)
- Shared Annotations (1)
- Shattering (1)
- Sich langsam verändernde Dimensionen (1)
- Sicherheitsanforderungen (1)
- Simulations-Wiki (1)
- Situationales Interesse (1)
- Situiertes Lernen (1)
- Skepsis (1)
- Skeptizismus (1)
- Skript (1)
- Skript <Programm> (1)
- Skriptsprache (1)
- Slowly Changing Dimensions (1)
- SocSimNet (1)
- Social Network Analysis (1)
- Socket (1)
- Socket-Schnittstelle (1)
- Software Engineering (1)
- Software- Ergonomie (1)
- Software-Customizing (1)
- Softwareentwicklung (1)
- Softwareentwurf (1)
- Softwaremodellierung (1)
- Softwarespezifikation (1)
- Solarzelle (1)
- Somatoform disorder (1)
- Somatoform symptoms (1)
- Somatoforme Störung (1)
- Somatoforme Störungen (1)
- Sonorisierung (1)
- Sozialarbeit (1)
- Soziale Netzwerke (1)
- Soziale Online Systeme (1)
- Sozialgericht (1)
- Sozialkompetenz (1)
- Sozialkonstruktivismus (1)
- Sozialwissenschaftliche Methodenlehre (1)
- Soziologie (1)
- Soziooekonomisches Panel (1)
- Spam-Mail (1)
- Spannender Baum (1)
- Spanning Tree (1)
- Spaß (1)
- Spektroskopie (1)
- Spielarten des Kapitalismus (1)
- Spieleentwicklung (1)
- Spiritualität (1)
- SpoGa (1)
- Sports (1)
- Sportverletzung (1)
- Sprachkompetenz (1)
- Sprachliche Handlungsmuster (1)
- Sprachspielkompetenz (1)
- Sprachtheorie (1)
- Sprachverarbeitung (1)
- Sprechtherapie (1)
- St. Goar (1)
- St. Goarshausen (1)
- Staat (1)
- Staatsschuldenkrise (1)
- Stadt (1)
- Stadtmodelle (1)
- Stakeholder (1)
- Stakeholder-Beteiligung (1)
- Stakeholderanalyse (1)
- Standortanalyse (1)
- Standortbestimmung (1)
- Startups (1)
- State (1)
- Statische Analyse (1)
- Statistics , Social Science Methods (1)
- Statistik (1)
- Statistische Analyse (1)
- Statistische Versuchsplanung (1)
- Staukontrollmechanismen (1)
- Stereobildfolgen (1)
- Stereografie (1)
- Stereoskopie (1)
- Sterne (1)
- Steuerung (1)
- Stewart-Plattform (1)
- Stilisierung (1)
- Stollendesign (1)
- Stomp (1)
- Strategie (1)
- Strategy (1)
- Stresstheorien (1)
- Struktur (1)
- Studienanfänger (1)
- Studiengang (1)
- Studienleistung (1)
- Studium (1)
- Stygofauna (1)
- Stygoregion (1)
- Suat Algin (1)
- Subjektbildung (1)
- Subsurface Scattering (1)
- Suchmaschine (1)
- Supernetting (1)
- Symbolischer Interaktionismus (1)
- Symboltheorie (1)
- Syntax (1)
- System Dynamics (1)
- Systemanalyse (1)
- Systemische Beratung (1)
- Systemtheorie (1)
- Szeneneditor (1)
- Szenengraph (1)
- Sängerfest (1)
- Südpfalz (1)
- TCP/IP (1)
- TESiOH (1)
- TGraphen (1)
- TQM (1)
- TRIZ (1)
- TSK <Test> (1)
- TV debates (1)
- TV-Duelle (1)
- Tableau <Logik> (1)
- Tageslichtprojektor (1)
- Taktstraße (1)
- Tanzspiel (1)
- Tarrain Klassifikation (1)
- Tastatur (1)
- Tastatureingabeverhalten (1)
- Taxonomie (1)
- Teamteaching (1)
- Technikfolgenabschätzung (1)
- Technikgeschichte (1)
- Technologiefrüherkennung (1)
- Technology Acceptance Model (1)
- Technology Management (1)
- Teilregime und Indikatoren (1)
- Telearbeit (1)
- Telemedizin (1)
- Temperaturmessung (1)
- Temperaturpräferenzen (1)
- Templerhaus (1)
- Temporale Datenhaltung (1)
- Terme (1)
- Tesseract (1)
- Text-Bild-Integration (1)
- Textaufgaben (1)
- Textlinguistik (1)
- Textur (1)
- Texturierung (1)
- Textverstehen (1)
- Theater (1)
- Theorem des Demokratischen Friedens (1)
- Therapieerfolg (1)
- Thunderbird <Programm> (1)
- Tiefenbild (1)
- Tiefenkarte (1)
- Tod (1)
- Ton (1)
- Tone Mapping (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tonemapping (1)
- Tonemapping-Verfahren (1)
- Top-Management (1)
- Total Quality Management (1)
- Touchscreen (1)
- Tourism (1)
- Trackingsystem (1)
- Trait (1)
- Trajektorien (1)
- Traktions-Testgerät (1)
- Transaction concept (1)
- Transaktion (1)
- Transaktionskonzept (1)
- Transfer function (1)
- Transition (1)
- Transkranielle Elektrostimulation (1)
- Translation (1)
- Transportschicht (1)
- Trauer (1)
- Triangulierung (1)
- Triangulierungsverfahren (1)
- Tundish (1)
- Tätigkeitsanreize (1)
- UML (1)
- UML Activity Diagrams (1)
- UML Aktivitätsdiagramm (1)
- URM (1)
- USA (1)
- USARSim (1)
- USB (1)
- Ubuntu (1)
- Uferfiltration (1)
- Uferrandstreifen (1)
- Ultrakurze Pulse (1)
- Ultraschall (1)
- Umgebungslicht (1)
- Umweltkontrolle (Selbstgestal- tungen, Regulierungen von Stressoren, soziale Kont rolle), Wohlbefinden, Lern- und Arbeitsleistung, Sozialverhalten (1)
- Umweltleistungsbewertung (1)
- Umweltqualität (1)
- Unfallkostenberechnung (1)
- Ungarische Methode (1)
- Uniforme Raumunterteilung (1)
- United Internet AG (1)
- Universitäre Lehrveranstaltung (1)
- Universitätsbibliothek (1)
- Unterhaltung (1)
- Unternehmensarchitektur (1)
- Unternehmenserfolg (1)
- Unternehmensflexibilität (1)
- Unternehmensnetzwerke (1)
- Unterricht (1)
- Unterrichts-Klima-Instrument (1)
- Unterrichtsbeurteilung (1)
- Unterrichtsmaterial (1)
- Unterrichtsmethode (1)
- Unterrichtsmethoden (1)
- Untersuchungsmethode (1)
- Upper-Body/Lower-Body (1)
- Urteilerübereinstimmung (1)
- Urteilsgenauigkeit (1)
- User Interface (1)
- User-Needs Analysis (1)
- Uses and gratifications approach (1)
- VDE (1)
- VDE-Switch (1)
- VHDL (1)
- VLAN (1)
- VR (1)
- VST (1)
- VTP (1)
- Validierung (1)
- Validität (1)
- Varieties of Capitalism (1)
- Veranstaltung (1)
- Verantwortung (1)
- Verbindungsschicht (1)
- Verbraucherforschung (1)
- Vereinbarkeitsproblem (1)
- Vergleichende Politikwissenschaft (1)
- Verhaltensökonomie (1)
- Verhältnis Ukraine-Russland (1)
- Verhältnis der Ukraine zu Russland (1)
- Verkehrssprache (1)
- Verlaufskurvenanalyse (1)
- Verlust (1)
- Vermeidung (1)
- Vermittlung (1)
- Verortung (1)
- Versorgungspraxis (1)
- Verteilte Systeme (1)
- Vertex Buffer Object (1)
- Vertex Buffer Objekt (1)
- Vertrag über die Arbeitsweise der Europäischen Union (1)
- Verwaltungsautomation (1)
- Very High Readiness Joint Task Foce (1)
- Veränderung von Vorstellungen (1)
- Video (1)
- Video-Installation (1)
- Videodiagnosetool ViviAn (1)
- Videospiel (1)
- Videospiele (1)
- Videospielentwicklung (1)
- Videoübertragung (1)
- Virtual Networks (1)
- Virtual Square (1)
- Virtual network user mode Linux (1)
- Virtualisation (1)
- Virtuelle Menschen (1)
- Virtuelle Teams (1)
- Virtuelle Welten (1)
- Virtuelle Zusammenarbeit (1)
- Virtuelle Ökonomien (1)
- Virtueller Raum (1)
- Virtuelles Netz (1)
- Visualisierungstechniken (1)
- Visuelle Installation (1)
- Visuelle Kommunikation (1)
- Visuelle Odometrie (1)
- Volume Raycasting (1)
- Volume Rendering (1)
- Volumenmodell (1)
- Volumenvisualisierung (1)
- Voluntarismus (1)
- Vorausschauende Instandhaltung (1)
- Vorbeugung (1)
- Vorliebe (1)
- Vorschulkinder (1)
- Vorsorge (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Voxelisierung (1)
- W-LAN (1)
- Wachstum (1)
- Wagenschein (1)
- Wahl- und Einstellungsforschung (1)
- Waist-to-Hip-Ratio (1)
- Waist-to-Shoulder-Ratio (1)
- Water Surface Temperature (1)
- Wayside Train Monitoring Systems (1)
- Web 2.0- basierte Stakeholderplattform (1)
- Web Analytics (1)
- Web Services (1)
- Web3D (1)
- Webanwendung (1)
- Webseiten (1)
- Webserver (1)
- Webservice Sail (1)
- Wegebau (1)
- Weibliches Publikum (1)
- Weinbau (1)
- Weiterbildung (1)
- Weiterbildungsverhalten (1)
- Weiterentwicklung (1)
- Wellen (1)
- Weltbild (1)
- Weltkrieg <1939-1945> (1)
- Werbeform (1)
- Werbung (1)
- Wertschöpfungskette (1)
- Wiederhall (1)
- Wii-Balance Board (1)
- Wii-Kamera (1)
- Wilcoxon-Rangsummentest (1)
- Will Eisner (1)
- William James (1)
- Windtunnel (1)
- Wirbelsäule (1)
- Wireless Sensor Networks (1)
- Wireshark (1)
- Wirkfaktor (1)
- Wirkfaktoren (1)
- Wirksamkeit (1)
- Wirtschaftsprojekt (1)
- Wissenselemente (1)
- Wissenskompilation (1)
- Wissensmanagement (1)
- Wissensvermittlung (1)
- Wohlbefinden (1)
- Wohlfahrtspflege (1)
- Wolkensimulation (1)
- Workflow (1)
- World Wide Web 2.0 (1)
- Writing Conference (1)
- Wärme (1)
- Wäschereibranche (1)
- X-Cosim (1)
- XML-Dokument (1)
- XMPP (1)
- XSD (1)
- XTpeer (1)
- Xcode (1)
- YAWL (1)
- Zeichentheorie (1)
- Zeichentrick (1)
- Zeichentrickfilm (1)
- Zeichnen (1)
- Zerbrechen (1)
- Zero (1)
- Ziel (1)
- Zifferndarstellung (1)
- Zirkumskription (1)
- Zoll (1)
- Zufriedenheit (1)
- Zugang (1)
- Zukunftsszenario (1)
- Zusammenarbeit (1)
- Zuständigkeiten der EU (1)
- Zuwanderung (1)
- Zwangssterilisation (1)
- Zweiter Weltkrieg (1)
- accelerometer (1)
- achievement assessment (1)
- activation functions of neurons (1)
- adaptiv (1)
- adaptiver Unterricht (1)
- adhesion (1)
- advertisements (1)
- agent (1)
- agent-based model (1)
- agentenbasierte Modellierung (1)
- agriculture (1)
- alternative fromeworks (1)
- ambulante Pflege (1)
- amtliche Haushaltsbefragungen (1)
- andLinux (1)
- andLinux. (1)
- android (1)
- anthropogener Wärmeeintrag (1)
- area light (1)
- argumentation (1)
- art deco (1)
- art nouveau (1)
- artifcial neural networks (1)
- assertive multilateralism (1)
- assessment (1)
- assignment-based philosophy (1)
- attitude (1)
- auditorischer Neglekt (1)
- augmented reality (1)
- automatisierte Videoüberwachung (1)
- bachelor (1)
- bacteria (1)
- bank filtration (1)
- behavior of employers (1)
- biofilm (1)
- biogeography (1)
- bioindicator (1)
- biomass (1)
- biomechanics (1)
- bioreactor (1)
- buffer strips (1)
- buffer zones (1)
- burnout (1)
- business process (1)
- camera calibration (1)
- care (1)
- climate change (1)
- co-occurrence (1)
- cognitive load (1)
- cognitive-behavioral therapy (1)
- collaboration plattform (1)
- communication competency (1)
- competence-development (1)
- competence-measurement (1)
- computer (1)
- computer clusters (1)
- computer games (1)
- conflicting information (1)
- contaminated sites (1)
- content analysis (1)
- context-sensitivity (1)
- contiguity (1)
- control beliefs (1)
- convergence analysis (1)
- costume jewellery (1)
- crowd evacuation (1)
- cubism (1)
- data-mining (1)
- database (1)
- depth map (1)
- deutschsprachiger Markt (1)
- development (1)
- diagnostische Kompetenz (1)
- diagram (1)
- dialogische Kommunikation (1)
- dialogisches Management (1)
- digital library (1)
- disability-adjusted life year (1)
- disparity map (1)
- dreidimensionale Computergraphik (1)
- dynamic geometry (1)
- dynamic programming (1)
- dynamic stability (1)
- e-ID (1)
- e-service quality (1)
- eGovernment (1)
- eGroupware (1)
- eID (1)
- ePA (1)
- ediv (1)
- educational achievement (1)
- educational aspirations (1)
- electricity (1)
- elektronische Anwendung (1)
- elektronische Anwendungen (1)
- emic-etic (1)
- energy (1)
- engine (1)
- ethnic conflicts (1)
- ethnische Konflikte (1)
- evaluation process (1)
- event (1)
- example (1)
- expectations (1)
- experiment (1)
- experimentelle Kompetenz (1)
- externe Repräsentationen (1)
- factor analysis (1)
- factorial invariance (1)
- fauna of springs (1)
- flight attendant (1)
- flow (1)
- football shoes (1)
- forest roads (1)
- fur rendering (1)
- gait (1)
- general purpose (1)
- geometry shader (1)
- gesundheitsgerechtes Führen (1)
- grUML (1)
- graphics card (1)
- groundwater ecology (1)
- groundwater-fauna-index (1)
- gälisch (1)
- health-related quality of life (1)
- heat exchanger (1)
- high-traffic (1)
- human resources management (1)
- humanistische Psychologie (1)
- hybride App (1)
- hydrochemistry (1)
- hydrogeology (1)
- hydrological interactions (1)
- hydrologische Interaktionen (1)
- hydrology (1)
- iOS (1)
- iOS 5 (1)
- iOS-SDK (1)
- iSearch (1)
- id card (1)
- identification of organization (1)
- image processing (1)
- inclusive education (1)
- indirect lighting (1)
- indirektes Licht (1)
- information flow regulation (1)
- information processing (1)
- inszeniertes Charisma (1)
- integration (1)
- interaction (1)
- interactive (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- java (1)
- jump'n run game (1)
- keltisch (1)
- keystroke biometric recognition (1)
- kollaboratives Lernen (1)
- kollaboratives Schreiben (1)
- konfligierende Information (1)
- kontext-reduzierte Gespräche (1)
- kooperatives Schreiben (1)
- land use (1)
- landscape level (1)
- laubassoziierter aquatischer Pilzgemeinschaften (1)
- leader (1)
- leader-member exchange (1)
- leadership (1)
- leaf-associated aquatic fungal communities (1)
- learning context (1)
- learning portfolio (1)
- legacy software (1)
- line space (1)
- linear (1)
- lineare Algebra (1)
- low back pain (1)
- macroinvertebrates (1)
- male gaze, (1)
- mann-whitney (1)
- markerless tracking (1)
- master (1)
- mathematical modeling (1)
- mathematics (1)
- mathematische Frühförderung (1)
- mathematische Kompetenz (1)
- mathematisches Modellieren (1)
- measurement of invariance (1)
- mechanism of action (1)
- medizinische Bilddaten (1)
- menschliches Auge (1)
- metasearch engine (1)
- methodical comparison (1)
- metrics (1)
- midwife (1)
- missionary (1)
- mobile phones (1)
- model (1)
- modeling (1)
- modeling competency (1)
- modellgetriebene Softwareentwicklung (1)
- module handbook (1)
- monitoring (1)
- morphology (1)
- motivation (1)
- movement (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- multikriterielles Bewertungssystem (1)
- multilevel analysis (1)
- multimediales Lernen (1)
- multiprocessing (1)
- multitrait-multimethod models (1)
- myAnnotations (1)
- nPA (1)
- nachhaltigkeitsorientierter Führungsstil (1)
- natural language processing (1)
- naturwissenschaftliche Konzepte (1)
- natürliche Sprache (1)
- nichtamtliche Haushaltsbefragungen (1)
- nun (1)
- object orientation (1)
- octree texture (1)
- offensive neorealism (1)
- official household surveys (1)
- olive oil mill wastewater (1)
- oncological rehabilitation (1)
- onkologische Rehabilitation (1)
- online survey (1)
- online-self-assessment (1)
- ontology (1)
- out-of-hospital birth (1)
- parallel algorithms (1)
- parallel computing (1)
- parents (1)
- pedagogy (1)
- perinatal (1)
- person (1)
- personality characteristics (1)
- personnel psychology (1)
- pesticide (1)
- pesticides (1)
- photovoltaic (1)
- physical interaction (1)
- physical therapy (1)
- physics education (1)
- physics simulation (1)
- physische Interaktion (1)
- politische Sprachverwendung (1)
- politolinguistische Lexikanalyse (1)
- politolinguistische Wahlprogrammanalyse der Alternative für Deutschland (1)
- polymer films (1)
- polyp detection (1)
- portfolio assessment (1)
- practical knowledge (1)
- predictor (1)
- pregnancy (1)
- primary care (1)
- primary school (1)
- privacy (1)
- privacy protection (1)
- problemhaltige Textaufgaben (1)
- projektives Malen (1)
- prozedural (1)
- psychisches Verhalten (1)
- psychological behavior (1)
- qualitativ-explorative empirische Studie (1)
- quality (1)
- quality adjusted life year (1)
- quality assurance (1)
- quantitativ (1)
- quasi-experimentelles Design (1)
- rainfall simulation (1)
- randomized controlled trial (1)
- rationality (1)
- ray casting (1)
- ray tracing (1)
- raycasting (1)
- raytracing (1)
- real-time computing (1)
- realtime physics (1)
- reference meta model (1)
- reflection (1)
- refraction (1)
- rehabilitation (1)
- relativity (1)
- reputation of company (1)
- resources (1)
- response-shift (1)
- rigid body (1)
- rip (1)
- risk assessment (1)
- risk mitigation measures (1)
- rmti (1)
- rtx (1)
- schizophrene Frau (1)
- school (1)
- school principal (1)
- schottisch-gaelisch (1)
- schottische Lieder (1)
- scorecard (1)
- search engine (1)
- security (1)
- security requirements (1)
- selbstgenerierte Repräsentationen (1)
- self-concept (1)
- self-efficacy (1)
- sensor control (1)
- sensor data (1)
- shader (1)
- simulation of soil moisture (1)
- situational interest (1)
- situierte Beobachtung (1)
- snow (1)
- soccer (1)
- social competence (1)
- social networks (1)
- social system (1)
- soft shadow (1)
- soil erosion (1)
- somatoform disorders (1)
- soziale Konstruktion von Wirklichkeit (1)
- soziales System (1)
- spatial (1)
- special educational needs (1)
- speech (1)
- sport therapy (1)
- springs (1)
- stainless steel (1)
- standardized measure (1)
- stationäre Pflege (1)
- stereo vision (1)
- stereotracking (1)
- stress (1)
- structure (1)
- stud design (1)
- student portfolio (1)
- student ratings (1)
- stygofauna (1)
- surface energy (1)
- surface roughness (1)
- surface water (1)
- survey (1)
- syntaktische Analyse (1)
- taxonomy (1)
- teacher-education (1)
- teaching and learning research (1)
- teaching research (1)
- texturing (1)
- theoretical framework (1)
- therapy outcome (1)
- traction test device (1)
- traffic survey (1)
- transcultural (1)
- transform feedback (1)
- travel document (1)
- turn (1)
- unofficial household surveys (1)
- unternehmerische Eignungsmerkmale (1)
- usage-mining (1)
- validity (1)
- value of a statistical life (1)
- verbal interaction (1)
- verbale Interaktion (1)
- video game (1)
- videogames (1)
- virtual human (1)
- virtual network user mode linux (1)
- virtuelle Netze (1)
- visualization (1)
- visuell-räumlicher Neglekt (1)
- vnuml (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- vulkan (1)
- water surface (1)
- waves (1)
- wireworms (1)
- workload (1)
- xtpeer (1)
- Ärger (1)
- Ätiologie (1)
- Öffentliche Verwaltung (1)
- Öko-Effizienz (1)
- Ökoeffizienz (1)
- Österreich (1)
- Östliche Partnerschaft der EU (1)
- Übergang von der Grundschule zur weiterführenden Schule (1)
- Übersetzung (1)
- Überwachung (1)
- Überwachungstechnik (1)
- öffentlich-privat (1)
Institute
- Institut für Computervisualistik (282)
- Fachbereich 4 (180)
- Zentrale Einrichtungen (175)
- Institut für Wirtschafts- und Verwaltungsinformatik (94)
- Institut für Management (86)
- Institut für Informatik (62)
- Institut für Softwaretechnik (39)
- Fachbereich 8 (27)
- Fachbereich 5 (25)
- Fachbereich 7 (21)
The PhD thesis offers a long-term investigation of German TV debates with regard to the extent to which the topics dealt with in the debates correspond to the political problems perceived by the voters and whether the actor-specific topics discussed in the TV debates have an influence on the voters' perception of the problems and the perceived responsiveness of the political actors. To this purpose, contents and effects of the Chancellor debates 2002-2013 and the TV debates between 1997 and 2016 are examined at the state level. The empirical investigation is based on an implementation and evaluation of content analyses, the evaluation of opinion polls and the investigation of experimental data on the occasion of the chancellor duels in 2002, 2009 and 2013. The analyses show that TV debates are not only show events, but that the focus of TV debates is on political content (rather than entertaining elements), that the (camp-specific) responsiveness of the format has increased over time, and that successful persuasion - as one of two theme management strategies - by challengers in particular can lead viewers to better assess the effectiveness of the political system.
"Da wollten ich und mein Bruder jetzt so ein Lied machen und das heißt "Vergangenheitsträume" so. (...) Und da wollten wir so über alles, was wir beide so erlebt haben, schreiben." (Karsten, 17 Jahre). Dieses Zitat entstammt einem Interview, das, neben weiteren, im Rahmen dieser Forschungsarbeit ausgewertet und interpretiert wurde. Es fasst in komprimierter Form zusammen, worum es in dieser Arbeit gehen soll: Bildung und Biografie. Ein junger Menschen, Karsten, berichtet in einem Interview, dass er angefangen hat zu rappen. Die Texte handeln von Erlebnissen und Erfahrungen seines Lebens. Er blickt gemeinsam mit seinem jüngeren Bruder zurück und hält Gedanken und Gefühle hierzu fest. "Bildung" soll verstanden werden, als eine kritische Auseinandersetzung mit sich und der Welt. Hierbei steht das eigene Leben im Fokus. "Biografie" soll verstanden werden als ein soziales Konstrukt. Ereignisse und Handlungen werden in eine Ordnung, in einen Zusammenhang gebracht. Der Prozess, sich mit seinem Leben auseinanderzusetzen dient dem Selbstverstehen und dem Fremdverstehen. Es ist mit "aktivem Tun" verbunden. Es passiert nicht einfach mit einem Menschen, vielmehr stellt es einen aktiven Prozess dar. Das Ordnen, Zusammenführen, in-Beziehung-setzen und Verstehen von Erlebnissen, Erfahrungen und Träumen des eigenen Lebens steht im Vordergrund von Bildungs- und Biografisierungsprozessen. Daher wurde der Titel für diese Forschungsarbeit ausgewählt. Im Fokus dieser Studie stehen Veränderungsprozesse der Konstruktionen von "Selbstbildern" und "Weltbildern" vier junger Menschen sowie von ihren Handlungsmustern. Die Begriffe "Selbstbild" und "Weltbild" enthalten die Vorstellung, dass Menschen die Bilder, die sie von sich selbst und von der Welt in sich tragen, im Laufe des Lebens entwickeln. Kinder entfalten eine Vorstellung davon, wie sie aussehen, welche Eigenschaften sie besitzen und was sie gut oder weniger gut können. Vielfältige Faktoren tragen zur Entstehung und Entwicklung dieser konstruierten Selbst- und Weltbilder bei (vgl. beispielhaft zu Traumaerlebnissen Dillig 1983).
Es wird in dieser Arbeit versucht nachzuzeichnen, ob bzw. wie sich diese Selbst- und Weltbilder der jungen Menschen und ihre Handlungsmuster im Verlauf verändern. Dies ist dadurch möglich, weil es sich bei der vorliegenden Untersuchung um eine Langzeituntersuchung handelt. Mit den vier jungen Menschen (Anni, Ben, Julia und Karsten) wurden zu verschiedenen Zeitpunkten Interviews geführt, in denen sie über ihr Leben berichteten. In § 1 SGB VIII wird an die Kinder- und Jugendhilfe der Auftrag formuliert, die Entwicklung von Kindern zu fördern. Jugendhilfe hat den Auftrag, Einfluss auf den Prozess der Bildung zu nehmen und die Entwicklung der jungen Menschen zu fördern, sie soll Bildungsprozesse anstoßen. Kinder machen vielfältige Erfahrungen in ihrem Leben. Sie lernen ihre "Lebenswelt" kennen und entwickeln in Auseinandersetzung mit der Welt, "eigene-sinnige" Vorstellungen von sich und von ihrer Lebenswelt (vgl. dazu Tenorth / Tippelt 2007; Marotzki 2004). Die Kinder- und Jugendhilfe muss sich mit den Selbst- und Weltkonstruktionen der jungen Menschen beschäftigen, wenn sie sich als eine an der Lebenswelt orientierte Jugendhilfe verstehen will. Sie muss sich mit den Lebensgeschichten ihrer Adressaten befassen, mit ihnen gemeinsam Biografiearbeit leisten. Dazu benötigt sie unbedingt einen verstehenden Zugang zu den jungen Menschen und ihren Interpretationen vergangener Erfahrungen (Vergangenheitsträume), um mit ihnen (neue) Lebensentwürfe, Zukunftsträume entwickeln zu können.
Des Weiteren geht es in der Arbeit um Überlebensmuster junger Menschen. Vielleicht ruft die Wahl des Begriffs Verwunderung oder Unverständnis hervor. Die Vorstellung, dass es um Muster geht, die das "Überleben" sichern sollen, mutet dramatisch an. Doch zeigen die Ergebnisse der Fallrekonstruktionen, dass dieser Vergleich durchaus angemessen erscheint (vgl. dazu auch Schrapper 2002). Für die Kinder- und Jugendhilfe stellt sich zudem die Frage nach der Wirksamkeit ihrer Bemühungen. Ist die Jugendhilfe ihrem Auftrag nachgekommen? Kann dies in den Interviews mit den jungen Menschen gezeigt werden? Wenn davon ausgegangen werden kann, dass (öffentliche) Erziehung (nachhaltig) Einfluss auf das (Er)Leben und Erzählen von Jugendlichen hat und damit auch auf die Selbst- und Weltbilder und ihre Überlebensmuster, so bieten Interviews, die zu verschiedenen Zeitpunkten geführt wurden, die Chance, dieser Frage nachzugehen. Die Forschungsfragen, die dieser Arbeit zu Grunde liegen, sind jedoch Fragen die nicht auf das Thema "Geschlossene Unterbringung" begrenzt sind. Sie können in allen anderen pädagogischen Zusammenhängen gestellt und bearbeitet werden, da der theoretische Kerngedanke der Fragestellungen nicht von einer bestimmten Intervention oder vom Setting einer Hilfe abhängt. Es werden in dieser Arbeit Anforderungen an die Kinder- und Jugendhilfe formuliert, die verdeutlichen, welche Aufgaben die Kinder- und Jugendhilfe leisten muss, damit sie Kindern und Jugendlichen Bildungserfahrungen ermöglichen kann.
Die formulierten Anforderungen werden im Verlauf nochmals aufgegriffen und sollen anhand der Forschungsergebnisse diskutiert werden. Im Mittelpunkt stehen die Fallrekonstruktionen vier junger Menschen. Hier werden in einem ersten Schritt jeweils Lebens- und Hilfegeschichten der jungen Menschen tabellarisch dargelegt. Es folgt eine Darstellung des Verlaufs der Selbstbilder, der Weltbilder und der Handlungsmuster der Jugendlichen, die jeweils mit einem Fazit enden. In der Zusammenfassung werden jeweils die Bezüge und Zusammenhänge zwischen den konstruierten Selbstbildern, Weltbildern und Handlungs- bzw, Überlebensmustern vorgestellt.
"Wer kann ich werden - Wer soll ich sein?" Selbstbildungsprozesse junger Menschen in der Jugendhilfe
(2011)
"Wer kann ich werden - Wer soll ich sein?" - Mit diesen beiden grundlegende Lebensfragen resümieren die beiden Jugendlichen, deren individuellen Verarbeitungsprozesse Gegenstand der Untersuchung sind, ihren (Selbst-)Bildungsprozess. Sie verweisen dabei auf ein wesentliches Ergebnis dieser Studie: Selbstbildungsprozesse formieren sich als einen aktiven Balanceakt der jungen Menschen zwischen individuellen Selbstkonstruktionen und Fragen der Sozialintegration. Der Blick wird dabei auf die prozesshafte Entwicklung der subjektiven Bildungsbemühungen gerichtet. Es handelt sich um ein ambivalentes Spannungsgefüge, welches sich darin ausdrückt, dass einerseits "von Außen (durch den Erzieher) geleitet" und andererseits "von Innen (durch den Jugendlichen) gesteuert" wird. Letztendlich haben jedoch viele Jahrhunderte von (praktischen) Erziehungsversuchen und vielfaches (theoretisches) Nachdenken über Erziehung und Bildung gezeigt, dass der Erfolg zum großen Teil von den jungen Menschen selbst abhängt. Damit rückt in der wissenschaftlichen Auseinandersetzung die Selbsttätigkeit des Menschen in den Fokus. Die Beschäftigung mit Prozessen der Selbstbildung stellt eine äußert komplexe Herausforderung dar. Sie läuft schnell Gefahr, dies unter normativen Aspekten zu diskutieren. In diesen Forschungszusammenhang soll der Blick explizit nicht auf die normativen Anteile des Themas gelenkt werden, sondern es ist vielmehr ein Ziel der Arbeit, empirische Befunde dazu zu erarbeiten und Kontextwissen zu generieren.rnDie Untersuchung thematisiert sowohl die Verbindungen zwischen Selbstdeutungskonstruktionen junger Menschen und Fremddeutungen relevanter Erwachsener, sowie die sich daraus entwickelten Muster der Lebensbewältigung der Jugendlichen. Im Mittelpunkt der Auseinandersetzung stehen die jungen Menschen und ihre Bildungsanstrengungen. Anhand ihrer Selbstkonstruktionen, in denen sie ihre relevanten Themen zum Ausdruck bringen und den Fremddeutungen der am Fall beteiligten Erwachsenen, wird der Frage nachgegangen, ob und wie die unterschiedlichen Deutungsfolien anschlussfähig sind und welchen Einfluss sie auf die jugendlichen Selbstbildungsprozesse nehmen. Durch die Rekonstruktion der Deutungs- und Konstruktionsmuster der unterschiedlichen Fallbeteiligten sollen sowohl praxis- wie auch forschungsrelevante Erkenntnisse über Selbstbildungsprozesse junger Menschen gewonnen werden, die im Verlauf ihrer Lebensgeschichten Adressaten der Jugendhilfe geworden sind. Ein solch komplexes Forschungsvorhaben gewinnt im Bezug auf die Diskurse zur adressatenbezogenen Jugendhilfe an Bedeutung, da es möglich wird, einen Einblick in Verarbeitungsmuster und Bewältigungsstrategien der Heranwachsenden zu gewinnen. Die vorliegende Arbeit nimmt die subjektiven Sinnzuschreibungen in den Blick, um darüber einen erkenntnisgeleiteten Zugang zu den Deutungs- und Konstruktionsmustern in ihren jeweiligen Sinnzusammenhängen zu erschließen. Gesamtgesellschaftliche Modernisierungs- und Wandlungsprozesse beeinflussen individuelle Lebensverläufe und damit auch subjektive Deutungen unterschiedlichster Lebensereignisse. Biographische Werdungsprozesse weichen von vermeintlichen "Normalbiographien" ab. Aufgabe pädagogischer Fachkräfte ist es, die selbstreflexiven Verarbeitungsprozesse junger Menschen zu begleiten und zu unterstützen. Von daher scheint es erforderlich, dass Fachkräfte ihre Kompetenzen zur Entschlüsselung individueller Bildungsbemühungen und zur Wahrnehmung biographischer Deutungskonzepte weiter entwickeln und schulen, um einen verstehenden Zugang zu den Wirklichkeitskonstruktionen junger Menschen zu gewinnen. Welche subjektive Bedeutung die Heranwachsenden den Einflüssen der Jugendhilfe zusprechen ist entscheidend für die Frage, inwieweit sie diese Erfahrungen als Unterstützung für ihre individuellen Bildungsprozesse begreifen. "Selbstbildungsprozesse junger Menschen in der Jugendhilfe" setzen sich mit der Frage auseinander, über welche Bewältigungsstrategien und Interaktionsmuster die Heranwachsenden verfügen. "Mit diesem Zugang wird der Blick auf die "Eigensinnigkeit" subjektiver Äußerungen in ihren biografisch verorteten und gesellschaftsrelevanten Bezügen gelegt." (Normann 2003, 10). Es geht also um die Rekonstruktion sozialer Wirklichkeitsbezüge aus der Sicht der jungen Menschen. Die Jugendlichen werden als aktiv Handelnde und als ExpertInnen ihrer Lebenswelt verstanden, die in der Interaktion mit Anderen die Balance zwischen sozialer Anpassungsleistung und Entwicklung ihres individuellen Lebenskonzeptes finden müssen. Subjektive Deutungs- und Konstruktionsprozesse sollen in diesem Kontext herausgearbeitet und dargestellt werden.
Der Arbeitsmarkt in Deutschland erlebt einen technologisch bedingten Strukturwandel. Durch Digitalisierung werden Tätigkeiten substituierbar, Berufsbilder und dafür benötigte Qualifikationsprofile wandeln sich. Für die Arbeitskräfte resultiert daraus ein Anpassungsdruck, sich zum Erhalt ihres Humankapitals bzw. ihrer Beschäftigungsfähigkeit weiterzubilden. Fraglich ist, inwieweit die Individuen diesen Druck wahrnehmen und mit entsprechenden Weiterbildungen reagieren. Um einen Erklärungsbeitrag zum Weiterbildungsverhalten der Arbeitskräfte in Bezug auf den technologischen Wandel zu leisten, widmet sich das Promotionsvorhaben der Forschungsfrage: „Inwieweit reagieren Arbeitskräfte bezüglich ihres Weiterbildungsverhaltens auf einen sich digitalisierungsbedingt wandelnden Arbeitsmarkt?“
In this thesis, the methods of a feasibility study are applied to analyze whether or not the foundation of an academic based startup focusing on IT-consulting is possible. For this purpose the concept of consulting, the demand for the offering of consulting services as well as the relevant market are analyzed. Furthermore, empirical research through face-to-face interviews with IT-companies located in the region of Koblenz is utilized in order to gain further insight about the feasibility of said business venture. The result of the research is to be presented in a concrete recommendation for further actions.
Today, augmented reality is becoming more and more important in several areas like industrial sectors, medicine, or tourism. This gain of importance can easily be explained by its powerful extension of real world content. Therefore, augmented realty became a way to explain and enhance the real world information. Yet, to create a system which can enhance a scene with additional information, the relation between the system and the real world must be known. In order to establish this relationship a commonly used method is optical tracking. The system calculates its relation to the real world from camera images. To do so, a reference which is known is needed in the scene to serve as an orientation. Today, this is mostly a 2D-marker or a 2D-texture. These are placed in the real world scenery to serve as a reference. But, this is an intrusion in the scene. That is why it is desirable that the system works without such an additional aid. An strategy without manipulating the scene is object-tracking. In this approach, any object from the scene can be used as a reference for the system. As an object is far more complex than a marker, it is harder for the system to establish its relationship with the real world. That is why most methods for 3D-object-tracking reduce the object by not using the whole object as reference. The focus of this thesis is to research how a whole object can be used as a reference in a way that either the system or the camera can be moved in any 360 degree angle around the object without loosing the relation to the real world. As a basis the augmented reality framework, the so called VisionLib, is used. Extensions to this system for 360 degree tracking are implemented in different ways and analyzed in the scope of this work. Also, the different extensions are compared. The best results were achieved by improving the reinitialization process. With this extension, current camera images of the scene are given to the system. With the hek of these images, the system can calculate the relation to the real world faster in case the relation went missing.
3D-Curve-Skeletons are often used, because the object surface repesentation is less complex and also needs less computing power in further processing, compared to the representation created by the Medial Axis Transformation introduced 1967 by Harry Blum.
This theses aims at developing a 3D curve skelton approximation algorithm that keeps these advantages and is also able to handle different scenarios of the object surface input data.
3D-models are getting more important in many areas such as multimedia applications, robotics or film industries. Of particular interest is the creation of 3D-models from a series of monocular images. This is because the cameras that are required for this purpose are becoming cheaper, smaller and more sophisticated at the same time. Increasingly often, suitable cameras are already integrated in devices like smartphones, tablet PCs or cars for example. Hence, there is a great potential for applications of this reconstruction technique.
This thesis is based on the use of a series of images that were taken with arncalibrated camera. The first step is to extract point correspondences from this image series making use of the well-known SURF- and A-KAZE-features. Starting from the point correspondences, it is possible to reconstruct a 3D-Modell with different algorithms that consists of a point cloud and camera poses. To reduce errors in the 3D-model, this thesis especially focuses on explaining the bundle adjustment algorithm, which is being used for a non-linear error minimization of a cost function.
The thesis also introduces the application for the 3D-reconstruction and the visualization of the results, that was developed in the course of this thesis.
The implemented system is evaluated based on statistics and the newly aquiredrnknowledge is presented. The thesis concludes with a summary of its results, and a number of ideas for potential future applications and developments.
Das Hauptziel der vorliegenden Arbeit ist die Absicherung der Qualität eines pharmazeutischen Produktionsprozesses durch die Überprüfung des Volumens mikroskopischer Polymerstäbchen mit einem hochgenauen 3D Messverfahren. Die Polymerstäbchen werden für pharmazeutische Anwendungen hergestellt. Aus Gründen der Qualitätssicherung muss das Istgewicht überprüft werden. Derzeit werden die Polymerstäbchen stichprobenartig mit einer hochpräzisen Waage gewogen. Für die nächste Generation von Polymeren wird angenommen, dass die Produktabmessungen weiter reduziert werden sollen und die Produktionstoleranzen auf 2,5% gesenkt werden. Die daraus resultierenden Genauigkeitsanforderungen übersteigen jedoch die Möglichkeiten der Wiegetechnik. Bei homogenen Materialien ist die Masse proportional zum Volumen. Aus diesem Grund kommt dessen Bestimmung als Alternative in Frage. Dies verschafft Zugang zu optischen Messverfahren und deren Flexibilität und Genauigkeitpotenzial. Für den Entwurf eines auf die Fragestellung angepassten Messkonzeptes sind weiterhin von Bedeutung, dass das Objekt kontaktlos, mit einer Taktzeit von maximal fünf Sekunden vermessen und das Volumen approximiert wird. Die Querschnitte der Polymerstäbchen sind etwa kreisförmig. Aufgrund der Herstellung der Fragmente kann nicht davon ausgegangen werden, dass die Anlageflächen orthogonal zur Symmetrieachse des Objektes sind. Daher muss analysiert werden, wie sich kleine Abweichungen von kreisförmigen Querschnitten sowie die nicht idealen Anlageflächen auswirken. Die maximale Standardabweichung für das Volumen, die nicht überschritten werden sollte, beträgt 2,5%. Dies entspricht einer maximalen Abweichung der Querschnittsfläche um 1106 µm² (Fehlerfortpfanzung). Als Bewertungskriterium wird der Korrelationskoeffzient zwischen den gemessenen Volumina und den Massen bestimmt. Ein ideales Ergebnis wäre 100%. Die Messung zielt auf einen Koeffzienten von 98% ab. Um dies zu erreichen, ist ein präzises Messverfahren für Volumen erforderlich. Basierend auf dem aktuellen Stand der Technik können die vorhandenen optischen Messverfahren nicht verwendet werden. Das Polymerstäbchen wird von einer Kamera im Durchlicht beobachtet. Daher sind der Durchmesser und die Länge sichtbar. Das Objekt wird mittels einer mechanischen Vorrichtung um die Längsachse gedreht. So können Bilder von allen Seiten aufgenommen werden. Der Durchmesser und die Länge werden mit der Bildverarbeitung berechnet. Das neue Konzept vereint die Vorteile der Verfahren: Es ist unempfindlich gegen Farb-/Helligkeitsänderungen und die Bilder können in beliebiger Anzahl aufgenommen werden. Außerdem sind die Erfassung und Auswertung wesentlich schneller. Es wird ein Entwurf und die Umsetzung einer Lösung zur hochpräzisen Volumenmessung von Polymerstäbchen mit optischer Messtechnik und Bildverarbeitung ausgearbeitet. Diese spezielle Prozesslösung in der Prozesslinie (inline) sollte eine 100%ige Qualitätskontrolle während der Produktion garantieren. Die Zykluszeiten des Systems sollte fünf Sekunden pro Polymerstäbchen nicht überschreiten. Die Rahmenbedienungen für den Prozess sind durch die Materialeigenschaften des Objekts, die geringe Objektgröße (Breite = 199 µm, Länge = 935 µm bis 1683 µm) und die undeffinierte Querschnittsform (durch den Trocknungsprozess) vorgegeben. Darüber hinaus sollten die Kosten für den Prozess nicht zu hoch sein. Der Messaufbau sollte klein sein und ohne Sicherheitsvorkehrungen oder Abschirmungen arbeiten. Das entstandene System nimmt die Objekte in verschiedenen Winkelschritten auf, wertet mit Hilfe der Bildverarbeitung die Aufnahmen aus und approximiert das Volumen. Der Korrelationskoffizient zwischen Volumen und Gewicht beträgt für 77 Polymerstäbchen mit einem Gewicht von 37 µg bis 80 µg 99; 87%. Mit Hilfe eines Referenzsystems kann die Genauigkeit der Messung bestimmt werden. Die Standardabweichung sollte maximal 2,5% betragen. Das entstandene System erzielt eine maximale Volumenabweichung von 1,7%. Die Volumenvermessung erfüllt alle Anforderungen und kann somit als Alternative für die Waage verwendet werden.
This paper describes a parallel algorithm for selecting activation functionsrnof an artifcial network. For checking the efficiency of this algorithm a count of multiplicative and additive operations is used.
In this article we analyze the privacy aspects of a mobile sensor application used for recording urban travel patterns as part of a travel-survey service. This service has been developed and field-tested within the Live+Gov EU Project. The privacy analysis follows a structured approach established in. Eight privacy recommendations are derived, and have already led to corresponding enhancements of the travel-survey service.
This thesis deals with the mapping from Ecore to grUML. Thereby the transformation of models in Ecore to graphs in grUML is as well considered as the conversion of Ecore metamodels to grUML schemas. At first the modeling languages Ecore and grUML are described separately. Thereby the metamodels of the languages are explained and the API is presented. Subsequent differences and similarities of grUML and Ecore are exemplified and based on this a mapping is defined. Also requirements for the implementation of the transformation are noted. After that details of the realisation follow. Finally the results of the transformation are shown with the help of some examples.
Dieses Dokument legt den Standard für die Transformation von grUML-Schemas (GraphUML, [BHR+09]) nach XSD (XML Schema Definition) fest und ist im Rahmen des Arbeitspakets 5.2 "Prototypische SOAMIG-Parser und -Unparser realisieren" im SOAMIG-Projekt entstanden. Das Ziel ist der Austausch von TGraphen (typisierten, attributierten, angeordneten, gerichte Graphen [ERW08]) über XML-Dokumente. Zur Spezifikation des Austauschformats wird XSD eingesetzt. Dies erlaubt eine Validierung der XML-Instanzen auf syntaktischer Ebene. Der Ausgangspunkt ist ein gegebenes Schemas in grUML-Notation1, welches nach XSD transformiert werden soll. Mit der generierten XSD existiert ein Beschreibungsmittel für Graph-Instanzen in XML. Die dadurch beschriebenen XML-Dokumente sind flach, d.h. alle Elemente sind direkt dem root-Element untergeordnet.
Abdriftbedingte Pflanzenschutzmittelrückstände in unbehandelten Kulturen auf angrenzenden Flächen
(2020)
Die vorliegende Arbeit beschäftigt sich mit der Abdrift von Pflanzenschutzmitteln (PSM), die auf Lebensmittelkulturen in angrenzenden Flächen, insbesondere in benachbarte Haus- und Kleingärten, gelangt. In einer Reihe von Windtunnelversuchen wurde die Abdrift von PSM aus Flächen- und Raumkulturen während der Applikation mit zwei verschiedenen Testsystemen nachgestellt. Das Testsystem Flächenkultur simuliert die Applikation auf Flächenkulturen, das Testsystem Raumkultur die auf Raumkulturen. Auf der Nicht-Zielfläche wurden die auf Grund von Abdrift entstandenen Rückstände des verwendeten Tracers Pyranin nach der Applikation entfernungsabhängig auf den Lebensmittelkulturen Kopfsalat, Erdbeeren und Tomaten gemessen. Durch die gleichzeitige Messung der Bodendeposition konnten die Messwerte mit Hilfe von Regressionsgleichungen (R² = 0,88 bis 0,97) in Bezug zu den Abdrifteckwerten (AEW) gebracht werden. Dadurch war es möglich, erste Abschätzungen der Höhe von Rückständen vorzunehmen, die über Abdrift von landwirtschaftlichen Flächen auf benachbarte Lebensmittelkulturen im Freiland gelangen können. Diese Abschätzung ist zunächst limitiert auf die drei Versuchspflanzen. Die Versuche zeigen, dass sich die meisten durch Abdrift entstehenden Rückstände auf Salatköpfen wieder finden, gefolgt von Erdbeeren und Tomaten.
Neben dem experimentellen Teil wurden Analysen mit Geoinformationssystemen (GIS) durchgeführt, um die Nachbarschaftsverhältnisse zwischen landwirtschaftlich genutzten Flächen und Gartenflächen für ganz Deutschland und speziell für Rheinland-Pfalz (RLP) zu analysieren. Dazu wurden für die deutschlandweiten Berechnungen die Daten des amtlichen topographisch-kartographischen Informationssystems (ATKIS) und für die RLP-weiten Berechnungen die Daten des amtlichen Liegenschaftskatasterinformationssystem (ALKIS) verwendet. Beachtet werden muss, dass auf Grund der Datenbeschaffenheit eine Abgrenzung der Gartenflächen zu Wohnflächen nicht möglich ist. Deutschlandweit liegen etwa 1,1 % aller potentiellen Gartenflächen innerhalb eines 5 m Pufferbereichs um Raumkulturen bzw. innerhalb eines 2 m Pufferbereichs um Flächenkulturen. Für RLP sind es 0,75 %. Mit Hilfe eines Landbedeckungsdatensatzes der Fa. RLP AgroScience GmbH und den ALKIS-Daten konnte jedoch die exakte Gartenfläche für RLP auf 47.437 ha bestimmt werden. Basierend auf dieser Datengrundlage liegen 1,2 % der Gartenfläche von RLP innerhalb der genannten Pufferbereiche. Des Weiteren ergaben Berechnungen, dass 3 % der Gärten in RLP direkt angrenzend zu landwirtschaftlich genutzten Flächen liegen.
Im Rahmen dieser Arbeit wurden nicht nur Gärten betrachtet, die an landwirtschaftliche Flächen grenzen, sondern auch Nachbarschaftsverhältnisse zwischen ökologisch und konventionell bewirtschafteten Flächen untersucht. Diese Berechnungen erfolgten mit den Daten des Integrierten Verwaltungs- und Kontrollsystems (InVeKoS). Insgesamt grenzen in RLP 47,1 % aller ökologisch bewirtschafteten Flächen unmittelbar an konventionell bewirtschaftete Flächen an.
Absicherung der analytischen Interpretation von Geolokalisierungsdaten in der Mobilfunkforensik
(2019)
Abstract
Location based services maybe are within one of the most outstanding features of modern mobile devices. Despite the fact, that cached geolocation data could be used to reconstruct motion profiles, the amount of devices capable to provide these information in the field of criminal investigations is growing.
Motivation
The aim of this work is to generate in-depth knowledge to questions concerning geolocation in the field of mobile forensics, making especially somehow cached geolocation data forensically valuable. On top, tools meeting the specific requirements of law enforcement personnel shall be developed.
Problems
Geolocation processes within smartphones are quite complex. For the device to locate its position, different reference systems like GPS, cell towers or WiFi hot\-spots are used in a variety of ways. The whole mobile geolocation mechanism is proprietary to the device manufacturer and not build with forensic needs in mind. One major problem regarding forensic investigations is, that mainly reference points are being extracted and processed instead of real life device location data. In addition, these geolocation information only consist of bits and bytes or numeric values that have to be securely assigned to their intended meaning. The location data recovered are full of gaps providing only a part of the process or device usage. This possible loss of data has to be determined deriving a reliable measurement for the completeness, integrity and accuracy of data. Last but not least, as for every evidence within a criminal investigation, it has to be assured, that manipulations of the data or errors in position estimation have no disadvantageous effect on the analysis.
Research Questions
In the context of localisation services in modern smartphones, it always comes back to similar questions during forensic everyday life:
* Can locations be determined at any time?
* How accurate is the location of a smartphone?
* Can location data from smartphones endure in court?
Approach
For a better understanding of geolocation processes in modern smartphones and to evaluate the quality and reliability of the geolocation artefacts, information from different platforms shall be theoretically analysed as well as observed in-place during the geolocation process. The connection between data points and localisation context will be examined in predefined live experiments as well as desktop- and native applications on smartphones.
Results
Within the scope of this thesis self developed tools have been used for forensic investigations as well as analytical interpretation of geodata from modern smartphones. Hereby a generic model for assessing the quality of location data has emerged, which can be generally applied to geodata from mobile devices.
Absicherung und Verifikation einer Instant Messaging-Kommunikation über Diffie Hellman Key Agreement
(2009)
Im Rahmen dieser Bachelorarbeit soll die Absicherung und Verifikation einer Instant Messaging-Kommunikation beschrieben und in Form eines Plugins für ein bestehendes Instant Messaging-System realisiert werden. Dazu werden zunächst die Anforderungen an das System erhoben und mit Vorhandenen Konzepten und Systemen am Markt verglichen. Darauf aufbauend wird ein eigenes Konzept entwickelt und die Umsetzung in der Programmiersprache Java beschrieben. Der Fokus dieser Arbeit liegt dabei auf der Absicherung des Chat-Kanals einer Instant Messaging-Kommunikation, aber es werden geeignete Schnittstellen beschrieben und implementiert, die eine Erweiterung der angewendeten Verfahren für beliebige Datensätze ermöglicht.
Im Vergleich zu herkömmlicher Computergrafik (perspektivische Projektion) bietet Raytracing entscheidende Vorteile, die hauptsächlich in der vergleichsweise hohen physikalischen Korrektheit der Methode begründet sind. Die Schwächen liegen hingegen im immensen Rechenaufwand.
Ein Raytracer ist vergleichsweise so rechenintensiv, weil für jeden Pixel mindestens ein Strahl verschickt werden muss. Dieser muss gegen alle Objekte im Raum geschnitten werden. Hinzu kommen noch die Strahlen, die entstehen, wenn Strahlen an Objekten reflektiert werden (Rekursion). Um diesen Rechenaufwand zu verkleinern und zusätzlich ein besseres Bild zu erzeugen, soll der adaptive Sampler den Raytracer unterstützen. Der adaptive Sampler soll während des Rendervorgangs den progressiven Fortschritt in der Bildgenerierung beobachten und Pixel von der weiteren Berechnung ausschließen, für die sich ein zusätzliches Verschießen von Strahlen nicht mehr lohnt.
Anders als der rein progressive Raytracer hört der adaptive Sampler mit dem Konvergieren des Bildes auf zu rechnen. Der adaptive Sampler soll so dafür sorgen, dass schneller ein besseres Bild erzeugt wird und somit die Performanz gesteigert wird. Insgesamt erwartet man sich vom adaptiven Sampler Vorteile bei der Berechnung von bestimmten Szenen. Unter anderem eine Verbesserung bei Szenen mit rein diffus beleuchteten Bildbereichen, sowie eine Verbesserung bei Szenen mit unterschiedlich rechenintensiven Bildbereichen. Ein normaler Raytracer kann nicht beurteilen, wie sinnvoll seine Schüsse sind. Er kann nur mehr Strahlen verschießen, in der Hoffnung, das Bild damit effektiv zu verbessern.
Es gibt jedoch viele Szenarien, bei denen eine linear steigende Schussanzahl pro Pixel keine gleichmäßige Verbesserung im Bild erzeugt. Das bedeutet, dass Bereiche im Bild schon gut aussehen, während andere noch sehr verrauscht sind. Man möchte nun Bildbereiche, die bereits konvergiert sind, in denen sich ein weiterer Beschuss also nicht mehr bemerkbar macht, ausschließen und die Rechenleistung dort nutzen, wo man sie noch braucht.
Wichtig dabei ist, dass Pixel nicht ungewollt zu früh von der Berechnung ausgeschlossen werden, die nicht weit genug konvergiert sind. Der adaptive Sampler soll so lange arbeiten, bis jeder Pixel dauerhaft keine Änderungen mehr vorweist. Das bedeutet, dass die Wahrscheinlichkeit für eine signifikante Farbänderung eines Pixels durch Verschießen eines Strahls (bei mehreren Lichtquellen in RenderGin mehrere Strahlen pro Pixel) klein genug ist. Es wird zwar intern keine Wahrscheinlichkeit berechnet, jedoch bekommt der Raytracer eine Art Gedächtnis: Er speichert die Veränderungen im beleuchteten Bild und deren Verlauf in eigenen Gedächtnisbildern. Das "Gedächtnis" für das alte Bild (Zustand des Bildes in der letzten Iteration über die Pixel) repräsentiert dabei das Kurzzeitgedächtnis. Es ist absolut genau. Das Langzeitgedächtnis wird von drei verschiedenen Bildern repräsentiert. Das erste gibt die Anzahl der verschossenen Strahlen pro Pixel an. Das zweite ist ein Wahrheitswertebild, das für jeden Pixel angibt, ob dieser noch in die Berechnung einbezogen werden soll. Das dritte Bild gibt an, wie oft jeder Pixel eine Farbänderung vollzogen hat, die geringer ist als der geforderte Maximalabstand eines Pixels zu sich selbst (vor und nach dem Verschießen eines weiteren Strahls).
Mit diesen drei Bildern ist es möglich, zusätzliche quantitative Informationen zu den qualitativen Informationen des Vergleichs vom neuen und alten Bild zu berücksichtigen.
In dieser Arbeit kläre ich die Frage, ob die gewünschten Effekte eintreten und ob bei Integration in die bestehende Struktur von RenderGin ein Performanzgewinn möglich ist. Die Umsetzung eines adaptiven Samplers ist als Plug-In in der Software RenderGin von Numenus GmbH geschehen. RenderGin ist ein echtzeitfähiger, progressiver Raytracer, der sich durch seine Performanz auszeichnet. Die Bildgenerierung geschieht allein auf der CPU, die Grafikkarte wird lediglich zur Anzeige des erzeugten Bildes benötigt.
Die Umsetzung und Programmierung des Plug-Ins ist in Microsoft Visual Studio 2010 geschehen unter Verwendung des RenderGin SDK der Numenus GmbH.
Ein Switch (engl. Schalter; auch Weiche) ist eine Netzwerk-Komponente zur Verbindung mehrerer Computer bzw. Netz-Segmente in einem lokalen Netzwerk (LAN). Da Switches den Netzwerkverkehr analysieren und logische Entscheidungen treffen, werden sie auch als intelligente Hubs bezeichnet. Die Funktionsweise eines Switches ist der einer Bridge sehr ähnlich, daher wurde anfangs auch der Begriff Multi-Port-Bridge genutzt 1. Ziel der Diplomarbeit ist es, eine Dokumentation auf die Beine zu stellen, der interessierten Studenten der Informationstechnologie die Möglichkeit bietet, einerseits anhand von physikalischen Switches Administrationsaufgaben nachzuempfinden und andererseits anhand von virtuellen Switches größere Netzwerktopologien aufzubauen. Diese Virtualisierung wird durch das von Virtual Square entwickelte Tool VDE erreicht. Die physikalischen Switches bestehen aus vier Catalyst 3500 XL. Im Laufe dieser Arbeit wird sowohl die Bedienung der einzelnen Systeme untereinander, wie auch die Vernetzung der virtuellen Switches mit den physikalischen Switches erläutert. In diesem Zusammenhang wird auch auf Protokolle und Methoden wie das Spanning Tree Protokoll oder die Virtualisierung eines Netzes durch VLANs eingegangen. Zum Schluss kann der Leser das gelernte in einigen praktischen Aufgaben anwenden.
Das Just-in-Time - Verfahren ist ein neues Unterrichtskonzept aus den USA (auch in D. schon z.T. eingesetzt), bei dem ein oder zwei Tage vor der Unterrichtsstunde Fragen hauptsächlich zu qualitativem und konzeptuellem Verständnis an die SchülerInnen gestellt und von diesen per eMail beantwortet werden. Aus den Lösungen wird dann von der Lehrkraft eine Folie mit falschen und richtigen Vorschlägen erstellt (i.a. anonym), die dann in der Klasse diskutiert werden. Die besonderen Vorteile des Verfahrens sind: Adaptiver Unterricht mit kurzfristiger ("just-in-time") Reaktionsmöglichkeit auf Präkonzepte und andere Lernschwierigkeiten; Förderung der Selbsttätigkeit und Eigenverantwortung für die eingesendeten Beiträge; Schaffung einer schriftlichen (eMail-Beitrag) und mündlichen (Diskussion) Gelegenheit zur Spracharbeit an fachlichen Inhalten. Das Lernarrangement Die über Webspace verfügende Lehrkraft lädt eine themenrelevante Aufgabe ins Internet. Diese Aufgabe ist von den SchülerInnen ihres Kurses am Computer zu Hause zu bearbeiten; die Bearbeitung wird über ein Formularfenster als Mail an die Lehr-kraft gesendet. Mit den Statements ihrer SchülerInnen im Kopf begibt sich die Lehrkraft nun an die Planung der folgenden Unterrichtsstunde: Insbesondere werden die interessantesten Statements auf TLP-Folie kopiert . Sie bilden den roten Faden der in Planung befindlichen Unterrichtsstunde. Die Schülerantworten sind also zum einen Planungsgrundlage für die folgende Unterrichtsstunde, zum anderen werden sie zu einem besonderen Unterrichtsmedium des JiTT-Verfahrens (Folie o.ä. mit den interessantesten Statements). Der Unterrichtsverlauf enthält Phasen, in denen die Schüleraussagen gelesen, erörtert und diskutiert werden sowie Phasen, in denen die Gruppe mit üblichen Unterrichtsmedien und -methoden (Arbeitsblätter, Versuche) arbeitet. Im Idealfalle reduziert sich die Rolle des Lehrers in der Diskussionsphase auf die eines Moderators. Fachdidaktische und instruktionspsychologische Begründung JiTT kann als besondere Form des Adaptiven Unterrichts aufgefasst werden: Der Lehrkraft ist es möglich, insbesondere auf vorhandene Präkonzepte und andere Lernschwierigkeiten in adäquater Form zu reagieren und ihren Unterricht zu gestalten. Das Verfahren kann des weiteren auf der Ebene der Motivation wirksam sein, indem Selbstbestimmung (Mitgestaltung des Unterrichtes!) und soziale Einbindung (Diskussion der Schülerbeiträge in der Gruppe!) in besonderer Weise gefördert und gefordert werden. Selbstbestimmung und soziale Einbindung sind aber (zusammen mit Kompetenz) Hauptfaktoren in einer der führenden Theorien der Motivationspsychologie (Selbstbestimmungstheorie nach DECI & RYAN). Bemerkungen zum Design der Feldstudie In den Hauptteil der Feldstudie des Projektes zur Evaluation des Verfahrens waren zwei Physik-Leistungskurse eines rheinland-pfälzischen Gymnasiums (Teilgebiete "Mechanik" und "Elektrodynamik") eingebunden, ein Ergänzungsteil wurde im Rahmen einer Mechanik-Vorlesung des Lehramtsstudiums Physik an einer rheinland-pfälzischen Universität realisiert. Das erhobene Datenmaterial wurde insbesondere mit Hilfe des Verfahrens der multivariaten, hierarchischen Regressionsanalyse evaluiert. Ergebnis der Feldstudie und Diskussion Ein relevanter Effekt des JiTT-Verfahrens auf die Performanz der Lernenden kann nicht nachgewiesen werden. Im Hinblick auf mögliche Erklärungsmuster erscheinen folgende Aspekte von Bedeutung: Im Zuge der adäquaten Berücksichtigung von Schülervorstellungen ist es ausreichend, die "Mainstream-Päkonzepte" der Lernenden zu kennen. Detaillierte-res Wissen führt zu keinem signifikant erfolgreicheren Unterricht; Die vergleichsweise offen gestalteten JiTT-Phasen des Unterrichts scheinen insbesondere die leistungsschwächeren Lernenden zu überfordern; Ein eventuell doch vorhandener, auf JiTT zurückführbarer Einfluss auf die Performanz wird durch die Effizienz des im Unterricht eingesetzten methodischen Werkzeugs der Modellbildung überdeckt. Im Hinblick auf die motivationalen Einstellungen der Lernenden erscheint bemer-kenswert, dass man in JiTT zwar durchaus eine Bereicherung für den Unterricht sieht, dem gewachsenen zeitlichen Druck sowie den erweiterten Kontrollmöglichkeiten seitens der Lehrkraft jedoch kritisch gegenübersteht. Somit ist zweifelhaft, ob es durch den Einsatz des Verfahrens tatsächlich zu einer Verstärkung der autonom regulierten Varianten der Motivation kommt.
In dieser Arbeit wurde der Einfluss von nicht wässrigen Mahlflüssigkeiten auf Metall-Keramik-Pulvermischungen im Nassmahlprozess untersucht. Es wurden Al- und Cr-Al₂O₃-Pulvermischungen ausgewählt, um den Einfluss der Mahlflüssigkeiten auf die Mahlung von Metall-Keramik-Pulvermischungen mit einer duktilen (Aluminium) und einer spröden (Chrom) Metallkomponente zu untersuchen.
Algorithmische Komposition
(2018)
Algorithmic composition is an interdisciplinary topic that unites music and science. The computer is able to generate algorithmic music with the aid of a specific algorithm. In this bachelor thesis, algorithmic composition is realized with the biology-inspired algorithms called Lindenmayer-system and cellular automaton. In order to realize the compositions, several techniques are presented as well as implemented and evaluated. Those techniques map the generated data from the algorithms on a meaningful musical result.
In der vorliegenden Diplomarbeit wurde gezeigt, wie sich Ambient Occlusion in einer Szene aus frei transformierbaren Starrkörpern unter Verwendung von Coherent Shadow Maps in interaktiven Frameraten berechnen und darstellen lässt. Die Vorteile von Ambient Occlusion im Vergleich zu klassischen lokalen Beleuchtungsmodellen wurden aufgezeigt - den Ansatzpunkt bildet die Approximation von Umgebungslicht und indirekter Beleuchtung durch einen konstanten Farbwert - und die vereinfachenden Annahmen, die im Vergleich zu einer Simulation globaler Beleuchtung gemacht werden, wurden nachgezeichnet - Die Gültigkeit von Ambient Occlusion beschränkt sich demnach eigentlich auf eine direkte Beleuchtung diffuser Materialien mit konstanter Leuchtdichte. Um einen umfassenden Überblick zu gewährleisten, wurden zahlreiche existierende Ansätze zur Berechnung von Ambient Occlusion ausführlich vorgestellt. Anschließend wurde auf die Berechnung der Visibilität mittels CSMs eingegangen. Es wurde gezeigt wie sich die Komprimierungsrate von CSMs durch eine gleichmäßige Verteilung der zu komprimierenden Depth Maps deutlich erhöhen lässt und ein XML-konformes Dateiformat, das die beliebige Wiederverwendung einmal komprimierter Depth Maps erlaubt, wurde eingeführt.
Im Rahmen der Masterthesis „Analyse des Managements invasiver gebietsfremder Arten am Beispiel des Roten Amerikanischen Sumpfkrebses (Procambarus clarkii) während und im Anschluss an notwendige Sanierungsarbeiten am Hochwasserrückhaltebecken Breitenauer See östlich von Heilbronn“ wurde das Vorkommen des invasiven Roten Amerikanischen Sumpfkrebses am Breitenauer See umfangreich kartiert. Auch die nahegelegene Sulm mit bekanntem Vorkommen des Signalkrebses sowie das Nonnenbachsystem mit bekanntem Vorkommen des Steinkrebses wurden erfasst. Der Fokus lag auf der Beantwortung dreier Kernfragen. Zunächst wurde untersucht, ob und wie ein dauerhaftes IAS-Management (invasive alien species) des Roten Amerikanischen Sumpfkrebses am Breitenauer See nachhaltig durchgeführt werden kann, um inakzeptable ökologische Effekte zu vermeiden. Die zweite Fragestellung bezog sich auf die Wirksamkeit ergriffener Risikomanagementmaßnahmen während der Ablassaktion des Breitenauer Sees. Abschließend war fraglich, wie sich der Rote Amerikanische Sumpfkrebs verhält, wenn sein besiedeltes Gewässer trockenfällt.
Due to the incorrect allocation management and the continuous increase of internet-capable devices, IPv4-adresses are nearly exhausted. For this reason and because of new requirements demanded by the technique of the internet the IPv6-protocol has been developed. The IPv6-protocol provides a larger adress space and will gradually replace the IPv4-protocol. However, the routing-protocols have to be adapted to the new internetprotocol. This paper will introduce and analyse the dynamic Routing-Information-Protocol RIPng which in itself is an inter-gateway protocol (IGP). The routers inside the network can exchange information about their different connections over this protocol. Furthermore, this paper will explain the basics of the IPv6-protocol, of the used protocol-algorithm as well as of the RIPv2-protocol. In the practical part of the paper the Counting-to-Infinity-Problem and some attributes of RIPng will be reviewed under the IPv6-protocol.
Das performante Rendering großer Volumendaten stellt trotz stetig gestiegener Prozessorleistungen nach wie vor hohe Anforderungen an jedes zugrunde liegende Visualisierungssystem. Insbesondere trifft dies auf direkte Rendering-Methoden mithilfe des Raycasting-Verfahrens zu, welches zum einen eine sehr hohe Qualität und Genauigkeit der generierten Bilder bietet, zum anderen aber aufgrund der dafür nötigen hohen Abtastrate relativ langsam ist. In dieser Studienarbeit wird ein Verfahren zur Beschleunigung des Raycasting- Visualierungsansatzes vorgestellt, das auf adaptivem Sampling beruht. Dabei werden statische Volumendaten zunächst in einem Vorverarbeitungsschritt einer Gradientenanalyse unterzogen, um so ein Interessensvolumen zu erstellen, das wichtige und weniger wichtige Bereiche kennzeichnet. Dieses Volumen wird anschließend von einem Raycaster genutzt, um adaptiv für jeden Abtaststrahl die Schrittweite zu bestimmen.
Analyse TV-basierter Interaktion für Senioren: Umsetzung und Evaluation im Gesundheitsbereich
(2007)
In dieser Arbeit wurde nach einer detaillierten Erklärung der Begriffe Ad-hoc Network, MANET und VANET eine Auflistung und anschließend ein Vergleich der verschiedenen Routingverfahren, die in VANETs auftreten können, durchgeführt. Unter diesen Routing Verfahren wurde das Geocasting ausgesucht, weil es sich für die hohe Mobilität der einzelnen Knoten für geeignet gezeigt hat. Anschließend wurde auf die Sicherheitsanforderungen eingegangen. Dabei wurden die Begriffe Datenintegrität, Informationsvertraulichkeit, Verfügbarkeit, Verbindlichkeit, Anonymisierung und Peudomisierung eingeführt und ihre Wichtigkeit bei VANETs anhand von Beispielen gezeigt. In Abschnitt 2.4 wurden einige Angriffszenarien genannt, wobei sie in passive und aktive Angriffe kategorisiert wurden. Anhand eines Hybridmodells wurden jeder Schicht mögliche Angriffe zugeordnet und ausführlich diskutiert. Die Angriffe, die bereits definiert wurden, sind dann in einer Tabelle zusammengefasst worden. In dieser Tabelle wurde das Risiko berechnet, das ein Angriff bei VANETs hervorrufen kann. Angriffe auf der Anwendungsschicht sind mit sehr hohem Risiko angesiedelt und stellen eine große Gefahr für VANETs dar. Deshalb wurden manche dieser Angriffe dann mit konkreten Beispielen gezeichnet und dargestellt. Das Verbreiten von falschen Informationen auf Autobahnen ist das ausgewählte Szenario für das Angriffserkennungssystem. Dabei wurde ein Konzept erstellt, wie dieses IDS vorzugehen hat, wenn ein Fahrzeug eine Nachricht bekommt, um zu überprüfen, ob sie richtig oder falsch ist. Dabei wurden Randbedingungen aufgestellt, damit das IDS richtig funktioniert. Dieses Konzept wurde anhand einer Simulation realisiert, um zu überprüfen, ob es tatsächlich seine Aufgabe erfolgreich erfüllt. Nach der Beschreibung der Simulationsimplementierung und ihren wichtigsten Komponente wurden Tests durchgeführt, um die Funktionalität der Erkennung zu testen. Dabei wurde festgestellt, dass die Dichte des Verkehrs, Entfernung des Eregnismelders von der Ereigniszone und die Anzahl der empfangenen Nachrichten in jedem Fahrzeug eine große Rolle bei der Erkennung von Ereignissen spielt.
Dynamische Nachfragebündelung und diverse Auktionsformen stehen exemplarisch für neue Formen der Preisbildung im Electronic Commerce. Eine Vielzahl dynamischer Preisbildungsmechanismen aber auch neue Möglichkeiten der statischen Preisfindung im Sinne der klassischen Preispolitik (bspw. individuelle Preisdifferenzierung) werden erst durch die Nutzung neuer Informations- und Kommunikationstechnologien ermöglicht und - im geeigneten Kontext - in ökonomischer Hinsicht effizient umsetzbar. Eine sinnvolle Nutzung dieses stark erweiterten Möglichkeitsraumes erfordert die Einordnung der Angemessenheit der Nutzung einzelner Preisbildungsmechanismen aus ökonomischer Sicht. Diese Arbeit gibt einen systematischen Überblick über sowohl statische als auch dynamische Preisbildungsmechanismen. Darauf aufbauend wird ein Bezugsrahmen entwickelt, welcher wesentliche Kriterien zur Unterstützung der Wahl geeigneter Preisbildungsmechanismen enthält. Im Anschluss erfolgt der Entwurf eines Referenzmodells zur Beschreibung dynamischer und statischer Aspekte von Auktionsformen, welche üblicherweise als die zentrale Form dynamischer Preisbildungsmechanismen eingeordnet werden. Für den Zweck der Modellierung statischer Aspekte wird eine eigene Sprache in Form eines Meta-Modells entwickelt, welches geeignete Konzepte zur Beschreibung von Auktionsformen bereitstellt. Die Modellierung dynamischer Aspekte erfolgt unter Anwendung der Prozessbeschreibungselemente der Modellierungssprache MEMOOrgML. Abschließend werden die Möglichkeiten zur Adaption und Anwendung sowohl der entwickelten Prozessmodelle als auch des vorgeschlagenen Meta-Modells diskutiert.
Analyse von Geschäftsprozessen einer NPO zur Ausarbeitung der Anforderungen an eine Fachanwendung
(2008)
Im Rahmen einer Systemanalyse werden die Prozesse eines Anbieters von Ferienfreizeiten untersucht und modelliert sowie Schwachstellen ausfindig gemacht. Anhand dieser Grundlage und einer Anforderungserhebung unter den beteiligten Stakeholdern wird ein Soll-Konzept erarbeitet, welches zu Verbesserungen der allgemeinen Organisation und des Informationsflusses führen soll. Abschließend wird eine Handlungsempfehlung für das weitere Vorgehen ausgesprochen.
Accidents annually cause high economic damages for concerned persons, companies and the state. To determine the exact costs of a damage is a challenge. Scientific studies differ from each other because of different models of calculation. Due to the fact of a low number of accidents concerning rail transport there are not many studies about how to calculate the costs an accident causes. The aim of this thesis is to give an overview about methods when dealing with these costs and to point out occurring difficulties. Generally, costs of accident can be divided in two categories. One category deals with personal injuries whereas the other focuses on material damages. Personal injuries contain material and immaterial damages. This leads to difficulties in calculation. The main aspect when dealing with personal damages is the loss of manpower, the costs of medical supply and the costs of the recovery of the legal situation. Currently there is no model of how to calculate personal damages concerning rail transport in Germany. The “Bundesamt für Straßenverkehr” developed an extensive model for calculations of costs of accident concerning traffic. It turned out that the death of people has costs round about 1.1 million euro. Severely and slightly injured people cause damages about 106,000 euro and 5,000 euro. This thesis declares that the model is important regarding different aspects of rail transport and that it is based on statistically collected key performance indicators. Furthermore, some approaches, which analyse the value of life, are mentioned. There are large derivations between them. To make a calculation of material damage the current value of the object must be respected. When dealing with the limitation of material damages the focus is on damages concerning infrastructure. In addition, railway infrastructure can be mentioned. With the help of the “Kostenkennwertekatalog” of Deutsche Bahn AG acquisitions costs for certain components of infrastructure can be determined. As a result, they offer a basis for calculating damages.
Diese Bachelorarbeit wurde bei der Rasselstein GmbH in Andernach, dem größten Weißblech produzierenden Standort der Welt, durchgeführt. Sie ist zurzeit im Begriff, ein systematisches, einheitliches Geschäftsprozessmanagement einzuführen. Im Zuge dessen wurden im Rahmen dieser Arbeit ausgewählte Massenprozesse aus dem Office-Bereich zunächst durch die Nutzung verschiedener Modellierungssprachen erfasst. Es handelt sich hierbei um Dienstleistungsprozesse, die sich durch ihr vielfaches Auftreten in der Büroumgebung besonders zum Steuern und Überwachen eignen. Der Einsatz zweier Sprachen begründet sich durch die Tatsache, jeweils differenzierte Aspekte hervorheben zu können, was zu einer umfänglichen, multiperspektivischen Gesamtdarstellung der Prozesse führt. In einem nachfolgenden Schritt wurden diese Prozesse ausführlich mit Blick auf Verbesserungspotenziale analysiert, Schwachstellen entfernt und optimierte Prozesse im Sollzustand geschaffen. Es wurde dadurch beispielhaft aufgezeigt, wie Massenprozesse im Office-Bereich in einem international tätigen Industrieunternehmen untersucht werden können. Besonders durch die Aufstellung eines, aus den gewonnenen Erkenntnissen abgeleiteten, Modells soll ein wissenschaftlicher Beitrag auf dem Forschungsgebiet der Büroprozesse geleistet werden. Neben einer daraus resultierenden Unterstützung der Arbeiten der Forschungsgruppe Betriebliche Anwendungssysteme der Universität Koblenz-Landau wurde damit ebenfalls ein Beitrag für die Rasselstein GmbH generiert. Durch die Arbeiten auf dem Gebiet der Geschäftsprozessmodellierung und -optimierung, unter Zuhilfenahme eines neu eingeführten, adäquaten Prozessmanagementtools, konnten Ergebnisse erzielt werden, die von der Unternehmung für nachfolgende Projekte genutzt werden. Die Erstellung eines umfangreichen Grundlagenkapitels diente einerseits dem Zweck, bei der Rasselstein GmbH ein fundiertes Wissen über das Geschäftsprozessmanagement zu vermitteln und andererseits, besonders in ausgewählten Kapiteln, Erkenntnisse zu aktuellen Themen der Forschungsgruppe zusammenzutragen. Schließlich wurden die ausgewählten, optimierten Office-Prozesse unter dem Fokus auf die Steuerung und Überwachung derselben betrachtet. Am Beispiel der Rasselstein GmbH wurde aufgezeigt, wo Chancen, Risiken und Schwierigkeiten zur Realisierung dieser Thematik in einem Industrieunternehmen liegen.
Genetically modified plants have been grown commercially for about 25 years. Bt plants, which contain genes from the bacterium Bacillus thuringiensis (Bt) and produce Cry proteins, are used particularly frequently. Risk assessment has long focused on the terrestrial environment. Only since the publication of Rosi-Marshall et al. in 2007 potential effects on the aquatic environment came into focus. The first part of this dissertation analyse the existing literature on lower-tier effect studies and fate studies examining the effects of GM plants on the aquatic environment. Potential effects on aquatic organisms are apparent. Some studies also demonstrate the entry of GM plant material into the aquatic environment and the leaching of toxins into the water.
The second part of the dissertation investigate the effects of Cry1Ab toxin on two species of caddisfly larvae (Chaetopterryx spec., Sericostoma spec.). Trichopterans are phylogenetically closely related to lepidopterans, which are often the target organisms of Cry toxins. In order to be able to create several concentrations, a new spiking method was used in which dissolved Cry1Ab toxin was applied on leaves of black alder (Alnus glutinosa). Effects were particularly evident at sublethal endpoints. The lipid content of Chaetopteryx spec. larvae was lower after twelve weeks with increasing Cry1Ab concentration. The reduction in lipid content may indicate an increase in energy requirements for repair mechanisms. Sericostoma spec. showed a slowdown in larval development at the highest Cry1Ab concentration after six weeks, which could lead to later emergence and thus effects on the food chain.
In the third part of the dissertation, the assessment of impacts of GM crops on the aquatic environment was investigated using higher-tier studies. Since higher-tier studies are already common with pesticides, these were compared to the higher-tier studies already conducted with GM crops. It is found that there is no standardization of higher-tier studies with GM crops, which is necessary for quality assurance and comparability of studies. In addition, there are great difficulties in establishing different test concentrations, which is necessary for the investigation of a dose-response relationship.
Overall, it is clear that there are still significant knowledge gaps of the effects of GM plants on the aquatic environment. Further studies are essential for a comprehensive and meaningful risk assessment.
Die Arbeit beschäftigt sich mit der für Router und Kleingeräte entwickelten Linux-Distribution OpenWrt. Im ersten Teil der Arbeit wird die Erstellung von Softwarepaketen für OpenWrt erläutert und eine Anzeige- und Konfigurationskomponente für die Dateien des Quagga RIP-Daemons für die Benutzeroberfläche LuCI erstellt. Im zweiten Teil wird der Aufbau eines Testnetzwerkes mit OpenWrt Routern dokumentiert, sowie die Anbindung an VNUML-virtualisierte Netzwerke.
Die Nachhaltigkeitsberichterstattung kann als ein zentrales Element einer konsequenten Unternehmensstrategie zur Umsetzung der gesellschaftlichen Verantwortung (Corporate Social Responsibility) angesehen werden. Um die Unternehmen bei dieser Aufgabe zu unterstützen stellt die Global Reporting Initiative (GRI) mit ihren G4 Leitlinien einen Orientierungsrahmen bereit, dessen Anwendung sich allerdings für Klein und Mittelunternehmen sehr komplex gestaltet. Ein branchenspezifisches Sector Supplement für den Weinbau existiert derzeit noch nicht.
Ziel der vorliegenden Arbeit ist es, diese Forschungslücke durch die Entwicklung weinbauspezifischer Nachhaltigkeitsaspekte und Indikatoren zu schließen, um den Betrieben eine selbstständige GRI-konforme Berichterstattung zu ermöglichen.
Der Prozess zur Identifikation wesentlicher Nachhaltigkeitsaspekte und -indikatoren erfolgt mittels Erhebungs- und Auswertungsmethoden der qualitativen Sozialforschung in Form
von Workshops, betrieblichen Vorortanalysen und Experteninterviews.
Parallel dazu erfolgt eine umfassende Analyse der weinbaulichen Wertschöpfungskette in Form einer Internet- und Literaturrecherche. Diese umfasst vorrangig die ökologischen Nachhaltigkeitsaspekte als diejenigen Bestandteile weinbaulicher Tätigkeiten, die sich sowohl positiv als auch negativ auf die Umwelt auswirken können. Anschließend erfolgt die zentrale Priorisierung der identifizieren Handlungsfelder und Nachhaltigkeitsthemen durch die Stakeholder. Zur Visualisierung der bewerteten Handlungsfelder dient das Instrument der Wesentlichkeitsanalyse.
Auf dieser Basis erfolgt die Entwicklung eines Handlungsleitfadens zur Erstellung von Nachhaltigkeitsberichten in der Weinwirtschaft. Hiermit erlangen Weingüter die praktische Kompetenz ein eigenes Nachhaltigkeitsreporting anzugehen.
Im Rahmen der Arbeit wurde auch ein elektronisches Tool entwickelt, das den Betrieben die Möglichkeit eröffnet, betriebliche Umweltaspekte zu erfassen und zu bewerten. Gleichzeitig wird den Anwendern damit die Generierung eines überbetrieblichen Vergleichs der Umweltleistung ermöglicht (Benchmarking).
Eine weitere Forschungsfrage der vorliegenden Arbeit beschäftigt sich mit der Biodiversitätserfassung und -bewertung für Rebland. Hintergrund sind die bisher nur geringen Funde auf der durch das Bundesamt für Naturschutz festgelegten Kennartenlisten bzw. den HNV-Stichprobenflächen (High nature value farmland-Indikator) für Rebland.
Hierzu wurde mittels Geoinformationssystemen das Artenvorkommen in rheinland-pfälzischen Weinanbaugebieten analysiert und 30 Pflanzenarten als Indikatorarten für den Weinbau abgeleitet. Ergänzend wurden weinbergstypische, geschützte Tierarten als „Bonusarten“ identifiziert. Die Indikatorarten werden den Winzern als ein Instrument zur eigenständigen Erfassung der Biodiversität in den Weinbergen dienen und im Rahmen einer Nachhaltigkeitsberichterstattung herangezogen werden können.
Innovation can help a forward-looking company to rise up very quickly, furthermore, innovative products and services bring a company to a stage where it can win new segments of customers and be ahead of the competition. For their innovation process, the companies can distinguish between open and closed innovation. In this case, we will focus on open innovation and how companies share their innovation processes for the benefit of the company. They use information and innovation systems to define their innovation process, as well as, track innovative ideas and the phase of their development. There are always pros and cons when it comes to open innovation processes in an organization. We will try to look at certain examples in the business world to illustrate how good or bad an open innovation process can be for a company. In this Bachelor thesis, we will try to point out the essential criteria for an open innovation process and illustrate companies which have used open innovation processes. In some cases it went successfully and for some companies it went unsuccessfully.
Die Herstellung eines Europäischen Binnenmarktes, wie sie durch den Vertrag zur Gründung der Europäischen Gemeinschaft vorgesehen ist, beinhaltet unter anderem die freie grenzüberschreitende Erbringung von Dienstleistungen. Dem stehen jedoch mehrfach die Bestimmungen im Recht der EU-Mitgliedstaaten entgegen, die den freien Zugang von Dienstleistungserbringern aus anderen EU-Mitgliedstaaten zum nationalen Markt blockieren. Gründe für derartige Maßnahmen können sehr unterschiedlich sein, z.B.: der Schutz innerstaatlicher Anbieter, die Gewährleistung von Schutznormen des nationalen Arbeitsrechts oder die Verhinderung eines ruinösen Unterbietungswettlaufs. Die Richtlinie soll bürokratische Hindernisse abbauen, den grenzüberschreitenden Handel mit Dienstleistungen fördern und damit zur Verwirklichung des einheitlichen Binnenmarktes beitragen. Die Europäische Kommission hat am 12. Dezember 2006 die EU-Dienstleistungsrichtlinie verabschiedet. Jeder Mitgliedstaat der EU verpflichtet sich bis zum Jahr 2009 die Richtlinie umzusetzen und zugleich einen Bericht der Kommission vorzulegen. Innerhalb der Diplomarbeit werden mehrere Themenbereiche bearbeitet. Zu Beginn erfolgt eine allgemeine Einführung in die EU-Dienstleistungsrichtlinie. Als nächstes erfolgt eine Analyse aktueller Ansätze zur Umsetzung der EU-Richtlinie in Deutschland, Österreich und Großbritannien, dabei wird der Fortschritt der Länder anhand der Kernstrukturen der Direktive betrachtet. Zusätzlich wird für jedes betrachtete Land ein mögliches Anmeldeszenario, ohne die Vorgaben der Richtlinie, vorgestellt. Zur Vervollständigung der Betrachtung erfolgt zum Schluss eine länderübergreifende Auswertung. Diese wird sich sowohl auf die zurzeit vorherrschende Ländersituation als auch auf die erzielten Ergebnisse innerhalb der Direktive beziehen.
Kleine und mittelständische Unternehmen stehen durch den permanenten Wandel unserer Wirtschaft [Baumann & Schulte, 2002, S. 5] immer größeren Herausforderungen gegenüber, die sie bewältigen müssen [Bullinger & Buck, 2007]. Um diesen Herausforderungen zu begegnen, muss die Organisation der Geschäftsprozesse innerhalb des Unternehmens effektiv und effizient erfolgen, damit ein möglichst hohes Maß an Transparenz erreicht werden kann.
Um eine effektivere und effizientere Unternehmenssteuerung zu gewährleisten und damit den Unternehmer entlasten zu können, sowie Transparenz zu schaffen, muss der Einsatz von zielgerichteten Methoden zur Schaffung von Kompetenzen im Bereich Prozessmanagement gerade in kleinen und mittelständischen Handwerksunternehmen im Vordergrund stehen. Diese haben aber auf Grund ihrer geringen Größe meist nicht das Know-how und die Ressourcen, sich neben den operativen Aufgaben mit den neuen Strategien der Betriebsführung zu beschäftigen [Kuiper, et al., 2012, S. 107].
Eine Möglichkeit Transparenz zu schaffen liegt in der Erhebung von Kennzahlen. In dieser Arbeit werden verschiedene Kennzahlensysteme betrachtet und ihre Eignung für den Einsatz in kleinen und mittelständischen Unternehmen anhand von definierten Kriterien verglichen. Das Ergebnis dieses Vergleiches zeigt, dass die in der Literatur identifizierten Kennzahlensysteme für kleine und mittelständische Unternehmen nicht deren Anforderungen entsprechen. Die Systeme liefern darüber hinaus nur wenige konkrete Methoden, wie Kennzahlen in KMU erhoben werden können.
Im Zuge dieser Arbeit werden auch kleine und mittelständische Handwerksunternehmen nach deren Nutzung und Wissen in Bezug auf Kennzahlen befragt. Das Ergebnis dieser Befragung zeigt, dass in den meisten Unternehmen nur sehr wenig Wissen in diesem Bereich vorhanden ist.
Auf Grundlage der Ergebnisse der vergleichenden Analyse bestehender Kennzahlensysteme aus dem ersten Teil dieser Arbeit und der Analyse der Unternehmensbefragung, wird im letzten Teil dieser Arbeit ein Vorschlag für ein prozessorientiertes Kennzahlensystem entwickelt und vorgestellt. Dieser Vorschlag für ein Kennzahlensystem ist insbesondere auf die Bedürfnisse von kleinen und mittelständischen Handwerksunternehmen ausgerichtet. Aber auch mit diesem System können nicht alle Schwierigkeiten die kleine und mittelständische Unternehmen bei der Arbeit mit Kennzahlen haben, eliminiert werden. Das System gibt eine strukturierte Vorgehensweise vor, und erläutert konkrete Maßnahmen, die zur Überwindung von Barrieren bei der effektiven Arbeit mit Kennzahlen, durchgeführt werden können.
So genannte Risikomanagement-Informationssysteme (RMIS) unterstützen Unternehmen darin, ihr Risiko-Management unternehmensweit durchzuführen. Im vorliegenden Beitrag analysieren wir mit Hilfe der Scoring-Methode die inhaltlichen Anforderungen an ein RMIS und zeigen, wie das zu einer begründeten Auswahl für die Anschaffung eines RMIS führt. Dazu diskutieren wir erstens, welche Anforderungen an ein RMIS gestellt werden, zweitens klassifizieren wir die auf dem Markt existierenden RMIS bezüglich ihrer Anwendungsziele und drittens erstellen wir einen Anforderungskatalog und ein dreistufiges Verfahren zur Handhabung des Auswahlprozesses. Dieses wird im Rahmen einer erfolgreich durchgeführten Fallstudie im Rahmen einer Masterarbeit [11] in einem konkreten Konzern, der Telekommunikations- und Internetzugang anbietet (United Internet AG, Montabaur), erläutert und evaluiert. 1.
The increased networking of devices has established the usage of distributed applications as a common method in software development. Despite the demand of anonymity in using distributed applications, software frameworks still lack appropriate support in developing them. Building anonymous communicating applications therefore often results in an expensive individual approach. This work integrates an approach for anonymous communication using remote procedure calls into a software framework for building distributed applications. This also includes the design, development, and prototypical implementation of a binding for the MAppLab Remote Procedure Call Framework on the basis of the mPartAPI Framework. Furthermore the resulting prototype will be tested in an exemplary scenario.
Rechnernetze gehört zu den Fächern, die ein breites Spektrum an Anwendungsgebieten abdecken. Die vielen unterschiedlichen Protokolle sind Belege dafür. Jedes Protokoll hat sozusagen ein eigenes Anwendungsbereich und doch sind deren Aufgaben unter dem Nenner gleich. Miteinander zu Kommunizieren, Informationen auszutauschen und das möglichst auf eine sichere und schnelle Art und Weise. Als Beispiel denke man an Autos, Handys, Lokale Netze in einem kleinen Betrieb, Intranet in einer größeren Organisation oder in Netze die über Länder hinweggehen. Ein modernes Auto an sich hat schon eine Vielzahl an Bussystemen in sich integriert. CAN, LIN, FlexRay oder MOST Bus sind ein paar Stichworte dazu. Wenn man jetzt von der Autoindustrie weggeht und an die Autonomen Systeme kommt, gibt es dort ein Routing Information Protokoll, das innerhalb von Autonomen Systemen verwendet wird. Routing Information Protokoll ist eines der meist verwendeten Protokolle innerhalb von Autonomen Systemen. Das Routing Information Protokoll ist einer der zentralen Bestandteile des Forschungsbereiches der AG Steigner. Die Arbeit widmet sich unter Anderem dieser Forschungsunterstützung.Diese Studienarbeit hat das Ziel die Testumgebung XTPeer auf die VNUML Version 1.8 zu integrieren.
Anreizfaktoren der Wissensverwertung für Universitäten und kleine und mittelständische Unternehmen
(2014)
This scientific paper identifies and describes the incentives for the utilization of knowledge for universities and small and medium-sized companies. In addition, different models " for example the Knott/Wildavsky model " are continuously adapted, created and expanded, which leads to an new integrative model. The main problem is that companies have to integrate knowledge from external sources into their operations. According to the literature, this model of open innovation is considered as inevitable in order to remain competitive. This is especially the case for small and medium-sized companies. The reasons for this are illustrated as the possibilities of a successful collaboration. Germany has a relativley high involvement in knowledge and technology transfer in international comparison. Nevertheless, a number of companies assume their insitution won´t benefit from knowledge utilization.
The literature review revealed that there is no existing model, which combines the stages of knowledge utilization with the incentives of universities and companies. This paper closes the identified gap through the created integrative model. The formulated incentive factors can help universities and companies recognizing if a cooperated research is beneficial or not.
At the beginning the basic theoretical foundations are defined based on the literature review, followed by a description of the incentive factors of knowledge exploitation. On the one hand there is a distinction between tangible and intangible incentives. On the other hand there is a segmentation of extrinsic and intrinsic motivation. Both are important regarding to the motivation of employees and scientists. In the end, a knowledge utilization model is presented and adapted to the present case, before proceeding with the extension of the model providing an additional perspective and adding the incentive factors.
By the procedure described an integrative model is created. It can be useful to all affected people, universities and their scientists as well as small and medium-sized companies and their employees.
In einer Welt, die immer mehr durch den Einsatz von Technik geprägt wird, gewinnen Systeme, welche eigenständig Aufgaben in einem vorgegebenen Kontext übernehmen können, mehr und mehr an Bedeutung. Solche Systeme werden als autonome Systeme bezeichnet, die ein eigenständiges Verhalten und Interaktionen mit ihrer Umwelt und anderen Systemen beinhalten. Zu diesen Systemen zählen auch autonome mobile Roboter. Sie sind sozusagen intelligente Fahrzeuge, die ihnen übertragene Aufgaben ohne menschliche Unterstützung durchführen können. Um ihre Umwelt wahrzunehmen, mit ihr interagieren und in ihr navigieren zu können benötigen diese Systeme verschiedene Arten von Sensoren. Somit ist die Robotikforschung stark interdisziplinär. Diese Arbeit befasst sich ausschliesslich mit dem Bereich der Navigation, insbesondere mit der Positionsbestimmung, welche für eine gute Navigation die Grundlage bildet. Ein heutzutage häufig benutztes, weltweit verfügbares System zur Positionsbestimmung ist GPS. Ziel dieser Arbeit ist der Anschluss eines GPS-Moduls an einen Mikrocontroller und der Versuch die Positionsgenauigkeit lokal zu präzisieren, um so einem autonomen System die Möglichkeit zur eröffnen, Aufgaben, die eine höhere Genauigkeit erfordern, zu bewerkstelligen.
This thesis deals with quality assurance of model-based SRS, in particular SRS-Models and SRS-Diagrams. The interesting thing about model-based SRS is that they are generated by a documentation generator based on the following input data: SRS-Model, SRS-Diagrams and texts external to the model. Therefore to assure the quality of the documentation the quality of their four factors must be assured, which are the SRS-Model, SRS-Diagrams, external texts and the documentation generator. The thesis" goal is to define a quality connotation for SRS-Models and -Diagrams and to show an approach for realizing automatically quality testing, measurement and assessment for the modelling tool Innovator.
Antonio Lotti und seine liturgische Kirchenmusik – Vorstudien zu Biographie und Überlieferung
(2023)
Antonio Lotti (1667-1740) gehört zu den venezianischen Komponisten, die in der älteren wie der neueren Fachliteratur ein hohes Ansehen genießen, obwohl seine Werke bis heute nur wenig bekannt sind. Eine unklare Überlieferungslage, aber auch sachfremde ästhetische Postulate verzögerten jedoch die Auseinandersetzung mit Lottis Kompositionen. Erst in neuerer Zeit gab es ein verstärktes Interesse sowohl an seinen Opern und vokaler Kammermusik als auch an seiner Kirchenmusik.
In der vorliegenden Studie wird zunächst Lottis Biographie unter Einbeziehung neuer Quellenfunde auf dem aktuellen Stand des Wissens zusammenfassend dargestellt. Der zweite Teil bietet erstmals eine Identifikation von Lottis Buchstaben- und Notenschrift nach streng philologischen Kriterien. Angesichts des nicht mehr erhaltenen Nachlasses ist dieser Teil von besonderer Bedeutung, bietet er doch die unverzichtbare Basis zur weiteren Erforschung von Lottis Kirchenmusik, ihrer Überlieferung und Faktur.
In den folgenden acht Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptographischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, besprechen im Detail den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens. Das erste Beispiel der Verschlüsselungsprotokolle ist noch nicht sehr konkret, sondern es bildet die Grundlage der folgenden Beispiele. Denn jede Anwendung setzt eines der beiden Typen von Verschlüsselungsprotokollen ein, die im ersten Beispiel erklärt werden. Dann folgen die Beispiele Sicheres World Wide Web mit SSL, die Verschlüsselung der Luftschnittstelle im Mobilfunk, die sichere Identifikation des Karteninhabers einer ec-Karte am Geldauszahlungsautomaten, der Schutz von WLANs gegen fremde Lauscher und Eindringlinge, die sichere Identifikation elektronischer Schlüssel, darunter der Funkschlüssel bei Autotüren, das kontaktlose Flugticket zum Ausdrucken einer Boardingkarte und schließlich die Verschlüsselung im Pay-TV. Die Beschreibung der kryptografischen Anwendungen dieses Kapitels wird in einem Arbeitspapier des Instituts für Wirtschafts- und Verwaltungsinformatik der Universität Koblenz-Landau weitergepflegt und dort stets aktuell zum Download bereitgehalten [Grimm, Hundacker, Meletiadou 2006]. http://www.uni-koblenz.de/FB4/Institutes/IWVI/AGGrimm/Downloads
In den folgenden neun Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptografischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, zeigen den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens.
Der Idee des Semantic Desktop liegen die gleichen Konzepte zugrunde wie dem Semantic Web mit dem Unterschied, dass sie nun auf die Applikationen und Daten eines durchschnittlichen Desktops angewendet werden. Insbesondere geht es darum, die unterschiedlichen Sichten auf Daten, die durch unterschiedliche Anwendungen erzeugt werden, über eine kontextübergreifende Beschreibung zu integrieren. Z.B. können sich zwei Programme darin unterscheiden, dass eine E-Mail-Adresse in dem einen als aktiver Link dargestellt wird, über den sich direkt eine E-Mail versenden lässt, in dem anderen aber lediglich als Zeichenkette. In der angestrebten idealen Welt des Semantic Desktop würde diese Adresse unabhängig von ihrem Anzeigekontext auch als solche erkannt und behandelt. Ziel der Arbeit ist die Entwicklung einer Integrationsmöglichkeit, die es Applikationen erlaubt, Informationen über ihre Inhalte auszutauschen. Hierzu werden zunächst die Anforderungen an die zu erarbeitende Kommunikationskomponente aufgeführt und daraus das technische Umfeld abgeleitet. Dabei wird vor allem auf die einzusetzenden Technologien eingegangen, und die angewendeten Konzepte werden erläutert. Die Entwicklung und Beschreibung einer Testanwendung schließen den technischen Teil ab. Zuletzt wird die gesamte Entwicklung kritisch diskutiert und ein Ausblick auf mögliche fortführende Entwicklungen geboten.
Diese Arbeit beschäftigt sich mit Konzepten für die Anzeige eines frei programmierbaren Kombinationsinstrumentes (FPK). Ziel ist es, die zunächst theoretischen Anzeigekonzepte auf Basis einer zu ermittelnden Hard- und Softwareplattform zu entwickeln. Zu Beginn wird die Evolution von analogen, mechanischen Kombinationsinstrumenten zum FPK beschrieben. Darauf folgt ein Überblick bereits bestehender FPK-Konzepte mit einer genaueren Sicht auf dargestellte Anzeigeelemente. Dabei wird besonders auf die Personenwarnung in der Night-view-Anzeige und eine Anzeige der ökologischen Fahreffizienz eingegangen. Die Arbeit ist Teil eines in Entwicklung befindlichen FPK-Projektes. Basierend auf den durch dieses Projekt vorgegebenen Anforderungen wird eine geeignete Soft- und Hardwareplattform für die Umsetzung eines FPK ermittelt. Dabei zeigt sich, dass die optimale Plattform nur durch eine präzise Änderungsdefinition des graphischen Systems bestimmt werden kann. Da die Projektanforderungen nicht präzise genug sind, wird Adobe Flash in Verbindung mit Actionscript zur Umsetzung der Anzeigekonzepte eingesetzt, um Plattformunabhängigkeit zu erreichen. Mittels Techniken des User-centered Designs wurden Konzepte einzelner und kombinierter Anzeigeelemente entwickelt. Dabei wurde besonders darauf geachtet, die Gestaltungsmöglichkeiten durch die Größe der zur Verfügung stehenden Anzeigefläche des FPK auszunutzen. Nach theoretischen Überlegungen bezüglich des Verwendungskontexts und wahrnehmungspsychologischer Erkenntnisse werden entwickelte Konzepte skizzenhaft beschrieben und die erstellten Animationen erläutert. Den Schluss bildet eine Evaluation einzelner Prinzipien. In einer Umfrage mit 14 Probanden konnte die intuitive Erkennbarkeit einzelner Konzepte teilweise bestätigt oder widerlegt werden. Die Wirksamkeit einer entwickelten Warnmeldung zur Steuerung der Aufmerksamkeit wurde anhand eines Tests mit Nutzern in einer Simulation bestätigt. Die Warnmeldung und andere Konzepte sind nur in einem FPK umzusetzen. So wird gezeigt, dass der Einsatz eines FPK zu einer erhöhten Sicherheit und besseren Bedienbarkeit führen kann. Das FPK sollte jedoch nicht isoliert vom restlichen HMI betrachtet werden, damit seine Möglichkeiten voll ausgeschöpft werden können. Der Einsatz echter 3-D-Graphik für FPK ist zweifelhaft. Über den Bedarf muss im Einzelfall nach einem Test auf Usability entschieden werden. Die Evaluation zeigt, dass Konventionen eines herkömmlichen Kombinationsinstrumentes auch bei der Gestaltung von Anzeigeelementen für ein FPK genutzt werden sollten, um eine Lesbarkeit zu garantieren.
Computers assist humans in many every-day situations. Their advancing miniaturisation broadens their fields of use and leads to an even higher significance and spread throughout society. Already, these small and powerful machines are wide-spread in every-day objects and the spread increases still as the mobility-aspect grows in importance. From laptops, smartphones and tables to systems worn on the body (wearable computing) or even inside the body as cyber-implants, these systems help humans actively and context-sensitively in the accomplishment of their every-day business.
A part of the wearable-computing-domain is taken up by the development of Head-mounted displays (HMD). These helmets or goggles feature one or more displays enabling their users to see computer-rendered images or images of their environment enriched with computer-generated information. At the moment, most of this HMD feature LC-Displays, but newer systems start appearing that allow the projection of the image onto the user's retina. Newest break-throughs in the field of study already produced contact lenses with an integrated display. The data shown by a HMD is compiled using a multitude of sensors, like a Head-Tracker or a GPS. Increasing computational performance and miniaturisation lead to a wide spread of HMD in a lot of fields.rnThe multiple scenarios in which a HMD can be used to help improve human-perception and -interaction led the "Institut für Integrierte Naturwissenschaften" of the University of Koblenz-Landau to come up with a HMD on the basis of Apple's iOS-devices featuring Retina Displays. The high pixel density of these displays combined with condensor lenses into a HMD offer a highly immersive environment for stereoscopic imagery, while other systems only display a relatively small image projected a few feet away of the user. Furthermore, the iPhone/ iPod Touch and iPad exhibit a lot of potential given by their variety of offered sensors and computational power. While producing a similarly feature-rich HMD is very costy, using simple iPod Touches 4th Gen as the basis of a HMD results in a very inexpensive solution with a high potential. The increasing popularity and spread of Apple devices would reduce the costs even more, as users of the HMD could simply integrate their device into the system. A software designed with the specific intent to support a large variety of Apple iOS-devices that could easily be extended to support newer devices, would allow for a universal use of such a HMD-solution as the new device could simply replace an old device.rnrnThe focus of this thesis is the conception and development of an application designed for Apple's iOS 5 operating system that will be used in a HMD evolving around the use of Apple iOS-devices featuring Retina Displays. The Rollercoaster2000-project depicting a ride in a virtual rollercoaster will be used as the application's core. A server will syncronize the display of clients conntected to it which are combined to form a HMD. Furthermore the gyroscope of the iOS-devices combined into a HMD will be used to track the wearer's head-movements. Another feature will be the use of the devices cameras as a mean of orientation while wearing the HMD.
As a first step in the realization of a software meeting the set specifications is the introduction of the Objective-C programming languages used to develop iOS-Applications. In conjunction with the compiler and runtime environment, Objective-C makes up the base of the second step, the introduction of the iOS-SDK. Aimed with this iOS-app-development-knowledge, the last part of the thesis consists of the ascertainment of requirements and development of a software complying to the goals of a software written specifically for the used in a HMD.
Augmented Reality ist eine neuartige, auf vielen Gebieten einsetzbare Technologie. Eines dieser Gebiete ist die Touristeninformation. Hier ermöglicht die AR dem Anwender eine schier endlose Fülle der verschiedensten Möglichkeiten. Mit Ihrer Hilfe kann der Benutzer nicht nur die Zeit bereisen, er kann auch Unsichtbares sehen. Doch stellt sich die Frage, ob die AR auch für weiterreichende Zwecke geeignet ist. Ist es möglich mit ihrer Hilfe Wissen nachhaltig zu vermitteln? Und wenn ja, wie kann dies geschehen? In althergebrachter Form von Texten und Bildern, oder auf interaktive und spielerische Weise? Was muß beachtet werden bei dem Versuch eine AR Anwendung für die Wissensübermittlung zu erstellen? Wie kann der Benutzer mit Ihr umgehen? Weiss der Benutzer später auch wirklich mehr? Die vorliegende Diplomarbeit geht diesen Fragen nach, indem sie zuerst der AR einen genaueren Blick widmet. Sie betrachtet die möglichen einsetzbaren Medien und gibt Vorschläge für interaktive Anwendungen, die mit Hilfe von AR ausgeführt werden. Zum Schluß untersucht sie anhand einer erstellten Beispielanwendung, ob der Benutzer mit Hilfe der AR etwas lernen und auch behalten kann.
Die Reputation von Unternehmen ist einer zunehmenden Gefahr ausgesetzt, die sich aus der (unreflektierten) Nutzung sozialer Netzwerke durch die eigenen Mitarbeiter ergibt. Die Treiber und Hemmnisse eines solchen Nutzerverhaltens von Arbeitnehmern in sozialen Netzwerken wurden bislang nur unzureichend erforscht. Der vorliegende Beitrag untersucht unter Verwendung der Boundary Theorie am Beispiel der Plattform Facebook, inwieweit die Persönlichkeitsmerkmale Neurotizismus und Extraversion, die Organisationsidentifikation und die Unternehmensreputation ein zustimmendes Verhalten von Nutzern begünstigen. Eine experimentelle Online-Studie mit 494 Probanden zeigt, dass insbesondere eine hohe Unternehmensreputation und Organisationsidentifikation zu einem erhöhten zustimmenden Verhalten führen.
Menschen wünschen sich im Allgemeinen "Kontrolle" über ihre Umweltbedingungen. Dieses Bedürfnis kommt in Form von Selbstgestaltungen von Architektur und Selbstregulierungen von Stressoren zum Ausdruck. Aus diesem Grund wird das Konzept der Umweltkontrolle als zentrales Kriterium für gebaute Umwelten in allen drei Fall-Studien zu Schule (Waldorfschule Köln), Hochschule (Universität Koblenz) und Bürogebäude (Post Tower Bonn) angewendet. Im deutschen Sprachraum werden damit erstmalig in einer Monographie psychologische Untersuchungen von innovativen Gebäuden in Anlehnung an die International Building Performance Evaluation (Gebäudeleistungsevaluation) beschrieben. Der "Koblenzer Architekturfragebogen" wird als Instrument zur Beurteilung von gebauten Umwelten in drei Varianten vorgestellt. Bis zu 21 psychologische Kriterien für den Erfolg von Organisationen werden pro Studie angewandt. Ziel aller drei Studien ist unter anderem, Empfehlungen für Verbesserungen von Um- und Neubauten benennen zu können. Zwei zentrale Fragestellungen lauten daher: Unterscheidet sich in einer User-Needs Analysis eine Einschätzung des Gebäudes "zur Zeit" von der Beurteilung der "Wichtigkeit in Zukunft"? Haben Merkmale der Architektur Auswirkungen auf die Performance-Kriterien? Zu den Studien wurden drei Abbildungssätze nach dem Facettenansatz und zwei Schemata zur Beurteilung der Qualität von Schul- und Bürogebäuden entwickelt. Die in den drei Studien ermittelten Zusammenhänge der zentralen Performance-Kriterien lassen begründet annehmen, dass durch gezielte Verbesserungen wichtiger Umweltaspekte, insbesondere solcher, die Umweltkontrolle ermöglichen, das Wohlbefinden und somit die Leistung von Nutzern positiv beeinflusst werden können.
This Work analyzes if a hardware prototype on an Arduino basis for an Adhoc Network can be created. The objective of the prototype development is, the creation of a sensor node with a modular design, where components can be easily changed. Furthermore the application area has requirements, which the node must fulfill. These requirements are derived from the Tmote Sky sensor node, therefore the new created sensor node must be a possible alternative for it and fulfill the same functions. For that purpose this study reviews some available Arduino microprocessors on their suitability for a sensor node. Later in the work the composition of the sensor node is documented. For this, the hardware and their costs are illustrated. The created hardware prototype allows, through easily changed radio modules, the covering of 433 MHz, 866 MHz and 2,40 GHz radio frequencies. At the end of the work, the sensor node prototype is used in an experiment to check for the suitability for water monitoring. For this, an experiment was performed on land and on water and the results evaluated. In the end the prototype fulfilled most of the requirements, but the cost was a little too high.
Eine Ursache des Insektenrückgangs ist die Abnahme der für Arthropoden wichtigen Lebensräume. Der kleinstrukturierte Obstanbau als Dauerkultur mit vielfältigen Strukturen (Bäume, Grünland, offener Boden) kann als Refugium wirken. Gerade Dauerkulturen, welche über viele Jahre bestehen bleiben, können einen großen ökologischen Wert für Insekten und Spinnentiere darstellen, wenn die negativen Einflüsse der Bewirtschaftung durch gezielte Maßnahmen minimiert werden. Im Gegensatz zu den gut untersuchten Streuobstwiesen liegen bisher nur wenige oder ungenaue Daten über die Arthropodenfauna in Erwerbsobstanlagen vor. Ziele dieser Arbeit sind eine genauere Erfassung der Arthropodenfauna in Erwerbsobstanlagen, Benennung der Einflussfaktoren und Erarbeitung einer indikatorgestützten Bewertungsmethode mit Entwicklung von Maßnahmen zur Förderung der Biodiversität. Es wurde eine intensive Erfassung der Insekten und Spinnentiere auf Basis von Individuenzahlen, Verteilung der Tiere auf Großgruppen, Artenzahlen der Käfer (inkl. Rote Liste) und Wanzen, deren Diversität und der sie beeinflussenden Faktoren auf vier Erwerbsobstflächen und einer Streuobstwiese als Referenzfläche in der Gemeinde Zornheim (Rheinland-Pfalz) untersucht. Mittels des erarbeiteten Bewertungsbogens wurden die Auswirkungen der fünf Faktorenkomplexe: Sonderstrukturen, Anlagenstruktur, Beschattung, Mahdregime und Einsatz von Pflanzenschutzmitteln auf die Arthropodenfauna erhoben und die auf der Fläche zu erwartende Biodiversität ermittelt. Die visuelle Darstellung der Einflussfaktoren mit Netzdiagrammen zeigt biodiversitätsbeeinträchtigende Faktoren und ermöglicht so Empfehlungen zur Aufwertung der Biodiversität. Die Bewertungsmethode kann nach Verifizierung im Rahmen von erfolgsorientierten Agrarumwelt- und Klimamaßnahmen (AUKM), zur Anerkennung von Kompensationsmaßnahmen (z.B. PIK) und zur Ermittlung des ökologischen Wertes (Ökosystemdienstleistung) von Obstanlagen genutzt werden. In modifizierter Form könnte es ebenfalls im Bereich der Flächenbewertung in Landschafts- und Bauleitplanung eingesetzt werden.
Die nächste Generation des World Wide Web, das Semantic Web, erlaubt Benutzern, Unmengen an Informationen über die Grenzen von Webseiten und Anwendungen hinaus zu veröffentlichen und auszutauschen. Die Prinzipien von Linked Data beschreiben Konventionen, um diese Informationen maschinenlesbar zu veröffentlichen. Obwohl es sich aktuell meist um Linked Open Data handelt, deren Verbreitung nicht beschränkt, sondern explizit erwünscht ist, existieren viele Anwendungsfälle, in denen der Zugriff auf Linked Data in Resource Description Framework (RDF) Repositories regelbar sein soll. Bisher existieren lediglich Ansätze für die Lösung dieser Problemstellung, weshalb die Veröffentlichung von vertraulichen Inhalten mittels Linked Data bisher nicht möglich war.
Aktuell können schützenswerte Informationen nur mit Hilfe eines externen Betreibers kontrolliert veröffentlicht werden. Dabei werden alle Daten auf dessen System abgelegt und verwaltet. Für einen wirksamen Schutz sind weitere Zugriffsrichtlinien, Authentifizierung von Nutzern sowie eine sichere Datenablage notwendig.
Beispiele für ein solches Szenario finden sich bei den sozialen Netzwerken wie Facebook oder StudiVZ. Die Authentifizierung aller Nutzer findet über eine zentrale Webseite statt. Anschließend kann beispielsweise über eine Administrationsseite der Zugriff auf Informationen für bestimmte Nutzergruppen definiert werden. Trotz der aufgezeigten Schutzmechanismen hat der Betreiber selbst immer Zugriff auf die Daten und Inhalte aller Nutzer.
Dieser Zustand ist nicht zufriedenstellend.
Die Idee des Semantic Webs stellt einen alternativen Ansatz zur Verfügung. Der Nutzer legt seine Daten an einer von ihm kontrollierten Stelle ab, beispielsweise auf seinem privaten Server. Im Gegensatz zum zuvor vorgestellten Szenario ist somit jeder Nutzer selbst für Kontrollmechanismen wie Authentifizierung und Zugriffsrichtlinien verantwortlich.
Innerhalb der vorliegenden Arbeit wird ein Framework konzeptioniert und entworfen, welches es mit Hilfe von Regeln erlaubt, den Zugriff auf RDF-Repositories zu beschränken. In Kapitel 2 werden zunächst die bereits existierenden Ansätze für die Zugriffssteuerung vertraulicher Daten im Sematic Web vorgestellt. Des Weiteren werden in Kapitel 3 grundlegende Mechanismen und Techniken erläutert, welche in dieser Arbeit Verwendung finden. In Kapitel 4 wird die Problemstellung konkretisiert und anhand eines Beispielszenarios analysiert.
Nachdem Anforderungen und Ansprüche erhoben sind, werden in Kapitel 6 verschiedene Lösungsansätze, eine erste Implementierung und ein Prototyp vorgestellt. Abschließend werden die Ergebnisse der Arbeit und die resultierenden Ausblicke in Kapitel 7 zusammengefasst.
Aspect-orientation in PHP
(2012)
Diese Diplomarbeit hat das Thema der fehlenden Cross-Cutting-Concerns(CCCs)-Unterstützung in PHP zum Inhalt. Die Basis bilden zu definierende Anforderungen an eine AOP-Realisierung im PHP-Umfeld. Es wird analysiert, wie und ob verwandte Sprachen und Paradigmen es gestatten, CCCs zu unterstützen. Darüber hinaus wird die Möglichkeit erörtert, AOP in PHP ohne PHP-Erweiterung zu realisieren. Weiter werden die bisherigen Ansätze, AOP in PHP umzusetzen, qualitativ untersucht. Die vorliegende Arbeit zielt darauf ab, eine eigene AOP-PHP-Lösung zu präsentieren, die nicht die Schwächen existierender Lösungen teilt.
Globale Beleuchtungssimulationen versuchen die physikalischen Eigenschaften von Licht und dessen Ausbreitung möglichst korrekt zu berechnen. Dabei werden diese üblicherweise im dreidimensionalen Objektraum berechnet und sind deshalb sehr rechenintensiv und von der Anzahl der Polygone der Szene abhängig. Objektraum-basierte Verfahren ermöglichen durch komlexe Berechnungen allerdings auch gute Annährungen physikalisch korrekter Beleuchtungen. Die Beleuchtungsberechnung in den Bildraum zu verlagern hat aber den großen Vorteil, dass die Berechnung hier unabhängig von der Größe und Komplexität der Szene durchführbar ist. Einzig die Auflösung entscheidet über den Rechenaufwand. Dieser Geschwindigkeitsvorteil beinhaltet jedoch einen Kompromiss was die physikalische Korrektheit der Beleuchtungssimulation angeht. Bei bisherigen Bildraum-Verfahren war es nicht möglich, für die Kamera nicht sichtbare Teile der Szene und deren Beleuchtungsinformationen, in die Berechnung mit einzubeziehen. Dies erscheint logisch, da über Geometrie die aus Sicht der Kamera nicht eingefangen wurde, im Bildraum zunächst keinerlei Informationen zur Verfügung stehen. Ein bekanntes Beispiel zur Annährung einer globalen Beleuchtung im Bildraum ist das Verfahren "Screen Space Ambient Occlusion". Dieses liefert zwar sehr gut Selbstverschattungen und wirkt dadurch realitätsnah, erzeugt aber keinen korrekten Lichtaustausch. Da die Beleuchtung von dem Inhalt des aktuellen Bildausschnitts abhängig ist, entstehen visuelle Artefakte, die vor allem bei Kamerabewegungen störend auffallen. Ziel der Studienarbeit ist es daher diese Artefakte durch die Verwendungen von Textur-Atlanten zu vermeiden. Dies wird durch eine Bildraum-basierte Beleuchtungssimulation ermöglicht, die die gesamte Szene zur Berechnung der Beleuchtung miteinbezieht und nicht nur die Sicht der Kamera. Dabei wird in einem Textur-Atlas die gesamte Szene gespeichert.
Die Arbeit befasst sich mit atlasbasierter Segmentierung von CT-Datensätzen mit Hilfe von elastischen Registrierungsmethoden. Ziel ist die vollautomatische Segmentierung eines beliebigen Eingabedatensatzes durch Registrierung mit einem vorsegmentierten Referenzdatensatz, dem Atlanten. Ein besonderes Augenmerk liegt dabei auf der Implementierung und Evaluation elastischer Registrierungsverfahren, da rigide Registrierungsmethoden besonders in Bereichen hoher anatomischer Varianzen keine genaue Segmentierung gewährleisten. Im Vordergrund steht zunächst die Generierung zweier Atlanten, die als durchschnittliche Referenzdatensätze Informationen über die anatomische Varianz männlicher und weiblicher Bevölkerungsgruppen enthalten. Weiter werden vier etablierte elastische Registrierungsarten implementiert und im Hinblick auf eine atlasbasierte Segmentierung der wichtigen Organe des menschlichen Torsos evaluiert: BSpline-Registrierung, Demons-Registrierung, Level-Set-Motion-Registrierung und FEM-Registrierung. Robustheit und Genauigkeit der implementierten Verfahren wurden anhand von Lungen- und Abdomendatensätzen sowohl intra- als auch interpatientenspezifisch ausgewertet. Es wird gezeigt, dass vor allem die elastische BSpline-Registrierung hier genauere Segmentierungsergebnisse liefern kann, als es mit einer rigiden Registrierung möglich ist.
Auditorischer Neglekt und auditorische Extinktion bei Patienten mit visuell-räumlichem Neglekt
(2008)
In der vorliegenden Arbeit wurden auditorische Vernachlässigungen (auditorische Extinktion und auditorischer Neglekt) bei Patienten mit visuell-räumlichem Neglekt untersucht. Neben diesen Patienten mit rechtshemisphärischer Hirnschädigung wurde eine hinsichtlich des Alters kontrollierte Vergleichsgruppe untersucht. Als Verfahren zur Untersuchung des auditorischen Neglekts und der auditorischen Extinktion wurden drei aus der Literatur adaptierte experimentelle Verfahren eingesetzt, in denen sowohl alltagsnahe (Zahlenwörter, Alltagsgeräusche) als auch alltagsferne (Rauschen) akustische Reize monaural und binaural präsentiert wurden. In einem der Verfahren wurde ein monaural und binaural präsentiertes Rauschen durch den Stimulus unterbrochen. Über alle Untersuchungsbedingungen hinweg wiesen die Patienten im Vergleich zu der Kontrollgruppe in den untersuchten Bereichen deutlich schlechtere Leistungen auf. Unter monauralen Untersuchungsbedingungen machten die Patienten unabhängig vom präsentierten Stimulusmaterial wenig Fehler mit einer tendenziellen Abhängigkeit der Performanz von der Präsentationsseite, wobei rechtsseitig präsentierte Reize besser erkannt wurden. Monaurale Reizdetektion bei gleichzeitiger Präsenz eines kontinuierlichen Hintergrundgeräusches führt darüber hinaus zu einer deutlich schlechteren kontraläsionalen Detektionsleistung sowie zu einer Abhängigkeit der Detektionsleistung von der Art des Stimulusmaterials. Diese Ergebnisse liefern einen Hinweis auf eine grundsätzliche Beeinträchtigung der kontraläsionalen Diskriminationsfähigkeit in der untersuchten Patientengruppe, welche in der vorliegenden Studie als kritisches Merkmal des auditorischen Neglekts angesehen werden. Bei der binauralen Stimuluspräsentation zeigte sich, dass identische, simultan an beiden Ohren präsentierte akustische Reize von den Patienten kaum ihren getrennten Ursprungsorten zugeschrieben werden können. Die Patienten identifizierten diese Reize häufig als monaural, was charakteristisch für das Störungsbild der Extinktion ist, und zeigten eine Tendenz, diese Reize dem rechten, auf der Seite der Hirnschädigung gelegenen, Ohr zuzuschreiben. Unter dichotischen Präsentationsbedingungen, das heißt bei simultaner Darbietung von zwei ungleichen akustischen Reizen, steigert sich dagegen die Lokalisations- und Identifikationsleistung der Patienten signifikant. Zusätzlich zeigte sich unter dichotischen Untersuchungsbedingungen eine deutliche Asymmetrie der Extinktionsseite, mit einer signifikant häufigeren Extinktion linksseitiger im Vergleich zu rechtsseitigen Reizen. Insgesamt zeigt sich eine Abhängigkeit der Testergebnisse von den spezifischen Bedingungen der Reizpräsentation und dem Alltagsrelevanz des Stimulusmaterials. Die Ergebnisse zeigen, dass nahezu alle untersuchten Patienten mit visuell-räumlichem Neglekt auch von Vernachlässigungsphänomenen in der auditorischen Modalität betroffen sind. Allerdings konnte kein genereller Zusammenhang der Schweregrade der Symptome in der auditorischen und visuellen Modalität nachgewiesen werden. Während sich ein Zusammenhang hinsichtlich der Schwere der Beeinträchtigung für den auditorischen Neglekt zeigte, ließ sich diese Assoziation für die auditorische Extinktion nicht nachweisen. Auf Grundlage der vergleichenden Analyse der untersuchten experimentellen Testverfahren zur auditorischen Vernachlässigung wird vorgeschlagen, dass Neglekt und Extinktion auch in der auditorischen Domäne als sinnvolle Störungsbilder beibehalten sollten und ihre Unterscheidung in Analogie zur visuellen Modalität vorgenommen werden kann. Die vorliegenden Ergebnisse unterstreichen die Notwendigkeit des Einsatzes experimentell-neuropsychologischer Aufgaben in der klinischen Praxis um räumlichattentionale Beeinträchtigungen in der akustischen Reizverarbeitung nach einer Hirnschädigung erfassen zu können. Es wird eine Testbatterie bestehend aus einem auditorischen Extinktionstest " mit simultaner Darbietung von identischen und unterschiedlichen binauralen Stimuli " sowie einem Neglekttest vorgeschlagen, bei dem unterschiedliche Zielreize in der Gegenwart eines kontinuierlichen binauralen Hintergrundrauschens detektiert werden müssen.
Ziel dieser Diplomarbeit ist es, katadioptrische Stereosysteme aufzubauen und zu testen. Hierfür gilt es, die Komponenten auszuwählen und zu beschaffen. Es soll ein System mit einem Planspiegel und eines mit einem gekrümmten Spiegel aufgebaut werden. Die Vorgehensweise in beiden Fällen unterscheidet sich jedoch deutlich voneinander. Das Planspiegel-System wird unter den Vorraussetzungen angefertigt, dass es möglichst kostengünstig ist und bietet sich vor allem deshalb für eine solches Vorgehen an, da es mit handelsüblichen Komponenten realisierbar ist. Die Verwendung dieser Komponenten bringt allerdings Einschränkungen in der Bildqualität mit sich. Hinzu kommt noch die Tatsache, dass es sich um eine Computational Camera mit geringer Komplexität handelt, da es direkt rektifizierte Ergebnisse liefert und aufgrund dessen leicht zu implementieren ist. Diese Kombination von Eigenschaften macht es zu einem geeigneten Kandidaten für eine solche Herangehensweise. Das radiale System wird hingegen unter der Prämisse maximaler Qualität gebaut. Der verwendete Spiegel ist eine Einzelanfertigung und zusätzlich wird ein zirkuläres Fisheye-Objektiv benötigt, was die Kosten für ein solches System relativ hoch werden lässt. Des Weiteren ist die Dekodierung der Rohaufnahmen deutlich komplexer, als bei den bereits rektifizierten Aufnahmen des Planspiegel-Systems. Nach erfolgreichem Aufbau der beiden Gesamtsysteme sollen diese unter qualitativen Aspekten miteinander verglichen werden.
A Kinect device has the ability to record color and depth images simultaneously. This thesis is an attempt to use the depth image to manipulate lighting information and material properties in the color image. The presented method of lighting and material manipulation needs a light simulation of the lighting conditions at the time of recording the image. It is used to transform information from a new light simulation directly back into the color image. Since the simulations are performed on a three-dimensional model, a way is searched to generate a model out of single depth image. At the same time the text will react to the problems of the depth data acquisition of the Kinect sensor. An editor is designed to make lighting and material manipulations possible. To generate a light simulation, some simple, real-time capable rendering methods and lighting modells are proposed. They are used to insert new illumination, shadows and reflections into the scene. Simple environments with well defined lighting conditions are manipulated in experiments to show boundaries and possibilities of the device and the techniques being used.
This bachelor thesis deals with the development of an application for the Microsoft HoloLens. The application is used for the marketing of advertis- ing spaces that belongs to the company awk AUSSENWERBUNG GmbH. On basis of the development, the question is answered which are the pos- sibilities and limitations of the HoloLens and the Mixed Reality Platform. Problems are also addressed, that come along with the development of an application for such a new technology, like the HoloLens is. Beside the new technologies, some challenges come also from the applications oper- ational locations. Several application examples and presentations suggest, that the HoloLens is primarily designed for indoor usage. Instead the de- veloped application is for outdoor use only. During the development, sev- eral insights can be gained about this new technology. On the one hand it becomes clear, that the HoloLens and also the development environment aren’t completely matured yet. On the other hand, that the HoloLens isn’t an outdoor device at all. Despite the difficulties during the development, there occur many possibilities that are associated with this new technology.
Ziel dieser Studienarbeit ist es, eine vorhandene video-see-through Augmented Reality Visualisierung (ARToolKit) anhand von Shaderprogrammierung mit der OpenGL Shading Language um nicht-photorealistische Renderingverfahren zu ergänzen. Dabei sollen nicht nur die virtuellen Objekte mit diesen Verfahren dargestellt, sondern auch die realen vom ARSystem gelieferten Bilder analog stilisiert werden, sodass die Unterscheidbarkeit zwischen Realität und Virtualität abnimmt.
Diese Studienarbeit beschäftigt sich mit der Entwicklung einer Extension für Mozilla Thunderbird, welche direkt in den Text einer Email eingebettete strukturierte Informationen (wie z.B. Termine, Kontaktdaten) automatisch erkennt und es dem Benutzer ermöglicht, diese in weiteren Anwendungen weiter zu verwenden. Es werden Überlegungen zur Usability und möglichen weiteren Entwicklungen vorgestellt, sowie der Code des Prototyp genauer aufgezeigt.
Auf eine bestehende Erhebung der Gesellschaft für Qualität in der Außerklinischen Geburtshilfe QUAG e.V. wurden moderne statistische Verfahren, insbesondere Faktorenanalyse und Mann-Whitney-U-Test angewendet. Es wurden hierzu die von den Hebammen ausgefüllten Perinatalbögen von 17269 Erstgebärenden aus dem Zeitraum 1999 bis 2004 ausgewertet. Der Mann-Whitney-U-Test wurde für die metrischen Variablen "Alter bei Geburt" und Hebammen-Erstkontakt angewendet. Unter anderem konnte gezeigt werden, dass Frauen mit besonderen sozialen Belastungen erst spät den Kontakt zur Hebamme suchen. Die Faktorenanalyse ergab sehr gut bekannte, aber auch neue Zusammenhänge, was auf die Stärke dieses Verfahrens schließen lässt. Eine kurze geburtshilfliche und/oder medizinische Erklärung wurde, sofern möglich, erstellt und recherchiert. Es ist jedoch weitere Erforschung und medizinische Beurteilung der Einzelergebnisse notwendig.
Die Diskussion zum Thema Mindestlohn ist ein stets aktuelles und findet zur Jahreswende 2011/2012, in der diese Arbeit entstanden ist, von der Politik und Wirtschaft besonders viel Aufmerksamkeit. Die Aktualität dieses Themas und ihre Dynamik werden besonders darin bemerkbar, dass bei der Untersuchung der deutschen Literatur zu diesem Thema viele der Aussagen und Thesen nicht mehr zutreffen. Das eingangs aufgeführte Zitat von der amtierenden Bundesministerin für Arbeit und Soziales, Ursula von der Leyen, bringt zum Ausdruck, dass mittlerweile in der Politik ein Konsens darüber existiert, dass vollzeitbeschäftigte Arbeitnehmer in der Lage sein müssen, ihren Lebensunterhalt aus ihrem Einkommen zu sichern. Dies stellt für die christlich-demokratische Regierungspartei einen Dogmenwechsel dar. Während die CDU in den letzten Jahrzehnten auf die Tarifbindung gesetzt und einen Mindestlohn kategorisch abgelehnt hat, geht sie nun dazu über, Lohnuntergrenzen für alle Branchen zum Ziel ihrer Regierungsarbeit zu machen. Dies ist in starkem Maße darauf zurückzuführen, dass auf dem Arbeitsmarkt in den letzten Jahren die Lohnspreizung, die traditionell in Deutschland niedrig war, eine stark divergente Entwicklung genommen hat.
Ein weiterer Grund ist die abnehmende Rolle der Tarifbindung der letzten Jahre. Die Folge dieser Entwicklungen ist, dass 1,2 Millionen Menschen, somit vier Prozent der Beschäftigten, für Löhne unter fünf Euro. Weitere 2,2 Millionen Menschen arbeiten für Stundenlöhne unter sechs Euro, 3,7 Millionen Menschen verdienen unter sieben Euro und 5,1 Millionen Menschen arbeiten für Löhne unter acht Die Frage inwieweit ein Leben in Würde unter diesen Voraussetzungen möglich ist, beschäftigt große Teile der Gesellschaft. Denn damit sind das Volumen und die Lohnhöhe des Niedriglohnsektors auf ein Niveau gesunken, welche gesellschaftlich und politisch nicht mehr einfach zu vertreten sind. Zur Abwendung dieser Entwicklung wird das wirtschaftspolitische Instrument Mindestlohn, als probates Mittel, häufig in die Diskussion gebracht. So haben in der Vergangenheit viele Staaten den Mindestlohn auf unterschiedliche Art eingesetzt. Die Einführung eines flächendeckenden Mindestlohns in der Bundesrepublik wird vor allem mit den folgenden Zielen befürwortet.
Der Mindestlohn soll zum einen gewährleisten, dass Vollzeitbeschäftigte ein Einkommen erzielen, dass mindestens ihrem soziokulturellen Existenzminimum entspricht. Andererseits soll die Einführung des Mindestlohns die Notwendigkeit des Aufstockens mit dem Arbeitslosengeld II hemmen und somit die öffentlichen Kassen entlasten. Die Gegner des Mindestlohns lehnen die Einführung eines flächendeckenden allgemeinverbindlichen Mindestlohns, vor allem aufgrund arbeitsmarkttheoretischer Überlegungen, kategorisch ab. Diese vertreten die Ansicht, dass die Mechanismen des Arbeitsmarktes eine selbstregulierende Wirkung besitzen und ergänzt um die Tarifautonomie ausreichend geregelt sind. Eine drohende Vernichtung bestehender Arbeitsplätze und eine ausbleibende Schaffung neuer Arbeitsplätze werden als Folge der Einführung von Mindestlohn weiterhin argumentiert.
Hinzu kommt, dass in der Theorie je nach Denkschule und Position eine entgegengesetzte Auswirkung auf den Arbeitsmarkt prognostiziert werden kann. Vor dem Hintergrund der aktuellen Debatte untersucht die vorliegende Arbeit die Auswirkung der Einführung eines Mindestlohns. Um eine objektive Wertung für die vorliegende Problemstellung zu finden, wird mit Hilfe von Netlogo die computergestützte agentenbasierte Simulation benutzt. Anhand eines fiktiven Marktes mit fiktiven Akteuren/"Agenten" wird der Versuch unternommen, eine modellhafte Darstellung des Arbeitsmarktes abzubilden. Insbesondere soll untersucht werden, inwieweit die Einführung eines Mindestlohns, branchenspezifisch oder flächendeckend, den Beschäftigungsgrad und die Höhe der Löhne beeinflusst.
Auswirkungen des Zweiten Weltkrieges auf Psychopathologie und Therapie bei psychischen Erkrankungen
(2009)
In der vorliegenden Arbeit wurden die Auswirkungen des Zweiten Weltkrieges auf die Psychopathologien und Therapien psychischer Erkrankungen am Beispiel der Heil- und Pflegeanstalt Klingenmünster aufgezeigt. Als Quellenmaterial dienten 186 Patientenakten. Die Auswertung der Krankenberichte erfolgte zum einen nach soziodemographischen Merkmalen (wie z.B. Alter, Geschlecht, Wohnort, Beruf usw.), zum anderen nach Diagnose und Therapie. Der Schwerpunkt wurde auf die Auswertung der Diagnosen und die damit verbundenen Psychopathologien gelegt. Dafür wurden die Akten vor dem Zweiten Weltkrieg (1932) und nach dem Zweiten Weltkrieg (1948) miteinander verglichen. Dabei erhob sich auch die Frage, ob die Behandlung, die den Patienten in Klingenmünster zuteil wurde, dem Stand der zeitgenössischen Wissenschaft entsprach. Bei den Diagnosen gab es Unterschiede dergestalt, dass 1932 die Diagnose Progressive Paralyse und Schizophrenie signifikant häufiger gestellt wurde als 1948. Nach dem Zweiten Weltkrieg wurde dafür der angeborene Schwachsinnszustand und die Psychische Störung des höheren Lebensalters signifikant häufiger diagnostiziert. Die Progressive Paralyse trat 1948 wahrscheinlich deshalb seltener auf, weil in den 30er Jahren mit der wirksamen Malariakur und Salvarsantherapie eine recht hohe Remissionsrate erzielt wurde und sie deshalb Ende der 40er Jahre allgemein seltener auftrat. 1948 wurden Patienten mit Schizophrenie seltener aufgenommen als 1932. Es ist denkbar, dass der Anteil der Schizophrenen aufgrund der bereits 1933 laufenden rassenhygienischen Maßnahmen sowie der frühen Deportation und Tötung dieser Patienten abgesunken sein könnte. Patienten mit der Diagnose einer Störung des höheren Lebensalters fielen der Euthanasie wahrscheinlich nicht zum Opfer, da sie ihr Leben lang dem Gemeinwesen genutzt hatten und nicht erbkrank waren. Die Ermordung von "sozial Wertvollen", jetzt jedoch alt gewordenen Menschen wäre auf großen öffentlichen Widerstand gestoßen. Für diese Menschen gab es keinen anderen Ort mehr, denn die Pflege- oder Altenheime waren ausgebombt. Die Versorgung der alten und hinfälligen Menschen wurde im ganzen Land immer schwieriger. Diese Entwicklung der letzten Kriegsjahre und Nachkriegsjahre in Deutschland könnte eine Erklärung dafür sein, dass diese Patienten die größte Patientengruppe 1948 in Klingenmünster bildeten. Das galt sicherlich nicht für Patienten mit angeborenem Schwachsinn, die als erbkrank galten und somit den rassenhygienischen Maßnahmen zum Opfer fielen. In den 40-er Jahren war auch die Öffentlichkeit so weitgehend über die mit einem Klinikaufenthalt verbundene Gefahr der Tötung informiert, dass weniger Patienten einer stationären Behandlung zugeführt worden sein dürften. Diese Patienten wurden während des Krieges wahrscheinlich von ihren Angehörigen nicht in eine Anstalt gebracht. Ziel der vorliegenden Arbeit war es auch zu klären, ob der Zweite Weltkrieg Auswirkungen auf psychiatrische Krankheitsbilder im Sinne einer Kriegsneurose hatte. Es zeigte sich, dass der Zweite Weltkrieg keine Auswirkungen auf die Prävalenz des Krankheitsbildes Kriegsneurose in der Heil- und Pflegeanstalt Klingenmünster hatte. Neben den Krankheitsbildern und den Psychopathologien wurden auch die Therapieformen der beiden Jahrgänge miteinander verglichen. Aber auch hier gab es keine kriegsbedingten Unterschiede. Betrachtet man die Therapieformen zur Zeit der Weimarer Republik und der Nachkriegszeit vor dem Hintergrund der gängigen Therapien zu dieser Zeit, so war Klingenmünster auf dem aktuellen wissenschaftlichen Stand. Die am häufigsten eingesetzten Behandlungsmethoden waren zum einen die Arbeitstherapie, zum anderen die medikamentöse Therapie. Der Rückgang der Arbeitstherapie von 1932 auf 1948 könnte mit dem Personalmangel in den Nachkriegsjahren in den Kliniken zu tun haben, wonach unzureichend qualifiziertes Pflegepersonal vorhanden war, die die Kranken bei der Arbeit anleiten und beaufsichtigen konnten. Die medikamentöse Therapie war die führende Therapieform, die in der Heil- und Pflegeanstalt Klingenmünster eingesetzt wurde. Zwischen den beiden Jahrgängen gab es hinsichtlich der Häufigkeit keine Unterschiede. Doch die Art der Therapie hatte sich im Verlauf der Jahre durch die Einführung der Insulinkomatherapie 1933, der Cardiazolkrampftherapie 1934 und der Elektrokrampftherapie 1938 verändert.
Auswirkungen verschiedener Werbeformen im Internet auf Einstellung, Erinnerung und Kaufabsicht
(2009)
The present bachelor- thesis studies the influence of three online advertisements (banner, streaming ad and interstitial) on attitude, recall and purchase intention with an experiment. It has an introduction to online advertising and the examined advertisements as well as a review of the three theoretical main focuses of analyzes. The experiment was organized within an online questionnaire. 358 test persons participated. The collected data was verified on differences by correlation matrix and analysis of variance.
Das übergeordnete Ziel der vorliegenden Arbeit ist die Verbesserung von Lehren und Lernen im Physikunterricht. Damit fügt sie sich in den Bereich physikdidaktischer Forschung ein, die eine forschungsbasierte Entwicklung und Evaluation von Unterricht zum Gegenstand hat, sich also auf die empirische Lehr-Lern-Forschung konzentriert. Die Motivation dazu basiert dabei auf drei in der aktuellen physikdidaktischen Diskussion prioritären Defiziten: Die mangelnde Fähigkeit deutscher Lernender zur Anwendung ihres physikalischen Wissens in neuen Kontexten, die Realitätsferne der Aufgaben und Inhalte des deutschen Physikunterrichts sowie die unzureichende Einbindung der auf diesen Erkenntnissen basierenden Konzepte in den Physikunterricht. Diese Defizite stellen die physikdidaktische Forschung vor drei grundlegende Aufgaben: Initiierung stärker schüler- und anwendungsorientierter Lehr-Lernprozesse, Hervorhebung der Bedeutung einer neuen "Aufgabenkultur" im Rahmen authentischer Problemstellungen sowie Entwicklung von Konzepten zur nachhaltigen Implementation neuer Erkenntnisse in den Physikunterricht. Der Anspruch dieser Arbeit ist die Reduktion der analysierten Defizite. Dazu erfolgt die Ausrichtung auf drei Ziele hin: Die theoriegeleitete Entwicklung praktikabler und flexibler Lernmedien im Rahmen aufgabenorientierter Lernumgebungen, die Implementation und detaillierte empirische Untersuchung des entwickelten Ansatzes sowie die Bildung einer "Learning Community" zur Unterrichtsentwicklung. Dazu wird basierend auf dem instruktionspsychologischen "Anchored Instruction"-Ansatz theoriegeleitet das Konzept einer Modifizierten "Anchored Instruction" (MAI) entwickelt. Dieses greift die Vorzüge der originären Rahmentheorie auf und behebt zudem die damit verbundenen Probleme durch die Umsetzung von drei Leitlinien: "Praktikabilität", "Flexibilität" und "empirische Forschung". Dies wird hier durch die Entwicklung und theoretische Einbettung von "Zeitungsaufgaben" als authentisch wirkendes Lernmedium zur Verankerung des Wissens an realitätsnahen Lerngegenständen verdeutlicht. Die Effektivität der Implementation von "Zeitungsaufgaben" als Lernmedium im Physikunterricht im Sinne des MAI-Ansatzes bildet dabei den ersten Untersuchungsschwerpunkt. Es wird Breitenwirkung und Robustheit des Ansatzes hinsichtlich Lerneffekt und Motivation im Rahmen einer Interventionsstudie mit 911 Lernenden, 15 Lehrkräften und in insgesamt 39 Schulklassen an zehn verschiedenen Schulen untersucht. Die durch Mehrebenenanalysen erhaltenen Ergebnisse zeigen, dass "Zeitungsaufgaben" themenübergreifend zu größerer Motivation und Leistungsfähigkeit der Lernenden führen als "traditionelle" Aufgaben und dass diese Überlegenheit zudem auch wenigstens mittelfristig Bestand hat (Motivation: p < 0.001; Cohens d = 0.87; Leistung: p < 0.001; Cohens d = 1.13). Zudem wurden vielfache Einflüsse von Moderatorvariablen auf die Motivations- und Lerneffekte geprüft (Lehrkraftmerkmale, Geschlecht, Thema, Schulart, Physik-Vorleistung, Intelligenz und Textverständnis). Es zeigt sich, dass die positive Wirkung von "Zeitungsaufgaben" auf die Motivation der Lernenden weitgehend unempfindlich gegenüber diesen Einflussfaktoren ist. Hingegen wird die Lernleistung neben der großen, positiven Wirkung von "Zeitungsaufgaben" zudem noch durch die Physik-Vorleistung sowie durch die Ausprägung des Interesses der Lehrkräfte am Unterrichten von Physik beeinflusst, und zwar in praktisch bedeutsamen Ausmaß. Neben Breitenwirkung und Robustheit des MAI-Ansatzes stellt dessen Optimierung im Rahmen einer Interventionsstudie den zweiten Untersuchungsschwerpunkt dar. Diese Detailuntersuchung resultiert aus dem Zusammenhang zwischen Authentizität und Komplexität einerseits und kognitiver Belastung andererseits. Bezogen auf das MAI-Lernmedium " Zeitungsaufgabe" steht dabei die Optimierung des Instruktionstextes " also des Zeitungsartikels " im Zentrum der Untersuchung. Es wird nachgewiesen, dass "Zeitungsaufgaben" mit mittelschweren Zeitungsartikeln sowohl Motivation als auch Lernleistung besser fördern als "Zeitungsaufgaben" mit leichten oder schweren Zeitungsartikeln. Dagegen sind Motivation und Leistung bei der Arbeit mit "traditionellen Aufgaben" umso geringer je schwieriger der Aufgabentext ist. Zudem wird im Rahmen von Pfadanalysen ein Wirkgefüge modelliert, das kausale Zusammenhänge zwischen verschiedenen Variablen darstellt, die die positive Wirkung von "Zeitungsaufgaben" auf Motivation und Leistungsfähigkeit beeinflussen. Dieses Kausalmodell verdeutlicht, dass die positive Wirkung von "Zeitungsaufgaben" am stärksten davon abhängt, wie stark die laut Theorie für ein MAI-Lernmedium erforderlichen Merkmale auch tatsächlich von den Lernenden als solche wahrgenommen werden (Motivation: p < 0.001; b = 0.40; Leistung: p < 0.001; b = 0.30). Ein Konzept zur Einbindung der auf Erkenntnissen der Lehr-Lern-Forschung basierenden Maßnahmen in den Physikunterricht stellt den Abschluss dieser Arbeit dar.
Augmented Reality (AR) is getting more and more popular. To augment information into the field of vision of the user using HMDs, e.g. front shields of a car, glasses, displays of a smartphone or tablets are the main use of AR technology. It is necessary to get the position and orientation (pose) of the camera in space to augment correctly.
Nowadays, this is solved with artificial markers. These known markers are placed in the room and the system is taught to this set up. The next step is to get rid of these artificial markers. If we are calculating the pose without such markers we are talking about marker-less tracking. Instead of artificial markers we will use natural objects in the real world as reference points to calculate the pose. Thus, this approach can be used flexibly and dynamically. We are no longer dependent on artificial markers but we need much more knowledge about the scenery to find the pose. This is compensated by technical actions and/or the user himself. However, both solutions are neither comfortable nor efficient for the usage of such a system. This is why marker-less 3D tracking is still a big field of research.
This sets the starting point for the bachelor thesis. In this thesis an approach is proposed that needs only a quantity of 2D Feature from a given camera image and a quantity of 3D Feature of an object to find the initial Pose. With this approach, we got rid of the technical and user assistance. 2D and 3D Features can be detected in any way you like.
The main idea of this approach is to build six correspondences between these quantities. With those we are able to estimate the pose. Each 3D Feature is mapped with the estimated pose onto image coordinates, whereby the estimated pose can be evaluated. Each distance is measured between the mapped 3D Feature and the associated 2D Feature. Each correspondency is evaluated and the results are summed up to evaluate the whole pose. The lower this summed up value is, the better the pose. It has been shown to have a correct pose with a value around ten pixels.
Due to lots of possibilities to build six correspondences between the quantities, it is necessary to optimize the building process. For the optimization we will use a genetic algorithm.
During the test case the system worked quite reliably. The hit rate was around 90% with a runtime of approximately twelve minutes. Without optimization it can take easily some years.
Usability experts conduct user studies to identify existing usability problems. An established method is to record gaze behavior with an eye-tracker. These studies require a lot of effort to evaluate the results. Automated recognition of good and bad usability in recorded user data can support usability experts in eye tracking evaluation and reduce the effort. The objective of that bachelor thesis is to identify suitable eye-tracking metrics that correlate with the quality of usability. For this purpose, the central research question is answered: Which eye-tracking metrics correlate with the quality of a web form’s operation? To answer the research question, a quantitative A/B-user-study with eye-tracking was conducted and recorded the
gaze behavior of 30 subjects while filling out the web form. The web form was designed, that each web form page was available as a good and bad variant according to known usability guidelines. The results confirm a significant correlation between the eye-tracking-metric "number of visits to an
AOI" and the quality of the operation of a web form. The eye-tracking-metrics
"number of fixations within an AOI" and "duration of fixations within an AOI" also correlate with the quality of usability. No correlation could be confirmed for the "time of the first fixation within an AOI".
The cytological examination of bone marrow serves as clarification of variations in blood smears. It is also used for the clarification of anemia, as exclusion of bone marrow affection at lymphoma and at suspicion of leukemia. The morphological evaluation of hematopoietic cells is the basis for the creation of the diagnosis and for decision support for further diagnostics. Even for experienced hematologists the manual classification of hematopoietic cells is time-consuming, error-prone and subjective. For this reason new methods in the field of image processing and pattern recognition for the automatic classification including preprocessing steps are developed for a computer-assisted microscopy system. These methods are evaluated by means of a huge reference database. The proposed image analysis procedures comprise methods for the automated detection of smears, for the determination of relevant regions, for the localization and segmentation of single hematopoietic cells as well as for the feature extraction and classification task. These methods provide the basis for the first system for the automated, morphological analysis of bone marrow aspirates for leukemia diagnosis and are therefore a major contribution for a better and more efficient patient care in the future.
In Enhanced Reality Umgebungen nimmt der Betrachter die Umgebung und zusätzliche, in eine halbdurchsichtige Datenbrille eingeblendete Informationen wahr. Das Kalibrierungsproblem der Datenbrille ist die Aufgabe, die eingeblendete Information mit dem korrekten realen Hintergrund zur Deckung zu bringen. Heutige Datenbrillen sind vergleichsweise klobig und schwer, deshalb kommt es häufig zu leichtem Verrutschen der Brille. Wird dieses Verrutschen nicht in die Position der Einblendung in der Brille einbezogen, so passt die Einblendung nicht mehr zum realen Hintergrund. Dies wird in Abbildung 1.1 exemplarisch dargestellt. Nach initialer Kalibrierung der teildurchsichtigen Datenbrille auf das Auge des Betrachters soll deshalb bei relativer Lageveränderung der Datenbrille zum Auge (durch leichtes Verrutschen) eine Re-Kalibrierung in Echtzeit automatisch erfolgen. Eine automatische Re-Kalibrierung bei Verrutschen wird von uns erstmalig erforscht.
Im Rahmen der Glaukomdiagnostik sind Größe und Position des Sehnervkopfes wichtige Parameter zur Klassifikation des Auges. Das Finden und exakte Markieren der Papille ist ein subjektiver Vorgang und kann von Arzt zu Arzt stark variieren. Ziel der Arbeit ist die Entwicklung eines automatischen Verfahrens zur Detektion der Papille. Zunächst wird der medizinische Hintergrund erläutert (Aufbau des Auges, Glaukom) und das bildgebende Verfahren, der Heidelberg Retina Tomograph, dargestellt. Nach einer Diskussion bisheriger Ansätze zur Detektion der Papille wird ein eigenes Verfahren entwickelt und detailliert beschrieben. Für bei der Implementation aufgetretene Probleme werden Ansätze zur Optimierung vorgeschlagen.
Automatische und manuelle Informationszusammenstellung in der Nachbearbeitung von Reality Szenarien
(2007)
Als thematische Fortsetzung der beiden vorangegangenen Diplomarbeiten "Abstrakte Interaktionskonzepte in Erweiterten Realitäten" von Philipp Schaer und "Vor- und Nachbereitung einer Augmented Reality Applikation" von Anke Schneider im Rahmen des Mitte 2005 gegründeten Forschungsprojektes "Enhanced Reality" an der Universität Koblenz, befasste sich diese Arbeit mit dem Aufbau und der Informationszusammenstellung in der Nachbereitungsphase eines Augmented Reality Szenarios. Als kurzen Einstieg in das Forschungsgebiet der Augmented Reality diente eine Einordnung und Begriffsklärung sowie die Vorstellung verschiedener Anwendungsfelder zu Beginn der Arbeit. Danach wurde die Bedeutung der einzelnen Phasen Vorbereitung, AR-Tour und Nachbereitung im allgemeinen Ablauf eines AR Szenarios erläutert und versucht, Parallelen zum dramaturgischen Konzept des Digital Storytelling herzustellen. Die Nachbereitung im Sinne einer neuen Vorbereitungsphase anzulegen, wurde dabei als entscheidender Faktor zur positiven Beeinflussung des Spannungsverlaufs innerhalb eines AR Szenarios bewertet. Anhand von drei aktuellen Beispielen zu AR Edutainment bzw. Eduventure Projekten konnte die Idee und die Art der Wissens- und Informationsvermittlung, die durch eine AR-Tour stattfinden soll, näher gebracht werden. Hauptaugenmerk lag dabei auf der Herausstellung eines Ansatzes für eine mögliche Nachbereitungsphase, die bei den vorgestellten Projekten bisher noch keine Berücksichtigung gefunden hat.
RMTI (RIP with Metric based Topology Investigation) wurde in der AG Rechnernetze an der Universität Koblenz-Landau entwickelt. RMTI stellt eine Erweiterung zum RIP (Routing Information Protocol) dar, die das Konvergenzverhalten bei Netzwerkveränderungen, insb. bei Routingschleifen, verbessern soll. Dies geschieht durch Erkennen von Routingschleifen und Reduzieren des Count-to-infinity Problems. Um dieses gewünschte Verhalten nachweisen zu können, bedarf eine reichhaltige Evaluierung des RMTI- Algorithmus. Hierzu wurde in der gleichen Arbeitsgruppe die Client-/Server-Applikation XTPeer entwickelt. In Kombination mit anderen Software wie VNUML und Quagga Routing Suite lässt sich per XT-Peer der Algorithmus evaluieren. Die Applikation XTPeer generiert durch die Simulationen Daten. Diese können in Form von XML konforme SDF-Dateien exportiert werden. Diese können ohne weitere Auswertungen wieder in die XTPeer Applikation importiert werden. Die Evaluierung der Simulationen findet automatisiert nur an der aktuellen Simulation statt. Evaluierung über mehrere Simulationen muss der Benutzer manuell berechnen. Um diese Evaluierungsarbeiten für den Benutzer zu vereinfachen, verfolgt die vorliegende Diplomarbeit daher das Ziel, die XTPeer Applikation mit einem Auswertungsmodul zu erweitern. Die Auswertungen soll sich über alle gespeicherten Simulationsdaten und nicht wie bisher nur über die aktuell laufende Simulation erstrecken. Dies ermöglicht bessere statistisch verwertbare Aussagen. Zusätzlich können diese Auswertungsergebnisse grafisch unterstrichen werden.
The goal of this Bachelor thesis was programming an existig six-legged robot, which should be able to explore any environment and create a map of it autonomous. A laser scanner is to be integrated for cognition of this environment. To build the map and locate the robot a suitable SLAM(Simultaneous Localization and Mapping) technique will be connected to the sensor data. The map is reported to be the robots base of path planning and obstancle avoiding, what will be developed in the scope of the bachelor thesis, too. Therefore both GMapping and Hector SLAM will be implemented and tested.
An exploration algorithm is described in this bachelor thesis for exploring the robots environment. The implementation on the robot takes place in the space of ROS(Robot Operating System) framework on a "Raspberry Pi" miniature PC.
Autonomous exhaustive exploration of unknown indoor environments with the mobile robot "Robbie"
(2007)
Rettungsroboter helfen nach Katastrophen wie z.B. Erdbeben dabei, in zerstörten Gebäuden Überlebende zu finden. Die Aufgabe, die Umgebung effizient möglichst vollständig abzusuchen und dabei eine Karte zu erstellen, die den Rettungskräften bei der Bergung der Opfer zur Orientierung dient, soll der Roboter autonom erfüllen. Hierzu wird eine Explorationsstrategie benötigt; eine Strategie zur Navigation in bekanntem und zur Erkundung von unbekanntem Gelände. Für den mobilen Roboter "Robbie" der Arbeitsgruppe Aktives Sehen wurde in dieser Arbeit ein Grenzen-basierter Ansatz zur Lösung des Explorationsproblems ausgewählt und implementiert. Hierzu werden Grenzen zu unbekanntem Gelände aus der Karte, die der Roboter erstellt, extrahiert und angefahren. Grundlage der Navigation zu einem so gefundenen Wegpunkt bildet die sog. Pfad-Transformation (Path-Transform).
Quadrokopter sind Helikopter mit vier in einer Ebene angeordneten Rotoren. Kleine unbemannte Modelle, die oft nur eine Schubkraft von wenigen Newton erzeugen können, sind im Spielzeug- und Modellbaubereich beliebt, werden aber auch von Militär und Polizei als Drohne für Aufklärungs- und Überwachungsaufgaben eingesetzt. Diese Diplomarbeit befasst sich mit den theoretischen Grundlagen der Steuerung eines Quadrokopters und entwickelt darauf aufbauend eine kostengünstige Steuerplatine für einen Modellquadrokopter.
Die theoretischen Grundlagen enthalten eine Untersuchung der Dynamik eines frei fliegenden Quadrokopters, bei der Bewegungsgleichungen hergeleitet und mit den Ergebnissen verglichen werden, die in "Design and control of quadrotors with application to autonomous flying" ([Bou07]) vorgestellt wurden. Weiterhin wird die Funktionsweise verschiedener Sensoren beschrieben, die zur Bestimmung der aktuellen räumlichen Ausrichtung geeignet sind, und es werden Verfahren besprochen, mit denen die Ausrichtung aus den Messwerten dieser Sensoren abgeschätzt werden kann. Zusätzlich wird in den Schiefkörper der Quaternionen eingeführt, in dem dreidimensionale Rotationen kompakt dargestellt und effizient verkettet werden können.
Daran anschließend wird die Entwicklung einer einfachen Steuerplatine beschrieben, die sowohl einen autonomen Schwebeflug als auch Fernsteuerung ermöglicht. Die Platine wurde auf einem X-Ufo-Quadrokopter der Firma Silverlit entwickelt und getestet, der daher ebenfalls vorgestellt wird. Die eingesetzten Bauteile und deren Zusammenspiel werden besprochen. Dabei ist insbesondere die WiiMotionPlus hervorzuheben, die als kostengünstiges Gyrosensormodul verwendet wird. Daneben werden verschiedene Aspekte der Steuersoftware erläutert: die Auswertung der Sensordaten, die Zustandsschätzung mit Hilfe des expliziten komplementären Filters nach Mahony et al. ([MHP08]), die Umsetzung des Ausrichtungsreglers sowie die Erzeugung der Steuersignale für die Motoren. Sowohl die Steuersoftware als auch Schaltplan und Platinenlayout der Steuerplatine liegen dieser Arbeit auf einer CD bei. Schaltplan und Platinenlayout sind zusätzlich im Anhang der Arbeit abgedruckt.
This thesis deals with the development of an authoring system for modeling 3D environments with physical description. In contrast to creating scenes in other common modeling tools, one can now compute and describe physical entities of a scene additional to the usual geometry. It is very important for those authoring systems to be extendable and customizable for specific requirement of the user. The focus lies on developing simple program architecture, which is easy to extend and to modify.
There has been little research on out-of-school places of learning and their effec-tiveness in the context of ESD education measures. With the help of a multi-stage analysis, this study identifies out-of-school places of learning with reference to the ESD education concept in the Rhineland-Palatinate study area. To this end, qualita-tive literature analyses were first used to generate ESD criteria, which were opera-tionalised as a methodological instrument in the form of an ESD checklist for out-of-school places of learning. The data obtained in this way provide the basis for the creation of a geographically oriented learning location database with ESD refer-ence. A cartographic visualisation of the data results in a spatial distribution pattern: Thus, there are districts and cities that are well supplied with ESD learning loca-tions, but also real ESD learning location deserts where there is a need to catch up. Furthermore, there is an accumulation of ESD learning sites in areas close to for-ests.
A guideline-based explorative interview with two ESD experts provides additional insights into the question of how ESD has been implemented in the federal state of Rhineland-Palatinate, the extent to which there is a need for optimisation, and which continuing measures are being taken for ESD outside schools within the framework of Agenda 2030.
In addition, a quantitative questionnaire study was carried out with 1358 pupils at 30 out-of-school places of learning after participation in an educational measure, in which environmental awareness, attitudes towards environmental behaviour and local learning were also considered. By including non-ESD learning locations, a comparative study on the effectiveness of ESD learning locations became possible. The statistical data evaluation leads to a variety of interesting results. Contra-intuitively, for instance, the type of learning location (ESD or non-ESD learning lo-cation) is not a significant predictor for the environmental awareness and environ-mental behaviour of the surveyed students, whereas communication structures within educational measures at extracurricular learning locations, the multimediality and action orientation and the duration of educational measures have a significant influence.
Keywords: extracurricular learning locations, education for sustainable develop-ment (ESD), ESD criteria, learning location landscape Rhineland-Palatinate, ESD learning locations, environmental awareness, environmental behaviour.
Die Zeitschrift c't stellte in der Ausgabe 02/2006 einen Bausatz für einen kleinen mobilen Roboter vor, den c't-Bot, der diese Studienarbeit inspirierte. Dieser Bausatz sollte die Basis eines Roboters darstellen, der durch eine Kamera erweitert und mit Hilfe von Bildverarbeitung in der Lage sein sollte, am RoboCupSoccer-Wettbewerb teilzunehmen. Während der Planungsphase veränderten sich die Ziele: Statt einem Fußballroboter sollte nun ein Roboter für die neu geschaffene RoboCup-Rescue-League entwickelt werden. In diesem Wettbewerb sollen Roboter in einer für sie unbekannten Umgebung selbstständig Wege erkunden, bzw. Personen in dieser Umgebung finden. Durch diese neue Aufgabenstellung war sofort klar, dass der c't-Bot nicht ausreichte, und es musste ein neuer Roboter entwickelt werden, der mittels Sensoren die Umgebung wahrnehmen, durch eine Kamera Objekte erkennen und mit Hilfe eines integrierten Computers diese Bilder verarbeiten sollte. Die Entstehung dieses Roboters ist das Thema dieser Studienarbeit.
Im schulischen Kontext wird dem Prozess der Erkenntnisgewinnung in eigenverantwortlichen Lernprozessen immer mehr Bedeutung beigemessen. Experimentelles Arbeiten wird in den nationalen Bildungsstandards als Prozess beschrieben, welcher vier Teil-schritte durchläuft: (1) Fragestellung entwickeln, (2) Experimente durchführen, (3) Daten notieren und (4) Schlussfolgerung ziehen [1]. In der fachdidaktischen Forschung gibt es bisher keine Untersuchungen, die explizit den Teilschritt der Datenaufnahme und dessen Bedeutung behandeln.
In dieser Arbeit werden die unterschiedlichen Definitionen der naturwissenschaftlichen Protokollformen voneinander abgegrenzt sowie im Rahmen von drei Teilstudien die Bedeutung des Protokollierens für die Lernwirksamkeit untersucht. Zusätzlich wird eine Auswertungsmethode für die Qualität von Erarbeitungsprotokollen vorgestellt.
Die vorliegende Forschungsarbeit beschäftigt sich mit der Positionierung und anbieterinternen Kommunikation der innovativen IT-Architektur SOA. Die zentralen Ziele der vorliegenden explorativen und empirischen Forschungsarbeit, die im Kontext der Innovations-Erfolgsfaktorenforschung angesiedelt ist, bestehen in der Beantwor-tung der beiden folgenden forschungsleitenden Fragestellungen:
Forschungsfrage 1: Welche Bedingungen tragen zu einer erfolgreichen Positionierung von SOA bei? Forschungsfrage 2: Welche Bedingungen tragen zu einer erfolgreichen anbieterinternen Kommunikation bezüglich SOA bei? Zur Überprüfung dieser beiden Forschungsfragen wurde ein zweistufiges Delphi-Verfahren durchgeführt. Hierbei wurde zunächst eine qualitative Befragungswelle (N=53) zur Identifizierung der SOA-Positionierungsbedingungen und anbieterinternen SOA-Kommunikations-bedingungen durchgeführt. Insgesamt wurden in der ersten Befragungswelle 122 SOA-Positionierungsbedingungen identifiziert, die sich in 65 Bedingungen auf Anbieterseite, 35 Bedingungen auf Kundenseite, 19 Bedingungen auf SOA-Seite und 3 Bedingungen aufseiten des weiteren Umfeldes aufteilen. Im Rahmen der anbieterinternen SOA-Kommunikation konnten 31 Bedingungen identifiziert werden. Die in der ersten Welle identifizierten SOA-Positionie-rungsbedingungen und anbieterinternen SOA-Kommunikationsbedingungen wurden mittels der zweiten Befragungswelle (N=83) einer quantitativen Analyse unterzogen. Somit liefert die vorliegende Studie Bedingungen, die sowohl zu einer erfolgreichen SOA-Positionierung als auch zu einer erfolgreichen anbieterinternen SOA-Kommunikation beitragen.
Die Resultate dieser Arbeit werden zusammengefasst und theoretisch eingeordnet. Ebenfalls wird die methodische Vorgehensweise kritisch diskutiert und die Güte der Daten beurteilt. Schließlich wird ein Ausblick auf zukünftige Forschungsfelder gegeben.
Zentrale Aufgaben der Hochschule sind die Bewertung, die Ursachenklärung und die Förderung von Studienleistungen (Heublein & Wolter, 2011, S. 215). In diesem Kontext gilt neben intellektuellen Fähigkeiten die Leistungsmotivation als bedeutsamer Prädiktor für den akademischen Erfolg (z. B. Schmidt-Atzert, 2005, S. 132; Steinmayr & Spinath, 2009, S. 80). Im Fokus der vorliegenden Studie stehen deshalb Überlegungen zu Motivationsprozessen von 332 Studienanfängern der Hochschule der Bundesagentur für Arbeit und zu den Faktoren, die sich förderlich auf ihre Lernresultate auswirken. Mit einer Ausschöpfungsquote von 89 % sind die gewonnenen Daten für die Grundgesamtheit repräsentativ. Anhand einer Ex-post-facto-Versuchsanordnung in Form eines quantitativen Prädiktor-Kriteriums-Ansatzes (spezielle Variante eines Längsschnittdesigns) mit unterschiedlichen Erhebungsmethoden, wie standardisiertem Selbstbeurteilungsfragebogen, Leistungstests und offiziellen Dokumenten/Aktenmaterial, wurden folgende Forschungshypothesen zugrunde gelegt: Die Stärke der Leistungsmotivation ist sowohl von Erwartungskomponenten (Fähigkeitsselbstkonzept, Selbstwert, subjektive Notenerwartung, Erfolgszuversicht und Misserfolgsfurcht) als auch von Anreizkomponenten (Gegenstands-, Tätigkeits-, Folgenanreizen) abhängig, welche wiederum vermittelt über das leistungsmotivierte Verhalten einen Einfluss auf die Studienleistung besitzt. Dabei wurde postuliert, dass motivationale Variablen auch dann noch einen bedeutsamen Effekt auf die Studienleistung ausüben, wenn weitere Leistungsprädiktoren, wie die Schulabschlussnote, die Intelligenz, die emotionale Stabilität und die Gewissenhaftigkeit kontrolliert werden.
Hintergrund
Das neue Modell einer Knieorthese Condlya 4 soll die Bewegungsfreiheit im Knie nur geringfügig einschränken, so dass viele sportliche Bewegungen weiterhin gewährleistet sind. Dennoch stabilisiert die Orthese das Gelenk soweit, dass Scherbewegungen vermieden werden und während der Rehabilitationsphase nach Knieverletzungen und Instabilitäten bereits nach kurzer Zeit mit dem Sport wieder begonnen werden kann.
Das Ziel der Arbeit
Ziel der Masterarbeit war es mittels Bewegungsanalyse den Einfluss der Knieorhese auf die Bewegungsqualität des Handstands zu prüfen. Zu dieser 2D- Analyse wurden die Bewegungsabläufe mit mehreren digitalen Hochgeschwindigkeitskameras (OptiTrack Flex 3) aus zwei Ebenen gefilmt. Über die an anatomischen Fixpunkten angebrachten Markern wurden die Aufnahmen mit der Software MyoVideo am Rechner mittels automatischem Marker Tracking verarbeitet. Damit konnten die zeitlichen Verläufe von Marker-Koordinaten und Gelenkwinkeln aufgezeigt werden.
Ergebnisse
Die Ergebnisse dieser Untersuchung bestätigten, dass die untersuchte Knieorthese Condyla 4 für den Sport geeignet ist und keinen negativen Einfluss auf die Bewegungsqualität des Handstands nimmt. Die Anwendung der Knieorthese lässt sich dadurch auch auf andere Elemente aus dem Bereich des Turnens übertragen, bei denen die unteren Extremitäten ähnlichen Belastungen ausgesetzt sind.
IT-Risk-Management ist ein Bereich, der in den letzten 2 Jahren stark diskutiert und sich verändert hat. Die Anlässe findet man sowohl in den terroristischen Überfällen und entsprechenden Konsequenzen für Unternehmen als auch an die Naturkatastrophen oder Fehlinvestitionen und undurchsichtigen Geschäfte mancher Unternehmen. Daher wurden Richtlinien und Gesetze entworfen, die Vorstände verpflichten, das eigene Unternehmen gegen konkrete Risiken zu schützen. Der Detaillierungsgrad der Vorschläge ist je nach Bereich unterschiedlich. Sind aber Unternehmen bereit, die hohen Investitionen, die mit solchen umfangreichen Projekten zusammenhängen, auf sich zu nehmen um diese Richtlinien zu verfolgen? Wo sehen sie die Vorteile einer IT-Risk-Management-Strategie und wo die Herausforderungen? Welche Entwicklungen oder Veränderung wünschen sie sich? Das sind Fragen, die in der vorliegenden Studie, Experten des Bereich IT-Risk-Management gestellt wurden um die Zukunft des IT-Risk-Managements beeinflussen zu können. Diese Fragestellungen wurden in der vorliegenden Studie untersucht, dazu haben wir Experten des Bereichs IT-Risk-Managements mit Hilfe der Delphi-Methode befragt. Der vorliegende Bericht fasst die wichtigsten Ergebnisse zusammen.
Das Beispiel ist ein hoch komplexer, historisch sich vielfach ausdifferenzierender Begriff, mit dem sich seit der Antike die geisteswissenschaftlichen Disziplinen intensiv auseinandergesetzt haben. Die Orientierung am Besonderen, am Konkreten, am Einzelfall, am Exemplarischen ist eine zentrale menschliche Denkbewegung bei der Erkenntnisgewinnung, der Wissensvermittlung, dem Verstehen und der Verständigung ebenso wie bei der Überzeugung und Glaubhaftmachung. Wie wir aber in unserem ganz gewöhnlichen, alltäglichen Sprechen mit Beispielen umgehen, welche Rolle "das Exemplarische" insbesondere in der verbalen, mündlichen Interaktion spielt, wozu und wie wir Beispiele einsetzen, das ist linguistisch wenig und vor allem nicht systematisch untersucht. Wir nehmen im Alltag immer wieder explizit metasprachlich auf das Beispielgeben Bezug, wenn wir etwa sagen "Gib mir doch mal ein Beispiel" oder "Ich mach mal ein Beispiel". Die Analyse der Gesprächspraxis zeigt zudem, dass die Beispielverwendung kein randständiges, sondern ein sehr häufig zu beobachtendes sprachliches Phänomen in verschiedenen Kommunikationskontexten ist, von dem sich vermuten lässt, dass es gerade für die Alltagskommunikation fundamental ist.
Die vorliegende Arbeit hat deshalb zum Ziel, Beispiele in der Sprachverwendung als eine Form des sprachlichen Handelns fassbar und analysierbar zu machen und die Erscheinungsformen sowie Wirkungs- und Funktionsweisen auf der Grundlage von Transkripten natürlichsprachiger Dialoge empirisch zu untersuchen. Aus der Perspektive verschiedener Disziplinen werden Dimensionen des Beispielbegriffs, des fallbezogenen Denkens und des Argumentierens mit Beispielen betrachtet. Es wird auf die grundlegende Rolle des Beispiels, des Besonderen beim Erkennen und Verstehen des Allgemeinen eingegangen, auf die Beschreibungen der Beispielfunktionen und "Funktionslogiken" auf verschiedenen Ebenen. Ausführlich wird auf die bisherigen Analysen zur Beispielverwendung in der Text- und Gesprächslinguistik eingegangen. Im Kontext der Analyse der Sprachverwendung in der natürlichen Sprache wird das Beispiel allerdings nur selten als eigenes Thema behandelt, das Exemplifizieren / Beispielnennen wird häufig als sprachliche Handlung selbstverständlich vorausgesetzt, jedoch dabei nicht konzeptuell betrachtet. Aufbauend auf die Betrachtung und Bewertung der bisherigen Untersuchungen wird in der vorliegenden Arbeit Beispielverwenden als sprachliche Handlung konzeptualisiert, die im Kern eine Konnexstiftung von Besonderem und Allgemeinem enthält. Dabei werden gesprächsanalytische und hermeneutische Ansätze aus der Handlungssemantik aufeinander bezogen und Möglichkeiten für eine Adaption gezeigt.
Die empirischen Analyse stützt sich auf ein umfangreiches Korpus transkribierter verbaler Interaktionen (Diskussionen, Talkshow, Konfliktgespräch). Die Analyseergebnisse bestehen zum einen aus korpusgestützten Beschreibungen und (für Erweiterungen offenen) Typologisierungen von Realisierungsformen und des "displays" von Beispielverwendung sowie der empirisch gestützten Beschreibung von Handlungs- und Interaktionsmustern der Beispielverwendung im Gespräch und ausführlichen, exemplarischen, funktionsbezogenen Einzelanalysen.
Enterprise Collaboration Systems (ECS) werden zunehmend als Kernkomponenten des digitalen Arbeitsplatzes in Unternehmen eingesetzt, die mit der Implementierung dieser neuen Softwaregattung jeweils unterschiedliche Ziele für die innerbetriebliche Zusammenarbeit verfolgen. Diese Ziele werden in der Praxis oftmals nicht eindeutig genug formuliert. Der Einsatz von traditionellen Controlling-Kennzahlen mit dem Schwerpunkt auf Termineinhaltung und Kosten sind zudem ungeeignet, um die Realisierung des individuellen Nutzens von ECS zu messen. Diese Forschungsarbeit beschreibt die Entwicklung und Anwendung des Benefits Scorecards for Collaboration Platforms in Enterprises (SCoPE) Frameworks, das als ein Rahmenwerk für die kennzahlengestützte Nutzenmessung von ECS dient und an dem Goal-Question-Metrics-Approach der NASA sowie der Balance Scorecard von Kaplan & Norton angelehnt ist. Die Ergebnisse tragen zu einem breiteren Verständnis der kennzahlenbasierten Nutzenanalyse für ECS in Organisationen bei. Das Benefits-SCoPE-Framework wurde in enger Zusammenarbeit mit Experten aus 16 Anwenderunternehmen im Rahmen der Initiative IndustryConnect entwickelt. In einem design-orientierten Ansatz wurde ein ausgewählter Methodenmix angewandt, inklusive Experteninterview, Fokusgruppe, Workshop und Card Sorting. Der von Anwenderunternehmen erwartete Nutzen des ECS wird in spezifische, durch Kennzahlen beantwortbare Fragestellungen umformuliert und fragmentiert. Insgesamt konnten so 313 nutzenorientierte Fragen von drei Anwenderunternehmen identifiziert werden. Die durchgeführte Kategorisierung der Fragen verdeutlicht zum einen das gemeinsame Verständnis der Unternehmen hinsichtlich der entscheidenden Faktoren für die Nutzenrealisierung von ECS und zum anderen die Nutzen-ziele, die die Unternehmen durch den Einsatz des ECS anvisieren. Die Entwicklung und Erhebung von Kennzahlen zur quantitativen Beantwortung von ausgewählten Fragestellungen wird mit funktions-fähigen Prototypen auf einer operativen Kollaborationsplattform demonstriert, die seit mehr als sieben Jahren im Einsatz ist und mehr als 5.000 registrierte Benutzer aufweist. Die Kennzahlenentwicklung, die Auswahl der Datenerhebungsmethode, die Durchführung der Messung sowie die Interpretation der Messergebnisse werden im Framework durch die Verwendung von Benefits Scorecards unterstützt. Die individuelle Orchestrierung mehrerer Benefits Scorecards repräsentiert die Struktur eines Ordnungssystems zur ECS-Nutzenanalyse in Anwenderunternehmen und verdeutlicht das Vorgehen zur Erhebung der äquivalenten Daten.
Die Diffusions-Tensor-Bildgebung (DTI) ist eine Technik aus der Magnet-Resonanz-Bildgebung (MRI) und basiert auf der Brownschen Molekularbewegung (Diffusion) der Wassermoleküle im menschlichen Gewebe. Speziell im inhomogenen Hirngewebe ist die Beweglichkeit der Moleküle stark eingeschränkt. Hier hindern die Zellmembranen der langgestreckten Axone die Diffusion entlang nicht-paralleler Richtungen. Besonderen Wert hat die Diffusions-Tensor-Bildgebung in der Neurochirugie bei der Intervention und Planung von Operationen. Basierend auf den mehrdimensionalen DTI-Tensor-Datensätzen kann für den jeweiligen Voxel das Diffsusionsverhalten abgeleitet werden. Der größte Eigenvektor des Tensors bestimmt dabei die Hauptrichtung der Diffusion und somit die Orientierung der entsprechenden Nervenfasern. Ziel der Studienarbeit ist die Erstellung einer Beispielapplikation zur Visualisierung von DTI-Daten mit Hilfe der Grafikhardware. Dazu werden zunächst die relevanten Informationen für die Erzeugung von geometrischen Repräsentationen (Streamlines, Tubes, Glyphen, Cluster...) aus den Eingabedaten berechnet. Für die interaktive Visualisierung sollen die Möglichkeiten moderner Grafikhardware, insbesondere Geometryshader ausgenutzt werden. Die erzeugten Repräsentationen sollen nach Möglichkeit in ein DVR (Cascada) integriert werden. Für die Arbeit wird eine eigene Applikation entwickelt, die bestehende Bausteine (Volumenrepräsentation, Volumenrendering, Shadersystem) aus Cascada analysiert und integriert.
The present thesis describes the development of an OpenGL-based tool visualizing cavities of proteins, which can be observed during a static docking simulation. The goal is to achieve knowledge about interactions between proteins and ligands based on information about distances between them. At first chemical basics, which motivate the topic and are important for understanding the topic and the used algorithms, are presented. Furthermore existing software, which deals with similar issues, is described. Next the prerequisites for the development of the program are presented and the tool is described in detail. Concluding the tool is evaluated concerning performance and usage and a summarizing conclusion is given. The program turns out as a helpful tool for current research and a good base for further and deeper research projects.
In dieser Arbeit wurden insgesamt fünf verwandte, aber variante Definitionen der Hermite-Normalform vorgestellt, angefangen bei der ursprünglichen Version von Charles Hermite. Anschließend wurden vier Basisalgorithmen zur Berechnung der Hermite-Normalform ganzzahliger Matrizen im Detail und anhand von vollständigen Beispielen präsentiert. Hierbei wurde vor allem Wert darauf gelegt, linear-algebraische Grundlagen wie beispielsweise die Verwendung von Permutationsmatrizen für unimodulare Spaltenoperationen verständlich zu vermitteln.
Bildsynthese durch Raytracing gewinnt durch Hardware-Unterstützung in Verbraucher-Grafikkarten eine immer größer werdende Relevanz. Der Linespace dient dabei als eine neue, vielversprechende Beschleunigungsstruktur. Durch seine richtungsbasierte Natur ist es sinnvoll, ihn in andere Datenstrukturen zu integrieren. Bisher wurde er in ein Uniform-Grid integriert. Problematisch werden einheitlich große Voxel allerdings bei Szenen mit variierbarem Detailgrad. Diese Arbeit führt den adaptiven Linespace ein, eine Kombination aus Octree und Linespace. Die Struktur wird hinsichtlich ihrer Beschleunigungsfähigkeit untersucht und mit dem bisherigen Grid-Ansatz verglichen. Es wird gezeigt, dass der adaptive Linespace für hohe Grid-Auflösungen besser skaliert, durch eine ineffiziente GPU-Nutzung allerdings keine optimalen Werte erzielt.
The analysis of three-dimensional and complex motion sequences
of human gait and therefore the most important question
of kenesiology ”why are we falling?” is the essence of this
paper. The gerontology and its science of movement is currently
limited to simple and one-dimensional methods and models. An
extensive literature research shows the latest state of research of
the three common methods to determine the stability of human
gait. To assess the margin of stability, local stability and orbital
stability it is shown, how those methods are applicable to evaluate
the subject’s ability to recover from any disturbences of
the subject’s gait. Based on this assessment and the method’s
advantages and disadvantages a new method will be derived
that allows spatial analysis of dynamic instability of linear and
non-linear human gait. A motion capture system and the timed
up and go test serve as a basis for this new method and will be
explained. A numerical approximation to optimise the number
of markers within a marker-set of a motion capture analysis
and its maximum correlation with the full-body-marker-set will
be given. This simplification is very helpful for further clinical
or scientific research. To validate the new method a trial
with subjects will be shown and discussed. New appreciable
variables and snapshots of specific situations during the gait
offer new and different interpretations of the human gait. The
new method is the most applicable and appropriate assessment
of human gait and the individual development of the human
gait while aging, as well as to detect and prevent falling and
associated injuries. Especially directional change of a non-linear
gait become assessable with the new method.
Activity recognition with smartphones is possible by using its internal sensors without using any external sensor. First of all, previous works and their techniques will be regarded and from these works an own implementation for the activity recognition will be derived. Most of the previous works only use the accelerometer for the activity recognition task. For this reason, this bachelor thesis analyzes the benefit of further sensors, such as the magnetic field, the linear acceleration or the gyroscope. The activity recognition is performed by classification algorithms. Decision Tree, Naive Bayes and Support Vector machines will be used. Sensor data of subjects will be collected and saved by using an own developed application. This data is needed as training data for the classification algorithms.
The result is a model which represents the structure of the data. To validate the model, a test dataset will be used which is different from the training dataset. The results confirm previous works which indicated that the activity recognition task is possible by only using the accelerometer. Orientation, gyroscope and linear acceleration cannot be used for all problems of the activity recognition. Apart from that, the Decision Tree seems to be the best classification algorithm if the model has no training data of the current user.