Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (132)
- Bachelorarbeit (68)
- Diplomarbeit (47)
- Masterarbeit (34)
- Studienarbeit (9)
- Konferenzveröffentlichung (5)
- Dissertation (2)
- Wissenschaftlicher Artikel (1)
Schlagworte
- Simulation (5)
- ontology (5)
- Bluetooth (4)
- computer clusters (4)
- Android <Systemplattform> (3)
- Augmented Reality (3)
- Customer Relationship Management (3)
- Enterprise 2.0 (3)
- Informatik (3)
- Knowledge Compilation (3)
- Mikrocontroller AVR (3)
- Petri-Netze (3)
- Routing (3)
- University (3)
- parallel algorithms (3)
- Akkreditierung (2)
- Campus Information System (2)
- Cloud Computing (2)
- Computersimulation (2)
- DOCHOUSE (2)
- Datensicherheit (2)
- Distance Vector Routing (2)
- Distanz Vektor Routing (2)
- E-Government (2)
- E-KRHyper (2)
- Enhanced Reality (2)
- Fallstudie (2)
- Google App Engine (2)
- Google Web Toolkit (2)
- IBM Lotus Quickr (2)
- Interaktion (2)
- Java (2)
- Linked Open Data (2)
- Mikrocontroller (2)
- OWL (2)
- Objektverfolgung (2)
- Ontology (2)
- Personalausweis (2)
- RDF (2)
- Rechnernetz (2)
- Rechnernetze (2)
- Router (2)
- Semantic Web (2)
- Smartphone (2)
- Tablet PC (2)
- Visualisierung (2)
- Web Analytics (2)
- WebGL (2)
- artifcial neural networks (2)
- artificial neural networks (2)
- classification (2)
- constraint logic programming (2)
- governance (2)
- mobile phone (2)
- privacy protection (2)
- probability propagation nets (2)
- risk (2)
- simulation (2)
- social media (2)
- 101companies (1)
- 2D/3D-Segmentierung (1)
- 3-D-Modell (1)
- 3D-Color-Structure-Code (1)
- 3D-Kartierung (1)
- 3D-Modell (1)
- 3D-RETISEG (1)
- 8C model (1)
- ABox (1)
- API (1)
- API Analysis (1)
- API Migratiom (1)
- ATMega 16 (1)
- ATmega644 (1)
- ATtiny2313 (1)
- Absorptive capacity (1)
- Ad-Hoc Routing (1)
- Adaptive Services Grid (ASG) (1)
- Adobe Flex (1)
- Agenten (1)
- Agents (1)
- Aggregation (1)
- Aktualisierung (1)
- Alex Bernstein (1)
- Amazon Mechanical Turks (1)
- Ambient Occlusion (1)
- Android (1)
- Android 2 (1)
- Android 3 (1)
- Android 4 (1)
- Annotation (1)
- Annotationsmodell (1)
- App (1)
- App <Programm> (1)
- ArcGIS (1)
- Archivierung (1)
- Artificial Intelligence (1)
- Aspect-orientation (1)
- Aspekt-Orientierung (1)
- Ausstellung (1)
- Authentifizierung (1)
- Authentisierung (1)
- Automated Theorem Proving (1)
- Automated Theorem Proving Systems (1)
- Automatisches Beweisverfahren (1)
- Autonomes Fahrzeug (1)
- B2B (1)
- B2B Integration (1)
- BPMN (1)
- Bachelorstudiengang (1)
- Bayes Procedures (1)
- Bebauungsdichte (1)
- Beschreibungslogik (1)
- Bewegung (1)
- Bewegungsablauf (1)
- Bewegungssteuerung (1)
- Bilderkennung (1)
- Browser (1)
- Burg (1)
- Business Collaboration (1)
- C-Programmierung (1)
- CIDR (1)
- CSMs (1)
- Calculus (1)
- CamInSens (1)
- Campus Koblenz (1)
- Casual Games (1)
- Chaos (1)
- Classification (1)
- Clustering (1)
- Colonoscopy (1)
- Common Annotation Framework (1)
- Computational biology (1)
- Computer Networks (1)
- Computeranimation (1)
- Computergraphik (1)
- Computermodell (1)
- Computerspiel (1)
- Conference (1)
- Congestion Control (1)
- Content Analysis (1)
- Content Management (1)
- Context-aware processes (1)
- Core Ontology on Multimedia (1)
- Core Ontology on Multimedia (COMM) (1)
- Creativity (1)
- Criteria Matrix (1)
- Crowdsourcing (1)
- Darmspiegelung (1)
- Data Mining (1)
- Data analysis (1)
- Datenanalyse (1)
- Datenbrille (1)
- Datenschutz (1)
- Datenschutz, Datensicherheit, Apps, Informatik im Kontext (1)
- Defi-Now! (1)
- Defibrillator (1)
- Delphi-Studie (1)
- Delta (1)
- Description Logic (1)
- Description Logics (1)
- Design Pattern (1)
- Diabetes (1)
- Diabetische Retinopathie (1)
- Dienstleistungsproduktivität (1)
- Digitale Steuerung (1)
- Dimensionality Reduction (1)
- Dimensionsreduzierung (1)
- Discussion Forums (1)
- Distributed process execution (1)
- Drahtloses lokales Netz (1)
- Dreidimensionale Bildverarbeitung (1)
- Dynamische Analyse (1)
- E-Business (1)
- E-Hyper Tableau (1)
- E-IMS (1)
- E-KRHyper theorem prover (1)
- E-Learning (1)
- E-Mail (1)
- E-Partizipation (1)
- E-Procurement (1)
- E-government (1)
- E-services (1)
- ECMS 2012 (1)
- EEPROM (1)
- EPROM (1)
- ERP-Systeme (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitphysik (1)
- Echtzeitsystem (1)
- Einchip-Computer (1)
- Electronic Government (1)
- Elektrischer Servomotor (1)
- Emergenz (1)
- Emil (1)
- Enterprise Information Management (1)
- Enterprise Systems (1)
- Enterprise-Resource-Planning (1)
- Entwicklung (1)
- Entwurfsmuster (1)
- Erste Hilfe (1)
- European Conference on Modelling and Simulation (1)
- Evaluation (1)
- Facebook App (1)
- Facebook Application (1)
- Fahrzeug (1)
- Farbkalibrierung (1)
- Feature Extraction (1)
- Finanzberatung (1)
- First aid (1)
- FlexViz (1)
- Forensik (1)
- Forschungslandkarte (1)
- Forschungsprojekt KMU 2.0 (1)
- Framework (1)
- Freiheitsgrad (1)
- Föderiertes System (1)
- GPGPU (1)
- GPS (1)
- GSM-Standard (1)
- Game Design (1)
- Generative Model (1)
- Generative Modellierung (1)
- Geocaching (1)
- Germany (1)
- Gesundheitswesen (1)
- Good Government (1)
- Grails (1)
- Grails 1.2 (1)
- Graph Technology (1)
- GraphUML (1)
- HTML 5.0 (1)
- Haskell (1)
- Healthcare institution (1)
- Historisierung (1)
- Horn Clauses (1)
- Hypertableaux (1)
- IASON (1)
- IEC 61131 (1)
- IP 6 (1)
- IP-Adressen (1)
- IPv6 (1)
- IT Outsourcing (1)
- IT Security (1)
- IT Services (1)
- IT security analysis (1)
- IT-Risk-Management (1)
- IT-Sicherheitsmodelle (1)
- Image (1)
- Incremental Algorithms (1)
- Infobroker (1)
- Information Flow Ontology (1)
- Information Supply Chain (1)
- Informationsmanagement (1)
- Informationssystem (1)
- Innovation (1)
- Innovationsmanagement (1)
- Integriertes Informationssystem (1)
- Intelligent Information Network (1)
- Interaktionselemente (1)
- Internet (1)
- Internet Voting (1)
- Internetregulierung (1)
- Internetworking (1)
- Interpersonale Kommunikation (1)
- Interpretierer (1)
- Intranet-Zugang (1)
- JCryp-Tool (1)
- Java <Programmiersprache> (1)
- JavaScript (1)
- Kalibrierung (1)
- Kamera (1)
- Kamerakalibrierung (1)
- Kantenverfolgung (1)
- Katastrophentheorie (1)
- Kinematik (1)
- Klassifikation (1)
- Kletterer (1)
- Knowledge Sharing (1)
- Koloskopie (1)
- Kommunikationsprotokoll (1)
- Kondertal (1)
- Kontextbezogener Dienst (1)
- Konzept (1)
- Kooperatives Informationssystem (1)
- Krankenhausinformationssystem (1)
- Kryptographie (1)
- Künstliche Intelligenz (1)
- Laser (1)
- Leistungsmessung (1)
- Lernsoftware (1)
- Linked Data Modeling (1)
- Logging (1)
- Logik (1)
- Logistik (1)
- Lokalisation (1)
- MIA (1)
- MPEG-7 (1)
- Manöver-Visualisierung (1)
- MapReduce (1)
- Markov Zufallsfelder (1)
- Maschinelles Sehen (1)
- Massenkommunikation (1)
- Masterstudiengang (1)
- Matching (1)
- Mediator framework (1)
- Medical Image Analysis (1)
- Medizinische Bildanalyse (1)
- Medizinische Bildverarbeitung (1)
- Medizinische Visualisierung (1)
- Mehragentensystem (1)
- Mehrbenutzer-Annotationssystem (1)
- Menschenmengen-Evakuierung (1)
- Merkmalsextrahierung (1)
- Migration (1)
- Mindestlohn (1)
- Minimum wage (1)
- Mister X (1)
- Mixed method (1)
- Mobile BI (1)
- Mobile Business Intelligence (1)
- Mobile Information Systems (1)
- Mobiles Umfeld (1)
- Model View Presenter (1)
- Model-Driven Engineering (1)
- Modell (1)
- Montageablauf (1)
- Morphologische Operatoren (1)
- Motivation (1)
- Multi-robot System (1)
- Multiagent System (1)
- Multiagentensystem (1)
- Multimedia Metadata Ontology (1)
- Natural Feature Tracking (1)
- Netlogo (1)
- Network Virtualization (1)
- Netzwerk Routing (1)
- Netzwerk Virtualisierung (1)
- Netzwerk kleiner und mittlerer Unternehmen (1)
- Neuronales Netz (1)
- OCR (1)
- ODRL (1)
- OWL <Informatik> (1)
- Object Recognition (1)
- Objective-C (1)
- Online Community (1)
- Online-Befragung (1)
- Online-Überwachung (1)
- Onlinewahl (1)
- Ontologie (1)
- Ontologie <Wissensverarbeitung> (1)
- Ontology alignment (1)
- Open Source (1)
- OpenVDB (1)
- Optische Zeichenerkennung (1)
- Outsourcing (1)
- PHP (1)
- POIs (1)
- Parallelmanipulator (1)
- Path Tracing (1)
- Personal Key Infrastruktur (1)
- Personalised Information Systems (1)
- Petri Nets (1)
- Petri net (1)
- Petrinetz (1)
- Pfadnachverfolgung (1)
- Plugin (1)
- Politik (1)
- Politische Kampagne (1)
- Politische Meinungsbildung (1)
- Polypendetektion (1)
- Pose (1)
- Privatvermögen (1)
- Probability (1)
- Probability propagation nets (1)
- Proceedings (1)
- Process tracing (1)
- Programmiergerät (1)
- Programmiersprachen (1)
- Programmierumgebung (1)
- Projekt iCity (1)
- Propagation (1)
- Prozedurale Synthese (1)
- Prozessmanagement (1)
- Public-Key-Infrastruktur (1)
- Pulsweitenmodulation (1)
- Quality assessment system (1)
- Qualität (1)
- RDF Graphs (1)
- RDF modeling (1)
- RIPng (1)
- RMIS (1)
- Ray tracing (1)
- Raytracing (1)
- ReDSeeDS-Project (1)
- Real-Life Game (1)
- Real-Life Spiel (1)
- Real-Time (1)
- Realistisches Kameramodell (1)
- Reengineering (1)
- Registratur (1)
- Regression (1)
- Reisedokument (1)
- Repast (1)
- Rescueanalyser (1)
- Research Map (1)
- Resource Description Framework (RDF) (1)
- Retina Befundbilder (1)
- Retina Fundus Bilder (1)
- Retina Fundus Images (1)
- Rettungsroboter (1)
- Risikomanagement-Informationssysteme (1)
- Robbie (1)
- Robert P. Abelson (1)
- Robocup 2008 (1)
- Route Aggregation (1)
- Routen-Aggregation (1)
- Routing Information Protocol (1)
- Routing Information Protocol (RIP) (1)
- Routing Information Protokoll (1)
- Routing Loops (1)
- Routing with Metric based Topology Investigation (RMTI) (1)
- SOAMIG (1)
- SOMA (1)
- SPARQL (1)
- Schema Information (1)
- Schlussfolgern (1)
- Schutzprofil (1)
- Search engine (1)
- Security (1)
- Security Routing (1)
- Selbstorganisation (1)
- Semantics (1)
- Semantik (1)
- Serielle Schnittstelle (1)
- Service identification (1)
- Service-Identifizierung (1)
- Service-Oriented Architectures (SOA) (1)
- Service-oriented Architectures (SOA) (1)
- Serviceorientierte Architektur (1)
- Serviceroboter (1)
- Shared Annotation Model (1)
- Shared Annotations (1)
- Sicherheit Routing (1)
- Simulationswerkzeug (1)
- Smartphone Applikation (1)
- Social Games (1)
- Social Networking Platforms (1)
- Software (1)
- Software Development (1)
- Software migration (1)
- Software techniques for object recognition (STOR) (1)
- Software-Customizing (1)
- Software-Migration (1)
- Softwareentwicklung (1)
- Softwareentwurf (1)
- Softwareergonomie (1)
- Softwarespezifikation (1)
- Softwarewartung (1)
- Soziales System (1)
- Spiel (1)
- Spielkonsole (1)
- SpoGa (1)
- Sport (1)
- Sports (1)
- Stakeholder (1)
- Stakeholder-Beteiligung (1)
- Stakeholderanalyse (1)
- Starrkörper (1)
- Staukontrollmechanismen (1)
- Stereosehen (1)
- Steuerung (1)
- Stewart-Plattform (1)
- Stochastic Logic (1)
- Stomp (1)
- Strassenkreuzung (1)
- Suchmaschine (1)
- Supernetting (1)
- Supply Chain Management (1)
- Support System (1)
- Survey Research (1)
- Syntax (1)
- Systembiologie (1)
- Szenengraph (1)
- TAP (1)
- TBox (1)
- TCP/IP (1)
- Taktstraße (1)
- Tarrain Klassifikation (1)
- Taxonomy (1)
- Technologiemanagement (1)
- Temporale Datenhaltung (1)
- Tesseract (1)
- Text Analysis (1)
- Text Mining (1)
- Theorem prover (1)
- Tokens (1)
- Tool Evaluation (1)
- Traceability (1)
- Tracing (1)
- Transferfunktion (1)
- Transformation (1)
- Translation (1)
- UML (1)
- USB (1)
- Umfrage (1)
- Umgebungslicht (1)
- Unified Modeling Language (UML ) (1)
- United Internet AG (1)
- Universität Koblenz-Landau (1)
- Usability (1)
- Validierung (1)
- Veranstaltung (1)
- Verteilte Systeme (1)
- Verwaltungsautomation (1)
- Videospiel (1)
- Videospiele (1)
- Virtual Networks (1)
- Virtualisierung (1)
- Virtuelles Netz (1)
- Visibility Skeleton (1)
- Vocabulary Mapping (1)
- Vocabulary Reuse (1)
- Vocabulary Trainer (1)
- Volume Raycasting (1)
- Volumen-Rendering (1)
- WLAN Fingerprinting (1)
- Web 2.0 (1)
- Web 2.0- basierte Stakeholderplattform (1)
- Web Analytics Framework (1)
- Web Mining (1)
- Web Ontology Language (OWL) (1)
- Web Services (1)
- Web-application framework (1)
- Web-programming technologies (1)
- Web3D (1)
- Webanwendung (1)
- Website (1)
- Wechselkursänderung (1)
- Werbung (1)
- WiFi Fingerprinting (1)
- Wii (1)
- Wikipedia (1)
- Wirtschaftsprojekt (1)
- Wissensbasis (1)
- Wissensvermittlung (1)
- Word-of-Mouth (1)
- Wrapping (1)
- XSD (1)
- Xcode (1)
- Zertifikat (1)
- activation functions of neurons (1)
- adaptive resonance theory (1)
- agent-based model (1)
- agent-based simulation (1)
- agentenbasierte Modellierung (1)
- application programming interfaces (1)
- archiving (1)
- artiffficial neural networks (1)
- artififfcial neural networks (1)
- automatisierte Videoüberwachung (1)
- benefits (1)
- blood analysis (1)
- business process management (1)
- by-stander effect (1)
- camera calibration (1)
- catastrophy theory (1)
- categorisation (1)
- chaos (1)
- collaborative technologies (1)
- colour calibration (1)
- computer science (1)
- concept (1)
- contexts of use (1)
- core ontologies (1)
- crowd evacuation (1)
- currency exchange rates (1)
- delivery drone (1)
- description logic (1)
- design thinking (1)
- deutsche Hochschulen (1)
- deutschsprachiger Markt (1)
- development (1)
- diabetic retinopathy (1)
- directed acyclic graphs (1)
- distinct object identifiers (1)
- drone (1)
- e-Commerce (1)
- e-ID (1)
- eGroupware (1)
- eID (1)
- ePA (1)
- eXperience methodology (1)
- edge linking (1)
- elektronische Anwendung (1)
- emergence (1)
- entrepreneurial design thinking (1)
- entrepreneurial thinking (1)
- entrepreneurship education (1)
- estimation of algorithm efficiency (1)
- ethnic conflicts (1)
- ethnische Konflikte (1)
- event model (1)
- event-based systems (1)
- events (1)
- faceted search (1)
- finite state automata (1)
- game (1)
- gradient method of training weight coefficients (1)
- hybrid automata (1)
- hybrid systems (1)
- hypertableaux (1)
- iCity project (1)
- iOS (1)
- iOS 5 (1)
- iOS-SDK (1)
- id card (1)
- image processing (1)
- information flow regulation (1)
- information system (1)
- interaction (1)
- interaktiv (1)
- jOWL (1)
- knowledge base (1)
- knowledge work (1)
- kollaboratives Lernen (1)
- legacy software (1)
- lineare Algebra (1)
- mathematical model (1)
- media competence model (1)
- medical image processing (1)
- metadata formats (1)
- metadata standards (1)
- metasearch engine (1)
- migration (1)
- minimum self-contained graphs (1)
- mobile application (1)
- mobile devices (1)
- mobile facets (1)
- mobile interaction (1)
- mobile phones (1)
- morphological operators (1)
- movement (1)
- multi-agent systems (1)
- multimedia metadata (1)
- myAnnotations (1)
- nPA (1)
- norm (1)
- online survey (1)
- parallel calculations (1)
- personal information management (1)
- persönliches Informationsmanagement (1)
- physical interaction (1)
- physische Interaktion (1)
- points of interest (1)
- policy modelling (1)
- polyp detection (1)
- privacy and personal data (1)
- privacy competence model (1)
- procedural content generation (1)
- psychisches Verhalten (1)
- psychological behavior (1)
- public key infrastructure (1)
- quality (1)
- realtime physics (1)
- regular dag languages (1)
- retina fundus images (1)
- revenue management (1)
- risks (1)
- scene analysis (1)
- search engine (1)
- security awareness (1)
- self-organisation (1)
- semantic desktop (1)
- semantics (1)
- semantischer Desktop (1)
- sensor data (1)
- shiq (1)
- smartphone app (1)
- social media data (1)
- social object (1)
- social simulation (1)
- social system (1)
- stereotracking (1)
- summative evaluation (1)
- survey (1)
- teams (1)
- technology acceptance model (1)
- time series (1)
- tool-integration (1)
- tracking (1)
- traffic survey (1)
- travel document (1)
- unique name assumption (1)
- usability study (1)
- video game (1)
- video games (1)
- videogames (1)
- virtual goods (1)
- virtuelle Netze (1)
- visualization (1)
- Übersetzung (1)
- Überwachung (1)
- Überwachungstechnik (1)
Institut
- Fachbereich 4 (298) (entfernen)
Der Zweck dieser Bachelorarbeit ist es Lisa - dem Roboter, der von der Arbeitsgruppe Aktives an der Universität Koblenz-Landau, Campus Koblenz, für die Teilnahme an der @home Liga des Robocups entwickelt wurde - das Zeichnen beizubringen. Dies erfordert die Erweiterung des Robbie Software Frameworks und den Einsatz der Hardware-Komponenten des Roboters. Unter Beachtung eines möglichen Einsatzes für die Open Challenge des RoboCups @home, sind die Ziele ein Blatt Papier mit Lisas optischem Sensor, einer Microsoft Kinect, zu erkennen und auf diesem zu Zeichnen unter Benutzung des Neuronics Katana Roboterarms. Zusätzlich muss eine Stifthalterung für den Gripper des Arms konstruiert werden.
Beschrieben in dieser Arbeit sind die notwendigen Schritte, um eine Zeichenvorlage in Bewegungen des Arms umzuwandeln, welche wiederum dazu führen, dass ein Bild gezeichnet wird durch den am Arm montierten Stift auf dem Blatt Papier, welches vom optischen Sensor durch Bilderkennung entdeckt wurde. Ermöglicht wurde es ein Object, welches aus einer beliebigen Anzahl gerader Linien besteht und aus einer SVG-Datei gelesen wird, auf ein weißes Blatt Papier zu zeichnen, das auf einer dunkleren Oberfläche erkannt wird, umgeben von anderen Gegenständen und Texturen.
Das Einsatzgebiet des im Rahmen von insgesamt drei Studienarbeiten eingeführten "Spontaneous Guest Access (SpoGA) & Extended Invitation Management System (E-IMS)" ist im Firmenumfeld angesiedelt. Gästen einer Firma kann durch Nutzung des Systems ohne großen Aufwand ein Zugang zu einem gesicherten, drahtlosen Firmennetzwerk ermöglicht werden, über welches auch der Zugriff aufs Internet erfolgen kann. Das System soll auch die Planung und Durchführung von Veranstaltungen wie insbesondere Konferenzen erleichtern. SpoGA soll es einem Gastgeber ermöglichen, die Netzwerkgeräte befugter Gäste für einen vorgegebenen Zeitraum automatisiert freizuschalten. Somit kann für bestimmte Geräte komfortabel und ohne großen Aufwand ein temporärer Zugang geschaffen werden, ohne die Sicherheit des Netzes zu beeinflussen. E-IMS soll den Verwaltungsaufwand bei der Organisation und Durchführung von Veranstaltungen so weit wie möglich reduzieren. Durch die Anbindung an SpoGA wird außerdem eine automatisierte Freischaltung der Netzwerkzugänge der Konferenzteilnehmer möglich. Auch Aspekte der Teilnehmer- und Ressourcenverwaltung werden berücksichtigt: automatisierter Versand von Einladungen, selbstständige Buchung der von den Teilnehmern jeweils benötigten Geräte wie Beamer und Projektoren und Übersicht über die angefallenen bzw. laufenden Kosten der Veranstaltung. Gegenstand dieser Arbeit ist die Umsetzung des zweiten Teilbereichs des E-IMS, welcher die Realisierung der Veranstaltungsverwaltung sowie der Funktion zum Abrechnen in Anspruch genommener Ressourcen umfasst. Um Nutzern einen mobilen Zugriff auf die Veranstaltungsdaten zu ermöglichen, wurde die entsprechende Anwendung prototypisch für Mobiltelefone realisiert.
Im Rahmen der vorliegenden Arbeit wurde eine Umfrage bei Absolventen des Fachbereichs 4: Informatik der Universität Koblenz-Landau konzipiert, durchgeführt und ausgewertet. Zielsetzung war die Unterstützung der Task Force Bachelor Master, welche sich mit der Reakkreditierung der Studiengänge befasst hat. Zunächst wurden mithilfe von Desk Research die theoretischen Voraussetzungen zur Konzipierung der Umfrage geschaffen. Weiterhin wurden vergangene Befragungen ähnlicher Art recherchiert, die teilweise als Vorlage dienten. Der unter Berücksichtigung aktueller Veränderungen entstandene Umfrage-Prototyp wurde mithilfe eines Pre-Tests weiter verbessert. Die finale Version wurde schließlich in das OpenSource-Tool LimeSurvey implementiert, welches als technische Grundlage für die Durchführung der Befragung diente. Die Empfänger der Teilnahmeaufforderung an der Umfrage waren Mitglieder von Alumnivereinen sowie Absolventen aus den vorangegangen Jahren.rnAus der Umfrage konnten Erkenntnisse über die Zufriedenheit der Absolventen mit ihrem Studiengang gewonnen werden, aber auch über die Studiensituation im Allgemeinen. Darüber hinaus wurde die Meinung zu zwei neuen Master-Studiengängen, E-Government und Web Science, abgefragt.
Die Resonanz war aus vier Studiengängen stark genug, um aussagekräftige Ergebnisse liefern zu können, aus fünf anderen konnten nur die studiengangübergreifenden Aussagen ausgewertet werden. Insgesamt gab es eine hohe Zufriedenheit der Studierenden mit ihrem Studium. Es konnten aber auch einige Verbesserungsvorschläge und Kritikpunkte gesammelt werden. Diese bezogen sich verstärkt auf die Themen Internationalität, Gewichtung der Lehrinhalte, Wahlfreiheit/Spezialisierung sowie Praxisrelevanz.
Als Ergebnis der Ausarbeitung ließ sich eine Handlungsempfehlung aussprechen, die in Kombination mit den Detailergebnissen aus der Befragung zu einer Verbesserung der Qualität und des Bedarfs der Lehre im Fachbereich 4: Informatik führen soll.
Das Erstellen virtueller Netzwerke hat den Vorteil, dass Routingalgorithmen oder auch verteilte Software sehr einfach, übersichtlich und kostengünstig getestet werden können. Zu den Routingalgorithmen gehört auch das Optimized Link State Routing und der Babel Algorithmus für mobile Ad-Hoc Netze. Die folgende Ausarbeitung beschäftigt sich mit den beiden Algorithmen im Zusammenhang mit fehlerbehafteten Verbindungen in solchen Netzwerken. Normalerweise sind die virtuellen Verbindungen, welche in einem virtuellen Netzwerk erstellt werden, nahe an den optimalen Bedingungen. Oftmals sollen die Routingalgorithmen aber nicht unter optimalen Bedingungen getestet werden, um ein möglichst realistisches Verhalten zu simulieren.
Aus diesem Grund sollen sie mithilfe des Netzwerktools Traffic Control unter nicht optimalen Bedingungen getestet werden. Traffic Control stellt einige Werkzeuge zur Verfügung, um Verbindungen hinsichtlich ihrer Verzögerung oder des Paketverlustes zu manipulieren. In dieser Arbeit werden einige Szenarien erstellt, in denen dies getestet wird. Zusätzlich zu den Routingalgorithmen werden noch Staukontrollverfahren, die dazu dienen Datenstau in Netzwerkverbindungen zu verhindern, auf ihre Arbeitsweise untersucht. Mit Traffic Control ist es auch möglich eine gestaute Verbindung zu simulieren.
Potential vermögender Kunden
(2011)
Diese Bachelorarbeit beschäftigt sich mit dem Potential vermögender Kunden im Private-Banking Sektor und den in diesem Bereich angebotenen Finanzdienstleistungen. Hierzu wird unter anderem ein Vergleich des internationalen Potentials mit dem Potential im deutschsprachigen Raum, mit Hilfe von Zeitreihen, durchgeführt.
Der Bezugszeitraum liegt zwischen den Jahren 2000 und 2009. In dieser Zeit kam es, gerade durch die Finanzkrise undrnderen Folgen, zu Kapitalumverteilungen. Die sich aus dieser Analyse ergebenden Veränderungen des Potentials werden daraufhin im Bezug auf die Umgestaltungsmöglichkeiten im Bereich der Finanzdienstleistungen in diesem Sektor angewandt. Hierbei steht das Erreichen eines hohen Servicegrades im Vordergrund, denn dies ist einer der Hauptgründe, warum eine Kunde bei einer Bank bleibt und diese nicht wechselt. Zudem werden neue Möglichkeiten im Banksektor erwähnt und auf die Auswirkungen unterschiedlicher Berater-Entlohnungsmodelle eingegangen.
Hybrid systems are the result of merging the two most commonly used models for dynamical systems, namely continuous dynamical systems defined by differential equations and discrete-event systems defined by automata. One can view hybrid systems as constrained systems, where the constraints describe the possible process flows, invariants within states, and transitions on the one hand, and to characterize certain parts of the state space (e.g. the set of initial states, or the set of unsafe states) on the other hand. Therefore, it is advantageous to use constraint logic programming (CLP) as an approach to model hybrid systems. In this paper, we provide CLP implementations, that model hybrid systems comprising several concurrent hybrid automata, whose size is only straight proportional to the size of the given system description. Furthermore, we allow different levels of abstraction by making use of hierarchies as in UML statecharts. In consequence, the CLP model can be used for analyzing and testing the absence or existence of (un)wanted behaviors in hybrid systems. Thus in summary, we get a procedure for the formal verification of hybrid systems by model checking, employing logic programming with constraints.
Hybrid automata are used as standard means for the specification and analysis of dynamical systems. Several researches have approached them to formally specify reactive Multi-agent systems situated in a physical environment, where the agents react continuously to their environment. The specified systems, in turn, are formally checked with the help of existing hybrid automata verification tools. However, when dealing with multi-agent systems, two problems may be raised. The first problem is a state space problem raised due to the composition process, where the agents have to be parallel composed into an agent capturing all possible behaviors of the multi-agent system prior to the verification phase. The second problem concerns the expressiveness of verification tools when modeling and verifying certain behaviors. Therefore, this paper tackles these problems by showing how multi-agent systems, specified as hybrid automata, can be modeled and verified using constraint logic programming(CLP). In particular, a CLP framework is presented to show how the composition of multi-agent behaviors can be captured dynamically during the verification phase. This can relieve the state space complexity that may occur as a result of the composition process. Additionally, the expressiveness of the CLP model flexibly allows not only to model multi-agent systems, but also to check various properties by means of the reachability analysis. Experiments are promising to show the feasibility of our approach.
This work addresses the challenge of calibrating multiple solid-state LIDAR systems. The study focuses on three different solid-state LIDAR sensors that implement different hardware designs, leading to distinct scanning patterns for each system. Consequently, detecting corresponding points between the point clouds generated by these LIDAR systems—as required for calibration—is a complex task. To overcome this challenge, this paper proposes a method that involves several steps. First, the measurement data are preprocessed to enhance its quality. Next, features are extracted from the acquired point clouds using the Fast Point Feature Histogram method, which categorizes important characteristics of the data. Finally, the extrinsic parameters are computed using the Fast Global Registration technique. The best set of parameters for the pipeline and the calibration success are evaluated using the normalized root mean square error. In a static real-world indoor scenario, a minimum root mean square error of 7 cm was achieved. Importantly, the paper demonstrates that the presented approach is suitable for online use, indicating its potential for real-time applications. By effectively calibrating the solid-state LIDAR systems and establishing point correspondences, this research contributes to the advancement of multi-LIDAR fusion and facilitates accurate perception and mapping in various fields such as autonomous driving, robotics, and environmental monitoring.
Die Erkennung von Bewegungen mit einem Smartphone ist durch die internen Sensoren, mit denen es ausgestattet ist, ohne externe Sensoren möglich. Zunächst werden vergangene Untersuchungen und deren Verfahrensweise betrachtet. Von diesen Untersuchungen wird die hier verwendete Umsetzung der Bewegungserkennung abgeleitet und beschrieben. Ein Großteil der Literatur verwendet ausschließlich den Beschleunigungssensor für die Bewegungserkennung. Diese Bachelorarbeit untersucht dazu den Nutzen weiterer Sensoren, wie z.B. das magnetische Feld, die lineare Beschleunigung oder das Gyroskop. Die Bewegungserkennung erfolgt durch maschinelles Lernen mit Klassifizierungsalgorithmen. Es werden Decision Tree, Naive Bayes und Support Vector Machines verwendet. Zunächst werden die benötigten Sensordaten mit Hilfe einer eigens entwickelten Applikation von Testpersonen gesammelt und gespeichert. Diese Daten werden als Trainingsdaten für die Klassifizierungsalgorithmen benötigt.
Das Ergebnis ist ein Modell, das die Struktur der gelernten Daten enthält. Validiert werden die Modelle mit Testdatensätzen, die sich von den Trainingsdatensätzen unterscheiden. Die Ergebnisse bestätigen vergangene Untersuchungen, dass die Daten des Beschleunigungssensors ausreichend sind, um Bewegungen sehr genau erkennen zu können. Orientierung, Gyroskop und die lineare Beschleunigung hingegen sind nur bedingt für die Bewegungserkennung einsetzbar. Außerdem scheint für eine geringe Anzahl an Testdaten der Decision Tree am besten geeignet zu sein, wenn Bewegungen von Benutzern erkannt werden sollen, von denen keine Trainingsdaten bei der Erstellung des Modells vorhanden sind.
This paper describes the robot Lisa used by team homer@UniKoblenz of the University of Koblenz Landau, Germany, for the participation at the RoboCup@Home 2017 in Nagoya, Japan. A special focus is put on novel system components and the open source contributions of our team. We have released packages for object recognition, a robot face including speech synthesis, mapping and navigation, speech recognition interface via android and a GUI. The packages are available (and new packages will be released) on
http://wiki.ros.org/agas-ros-pkg.
This paper describes the robot Lisa used by team
homer@UniKoblenz of the University of Koblenz Landau, Germany, for the participation at the RoboCup@Home 2016 in Leipzig, Germany. A special focus is put on novel system components and the open source contributions of our team. We have released packages for object recognition, a robot face including speech synthesis, mapping and navigation, speech recognition interface via android and a GUI. The packages are available (and new packages will be released) on http://wiki.ros.org/agas-ros-pkg.
So genannte Risikomanagement-Informationssysteme (RMIS) unterstützen Unternehmen darin, ihr Risiko-Management unternehmensweit durchzuführen. Im vorliegenden Beitrag analysieren wir mit Hilfe der Scoring-Methode die inhaltlichen Anforderungen an ein RMIS und zeigen, wie das zu einer begründeten Auswahl für die Anschaffung eines RMIS führt. Dazu diskutieren wir erstens, welche Anforderungen an ein RMIS gestellt werden, zweitens klassifizieren wir die auf dem Markt existierenden RMIS bezüglich ihrer Anwendungsziele und drittens erstellen wir einen Anforderungskatalog und ein dreistufiges Verfahren zur Handhabung des Auswahlprozesses. Dieses wird im Rahmen einer erfolgreich durchgeführten Fallstudie im Rahmen einer Masterarbeit [11] in einem konkreten Konzern, der Telekommunikations- und Internetzugang anbietet (United Internet AG, Montabaur), erläutert und evaluiert. 1.
IT-Risk-Management ist ein Bereich, der in den letzten 2 Jahren stark diskutiert und sich verändert hat. Die Anlässe findet man sowohl in den terroristischen Überfällen und entsprechenden Konsequenzen für Unternehmen als auch an die Naturkatastrophen oder Fehlinvestitionen und undurchsichtigen Geschäfte mancher Unternehmen. Daher wurden Richtlinien und Gesetze entworfen, die Vorstände verpflichten, das eigene Unternehmen gegen konkrete Risiken zu schützen. Der Detaillierungsgrad der Vorschläge ist je nach Bereich unterschiedlich. Sind aber Unternehmen bereit, die hohen Investitionen, die mit solchen umfangreichen Projekten zusammenhängen, auf sich zu nehmen um diese Richtlinien zu verfolgen? Wo sehen sie die Vorteile einer IT-Risk-Management-Strategie und wo die Herausforderungen? Welche Entwicklungen oder Veränderung wünschen sie sich? Das sind Fragen, die in der vorliegenden Studie, Experten des Bereich IT-Risk-Management gestellt wurden um die Zukunft des IT-Risk-Managements beeinflussen zu können. Diese Fragestellungen wurden in der vorliegenden Studie untersucht, dazu haben wir Experten des Bereichs IT-Risk-Managements mit Hilfe der Delphi-Methode befragt. Der vorliegende Bericht fasst die wichtigsten Ergebnisse zusammen.
Im Laufe der letzten Jahre hat sich der typische Komplex an kritischen Erfolgsfaktoren für Unternehmen verändert, infolgedessen der Faktor Wissen eine wachsende Bedeutung erlangt hat. Insofern kann man zum heutigen Zeitpunkt von Wissen als viertem Produktionsfaktor sprechen, welcher die Faktoren Arbeit, Kapital und Boden als wichtigste Faktoren eines Unternehmens ablöst (vgl. Keller & Yeaple 2013, S. 2; Kogut & Zander 1993, S. 631). Dies liegt darin begründet, dass aktive Maßnahmen zur Unterstützung von Wissenstransfer in Unternehmen höhere Profite und Marktanteile sowie bessere Überlebensfähigkeit gegenüber Wettbewerbern ohne derartige Maßnahmen nach sich ziehen (vgl. Argote 1999, S. 28; Szulanski 1996, S. 27; Osterloh & Frey 2000, S. 538). Der hauptsächliche Vorteil von wissensbasierten Entwicklungen liegt dabei in deren Nachhaltigkeit, da aufgrund der immateriellen Struktur (vgl. Inkpen & Dinur 1998, S. 456; Spender 1996a, S. 65 f.; Spender 1996b, S. 49; Nelson & Winter 1982, S. 76 ff.) eine Nachahmung durch Wettbewerber erschwert wird (vgl. Wernerfelt 1984, S. 173; Barney 1991, S. 102).
Parallelmanipulatoren, welche den Stewartmechanismus nutzen, ermöglichen die präzise Ausführung von Aufgaben in einem begrenzten Arbeitsraum. Durch die Nutzung von sechs Freiheitsgraden wird eine hohe Flexibilität der Positionierung erreicht. Die robuste Konstruktion sorgt zudem für ein sehr gutes Verhältnis von Gewicht zu Nutzlast.
Diese Bachelorarbeit befasst sich mit der Entwicklung einer flexiblen Softwarelösung zur Ansteuerung einer Stewartplattform. Dies umfasst ein Modell der Plattform, welches zu Testzwecken dient. Es werden zunächst die mathematischen Grundlagen der Inversen Kinematik erarbeitet aufbauend auf einem zuvor definierten Bewegungsmodell. Es folgt die Entwicklung einer generischen Architektur zur Übermittlung und Auswertung von Steuerkommandos vom PC. Die Implementierung geschieht in C und wird in verschiedene Module aufgeteilt, welche jeweils einen Aufgabenbereich der Positionskontrolle oder der Hardwarekommunikation abdecken. Es wird zudem eine graphische Nutzeroberfläche vorgestellt, über die man die Position der Plattform manuell verändern kann. Eine automatische Ansteuerung wird im folgenden Anwendungsbeispiel beschrieben, wo die Plattform mit frequentiellen Beschleunigungswerten einer Achterbahnsimulation beliefert wird.
Quadrokopter sind Helikopter mit vier in einer Ebene angeordneten Rotoren. Kleine unbemannte Modelle, die oft nur eine Schubkraft von wenigen Newton erzeugen können, sind im Spielzeug- und Modellbaubereich beliebt, werden aber auch von Militär und Polizei als Drohne für Aufklärungs- und Überwachungsaufgaben eingesetzt. Diese Diplomarbeit befasst sich mit den theoretischen Grundlagen der Steuerung eines Quadrokopters und entwickelt darauf aufbauend eine kostengünstige Steuerplatine für einen Modellquadrokopter.
Die theoretischen Grundlagen enthalten eine Untersuchung der Dynamik eines frei fliegenden Quadrokopters, bei der Bewegungsgleichungen hergeleitet und mit den Ergebnissen verglichen werden, die in "Design and control of quadrotors with application to autonomous flying" ([Bou07]) vorgestellt wurden. Weiterhin wird die Funktionsweise verschiedener Sensoren beschrieben, die zur Bestimmung der aktuellen räumlichen Ausrichtung geeignet sind, und es werden Verfahren besprochen, mit denen die Ausrichtung aus den Messwerten dieser Sensoren abgeschätzt werden kann. Zusätzlich wird in den Schiefkörper der Quaternionen eingeführt, in dem dreidimensionale Rotationen kompakt dargestellt und effizient verkettet werden können.
Daran anschließend wird die Entwicklung einer einfachen Steuerplatine beschrieben, die sowohl einen autonomen Schwebeflug als auch Fernsteuerung ermöglicht. Die Platine wurde auf einem X-Ufo-Quadrokopter der Firma Silverlit entwickelt und getestet, der daher ebenfalls vorgestellt wird. Die eingesetzten Bauteile und deren Zusammenspiel werden besprochen. Dabei ist insbesondere die WiiMotionPlus hervorzuheben, die als kostengünstiges Gyrosensormodul verwendet wird. Daneben werden verschiedene Aspekte der Steuersoftware erläutert: die Auswertung der Sensordaten, die Zustandsschätzung mit Hilfe des expliziten komplementären Filters nach Mahony et al. ([MHP08]), die Umsetzung des Ausrichtungsreglers sowie die Erzeugung der Steuersignale für die Motoren. Sowohl die Steuersoftware als auch Schaltplan und Platinenlayout der Steuerplatine liegen dieser Arbeit auf einer CD bei. Schaltplan und Platinenlayout sind zusätzlich im Anhang der Arbeit abgedruckt.
Femto ist eine Programmierumgebung, die auf einem ATmega-basierten Einchip-Computer mit VGA-Ausgang und PS/2-Tastaturschnittstelle ausgeführt wird und aus einem einfachen Texteditor sowie einem Interpreter besteht. Dadurch wird es möglich, direkt auf dem Mikrocontroller kleine Programme zu entwickeln und auszuführen. Die interpretierte Sprache mit dem Namen Femtoscript wurde im Rahmen dieser Arbeit entwickelt und ähnelt Javascript. Der Interpreter ist in C geschrieben und kann mit geringem Aufwand auf andere Plattformen portiert werden.
CAMPUS NEWS - artificial intelligence methods combined for an intelligent information network
(2008)
In this paper we describe a network for distributing personalised information with the usage of artificial intelligence methods. Reception of this information should be possible with everyday mobile equipment. Intelligent filtering and spam protection aim at integrating this technology into our environment. Information on the system architecture and usage of the installation are also presented.
Im Zeitraum zwischen 1985 bis 1994 hatten ethnische Konflikte einen Anteil von über 50% der Gesamtzahl aller Konflikte. Oft entstehen Konflikte zwischen verschiedenen ethnischen Gruppen oder zwischen einer ethnischen Gruppe und dem Staat. Die Gründe hierbei sind sehr vielfältig und reichen von der sozialen Benachteiligung bis hin zur Bedrohung kollektiver Identität. Eine wesentliche Schlüsselrolle spielt dabei die politische Elite, die politische und ökonomischen Kriesen ausnutzt, um ethnische Gruppen zu mobilisieren.
Diese Diplomarbeit versucht die Ursachen solcher ethnischer Konflikte am Beispiel des ehemaligen Jugoslawiens zu untersuchen und fokusiert sich dabei besonders auf die Rolle der politische Elite. Hierfür wurde der Ansatz der agentenbasierten Simulation verfolgt. Das mit ArcGIS, EmIL und Repast realisierte agentenbasierte Modell erlaubt eine gründliche Untersuchung solcher Konflikte. Die Haupteigenschaft liegt dabei in der Fähigkeit der Agenten, ein normatives Verhalten entwickeln zu können, womit komplexte soziale Verhaltensweisen simuliert werden können.
Data Mining im Fußball
(2014)
Data Mining ist die Anwendung verschiedener Verfahren, um nützliches Wissen automatisch aus einer großen Menge von Daten zu extrahieren. Im Fußball werden seit der Saison 2011/2012 umfangreiche Daten der Spiele der 1. und 2. Bundesliga aufgenommen und gespeichert. Hierbei werden bis zu 2000 Ereignisse pro Spiel aufgenommen.
Es stellt sich die Frage, ob Fußballvereine mithilfe von Data Mining nützliches Wissen aus diesen umfangreichen Daten extrahieren können.
In der vorliegenden Arbeit wird Data Mining auf die Daten der 1. Fußballbundesliga angewendet, um den Wert bzw. die Wichtigkeit einzelner Fußballspieler für ihren Verein zu quantifizieren. Hierzu wird der derzeitige Stand der Forschung sowie die zur Verfügung stehenden Daten beschrieben. Im Weiteren werden die Klassifikation, die Regressionsanalyse sowie das Clustering auf die vorhandenen Daten angewendet. Hierbei wird auf Qualitätsmerkmale von Spielern, wie die Nominierung eines Spielers für die Nationalmannschaft oder die Note, welche Spieler für ihre Leistungen in Spielen erhalten eingegangen. Außerdem werden die Spielweisen der zur Verfügung stehenden Spieler betrachtet und die Möglichkeit der Vorhersage einer Saison mithilfe von Data Mining überprüft. Der Wert einzelner Spieler wird mithilfe der Regressionsanalyse sowie einer Kombination aus Cluster- und Regressionsanalyse ermittelt.
Obwohl nicht in allen Anwendungen ausreichende Ergebnisse erzielt werden können zeigt sich, dass Data Mining sinnvolle Anwendungsmöglichkeiten im Fußball bietet. Der Wert einzelner Spieler kann mithilfe der zwei Ansätze gemessen werden und bietet eine einfache Visualisierung der Wichtigkeit eines Spielers für seinen Verein.
Dieses Dokument schlägt ein Konzept für eine Personal Key Infrastruktur in iCity vor. Über ein Trust Center (TC) ausgestellte Zertiffkate gewährleisten einen sicheren Schlüsselaustausch mit nachweisbarer Authentisierung des Kommunikationspartners, Abhörsicherheit sowie Unverf älschtheit und Nachweisbarkeit der Nachrichten. Das gemeinsam vertrauensw ürdige TC muss während der Kommunikation nicht erreichbar sein. Es erhält lediglich öffentliche Informationen. Das Konzept stellt mehrere Sicherheitsstufen vor, die sichere Identiffkation und Anonymität unterschiedlich gewichten.
Conventional security infrastructures in the Internet cannot be directly adopted to ambient systems, especially if based on short-range communication channels: Personal, mobile devices are used and the participants are present during communication, so privacy protection is a crucial issue. As ambient systems cannot rely on an uninterrupted connection to a Trust Center, certiffed data has to be veriffed locally. Security techniques have to be adjusted to the special environment. This paper introduces a public key infrastructure (PKI) to provide secure communication channels with respect to privacy, confidentiality, data integrity, non-repudiability, and user or device authentication. It supports three certiffcate levels with a different balance between authenticity and anonymity. This PKI is currently under implementation as part of the iCity project.
An empirical study to evaluate the location of advertisement panels by using a mobile marketing tool
(2009)
The efficiency of marketing campaigns is a precondition for business success. This paper discusses a technique to transfer advertisement content vie Bluetooth technology and collects market research information at the same time. Conventional advertisement media were enhanced by devices to automatically measure the number, distance, frequency and exposure time of passersby, making information available to evaluate both the wireless media as well as the location in general. This paper presents a study analyzing these data. A cryptographic one-way function protects privacy during data acquisition.
Das Zeitfenster ab 1964 bis heute verzeichnet einen Geburtenrückgang. Diese Tatsache hat insofern negative Auswirkung, als dass es für die sozialen Sicherungen Gefahren birgt, nicht mehr finanziert werden zu können. Des Weiteren ist über einen langen Zeitraum mit einem Fachkräftemangel zu rechnen, sollte sich der Geburtenrückgang weiterhin fortsetzen.
In dieser Ausarbeitung wird der Zusammenhang zwischen dem Bildungsgrad der Frau und dem Anteil kindeloser Frauen und der Anzahl an Kindern untersucht. Sollte dabei ein Zusammenhang bestehen, so müssten vor allem Akademikerinnen den höchsten Anteil an Kinderlosigkeit und die niedrigste Kinderzahl je Frau aufweisen. Im Umkehrschluss müssten Frauen mit Hauptschulabschluss oder Frauen ohne Schulabschluss die niedrigsten Anteile an Frauen ohne Kinder und die höchsten Zahlen an Kindern je Frau vermelden.
Das Ziel dieser Bachelorarbeit ist es ein Schätzkonzept zu validieren, das im Rahmen eines Projektes auf der Universität Koblenz-Landau entwickelt wurde, um den Anteil kinderloser Frauen und die Anzahl an Kindern je Frau zu schätzen
Distanzvektor-Routing-Protokolle sind Interior-Gateway-Protokolle, bei denen jeder Router anhand der Informationen, die er von seinen Nachbarn erhält, eine Routingtabelle mit den kürzesten Wegen und dazugehörigen Kosten zu allen anderen Routern des Netzwerks aufbaut. Distanzvektor-Routing-Protokolle sehen jedoch nur unzureichende Mechanismen vor, um die Sicherheit ihrer Operationen zu gewährleisten. Es wird vielmehr einfach davon ausgegangen, dass die Umgebung vertrauenswürdig ist. Router können sich aber aus verschiedenen Gründen böswillig verhalten und falsche Routingupdates einschleusen um das Routing zu manipulieren. Authentizität und Integrität der übermittelten Routinginformationen müssen daher sichergestellt werden; dabei soll eine Balance zwischen Nutzen und Performance gefunden werden.
Diese Arbeit untersucht verschiedene Lösungsansätze, die sich die Erfüllung dieser Anforderungen zum Ziel gesetzt haben, und stellt deren Vor- und Nachteile einander gegenüber.
Im Rahmen dieser Abschlußarbeit wurde ein Plugin zur Visualisierung/Simulation von Public-Key-Infrastrukturen für die Kryptographie-Lernsoftware JCryp-Tool entwickelt und implementiert. Public-Key-Infrastrukturen stellen einen Bereich in der Kryptographie dar, mit dem viele Anwender von IT-Systemen in Berührung kommen.
Das Forschungsprojekt KMU 2.0 zielt auf die Gestaltung einer modernen Arbeitswelt ab, in der die Mitarbeiter eines Netzwerkes kleiner und mittlerer Unternehmen (KMU) ihre Kompetenzen, Kreativität und Ideen in einen unternehmensübergreifenden Austausch einbringen, um innovative Lösungen für Probleme aus dem Berufsalltag gemeinsam zu generieren. Hierüber gilt es neue Wege und Szenarien für das Management der unternehmensübergreifenden Zusammenarbeit in KMU-Netzwerken zu erforschen, mit Hinblick auf die Entstehung und Umsetzung von Innovationen für Probleme aus der modernen Arbeitswelt. Fokussiert wird dabei auf den Einsatz von Web 2.0-Technologien, die als Instrument hinsichtlich ihres Unterstützungspotentials bei der kooperativen Generierung von innovativen Lösungen untersucht werden. Zentrale Fragestellung dabei ist, ob der Einsatz von Web 2.0 in einem Netzwerk von KMU den Austausch innovativer Ideen durch Vernetzung der Mitarbeiter und ihres kreativen Potentials fördert. Praxispartner ist das WirtschaftsForum Neuwied e.V., ein im nördlichen Rheinland-Pfalz angesiedeltes Unternehmen, das aus ca. 115 Mitgliedern und 10.000 Mitarbeitern besteht und durch eine heterogene Struktur an Unternehmen unterschiedlichster Größen und Branchen sowie verschiedenster Leistungsangebote charakterisiert ist.
Es werden Rezipienten-Kommentare der Videoplattform YouTube zu den jeweils fünf erfolgreichsten Liedern der Jahre 2011 und 2012 nach nostalgischen Inhalten untersucht. Diese als nostalgisch identifizierten Kommentare werden inhaltlich analysiert und ausgewertet. Es soll herausgefunden werden, ob nostalgische Inhalte in Musikstücken Erfolgsfaktoren sind. Mittels des Uses-and-Gratifications-Ansatzes wird ermittelt welchen Zweck Rezipienten mit dem Konsum von Nostalgie auslösender Musik verfolgen. Musik ist ein deutlich stärkerer Nostalgieauslöser als das Musikvideo, wohingegen Nostalgie positiven und/oder negativen Affekt auslöst. Zudem wurde persönliche Nostalgie sehr viel häufiger identifiziert als historische Nostalgie. Weiterhin hat das Liedelement Liedtext ein deutlich größeres persönlich-nostalgisches Potential als andere Liedelemente. Personen und bedeutsame Ereignisse scheinen die häufigsten Objekte während persönlich-nostalgischer Träumerei zu sein. Rezipienten konsumieren nostalgische Musik, um in ihnen gewollt positive und/oder negative Emotionen hervorzurufen. Somit scheint Nostalgie in Musik bestimmte Bedürfnisse der Rezipienten zu befriedigen und es kann angenommen werden, dass Nostalgie als ein Erfolgsfaktor angesehen werden kann.
The paper deals with a specific introduction into probability propagation nets. Starting from dependency nets (which in a way can be considered the maximum information which follows from the directed graph structure of Bayesian networks), the probability propagation nets are constructed by joining a dependency net and (a slightly adapted version of) its dual net. Probability propagation nets are the Petri net version of Bayesian networks. In contrast to Bayesian networks, Petri nets are transparent and easy to operate. The high degree of transparency is due to the fact that every state in a process is visible as a marking of the Petri net. The convenient operability consists in the fact that there is no algorithm apart from the firing rule of Petri net transitions. Besides the structural importance of the Petri net duality there is a semantic matter; common sense in the form of probabilities and evidencebased likelihoods are dual to each other.
In this paper, we demonstrate by means of two examples how to work with probability propagation nets (PPNs). The fiirst, which comes from the book by Peng and Reggia [1], is a small example of medical diagnosis. The second one comes from [2]. It is an example of operational risk and is to show how the evidence flow in PPNs gives hints to reduce high losses. In terms of Bayesian networks, both examples contain cycles which are resolved by the conditioning technique [3].
Probability propagation nets
(2007)
A class of high level Petri nets, called "probability propagation nets", is introduced which is particularly useful for modeling probability and evidence propagation. These nets themselves are well suited to represent the probabilistic Horn abduction, whereas specific foldings of them will be used for representing the flows of probabilities and likelihoods in Bayesian networks.
Dualizing marked Petri nets results in tokens for transitions (t-tokens). A marked transition can strictly not be enabled, even if there are sufficient "enabling" tokens (p-tokens) on its input places. On the other hand, t-tokens can be moved by the firing of places. This permits flows of t-tokens which describe sequences of non-events. Their benefiit to simulation is the possibility to model (and observe) causes and effects of non-events, e.g. if something is broken down.
The paper is devoted to solving a problem of the development of the website of Russian municipal policlinics and provides a selection of a set of elements which should be posted on a website. Such elements are necessary to provide citizens with correct and ergonomic e-services. The insufficient development of an infrastructure of institutions of public and municipal administration (particularly, healthcare institutions) in Russia made it necessary to analyze webresources used in different countries at different levels of providing medical services. The information resources of medical treatment facilities of the United Kingdom, of the United Statesrnof America and of the Federal Republic of Germany were researched separately for three existing economic models of healthcare. A set of criteria for the assessment of medical webresources was developed.
3D-Kurven-Skelette werden oft verwendet, da sie im Vergleich zu der von Harry Blum 1967 vorgestellten Medialen Axen Transformation, eine Repäsentation der Objekt-Oberfläche darstellen, die in der Weiterverarbeitung weniger kompex und rechenintensiv ist.
Diese Arbeit hat das Ziel, ein Approximation-Verfahren für 3D-Kurven-Skelette zu entwickeln, welches die oben genannten Vorteile enthält und sich auf verschiedene Szenarien von Objektoberflächen-Daten anwenden lässt.
Die Messung der Produktivität von Dienstleistungen ist trotz zunehmender Relevanz immer noch ein wenig durchdrungenes Forschungsfeld. Ursachen hierfür sind vor allem in den besonderen Merkmalen von Dienstleistungen - Immaterialität und Integrativität - zu suchen. Eine typische Dienstleistung der B2B Softwarebranche ist die Anpassung von Systemen an die Bedürfnisse des Kunden - das sogenannte Customizing. Die Ausschöpfung des Customizing-Potentials von Standardsoftware und -produkten und eine stärkere Einbeziehung des Kunden in Innovationsprozesse werden jedoch dadurch erschwert, dass die Produktivität dieser Dienstleistung nur unzureichend mess- und somit bewertbar zu sein scheint.
Der vorliegende Beitrag beschreibt die Entwicklung eines Modells zur Messung der Produktivität von Dienstleistungen auf der Basis unterschiedlicher Vorstudien im Rahmen des CustomB2B Projektes an der Universität Koblenz-Landau.
Die Personendetektion spielt eine wichtige Rolle in der Interaktion zwischen Mensch und Maschine. Immer mehr Roboter werden in menschlichen Umgebungen eingesetzt und sollen auf das Verhalten von Personen reagieren. Um das zu ermöglichen, muss ein Roboter zunächst in der Lage sein, die Person als solche zu erkennen. Diese Arbeit stellt ein System zur Detektion von Personen und ihrer Hände mittels einer RGBD-Kamera vor. Um eine Person zu erkennen werden zu Beginn modellbasierte Hypothesen über mögliche Personenpositionen aufgestellt. Anhand des Kopfes und Oberkörpers werden neu entwickelte Merkmale extrahiert, welche auf dem Relief und der Breite von Kopf und Schultern einer Person basieren. Durch die Klassifikation der Merkmale mit Hilfe einer Support Vector Machine (SVM) werden die Hypothesen überprüft und somit gültige Personenpositionen ermittelt. Dabei werden sowohl stehende, wie auch sitzende Personen anhand ihres sichtbaren Oberkörpers in verschiedenen Posen detektiert. Darüber hinaus wird ermittelt, ob die Person dem Sensor zugewandt oder abgewandt ist. Bei einer zugewandten Person werden zusätzlich, mit Hilfe der Farbinformation und der Entfernung zwischen Hand und Körper, die Positionen der Hände der Person bestimmt. Diese Information kann dann im nächsten Schritt zur Gestenerkennung genutzt werden.
Wir präsentieren die konzeptuellen und technologischen Grundlagen einer verteilten natürlich sprachlichen Suchmaschine, die einen graph-basierten Ansatz zum Parsen einer Anfrage verwendet. Das Parsing-Modell, das in dieser Arbeit entwickelt wird, generiert eine semantische Repräsentation einer natürlich sprachlichen Anfrage in einem 3-stufigen, übergangsbasierten Verfahren, das auf probabilistischen Patterns basiert. Die semantische Repräsentation einer natürlich sprachlichen Anfrage wird in Form eines Graphen dargestellt, der Entitäten als Knoten und deren Relationen als Kanten repräsentiert. Die präsentierte Systemarchitektur stellt das Konzept einer natürlich sprachlichen Suchmaschine vor, die sowohl in Bezug auf die einbezogenen Vokabulare, die zum Parsen der Syntax und der Semantik einer eingegebenen Anfrage verwendet werden, als auch in Bezug auf die Wissensquellen, die zur Gewinnung von Suchergebnissen konsultiert werden, unabhängig ist. Diese Funktionalität wird durch die Modularisierung der Systemkomponenten erreicht, die externe Daten durch flexible Module anspricht, welche zur Laufzeit modifiziert werden können. Wir evaluieren die Leistung des Systems indem wir die Genauigkeit des syntaktischen Parsers, die Präzision der gewonnenen Suchergebnisse sowie die Geschwindigkeit des Prototyps testen.
Die weltweite Zugänglichkeit und umfangreiche Nutzung des Internets machen dieses Medium zu einem effizienten und beliebten Informations-, Kommunikations-, und Verkaufsinstrument. Immer mehr Menschen und Organisationen versuchen, diese Vorzüge durch eine eigene Website für ihre Zwecke zu verwenden. Als hilfreiches Mittel zur Optimierung von Webpräsenzen bewährte sich in den letzten Jahren der Einsatz von Web-Analytics-Software. Durch diese Software sind Websitebetreiber in der Lage, Informationen über die Besucher ihrer Website und deren Nutzungsverhalten zu sammeln und zu messen. Das angestrebte Resultat sind Optimierungsentscheidungen auf Basis von Daten an Stelle von Annahmen und wirkungsvolle Testmöglichkeiten.
Für den Bereich des E-Commerce existieren bis dato zahlreiche wissenschaftliche und praxiserprobte Hilfestellungen für Web-Analytics-Projekte. Informationswebsites hingegen werden trotz ihrer Wichtigkeit nur vereinzelt thematisiert. Um diesem Defizit entgegenzuwirken, hat Hausmann 2012 das Framework for Web Analytics entwickelt, welches dem Anwender ein hilfreiches Referenzmodell für sein Web Analytics-Vorhaben bietet. Diesen Ansatz weiter voranzutreiben ist das Ziel der Abschlussarbeit. Dazu wird mithilfe einer Literaturanalyse und einer Fallstudie das Framework validiert und ergänzt, sowie weitere Handlungsempfehlungen identifiziert. Als Ergebnis werden die wichtigsten Erkenntnisse dieser Forschung zusammengefasst und für den zukünftigen Gebrauch festgehalten.
This paper describes results of the simulation of social objects, the dependence of schoolchildren's professional abilities on their personal characteristics. The simulation tool is the artificial neural network (ANN) technology. Results of a comparison of the time expense for training the ANN and for calculating the weight coefficients with serial and parallel algorithms, respectively, are presented.
This paper describes a parallel algorithm for selecting activation functionsrnof an artifcial network. For checking the efficiency of this algorithm a count of multiplicative and additive operations is used.
An estimation of the number of multiplication and addition operations for training artififfcial neural networks by means of consecutive and parallel algorithms on a computer cluster is carried out. The evaluation of the efficiency of these algorithms is developed. The multilayer perceptron, the Volterra network and the cascade-correlation network are used as structures of artififfcial neural networks. Different methods of non-linear programming such as gradient and non-gradient methods are used for the calculation of the weight coefficients.
Große Mengen qualitativer Daten machen die Verwendung computergestützter Verfahren bei deren Analyse unvermeidlich. In dieser Thesis werden Text Mining als disziplinübergreifender Ansatz, sowie die in den empirischen Sozialwissenschaften üblichen Methoden zur Analyse von schriftlichen Äußerungen vorgestellt. Auf Basis dessen wird ein Prozess der Extraktion von Konzeptnetzwerken aus Texten skizziert, und die Möglichkeiten des Einsatzes von Verfahren zur Verarbeitung natürlicher Sprachen aufgezeigt. Der Kern dieses Prozesses ist die Textverarbeitung, zu deren Durchführung Softwarelösungen die sowohl manuelles als auch automatisiertes Arbeiten unterstützen, notwendig sind. Die Anforderungen an diese Werkzeuge werden unter Berücksichtigung des initiierenden Projektes GLODERS, welches sich der Erforschung von Schutzgelderpressung durchführenden Gruppierungen als Teil des globalen Finanzsystems widmet, beschrieben, und deren Erfüllung durch die zwei hervorstechendsten Kandidaten dargelegt. Die Lücke zwischen Theorie und Praxis wird durch die prototypische Anwendung der Methode unter Einbeziehung der beiden Lösungen an einem dem Projekt entspringenden Datensatz geschlossen.
Im Rahmen des "Design Thinking"-Prozesses kommen unterschiedliche Varianten kreativitätsfördernder Techniken zum Einsatz. Aufgrund der zunehmenden Globalisierung ergeben sich immer häufiger Kollaborationen, bei denen sich die jeweiligen Projektteilnehmer an verteilten Standorten befinden. Somit erweist sich die Digitalisierung des Design-Prozesses als durchaus erstrebenswert. Ziel der hier vorliegenden Untersuchung ist daher die Erstellung eines Bewertungsschemas, welches die Eignung digitaler Kreativitätstechniken in Bezug auf das "Entrepreneurial Design Thinking" misst. Des Weiteren soll geprüft werden, inwiefern sich der Einsatz von e-Learning-Systemen in Kombination mit der Verwendung digitaler Kreativitätstechniken eignet. Diese Prüfung soll am Beispiel der e-Learning Software "WebCT" konkretisiert werden. Hieraus ergibt sich die folgende Fragestellung: Welche digitalen Kreativitätstechniken eignen sich für die Anwendung im Bereich des "Entrepreneurial Design Thinkings" unter Einsatz der e-Learning Plattform "WebCT"? Zunächst wird eine Literaturanalyse bezüglich des "Entrepreneurial Design Thinkings", der klassische und digitale Kreativitätstechniken sowie des Arbeitens in Gruppen, was auch das Content Management, e-Learning-Systeme und die Plattform "WebCT" beinhaltet, durchgeführt. Im Anschluss daran wird eine qualitative Untersuchung durchgeführt. Auf Basis bereits bestehender Literatur, soll ein Bewertungsschema erstellt werden, welches misst, welche der behandelten digitalen Kreativitätstechniken für den Einsatz im "Entrepreneurial Design Thinking" am besten geeignet ist. Darauf aufbauend erfolgt die Verknüpfung des digitalisierten "Design Thinking"-Prozesses mit der e-Learning Plattform "WebCT". Abschließend wird diskutiert, in wie fern diese Zusammenführung als sinnvoll erachtet werden kann.
Um die Attraktivität eines Unternehmens für Bewerber zu steigern und die Zufriedenheit der Angestellten zu verbessern ist es heutzutage unumgänglich, eine Vielzahl an Work-Life-Balance Maßnahmen anzubieten. Doch die zeitlichen und finanziellen Kosten, welche deren Einführung verursacht, fordern eine Priorisierung der Maßnahmen. Zur Entwicklung einer solchen Empfehlung für Unternehmen untersucht diese Studie ob es Work-Life-Balance Maßnahmen gibt, welche einen höheren Einfluss auf die Arbeitszufriedenheit ausüben als andere, wie groß der relative Effekt von den Maßnahmen im Vergleich zu anderen arbeitsbezogenen und privaten Variablen auf die Veränderung der Arbeitszufriedenheit ist, ob es einen Zusammenhang zwischen der Effektivität einer Maßnahme und deren Nutzung gibt und ob es Unterschiede zwischen den Erwartungen der Angestellten und den Angeboten der Unternehmen gibt.
Diese Fragen sind in acht Forschungshypothesen formuliert, welche in einem quantitativen Design mit Daten von 289 Angestellten von fünfzehn verschiedenen deutschen Unternehmen aus einem Online-Fragebogen überprüft werden. Für die Bildung einer Hierarchie von Maßnahmen nach ihrem Einfluss auf die Arbeitszufriedenheit und die Untersuchung des relativen Effektes im Vergleich zu anderen Variablen wird eine multiple Regressionsanalyse verwendet, während für die Ermittlung der Unterschiede zwischen den Erwartungen der Angestellten und der Verfügbarkeit der Angebote T-Tests durchgeführt werden.
Unterstützung bei der Kindesbetreuung, Unterstützung bei ehrenamtlichen Tätigkeiten und Teambuilding-Events haben einen signifikant höheren Einfluss auf die Arbeitszufriedenheit als andere Maßnahmen, und die hypothetische Nutzung ist höher
als die tatsächliche Nutzung, was auf ein hohes Potenzial dieser Maßnahmen bezüglich der Verbesserung der Arbeitszufriedenheit durch deren Einführung schließen lässt. Darüber hinaus sind aus Sicht der Angestellten flexible Arbeitszeiten und Arbeitsorte sowie Freizeit- und Überstundenkonten die wichtigsten Maßnahmen, welche auch bereits flächendeckend in den befragten Unternehmen angeboten werden. Allgemein sind die Nutzung der verfügbaren Maßnahmen und die Anzahl der angebotenen Maßnahmen wichtiger im Hinblick auf die Arbeitszufriedenheit als die Art der Maßnahmen. Außerdem nehmen Work-Life-Balance Maßnahmen bei jüngeren Menschen einen höheren Stellenwert in Bezug auf die Arbeitszufriedenheit ein als bei älteren Menschen.
The objective of this contribution is to conceptually analyze the potentials of entrepreneurial design thinking as being a rather new method for entrepreneurship education. Based on a literature review of different design thinking concepts we carve out a generic design thinking model upon we conceptually build a new model that considers entrepreneurial thinking as a valuable characteristic.
The results of our work show that the characteristics of entrepreneurial design thinking can enhance entrepreneurship education by supporting respective action fields of entrepreneurial learning. In addition we reveal that entrepreneurial design thinking offers beneficial guidelines for the design of entrepreneurship education programs.