Filtern
Erscheinungsjahr
- 2010 (65) (entfernen)
Dokumenttyp
- Diplomarbeit (18)
- Ausgabe (Heft) zu einer Zeitschrift (14)
- Studienarbeit (13)
- Bachelorarbeit (12)
- Dissertation (6)
- Masterarbeit (2)
Sprache
- Deutsch (65) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (4)
- Routing (3)
- Web 2.0 (3)
- 3D (2)
- Datenschutz (2)
- GPS (2)
- Geschäftsprozess (2)
- Mustererkennung (2)
- Netzwerk (2)
- RMTI (2)
- TGraph (2)
- 2-D (1)
- Anforderungsprofil (1)
- Annotationsmodell (1)
- Audiodatei (1)
- Augmented Reality (1)
- Ausstellung (1)
- Authentisierung (1)
- Automatisches Beweisverfahren (1)
- Autorensystem (1)
- BPMN (1)
- Balancetheorie (1)
- Benutzerschnittstelle (1)
- Bild (1)
- Bildanalyse-Verfahren (1)
- Bildverarbeitung (1)
- Bioindikator (1)
- Browser (1)
- Business intelligence (1)
- CB2 (1)
- CSCW (1)
- Cascada (1)
- Closed Source (1)
- Common Annotation Framework (1)
- Computational logic (1)
- Computer Supported Cooperative Work (1)
- Computergraphik (1)
- Controlling (1)
- DTI (1)
- Datenaustausch (1)
- Delta (1)
- Demoskopie (1)
- Diagnostik (1)
- E-KRHyper (1)
- E-Learning (1)
- E-Mail (1)
- E-Partizipation (1)
- E-participation (1)
- EPC (1)
- EPK (1)
- Ecore (1)
- Einchip-Computer (1)
- Elektronisches Wasserzeichen (1)
- Emergenzen (1)
- Enterprise Architect (1)
- Entwurfssprache (1)
- Fertilitaet (1)
- Forensik (1)
- Forschungsprojekt KMU 2.0 (1)
- GPU Programmierung (1)
- Ganzheitlichkeit (1)
- Geoinformation (1)
- Geometryshader (1)
- Geschäftsmodell (1)
- Gesundheitsbezogene Lebensqualität (1)
- Glint Center Estimation Algorithmus (1)
- Globale Beleuchtung (1)
- Grundwasserfauna (1)
- Grundwasserfauna-Index (1)
- HDR-Kamera (1)
- Handlungskompetenz (1)
- Handlungsorientierung (1)
- Headtracking (1)
- Heuristiken (1)
- Hyperspace-Modell (1)
- IM-Systeme (1)
- IP-Adressen (1)
- IPTV (1)
- Informatik (1)
- Informationsmanagement (1)
- Informationsmanagementsystem (1)
- Innovation (1)
- Innovationsmanagement (1)
- Instant Messaging (1)
- Interpretierer (1)
- Invarianzmessung (1)
- Inverses Modell (1)
- JGraph (1)
- Java (1)
- Kamera (1)
- Klassifikationsframework (1)
- Klausellogik (1)
- Kompetenz (1)
- Kompetenzdiagnostik (1)
- Kompetenzentwicklung (1)
- Konfirmatorische Faktorenanalyse (1)
- Konvergenz (1)
- Laacher See <Region> (1)
- Lokale Bildmerkmale (1)
- Medizinische Visualisierung (1)
- Mehrbenutzer-Annotationssystem (1)
- Mensch-Maschine-Schnittstelle (1)
- Mesophiler Laubwald (1)
- Mikrocontroller (1)
- Mikrocontroller AVR (1)
- Mikrozensus (1)
- Modellieren (1)
- Modellierungskompetenz (1)
- Modellierungstool (1)
- Monitoring (1)
- Naturpotential (1)
- Naturräumliche Gliederung (1)
- Naturschutz (1)
- Network (1)
- Netzwerk Protokollen (1)
- Netzwerk kleiner und mittlerer Unternehmen (1)
- Norm (1)
- Nutzungsrechte (1)
- OSS (1)
- Objekterkennung (1)
- Offener Innovationsprozess (1)
- Office-Prozess (1)
- Open Innovation (1)
- Open Source (1)
- Open Source Software (1)
- Opinion mining (1)
- Optimierung (1)
- P2P (1)
- Personal Key Infrastruktur (1)
- Physiksimulation (1)
- Posebestimmung (1)
- Poseschätzung (1)
- Programmierumgebung (1)
- Projekt iCity (1)
- Projektlernen (1)
- Projektunterricht (1)
- Protocol (1)
- Prozessmanagement (1)
- Prädikatenlogik (1)
- Pupil Center Estimation Algorithmus (1)
- Qt/C++ (1)
- RIP (1)
- RIP-MTI (1)
- RIP-XT (1)
- Rechnernetz (1)
- Referenzmetamodell (1)
- Response-Shift (1)
- Robotik (1)
- SIFT-Algorithmus (1)
- SIFT-Merkmale (1)
- SOA-Webservice (1)
- SPARQL (1)
- STOR (1)
- SURF-Algorithmus (1)
- Semantic Web (1)
- Sesame (1)
- Shared Annotation Model (1)
- Shared Annotations (1)
- Sicherheit (1)
- Sicherheitsanforderungen (1)
- Softwareentwicklung (1)
- Softwaremodellierung (1)
- Soziale Online Systeme (1)
- Soziologie (1)
- Soziooekonomisches Panel (1)
- Spannender Baum (1)
- Spanning Tree (1)
- Statistische Analyse (1)
- Tableau <Logik> (1)
- Transformation (1)
- UML Activity Diagrams (1)
- UML Aktivitätsdiagramm (1)
- URM (1)
- Uferfiltration (1)
- Ungarische Methode (1)
- Universitäre Lehrveranstaltung (1)
- Unterrichtsforschung (1)
- Usage Rights Management (1)
- User Interface (1)
- VNUML (1)
- VOXEL (1)
- Verbraucherforschung (1)
- Virtuelle Welt (1)
- Virtueller Raum (1)
- Visualisierung (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Webserver (1)
- Webservice Sail (1)
- Wii (1)
- Wii-Kamera (1)
- Wiki (1)
- Wikipedia (1)
- Wireshark (1)
- World Wide Web 2.0 (1)
- XTPeer (1)
- XTpeer (1)
- Zertifikat (1)
- amtliche Haushaltsbefragungen (1)
- andLinux (1)
- andLinux. (1)
- assessment (1)
- bank filtration (1)
- bioindicator (1)
- business process (1)
- confirmatory factor analysis (1)
- convergence analysis (1)
- ediv (1)
- grUML (1)
- groundwater fauna (1)
- groundwater-fauna-index (1)
- health-related quality of life (1)
- hydrological interactions (1)
- hydrologische Interaktionen (1)
- kollaboratives Lernen (1)
- mathematical modeling (1)
- mathematische Kompetenz (1)
- mathematisches Modellieren (1)
- measurement of invariance (1)
- menschliches Auge (1)
- modeling competency (1)
- myAnnotations (1)
- nichtamtliche Haushaltsbefragungen (1)
- official household surveys (1)
- oncological rehabilitation (1)
- onkologische Rehabilitation (1)
- privacy (1)
- reference meta model (1)
- response-shift (1)
- rip (1)
- rmti (1)
- security (1)
- security requirements (1)
- unofficial household surveys (1)
- vnuml (1)
- xtpeer (1)
Institut
- Institut für Computervisualistik (17)
- Institut für Wirtschafts- und Verwaltungsinformatik (13)
- Fachbereich 4 (8)
- Institut für Informatik (8)
- Institut für Management (6)
- Zentrale Einrichtungen (6)
- Institut für Softwaretechnik (5)
- Arbeitsbereich Diagnostik, Differentielle und Persönlichkeitspsychologie, Methodik und Evaluation (1)
- Fachbereich 5 (1)
- Fachbereich 8 (1)
Response-Shift bezeichnet eine Veränderung des Bewertungshintergrunds für subjektive Konzepte wie bspw. der gesundheitsbezogenen Lebensqualität (GLQ) im Rahmen der Auseinandersetzung mit einer schweren bzw. chronischen Erkrankung. Krebserkrankungen werden als Auslöser eines Response-Shifts angesehen. Response-Shift kann in drei verschiedenen Formen auftreten: Als Rekalibrierung, Reprioritisierung und Neukonzeptualisierung der GLQ. Eine Erfassung dieser drei Response-Shift-Prozesse bei einer homogenen Stichprobe von PCa-Patienten in der onkologischen Rehabilitation liegt in Deutschland bisher nicht vor. Es wurden von insgesamt 212 Prostatakrebspatienten (PCa-Patienten) in der Anschlussheilbehandlung Daten zur GLQ mittels des EORTC-QLQ-C30 vor Beginn der Maßnahme sowie 3 Monate nach Beginn erhoben und in die Auswertung zur Response-Shift-Erfassung aufgenommen. Die Prozesse Rekalibrierung, Reprioritisierung und Neukonzeptualisierung wurden mit Hilfe der konfirmatorischen Faktorenanalyse (KFA) erfasst. Eine Rekalibrierung läßt sich auf der Ebene der Messfehler und Intercepts überprüfen. Die Reprioritisierung und Neukonzeptualisierung kann anhand der Veränderung der Faktorladungen untersucht werden. Bei dem Vorgehen handelt es sich um einen Ansatz aus der Invarianzmessung von Variablen und Parametern im Längsschnitt. In der vorliegenden Arbeit wurde untersucht, ob in der Gesamtstichprobe ein Response-Shift auftritt, und falls ja, in welcher Form (Fragestellung 1). Weiterhin sollte anhand von Subgruppenanalysen (Medianisierung) geprüft werden, welchen Einfluss einerseits das Ausmaß der Veränderung der globalen Lebensqualität (Fragestellung 2) und andererseits die Variablen Benefit-Finding, Selbstwirksamkeit sowie Positive und Negative Affektivität (Fragestellung 3) auf einen Response-Shift haben. Es konnte ein Basismodell der GLQ zu zwei Messzeitpunkten bei den PCa-Patienten identifiziert werden, dass als geeignet bezeichnet wurde, um einen Response Shift in der vorliegenden Stichprobe zu untersuchen (ï£2/df = 1.50, RMSEA = 0.05, CFI = 0.98, TLI = 0.97). Ein so genanntes Nullmodell, in dem alle Response-Shift relevanten Parameter für beide Messzeitpunkte als gleich angenommen wurde, wies eine inakzeptable Modellpassung auf (ï£2/df = 5.30, RMSEA = 0.14, CFI = 0.76, TLI = 0.71). Über die Ableitung geschachtelter Modellvergleiche konnte ausgehend von dem Nullmodell ein Response-Shift-Modell berechnet werden, dass wiederum eine gute Passung aufwies (ï£2/df= 1.31, RMSEA = 0.04, CFI = 0.99, TLI = 0.98). In der vorliegenden Gesamtstichprobe wurden Rekalibrierungsprozesse auf den Skalen Physische, Kognitive und Rollenfunktionsfähigkeit identifiziert, die sich auf die Kalkulation der beobachteten Effekte auf Skalenebene auswirkten. Es konnte gezeigt werden, dass Response Shift einen erheblichen Einfluss auf die beobachteten Effekten auf Skalenebene hat (Fragestellung 1). So schätzen PCa-Patienten ihre Physische und Rollenfunktionsfähigkeit zum 2. Messzeitpunkt positiver ein, ohne dass dies auf Veränderungen der GLQ zurückgeführt werden kann. Unabhängig von der Veränderung der GLQ zwischen den Messzeitpunkten schätzen die Patienten ihre Kognitive Funktionsfähigkeit zum Postmesszeitpunkt negativer ein als zur ersten Messung. In den Subgruppenanalysen zeigt sich, dass das Ausmaß der Veränderung der globalen Lebensqualität einen Einfluss auf die Anzahl von Response-Shift-Prozessen hat. Dies gilt ebenso für die Variablen Benefit-Finding, Selbstwirksamkeit und Positive Affektivität. Jedoch lassen sich Unterschiede im Ausmaß von Response-Shift-Effekten zwischen verschiedenen Subgruppen nicht eindeutig nachweisen (Fragestellung 2 und 3). Response Shift sollte bei Untersuchungen der GLQ bei Krebserkrankungen mehr Berücksichtigung finden. Das setzt jedoch voraus, dass die Methoden zur Erfassung des Phänomens weiterentwickelt werden. Mit der hier eingesetzt Methode der KFA im Längsschnitt steht ein geeignetes Verfahren zur Verfügung, das Response-Shift bei einfachen Prä-Post-Messungen erfassen kann. Praktisch relevant erscheint das Ergebnis der Arbeit im Zusammenhang mit der Überprüfung der Wirksamkeit von Maßnahmen der onkologischen Rehabilitation. Werden zur Evaluation Skalen eingesetzt, die response-shift-beeinflusst sind, darf nicht ohne Weiteres auf eine Veränderung des zugrundeliegenden Konstrukts geschlussfolgert werden. In der vorliegenden Arbeit würde die Veränderung der GLQ anhand der Veränderung der manifesten Werte der Skalen Physische und Rollenfunktionsfähigkeit eher überschätzt. Anhand der Skala Kognitive Funktionsfähigkeit würden Veränderungen der GLQ jedoch eher unterschätzt. Somit bietet sich der KFA-Ansatz an, um die Änderungssensitivität von Lebensqualitätsinstrumenten zu prüfen und diese entsprechend weiter zu entwickeln. Außerdem bietet die Methode Möglichkeiten, um inhaltliche Einflussfaktoren auf einen Response-Shift zu prüfen.
Geschäftsordnung des Interdisziplinären Promotionszentrums der Universität Koblenz-Landau
Ordnung für die Prüfung im Bachelorstudiengang und im Masterstudiengang BioGeoWissenschaften der Universität Koblenz-Landau
Ordnung zur Aufhebung der Ordnung für die Prüfung im Bachelorstudiengang Ecological Impact Assessment und der Ordnung für die Prüfung im Masterstudiengang Ecological Impact Assessment in Freshwater Ecosystems an der Universität Koblenz-Landau
Gemeinsame Prüfungsordnung für den Bachelorstudiengang und den Masterstudiengang "Psychologie" des Fachbereichs Psychologie der Universität Koblenz-Landau, Campus Landau
Ordnung zur Aufhebung der Diplomprüfungsordnung für Studierende der Psychologie an der Universität Koblenz-Landau, Abteilung Landau
Ordnung zur Änderung der Prüfungsordnung für den Bachelorstudiengang "Sozialwissenschaften" und den Masterstudiengang "Moderne Gesellschaften im Wandel" des Fachbereichs 6: Kultur- und Sozialwissenschaften an der Universität Koblenz-Landau
Diese Arbeit behandelt verschiedene Ansätze zur Ermittlung einer Heuristik, welche zur Bestimmung einer optimalen Konfiguration des Theorembeweisers E-KRHyper eingesetzt werden soll. Es wird erläutert, wie der Beweiser durch eine angepasste Voreinstellung optimiert werden kann und die erarbeiteten Ansätze zur Ermittlung dieser Voreinstellung werden vorgestellt. Anhand der erzielten Ergebnisse werden die Ansätze anschließend bewertet und für eines der vorgestellten Verfahren wird außerdem eine Idee zur Implementierung vorgestellt.
Informatik hautnah erleben
(2010)
In vielen Köpfen - sowohl bei Erwachsenen wie auch bei Schülern - geistert der Glaube, dass Informatik die Wissenschaft der "Computerlehre" ist. Schon der berühmte Satz "In der Informatik geht es genauso wenig um Computer wie in der Astronomie um Teleskope", der dem Informatiker Edsger W. Dijkstra (1930 - 2002) zugeschrieben wird, drückt historisch schon früh den Gedanken aus, dass die Informatik den Computer nur als ein Hilfsmittel und Medium nutzt, genauso wie die Mathematik den Taschenrechner. Die Fehlvorstellung, die leider auch häufig in den Schulen vermittelt wird, zeigt, dass hier Aufklärung nötig ist.
Obwohl E-Partizipation immer mehr an Bedeutung gewinnt, werden Sicherheitsrisiken und -anforderungen bisher nur oberflächlich betrachtet. Diese Masterarbeit soll einen Beitrag zur Sicherheit und zum Datenschutz von E-Partizipationsanwendungen leisten. Dabei befasst sich die Arbeit mit dem Nutzer von elektronischen Beteiligungsformen. Da dieser im E-Partizipationsprozess seine persönlichen Daten bereitstellt, müssen Vertrauenswürdigkeit, Vertraulichkeit, Transparenz, Verfügbarkeit und Rechtssicherheit zwischen öffentlicher Verwaltung und Nutzer geschaffen werden. Eine der wichtigsten Maßnahmen hierbei ist es, einen möglichst hohen Sicherheits- und Datenschutzstandard in der Informations- und Kommunikationstechnologie durch die Verwaltung zu gewährleisten und dem Bürger Sicherheit im Umgang mit E-Partizipationsanwendungen zu geben. Die Masterarbeit untersucht verschiedene E-Partizipationsangebote der Bereiche Bürgerhaushalte, E-Konsultationen, Parteiwebseiten und E-Petitionen und beleuchtet zunächst, welchen Einfluss sicherheitskritische E-Partizipationssysteme auf das politische System haben können. Anschließend wird der derzeitige Sicherheitsstandard der E-Partizipationsangebote erfasst. Hierzu wird ein Analyse-Framework verwendet, das für E-Partizipation relevante Sicherheits- und Datenschutzaspekte betrachtet. Darauf aufbauend werden Sicherheitslevels für verschiedenen Typen von E-Partizipationsanwendungen abgeleitet und Empfehlungen für die Gestaltung von E-Partizipation gegeben. Auf Grundlage dessen werden Handlungsempfehlungen gegeben, die helfen können, E-Partizipationsanwendungen zukünftig sicherer zu gestalten. Weiterhin werden zukünftige Technologien vorgestellt, die das Potential haben, die Sicherheit bei der Nutzung von Systemen zur elektronischen Bürgerbeteiligung zu erhöhen.
Die Umbruchphase in der beruflichen Erstausbildung - unter besonderer Berücksichtigung der Berufsschulen - zeigt Wirkung auf schulische, didaktische und pädagogische Konzeptionen. Die kaum noch überschaubaren technologischen, ingenieur- und naturwissenschaftlichen Entwicklungen der letzten Jahrzehnte haben die Inhalte einer gewerblich-technischen Ausbildung, aber auch die zunehmenden Anforderungen an die fachliche, methodische, emotionale und persönliche Kompetenz radikal verändert und werden sich weiterhin verändern. Wenn auch die Berufausbildung durch die Entwicklung neuer Berufsbilder und angepasster Lehrpläne versucht darauf zu reagieren, geht es in erster Linie doch um ein neues Lernverständnis. Vorbei sind die Zeiten, in denen das einmal erworbene berufliche Können lebenslang vorhält. Vor-dringlicher denn je fordert der rasante technologische Veränderungsprozess eine lebenslange Lernkompetenz. Mittlerweile reicht in den meisten Fällen die Bereitschaft allein nicht mehr aus, sich aus eigenem Antrieb neue Kompetenzen während der beruflichen Tätigkeit anzueignen, die Lerner müssen auch dazu befähigt sein. Unverkennbar zeigt sich in der Berufsschule als Folge davon eine deutliche Hinwendung zu offenen Lernformen. Daraus lässt sich schließen, dass bisherige Konzepte den Erwerb von anspruchsvollen Handlungs- und Lernkompetenzen nicht erfüllen können. Es stellt sich die Frage, inwieweit der Projektunterricht als Unterrichtskonzept in der Lage ist, neben der Vermittlung der erforderlichen neuen Handlungskompetenzen, auch die Bereitschaft der Lernenden zu wecken, eigenverantwortlich und selbstständig lebensbegleitend zu lernen und sich weiter zu qualifizieren. Sich auf Projektunterricht einzulassen, kann durchaus als Wagnis nicht nur hinsichtlich des Verlaufes als auch des Ergebnisses gesehen werden. Eine treffende Umschreibung bieten DE BIE/LOUWERSE (1977, 211): "Es kann nicht genug betont werden, daß Projektunterricht größere Anstrengungen, mehr Einsatz, mehr Disziplin und eine größere Frustrationstoleranz erfordert als der traditionelle Unterricht. Im Projektunterricht gibt es kein festes System und keinen Dozenten, der die Vorbereitung und die Durchführung übernimmt, und man kann daher auch nicht die Mängel auf sie projizieren oder Frustrationen auf sie abwälzen. Projektunterricht stellt größere Anforderungen als der traditionelle Unterricht; deshalb erfordert er auch "reifere" Teilnehmer - sowohl was die Studenten wie die Dozenten betrifft. - Mit der Aufarbeitung des Projektunterrichts in einer gewerblichen Berufsschule in Form einer Fallstudie greift der Autor ein zentrales betriebs- und berufspädagogisches Thema auf. Er gliedert seine Fallstudie in sechs Kapitel. Nach der allgemeinen Betrachtung des Lernens richtet sich sein Fokus im ersten Abschnitt auf die Anforderungen in der heutigen Zeit und vor allem auf das in der Berufsschule gemäß Lehrplan geforderte Konzept der Handlungskompetenz. Die beiden folgenden Kapitel beschäftigen sich mit dem Projektunterricht. In Teil zwei werden zunächst die Grundlagen herausgearbeitet und über den historischen Rückblick auf die Inhalts- und Berührungspunkte dieser Lernart hingewiesen. Die Problematik angesichts der zahlreichen Projektautoren mit ihren unterschiedlichen Standpunkten wird bei der Begriffsklärung nur zu deutlich. Darauf aufbauend erfolgt in Kapitel drei die Beleuchtung des Projektunterrichts als didaktisches Modell. FLECHSIGS Konzeption didaktischer Modelle zeigt auf, dass der Projektunterricht wesentlich zur individuellen Förderung der Persönlichkeit beiträgt und beispielhaft eine Fülle von Lernmöglichkeiten für Schüler und Lehrer bietet. Teil vier beinhaltet das Konzept der Fallstudie zum "projektorientierten Unterricht". Projekt "Lampe" ist als Beitrag zur Verbesserung der Unterrichtsqualität im Rahmen der Schulentwicklung an der Berufsschule zu verstehen. Der Verfasser verfolgt mit dem Projekt "Lampe" zweierlei: Zum einen sollen die bisher vereinzelt gemachten Erfahrungen mit selbstständigen Lernprozessen gebündelt und in eine komplexe Aufgabe transferiert werden, andererseits erstrebt er, den Anforderungen an den klassischen Projektunterricht so nah wie möglich zu kommen. Die Untersuchung wird geleitet von folgender Hauptthese: "Volljährige Schüler, die in einer eigenen Lehrwerkstatt mit hauptberuflichen Ausbildern ihren Beruf erlernen, den Abschluss der "Mittleren Reife" mitbringen, überdurchschnittliche Leistungen im Rahmen der Ausbildung nachweisen können, stehen offenen Lehr- und Lernformen (in diesem Fall dem Projektlernen) positiv gegenüber." Der Autor erhob die für die empirische Auswertung maßgeblichen Informationen in Teil fünf über ein von jedem Schüler anonym am Ende jeder Projektwoche auszufüllendes Meinungsbarometer. Gegenstand der Auswertung war die gesamte Population. Die Fallstudie weist folgende Vorgehensweise auf: Die zentralen Fragestellungen mündeten in das Meinungsbarometer. Die darin enthaltenen Fragebogenkategorien wurden mit der Faktorenanalyse auf ihre Zusammensetzung hin überprüft und aufgrund des Ergebnisses für die Auswertung neu gruppiert. Über die Korrelationsprüfung der Fragebogenkomponenten traten die Zusammenhänge zwischen dem Fragebogen und den in den zentralen Fragestellungen genannten Items hervor. rnAbschließend erfolgte die Untersuchung der korrelierenden Variablen unter Einbezug der Schulbildung mit der Varianzanalyse und die Bewertung der Hauptthese. Die umfangreichen Daten der Ergebnisse erhalten trotz der hohen Informationsdichte durch die Darstellung in Tabellen, Polygonzügen und Histogrammen ein hohes Maß an Anschaulichkeit. Teil sechs bietet einen Ausblick auf die zukünftige Gestaltung des Projekts "Lampe".
Die vorliegende Arbeit beschäftigt sich mit der Abbildung von Ecore nach grUML. Dabei wird sowohl die Transformation von in Ecore modellierten Modellen nach Graphen in grUML als auch die Konvertierung von Ecore-Metamodellen nach grUML-Schemas betrachtet. Zunächst werden die beiden Modellierungssprachen Ecore und grUML einzeln beschrieben. Dabei werden die Metamodelle der Sprachen erklärt und die Programmierschnittstellen vorgestellt. Im Anschluss werden Unterschiede und Gemeinsamkeiten von grUML und Ecore erläutert und auf dieser Grundlage eine Abbildung definiert. Außerdem werden Anforderungen an die Implementierung der Transformation festgehalten. Danach folgen verschiedene Details zur Realisierung. Zum Schluss wird mit Hilfe einiger Beispiele gezeigt, welche Ergebnisse durch die Transformation entstehen.
In der vorliegenden Arbeit wird dem Leser aufgezeigt, welche Methoden zur Kurvenskelettierung von 3D-Modellen existieren und welche Ansätze bei bisherigen Forschungsergebnissen von Skelettierungsmethoden in der Bildverarbeitung verfolgt werden. Der Autor geht im weiteren Verlauf auf einen aktuellen Kurvenskelettierungsansatz ein. Die Implementierung dieses Ansatzes wird detailliert analysiert und ein algorithmisches Verfahren entwickelt, um die Kurvenskelette der analysierten Methode hin zu 3D-Skeletten einer eigenen Kurvenskelettdefinition zu modifizieren, mit der es möglich ist, Merkmalsvektoren für Ähnlichkeitsvergleiche zwischen 3D-Objekten zu berechnen. Es wird eine Ground Truth durch menschliche Ähnlichkeitsbestimmung gebildet. Des Weiteren wird auf Grundlage der modifizierten Skelette eine Ähnlichkeitsberechnung durchgeführt. Danach wird die menschliche Ähnlichkeitsbestimmung der algorithmisch berechneten Ähnlichkeitsberechnung gegenüber gestellt und nach bekannten Verfahren aus dem Information Retrieval ausgewertet.
Moderne Groupware- und Social Software Systeme nehmen nicht nur im privaten Nutzerbereich eine immer stärkere Rolle ein, sondern bergen vor allem für Unternehmen einen noch nicht vollständig erfassten Mehrwert. Erkenntnisse und Erfahrungen aus Praxis und Forschung zeigen, dass Web 2.0 Tools im Unternehmenseinsatz zu einem Mehrwert führen können, wenn sie im richtigen Kontext eingesetzt und in der entsprechenden Kultur eingebettet sind. Sie unterstützen insbesondere bei der Meinungsäußerung, Kollaboration und Selbstorganisation. Vor allem Social Software und Social Networking werden von der Gartner Group, einem der weltweit führenden Marktanalysten von Business Software, im Jahr 2009 unter den zehn für Unternehmen strategisch relevanten Technologien geführt. Trotzdem gibt es gegenwärtig kaum Systeme, die alle erforderlichen Funktionalitäten von Groupware und Social Software in einer Lösung vereinen. Eine der erfolgreichsten Softwaresuiten im Bereich Groupware stellt die Lotus Notes/Domino Lösung von IBM dar. Anhand dieser Softwaresuite wird in der vorliegenden Arbeit gezeigt, wie am Beispiel einer universitären Forschungsgruppe Groupware-Systeme in Kombination mit Social Software in eine Enterprise 2.0 Arbeitsumgebung überführt werden können. Dabei werden "ältere" Groupware Anwendungen, wie E-Mail und Kalenderfunktionen, mit neueren Werkzeugen wie Blogs, Wikis oder Social Bookmarking verknüpft. Das Ergebnis zeigt, dass technische Veränderungen zwar schnell umzusetzen sind, Veränderungen im Kommunikations- und Arbeitsalltag von Menschen allerdings nur langsam erreicht werden. Die Forschungsgruppe für Betriebliche Anwendungssysteme in Koblenz untersucht und evaluiert neue Werkzeuge für die CSCW-Forschung, nutzt intern Groupware zur Arbeitsunterstützung und setzt den ihr übertragenen Lehrauftrag um. Von den an der Lehre beteiligten Parteien, z.B. Studierende und Dozenten, werden die gleiche Flexibilität und das Wissen um moderne Arbeitsformen verlangt, die auch Unternehmen aktuell an ihre Mitarbeiter stellen. Für den Umgang mit modernen Arbeitsformen, Werkzeugen und verschieden Endgeräten bedarf es Erfahrungen und Kompetenzen. Diese Kompetenzen sind sowohl in Bildungseinrichtungen wie auch in Unternehmen über alle Altersschichten aufzubauen. Für den Aufbau und die Schulung solcher Kompetenzen wurde am Standort Koblenz ein Hochschul Competence Center gegründet. Die Notwendigkeit und das Angebot der Schulung bezieht sich dabei nicht nur auf ältere Generationen, sondern auch auf die gerne als "Digital Natives" oder nach 1980 geborenen Generationen, da diese entgegen anders lautender Annahmen nicht automatisch über die geforderten Kompetenzen verfügen. Enterprise 2.0 einzuführen bedarf einer klaren Managemententscheidung. Die Schulung der Kompetenzen sowie die Nutzung von Enterprise 2.0 bedarf der Akzeptanz und somit einer partizipativen Beteiligung.
In dieser Arbeit wird ein Datenmodell für Shared Annotations vorgestellt. Basierend auf einem bereits existierenden Datenmodell für Annotationen, wird dieses erweitert um die Möglichkeit der Modellierung von Shared Annotations. Daraufhin werden Funktionen von Shared Annotations erläutert, die über das neue Annotationsmodell möglich sind.
Femto ist eine Programmierumgebung, die auf einem ATmega-basierten Einchip-Computer mit VGA-Ausgang und PS/2-Tastaturschnittstelle ausgeführt wird und aus einem einfachen Texteditor sowie einem Interpreter besteht. Dadurch wird es möglich, direkt auf dem Mikrocontroller kleine Programme zu entwickeln und auszuführen. Die interpretierte Sprache mit dem Namen Femtoscript wurde im Rahmen dieser Arbeit entwickelt und ähnelt Javascript. Der Interpreter ist in C geschrieben und kann mit geringem Aufwand auf andere Plattformen portiert werden.
Bislang wurde VNUML (Virtual Network User Mode Linux) innerhalb der AG Rechnernetze der Uni Koblenz dazu verwendet, um die eigene Protokollerweiterung zu RIP, RIP/MIT (RIP with minimal topology information), auf Stärken und Schwächen zu testen. Hauptsächlich wurden dafür spezielle Testszenarien verwendet, um zu untersuchen, ob ein Count-to-Infinity-Problem (CTI) erfolgreich verhindert wird und wie schnell das Netz nach Ausfall einer Route konvergiert. Diese Arbeit wird untersuchen, ob die MTI-Erweiterung auch Performance-Vorteile in größeren Netzwerken bietet, ob sich der Einsatz des Script-Tools EDIV (spanisch: Escenarios DIstribuidos con VNUML, englisch: Distributed Scenarios using VNUML) aufgrund der besseren Skalierbarkeit lohnt und ob sich durch die Verteilung eines XML-Szenarios auf mehrere Rechner signifikant auf die Konvergenzzeit auswirkt. Dazu werden neben Simulationen auch Testszenarien entworfen und umfangreichen Tests unterzogen, um Erkenntnisse zur Effizienz und Skalierbarkeit des Distance Vector Routing Protokolls RIP/MTI zu ziehen.
In einer Welt, die immer mehr durch den Einsatz von Technik geprägt wird, gewinnen Systeme, welche eigenständig Aufgaben in einem vorgegebenen Kontext übernehmen können, mehr und mehr an Bedeutung. Solche Systeme werden als autonome Systeme bezeichnet, die ein eigenständiges Verhalten und Interaktionen mit ihrer Umwelt und anderen Systemen beinhalten. Zu diesen Systemen zählen auch autonome mobile Roboter. Sie sind sozusagen intelligente Fahrzeuge, die ihnen übertragene Aufgaben ohne menschliche Unterstützung durchführen können. Um ihre Umwelt wahrzunehmen, mit ihr interagieren und in ihr navigieren zu können benötigen diese Systeme verschiedene Arten von Sensoren. Somit ist die Robotikforschung stark interdisziplinär. Diese Arbeit befasst sich ausschliesslich mit dem Bereich der Navigation, insbesondere mit der Positionsbestimmung, welche für eine gute Navigation die Grundlage bildet. Ein heutzutage häufig benutztes, weltweit verfügbares System zur Positionsbestimmung ist GPS. Ziel dieser Arbeit ist der Anschluss eines GPS-Moduls an einen Mikrocontroller und der Versuch die Positionsgenauigkeit lokal zu präzisieren, um so einem autonomen System die Möglichkeit zur eröffnen, Aufgaben, die eine höhere Genauigkeit erfordern, zu bewerkstelligen.
Im Rahmen der mGeoWiki-Projekte wird ein neuer Ansatz geschaffen, mit ortsbezogenen Daten umzugehen. Bisher gibt es zum einen Geo-Portale, wie Google Maps, die es einem ermöglichen, Landkarten oder Luftbilder von jedem beliebigen Ort auf der Erde anzusehen. Dort können von jedem Benutzer zusätzliche Informationen oder auch Fotos hinterlegt und somit anderen Benutzern zugänglich gemacht werden. Die Nutzung dieses Dienstes ist kostenlos. Eine weitere Nutzung ortsbezogener Daten findet sich bei den Navigationssystemen. Hier wird die aktuelle Position mit Hilfe des GPS-Empfängers ermittelt und auf einer Karte angezeigt. Darüber hinaus werden thematische Informationen, wie Hotels oder Tankstellen, dargestellt. Diese zusätzlichen Informationen sind jedoch nicht unmittelbar durch den Benutzer veränderbar, sondern werden durch die Hersteller der Geräte vorgegeben. Eine Aktualisierung ist in der Regel kostenpflichtig. Das mGeoWiki kombiniert diese verschiedene Aspekte zu einem neuen Service. Der erste wichtige Aspekt ist die Mobilität. Der Benutzer kann sich frei in seiner Umwelt bewegen,seine Position wird mittels GPS festgestellt. Dann werden dem Benutzer Luftbilder und zusätzliche Informationen über den aktuellen Standort gezeigt. Der Benutzer ist also nicht mehr an seinen heimischen PC gebunden. Der zweite wichtige Aspekt ist die Möglichkeit der Benutzer, eigene, standortbezogene Daten zu hinterlegen, zu diskutieren und zu verändern. Am Beispiel des Landesamts für Vermessung und Geobasisinformation Rheinland-Pfalz (LVermGeo RLP) und dessen Plattform TIM-Online wird gezeigt, wie sich das mGeoWiki als generische Plattform im e-Government-Kontext einsetzen lässt.
Für die realistische Betrachtung einer virtuellen Szene spielt neben der direkten Beleuchtung auch die Ausbreitung des indirekten Lichtes eine wichtige Rolle. Die Berechnung der indirekten Beleuchtung benötigt grundsätzlich Informationen über die gesamte Szene, nicht nur über den für die Kamera sichtbaren Ausschnitt, der in bildraumbasierten Techniken zum Einsatz kommt. Mittels Voxelisierung kann die Szene in eine dreidimensionale, diskrete und GPU-freundliche Repräsentation überführt werden. In dieser Arbeit werden Voxelrepräsentationen hinsichtlich ihrer Eignung für den globalen Lichtaustausch in dynamischen und großen Szenen untersucht. Nach einer Einführung und einem Literaturüberblick über existierende Voxelisierungs- und Beleuchtungsverfahren, die Voxel als Grundlage nutzen, wird ein Voxelisierungsverfahren entwickelt, das sich für Szenen mit dynamischen Objekten eignet. Auf der Grundlage des Strahlenschnitt-Tests mit binärer Voxelhierarchie werden dann zwei Beleuchtungsalgorithmen umgesetzt, implementiert und evaluiert: Monte-Carlo-Integration der Hemisphäre eines Szenenpunktes und Beleuchtung der Szenenpunkte mit virtuellen Punktlichtquellen.
Im Rahmen dieser Diplomarbeit wird ein Verfahren zur markerlosen Pose-Rekonstruktion vorgestellt. Die Modellierung des menschlichen Körpers geschieht auf Basis der Starrkörperphysik. Mittels eines probabilistischen Ansatzes wird das Modell in eine volumetrische Rekonstruktion der Szene eingepasst. Die hierfür zu bewältigende Suche in hochdimensionalen Zustandsräumen wird mittels eines Partikelfilters in Kombination mit Simulierter Abkühlung vorgenommen. Eine Berücksichtigung anthropometrischer Besonderheiten sowie kinematischer Grenzen wird zur weiteren Stützung des Verfahrens vorgenommen. Die vollständig Umsetzung des Verfahrens durch dreidimensionale Beobachtungs- und Messmodelle führt zu einer exakten Poserekonstruktion und vermeidet Mehrdeutigkeiten während der Auswertung.
Die Entwicklung von Benutzerschnittstellen hat sich mit den fortschreitenden technischen Möglichkeiten ebenfalls weiter entwickelt. Neben den klassischen User Interfaces, die den Anwender bei der Aufgabenbewältigung unterstützen sollen, entwickeln sich intensiv erlebbare User Interfaces bei denen die Bedienung als intuitiv wahrgenommen wird. Doch was bedeutet Intuitivität in Bezug auf eine Mensch-Maschine-Schnittstelle? Die vorliegende Diplomarbeit beschäftigt sich mit dieser Thematik. Es werden Theorien und Modelle betrachtet, die versuchen intuitive Benutzbarkeit zu erklären. Anschließend werden zwei Konzepte aus der Software-Ergonomie herausgegriffen und in abgewandelter Form in zwei Prototypen umgesetzt. Hierfür wird ein Fernglasgehäuse in ein Eingabegerät für eine Stereoleinwand umgebaut. In der anschließenden Evaluation wird untersucht, welcher der Prototypen als intuitiver und attraktiver wahrgenommen wird. Hierfür werden beide hinsichtlich der Kriterien für intuitive Benutzbarkeit untersucht, welche zuvor aus den Modellen und Theorien herausgefiltert wurden.
Im Rahmen dieser Diplomarbeit wird ein TGraph-basiertes Modell-Vergleichsverfahren entwickelt. Dieses Verfahren soll eine anwendbare Berechnung von Deltas für TGraph-basierte Modelle ermöglichen. Modelle können durch TGraphen repräsentiert werden. Für die Erzeugung und Verarbeitung von TGraphen wurde am Institut für Softwaretechnik das Java Graph Laboratory, kurz JGraLab, entwickelt. Es handelt sich dabei um eine Java Klassenbibliothek, die eine hoch effiziente API zur Verarbeitung von TGraphen bereitstellt. [Ebe87, ERW08, ERSB08] Basierend auf der JGraLab API wird ein System entwickelt, das unterschiedliche Werkzeuge zur Verwaltung von Modellen bereitstellt. Der Fokus dieser Diplomarbeit liegt dabei auf der Entwicklung eines Werkzeugs, das zu zwei gegebenen TGraphen ein Delta berechnet.