Filtern
Erscheinungsjahr
- 2011 (123) (entfernen)
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (41)
- Diplomarbeit (27)
- Dissertation (23)
- Bachelorarbeit (17)
- Studienarbeit (9)
- Masterarbeit (3)
- Konferenzveröffentlichung (2)
- Sonstiges (1)
Schlagworte
- computer clusters (4)
- OWL <Informatik> (3)
- Ontologie <Wissensverarbeitung> (3)
- Vorlesungsverzeichnis (3)
- parallel algorithms (3)
- Data Mining (2)
- Google App Engine (2)
- Google Web Toolkit (2)
- Information Retrieval (2)
- Inklusion (2)
- Modellgetriebene Entwicklung (2)
- Netzwerk (2)
- Objektverfolgung (2)
- Personalausweis (2)
- Rechnernetze (2)
- Semantic Web (2)
- Software Engineering (2)
- WebGL (2)
- artifcial neural networks (2)
- artificial neural networks (2)
- classification (2)
- 3D-Kartierung (1)
- 8C model (1)
- ACL injury (1)
- API (1)
- Abwasser (1)
- Abwasserbehandlung (1)
- Adobe Flex (1)
- Adressatenorientierung (1)
- Agenten (1)
- Agents (1)
- Algolib (1)
- Android <Systemplattform> (1)
- Annotation (1)
- Anterior Cruciate Ligament Injury (1)
- Aquatisches Ökosystem (1)
- Arbeitszufriedenheit (1)
- Arzneistoffe (1)
- Augmented Reality (1)
- Authentifizierung (1)
- Autonomes Fahrzeug (1)
- B2B Integration (1)
- Bebauungsdichte (1)
- Belebtschlamm (1)
- Betriebssystem (1)
- Bewegung (1)
- Bewegungsablauf (1)
- Bewegungssteuerung (1)
- Bewältigung (1)
- Bildung (1)
- Bildverstehen (1)
- Biographie (1)
- Biographieforschung (1)
- Biomechanik (1)
- Biozide (1)
- Bipartiter Graph (1)
- Browser (1)
- Budongo Forest (1)
- Business Collaboration (1)
- Casual Games (1)
- Chemische Abwasserreinigung (1)
- Chronische Niereninsuffizienz (1)
- Cloud Computing (1)
- Computer Networks (1)
- Computeranimation (1)
- Computergraphik (1)
- Content Analysis (1)
- Coping (1)
- DTI (1)
- Datensicherheit (1)
- Delta (1)
- DiaLex (1)
- Dialekt (1)
- Dialog (1)
- Diffusionsbildgebung (1)
- Digital Rights Management (1)
- Diskriminierung (1)
- Distance Vector Routing (1)
- Distanz Vektor Routing (1)
- Drahtloses lokales Netz (1)
- Dreidimensionale Bildverarbeitung (1)
- Dynamische Analyse (1)
- E-Business (1)
- E-government (1)
- E-services (1)
- East Africa (1)
- Ehescheidung (1)
- Eigensinn (1)
- Elektrostimulation (1)
- Endangerment (1)
- Enterprise 2.0 (1)
- Enterprise Systems (1)
- Ergonomic Principles (1)
- Erziehungsverhalten (1)
- Ethik (1)
- Experteninterview (1)
- Facebook App (1)
- Facebook Application (1)
- Fahrzeug (1)
- Fallrekonstruktion (1)
- Familienbeziehungen (1)
- Fiber Tracking (1)
- Finanzberatung (1)
- FlexViz (1)
- Formale Ontologie (1)
- Fremddeutung (1)
- Fungicides (1)
- Fungizid (1)
- Fußballschuhe (1)
- Föderiertes System (1)
- Förderung (1)
- Führung (1)
- Führung durch Selbstführung (1)
- GPS (1)
- GReQL2 (1)
- GSM-Standard (1)
- Gammarus fossarum (1)
- Gangart (1)
- Gedächtnis (1)
- Gefährdung (1)
- Gehirn (1)
- Geocaching (1)
- Gerichteter Graph (1)
- Geschichte (1)
- Geschlossene Unterbringung (1)
- Grails (1)
- Grails 1.2 (1)
- HTML 5.0 (1)
- Hand-based Gestures (1)
- Handlungsmuster (1)
- Haskell (1)
- Healthcare institution (1)
- Heimerziehung (1)
- Herzrate (1)
- IP 6 (1)
- IPv6 (1)
- IT Outsourcing (1)
- IT Services (1)
- Incremental Algorithms (1)
- Infobroker (1)
- Information Supply Chain (1)
- Informationsmanagement (1)
- Informationssystem (1)
- Integration (1)
- Integriertes Informationssystem (1)
- Interaktion (1)
- Internet (1)
- Internetworking (1)
- JCryp-Tool (1)
- JGraLab (1)
- JavaScript (1)
- Jubiläum (1)
- Jugendhilfe (1)
- Kakamega Forest (1)
- Kamera (1)
- Kamerakalibrierung (1)
- Kantenbewerteter Graph (1)
- Kindheit (1)
- Kletterer (1)
- Kooperatives Informationssystem (1)
- Krankheitsverarbeitung (1)
- Kreuzbandverletzung (1)
- Kritisches Lebensereignis (1)
- Körperliche Aktivität (1)
- Künstliche Intelligenz (1)
- Laser (1)
- Laufen (1)
- Lebensbewältigung (1)
- Lernen (1)
- Lernsoftware (1)
- Lokalisation (1)
- Längsschnittuntersuchung (1)
- Management (1)
- Manöver-Visualisierung (1)
- MapReduce (1)
- Markov Zufallsfelder (1)
- Maschinelles Lernen (1)
- Matching (1)
- MeVisLab (1)
- Medizinische Visualisierung (1)
- Merkmal (1)
- Migration (1)
- Mikroverunreinigung (1)
- Minderung (1)
- Mister X (1)
- MobileFacets System (1)
- Mobiltelefon (1)
- Model View Presenter (1)
- Modellprojekt PSB NIERE (1)
- Motivation (1)
- Mouse Gestures (1)
- Multi-Agenten-Simulation (1)
- Network (1)
- Network Virtualization (1)
- Netzwerk Routing (1)
- Netzwerk Virtualisierung (1)
- Neuronales Netz (1)
- ODRLv2 (1)
- OWL (1)
- OWL-DL (1)
- Onlinewahl (1)
- Ontology (1)
- Open Digital Rights Language (1)
- OpenWrt (1)
- Ostafrika (1)
- Ozon (1)
- PDA (1)
- Parkinsonismus (1)
- Parkinsonsyndrom (1)
- Path Tracing (1)
- Pesticides (1)
- Pestizid (1)
- Petri-Netze (1)
- Pfadnachverfolgung (1)
- Plugin (1)
- Pointing Devices (1)
- Poser analysis (1)
- Poser-Analyse (1)
- Privatvermögen (1)
- Psychosoziale Begleitung (1)
- Public-Key-Infrastruktur (1)
- Quality assessment system (1)
- Qualitätsmerkmale (1)
- RDF (1)
- RDF <Informatik> (1)
- RIPng (1)
- Ray tracing (1)
- Real-Life Game (1)
- Real-Life Spiel (1)
- Rechnernetz (1)
- Reengineering (1)
- Regenwald (1)
- Reisedokument (1)
- Rekonstruktion (1)
- Rettungsroboter (1)
- Risiko- und Schutzfaktoren (1)
- Robbie (1)
- Rollstuhlbasketball (1)
- Router (1)
- Routing (1)
- Routing Information Protocol (1)
- Routing Information Protokoll (1)
- SPARQL (1)
- Scheidung (1)
- Scheidungsfolgen (1)
- Schlaf (1)
- Search engine (1)
- Security Routing (1)
- Selbstbild (1)
- Selbstdeutung (1)
- Selbstführung (1)
- Selbstführungskompetenz (1)
- Selbstmanagement (1)
- Service identification (1)
- Service-Identifizierung (1)
- Serviceorientierte Architektur (1)
- Serviceroboter (1)
- Sicherheit Routing (1)
- Simulation (1)
- Smartphone (1)
- Social Games (1)
- Software migration (1)
- Software-Migration (1)
- Softwareentwurf (1)
- Sonderpädagogik (1)
- Sorption (1)
- Soziales Netzwerk (1)
- Spielkonsole (1)
- Spiritualität (1)
- Sport (1)
- Stereosehen (1)
- Stimmungsveränderung (1)
- Stollendesign (1)
- Strassenkreuzung (1)
- Subjektbildung (1)
- Supply Chain Management (1)
- Szenengraph (1)
- TSK <Test> (1)
- Tarrain Klassifikation (1)
- Technologischer Raum (1)
- Text-Bild-Integration (1)
- Textverstehen (1)
- Tracing (1)
- Traktions-Testgerät (1)
- Transferfunktion (1)
- Transformationsprodukte (1)
- Transkranielle Elektrostimulation (1)
- Universitätsbibliothek (1)
- Unternehmen (1)
- Unternehmenserfolg (1)
- Usability (1)
- Usage Rights Management (1)
- Validierung (1)
- Verortung (1)
- Verteilte Systeme (1)
- Virtualisierung (1)
- Virtuelles Netz (1)
- Visibility Skeleton (1)
- Visualisierung (1)
- Vocabulary Trainer (1)
- Volume Raycasting (1)
- Volumen-Rendering (1)
- WLAN Fingerprinting (1)
- Wasserverschmutzung (1)
- Web Science (1)
- Web3D (1)
- Webanwendung (1)
- Website (1)
- Wechselkursänderung (1)
- Weltbild (1)
- WiFi Fingerprinting (1)
- Wii (1)
- Wirtschaftsprojekt (1)
- Wissensmanagement (1)
- Wissensrepräsentation (1)
- Wissensvermittlung (1)
- Wohlbefinden (1)
- World Wide Web 2.0 (1)
- Wrapping (1)
- activated sludge (1)
- activation functions of neurons (1)
- adaptive resonance theory (1)
- advanced wastewater treatment (1)
- artiffficial neural networks (1)
- artififfcial neural networks (1)
- assessment model (1)
- benefits (1)
- biocides (1)
- biological degradation (1)
- biologischer Abbau (1)
- biomechanics (1)
- blood analysis (1)
- business process management (1)
- camera calibration (1)
- collaborative technologies (1)
- contexts of use (1)
- core ontologies (1)
- currency exchange rates (1)
- data mining (1)
- e-ID (1)
- e-service (1)
- e-service quality (1)
- eID (1)
- ePA (1)
- eXperience methodology (1)
- ecosystem functioning (1)
- ecotoxicology (1)
- emerging micropollutants (1)
- erweiterte Abwasserbehandlung (1)
- estimation of algorithm efficiency (1)
- folksonomies (1)
- football shoes (1)
- gait (1)
- gaze information (1)
- gradient method of training weight coefficients (1)
- heart rate (1)
- id card (1)
- image processing (1)
- image semantics (1)
- in situ (1)
- information retrieval (1)
- information system (1)
- interaction (1)
- jOWL (1)
- knowledge work (1)
- landmarks (1)
- lineare Algebra (1)
- mathematical model (1)
- mentale Repräsentation (1)
- methodology (1)
- micropollutants (1)
- mitigation (1)
- mobile application (1)
- mobile facets (1)
- mobile phone (1)
- mood change (1)
- movement (1)
- multimediales Lernen (1)
- nPA (1)
- neuartige Spurenstoffe (1)
- ontology (1)
- ozone (1)
- parallel calculations (1)
- pharmaceuticals (1)
- physical activity (1)
- pollution (1)
- rainforest (1)
- regression analysis (1)
- running (1)
- scene analysis (1)
- semantics (1)
- soccer (1)
- social media (1)
- social object (1)
- social simulation (1)
- sorption (1)
- stereotracking (1)
- stud design (1)
- tag recommendation (1)
- tagging (1)
- time series (1)
- tracking (1)
- traction test device (1)
- travel document (1)
- unternehmerische Eignungsmerkmale (1)
- vascular plants (1)
- vaskuläre Planzen (1)
- vegetated treatment systems (1)
- wastewater treatment (1)
- web 2.0 (1)
- web-portal medical e-services (1)
- Ökosystemdienstleistung (1)
- Ökotoxikologie (1)
Institut
- Fachbereich 4 (65)
- Zentrale Einrichtungen (13)
- Institut für Wirtschafts- und Verwaltungsinformatik (12)
- Institut für Informatik (11)
- Institute for Web Science and Technologies (7)
- Institut für Computervisualistik (6)
- Fachbereich 8 (4)
- Institut für Pädagogik, Abteilung Pädagogik (3)
- Institut für Softwaretechnik (3)
- Fachbereich 5 (2)
Für die Planung von Wegen eines Gespanns sind komplexe Bewegungen verschiedener Bezugspunkte des Fahrzeugs zu beachten. Um die Betrachtung dieser Bewegungen zu vereinfachen, wird eine Fahrt in elementare Fahrbewegungen aufgeteilt, diese werden als Manöver bezeichnet. Ein Manöver besteht in diesem Zusammenhang aus zwei Elementen. Zum einen werden Pfade für bestimmte Bezugspunkte konstruiert, zum anderen wird das Gespann während der Manöverausführung von einem Korridor umschlossen. Die Pfade des Fahrzeugs müssen dabei fahrbar sein, das heißt, sie müssen die kinematischen Einschränkungen des Fahrzeugs beachten. Der Manöverkorridor kann als Grundlage verwendet werden, um die Kollisionsfreiheit zu garantieren. Während des Manövers verlässt kein Fahrzeugteil den Korridor. Es gibt verschiedene Manövertypen. Derzeit werden das Kurvenmanöver, das Wendemanöver und die Geradeausfahrt unterschieden. Außerdem kann ein Manöver zur Zeit mit zwei unterschiedlichen Konstruktionsmethoden erstellt werden, der konventionellen und der iterativen Methode.
In dieser Diplomarbeit wird eine Datenstruktur entworfen und implementiert, die ein Manöver konstruiert. Diese Datenstruktur wird in ein schon bestehendes Werkzeug integriert. Dabei kann der Benutzer mit der Software interagieren, um verschiedene Parameter eines Manövers zu verändern. Das Manöver wird daraufhin auf der Grundlage dieser Parameter konstruiert. Dazu gehört auch eine Visualisierung innerhalb der Software, in der die Bestandteile eines Manövers dargestellt werden können. Die Visualisierung kann in eine Bilddatei exportiert werden.
Um den wachsenden Anforderungen an die Automobilindustrie gerecht zu werden, reduzieren Automobilhersteller stetig die Fertigungstiefe und verlagern wertschöpfende Anteile zunehmend auf die Zulieferer. Dies macht es erforderlich, dass Unternehmen enger zusammenarbeiten und fördert die Entstehung komplexer Logistiknetzwerke.
Um den damit einhergehenden Anforderungen an den Informationsaustausch zu begegnen, wurde 2009 das Projekt RFID-based Automotive Network (RAN) ins Leben gerufen. Die Initiative hat sich zum Ziel gesetzt, eine standardisierte Architektur für eine effiziente Materialflusssteuerung entlang der gesamtem Supply Chain zu schaffen. Kernkomponente dieser Architektur ist der Infobroker, eine Informationseinheit, die über Auto-ID-Technologie erfasste Daten aus dem Materialfluss automatisiert an Teilnehmer der Supply Chain kommuniziert. Die Abschlussarbeit beschäftigt sich in Kooperation mit der IBS AG, einem Softwareunternehmen und Konsortialpartner im Projekt, mit einem Teilbereich des Austausches von Warendaten.
Zunächst werden theoretische Grundlagen geschaffen, indem auf Merkmale einer Supply Chain eingegangen und anschließend Standardisierungsbestrebungen beschrieben werden. Um den Bezug zum Projekt herstellen zu können, wird im Supply Chain Kapitel näher auf die Automobilindustrie und Trends in diesem Sektor eingegangen. Im Bereich der Standardisierung werden Standards im elektronischen Datenaustausch vertiefend dargestellt, um auch hier eine Überleitung zum Infobroker-Konzept zu schaffen. Im Analyseteil werden zu Beginn Projekte mit ähnlicher Problemstellung wie bei RAN vorgestellt und durch die Beschreibung von Gemeinsamkeiten und Unterschieden ein Bezug hergestellt. Daraufhin werden anhand von Projektdokumenten Anforderungen an das System beschrieben und mehrere Modelle zur Problemstellung entworfen. Mit Rich Pictures werden die IST-Problematik und der SOLL-Zustand zunächst beschrieben. Darauf aufbauend wird der Fluss von Warendaten zwischen zwei Unternehmen veranschaulicht und die Funktion des Infobrokers beim Informationsaustausch verdeutlicht. Ziel ist die Schaffung eines Verständnisses für die Herausforderungen des Projektes und wie die vorgeschlagenen Konzepte der RAN-Initiative zur Optimierung einer Automotive Supply Chain beitragen können.
The estimation of various social objects is necessary in different fields of social life, science, education, etc. This estimation is usually used for forecasting, for evaluating of different properties and for other goals in complex man-machine systems. At present this estimation is possible by means of computer and mathematical simulation methods which is connected with significant difficulties, such as: - time-distributed process of receiving information about the object; - determination of a corresponding mathematical device and structure identification of the mathematical model; - approximation of the mathematical model to real data, generalization and parametric identification of the mathematical model; - identification of the structure of the links of the real social object. The solution of these problems is impossible without a special intellectual information system which combines different processes and allows predicting the behaviour of such an object. However, most existing information systems lead to the solution of only one special problem. From this point of view the development of a more general technology of designing such systems is very important. The technology of intellectual information system development for estimation and forecasting the professional ability of respondents in the sphere of education can be a concrete example of such a technology. Job orientation is necessary and topical in present economic conditions. It helps tornsolve the problem of expediency of investments to a certain sphere of education. Scientifically validated combined diagnostic methods of job orientation are necessary to carry out professional selection in higher education establishments. The requirements of a modern society are growing, with the earlier developed techniques being unable to correspond to them sufficiently. All these techniques lack an opportunity to account all necessary professional and personal characteristics. Therefore, it is necessary to use a system of various tests. Thus, the development of new methods of job orientation for entrants is necessary. The information model of the process of job orientation is necessary for this purpose. Therefore, it would be desirable to have an information system capable of giving recommendations concerning the choice of a trade on the basis of complex personal characteristics of entrants.
As Enterprise 2.0 (E2.0) initiatives are gradually moving out of the early experimentation phase it is time to focus greater attention on examining the structures, processes and operations surrounding E2.0 projects. In this paper we present the findings of an empirical study to investigate and understand the reasons for initiating E2.0 projects and the benefits being derived from them. Our study comprises seven in-depth case studies of E2.0 implementations. We develop a classification and means of visualising the scope of E2.0 initiatives and use these methods to analyse and compare projects.
Our findings indicate a wide range of motivations and combinations of technology in use and show a strong emphasis towards the content management functionality of E2.0 technologies.
Im Vergleich zu herkömmlicher Computergrafik (perspektivische Projektion) bietet Raytracing entscheidende Vorteile, die hauptsächlich in der vergleichsweise hohen physikalischen Korrektheit der Methode begründet sind. Die Schwächen liegen hingegen im immensen Rechenaufwand.
Ein Raytracer ist vergleichsweise so rechenintensiv, weil für jeden Pixel mindestens ein Strahl verschickt werden muss. Dieser muss gegen alle Objekte im Raum geschnitten werden. Hinzu kommen noch die Strahlen, die entstehen, wenn Strahlen an Objekten reflektiert werden (Rekursion). Um diesen Rechenaufwand zu verkleinern und zusätzlich ein besseres Bild zu erzeugen, soll der adaptive Sampler den Raytracer unterstützen. Der adaptive Sampler soll während des Rendervorgangs den progressiven Fortschritt in der Bildgenerierung beobachten und Pixel von der weiteren Berechnung ausschließen, für die sich ein zusätzliches Verschießen von Strahlen nicht mehr lohnt.
Anders als der rein progressive Raytracer hört der adaptive Sampler mit dem Konvergieren des Bildes auf zu rechnen. Der adaptive Sampler soll so dafür sorgen, dass schneller ein besseres Bild erzeugt wird und somit die Performanz gesteigert wird. Insgesamt erwartet man sich vom adaptiven Sampler Vorteile bei der Berechnung von bestimmten Szenen. Unter anderem eine Verbesserung bei Szenen mit rein diffus beleuchteten Bildbereichen, sowie eine Verbesserung bei Szenen mit unterschiedlich rechenintensiven Bildbereichen. Ein normaler Raytracer kann nicht beurteilen, wie sinnvoll seine Schüsse sind. Er kann nur mehr Strahlen verschießen, in der Hoffnung, das Bild damit effektiv zu verbessern.
Es gibt jedoch viele Szenarien, bei denen eine linear steigende Schussanzahl pro Pixel keine gleichmäßige Verbesserung im Bild erzeugt. Das bedeutet, dass Bereiche im Bild schon gut aussehen, während andere noch sehr verrauscht sind. Man möchte nun Bildbereiche, die bereits konvergiert sind, in denen sich ein weiterer Beschuss also nicht mehr bemerkbar macht, ausschließen und die Rechenleistung dort nutzen, wo man sie noch braucht.
Wichtig dabei ist, dass Pixel nicht ungewollt zu früh von der Berechnung ausgeschlossen werden, die nicht weit genug konvergiert sind. Der adaptive Sampler soll so lange arbeiten, bis jeder Pixel dauerhaft keine Änderungen mehr vorweist. Das bedeutet, dass die Wahrscheinlichkeit für eine signifikante Farbänderung eines Pixels durch Verschießen eines Strahls (bei mehreren Lichtquellen in RenderGin mehrere Strahlen pro Pixel) klein genug ist. Es wird zwar intern keine Wahrscheinlichkeit berechnet, jedoch bekommt der Raytracer eine Art Gedächtnis: Er speichert die Veränderungen im beleuchteten Bild und deren Verlauf in eigenen Gedächtnisbildern. Das "Gedächtnis" für das alte Bild (Zustand des Bildes in der letzten Iteration über die Pixel) repräsentiert dabei das Kurzzeitgedächtnis. Es ist absolut genau. Das Langzeitgedächtnis wird von drei verschiedenen Bildern repräsentiert. Das erste gibt die Anzahl der verschossenen Strahlen pro Pixel an. Das zweite ist ein Wahrheitswertebild, das für jeden Pixel angibt, ob dieser noch in die Berechnung einbezogen werden soll. Das dritte Bild gibt an, wie oft jeder Pixel eine Farbänderung vollzogen hat, die geringer ist als der geforderte Maximalabstand eines Pixels zu sich selbst (vor und nach dem Verschießen eines weiteren Strahls).
Mit diesen drei Bildern ist es möglich, zusätzliche quantitative Informationen zu den qualitativen Informationen des Vergleichs vom neuen und alten Bild zu berücksichtigen.
In dieser Arbeit kläre ich die Frage, ob die gewünschten Effekte eintreten und ob bei Integration in die bestehende Struktur von RenderGin ein Performanzgewinn möglich ist. Die Umsetzung eines adaptiven Samplers ist als Plug-In in der Software RenderGin von Numenus GmbH geschehen. RenderGin ist ein echtzeitfähiger, progressiver Raytracer, der sich durch seine Performanz auszeichnet. Die Bildgenerierung geschieht allein auf der CPU, die Grafikkarte wird lediglich zur Anzeige des erzeugten Bildes benötigt.
Die Umsetzung und Programmierung des Plug-Ins ist in Microsoft Visual Studio 2010 geschehen unter Verwendung des RenderGin SDK der Numenus GmbH.
Über 10.000 verschiedene organische Substanzen wie Arzneistoffe, Inhaltsstoffe von Körperpflegemitteln und Biozide werden regelmäßig im Alltag eingesetzt. Die meisten Substanzen gelangen nach ihrer Verwendung in das häusliche Abwasser. Bisherige wissenschaftliche Untersuchungen haben ergeben, dass eine konventionelle biologische Abwasserreinigung in kommunalen Kläranlagen keine ausreichende Barriere für die Emission dieser anthropogenen Stoffe in die Oberflächengewässer darstellt.
Dies birgt unvorhersehbare Risiken für die aquatischen Lebensgemeinschaften und die Trinkwasserversorgung. Hinsichtlich ihres Vorkommens und Verhaltens in kommunalen Kläranlagen besteht daher insbesondere für erst kürzlich eingeführte und/oder in der Umwelt nachgewiesene Spurenstoffe (sogenannte "neuartige" Spurenstoffe, engl.: "emerging micropollutants") ein großer Forschungsbedarf. Um ein möglichst umfassendes Bild vom Verhalten neuartiger organischer Spurenstoffe in der kommunalen Abwasserbehandlung zu erhalten, wurden im Rahmen dieser Dissertation die folgenden Substanzklassen, welche ein weites Spektrum an physiko-chemischen Eigenschaften aufweisen, untersucht: Arzneistoffe (Betablocker und psychoaktive Substanzen), UV-Filtersubstanzen, Vulkanisationsbeschleuniger (Benzothiazole), Biozide (Antischuppenmittel, Konservierungsmittel, Desinfektionsmittel) und Pestizide (Phenylharnstoff- und Triazinherbizide).
Das Organische Qualitätsmanagement (OQM) hat seine Wurzeln in der "Natürlichen Gemeindeentwicklung" (NGE). Der evangelische Theologe Christian A. Schwarz und der Diplompsychologe Christoph Schalk gingen im Rahmen eines internationalen Forschungsprojektes der Frage nach, ob es universell gültige Prinzipien für das qualitative und quantitative Wachstum von Kirchengemeinden gibt. Diese Studie wurde zu einem der größten Forschungsprojekte, das jemals über das Wachstum von Gemeinden durchgeführt wurde. Bis Februar 2011 wurden in über 70 Ländern 71.512 Profile für Kirchengemeinden unterschiedlichster Prägung und Konfession erstellt.
Das Ergebnis dieser fortschreitenden Studie bietet eine wissenschaftlich zu verifizierende Antwort auf die Frage: "Was sind die Wachstumsprinzipien, die unabhängig von Kultur, theologischer Prägung und Frömmigkeitsrichtung gelten und können sich diese Prinzipien auch positiv auf Non Profit Organisationen und säkulare Wirtschaftsunternehmen anwenden lassen? Kapitel 1 beschreibt zunächst die Entstehung, Herkunft und Entwicklung des OQM, d.h. den Übertragungsprozess aller Erkenntnisse aus der Entwicklung von Kirchengemeinden auf die Realität von kirchlichen Organisationen und später auf die Anforderungen eines Wirtschaftsunternehmens. Kapitel 2 geht ausführlich auf die Beschreibung der acht Qualitätsmerkmale ein. Hierbei stehen weniger die Substantive (Leitung, Mitarbeiter, Strukturen, Beziehungen etc.) im Mittelpunkt, als vielmehr die Adjektive (bevollmächtigend, gabenorientiert, zweckmäßig, vertrauensvoll etc.). Sie beschreiben, auf was es in Veränderungsprozessen wirklich ankommt.
Zu Beginn des Projektes war nicht abzusehen, ob und in welcher Weise sich die Qualitätsmerkmale und die christlichen Sozialprinzipien als Erfolgsfaktoren auch in anderen Unternehmensformen beweisen können. In Kapitel 3 werden Praxisbeispiele zeigen, dass ein dialogisch arbeitendes OQM nicht nur Kirchengemeinden sondern auch caritativen Unternehmen und sogar Wirtschaftsunternehmen helfen kann zu wachsen und somit erfolgreich zu sein.
Seit Beginn des World Wide Web hat sich die Erzeugung und Verteilung digitaler Güter (digital assets) entschieden verändert. Zur Erzeugung, Bearbeitung, Verteilung und Konsumierung bedarf es heute nicht mehr spezieller physischer Gerätschaften. Dadurch hat sich die Geschwindigkeit, in der Medien generiert und transportiert werden, enorm gesteigert. Auch die Möglichkeiten der Kooperation waren dadurch einem Wandel unterlegen bzw. wurden mancherorts erst möglich gemacht.
Die Nutzung des Internets ermöglichte zwar die Loslösung digitaler Güter von ihren physischen Trägermedien, die Bestimmungen des Urheberrechts gelten jedoch weiterhin. Dies führt gerade bei juristisch weniger erfahrenen Nutzern zu Unsicherheit darüber, wie ein konkretes digitales Gut genutzt werden darf. Andererseits wird von vielen Nutzern das gewohnte Tauschen von Medien auch auf das digitale Umfeld übertragen. Die Urheberrechtsverletzungen, die zuvor im privaten Umfeld im kleinen Rahmen stattfanden, geschehen nun global und für alle sichtbar. Da diese Form des Tausches das primäre Geschäftsmodell der Verwerter gefährdet, wird versucht, die Nutzung digitaler Güter einzuschränken bzw. für nicht berechtigte Nutzer zu unterbinden. Dies geschah und geschieht unter anderem mit Verfahren der digitalen Rechte-Verwaltung (Digital Rights Management - DRM).
Diese Verfahren sind unter Nutzern bisweilen umstritten oder werden sogar offen abgelehnt, da sie die Nutzung digitaler Güter im Vergleich zum physischen Pendant erschweren können. Zudem erwiesen sich viele dieser Verfahren als nicht sicher, so dass die verwendeten Verschlüsselungsverfahren gebrochen wurden. Mit einer "Nutzungsrechte-Verwaltung" (Usage Rights Management - URM) soll DRM im Kernprinzip zwar erhalten bleiben. Die praktische Umsetzung soll aber in eine andere Richtung vorstoßen. Der Nutzer bekommt die volle Kontrolle über die digitalen Güter (ohne die restriktiven Maßnahmen klassischer DRM-Umsetzungen), aber auch wieder die volle Verantwortung. Unterstützt wird er dabei von Software, die ihn über die rechtlichen Möglichkeiten informiert und auf Wunsch des Nutzers auch software-technische Schranken in der Benutzung setzt, ähnlich der Rechtedurchsetzung (Enforcement) bei klassischen DRM-Systemen.
URM nutzt dabei die offene Rechtedefinitionssprache ODRL. Die vorliegende Studienarbeit ist Teil des URM-Projektes der Forschungsgruppe IT-Risk-Management, welches wiederum Teil des SOAVIWA-Projektes ist. Ziel der Studienarbeit ist es, eine Java-Klasse zu entwickeln, mit der in ODRL verfasste Lizenzen als Java-Objekte abgebildet werden. Weitere zu entwickelnde Komponenten sollen diese Objekte verwalten und das Modifizieren und Erzeugen neuer Objekte zulassen. Alle Komponenten sollen Bestandteil des bereits anfänglich implementierten Toolkit für URM (TURM) sein.
Die modellgetriebene Softwareentwicklung beabsichtigt die Spezifikation von Softwaresystemen durch Modelle zu vereinfachen und die automatisierte Entwicklung zu verbessern. Die Modellierungssprachen und Werkzeuge, die zur Modellierung von Systemen und Anwendungsdomänen herangezogen werden, werden in modellbasierten technologischen Räumen zusammengefasst. Ontologiebasierte technologische Räume enthalten Ontologiesprachen und Technologien zum Entwurf, der Anfrage und dem Schlussfolgern von Wissen. Mit der Verbreitung des semantischen Webs werden Ontologien in der Entwicklung von Software zunehmend eingesetzt.
In dieser Arbeit werden zur Kombination von technologischen Räumen Brückentechnologien vorgestellt. Transformationsbrücken übersetzen Modelle, Abbildungsbrücken stellen Beziehungen zwischen Modellen verschiedener technologischer Räume her und Integrationsbrücken verschmelzen Räume zu neuen allumfassenden technologischen Räumen. API Brücken erschaffen Interoperabilität zwischen Werkzeugen. Diese Arbeit beschäftigt sich insbesondere mit der Kombination von modellbasierten und ontologiebasierten technologischen Räumen. Nach einem Vergleich zwischen Sprachen und Werkzeugen der einzelnen Räume wird die Integrationsbrücke herangezogen um einen neuen gemeinsamen technologischen Raum zu erstellen, der den hybriden Gebrauch von Sprachen und den interoperablen Einsatz von Werkzeugen ermöglicht. Die Syntax und Semantik von Modellierungssprachen kann mit Hilfe von Ontologiesprachen spezifiziert werden. Die Korrektheit von Modellen wird durch den Einsatz von Ontologietechnologien gewährleistet. Ontologiebasierte Modellierungssprachen erlauben den Nutzen von Anfrage- und Schlussfolgerungstechnologien. Sie sind darüber hinaus so flexibel um verschiedene Anforderungen von Softwareentwicklern zu erfüllen. Domänenspezifische Sprachen unterstützen neben der Spezifikation von Systemen auch die konzeptionelle Beschreibung von Domänen durch Modelle, die aus möglichen Laufzeitinstanzen und deren Typen bestehen. Integrierte Ontologiesprachen helfen eine formale Semantik für Domänenmodellierungssprachen zu definieren und Ontologietechnologien ermöglichen das Schlussfolgern über Typen und Instanzen.
Alle Ansätze in dieser Arbeit werden mit Hilfe eines Szenarios, in dem die Konfigurationen für Familien von Netzwerkgeräte modelliert werden, veranschaulicht. Ferner werden die Implementationen aller Brückentechnologien zur Kombination von technologischen Räumen und alle Werkzeuge für die ontologiebasierte Entwicklung von Modellierungssprachen illustriert.
Towards Improving the Understanding of Image Semantics by Gaze-based Tag-to-Region Assignments
(2011)
Eye-trackers have been used in the past to identify visual foci in images, find task-related image regions, or localize affective regions in images. However, they have not been used for identifying specific objects in images. In this paper, we investigate whether it is possible to assign image regions showing specific objects with tags describing these objects by analyzing the users' gaze paths. To this end, we have conducted an experiment with 20 subjects viewing 50 image-tag-pairs each. We have compared the tag-to-region assignments for nine existing and four new fixation measures. In addition, we have investigated the impact of extending region boundaries, weighting small image regions, and the number of subjects viewing the images. The paper shows that a tag-to-region assignment with an accuracy of 67% can be achieved by using gaze information. In addition, we show that multiple regions on the same image can be differentiated with an accuracy of 38%.