Filtern
Erscheinungsjahr
- 2014 (83) (entfernen)
Dokumenttyp
- Bachelorarbeit (40)
- Ausgabe (Heft) zu einer Zeitschrift (17)
- Masterarbeit (13)
- Dissertation (10)
- Diplomarbeit (2)
- Bericht (1)
Sprache
- Deutsch (83) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (6)
- OpenGL (3)
- Android (2)
- Graphik (2)
- Smartphone (2)
- VOXEL (2)
- Wasseroberfläche (2)
- 3D-Visualisierung (1)
- Abdrift (1)
- Absorptive capacity (1)
- Anforderungskatalog (1)
- App (1)
- Applikation (1)
- Barriere (1)
- Beleuchtung (1)
- Berichterstattung (1)
- Beschleunigungsensor (1)
- Bildungsaspiration (1)
- Bildungserfolg (1)
- Bildungsinteresse (1)
- Breaking (1)
- Brechung (1)
- Bruchsimulation (1)
- Business Intelligence (1)
- C++ (1)
- Chancengleichheit (1)
- Classification (1)
- Clustering (1)
- Compute-Shader (1)
- Computergraphik (1)
- Computervisualistik (1)
- Data analysis (1)
- Datenanalyse (1)
- Diagramm (1)
- Drahtloses Sensorsystem (1)
- Echtzeitphysik (1)
- Erfolgsfaktor (1)
- Exposition (1)
- Fast Convolution (1)
- Firewall (1)
- Fließgewässer (1)
- Flow-Erlebnis (1)
- Flowing Inland Waters (1)
- Fourier (1)
- Fracturing (1)
- Frau (1)
- Fresnel (1)
- Führung (1)
- GPGPU (1)
- GPU (1)
- Gebrauchsgraphik (1)
- Gender (1)
- Gerstner (1)
- Geste (1)
- Gewässer (1)
- Globale Beleuchtung (1)
- Grundschule (1)
- InFO (1)
- Informatik (1)
- Information Flow Ontology (1)
- Integration (1)
- Internet (1)
- Iran (1)
- Jugendstil (1)
- Jump'n Run-Spiel (1)
- Karriere (1)
- Kinect (1)
- Klassifikation (1)
- Kollaboration (1)
- Krisenberichterstattung (1)
- Lastenheft (1)
- Lehrer (1)
- Lernerfolg (1)
- Lernkontext (1)
- Lernspiel (1)
- Makroinvertebraten (1)
- Menschenmengen-Evakuierung (1)
- Metriken (1)
- Migration (1)
- Modell (1)
- Modellierungswerkzeug (1)
- Monitoring (1)
- Motivation (1)
- Nachrichtenwerttheorie (1)
- Oberflächenabfluss (1)
- Ontologie (1)
- OpenCL (1)
- OpenGL Shading Language (1)
- Pestizid (1)
- Pfalz (1)
- Pflanzenschutzmittel (1)
- Pflichtenheft (1)
- Pre-Integration (1)
- Programmierung (1)
- Prototyp (1)
- Prototype (1)
- Qualität (1)
- Qualitätsmodell (1)
- Qualitätssicherung (1)
- RFCO (1)
- Ray tracing (1)
- Ray-Casting (1)
- Reflexion (1)
- Register (1)
- Regression (1)
- Regulierung (1)
- Rehabilitation (1)
- Ressourcen (1)
- Reverberation (1)
- Risikominderungsmaßnahmen (1)
- Router (1)
- Router-based Flow Control Ontology (1)
- Schnelle Faltung (1)
- Selbstwirksamkeit (1)
- Sensor (1)
- Sensorensteuerung (1)
- Shader (1)
- Shattering (1)
- Simulation (1)
- Social Software (1)
- Sozialarbeit (1)
- Spiel (1)
- Sport (1)
- Sports (1)
- Sprechtherapie (1)
- State (1)
- Steuerung (1)
- Stress (1)
- Taxonomie (1)
- Telemedizin (1)
- Temperaturmessung (1)
- Top-Management (1)
- Touchscreen (1)
- Trait (1)
- Transfer function (1)
- Transferfunktion (1)
- Uferrandstreifen (1)
- Unterrichtsforschung (1)
- VST (1)
- Validität (1)
- Videospiele (1)
- Visualisierung (1)
- Visuelle Kommunikation (1)
- Volumen-Rendering (1)
- Volumendaten (1)
- Vorsorge (1)
- Voxelisierung (1)
- Water Surface Temperature (1)
- Wellen (1)
- Wiederhall (1)
- Wireless Sensor Networks (1)
- Wohlfahrtspflege (1)
- Zerbrechen (1)
- Ziel (1)
- accelerometer (1)
- android (1)
- buffer strips (1)
- crowd evacuation (1)
- diagram (1)
- educational achievement (1)
- educational aspirations (1)
- indirect lighting (1)
- indirektes Licht (1)
- integration (1)
- interaktiv (1)
- jump'n run game (1)
- learning context (1)
- metrics (1)
- migration (1)
- model (1)
- monitoring (1)
- motivation (1)
- pesticide (1)
- physical interaction (1)
- physische Interaktion (1)
- prevention (1)
- psychisches Verhalten (1)
- psychological behavior (1)
- quality assurance (1)
- realtime physics (1)
- reflection (1)
- refraction (1)
- rehabilitation (1)
- resources (1)
- risk mitigation measures (1)
- self-efficacy (1)
- sensor control (1)
- shader (1)
- simulation (1)
- stress (1)
- surface water (1)
- taxonomy (1)
- teaching research (1)
- validity (1)
- videogames (1)
- voxelization (1)
- water surface (1)
- waves (1)
Institut
Geschäftsordnung des Studierendenparlaments der Universität Koblenz-Landau, Campus Landau vom 15.10.2014
Satzung der Studierendenschaft der Universität Koblenz-Landau, Campus Landau vom 15.10.2014
Ordnung zur Änderung der Beitragsordnung des Studierendenwerks Koblenz vom 20.10.2014
Erste Ordnung zur Änderung der Eignungsprüfung Darstellendes Spiel der Universität Koblenz-Landau vom 29.10.2014
Änderung zur Festsetzung von Zulassungszahlen an der Universität Koblenz-Landau für das Studienjahr 2014/2015
Redaktionelle Korrektur betreffend die Erste Ordnung zur Änderung der Promotionsordnung des Fachbereichs 7: Natur- und Umweltwissenschaften der Universität Koblenz-Landau vom 19.08.2014
Promotionsordnung des Fachbereichs 2: Philologie / Kulturwissenschaften vom 06.10.2014
Zehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang an der Universität Koblenz-Landau vom 14.10.2014
Vierte Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang Berufsbildende Schulen an der Universität Koblenz-Landau und der Hochschule Koblenz vom 14.10.2014
Neunte Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulen plus, das Lehramt an Förderschulen sowie das Lehramt an Gymnasien an der Universität Koblenz-Landau vom 14.10.2014
Dritte Ordnung zur Änderung der Ordnung für die Prüfung im Masterstudiengang für das Lehramt an Berufsbildenden Schulen an der Universität Koblenz-Landau und der Hochschule Koblenz vom 14.10.2014
Achte Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Zertifikatsstudiengang (Erweiterungsprüfung) an der Universität Koblenz-Landau vom 14.10.2014
Siebente Ordnung zur Änderung der Prüfungsordnung für die Prüfung im Zwei-Fach-Bachelorstudiengang an der Universität Koblenz-Landau vom 14.10.2014
3D-Modelle werden heute in vielen Bereichen wie Multimedia Anwendungen, Robotik oder der Filmindustrie immer wichtiger. Besonders interessant ist dabei die Erstellung eines 3D-Modells aus einer monokularen Bilderserie, da die hierfür nötigen Kameras immer günstiger, kleiner und ausgereifter produziert werden. Geeignetere Kameras werden in immer mehr Geräten wie Smartphones, Tablet-PCs, Autos etc. verbaut, wodurch sich ein großes Potential für die Verwendung dieser Rekonstruktionstechnik ergibt.
Als Grundlage dieser Arbeit dient eine mit einer kalibrierten Kamera aufgenommene Bilderserie. Aus dieser werden 2D-Punktkorrespondenzen, mit den verbreiteten SURF-Features oder den A-KAZE-Features gewonnen. Aufbauend auf den 2D-Punktkorrespondenzen kann aus diesen mit Hilfe verschiedener Algorithmen ein 3D-Modell in Form einer Punktwolke und Kameraposen rekonstruiert werden.
Um Fehler in dem entstandenen Modell gering zu halten, wird insbesondere aufrnden Bündelausgleich zur Fehlerminimierung eingegangen. Anschließend wird dasrnneben dieser Arbeit entstandene Programm zur 3D-Rekonstuktion und Visualisierung des 3D-Modells erläutert. Das implementierte System wird anschließend anhand von Statistiken evaluiert und die hieraus gewonnenen Erkentnisse präsentiert.
Abschließend werden die Ergebnisse dieser Arbeit zusammengefasst und einrnAusblick auf mögliche Weiterentwicklungen gegeben.
Die Studie befasst sich mit der Bildungsaspiration, der Wertevermittlung und -tradierung iranischstämmiger Familien in Deutschland. Ziel ist es, zu ermitteln, worauf die familiäre Bildungsaspiration zurückzuführen ist. Im Fokus der Fallstudie stehen drei Familien, die nach der Islamischen Revolution von 1979 aus ihrem Herkunftsland nach Deutschland immigriert sind. Es handelt sich um eine zweigenerationenperspektivische Befragung innerhalb einer Familie. Dies bedeutet, dass innerhalb einer Familie Einzelinterviews mit jeweils einer Person aus der Eltern- und Kindergeneration durchgeführt wurden. So werden gemeinsam erlebte Situationen, wie z.B. Flucht oder Teilhabe am deutschen Bildungssystem, oder Begriffe, wie z.B. Bildung oder Bildungserfolg, aus der jeweiligen Perspektive geschildert bzw. definiert. Darüber hinaus geben die Befragten Auskünfte über die Großelterngeneration, sodass das gesamte Datenmaterial Angaben über drei Generationen umfasst. Dieser qualitativen Exploration geht eine bundesweite Befragung voraus an der 70 Personen iranischer Herkunft teilnahmen. Weiterhin zeichnet sich die Arbeit durch einen ressourcenorientierten Forschungsansatz aus. Die erhobenen Daten geben Antwort auf die zentralen Fragen:
Auf welche Ursachen lässt sich Bildungsaspiration von immigrierten, iranischstämmigen Familien in Deutschland zurückführen?
Welche Rolle spielen die Sprachen des Herkunfts- und Einwanderungslandes in der Wertetradierung? In der Studie werden die individuellen Bildungsgeschichten der Befragten in den wissenschaftlichen Diskurs zur Bildungsaspiration, Bildungs-, Migrations- und Mehrsprachigkeitsforschung eingefügt. Hierbei wird ein interdisziplinäres und somit multiperspektivisches Theoriekonstrukt zugrunde gelegt, welches sich durch einen geschichts-, länder- und generationsübergreifenden Forschungsansatz auszeichnet. Ein zentrales Ergebnis ist, dass ein Verständnis für geschichtliche Entwicklungen im Herkunftsland erforderlich ist, um das Bildungsverhalten im iranischstämmigen Familienkontext nachzuvollziehen. Erst durch Kontextualisierung von individuellen und gesellschaftlichen Dimensionen kann nachvollzogen werden, warum im Falle dieser Minderheitengruppe geringes ökonomisches Kapital, das infolge von beruflichen Brüchen der Eltern nach ihrer Flucht im Einwanderungsland entstanden ist, keine negativen Auswirkungen auf die Entwicklung des kulturellen Kapitals der Folgegenerationen hat. Folglich zeigt die Studie, dass im Falle der interviewten Familien gängige Erklärungsmodelle, wie die Korrelation vom geringem ökonomischen Kapital und geringem kulturellen Kapital, nicht zutreffen. Vielmehr wird kulturelles Kapital von Generation zu Generation tradiert. Ein weiteres Ergebnis der Studie ist das erarbeitete Dreiebenen-Modell. Es umfasst geschichtlich-gesellschaftliche, politische sowie familiäre Entwicklungen und Einstellungen auf der Mikro-, Meso- und Makroebene. Damit ist eine Grundlage geschaffen, um das Tradierungsverhalten anderer Zuwanderungsgruppen zu erklären.
In der vorliegenden Arbeit wird eine prototypische Anwendung für die Logopädie entworfen, die als therapeutisches Werkzeug dient, mit dem die Artikulation deutscher Laute und der Schluckvorgang simuliert werden können. Besonderer Fokus liegt dabei auf der dreidimensionalen Visualisierung der anatomischen Modelle der oro-pharyngolaryngealen Region, die vom Logopäden interaktiv bedient werden kann. Unter Berücksichtigung therapeutischer Anforderungen wird die Frage untersucht, ob eine solche Anwendung im Therapie-Alltag eingesetzt werden und einen Mehrwert zu den üblichen Hilfsmittel der Sprechtherapie bieten kann.
Der Begriff Gebrauchsgrafik ist im Wesentlichen ein Sammelbegriff für jene grafischen Arbeiten, die, im Gegensatz zur freien Grafik Anteil haben an der bewussten künstlerischen Durchformung und Gestaltung praktischer Aufgaben. Hauptbetätigungsfeld der Gebrauchsgrafik als zweckgebundene künstlerische Äußerungsform ist um 1900 die Reklame in Form von Plakaten, Anzeigen, Verpackungen, Firmensignets sowie Akzidenzen. Sie alle brachten den vielseitigen Formenschatz des Jugendstils einem breiten Publikum näher. Die Gebrauchsgrafik als neues Medium um 1900 steht im engen Zusammenhang mit dem technischen Fortschritt der industriellen Revolution: Angesichts zunehmender Konkurrenz durch die Massenproduktion von Konsumgütern versprach künstlerisch ansprechende Werbung Wettbewerbsvorteile. Dank der Erfindung der Lithografie um 1799 war die Gebrauchsgrafik allseitig verfügbar und gut finanzierbar. Sie passte in das Konzept des Jugendstils als Medium, das alle Bereiche mitgestaltet. Sie fungierte als Schnittstelle zwischen Wirtschaft, Kunst und Kultur. Exemplarisch werden drei unterschiedliche, für die Region bis heute bedeutende Branchen untersucht: der Tourismus, der Weinbau und die Industrie. Zudem werden Pfälzer Künstler des Jugendstils vorgestellt, die sich auf dem Gebiet der Gebrauchsgrafik betätigten. So lässt sich in der Pfalz eine repräsentative Anzahl gebrauchsgrafischer Arbeiten des Jugendstils in unterschiedlicher Ausprägung nachweisen. Als entlegene bayrische Provinz nahm sie die Strömungen der Zeit wahr und setzte sie auf ihre Weise um. Ein eigenständiger Pfälzer Jugendstil entwickelte sich aber nicht.
Zusätzlich zum Rendern wird die Rechenleistung moderner Grafikkarten immer häufiger auch für allgemeine Berechnungen (GPGPU) genutzt. Für die Umsetzung stehen verschiedene Möglichkeiten zur Verfügung, die von der Verwendung der Renderingpipeline bis zu eigenständigen Schnittstellen reichen. In dieser Arbeit werden mit Render-To-Texture, Transform Feedback, Compute Shader und OpenCL vier verschiedene GPGPU-Methoden untersucht. Anhand von Partikelsystemen werden sie hinsichtlich der benötigten Berechnungszeit, der GPU-Auslastung, Lines of Code und Portierbarkeit miteinander verglichen. Dazu wurden sowohl das N-Körper Problem, Smoothed Particle Hydrodynamics und ein Partikelschwarm als Partikelsysteme umgesetzt. Es konnte gezeigt werden, dass insbesondere OpenCL und Compute Shader sehr gute Ergebnisse liefern.
Neue Techniken zur automatischen Identifikation von Objekten (Auto-ID) zeigen einzigartige Potentiale für deren Einsatz in der Wirtschaft auf. Diese Arbeit fokussiert sich auf die Radio Frequency Identification- (RFID-) Technologie und untersucht deren Nutzen und Potentiale für ausgewählte Wirtschaftsbranchen. Dabei wird sie unmittelbar mit dem zurzeit in der Wirtschaft vorherrschenden System zur Objektidentifikation, dem Barcode, verglichen. Zu diesem Zweck werden die grundlegenden Funktionsweisen beider Technologien vorgestellt und Unterscheidungsmerkmale hinsichtlich der technischen Ausgestaltung der einzelnen Technologien beleuchtet. Darüber hinaus werden im Hinblick auf die potentielle Verwendung von RFID- und Barcodetechnologie innerhalb dreier Wirtschaftsbranchen die unterschiedlichen Funktionsweisen beider Technologien voneinander abgegrenzt und bewertet. Die Abgrenzung bietet die Grundlage, um die Chancen der RFID-Technologie als potentiellem Nachfolger für die Barcode-Technologie in der Konsumgüterbranche, der Logistikbranche und der Pharmabranche zu ermitteln und zu bewerten.
Entscheidungsverhalten unter Unsicherheit mit Berücksichtigung von Persönlichkeitseigenschaften
(2014)
Ziel dieser Bachelorarbeit war es herauszufinden, mit welchen Hilfsmitteln Entscheidungen unter Unsicherheit getroffen werden und welche Unterschiede es bei Personen mit verschiedenen Eigenschaften gibt. Die Ergebnisse sollten hauptsächlich den Entscheidungsprozess von Managern, Entrepreneuren und Personen mit großer Entscheidungskompetenz widerspiegeln. Zudem sollte gezeigt werden, dass unterschiedliche Persönlichkeitseigenschaften sich auf den Entscheidungsprozess auswirken.
Ziel der Bachelorarbeit war die Evaluation und Optimierung von verschiedenen Eye-Tracking Algorithmen für die subpixelgenaue Bestimmung der relevanten Merkmale bezüglich Genauigkeit. Die extrahierten Merkmale sind das Pupillen- und Glintzentrum. Die Algorithmen sind mit preiswerten Kameras einsetzbar. Es wurde ein synthetisches Modell des Auges modifiziert und verwendet, mit dem die Methoden mit bekannter Ground Truth evaluiert wurden.
Eine systematische Literaturstudie zu beaconless Algorithmen für drahtlose Ad-hoc- und Sensornetze
(2014)
Drahtlose Sensornetzwerke (DSN) sind Rechnernetze von Sensorknoten. In positionsbasierten Protokollen senden solche Knoten ihre Positionsdaten periodisch als Nachrichten (Beacon) über Funk an umliegende Knoten. Beacons bringen jedoch Nachteile mit sich, die sog. "beaconless" Algorithmen zu lösen versuchen. Diese Algorithmen benutzen keine Beacons, sollen aber die gleichen Einsatzgebiete abdecken wie ihre Beacon-behafteten Gegenstücke. Trotz ihrer Wichtigkeit im Forschungsgebiet der Rechnernetze sind beaconless Verfahren nach unserem derzeitigen Kenntnisstand noch nicht systematisch untersucht worden.
Ziel dieser Arbeit ist eine möglichst umfassende und systematische Übersicht von beaconless Algorithmen seit der Jahrtausendwende. Relevante Artikel werden anhand ihrer Gemeinsamkeiten kategorisiert und ihre Unterschiede werden gegenübergestellt. Diese Arbeit dient somit als Nachschlagewerk zum aktuellen Forschungsstand von beaconless Algorithmen sowie als Basis zum Aufdecken von Forschungslücken.
Die Informationstechnologie hat in den letzten Jahren einen rasanten Anstieg genommen. Durch die Entwicklung des Web 2.0 zum Social Web nehmen immer mehr Menschen und Unternehmen am Informationsaustausch im Web teil. In den Sozialen Netzwerken wie Facebook oder Xing, Blogs von Personen der Öffentlichkeit oder unbekannten Personen oder der Vielzahl an Foren und ähnlichen Plattformen hat jeder die Möglichkeit, am Informationsaustausch selbst mitzuwirken. Dieser Tatsache geschuldet sind nicht nur Unternehmen sondern auch Privatpersonen gezwungen, diese Entwicklung anzunehmen. Durch die Menge an zugänglichen Informationen ist auch die Reputation zwangsläufig betroffen. Durch diese Entwicklung entstand die virtuelle Reputation, die das Gerüst der Gesamtreputation erweitert. Wer sich um einen Auftrag oder eine Stelle bewirbt mussrndamit rechnen, dass sein Name gegoogelt wird, egal ob es sich hierbei um eine internetaffine Branche handelt oder nicht. Durch Suchmaschinen sind Informationen über eine Person leicht zugänglich. Auch ein Blick in ein Profil bei Facebook oder Xing gibt erste Anhaltspunkte. Der Kommunikationsexperte Klaus Eck sagt dazu: "Nur wer das Netz wirklich ernst nimmt, profitiert bei der Entwicklung seines digitalen Rufs". Diese Forschungsarbeit zeigt anhand eines selbstentwickelten Fragebogens, was in Social Networkrnals reputationsfördernd bzw. reputationsschädigend angesehen wird und in wieweit die virtuelle Reputation die Gesamtreputation beeinflusst.
Im Verlauf der vergangenen Jahre wurden unter der Leitung von Dr. Merten Joost basierend auf Microcontrollern der ATMega-Reihe verschiedene Projekte zur Ansteuerung der Peripheriegeräte eines Computers realisiert. Hierzu zählen unter anderem die Abfrage einer Tastatur, die Ausgabe von Audio- und Videosignalen sowie eine Programmierumgebung mit eigener Programmiersprache. Ziel dieser Arbeit ist es, die gesammelten Projekte zu verbinden, um als Ergebnis einen eigenständigen "Homecomputer" zu erhalten, der per Tastatur angesteuert werden können soll und über eine Audio- und Videoausgabe verfügen soll. Dabei wird eine SD-Karte als Speichermedium dienen, das per Tastatureingabe über eine Art Shell verwaltet werden kann.
Diese Arbeit versucht zu klären, ob der richtige Zeitpunkt für eine innovative Veränderung eines Geschäftsmodells ermittelt werden kann. Wenn ja, gilt es herauszufinden, wann dieser Zeitpunkt eintritt.
In einer kurzen Einführung sind die Problemstellung und die Ziele dieses Themas zusammengefasst und die Vorgehensweise der Literaturrecherche, sowie deren Bearbeitung beschrieben.
Es folgen die drei Hauptkapitel, welche inhaltlich aufeinander aufbauen. In dem Kapitel zwei sind Geschäftsmodelle thematisiert. Hier sind zunächst aus verschiedenen Quellen Definitionen des Begriffs "Business Model" herausgearbeitet, damit ein allgemeines Verständnis der Bedeutung eines Geschäftsmodells gewährleistet ist. Diese Definitionen sind durch das von Chesbrough und Rosenbloom (2002) praktische Beispiel der Nutzung eines Geschäftsmodells des Unternehmens Xerox Corporation gestützt. Im nächsten Schritt gilt es Typen von Business Models zu identifizieren. Als Quelle dient hierfür Weill et al (2005).
Der letzte Abschnitt von Kapitel zwei beschäftigt sich mit den sechs Dimensionen eines Geschäftsmodells nach Bieger und Reinhold (2011). Diese sechs Dimensionen spielen zum Ende dieser Arbeit eine Rolle als Kriterien für die Analyse heutiger Literatur zum Timing von Geschäftsmodellen.
Kapitel drei ist gleichzeitig Teil zwei der drei Hauptkapitel. Hier liegt der Fokus auf Innovationen. Der Begriff Innovation ist zunächst definiert und seine Wichtigkeit dargestellt, bevor verschiedene Arten von Innovationen beschrieben werden. Die einzelnen Innovationsarten leiten sich aus den Differenzierungskriterien nach Vahs und Brem (2013) ab. Um auch an dieser Stelle die Realität aus Unternehmenssicht näherzubringen, sind Fragestellungen aufgeführt, welche ein Geschäftsführer sich stellen sollte, wenn er sein Geschäftsmodell verändern möchte oder muss. Literaturgrundlage dieser Fragestellungen ist ein Artikel von Zott und Amit aus dem Jahr 2010.
Nach der umfassenden Klärung des Begriffs Innovation und kurzer Hilfestellung für Geschäftsführer folgt eine Beschreibung zweier Methoden, um Geschäftsmodelle innovativ zu verändern. Die erste Methode ist die Nutzung des St. Galler Business Model Navigators nach Gassmann, Frankenberger und Csik (2013). Der St. Galler Business Model Navigator wurde an der Universität St. Gallen in der Schweiz von dem Institut für Technologiemanagement entwickelt.
Die zweite beschriebene Methode für Business Model Innovation ist das Business Model Canvas Tool nach Osterwalder und Pigneur (2010), welches auf die sogenannten "nine building blocks" aufbaut.
Das letzte Hauptkapitel dieser Arbeit bezieht sich auf dessen zentrale Fragestellung mit dem Stichwort Timing. Hier wird mit einem praktischen Beispiel von Timing von technologischen Innovationen begonnen, der IBM Mainframe Case, analysiert von Mahajan und Muller (1996). Danach folgt eine kurze Zusammenfassung des Standes in der heutigen Literatur zum Thema Timing. Im nächsten Schritt ist ein eigener Beitrag zum Thema "Business Model Innovation Timing" geschrieben, weswegen sich Literaturangaben in diesem Abschnitt auf dem Minimum halten.
Diese Bachelorarbeit schließt ab mit der eigenen Analyse von heutiger Literatur zum Timing von Geschäftsmodellen. Ergebnis dieser Analyse ist eine Tabelle mit einer 20 x 7 Matrix, wo der Inhalt zwanzig ausgewählter Quellen den sechs Dimensionen eines Geschäftsmodells aus Kapitel zwei, sowie dem Kriterium Timing zugeordnet ist. So entsteht ein Überblick darüber, über welche Kriterien in der Literatur mehr oder weniger geschrieben wurde. Diese Analyse und Zuordnung ist ausgewertet, indem die Quellen mit dem Kriterium Timing genauer betrachtet werden, um die zentrale Fragestellung dieser Arbeit zu beantworten zu versuchen.
Ein kurzes Fazit rundet die Bachelorarbeit ab.
Beim Bitcoin handelt es sich um eine dezentrale virtuelle Währung in einem Peer-to-Peer Netzwerk. Die digitalen Münzen wurden 2008 durch Satoshi Nakamoto erfunden und seit 2009 in Umlauf gebracht. Das angestrebte Ziel des Bitcoin sind Transaktionen zum Erwerb virtueller und realer Güter ohne das Einwirken von Finanzintermediären. Dadurch können Transaktionskosten minimiert werden. Das Vertrauen in solche dritte Parteien wird dabei durch ein mathematisches Konzept ersetzt und durch das Bitcoinnetzwerk und all seine Nutzer sichergestellt. Obwohl die digitalen Münzen eigentlich als Tauschmittel konzipiert wurden, ist der aktuelle Anwendungsbereich noch sehr gering. Die Kursentwicklung hingegen erfuhr seit Anfang 2013 mehrere Berg- und Talfahrten auf den Handelsplattformen für den Bitcoin. Während sich viele wissenschaftliche Arbeiten mit den technischen Aspekten im Bereich der Informatik befassen, klafft im ökonomischen Kontext noch eine große Lücke. Was macht ein Zahlungsmittel eigentlich aus und wie ist der Bitcoin im volkswirtschaftlichen Sinne einzuordnen? Mit diesen Fragestellungen wird sich in dieser Ausarbeitung auseinandergesetzt. Als Vergleichsgröße wurden dabei, auf Basis sorgfältig ausgewählter Literatur, die Aspekte realer Währungen nach ihren Funktionen, Eigenschaften und Formen untersucht. Anschließend wurden die technischen Grundlagen der virtuellen Währung dargelegt, um ebenfalls den Bitcoin darauf anzuwenden. Dabei hat sich gezeigt, dass die digitalen Münzen als virtuelle Währung, gegenüber realen Währungen, noch deutliche Defizite aufweisen. Eine besonders gravierende Schwachstelle stellt dabei die hohe Volatilität des Kurses dar. Sie sorgt dafür, dass der Bitcoin mit einer solchen Instabilität nicht die Wertaufbewahrungsfunktion gewährleisten kann. Da dies ein ausschlaggebendes Kriterium zur Erfüllung der Geldfunktionen darstellt, kann der Bitcoin ebenfalls nicht die Rolle als Zahlungsmittel erfüllen, wie es bei den realen Währungen der Fall ist.
In der Literatur sind Projekte als geeignetes Mittel zur Implementierung von Strategien im Unternehmen anerkannt. Ähnlich wie bei einem Projekt handelt es sich bei der Implementierung von Strategien um zeitlich befristete Aufgaben, die in der Regel eine hohe Komplexität und Neuartigkeit aufweisen. Aufgrund dessen werden heutzutage strategische Vorhaben in Form von Projekten umgesetzt. Somit haben Projekte eine hohe Bedeutung für die strategische Entwicklung von Unternehmen. Um diese strategische Entwicklung sichern zu können, muss ein permanentes Lenkungssystem für strategische Projekte im Unternehmen implementiert werden " das Projektportfoliomanagement. Aufgrund der Komplexität und Neuartigkeit strategischer Projekte ist das Projektportfoliomanagement ein hoch komplexes Lenkungssystem mit vielen Subprozessen, die mit hohen Kosten und Zeitaufwand verbunden sind. Diese Masterarbeit beschäftigt sich mit der Optimierung des Projektportfoliomanagements anhand der Lean-Philosophie. Letztere ist eine Sammlung von Prinzipien und Methoden, die für die Verschlankung der Produktion in der Automobilindustrie entwickelt wurde. Der Einsatz der Lean-Prinzipien brachte eine derartige Steigerung der Effizienz und Effektivität bei der Automobilherstellung, dass diese Prinzipien auch in anderen Branchen und Funktionsbereichen eigesetzt werden. Nun soll das Potential der Lean-Philosophie für die Optimierung des Projektportfoliomanagements untersucht werden.
Die Medizinische Visualisierung komplexer Gefäßbäume hat das Potential den klinischen Alltag in der Gefäßchirurgie zu erleichtern.
Dazu sind exakte, hochaufgelöste Darstellungen und echtzeitfähige Berechnungsmethoden notwendig. Bekannte Ansätze aus den Bereichen der direkten (z.B. Raycasting) und indirekten
(z.B. Marching Cubes) Volumenvisualisierung sind nicht in der Lage alle Anforderungen zufriedenstellend zu erfüllen. Verbesserte
Ergebnisse können mit hybriden Methoden erzielt werden, die unterschiedliche Visualisierungsverfahren kombinieren.
Im Rahmen dieser Arbeit wurde ein hybrides Renderingsystem zur Darstellung von Blutgefäßen entwickelt, das die Bildqualität durch Integration einer Marching Cubes Oberfläche in ein Raycasting–System optimiert, dabei Detailstrukturen erhält und ausreichende Performanz zur Interaktion bietet. Die Ergebnissezeigen die verbesserte Plastizität und Genauigkeit der Darstellung.Anhand von Experten– und Laienbefragungen konnte der Nutzen des Systems vor allem für die Patientenaufklärung nachgewiesen werden. Die Erschließung zusätzlicher Anwendungsgebiete ist durch die Weiterentwicklung des Renderers möglich.
Diese Arbeit vermittelt einen grundlegenden Überblick über die Funktionsweise und Implementierung von aktuellen Voxelisierungsstrategien auf der GPU. Neben etablierten Voxelisierungsverfahren mithilfe der Rasterisierungspipeline werden neue Möglichkeiten mithilfe von GPGPU-Programmierung untersucht. Auf der Basis der Programmiersprache C++ und der Grafikbibliothek OpenGL wird die Implementierung mehrerer Verfahren erläutert.rnDie Verfahren werden hinsichtlich der Performanz und der Qualität der Voxelisierung verglichen und im Bezug auf mögliche Anwendungsfälle kritisch bewertet. Weiterhin werden zwei Beispielanwendungen beschrieben, in denen die Verwendung einer voxelisierten Szene eine Erweiterung von bestehenden Echtzeitgrafikverfahren ermöglicht. Zu diesem Zweck werden die Konzepte und die Implementierungen von Transmittance Shadow Mapping und von Reflective Shadow Mapping, das um voxelbasierte Umgebungsverdeckung erweitert wird, erläutert. Abschließend wird die anhaltende Relevanz von Voxelisierung in einem Ausblick auf aktuelle Forschungen und weitere Anwendungen und Erweiterungen der vorgestellten Verfahren aufgezeigt.
Die vorliegende Arbeit befasst sich mit der Anwendung und Optimierung globaler Beleuchtung in dreidimensionalen Szenen. Dabei wird nicht nur die direkte Beleuchtung in Abhängigkeit einer oder mehrerer Lichtquellen, sondern auch indirekte Beleuchtung durch umliegende Objekte berücksichtigt. Schwerpunkt dieser Arbeit ist es, die Ergebnisse eines globalen Beleuchtungsverfahrens durch die Implementation unter OpenGL 4.4 zu verbessern. Dies geschieht mithilfe einer Voxelisierung der Szene. Durch eine Traversierung der entstehenden Voxel-Struktur werden zusätzliche Informationen der Szene entnommen, was zu einer realistisch wirkenden globalen Beleuchtung beiträgt.