Filtern
Erscheinungsjahr
- 2007 (104) (entfernen)
Dokumenttyp
- Diplomarbeit (37)
- Studienarbeit (32)
- Ausgabe (Heft) zu einer Zeitschrift (25)
- Masterarbeit (5)
- Bachelorarbeit (3)
- Dissertation (2)
Sprache
- Deutsch (80)
- Englisch (23)
- Mehrsprachig (1)
Schlagworte
- Augmented Reality (6)
- Bildverarbeitung (4)
- Computersimulation (4)
- Robotik (3)
- Augenbewegung (2)
- Autonome Fahrzeuge (2)
- Bildregistrierung (2)
- Bluetooth (2)
- Campus Information System (2)
- Computer (2)
- Computergraphik (2)
- Computerspiel (2)
- E-Learning (2)
- Echtzeitsysteme (2)
- Enhanced Reality (2)
- Equality (2)
- Gaze Tracker (2)
- Interaktion (2)
- Knowledge Compilation (2)
- Laserscanner (2)
- Rettungsroboter (2)
- Security (2)
- Software (2)
- Theorem Proving (2)
- University (2)
- 2D/3D-Segmentierung (1)
- 3-D-Modelle (1)
- 3-D-Scanning (1)
- 3D-Color-Structure-Code (1)
- 3D-Darstellung (1)
- 3D-RETISEG (1)
- AMIRE (1)
- ARToolkit (1)
- ARToolkitPlus (1)
- Adaptive Services Grid (ASG) (1)
- Akzeptanz (1)
- Angiographiebilder (1)
- Anhängerfahrzeug (1)
- Animationsverfahren (1)
- Augmented Reality Szenario (1)
- Automated Theorem Proving (1)
- Automated Theorem Proving Systems (1)
- Autonome Exploration (1)
- Autonome Robotik (1)
- Autonomous Exploration (1)
- Avatar (1)
- Avatare (1)
- Bayes Procedures (1)
- Bedarfsanalyse (1)
- Bedarfsforschung (1)
- Benutzerorientierung (1)
- Benutzerverhalten (1)
- Bild (1)
- BildKlang (1)
- Bildaufloesung (1)
- Bildauflösung (1)
- Billard (1)
- Biometrie (1)
- Blog marketing (1)
- CTI -Problem (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Clusteranalyse (1)
- Color Structure Code (1)
- Computational biology (1)
- Computeranimation (1)
- Computerspiele (1)
- Computertomografie (1)
- Datenbanksystem (1)
- Datenbrille (1)
- Datensicherheit (1)
- Delphi-Studie (1)
- Designwerkzeug (1)
- Digital Storytelling (1)
- E-Commerce (1)
- E-KRHyper (1)
- ESSA (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Eclipse <Programmierumgebung> (1)
- Electronic Commerce (1)
- Elektronische Signaturen (1)
- Emergence in the Loop (EMIL) (1)
- Evaluation (1)
- Explorationstransformation (1)
- Exporation Transform (1)
- Fachinformationssysteme (1)
- Fahrerlose Transportsysteme (1)
- Fahrzeugverhalten (1)
- Fedora (1)
- Fernsehtechnik (1)
- Feuer (1)
- Fire (1)
- Frau (1)
- Funknetzwerk (1)
- GLSL (1)
- GPGPU (1)
- GPU basiert (1)
- GUPRO (1)
- Gebäudemodelle (1)
- Gefühl (1)
- Geodaten (1)
- Geschäftsprozessmodell (1)
- Gespann (1)
- Gesundheitswesen (1)
- Grafikprozessor (1)
- Graphikhardware (1)
- Graphikprozessor (1)
- HDR-Bilder (1)
- Haptik (1)
- Herzerkrankungen (1)
- Hirschkäfer (1)
- Horn Clauses (1)
- Human motion (1)
- Hyper Tableau Calculus (1)
- IASON (1)
- IK-Algorithmus (1)
- IT Security (1)
- IT-Risk-Management (1)
- Industrial-CT (1)
- Innovationsmanagement (1)
- Interaktionselemente (1)
- Internet Voting (1)
- Internetzugang (1)
- Inverse Kinematik (1)
- Java (1)
- Join (1)
- Kalibrierung (1)
- Kamera (1)
- Kartographie (1)
- Kirk-Coleman-Modell (1)
- Konvergenz (1)
- Kraftfahrzeug (1)
- Krankenhausinformationssystem (1)
- Kriterienkatalog (1)
- Kryptographie (1)
- Kulturlandschaft (1)
- Kunstpädagogik (1)
- Künstliche Intelligenz (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Layout (1)
- Layout <Mikroelektronik> (1)
- Lebensmittelallergie (1)
- Leitstandmodul (1)
- Lenkassistenzsystem (1)
- Lenkung (1)
- Lernen (1)
- Lernumgebung (1)
- LexLearn (1)
- Lexikon (1)
- Logistik (1)
- Lucanus cervus (1)
- MIA (1)
- MP3 Player (1)
- MPEG-7 (1)
- Matchingverfahren (1)
- Mediator framework (1)
- Mikrocontroller (1)
- Mobile Commerce (1)
- Mobile Health (1)
- Mobile Parking (1)
- Mobile Payment (1)
- Mobile Roboter (1)
- Mobile Robots (1)
- Mobile Ticketing (1)
- Mobiler Roboter (1)
- Mobilkommunikation (1)
- Modellieren (1)
- Modellierung (1)
- Modulnetze (1)
- Motion Capturing (1)
- Multi-robot System (1)
- Multiagent System (1)
- Multiagentensystem (1)
- Multidimensional (1)
- Mustererkennung (1)
- Netzhaut (1)
- Netzwerkmanagment (1)
- Nintendo DS (1)
- Oberflächenentwurf (1)
- Oberflächengestaltung (1)
- Ontology (1)
- Ornamentik (1)
- Partikelsimulation (1)
- Partikelsystem (1)
- Path transformation (1)
- Personalised Information Systems (1)
- Personenidentifizierung (1)
- Petri Nets (1)
- Petri-Netze (1)
- Pfadtransformation (1)
- Population (1)
- Positionsbestimmung (1)
- Preisbildung (1)
- Privacy (1)
- Probability (1)
- Propagation (1)
- Prozesskette (1)
- RDF Graphs (1)
- RFID (1)
- RIP-MTI (1)
- RIP-MTI Algorithmus (1)
- Radiosity (1)
- Raytracing (1)
- ReMiP (1)
- Realistisches Kameramodell (1)
- Registrierung <Bildverarbeitung> (1)
- Relationales Datenbanksystem (1)
- Rescue League (1)
- Rescue Robots (1)
- Rescueanalyser (1)
- Resource Description Framework (RDF) (1)
- Risk (1)
- RoboCup Rescue (1)
- Routing (1)
- Routing information protocol (1)
- Rückwärtsfahrt (1)
- SIFT-Verfahren (1)
- SNMP (1)
- SVG (1)
- Sand (1)
- Segmentierung (1)
- Selbstlokalisation (1)
- Semantics (1)
- Semantik (1)
- Service-oriented Architectures (SOA) (1)
- Sicherheit (1)
- Simulations-Wiki (1)
- Simulationswerkzeug (1)
- Skript (1)
- Skript <Programm> (1)
- SocSimNet (1)
- SpoGA (1)
- Stadtmodelle (1)
- Standortbestimmung (1)
- Stereobildfolgen (1)
- Stochastic Logic (1)
- Supply Chain Management (1)
- Systembiologie (1)
- Tableau Calculus (1)
- Tastatur (1)
- Tastatureingabeverhalten (1)
- Technologiemanagement (1)
- Ton (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tourismus (1)
- Transferfunction (1)
- Transferfunktion (1)
- UML (1)
- USARSim (1)
- USB (1)
- Unified Modeling Language (UML ) (1)
- Unternehmensnetzwerke (1)
- Virtual characters (1)
- Virtuelle Menschen (1)
- Virtuelle Realität (1)
- Visualisierungstechniken (1)
- Visuelle Odometrie (1)
- Volume Hatching (1)
- Volumen-Rendering (1)
- Volumendaten (1)
- Vorliebe (1)
- W-LAN (1)
- WLAN (1)
- Web Ontology Language (OWL) (1)
- Web log (1)
- Weblog (1)
- Webseiten (1)
- Wiki (1)
- XTPeer (1)
- Zukunftsszenario (1)
- directed acyclic graphs (1)
- eGovernment (1)
- elektronische Anwendung (1)
- finite state automata (1)
- keystroke biometric recognition (1)
- logistic (1)
- multidimensional (1)
- regular dag languages (1)
- requirements analysis (1)
- virtual human (1)
- virtual network user mode linux (1)
- Ökologie (1)
Institut
- Institut für Computervisualistik (51)
- Fachbereich 4 (26)
- Institut für Informatik (18)
- Institut für Wirtschafts- und Verwaltungsinformatik (18)
- Institut für Management (6)
- Institut für Softwaretechnik (6)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (1)
- Institut für Kunstwissenschaft (1)
In dieser Studienarbeit wird ein Partikelsystem zur Feuersimulation vorgestellt, sowie die wichtigsten verwendeten Techniken.(z.B. FBO's, VBO's, MRT, etc...) Das Partikelsystem ist ausschliesslich auf der GPU implementiert, ist damit eine GPGPU Anwendung, und verwendet neuste Techniken, wie zum Beispiel Texturzugriffe im Vertexshader. Nach einem Überblick über verschiedene Arten von Partikelsystemen, werden auch viele nötige Techniken erklärt, bevor die eigentliche Implementation und das Programm dargelegt werden.
In dieser Arbeit wurden die vorhandenen Verfahren zur Gefäßsegmentierung eingehend untersucht. Die Vielfalt der verwendeten Ansätze wurde in unterschiedlichen Klassifizierungsversuchen aufgezeigt. Es gibt bisher kein Verfahren zur Segmentierung von Netzhautbildern, das für alle Arten von Bildern gleich gute Ergebnisse liefert. Alle Verfahren haben ihre Stärken und Schwächen. Unter Berücksichtigung der verwendeten Heidelberg Retina Tomographie Bilder wurde ein mögliches Verfahren zur Segmentierung der Blutgefäße mit angepassten Filtern ausgewählt, umgesetzt und evaluiert. Abweichend zu dem traditionellen Konzept der angepassten Filter, wird in diesem Verfahren die Filtermaske nicht rotiert, um alle Gefäßrichtungen zu erfassen, sondern es wird ein quadratischer LoG-Filter angewendet. Die Filter- und andere Parameter werden nicht während des Verarbeitungsprozesses verändert, sondern sie werden im voraus berechnet und an die Eigenschaften der HRT Bilder angepasst. Dadurch ist dieses Verfahren weniger rechenaufwendig. Zur Detektion der Gefäße werden die linienähnlichen Strukturen hervorgehoben und danach mit einem passenden Schwellwert binarisiert. Deshalb ist ein hoher Kontrast zwischen dem Gefäß und dem Hintergrund, sowie eine gleichmäßige Ausleuchtung sehr wichtig. Dies wird in einem Vorverarbeitungsschritt [Chrastek04] erreicht. Bei den Verfahren mit angepassten Filtern ist ein Nachbearbeitungsprozess notwendig, um falsch detektierte Strukturen zu entfernen. Für die Nachbearbeitung wurden in diesem Verfahren die morphologischen Operatoren verwendet. Der Algorithmus zur Detektion der linienähnlichen Strukturen könnte sehr gut mit einem trackingbasierten Ansatz kombiniert werden, was den Nachbearbeitungsprozess mit morphologischen Operatoren ersetzten würde. Die Sensitivität des Segmentierungsalgorithmus mit vorher berechneten Parametern ist 81% und die Spezifität 96%. Eine leichte Änderung der verwendeten Parameter führt zu einer Variation diesen beiden Maßzahlen. Eine weitere Erhöhung der Sensitivität kann durch die Optimierung des Nachbearbeitungsprozesses erreicht werden. Vermeer et al. sind in deren Implementierung auf vergleichbare Ergebnisse für Sensitivität und Spezifität gekommen.
This paper describes the development of security requirements for non-political Internet voting. The practical background is our experience with the Internet voting within the Gesellschaft für Informatik (GI - Informatics Society) 2004 and 2005. The theoretical background is the international state-of-the-art of requirements about electronic voting, especially in the US and in Europe. A focus of this paper is on the user community driven standardization of security requirements by means of a Protection Profile of the international Common Criteria standard.
Schule der Phantasie
(2007)
Diese Arbeit geht inhaltlich drei Aspekten nach:
1. Die Darstellung der Entwicklung der Schule der Phantasie. Hier werden die Inhalte aus der direkten Beobachtung bzw. aus amtlichen und halbamtlichen Quellen erfasst und in einen zeitlichen und logischen Zusammenhang gestellt. Damit wird erstmals eine zusammenfassende historische sowie den status quo bilanzierende Gesamtdarstellung angestrebt, so weit es die durchaus lückenhafte Quellenlage erlaubt.
2. Bei der Erstellung einer Theorie der Schule der Phantasie werden zwei Hauptstränge verfolgt: Zum einen soll eine Grundlage aus den konstitutiven Faktoren geschaffen, zum anderen eine sich daraus ableitende didaktische Konsequenz gezogen werden. Dies zielt weniger auf eine didaktische Handlungsanleitung "quasi durch die Hintertür", vielmehr geht es hier um die Begründung bzw. Begründbarkeit einer Haltung, die sich in vielen Beobachtungen der Schule der Phantasie offenbart. Grundlage dazu ist aber kein wertfreies quantitatives empirisches Erfassen aller bestehenden und beobachtbaren Erscheinungen, um daraus dann eine Theorie abzuleiten. Es geht vielmehr darum, Qualitäten zu erkennen, sie als Belege idealtypisch zu ordnen und in einen sinnvollen Kontext zu stellen. Damit ist immer ein Vorverständnis und eine Wertung verbunden.
3. Der Blick in eine mögliche Zukunft der Schule der Phantasie richtet sich auf Perspektiven innerhalb und außerhalb unseres bestehenden Schulsystems, das, wenn nicht anders angegeben, immer als das bayerische angenommen wird. Um dabei auf Erfahrungen zurückgreifen zu können und nicht das Rad neu erfinden zu müssen, werden auch Aspekte aus vergleichbaren pädagogischen und kunstpädagogischen Einrichtungen verglichen und zu Rate gezogen.
Der Schwerpunkt dieser Arbeit soll auf der schnellen sowie einfachen Umsetzung eigener Ideen von AR-Anwendungen liegen. Damit ein gewisser zeitlicher Rahmen bei der Umsetzung nicht überschritten wird, wurden Lösungen, die eine große Einarbeitungszeit oder fundierte Kenntnisse einer oder mehrer Programmiersprachen erfordern, nicht genauer betrachtet. Unter einer einfachen Umsetzung ist nicht zuletzt auch zu verstehen, dass diese auch dem Kreis der nicht-professionellen Anwender möglich sein soll. Dies beinhaltet, dass das gesuchte Programm auf normalen dem durchschnittlichen derzeitigen Stand der Technik entsprechenden Computersystemen lauffähig sein sollte. Auch wurden kommerzielle Produkte außer Acht gelassen, da die oft nicht unerheblichen Kosten einer nicht-professionellen Nutzung im Wege stehen.
Im Gesundheitswesen geht es nicht nur um die Vertraulichkeit von Patientendaten, sondern auch um ihre Integrität, von der die richtige Behandlung und Pflege des Patienten abhängen. Eine Maßnahme zur Absicherung eines Krankenhausinformationssystems (KIS) gegen unautorisierte Angreifer ist eine flexibel organisierte Zugriffskontrolle zum Schutz der patientenbezogenen Daten. Dieser Artikel beschreibt das Konzept einer rollenbasierten Zugriffskontrolle (RBAC - Role Based Access Control) und seine Einsatzmöglichkeiten im Gesundheitswesen.
Die Arbeit befasst sich mit der Entwicklung und Umsetzung eines Prototyps, der einen Lebensmittelallergiker bei der Auswahl von Produkten beim Einkaufen unterstützen soll. Dazu wird die berührungslose RFID-Technologie zu Hilfe genommen, mit der es möglich ist RFID-Tags (die an Produkten angebracht sind) ohne direkten Sichtkontakt auszulesen. Die eingelesenen Produktnummern können dazu verwendet werden in einem Datenbank-System die Inhaltsstoffe des Produktes abzufragen. Ein Vergleich mit den Allergenen des Benutzers und eine entsprechende Warnung sind somit möglich.
Rescueanalyser
(2007)
Im Forschungsgebiet der Künstlichen Intelligenz und Multiagenten-Systeme stellt die Erkennung von Plänen eine besondere Herausforderung dar. Es gilt aus einer Menge von Beobachtungen Agentenpläne effektiv, zuverlässig und eindeutig zu identifizieren. Im Bereich des RoboCup ist es von entscheidender Bedeutung, dass Agenten über die Pläne und Intensionen anderer Agenten schlussfolgern können, um gemeinsame Ziele zu erreichen. Diese Diplomarbeit umfasst die Konzeption und Entwicklung eines Werkzeugs für die RoboCupRescue-Simulation, welches die Abläufe einer Rescue-Simulation analysiert und die beobachteten Aktionsfolgen Plänen einer vorspezifizierten Planbibliothek zuordnet. Das entwickelte Analysewerkzeug zeichnet sich einmal durch seine Unabhängigkeit von den verschiedenen Rescue-Agententeams aus, sowie durch die Verwendung neuester Methoden zur effektiven Planerkennung. Damit ermöglicht der entwickelte Rescueanalyser sowohl die Fehlersuche und Optimierung des eigenen Agententeams als auch die Erforschung und Auswertung unterschiedlicher Strategien der Rescue-Agenten konkurrierender Teams. Neben der Visualisierung der Ergebnisse mittels eines optimierten Monitors des Rescue-Simulators, können die Resultate und Auswertungen der Planerkennung auch durch textbasierte Ausgaben detailliert eingesehen werden.
Die Idee, die dieser Arbeit zugrunde liegt, ist es, die Augmented Reality auch in anderen Bereichen voranzutreiben. In der Filmindustrie beispielsweise behilft man sich schon seit langem mit sowohl virtuellen als auch realen Methoden (computergestützten Visualisierungen, Miniatur-Kulissen), um eine Vorvisualisierung der Dreharbeiten zu erhalten, welche zur Planung des Arbeitsablaufs verwendet werden können. Die Idee liegt hierbei darin, dass durch ein Werkzeug, welches sich der Augmented Reality bedient, zum Beispiel Belichtungsverhältnisse bereits im Voraus ausgetestet werden könnten, oder der Kameramann seine Einstellungen proben kann. So können hierfür mitunter virtuelle Objekte in eine Miniaturszene eingeblendet werden, mit denen die realen Voraussetzungen des Drehorts nachgeahmt werden. Um diese Vorstellung von einem Werkzeug für die Filmindustrie zu ermöglichen, wird ein gutes und stabiles Tracking benötigt, das die nötigen Eigenschaften zur Verfügung stellt. Um ein solches Trackingsystem geht es in dieser Studienarbeit.
Ziel dieser Arbeit war es, ein (ggf. aus Teilverfahren zusammengesetztes) Gesamtsystem zur Generierung von Stadt- und Gebäudemodellen zu entwickeln und umzusetzen. Dabei war insbesondere wichtig, dass die baulichen Elemente einer Stadt durch realistisch wirkende, dreidimensionale Formen repräsentiert und auch in großer Anzahl unter Echtzeit-Bedingungen dargestellt werden können.
In dieser Arbeit soll ein dreidimensionales, echtzeitfähiges Landschaftsmodell des Mittelrheintals erstellt werden. Dabei soll die Modellerstellung soweit wie möglich automatisiert werden. Als Datengrundlage dienen das digitale Landschaftsmodell ATKIS-Basis DLM sowie das digitale Geländemodell (DGM), welches die notwendigen Höheninformationen zur Erzeugung des dreidimensionalen Modells enthält. Insbesondere soll dabei untersucht werden, wie sich die Generierung von Landschaftsmerkmalen wie Infrastruktur und Vegetation durch ein parametrisierbares Modell automatisieren lässt, und inwieweit sich die verwendeten Daten für einen solchen Automatisierungsprozess eignen.
Die Workshop-Reihe 'Algorithmen und Werkzeuge für Petrinetze' wurde 1994 mit dem Ziel initiiert, in der deutschsprachigen Petrinetz-Community den fachlichen Austausch und die inhaltliche Zusammenarbeit zwischen den mit der Entwicklung und Analyse von Algorithmen beschäftigten Arbeitsgruppen und den im Bereich der Implementierung von Werkzeugen tätigen Arbeitsgruppen zu fördern. Der vorliegende Sammelband enthält die Vorträge, die auf dem Workshop präsentiert worden sind. Um auch die Vorstellung von noch unfertigen Ideen oder von in Entwicklung befindlichen Werkzeugen zu ermöglichen, fand wie in den vergangenen Jahren kein formaler Begutachtungsprozess statt. Die eingereichten Beiträge wurden lediglich auf ihre Relevanz für das Workshop-Thema hin geprüft.
Probability propagation nets
(2007)
A class of high level Petri nets, called "probability propagation nets", is introduced which is particularly useful for modeling probability and evidence propagation. These nets themselves are well suited to represent the probabilistic Horn abduction, whereas specific foldings of them will be used for representing the flows of probabilities and likelihoods in Bayesian networks.
Der Zwang zur Entwicklung immer neuer Technologien hat den Entwicklungsaufwand vieler Spiele enorm in die Höhe getriebenen. Aufwändigere Grafiken und Spiele-Engines erfordern mehr Künstler, Grafiker, Designer und Programmierer, weshalb die Teams immer größer werden. Bereits jetzt liegt die Entwicklungszeit für einen Ego-Shooter bei über 3 Jahren, und es entstehen Kosten bis in den zweistelligen Millionenbereich. Neue Techniken, die entwickelt werden sollen, müssen daher nach Aufwand und Nutzen gegeneinander abgewogen werden. In dieser Arbeit soll daher eine echtzeitfähige Lösung entwickelt werden, die genaue und natürlich aussehende Animationen zur Visualisierung von Charakter-Objekt-Interaktionen dynamisch mithilfe von Inverser Kinematik erstellt. Gleichzeitig soll der Aufwand, der für die Nutzung anfällt, minimiert werden, um möglichst geringe zusätzliche Entwicklungskosten zu generieren.
Zunächst soll das Thema Non-Photorealistic Rendering vorgestellt werden, bevor auf die Theorie der implementierten Verfahren eingegangen wird. Im Vergleich zur klassischen Graphik-Pipeline wird anschließend auf die Pipeline-Stufen eingegangen, die sich bei moderner Graphikhardware programmieren lassen. Mit Cg wird eine Shader-Hochsprache präsentiert, die zur Programmierung von Graphikkarten eingesetzt wird. Danach wird die Graphikbibliothek Direct3D und das Framework DXUT vorgestellt. Vom softwaretechnischen Entwurf ausgehend, wird die Implementierung der einzelnen Verfahren des Non-Photorealistic Rendering dargestellt. Anschließend wird die Planung und Realisierung der Benutzerschnittstelle erläutert. Die erzielten Ergebnisse werden anhand von Bildschirmphotos aufgezeigt und es wird kurz auf die Darstellungsgeschwindigkeit eingegangen. Abschließend sollen sinnvolle Erweiterungen des Programms und interessante Verfahren, die nicht implementiert wurden, erläutert werden.
Networked RDF graphs
(2007)
Networked graphs are defined in this paper as a small syntactic extension of named graphs in RDF. They allow for the definition of a graph by explicitly listing triples as well as by SPARQL queries on one or multiple other graphs. By this extension it becomes possible to define a graph including a view onto other graphs and to define the meaning of a set of graphs by the way they reference each other. The semantics of networked graphs is defined by their mapping into logic programs. The expressiveness and computational complexity of networked graphs, varying by the set of constraints imposed on the underlying SPARQL queries, is investigated. We demonstrate the capabilities of networked graphs by a simple use case.
Ziel der Arbeit ist es, einen MP3-Player zu entwickeln, der eine Benutzerinteraktion ermöglicht, wie es gängige Computerprogramme zur Wiedergabe von Musik tun. Der Benutzer soll über eine grafische Oberfläche MP3-Dateien laden, abspielen und in Playlisten organisieren können. Ferner soll es möglich sein, Metadaten wie Titel, Autor, Genre, Veröffentlichungsjahr und vieles weitere als zusätzlichen Tag zu speichern und zu editieren. Diese Informationen soll die Software auch beim Abspielen eines Musikstückes auslesen und dem Nutzer übersichtlich anzeigen. Hier scheitern die meisten Player aufgrund ihres kleinen Displays. Außerdem soll der MP3-Player auch rudimentäre Funktionen zur Echtzeitmanipulation der Musikwiedergabe bieten. Als Hardware zum Abspielen der Musikdateien dient die Spielekonsole Nintendo DS, welche aufgrund ihrer beiden Displays genügend Anzeigemöglichkeiten für eine grafische Benutzerführung bietet. Eines der beiden Displays dient zudem als Touchscreen und kann für Eingaben verwendet werden.
Die Bedeutung von Innovation für die Sicherung der Unternehmensexistenz nimmt zu. Gerade im Bereich der Informations- und Kommunikationssysteme zwingen veränderte Rahmenbedingungen, verkürzte Produktlebenszyklen und verstärkter Wettbewerb viele Unternehmen zur Anpassung ihrer Innovationsgeschwindigkeit. Langfristiger Erfolg wird sich nur für die Unternehmen einstellen, denen es gelingt, durch technologische Innovationen ihre Wettbewerbsposition zu festigen oder auszubauen. Dies erfordert einen gesonderten Umgang mit technologischen Innovationen und verlangt nach einem Technologie- und Innovationsmanagement. Dabei ist nicht jede Innovation das Produkt einer einmaligen, möglicherweise gar spontanen Idee. Viele Innovationen entstehen aus der Integration oder Kombination bereits bewährter Technologien. Dies ist besonders interessant, wenn die originären Technologien Branchen entstammen, die nur noch marginale Wachstumsraten aufweisen. Aufbauend auf den Besonderheiten des Fallbeispiels Decision on Demand werden in diesem Artikel existierende Mängel etablierter Vorschläge für ein strategisches Technologie- und Innovationsmanagement identifiziert und die Rolle von modularer Technologieintegration als Alternative diskutiert.