Filtern
Erscheinungsjahr
- 2006 (54) (entfernen)
Dokumenttyp
- Studienarbeit (25)
- Diplomarbeit (20)
- Dissertation (4)
- Masterarbeit (3)
- Bachelorarbeit (2)
Sprache
- Deutsch (54) (entfernen)
Schlagworte
- GPU (2)
- Netzwerkmanagement (2)
- Stereosehen (2)
- Visualisierung (2)
- Volumendaten (2)
- XML (2)
- 3D-Modelle (1)
- Adaptive Abtastung (1)
- Adobe Flash (1)
- Altlast (1)
- Altlasten (1)
- Augmented Reality (1)
- Aussagenlogik (1)
- Awareness (1)
- Axis Aligned Bounding Box (AABB) (1)
- BGV A1 (1)
- Besuchersoftware (1)
- Bildverarbeitung (1)
- Binäre XML-Formate (1)
- Biomonitoring (1)
- C-Socketbibliothek (1)
- CAD-System (1)
- CSG (1)
- Cg (1)
- Chronischer Schmerz (1)
- Circumscription (1)
- Communication System (1)
- Computeranimation (1)
- Computergrafik (1)
- Computergraphik (1)
- Corruption (1)
- DCMTK (1)
- DICOM (1)
- DIN EN ISO 9241 (1)
- DNNF (1)
- DPLL (1)
- Data-Mining (1)
- Datenaustausch (1)
- Datenaustauschstandard (1)
- Datenstruktur (1)
- Digital Rights Management (1)
- Diskursmeter (1)
- Diskursverständnis (1)
- Drahtmodell (1)
- Dreidimensionale Visualisierung (1)
- Dynamische Programmierung (1)
- E-Demokratie (1)
- Echtzeitanimationssystem (1)
- Echtzeitfähigkeit (1)
- Eclipse (1)
- Epipolargeometrie (1)
- Fahrerassistenzsystem (1)
- Fehlerverhütung (1)
- Fließgewässer (1)
- Flächenmodell (1)
- Fragmentshader (1)
- Framework (1)
- Funkerkennung (1)
- GPGPU-Programmierung (1)
- GPU-Programmierung (1)
- GReQL 2 (1)
- Geländemodell (1)
- Geschäftsprozessmodellierung (1)
- Gradientenanalyse (1)
- Graphikprozessor (1)
- Grundwasserfauna (1)
- HDR-Bild (1)
- High-Traffic (1)
- Information-Retrieval (1)
- Innovation (1)
- Innovationsmanagement (1)
- Interaktives Quiz (1)
- Interior Gateway Protokoll (1)
- J2EE (1)
- J2ME (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Klimawandel (1)
- Klimaänderung (1)
- Knowledge Compilation (1)
- Korruption (1)
- Korrutionsprävention (1)
- Landschaftsebene (1)
- Landwirtschaft (1)
- Linienkorrelationen (1)
- Logistik (1)
- Lumbago (1)
- Lumbalgie (1)
- MTASC (1)
- Makroinvertebraten (1)
- Maya (1)
- Media Asset Management (1)
- Methodenvergleich (1)
- Mind Maps (1)
- Mobile Kommunikation (1)
- Mobiles Informatinssystem (1)
- Modellbasiertes Tracking (1)
- Modellierung (1)
- Modelltransformation (1)
- Moderierte Diskussionen (1)
- Modulares Softwaresystem (1)
- Multimediale Assets (1)
- Myokard (1)
- Netzwerkchip (1)
- Netzwerkmonitoring (1)
- Netzwerktechnik (1)
- Nicht-photorealistisches Rendering (1)
- Nutzungsanalyse (1)
- Oktonärbäume (1)
- Onlinesucht (1)
- PACS- Picture Archiving (1)
- PBRT (1)
- Partizipation (1)
- Pestizid (1)
- Pestizide (1)
- Pflanzenschutzmittel (1)
- Phantom Omni (1)
- Physikalische Therapie (1)
- Potenzialfeld (1)
- Prevention (1)
- Program Slicing (1)
- Propositional Logic (1)
- Prozessmanagement (1)
- Prävention (1)
- Präventivmedizin (1)
- Psychohygiene (1)
- Punktkorrelationen (1)
- RFID (1)
- Randstreifen (1)
- Ray casting (1)
- Rechtemanagement (1)
- Relationale Datenbank (1)
- Relativitätstheorie (1)
- Requirement-Engineering (1)
- Risiko-Beurteilung (1)
- Risiko-Minimierung (1)
- Roboter (1)
- Robotik (1)
- Runoff (1)
- Rückfahrkamera (1)
- SOA (1)
- Schatten (1)
- Schmerzbewältigung (1)
- Schmerztherapie (1)
- Schmerzveränderung (1)
- Selbstlokalisation (1)
- Separating-Axis-Theorem (1)
- Shader (1)
- Shaderhochsprache (1)
- Simulation (1)
- Software- Ergonomie (1)
- Stereografie (1)
- Stereoskopie (1)
- Strategie (1)
- Strategy (1)
- Supply Chain Management (1)
- Szeneneditor (1)
- TQM (1)
- Tanzspiel (1)
- Technologiemanagement (1)
- Technology Management (1)
- Tiefenbild (1)
- Tiefenkarte (1)
- Tonemapping (1)
- Tonemapping-Verfahren (1)
- Total Quality Management (1)
- Trajektorien (1)
- Triangulierungsverfahren (1)
- Uniforme Raumunterteilung (1)
- Untersuchungsmethode (1)
- Video (1)
- Volumen-Rendering (1)
- Volumenmodell (1)
- Vorbeugung (1)
- Webcam (1)
- Wertschöpfungskette (1)
- Wiki (1)
- Wissenskompilation (1)
- XML-Dokument (1)
- YAWL (1)
- Zirkumskription (1)
- agriculture (1)
- biomonitoring (1)
- buffer zones (1)
- climate change (1)
- contaminated sites (1)
- data-mining (1)
- depth map (1)
- disparity map (1)
- dynamic programming (1)
- groundwater fauna (1)
- high-traffic (1)
- image processing (1)
- land use (1)
- landscape level (1)
- low back pain (1)
- macroinvertebrates (1)
- medizinische Bilddaten (1)
- methodical comparison (1)
- modeling (1)
- modellgetriebene Softwareentwicklung (1)
- pesticides (1)
- physical therapy (1)
- prevention (1)
- relativity (1)
- risk assessment (1)
- runoff (1)
- simulation (1)
- sport therapy (1)
- stereo vision (1)
- usage-mining (1)
- visualization (1)
- Öffentliche Verwaltung (1)
Das performante Rendering großer Volumendaten stellt trotz stetig gestiegener Prozessorleistungen nach wie vor hohe Anforderungen an jedes zugrunde liegende Visualisierungssystem. Insbesondere trifft dies auf direkte Rendering-Methoden mithilfe des Raycasting-Verfahrens zu, welches zum einen eine sehr hohe Qualität und Genauigkeit der generierten Bilder bietet, zum anderen aber aufgrund der dafür nötigen hohen Abtastrate relativ langsam ist. In dieser Studienarbeit wird ein Verfahren zur Beschleunigung des Raycasting- Visualierungsansatzes vorgestellt, das auf adaptivem Sampling beruht. Dabei werden statische Volumendaten zunächst in einem Vorverarbeitungsschritt einer Gradientenanalyse unterzogen, um so ein Interessensvolumen zu erstellen, das wichtige und weniger wichtige Bereiche kennzeichnet. Dieses Volumen wird anschließend von einem Raycaster genutzt, um adaptiv für jeden Abtaststrahl die Schrittweite zu bestimmen.
Die Zeitschrift c't stellte in der Ausgabe 02/2006 einen Bausatz für einen kleinen mobilen Roboter vor, den c't-Bot, der diese Studienarbeit inspirierte. Dieser Bausatz sollte die Basis eines Roboters darstellen, der durch eine Kamera erweitert und mit Hilfe von Bildverarbeitung in der Lage sein sollte, am RoboCupSoccer-Wettbewerb teilzunehmen. Während der Planungsphase veränderten sich die Ziele: Statt einem Fußballroboter sollte nun ein Roboter für die neu geschaffene RoboCup-Rescue-League entwickelt werden. In diesem Wettbewerb sollen Roboter in einer für sie unbekannten Umgebung selbstständig Wege erkunden, bzw. Personen in dieser Umgebung finden. Durch diese neue Aufgabenstellung war sofort klar, dass der c't-Bot nicht ausreichte, und es musste ein neuer Roboter entwickelt werden, der mittels Sensoren die Umgebung wahrnehmen, durch eine Kamera Objekte erkennen und mit Hilfe eines integrierten Computers diese Bilder verarbeiten sollte. Die Entstehung dieses Roboters ist das Thema dieser Studienarbeit.
BinaryGXL
(2006)
XML ist aus der heutigen IT-Welt nicht mehr wegzudenken und wird für vielfältige Zwecke verwendet. Die Befürworter von XML führen insbesondere die Menschenlesbarkeit und leichte Editierbarkeit als Gründe für diesen Erfolg an. Allerdings hat XML gerade dadurch auch in manchen Anwendungsgebieten gravierende Nachteile: XML ist sehr verbos, und das Parsen von XML-Dateien ist relativ langsam im Vergleich zu binären Dateiformaten. Deshalb gibt es Bestrebungen ein binäres XML-Format zu schaffen und gegebenenfalls zu standardisieren. Die vorliegende Studienarbeit beschreibt einige schon existierende binäre XML-Formate und zeigt auf, wie weit der Entwurf und die Standardisierung eines allgemein akzeptierten Binary-XML-Formats fortgeschritten sind. Der praktische Teil der Studienarbeit umfasst den Entwurf und die Implementierung eines eigenen Binärformats für den XML-Dialekt GXL. Zur Bewertung der entwickelten Lösung wird diese mit den heute üblichen Kompressionstools verglichen.
In den letzten Jahren konzentrierte sich das E-Government auf die administrativen Aspekte der Verwaltungsmodernisierung. Im nächsten Schritt werden die E-Diskurse als Instrument der Bürgernähe und Mittel der E-Demokratie/E-Partizipation an Bedeutung gewinnen. Mit zunehmender Akzeptanz solcher E-Diskurse werden diese schnell eine Komplexität erreichen, die von den Teilnehmern nicht mehr zu bewältigen ist. Das Problem liegt in der eingeschränkten Möglichkeit, einen in Raum und Zeit verteilten Diskurs zu verfolgen und sich ein Bild von ihm zu machen. Viele Eindrücke, die sich aus Präsenzdiskussionen gewinnen lassen, fehlen. Deswegen hat die vorliegende Arbeit die Zielsetzung der Konzeption und der prototypischen Implementierung eines Instrumentariums (Diskursmeter), womit sich die Teilnehmer, insbesondere die Moderatoren, des E-Diskurses jederzeit einen Überblick über den E-Diskurs schaffen können und so zu ihrem Diskursverständnis (Discourse Awareness) zu gelangen. Über das aktuelle Geschehen im E-Diskurs informiert die gegenwartsorientierte und über das vergangene Geschehen die vergangenheitsorientierte Discourse Awareness, über die etwaige Trends sichtbar sind. Der Fokus der Discourse Awareness liegt in der quantitativen Betrachtung des Geschehens im E-Diskurs. Aus dem in dieser Arbeit entwickelten Modell des E-Diskurses resultieren die Fragestellungen zur Discourse Awareness, deren Konkretisierung Grundlage für die Implementierung des Diskursmeters ist. Die an das Modell des E-Diskurses angebrachten Diskurssensoren zeichnen das Geschehen im E-Diskurs auf, die zu Diskursereignissen führen, die das Diskursmeter in unterschiedlichen Visualisierungsformen präsentiert. Den Moderatoren des E-Diskurses bietet das Diskursmeter die gegenwartsorientierte Discourse Awareness als Monitoring und die vergangenheitsorientierte Discourse Awareness als Abfrage (quantitative Analyse) an.
Schatten erhöhen sichtbar den Realitätsgrad von gerenderten Bildern. Außerdem unterstützen sie den Benutzer in der Augmented Reality beim Greifen und Manipulieren von virtuellen Objekten, da sie das Einschätzen von Position und Größe dieser Objekte leichter machen. 1978 veröffentlichte Lance Williams den Shadow Mapping-Algorithmus, der einen Schatten in virtuellen Umgebungen erstellt. Diese Diplomarbeit stellt einen Modifikation des Standard Shadow Mapping-Algorithmus vor, der zusätzlich in Augmented/Mixed Reality-Umgebungen genutzt werden kann. Der Ansatz erweitert den Standard Algorithmus zunächst um einem PCF-Filter. Dieser Filter behandelt das Aliasing-Problem und erstellt außerdem weiche Schattenkanten. Damit der Schattenalgorithmus aber einen Schatten in einer Mixed Reality-Umgebung erstellen kann, werden Phantomobjekte benötigt. Diese liefern dem Algorithmus die Position und die Geometrie der realen Objekte. Zur Erstellung der Schatten geht der Ansatz folgendermaßen vor: Zuerst zeichnet der Algorithmus das Kamerabild. Danach wird eine Shadow Map mit allen virtuellen Objekten erstellt. Beim Rendern der virtuellen Objekte wird mit dem Shadow Mapping ein Schatten von allen virtuellen Objekten auf sich selbst und auf allen anderen virtuellen Objekten erzeugt. Danach werden alle Phantomobjekte gerendert. Der Fragmentshader führt wieder den Tiefentest durch. Liegt ein Fragment im Schatten, so bekommt es die Farbe des Schattens, ansonsten wird die Transparenz auf eins gesetzt. Damit werden alle Schatten von den virtuellen auf den realen Objekten erzeugt. Die Ergebnisse des Ansatzes zeigen, dass dieser in Echtzeit in Mixed Reality-Umgebungen genutzt werden kann. Außerdem zeigt ein Vergleich mit einem modifizierten Shadow Volume-Algorithmus, der ebenfalls für Mixed Reality-Umgebungen genutzt werden kann, dass der eigene Ansatz einen realistischer wirkenden Schatten in kürzerer Zeit erzeugt. Somit erhöht der Ansatz den Realitätsgrad in Augmented Reality-Anwendungen und hilft dem Benutzer bei der besseren Einschätzung von Distanzen und Größen der virtuellen Objekte.
Die Arbeit stellt die Frage nach den Effekten einer tertiären Präventionsmaßnahme in Bezug auf Schmerzbewältigung und Schmerzveränderung bei chronischen Lumbalgiepatienten. Im Rahmen der Überprüfung werden ausdifferenzierte psychophysische Interventionsmaßnahmen aus den Bereichen der Physiotherapie/Krankengymnastik und Psychologie eingesetzt. Die Gruppenunterteilung erfolgt in eine behandelte Versuchsgruppe und eine unbehandelte Warte-Kontrollgruppe mit jeweils 100 Probanden (N=200). Die Ergebnisse der tertiären Präventionsmaßnahme zeigen statistisch und klinisch relevante sowie positive Veränderungen in den Bereichen der Schmerzbewältigung und Schmerzveränderung.
Ein Interpreter für GReQL 2
(2006)
Im Rahmen dieser Diplomarbeit wird die Auswertungskomponente fuer die Graphanfragesprache GREQL 2, welche von Katrin Marchewka beschrieben wurde, entworfen, welche Anfragen diese Sprache interpretiert. Die Auswertungskomponente besteht aus den Bausteinen Auswerter, Parser, Optimierer, Funktionsbibliothek und dem Containerframework JValue. Der Parser wurde bereits von Katrin Marchewka implementiert, der Optimierer bleibt einer Anschlußarbeit vorbehalten. Innerhalb dieser Arbeit werden die Bausteine Auswerter, Funktionsbibliothek und JValue als Prototypen implementiert. Aufgrund der Erfahrungen mit der Auswertungskomponente fuer den GREQL 2-Vorgaenger GREQL 1 ist das Primaerziel dieser Arbeit der Entwurf einer sauberen, klaren, erweiterbaren und zukunftsfähigen Architektur, wobei die aktuellen Prinzipien der Softwaretechnik beüecksichtigt werden sollen.
Emotion Video
(2006)
Gefühle durch ein Medium übertragen, das klingt unglaublich und doch hat es einen grossen Reiz. Was könnten wir alles machen? Wir könnten dabei sein, wenn ein Astronaut in den Weltraum fliegt oder einen Sonnenaufgang in der Südsee erleben ohne dort zu sein. Man könnte die Gefühle eines Gewinners ebenso weitergeben, wie die einer Person, die Angst hat. Aber auch andere Aspekte, wie die Arbeit aus Sicht eines Profis zu betrachten oder etwas Neues kennenzulernen wäre möglich. Den eigenen Tag, die letzte Woche oder sogar weit zurückliegende Ereignisse aus dem eigenen Leben noch einmal erleben, das alles macht den Anreiz an diesem Thema aus. Der Aufbau dieser Arbeit soll die Entwicklung von der Entstehung von Emotionen beim Menschen über die technischen Möglichkeiten zur Aufzeichnung von Sinneswahrnehmungen bis zum Gesamtkonzept mit prototypischer Umsetzung zeigen. Zunächst soll geklärt werden, was nötig ist um Emotionen "einzufangen" und zu konservieren und welche Möglichkeiten sich für die Wiedergabe dieser anbieten. Zentral soll ein Konzept sein, welches die momentanen technischen Möglichkeiten berücksichtigt, aber auch darüber hinaus aufzeigt, was wichtig und nötig wäre um dem Ziel möglichst nahe zu kommen, Emotionen zu übertragen. Dieses Konzept soll im Anschluss prototypisch umgesetzt werden um es so zu evaluieren. Dabei soll eine erweiterbare Plattform zunächst zur Aufzeichnung visueller und auditiver Reize entwickelt werden.
Fristete der Computer vor wenigen Jahrzehnten sein Dasein noch in Rechenzentren weniger, großer Universitäten und Firmen, so sind Computer und deren Rechenleistung heute allgemein verbreitet. Gerade in den letzten Jahren hat dabei auch die computergenerierte Bilderzeugung große Fortschritte gemacht, und die Entwicklung hält rasant an. Auf diese Weise erzeugte Bilder und Bildsequenzen sind aus den visuellen Medien nicht mehr wegzudenken, sie werden in denmeisten Film- oder Fernsehproduktionen eingesetzt. Dokumentationen, Wissenssendungen und Nachrichtenformate setzen solche Bilder zur Vermittlung von Inhalten ein. Spezialeffekte werden Filmen mit dem Computer hinzugefügt. Ausschließlich mit dem Rechner erstellte Filme, deren Entwicklung vor ungefähr dreißig Jahren mit einfachen und kurzen Sequenzen begann, stehen heute realen Filmen in Länge, visueller und erzählerischer Qualität kaum noch nach. Doch nicht nur bei der Erstellung von Filmen ist der Computer nicht mehr wegzudenken. Computerspiele stellen in vielen Bereichen die treibende Kraft hinter der Computerentwicklung dar. Sie sind die "Killerapplikation", denn es sind vor allem Spiele, die zur Zeit nach leistungsfähigeren Computerkomponenten für Heimcomputer,wie Prozessoren und Graphikkarten, verlangen. Auch die visuelle Qualität von Computerspielen nimmt stetig zu, und hat ein sehr realitätsnahes Niveau erreicht. Ob Dokumentation, Film oder Spiel, die Erzeugung computergenerierten Inhalts besteht aus vielen Teilen. Die Erzeugung der Bilder ist nur ein kleiner Teil davon. Der Begriff Computeranimationwird oft für den gesamten Prozess der Erstellung eines Films im Computer verwendet. Im Speziellen beschäftigt sich die Animation mit der Bewegung. Die Erstellung von Bewegungsabläufen wird für Animationsfilme, Computerspiele und auch für Spezialeffekte in realen Filmen benötigt. Heute existiert eine Vielzahl von Programmen und Werkzeugen, welche die Erstellung von Animationen im Computer ermöglichen. Verbreitete Applikationen wie MAYA1, LIGHTWAVE2 oder BLENDER3 stützen sich dabei auf grundlegende Konzepte, die hinter der Erstellung von Animationssequenzen im Computer stehen. Die Arbeit setzt sich mit diesen Grundlagen auseinander und entwickelt darauf aufbauend einen Animationseditor, der die notwendige Funktionalität für die Erstellung von Animationssequenzen bereitstellt.
Program slicing is a technique for extracting that parts of a program which influence a previously defined, so-called slicing criterion. The latter mostly takes the form of a source code statement and a set of variables. Over the years an abundance of variants and enhancements has evolved from the original notion of a program slice. One of these developments is called chopping. A chop only contains those statements which are necessary to sustain the effects of a certain statement on another statement. Corresponding to the slicing criterion, the two statements have to be available in advance. This diploma thesis deals with the development of a service model in order to support the computation of a slice or a chop, given an original program and a slicing or chopping criterion respectively. A service model is a framework of communicating services so that each service performs a specific task within the concept of program slicing. The three main tasks, without considering further decomposition, are the mapping of program code into a representation suitable for slicing, the slicing itself and the display of the slice as code. The key benefit of service-orientation is that a service encapsulates the underlying algorithms. Hence the possibility of improving or substituting them without changing the interfaces of the related service relieves the developer of the need of adapting adjoining services. Thus, service-orientation fosters maintainability and improvability. Besides the definition of the services, this thesis also partially formally defines the data flow between them, i.e. their interfaces. It also features graph class definitions for most data structures. An accurate description of the interfaces encourages reuse, provided the services are of adequate granularity.
Fehler in der Anforderungsanalyse führen häufig zu Misserfolgen in der Entwicklung von Softwaresystemen. Seit einiger Zeit wird versucht, diesem Problem durch Requirements- Engineering zu begegnen. Durch die frühe Beteiligung aller Stakeholder an der Entwicklung eines Systems sowie eine strukturierte Vorgehensweise zur Ermittlung und Analyse von Anforderungen an ein zu erstellendes System hat es als erster Schritt in der Entwicklung von Softwaresystemen zunehmend an Bedeutung gewonnen. Die steigende Komplexität moderner Softwaresysteme bringt jedoch eine gewaltige Menge an Informationen mit sich, die während der Analyse erfasst und verwaltet werden müssen. Dieser Informationsflut ist ohne Unterstützung durch entsprechende Software kaum beizukommen. Vor allem in größeren, räumlich verteilten Projekten wäre ein effektives Requirements-Engineering sonst kaum möglich. Es gibt inzwischen eine Vielzahl von Tools, die das Requirements-Engineering unterstützen. Diese Tools sind bereits seit geraumer Zeit im Einsatz und setzen in ihren aktuellsten Versionen die wichtigsten Konzepte des Requirements-Engineering um. Im Rahmen dieser Arbeit werden einige dieser Tools im Hinblick auf Funktionsumfang und Verzeichnisstruktur untersucht. Besonderes Interesse galt der Verwaltung von Anforderungen und deren Abhängigkeiten untereinander. Die gewonnenen Erkenntnisse werden anschließend in ein Referenzmodell integriert.
Zielsetzung: Für die Feuerwehr- und Katastrophenschutzschule Rheinland - Pfalz (LFKS) sollen auf der Basis von Flash und XML interaktive Quizzes realisiert werden, die im Rahmen des Gruppenführerlehrgangs als Lernerfolgskontrolle dienen sollen. Als Grundlage wird ein selbstentwickeltes MVC Framework und Adobe (ehemals Macromedia) Flash herangezogen.
Entwicklung: Bei der Entwicklung der Quizzes wurde sehr viel Wert auf eine systemunabhängige, bestmöglich standardisierte Datenhaltung gelegt. Hier war die Verbindung von Flash und XML eine optimale Lösung.
Technik: Mit der Kombination aus ActionScript2, XML und Flash ist es möglich, innerhalb kürzester Zeit unterschiedliche Quizzes zu erstellen. Der Grundgedanke bei dieser Technik ist es, Daten und ihre Repräsentation zu trennen. Die Flash Entwicklungsumgebung wird für die Erstellung der Views (Darstellungselemente) verwendet. Die Views werden anhand von dynamischen Textfeldern, interaktiven Animationen und weiteren Darstellungselementen definiert. Diese Views werden über das MVC-Framework mit Actionscript2 angesprochen und mit Inhalten aus einer externen XML Datei gefüllt. Der Vorteil dabei ist, dass die Inhalte und zum Teil auch das Design recht schnell ausgewechselt werden können, ohne an der Applikation Änderungen vornehmen zu müssen. Die XML Dateien werden mit Hilfe der Software Infopath der Firma Microsoft erstellt. Eine weitere Möglichkeit die Daten zu standardisieren ist das IMS Question and Test Interoperability (IMS QTI) Datenformat, welches explizit für solche Anwendungen entwickelt wurde. Dieses Format wird jedoch nur am Rande behandelt. Diese Flashapplikationen können sowohl als eigenständige Programme betrachtet oder als Elemente einer HTML Datei in einem Browser dargestellt werden. Aus diesem Grund ist es möglich, auf fast jedem Gerät (PC, Notebook, Handheld und Mobiltelefon) und auf jedem Betriebssystem (Windows, Mac OS, Linux, etc.) eine Flashapplikation zum Laufen zu bringen.
Ausblick: Durch das selbstentwickelte MVC-Framework kann die Applikation schnell und einfach erweitert werden. Es wurde jedoch drauf geachtet, dass die Applikation auch ohne den Quellcode neu zu kompilieren vom Aussehen verändert werden kann.
Die Planung in Form eines visuellen Entwurfs ist schon seit jeher Bestandteil des Prozesses der Entwicklung von Artefakten aller Art. Heutzutage wird der visuelle Entwurf zukuenftiger Produkte mithilfe von CAD-Systemen umgesetzt. Im ersten Teil der Arbeit wird daher ein einfaches System implementiert und erlaeutert, das die grundlegenden Funktionen umsetzt, die auch in professionellen CAD-Systemen unerlaesslich sind. Im zweiten Teil werden ueber die Grundfunktionen hinaus ausgewaehlte Algorithmen der parametrischen Modellierung vorgestellt, die die Grundlage fuer die leistungsfaehigen, flexiblen und produktiven Systeme im modernen computer-unterstuetzten Entwurf bilden.