Oberseminar 26.07.2011
Studentenvorträge zu Projekt- und Abschlussarbeiten
Studentenvorträge zu Projekt- und Abschlussarbeiten:
-------------------------------------------------------
Minh Bui: Entwicklung eines sensorgesteuerten, netzwerkgestützten Mediaplayers zur Manipulation und Darstellung von 3D Inhalten
Projektarbeit - betreut von Gilbert Beyer
Die Nintendo Wii und Microsoft Kinect haben bereits vorgemacht, wie eine neue Form der Interaktion innerhalb eines Videospiels aussehen kann. Die Gesten- und Bewegungssteuerung hob die Immersion eines Spiels auf ein ganz neues Niveau. Dieses Projekt soll an jenes Prinzip anknüpfen und besonders, aber nicht ausschließlich für den Bereich des Interactive Advertisement ein Programm hervorbringen, das es dem Benutzer möglich macht, ohne jegliche Eingabegeräte mit einem virtuellen Produkt zu interagieren. Dabei soll als Anwendungsbeispiel die Unterstützung einer Webcam und ein geeignetes Rendersystem zum Darstellen von 3D Szenen implementiert werden. Das Programm soll dann in der Lage sein, den Benutzer über die Webcam zu erkennen und es ihm ermöglichen durch seine Bewegungen die vom Rendersystem dargestellte Szenerie zu beeinflussen. Es sollen außerdem Schnittstellen zur Erweiterung des Programms vorhanden sein, damit auch andere Sensoren für das Programm geschrieben und eingebunden werden können, oder um das Rendersystem durch eine - dem Einsatzgebiet besser entsprechende - Alternative auszutauschen.
-------------------------------------------------------
Florian Köttner: ERSTELLUNG EINES FRAMEWORKS ZUR KINECT GESTENSTEUERUNG
Projektarbeit - betreut von Gilbert Beyer
Durch Veröffentlichung des Kinect-Devices im Jahre 2010, brachte Microsoft das Prinzip der Natural Interaction in die Wohnzimmer der Menschen. Durch peripherielose Bewegungs- und Gestensteuerung wird uns hiermit eine neue Art der Immersion beigebracht und eine Vielzahl an Möglichkeiten eröffnet, diese sowohl im Alltag, als auch im Job einzusetzen. Diese Arbeit beschäftigt sich mich der Erstellung eines Frameworks in der .NET-Sprache C Sharp, welches Gesten- und Bewegungssteuerung auf Basis des Kinect-Devices ermöglicht und zeigt an einfachen Beispielen, wie einer dreidimensionalen Applikation, Möglichkeiten der Interaktion mit dieser Technologie. Das Framework deckt dabei grundlegende, modulare Trackingarten, wie Einhanderkennung, oder Ganzkörpererkennung auch auf Muli-User Ebene ab. Dabei soll eine Schnittstelle mit verständlichen Datenstrukturen jederzeit die Integration in bestehende Softwareprojekte ermöglichen und in den Beispielapplikationen genutzt werden.