Dies sind die archivierten Webseiten des Lehrstuhls für Programmierung und Softwaretechnik (PST).
Die Seiten des Software and Computational Systems Lab (SoSy) finden Sie auf https://www.sosy-lab.org/.

Oberseminar 26.07.2011

— abgelegt unter:

Studentenvorträge zu Projekt- und Abschlussarbeiten

Was
  • Oberseminar
Wann 26.07.2011
von 14:15 bis 15:45
Wo Raum 057 - 14:15
Termin übernehmen vCal
iCal

Studentenvorträge zu Projekt- und Abschlussarbeiten:

-------------------------------------------------------

Minh Bui: Entwicklung eines sensorgesteuerten, netzwerkgestützten Mediaplayers zur Manipulation und Darstellung von 3D Inhalten

Projektarbeit - betreut von Gilbert Beyer

Die Nintendo Wii und Microsoft Kinect haben bereits vorgemacht, wie eine neue Form der Interaktion innerhalb eines Videospiels aussehen kann. Die Gesten- und Bewegungssteuerung hob die Immersion eines Spiels auf ein ganz neues Niveau. Dieses Projekt soll an jenes Prinzip anknüpfen und besonders, aber nicht ausschließlich für den Bereich des Interactive Advertisement ein Programm hervorbringen, das es dem Benutzer möglich macht, ohne jegliche Eingabegeräte mit einem virtuellen Produkt zu interagieren. Dabei soll als Anwendungsbeispiel die Unterstützung einer Webcam und ein geeignetes Rendersystem zum Darstellen von 3D Szenen implementiert werden. Das Programm soll dann in der Lage sein, den Benutzer über die Webcam zu erkennen und es ihm ermöglichen durch seine Bewegungen die vom Rendersystem dargestellte Szenerie zu beeinflussen. Es sollen außerdem Schnittstellen zur Erweiterung des Programms vorhanden sein, damit auch andere Sensoren für das Programm geschrieben und eingebunden werden können, oder um das Rendersystem durch eine - dem Einsatzgebiet besser entsprechende - Alternative auszutauschen.

-------------------------------------------------------

Florian Köttner: ERSTELLUNG EINES FRAMEWORKS ZUR KINECT GESTENSTEUERUNG

Projektarbeit - betreut von Gilbert Beyer

Durch Veröff entlichung des Kinect-Devices im Jahre 2010, brachte Microsoft das Prinzip der Natural Interaction in die Wohnzimmer der Menschen. Durch peripherielose Bewegungs- und Gestensteuerung wird uns hiermit eine neue Art der Immersion beigebracht und eine Vielzahl an Möglichkeiten eröff net, diese sowohl im Alltag, als auch im Job einzusetzen. Diese Arbeit beschäftigt sich mich der Erstellung eines Frameworks in der .NET-Sprache C Sharp, welches Gesten- und Bewegungssteuerung auf Basis des Kinect-Devices ermöglicht und zeigt an einfachen Beispielen, wie einer dreidimensionalen Applikation, Möglichkeiten der Interaktion mit dieser Technologie. Das Framework deckt dabei grundlegende, modulare Trackingarten, wie Einhanderkennung, oder Ganzkörpererkennung auch auf Muli-User Ebene ab. Dabei soll eine Schnittstelle mit verständlichen Datenstrukturen jederzeit die Integration in bestehende Softwareprojekte ermöglichen und in den Beispielapplikationen genutzt werden.