Neue Geräte

Softwarebedienung durch Körperbewegungen

Bremen, Mai 2012 - Mehr und mehr hält in der Ausbildung das Lernen mithilfe von Simulationen in virtuellen Welten Einzug. Durch die zunehmende Technisierung eröffnen sich dabei Möglichkeiten, die immer näher an die Realität heranreichen. Können Sie sich vorstellen, eine Software allein durch die Bewegung Ihres Körpers zu steuern? Szenaris hat die Möglichkeiten getestet.




Mithilfe so genannter Tracking-Systeme ist es mittlerweile möglich, z.B. virtuelle 3D-Modelle in Echtzeit zu bewegen. Auch Gesten, Mimiken oder sogar ganze Bewegungsabläufe können auf diese Art in kurzer Zeit virtualisiert werden, ohne dass jede Bewegung einzeln in einem 3D-Editor erstellt werden muss.


Für künftige Anwendungen, die virtuelle Realität nutzen, stellt dies ein erhebliches Potenzial dar. Doch natürlich hat ein derartiges Tracking-System seinen Preis. Zurzeit müssen bis zu sechsstellige Beträge dafür gezahlt werden. Hinzu kommt der hohe Aufwand, das System zu verkabeln und zu kalibrieren.


Steuerung von 3D-Modellen in Echtzeit möglich



Auf der Suche nach einer preisgünstigen Alternative ist Szenaris auf die Microsoft Kinect gestoßen. Sie ist mit vier Mikrofonen, einer VGA-Kamera (Video Graphics Array) und einer Tiefensensor-Kamera bestückt. Der Vorteil des Systems: Bewegungen der agierenden Person werden von den Sensoren der Kinect erkannt und umgesetzt. Datenhandschuhe sind also nicht mehr nötig, die aufwändige Verkabelung entfällt.

szenaris hat die Kinect getestet. Das Ergebnis: Die Technik funktioniert weitgehend wunschgemäß - wenn man sich genau an die Vorgaben hält. Kinect ist jedoch relativ jung und noch nicht voll ausgereift. Es fehlen die Fingererkennung und die Möglichkeit, mehrere Kinects an einem Computer anzuschließen. Denn hiermit könnte der Fehleranfälligkeit bei der Erkennung von Bewegungen begegnet werden, wenn man Kopf und Füße nicht exakt in den Kamerabereich hält.