Published using Google Docs
KINECT
Updated automatically every 5 minutes

1.    Kinect

Natural User Interfaces ermöglichen dem Nutzer eine direkte Interaktion mit der Bedienoberfläche durch Wischen, Tippen oder Berühren. Natürliche Benutzungsoberflächen wie Touchscreens sind berührempfindlich und reagieren auf Finger- und Handbewegungen. Man spricht in diesem Zusammenhang auch von gestenbasierter Bedienung. (Wikipedia)

Die ersten Schritte

„Eine Maschine rein mit Gesten und Bewegungen zu steuern läßt einen unvermutet in die Zukunft blicken. Diese Technologie ist ohne Frage der nächste evolutionäre Schritt in der Computertechnologie“ (www, 11.2010)

Als wir Anfang letzten Jahres das erste mal im UIC über Microsofts Project NATAL redeten, war irgendwie klar – da müssen wir dabei sein. Eine Anwendung nur mit Gesten zu steuern (und nicht wie bei Wii oder Playstation mit einem Controller) ist revolutionär und lässt Träume wahr werden. Die Chance, bei so einer technischen Revolution von Anfang an dabei zu sein, war einfach zu verlockend … und bietet sich einfach auch nicht alle Tage.

Welche Möglichkeiten eröffnen sich in Bezug auf neue Anwendungen? Welche neuen Produkte sind möglich? Geht das alles überhaupt im sogenannten sicherheitskritischen Bereich? Genau das alles wollen wir mit diesem Projekt ergründen.

Some Facts

Seit ungefähr 2006 arbeitet Microsoft mit einem Sensor der israelischen Firma Primesense an einer völlig neuartigern Spielkonsole auf Basis von Bewegungssteuerung. Mittels Infrarot Kamera (3) und Laser (1) werden die Bewegungen von Menschen räumlich erfasst und - nicht zuletzt - auch richtig interpretiert. Eine Software erstellt ein Skelettmodell des Körpers, dass jede Bewegung mitmacht.

Bereits rund 10 Millionen verkaufte Exemplare sind wohl auch der Grund für den relativ niedrigen Preis dieser absoluten Hochtechnologie, die – wie kann es anders sein – ursprünglich aus dem militärischen Bereich kommt. Die Algorithmen, die unterschiedliche Spieler, Größen und Bewegungsabläufe erkennen und richtig interpretieren müssen, bilden das eigentliche Herzstück dieser Entwicklung. Und somit muss man Microsoft (seit geraumer Zeit) doch wieder einmal zugestehen, hier etwas völlig Neuartiges auf den Markt gebracht zu haben.

Verkaufsstart in Österreich war Anfang November, und bereits mitte des Monats lag die verheißungsvolle Schachtel mit Xbox, Kinect Sensor und Spielen im Lab der Human Factors Truppe von Teddy Zeh. Wir hatten also sogar einen eigenen Raum. Und der war, wie sich bald heruasstellte, für das Kinect Projekt absolut maßgeblich. Mit Kinect zu spielen erfordert außerdem eine Menge Platz!

Der erste Eindruck war - nach den üblichen noch etwas holprigen Einstellungen - zumindest für mich, überwältigend. Ein Avatar in lebensgröße steht vor einem und macht jede räumliche Bewegungen in Echtzeit mit.

Microsoft liefert eine Spiele DVD mit, ein weiteres wurde auf Empfehlung von Peter Küssel angeschafft (Fitness Evolved). Alleine die Anstrengung den ganzen Körper einzusetzen, von links nach rechts, auf und ab zu springen, läßt einen eine neue Dimension von Computerspiel erleben. Man schwitzt, schnauft und ächzt. Und man ist, auch dank des Beamers, viel mehr Teil dieses ganzen Spiele Szenarios.

Die Idee des Core Teams

So verbrachten wir mal einen ersten Nachmittag damit KINECT auszuprobieren, es anderen Leuten zu zeigen und ein Gefühl für diese Technologie zu bekommen. Natürlich war klar, dass es mehr werden sollte, als nur ein paar Spiele Sessions. Und der Ansporn war von Anfang an hoch, es diesmal „richtig“ zu machen. Allein - die Frage nach dem „Wie“ musste noch beantwortet werden.

Finde Gleichgesinnte - Wo waren die Freaks, die Nerds und Geeks, die es wissen wollten? Ein Intranet Eintrag war schnell geschrieben und eine WIKI Seite aufgesetzt. Außerdem gründeten wir ein Core-Team, bestehend aus den Leuten die bei der Idee von Anfang an dabei waren. Damit war die erste Basis gelegt.

Neben Teddy Zeh, Peter Küssel, Tom Fränzl und meiner Wenigkeit, verdanken wir es einer glücklichen Fügung, mit Christoph Lupprich zum genau richtigen Zeitpunkt ein Software Entwickler ins Team zu bekommen. Denn das wichtigste – das war schnell allen klar – waren Prototypen.

Es folgten also erste Brainstormings mit Leuten, die sich auf den Intranet Artikel meldeten. Was von den daraus folgenden Ideen in Zukunft auch möglich wird umzusetzen, wollten wir zu diesem Zeitpunkt noch gar nicht abschätzen. Wichtig war von Anfang an, offen an die Sache heranzugehen und zu schauen, was möglich ist.

Die Umsetzungs-Phase

Klar wurde allerdings bald, dass wir mit einfachsten Beispielen beginnen mussten. Wer immer die Entwicklung rund um KINECT in den ersten Wochen im Web verfolgte, bekam eine eindrucksvolle Präsentation davon, was „Crowdsourcing“ bedeuten kann und vor allem welches Potential in diesem kleinem Sensor lag. Davon konnten natürlich auch wir profitieren. (siehe z.B. www.kinecthacks.com, oder www.openkinect.com)

Und so standen wir dank der Veröffentlichung der API (application programming interface, dt. Schnittstelle zur Anwendungsprogrammierung) von Primesense für KINECT auch relativ rasch vor einer Google Map, die wir rein mit unseren Händen steuern und zoomen konnten.

So schnell und einfach die ersten Schritte waren … es wurde schnell klar, wie kompliziert die Dinge bei näherer Betrachtung lagen. Abgesehen von der technischen Herausforderung gibt es bezüglich der Bedienung mit Gesten derzeit einfach noch sehr fast keine Konventionen. Anders als bei Maus-Keyboard Anwendungen, wo man über Buttons, Klicks, Auswahllisten oder Navigation nicht lange nachdenkt, stehen wir bei der Gesten-Steuerung tätsächlich wieder fast am Anfang.

„Wie klicke ich auf einen Button?“ „Wie komme ich wieder zurück?“ „Was passiert, wenn ich meine Hand bereits komplett ausgestreckt habe, aber mein Ziel noch nicht erreicht ist?“ Das spannende Element, dass man Teil von etwas völlig Neuartigem ist, ist somit sowohl gleichzeitig Vorteil als auch Nachteil.

How to…

Aus meiner bisherigen Erfahrung kann ich persönlich nur sagen, dass man Projekte, die eigentlich nur „nebenbei“ laufen am besten mit offiziellen Deadlines am Leben erhält. Damit meine ich Präsentationstermine, Messen, usw. auf denen man offiziell etwas herzeigt oder präsentiert. Man setzt sich also am besten selber einen Termin, wo man praktisch nicht mehr „aus kann“. Ansonsten ist die Gefahr einfach zu groß, dass das Projekt letztlich vom Tagesgeschäft sprichwörtlich „aufgefressen“ wird.

Wir haben derzeit 1x wöchentlich einen Nachmittag fix reserviert, in dem wir im HF Lab ständig an der Weiterentwicklung unseres Prototypen arbeiten. Worum es dabei genau geht, erfährt man am besten, wenn man dort vorbeischaut

Wir freuen uns immer über Besuch (vorzugsweise eben am Dienstag nachmittag), Feedback, Anregungen, aufmunternde Worte oder interessierte Blicke durch die Glasscheibe. Ansonsten wird es auf unserer WIKI Seite immer wieder Updates geben.

 „We had to fail quick and often“

– Dieser Satz aus dem WIRED Magazine über die KINECT-Story hat mich persönlich fast am meisten fasziniert. Der Entwickler von dem dieser Satz stammt, strebt also primär nicht das Schaffen eines Schrittes sondern das Scheitern als Mittel zum Zweck an. Das finde ich sehr spannend.

Natürlich kann es auch uns passieren, dass wir letztlich zu dem Schluss kommen, Gestures sind (zumindest derzeit) für den Bereich der sicherheitskritischen Anwendungen ungeeignet… Fakt wird aber sein, dass die Gestensteuerung über kurz oder lang Einzug in unser alltägliches Leben halten wird. Und genau für diesen Fall wollen wir dann gerüstet sein.

----------- ENDE DES ABSCHNITTS -----------