Kopf hoch!
Wir lassen unsere Köpfe hängen. Im Alltag richten wir stundenlang unseren Blick auf die Bildschirme unserer Smartphones und Laptops und blenden die Welt um uns herum aus. Ein neues Paradigma will das ändern.
Die heute verfügbaren Technologien und Geräte sprechen lediglich zwei von fünf Sinnesorgane an: das Sehen und einen Bruchteil unseres Tastsinns. Alle anderen Sinne liegen brach. Das bedeutet im Klartext: Der Bildschirm hat als zentrale Schnittstelle zwischen Mensch und Maschine das Rennen gemacht. Das soll sich mit «Heads-Up Computing» nun ändern. Der gängige Begriff «Heads-Up Display» wird zu diesem Zweck völlig neu interpretiert: «In unserem Streben nach Heads-Up Computing müssen wir Geräte entwickeln, die es uns ermöglichen, Informationen mit natürlicheren Bewegungen und Körperhaltungen wahrzunehmen und mit ihnen zu interagieren», sagt Shendong Zhao, Professor der National University of Singapore. Die Forscher des Department of Computer Science sind daran, eine Plattform zu bauen, die den Menschen und nicht das zu bedienende Gerät ins Zentrum stellt.
Die nächste Generation
Dabei werden in einem ersten Schritt Hardwarekomponenten realisiert, die auf die beiden wichtigsten Ein- und Ausgabehilfen des Körpers abgestimmt sind: den Kopf und die Hände. Der Bildschirm als einzige Schnittstelle wird ersetzt. Zum Einsatz kommen eine Vielzahl verschiedenster Geräte wie Drucksensoren für Arme, Beine oder sogar Zähne für die Eingabe. Für die Ausgabe werden Brillen oder virtuelle Bildschirme verwendet. Die Herangehensweise ist das Resultat einer Vielzahl von Feldversuchen. Dabei stehen Situationen im Alltag im Zentrum, die keine Ablenkung durch das Bedienen eines Geräts erlauben. Situationen wie Kochen, Putzen, Einkaufen, Baden, Essen, oder Sport treiben und Tätigkeiten im Beruf wie Fahren, Werkzeuge einsetzen oder Präsentieren. Die grundlegende Fragestellung der Forscher lautet: Welche unserer Sinne und welche Körperteile sind gerade mit einer bestimmten Aktivität beschäftigt und welche sind es nicht? Wenn wir beispielsweise eine Maschine reparieren, kochen oder ein Bild an die Wand hängen, sind unsere Hände und Augen beschäftigt, das Gehör, der Geruchsinn, die Beine und Füsse jedoch nicht. Für die Ein- und Ausgabe von Informationen stehen sie also zur Verfügung. Die Plattform erkennt diesen Kontext und passt die Interaktion entsprechend an.
Die Zukunft
Doch damit nicht genug. In Zukunft soll ein zusätzliches Körperteil in Form eines sogenannten Roboterbegleiters für die Interaktion mit Computern geschaffen werden. Wir werden dann über einen eigenen digitalen Zwilling verfügen, der an unserer Stelle mit dem Computer interagiert. Dieser Zwilling kennt uns und kann das ganze Spektrum des menschlichen Ausdrucks – unseres individuellen Ausdrucks – interpretieren. Er weiss anhand unserer Stimmlage, wie dringend etwas ist, kann an unserem Schulterzucken in bestimmten Situationen ablesen, welche Information wir jetzt brauchen, liest an unserem Gesichtsausdruck ab, wie aufmerksam wir gerade sind. Er kann all unsere verbalen und nonverbalen Signale interpretieren und dadurch unsere Interaktion mit Computern in jeder Situation optimal gestalten. So wird eine Plattform geschaffen, die Ein- und Ausgabe so aufbereiten kann, dass sie in jeden Moment unseres Alltags passt. Unabhängig davon, wo wir sind, ob wir arbeiten, einkaufen oder unterwegs sind. Damit wir wieder erhobenen Hauptes durchs Leben gehen können.