Image Image Image Image Image Image Image Image Image Image

Hellsehende, halluzinierende PR2-Roboter an der Cornell-Uni

Hellsehende, halluzinierende PR2-Roboter an der Cornell-Uni

Ein Roboter, der Eure Handlungen vorhersehen kann, dürfte sich als wahrer Butler herausstellen. Denn was nützt die beste Androiden-Firmware, wenn der Idiot mit dem Biereinschenken weiter macht, obwohl das Weizenglas längst wieder weggezogen wurde? Richtig, herzlich wenig.

Damit unsere künftigen Herrscher Diener unsere Handlungen vernünftig interpretieren und passend vorausschauend handeln, wird es erforderlich dass sie hellsehen können, zumindest im übertragenen Sinne (“Human Activity Anticilation”). Unsere Bewegungen offenbaren, das kennt man beispielsweise aus dem Boxen oder dem Fechtsport, was unsere nächsten Handlungen sein könnten. Microsoft Kinect in der Version 2 hat bereits eine ordentliche Auflösung, die eine Erfassung von kleinsten Bewegungen und Rotationen unserer Biomechanik möglich macht. Was also wenn die Roboter-Dienstmagd oder der Roboter-Butler dasselbe tun könnten und sogar akkurat interpretieren können, was dieser unberechenbare Mensch namens Besitzer nun vor hat?

robot-traeumtOffenbar lassen sich mit “Halluzinationen” der Roboter, in denen sie virtuelle Menschenmodelle im Raum platzieren, bereits interessante Effekte erzielen. Durch die künstliche Vorstellungskraft entsteht der menschliche Kontext, der die Platzierung von Objekten wie Tastatur und Maus in einem Zimmer sinnvoll enden lässt. Ein aufräumender Roboter könnte beispielsweise besagte Hardware auf einem Tisch platzieren, aber in einer unlogischen und schlecht erreichbaren Orientierung. Mit der “Halluzination” (die wohl zutreffendste Metapher) von typischen Menschenposen wird eine simple Alltagssituation simuliert, um ein besseres Gesamtergebnis zu erzielen.

Wer Donny Darko gesehen hat, kennt die Darstellung der sogenannten Vektoren der Personen in diesem Stück Fiktion. Wer den Streifen noch nicht gesehen hat, sei hiermit simpel aufgeklärt: Der Zukunfts-Vektor ist sozusagen eine Linie im dreidimensionalen Raum, die künftige Aktionen bereits vor der Ausführung ankündigt, oder zumindest ihren Standort.

Im Beispiel des Personal Robotics Lab der Cornell Universität wurde etwas sehr ähnliches erreicht: Die Roboter können die Handlungen ihrer Menschen sozusagen “hellsehen” und zwischen den unterschiedlichen Wahrscheinlichkeiten einer Handlung abwägen, um mit ziemlich hoher Wahrscheinlichkeit (aktuell liegt die Quote bei 82% wenn eine Sekunde in die Zukunft geschaut wird, 71% für drei Sekunden und 57% für zehn Sekunden) die tatsächlichen Absichten interpretieren zu können.

Der Cornell Roboter hat Zugriff auf ein Microsoft Kinect (der ersten Generation) und eine Datenbank aus 3D-Videos. Der PR2-Prototyp von Willow Garage hat übrigens zwei Quad-Core i7 Prozessoren und 24 GB RAM. Der Roboter “sieht” eine Aktivität, identifiziert mögliche Nutzungs-Szenarien mit vorhandenen Gegenständen und entscheidet sich für die Wahrscheinlichste Anwendung auf Basis seiner Schätzungen.  Darunter fallen Aktivitäten wie Essen, Trinken, Putzen, Wegstellen, Nehmen – typische menschliche Handlungen eben, die der Roboter zuverlässig interpretieren muss, damit es nicht zu Zusammenstößen oder Missverständnissen kommt. Der Nutzer muss dabei keine Kommandos ausführen, sondern sollte sich auf die Deutlichkeit seiner Körpersprache verlassen können.

Um die Forschung erfolgreich abzuschließen müssen Ashutosh Saxena und seine Kollegen eine Art Destillat aus den üblichen menschlichen Verhaltungs- und Bewegungsmustern erzeugen, das wie eine Allgemeinsprache in den meisten Situationen greift. Der Roboter bildet in diesem Vorgang eine Art Vokabular, das irgendwann die gängigsten Szenarien möglichst kompakt aber zugleich vollständig einfangen soll. Die Wahrscheinlichkeit der verschiedenen Alternativen wird in einer sogenannten Heatmap eingefangen, die eine Analyse in verständliches Format bringen und die logischsten Pfade z.B. als glühendes Rot darstellen – wobei die Farbdarstellung eher der menschenlesbare Part ist.

Aktuelle Stadien beschränken sich fast ausschließlich auf das “Hardcoding”, also recht genaue Handlungsanweisungen auf Basis der Datenbestände. Idealerweise sollte der PR2 irgendwann auch eigene Lerntechniken für neue Bewegungsmuster erwerben, um sich völlig eigenständig zu verbessern.

Die Forschung wird vom US Army Research Office, der Alfred E. Sloan Foundation und Microsoft unterstützt. Wer vom 24. bis 28. Juni in Berlin unterwegs und an Robotik interessiert ist, wird den Assistenzprofessor und seinen Studenten in Berlin auf der Robotics: Science and Systems Konferenz vorfinden.

Probleme? Wir liefern Unterstützung bei Fragen zu iOS 8, Jailbreaking und mehr! Trete unserer Community bei Facebook bei und verpasse keine Neuigkeiten mehr:

Kategorien
All NewsTechnologie