Automat mit Feingefühl

Forscher bei Intel arbeiten an Sensoren, mit denen ein Roboter Objekte mit Hilfe eines elektrischen Feldes genau erfassen kann, bevor er zugreift.

In Intels Forschungslabor in Seattle bewegt sich ein Roboterarm auf drei Plastikflaschen zu. Zwei davon sind mit Wasser gefüllt, eine ist leer. Ohne sie zu berühren, scannen die Sensoren am Ende des Arms die Flaschen ab und sammeln Informationen über ihre Leitfähigkeit. Nachdem alle drei Behältnisse erfasst wurden, fährt der Arm zur leeren Flasche und stößt sie vom Tisch – schließlich wurde ihm das zuvor einprogrammiert.

Die Vorführung ist eine Demonstration der so genannten "Pre-Touch"-Technologie die sich bei dem Hightech-Konzern derzeit in Entwicklung befindet. Nicht nur im Arm sitzen Sensoren, sondern auch in der an ihm angebrachten Roboterhand. Die mechanischen Fingern können sich dadurch Größe und Form des betreffenden Objektes anpassen (Video). Das Ziel, erläutert Josh Smith, leitender Wissenschaftler bei Intel Research, sei es, die Fähigkeit von Robotern zu verbessern, Objekte in einer unstrukturierten (=von Menschen bewohnten) Umgebung zu erfassen.

Roboterarme und Roboterhände greifen sich heute standardmäßig passende Bauteile in Fabriken, doch dort steht alles nahezu immer am gewohnten Platz. Mit Pre-Touch kann der Roboter nun Form und Größe unbekannter Objekte aus der Nähe erkennen und passend darauf reagieren. Smith hofft, dass diese verbesserte Nahbereichsinteraktion zu Robotern führt, die sich im Haushalt vernünftig einsetzen lassen. Ein entsprechender Automat könnte dann Senioren ein Glas Wasser bringen oder den Boden aufräumen, bevor ein Roomba-Staubsaugerroboter seine Runde dreht.

Die Funktionsweise der Pre-Touch-Sensoren ist eher unkompliziert: Jeder einzelne besteht aus einfachen Elektroden aus Kupfer- und Aluminium-Folie – im Fall der Roboterhand sitzen sie an der Spitze des Daumens und jedes einzelnen Fingers. Wenn nun eine oszillierende Spannung etwa im Daumen angelegt wird, ergibt das ein elektrisches Feld, das Strom wiederum an die Elektroden der Finger induziert. Kommt nun ein leitfähiger Gegenstand (ob es ein Metall ist oder ein Objekt, in dem sich Anteile von Wasser befinden, ist egal) in die Nähe des Sensors, wird der induzierte Strom in den Fingerelektroden reduziert. Diese Feldveränderung wird somit sofort erfasst. Spezielle Algorithmen verarbeiten sie dann und instruieren die Roboterfinger, sich um das Objekt herum zu bewegen.

Sensoren wie die in Intels Automatenhand nennt man auch Annäherungssensoren auf Basis elektrischer Felder, der Fachbegriff lautet "EF-Sensing". Als Smith noch Student am MIT war, entwickelte er ähnliche Sensoren die erkennen sollten, wo eine Person in einem Auto sitzt. Diese Information ist von kritischer Bedeutung, damit Airbags beim Auslösen keinen Schaden anrichten können. Inzwischen sitzt diese Technik in allen Fahrzeugen mit Seitenairbags, die vom japanischen Konzern Honda produziert wurden.

Ein großer Teil von Smiths Forschung beschäftigt sich inzwischen mit der Entwicklung von Algorithmen, die die so gewonnenen Daten analysieren. Diese sind besonders dann komplex, wenn sich ein Objekt oder der Roboter selbst in Bewegung befinden. Einzelne Messwerte stationärer Sensoren und Objekte sind zwar einfach zu interpretieren, aber Signale sich bewegender Sensoren oder Objekte seien es keineswegs, erklärt Smith.

Ein Teil des Dekodierungsprozesses besteht darin, dass der Roboter mit dem Sensor über ein Objekt hinweg fährt und dann EF-Informationen sammelt. Der Algorithmus vergleicht dann diese Daten nahezu in Echtzeit mit einer Reihe vorher abgespeicherter Signale, die verschiedene Formen, Größen und Ausrichtungen eines Objektes beschreiben. Sobald der Algorithmus einen möglichst genauen Treffer gefunden hat, passen sich die Roboterfinger an, um das Objekt zu umfassen.

EF-Sensing ist bei weitem nicht die einzige Form von Sensoren, die in Robotern stecken. Oft werden Videokameras verwendet, um Objekte aus größerer Entfernung zu erkennen. Roboterautos, wie sie für den Wettbewerbe "Urban Challenge" gebaut werden, nutzen außerdem Lasermessgeräte, die einen Infrarotstrahl auf Objekte schießen und das reflektierte Licht dann nutzen, um eine Karte ihrer Umgebung zu erstellen. Beide Optionen sind allerdings recht teuer – und Video wird insbesondere dann zum Problem, wenn es in den Nahbereich geht, in dem die Roboterhand ein Objekt verdeckt.

"Eines der Hauptprobleme in der Robotik ist noch immer die Fähigkeit, mit Objekten zu interagieren, sie zu berühren, zu erfühlen und zu manipulieren", erläutert Oussama Khatib, Professor für Informatik an der Stanford University. Er sieht in Intels Forschung einen interessanten Ansatz für Sensorsysteme im Nahbereich. Die Technik müsse allerdings noch stärker in bestehende Robotersysteme integriert werden – und ihre Robustheit in einer menschlichen Umgebung tatsächlich beweisen. Spätere Robotersysteme könnten dann eine ganze Anzahl an Sensoren besitzen, die die verschiedenen Aspekte ihrer Umwelt messen. Algorithmen müssten dies alles dann integrieren.

Smith glaubt ebenfalls, das letztlich noch weitere Sensoren hinzukommen werden. EF-Sensing habe nämlich seine Einschränkungen: Isolierendes Material wie dünnes Plastik, dünne Holzflächen und Papier werden nicht wahrgenommen, erst mit größerer Dicke funktioniert die Feldveränderung. Smith und sein Team arbeiten deshalb an weiteren Sensoren, die unter anderem die Lichtreflexion messen. In vielen Fällen hätte die EF-Sensing-Technik aber Vorteile gegenüber optischen Sensoren: Unterschiedliche Texturen machen ihr nichts aus und auch die gemessenen Daten enthalten normalerweise weniger Fluktuationen und weniger Rauschen.

 
 

EURE FAVORITEN