Warum Roboter in Selbsterkenntnis geschult werden

Ein Roboter „erkennt“ sich im Badezimmerspiegel. Bildnachweis: Pablo Lanillos

Roboter, die kognitive Tests bestehen, wie sich im Spiegel erkennen und mit einem menschlichen Zeitgefühl programmiert werden, zeigen, wie Maschinen zu einem größeren Teil unseres Alltags geformt werden.

Im Jahr 2016 überstieg erstmals die Zahl der Roboter in Haushalten, Militär, Geschäften und Krankenhäusern die in der Industrie. Anstatt in Fabriken konzentriert zu sein, sind Roboter zunehmend in den Häusern und im Leben der Menschen präsent – ​​ein Trend, der wahrscheinlich zunehmen wird, je ausgeklügelter und „sensibler“ sie werden.

„Wenn wir den Roboter aus einer Fabrik in ein Haus bringen, wollen wir Sicherheit“, sagt Dr. Pablo Lanillos, Assistenzprofessor an der Radboud University in den Niederlanden.

Und damit Maschinen sicher mit Menschen interagieren können, müssen sie Menschen ähnlicher sein, sagen Experten wie Dr. Lanillos.

Er hat einen Algorithmus entwickelt, der es Robotern ermöglicht, sich selbst zu erkennen, ähnlich wie Menschen.

Ein wesentlicher Unterschied zwischen Menschen und Robotern besteht darin, dass unsere Sinne fehlerhaft sind und irreführende Informationen in unser Gehirn einspeisen. “Wir haben eine wirklich ungenaue Propriozeption (Bewusstsein der Position und Bewegung unseres Körpers). Zum Beispiel haben unsere Muskeln Sensoren, die nicht genau sind, im Gegensatz zu Robotern, die sehr genaue Sensoren haben”, sagte er.

Das menschliche Gehirn verwendet diese ungenauen Informationen, um unsere Bewegungen und unser Verständnis der Welt zu steuern.

Roboter sind es nicht gewohnt, auf die gleiche Weise mit Unsicherheit umzugehen.

“In realen Situationen gibt es Fehler, Unterschiede zwischen der Welt und dem Weltmodell des Roboters”, sagte Dr. Lanillos. “Das Problem, das wir bei Robotern haben, ist, dass der Roboter anfängt zu versagen, wenn Sie eine Bedingung ändern.”

Im Alter von zwei Jahren können Menschen ihren Körper von anderen Objekten auf der Welt unterscheiden. Aber diese Berechnung, die ein zwei Jahre altes menschliches Gehirn durchführen kann, ist für eine Maschine sehr kompliziert und macht es ihnen schwer, sich in der Welt zurechtzufinden.

Erkenne

Der Algorithmus, den Dr. Lanillos und Kollegen in einem Projekt namens SELFCEPTION entwickelt haben, ermöglicht es drei verschiedenen Robotern, ihren „Körper“ von anderen Objekten zu unterscheiden.

Zu ihren Testrobotern gehörten einer, der aus mit taktiler Haut bedeckten Armen bestand, ein anderer mit bekannten sensorischen Ungenauigkeiten und ein kommerzielles Modell. Sie wollten sehen, wie die Roboter angesichts ihrer unterschiedlichen Arten, „sensorische“ Informationen zu sammeln, reagieren würden.

Ein Test, den die algorithmengestützten Roboter bestanden, war die Gummihand-Illusion, die ursprünglich beim Menschen verwendet wurde. “Wir legen eine Plastikhand vor Sie, bedecken Ihre echte Hand und fangen dann an, Ihre bedeckte Hand und die falsche Hand zu stimulieren, die Sie sehen können”, sagte Dr. Lanillos.

Innerhalb von Minuten beginnen die Leute zu denken, dass die falsche Hand ihre Hand ist.

Das Ziel war es, einen Roboter mit der gleichen Illusion zu täuschen, die Menschen verwirrt. Dies ist ein Maß dafür, wie gut mehrere Sensoren integriert sind und wie sich der Roboter an Situationen anpassen kann. Dr. Lanillos und seine Kollegen ließen einen Roboter die falsche Hand als seine Hand erleben, ähnlich wie ein menschliches Gehirn.

Der zweite Test war der Spiegeltest, der ursprünglich von Primatologen vorgeschlagen wurde. Bei dieser Übung wird einem Tier oder einer Person ein roter Punkt auf die Stirn gelegt, dann betrachten sie sich selbst im Spiegel. Menschen und einige Tierobjekte wie Affen versuchen, den roten Punkt von ihrem Gesicht zu reiben, anstatt vom Spiegel.

Der Test ist ein Weg, um festzustellen, wie selbstbewusst ein Tier oder eine Person ist. Menschliche Kinder können den Test normalerweise bis zum zweiten Geburtstag bestehen.

Das Team trainierte einen Roboter, sich selbst im Spiegel zu „erkennen“, indem er die Bewegung der Gliedmaßen in der Spiegelung mit seinen eigenen Gliedmaßen verband. Jetzt versuchen sie, einen Roboter dazu zu bringen, den roten Punkt abzureiben.

Der nächste Schritt in dieser Forschung besteht darin, mehr Sensoren in den Roboter zu integrieren und die von ihm berechneten Informationen zu erhöhen, um seine Wahrnehmung der Welt zu verbessern. Ein Mensch hat allein in seiner Netzhaut etwa 130 Millionen Rezeptoren und 3.000 Berührungsrezeptoren in jeder Fingerspitze, sagt Dr. Lanillos. Der Umgang mit großen Datenmengen ist eine der entscheidenden Herausforderungen in der Robotik. “Die Lösung, wie all diese Informationen sinnvoll kombiniert werden können, wird das Körperbewusstsein und das Weltverständnis verbessern”, sagte er.

Die Verbesserung der Zeitwahrnehmung von Robotern kann ihnen auch dabei helfen, menschlicher zu agieren und sich leichter in das Leben der Menschen zu integrieren. Dies ist besonders wichtig für Assistenzroboter, die mit Menschen interagieren und mit ihnen zusammenarbeiten müssen, um Aufgaben zu erfüllen. Dazu gehören Serviceroboter, die als Hilfsmittel bei der Altenpflege vorgeschlagen wurden.

Das ‘(Menschen’-)Verhalten, unsere Interaktion mit der Welt, hängt von unserer Wahrnehmung der Zeit ab”, sagte Anil Seth, Co-Direktor des Sackler Center for Consciousness Science an der University of Sussex, UK. “Ein gutes Zeitgefühl haben ist für jedes komplexe Verhalten wichtig.”

Zeitgefühl

Prof. Seth arbeitete an einem Projekt namens TimeStorm mit, das untersuchte, wie Menschen Zeit wahrnehmen und wie man dieses Wissen nutzen kann, um auch Maschinen ein Zeitgefühl zu geben.

Das Einsetzen einer Uhr in einen Roboter würde ihnen kein zeitliches Bewusstsein verschaffen, so Prof. Seth. „Menschen und Tiere nehmen die Zeit nicht wahr, indem sie eine Uhr im Kopf haben“, sagte er. Es gibt Vorurteile und Verzerrungen in der Art und Weise, wie Menschen Zeit wahrnehmen, sagt er.

Warrick Roseboom, ein Kognitionswissenschaftler ebenfalls an der University of Sussex, der die TimeStorm-Bemühungen der Universität anführte, erstellte eine Reihe von Experimenten, um zu quantifizieren, wie Menschen den Lauf der Zeit erlebten.

„Wir haben die Menschen gebeten, verschiedene Videos von wenigen Sekunden bis zu einer Minute anzusehen und uns zu sagen, wie lange das Video ihrer Meinung nach war“, sagte Roseboom. Die Videos waren First-Person-Perspektiven alltäglicher Aufgaben, wie zum Beispiel das Gehen auf dem Campus oder das Sitzen in einem Café. Die Probanden erlebten die Zeit anders als die tatsächliche Dauer, je nachdem, wie beschäftigt die Szene war.

Mit diesen Informationen bauten die Forscher ein auf Deep Learning basierendes System, das die Wahrnehmung der Videodauer durch den Menschen nachahmen könnte. “Es hat wirklich gut funktioniert”, sagte Prof. Seth. “Und wir konnten ziemlich genau vorhersagen, wie Menschen die Dauer in unserem System wahrnehmen würden.”

Ein Schwerpunkt des Projekts war die Untersuchung und Demonstration von Maschinen und Menschen, die mit gleichen Zeiterwartungen nebeneinander arbeiten.

Dies gelang den Forschern, indem sie Roboter demonstrierten, die bei der Essenszubereitung helfen, wie zum Beispiel das Servieren von Speisen nach den Vorlieben der Menschen, was ein Verständnis der menschlichen Zeitwahrnehmung, Planung und Erinnerung an bereits getane Arbeit erfordert.

Das Nachfolgeprojekt von TimeStorm, Entiment, hat Software entwickelt, mit der Unternehmen Roboter mit Zeitgefühl für Anwendungen wie die Zubereitung von Mahlzeiten und das Abwischen von Tischen programmieren können.

In den letzten 10 Jahren hat das Feld der Roboterwahrnehmung erhebliche Fortschritte gemacht, sagt Dr. Lanillos, und das nächste Jahrzehnt wird noch mehr Fortschritte machen, da Roboter zunehmend selbstbewusster werden.

“Ich sage nicht, dass der Roboter reflexartig so bewusst ist wie ein Mensch, aber er wird in der Lage sein, seinen Körper an die Welt anzupassen.”


Leave a Comment