Wissenschaft

#„Robo-Hund“ wandert souverän zum Gipfel

„Robo-Hund“ wandert souverän zum Gipfel

Geschickt tänzelt er über Stock und Stein: Forscher haben einem vierbeinigen Roboter durch maschinelles Lernens beigebracht, klug und flott durch unbekanntes Gelände zu laufen. Dies hat „ANYmal“ bei einer anspruchsvollen Wandertour durch die Alpen unter Beweis gestellt. Zuvor hat der Roboter in einer virtuellen Welt gelernt, seine visuelle Umweltwahrnehmung mit dem Tastsinn in seinen Beinen zu kombinieren. Derart trittsichere Techno-Vierbeiner könnten zukünftig der Erkundung von gefährlichen und komplexen Umgebungen dienen, wo herkömmliche Roboter scheitern, sagen die Entwickler.

Steine, Wurzeln, steile Passagen auf rutschigem Untergrund und viele weitere Herausforderungen müssen gemeistert werden: Bei einer anspruchsvollen Wandertour sollte man sich einmal bewusst machen, was unser Wahrnehmungssystem leistet, damit wir nicht straucheln. Die Entscheidung, wohin wir den Fuß setzen und wie, beruht dabei auf einer komplexen Auswertung verschiedener Sinneseindrücke und Erfahrungen. Mensch und Tier kombinieren dabei automatisch visuelle Eindrücke aus der Umwelt mit Wahrnehmungen der Untergrundbeschaffenheit durch die Sensibilität in den Gliedmaßen. So können wir etwa rutschigen oder nachgiebigen Boden erkennen und aufgrund unserer im Lauf des Lebens erworbenen Bewegungserfahrungen das Tritt-Verhalten entsprechend anpassen.

Herausforderung für die Robotik

Diese komplexen Leistungsfähigkeiten auf autonome Robotik-Systeme zu übertragen, stellt eine große Herausforderung für Techniker dar – und die bisherigen Lösungsansätze ließen deshalb auch deutlich zu wünschen übrig. „Der Grund dafür ist, dass die von Laser-Sensoren und Kameras aufgezeichneten Informationen zur unmittelbaren Umgebung oft unvollständig und mehrdeutig sind“, erklärt Takahiro Miki, von der Eidgenössischen Technischen Hochschule Zürich (ETH). Der Blick des Roboters kann etwa durch schwierige Lichtverhältnisse, Staub oder Nebel gestört werden oder bestimmte Aspekte der Umgebung können leicht zu Fehlinterpretationen führen.

So können etwa hohes Gras, seichte Pfützen oder lockerer Schnee wie unüberwindliche Hindernisse wirken, obwohl sie der Roboter leicht überqueren könnte. Das Gegenteil ist natürlich ebenfalls möglich und so kann das Techno-Wesen schließlich hilflos auf dem Rücken liegen oder abstürzen. „Roboter müssen daher selbstständig entscheiden können, wann sie Bildern ihrer Umwelt vertrauen und zügig voranschreiten und wann sie sich besser vorsichtig und mit kleinen Schritten vorantasten“, so Miki. „Darin liegt die große Herausforderung.“

Wie Miki und seine Kollegen berichten, ist es ihnen nun gelungen, ihrem vierbeinigen Roboter ANYmal die Fähigkeit zu geben, visuelle Umweltwahrnehmung mit dem Tastsinn zu kombinieren. Zudem besitzt er die Fähigkeit zu lernen, um auf bestimmte Herausforderungen spontan sinnvoll zu reagieren. Möglich ist dies durch ein neues Steuerungssystem, das auf einem neuronalen Netzwerk basiert. Es kombiniert die Informationen des Kamerasystems von ANYmal mit denjenigen der Sensoren in seinen Beinen. Um die Eindrücke sinnvoll zu interpretieren, muss der Robo-Vierbeiner allerdings erst ausgebildet werden.

Training in einer virtuellen Welt

Dies geschieht durch maschinelles Lernen und zwar in einer Computer-Welt, in der die physikalischen Merkmale und Reaktionen der Realität genau nachgebildet werden. In dem virtuellen Trainingslager wird der Roboter dann mit zahlreichen Hindernissen und Fehlerquellen konfrontiert. So kann sein künstlicher Verstand lernen, wie sich die Herausforderungen optimal meistern lassen. Ein wichtiger Aspekt ist dabei, dass das System lernt, welche Daten in bestimmten Situationen wichtiger sind als andere. Dies funktioniert bei dem System selbst dann, wenn die Sensordaten der unmittelbaren Umgebung mehrdeutig oder diffus sind, sagen die Forscher. ANYmal geht dann auf Nummer sicher und verlässt sich auf seinen Tastsinn. „Durch das Training ist der Roboter am Ende in der Lage, schwierigste Gelände in der Natur zu bewältigen, ohne diese vorher gesehen zu haben“, sagt Seniorautor Marco Hutter von der ETH.

Dies konnten die Wissenschaftler bereits durch einige unterschiedliche Testläufe dokumentieren: ANYmal tapste dabei etwa souverän und flott durch schmale Tunnel- und Höhlensysteme und überwand zahlreiche Hindernisse und schwieriges Terrain. Der eindrucksvollste Testeinsatz fand allerdings in den Schweizer Alpen statt: Der Roboter zeigte sein Können auf einer Wandertour im Gipfelbereich des Bergs Etzel am südlichen Ende des Zürichsees. Der Weg zur Spitze war dabei von steilen Passagen, Stufen sowie Waldwegen mit Geröll, Wurzeln und teils rutschigem Untergrund geprägt. Ohne Sturz oder Fehler schaffte ANYmal die 120 Höhenmeter umfassende Bergtour in 31 Minuten. Er war somit vier Minuten schneller als ein durchschnittlicher Wanderer, berichten die Wissenschaftler.

Somit zeichnet sich erhebliches Einsatzpotenzial für das clevere Robotik-System ab, ist das Team überzeugt: ANYmal oder seine „Nachkommen“ könnten beispielsweise einmal Bereiche nach Erdbeben, nuklearen Katastrophen oder während eines Waldbrandes erkunden, so die Hoffnung der Entwickler.

Eidgenössischen Technischen Hochschule Zürich, Fachartikel: Science Robotics, doi: 10.1126/scirobotics.abk2822


(Credit: Nicole Davidson / ETH Zürich)

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Wissenschaft kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!