Root NationNachrichtenIT-NeuigkeitenHumanoide Roboter 1X Eve zeigten volle Autonomie bei Haushaltsaufgaben

Humanoide Roboter 1X Eve zeigten volle Autonomie bei Haushaltsaufgaben

-

„Das Video enthält keine Telemontage, – sagt Norwegischer Hersteller humanoider Roboter 1X. „Keine Computergrafik, keine Schnitte, keine Beschleunigung des Videos, keine Wiedergabe der Flugbahn gemäß Drehbuch. Alles wird durch neuronale Netze gesteuert, alles ist autonom, alles mit 1-facher Geschwindigkeit.“

Es handelt sich um einen humanoiden Hersteller, den OpenAI letztes Jahr in einer Finanzierungsrunde der Serie A in Höhe von 25 Millionen US-Dollar in Angriff genommen hat. Eine Folgeserie B in Höhe von 100 Millionen US-Dollar zeigte, wie groß die Aufmerksamkeit von OpenAI sowie der allgemeine Hype um universelle humanoide Roboter ist schien immer eine ferne Zukunft zu sein, aber in den letzten zwei Jahren hat es sich zu einer absoluten thermonuklearen Explosion entwickelt.

1X Eva

Die humanoiden Roboter von 1X wirken im Vergleich zu dem, woran beispielsweise Tesla, Figure, Sanctuary oder Agility arbeiten, seltsam unauffällig. Die humanoide Eve hat noch nicht einmal Beine oder flinke Hände. Es bewegt sich auf zwei angetriebenen Rädern und balanciert auf einem dritten kleinen Rad an der Rückseite. Seine Hände sind rudimentäre Krallen. Es sieht aus, als wäre es zum Schlittenfahren gekleidet und hat ein schwach blinkendes LED-Smiley-Gesicht.

Vom 1X gibt es eine zweibeinige Version namens Neo, die auch gut bewegliche Arme hat – aber vielleicht sind diese Details in diesen frühen Tagen der Entwicklung von Allzweckrobotern nicht allzu wichtig. Die allermeisten frühen Anwendungsfälle werden so aussehen: „Nehmen Sie dieses Ding und legen Sie es dort hin“ – dafür sind wahrscheinlich keine Finger erforderlich, die in der Lage sind, Klavier zu spielen. Sie werden vor allem in Lagerhallen mit Betonböden und Fabriken eingesetzt, wo sie wahrscheinlich keine Treppen steigen oder über irgendetwas treten müssen.

Darüber hinaus haben viele Gruppen das Problem des zweibeinigen Gehens und der schönen manuellen Ausrüstung gelöst. Aber das ist nicht das Haupthindernis. Die größte Hürde besteht darin, diese Maschinen dazu zu bringen, Aufgaben schnell zu erlernen und sie dann autonom zu erledigen, wie es Toyota mit Desktop-Robotermanipulatoren tut. Als Figur 01 „herausgefunden“ hat, wie man selbstständig mit einer Kaffeemaschine umgeht, war das ein großes Ereignis. Als Teslas Optimus im Video sein Hemd zusammenfaltete und sich herausstellte, dass er von einem menschlichen Bediener gesteuert wurde, war das weitaus weniger beeindruckend.

Die oben genannten Aufgaben sind nicht übermäßig schwierig, es geht nicht darum, Hemden zu falten oder eine Kaffeemaschine zu bedienen. Aber es gibt eine Reihe vollwertiger Roboter, die eine Reihe von Aufgaben übernehmen, nämlich Dinge heben und an ihren Platz bringen. Sie greifen sie in einer Höhe vom Knöchel bis zur Taille. Sie verteilen sie in Kisten, Behältern und Tabletts. Sie heben Spielsachen vom Boden auf und räumen sie weg.

Sie öffnen auch Türen, rennen zu Ladestationen und stecken sie ein, wobei sie scheinbar eine unnötig komplizierte Hockmanöver durchführen, um den Stecker mit ihren Knöcheln zu verbinden.

Kurz gesagt, sie tun im Großen und Ganzen das Gleiche, was sie in frühen allgemeinen humanoiden Anwendungsfällen tun müssen, und werden laut 1X „rein auf Datenbasis“ trainiert. Im Wesentlichen trainierte das Unternehmen 30 Eve-Bots, um jeweils eine Reihe individueller Aufgaben auszuführen, offenbar mithilfe von Simulationstraining per Video und Teleoperationen. Anschließend nutzten sie dieses erlernte Verhalten, um ein „Basismodell“ zu trainieren, das zu einer Vielzahl von Aktionen und Verhaltensweisen fähig ist. Dieses Grundmodell wurde dann verfeinert, um den spezifischen Fähigkeiten der Umgebung Rechnung zu tragen – Lageraufgaben, allgemeine Türmanipulation usw. – und schließlich wurden die Bots auf die spezifischen Aufgaben trainiert, die sie ausführen sollten.

Dieser letzte Schritt wird wahrscheinlich vor Ort beim Kunden erfolgen, sobald die Bots ihre täglichen Aufgaben erhalten, und 1X sagt, dass dafür „nur ein paar Minuten Datenerfassung und Training auf einer Desktop-GPU“ erforderlich sein werden. Vermutlich würde dies in einer idealen Welt bedeuten, dass jemand in einem Virtual-Reality-Helm steht und eine Aufgabe erledigt, und dass Deep-Learning-Software diese Aufgabe dann mit den Schlüsselfähigkeiten des Bots kombiniert, sie mehrere tausend Mal in einer Simulation ausführt, um verschiedene Zufallsfaktoren zu testen und Ergebnisse. Danach sind die Bots einsatzbereit.

„Im vergangenen Jahr“, schreibt Eric Jang, VP of AI bei 1X, in seinem Blog, „haben wir eine Daten-Engine entwickelt, um gängige mobile Manipulationsaufgaben vollständig durchgängig zu lösen.“ Wir haben gesehen, dass es funktioniert, deshalb stellen wir jetzt KI-Forscher in der San Francisco Bay Area ein, um es auf das Zehnfache der Anzahl an Robotern und Fernsehbetreibern zu skalieren.“

Ich frage mich, wann diese Dinge zur Hauptsendezeit fertig sein werden.

Lesen Sie auch:

Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen