Humanoide Roboter

Steuerungsarchitektur für zweibeiniges Laufen

ROBIN

CARL

 

Im Bereich der humanoiden Roboterforschung werden biologisch motivierte Steuerungsansätze für zweibeiniges Laufen untersucht sowie emotionsbasierte Interaktionsmechanismen anhand des humanoiden Roboters ROBIN getestet.

 

Zweibeinige Lokomotion

Zweibeinige Roboter sind auch nach langjähriger Entwicklung noch weit hinter ihrem biologischen Vorbild. Im Vergleich zum Menschen fehlt den zweibeinigen Robotern die  inhärente Agilität des muskuloskelettalen Systems.

Im Robotics Research Lab testen wir derzeit das neue nachgebende Bein, das die muskuläre Redundanz des menschlichen Beins zum Vorbild hat. Ausgestattet mit rückfahrbaren und nachgebenden "Serie Elastic Actuators" (RRLAB-SEA). Dieses Bein zeigt die Eigenschaften des menschlichen Beines wie nachgebende Muskeln, Endpunktkraftvergrößerung, niedriges Trägheitsprofil, Agilität und einen geringen Stromverbrauch.

Darüber hinaus ist das technische zweibeinige Gehen im Vergleich zum menschlichen Spaziergang noch deutlich eingeschränkt. Die Systeme, die meistens auf der konventionellen Steuerungstheorie basieren, sind aufgrund der mangelnden Anpassungsfähigkeit an unebenes und unstrukturiertes Gelände nicht effizient genug. Der im Robotics Research Lab verwendete Ansatz untersucht die Abbildung der Prinzipien des natürlichen Rennens auf adäquat kontrollierte Systeme. Es wurde gezeigt, dass die auf der untersten Ebene entwickelten Reflexe und Motorenprogramme für jedes Gelenk verschmolzen werden können, so dass ein zweibeiniges Laufverhalten entsteht, obwohl keine Fuß- oder Oberkörperbewegungen im Voraus festgelegt sind. Der Kontrollansatz wurde am Beispiel eines 1,80 m und 76 kg dynamisch simulierten Roboters erfolgreich getestet, der sich in verschiedenen Anwendungsszenarien bewegt. Gerade im Hinblick auf die Adaptivität an raues Gelände und möglicher Störungen übersteigt das entwickelte Steuerungssystem die aus der Literatur bekannten Ansätze deutlich. Weitere Details finden Sie hier.

 

Mensch-Roboter-Interaktion

Der zweite Forschungsbereich auf dem Gebiet der humanoiden Roboter ist die Mensch-Maschine-Interaktion. Das Hauptziel dieses Forschungsgebiets ist es, eine natürliche und effiziente Mensch-Roboter-Interaktion mit verschiedenen Modalitäten wie Hand-, Arm- oder Körpergesten und Mimik des Roboters zu realisieren. Auf der anderen Seite kann durch die Erkennung solcher Modalitäten bei der Interaktion, zwischen einer Person und einem Roboter, das menschliches Verhalten analysiert und die menschlichen Absichten vorhergesagt werden. Es wurde gezeigt, dass das System Gesten und Emotionen erkennen kann, sowie die Aktivität von Interaktionspartnern in der Umgebung des Roboters. Low-level Perzeptionseigenschaften wie Gesichtsausdrücke, Handgesten, Kopfgesten, Haltungserkennung, Gesichtserkennung, Geschlechtserkennung, Blickrichtungsverhalten und Ethnizitätserkennung mit visuellen- und Tiefeninformationen wurden bereits umgesetzt. Für komplexes menschliches Verhalten wird eine High-level-Perzeptionseinheit implementiert, die die Informationen von mehreren Low-level-Features verwendet, um das menschliche Verhalten und die menschliche Persönlichkeit zu erkennen, sowie die kontextuelle Informationsbeschaffung zu kopieren.

Für das Testen der Mensch-Roboter-Interaktion wurde ROBIN ein humanoider Roboter verwendet. Es ist mit einem hinterleuchtetem, projiziertem Gesicht, Armen, Händen und Oberkörper ausgestattet. Es kann über sein eingebautes Sprachmodul in englischer und deutscher Sprache sprechen. Das Gesicht nutzt einen Projektor, um fast jeden Gesichtsausdruck mit Hilfe von Aktionseinheiten darzustellen. Der Oberkörper hat 35 Freiheitsgrade, einschließlich der intelligenten Hände, die in der Lage sind, fast alle Gesten auszuführen. Das System wurde in verschiedenen Szenarien validiert, darunter in einem 20 Fragen Spiele-Szenario und anderen allgemeinen interaktiven Szenarien. Bei der Realisierung von menschlichen Feedback-Verhaltensweisen werden unterschiedliche Low-level-Features verwendet. Kontextbezogene Informationen werden für jeden Menschen der mit dem Roboter interagiert gespeichert, und der Roboter verwendet diese Informationen, um individuell  nach den menschlichen Interessen zu interagieren. Ein weiteres komplexes menschliches Verhalten, menschliche Persönlichkeitserkennung, wird ebenfalls berücksichtigt. Psychologische Studien haben gezeigt, dass non-verbale Signale reich an Information über die Persönlichkeit über die jeweilige Person sind. Dieser Aspekt wurde auch in diesem Forschungsgebiet ausgenutzt. Weitere Informationen zu aktuellen Forschungen und Experimenten finden Sie hier.