Das Bild zeigt einen Roboterarm in einem Labor, der von einem Menschen mit Virtual-Reality-Brille bedient wird

Heute noch im Labor, bald im Betrieb: Kollege Roboter zeigt drei Entwicklungen, die die Nutzung von Robotern in der nahen Zukunft beeinflussen werden. (Bild: anon / Adobe Stock)

1. Der Astronauten-Roboter

Das Bild zeigt einen Menschen, der über ein von ihm getragenes Exoskelett einen humanoiden Roboter im Hintergrund steuert.
RH5 Manus lässt sich mithilfe eines aktiven Exoskeletts fernsteuern.

(Bild: DFKI, Thomas Frank)

Autonome mobile Roboter, die sicher und intuitiv mit dem Menschen zusammenarbeiten, sind nicht nur ein wichtiger Baustein der Industrie 4.0. In zukünftigen Raumfahrtmissionen sollen sie den Infrastrukturaufbau auf fremden Planeten unterstützen. Im nun abgeschlossenen Projekt TransFIT entwickelten das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), die Universität Bremen und die Siemens AG die robotischen Fähigkeiten, die für eine autonome und kollaborative Ausführung komplexer Montagearbeiten notwendig sind.

Im Mittelpunkt von TransFIT stand die Umsetzung eines Kooperationsszenarios, bei dem ein Mensch und ein humanoider Roboter gemeinsam eine Montageleistung erbringen. Unterstützt werden sie von einer Person, die den Roboter aus größerer Distanz mithilfe eines Exoskeletts steuern kann. Um dabei einen fließenden Wechsel zwischen autonomer Arbeit, Kooperation und Fernsteuerung zu realisieren, entwickelten die Projektpartner eine einfach bedienbare Steuerungssoftware.

Als robotische Testplattform bauten die DFKI-Forschenden den Humanoiden RH5 Manus auf, ein für den Einsatz in einer menschlichen Umgebung entwickelter Assistenzroboter. Dank eines adaptiven Greifsystems, das über taktile Sensoren, Nahfelderkennung und einen lokalen Mikrocontroller für biologisch inspirierte Greifreflexe verfügt, ist der Roboter in der Lage, komplexe Greifbewegungen auszuführen.

Wie funktioniert das?

Auf Maschinellem Lernen basierende Verfahren wie Objekterkennung und Greifposenbestimmung ermöglichen ihm die direkte Kooperation mit der Astronautin oder dem Astronauten. Ziel der Zusammenarbeit ist aber nicht nur die Aufgabenteilung, sondern auch, dass der Roboter aus der Interaktion mit dem Menschen lernt, um immer autonomer agieren und sich an veränderte Anforderungen anpassen zu können.

Warum ist das wichtig?

Bei Raumfahrt-Missionen muss bedacht werden, dass eine defekte Komponente des Roboters unter Umständen nicht repariert werden kann.  Ist der Roboter etwa in seiner Bewegung eingeschränkt, weil eines seiner Gelenke nicht mehr richtig funktioniert, kann er dank der in TransFIT entwickelten Technologien sein Verhalten so anpassen, dass diese Einschränkung kompensiert wird.

Das Youtube-Video des DFKI zeigt, wie kollaborative Roboter beim Aufbau von Infrastruktur auf anderen Planeten helfen sollen.

Informiert bleiben zum Thema Robotik!

E-Mail News zum Thema Robotik, verschickt von mi connect

Erhalten Sie jede Woche unsere Updates rund um das Thema Robotik im Handwerk und im Mittelstand. Sichern Sie sich noch heute ihren Vorsprung in Sachen Automatisierung!

Newsletter hier kostenfrei bestellen.

2. Der Kamera-Daumen

Das Bild zeigt eine Hand mit nach oben gerecktem Daumen. Die Hand umschließt dabei einen künstlichen Daumen, der als Tastsensor für Roboter entwickelt wurde.
Ein künstlicher, daumengroßer Sensor, der Robotern einen hochsensiblen Tastsinn verleiht.

(Bild: MPI für Intelligente Systeme)

Um den Tastsinn von Robotern zu verbessern, entwickeln Forschende des Max-Planck-Instituts für Intelligente Systeme einen Sensor namens „Insight“, der einem Daumen gleicht und im Inneren mit einer Kamera ausgestattet ist. Das Team trainiert ein neuronales Netz, um aus den Kamerabildern Informationen abzuleiten, wo und wie stark der Sensor berührt wird. Aus den gefilmten Verformungen der flexiblen Außenhülle des Sensors generiert das neuronale Netz ein dreidimensionales Abbild der Kräfte, die auf den künstlichen Daumen einwirken. Die Erfindung verbessert die haptische Wahrnehmung von Roboterfingern erheblich und kommt dem Tastsinn der Haut einen wesentlichen Schritt näher.

Wie funktioniert das?

Die Hülle besteht aus einem Elastomer, das mit dunklen, aber reflektierenden Aluminiumflocken angemischt wurde. Dadurch bekommt die Hülle eine gräuliche Farbe und ist undurchsichtig, so dass kein Licht von außen eindringen kann. Im Inneren dieser fingergroßen Kapsel ist eine winzige 160-Grad-Fischaugenkamera eingebaut. Sie nimmt bunte Lichtmuster auf, die von einem Ring aus LEDs erzeugt werden.

Wenn ein oder mehrere Objekte die Sensorhülle berühren, ändert sich das Farbmuster im Inneren des Sensors. Innerhalb eines Sekundenbruchteils kann das trainierte Modell herausfinden, wo genau ein Objekt den „Finger“ berührt, wie stark die Kräfte sind und in welche Richtung sie wirken.

Warum ist das wichtig?

Die Erfindung verbessert die haptische Wahrnehmung von Roboterfingern erheblich und kommt dem Tastsinn der Haut einen wesentlichen Schritt näher. Das Hard- und Softwaredesign lässt sich laut den Forschern auf eine Vielzahl von Robotik-Anwendungsfällen mit unterschiedlichen Formen und Präzisionsanforderungen übertragen

Das Youtube-Video des Max-Planck-Instituts für Intelligente Systeme zeigt, wie der Kamera-Daumen für Roboter genau funktioniert.

Die Grundlagen zum Thema Robotik

Mit dem Thema kollaborative und Low-Cost-Robotik kommen auf Mittelstand und Handwerksbetriebe ganz neue Fragestellungen zu. Im folgenden finden Sie die wichtigsten Grundlagen verständlich erklärt:

Alle relevanten Informationen zum Thema Robotik erfahren Sie auf Kollege Roboter und in unserem Newsletter, den Sie hier abonnieren können.

3. Der Roboter mit den Heuschreckenfüßen

Das Bild zeigt einen sechsbeinigen Laufroboter, der mit Füßen nach dem Vorbild von Heuschrecken über Rohre läuft.
Mit Füßen nach dem Vorbild von Insekten könnten Roboter auch über unwegsame Untergründe wie Rohre oder Felsen laufen. (Bild: Poramate Manoonpong)

Eine ganze Generation von Greifrobotern wurde nach einem bestimmten Design-Prinzip entwickelt. Ein internationales Forschungsteam aus der Biomechanik hat es jetzt nach dem Vorbild von Insekten optimiert.

Viele Roboter können mit ihren Greifarmen andere Objekte fest umschließen ohne dabei großen Druck auszuüben. Das gelingt, weil sie sich besonders gut an die Kontur ihrer Zielobjekte anpassen. Dahinter steckt ein Design-Prinzip aus der Natur, der sogenannte Fin-Ray-Effekt. „Es ist faszinierend: Drückt man auf eine Seite eines spitzen Dreiecks, biegt es sich nicht von einem weg – was zu erwarten wäre – sondern einem entgegen“, beschreibt Zoologie-Professor Stanislav Gorb von der Christian-Albrechts-Universität zu Kiel (CAU) das Phänomen. Vor rund 25 Jahren hat es der deutsche Biologe Leif Kniese erstmals bei Fischflossen beobachtet: Dank spezieller Querverstrebungen im Inneren passen sich die Flossen optimal an verschiedene Strömungsverhältnisse an.

In den Füßen vieler Insekten finden sich ähnliche Verstrebungen. Sie sorgen dafür, dass sie sich besser an Oberflächen anpassen und dort sicher anhaften. Mit seinem Kieler Team untersuchte Gorb verschiedene Insektenfüße wie die der Heuschrecke Tettigonia viridissima (Grünes Heupferd). Sie stellten fest: Während die Querverstrebungen in „Fin-Ray“-Greifarmen immer in einem 90-Grad-Winkel angebracht sind, kommen sie in Insekten mit verschiedenen Winkeln vor.

Wie funktioniert das?

„Wir sahen, dass Greifarme mit kleineren Winkeln ihre Zielobjekte noch leichter umschließen und dafür auch noch weniger Kraft benötigen“, so Gorb. Erstautor Poramate Manoonpong ergänzt: „Damit wären Roboter zum Beispiel in der Lage, Lebensmittel und andere empfindliche Gegenstände mit etwa 20 Prozent weniger Energie zu greifen – das könnte jahrealte Design-Paradigmen einer ganzen Greifroboter-Branche verändern.“ Manoonpong ist Professor für Biorobotik an der Süddänischen Universität (SDU).

Warum ist das wichtig?

Schließlich übertrugen die Kieler Forschenden das Greifprinzip der Roboterarme zum ersten Mal auf die Füße von Robotern, um auch damit rundliche Objekte sicher umschließen zu können. Nach ersten Tests an der SDU mit einem einzelnen Roboterfuß wurde in VISTEC anschließend ein kompletter, sechsfüßiger Roboter dazu gebracht, auf zwei Rohren und steinigem Untergrund zu laufen. Die Forschenden stellten hierbei fest, dass sich Roboter mit Querverstrebungen in einem 10-Grad-Winkel schneller und einfacher bewegten und weniger Energie verbrauchten als mit Verstrebungen in einem klassischen 90-Grad-Winkel. „Das könnte zum Beispiel für die Öl- oder Gasindustrie interessant sein“, so Manoonpong.

Das Youtube-Video zeigt Prof. Stanislav Gorb von der Uni Kiel bei einem Vortrag darüber, wie natürliche Oberflächen technologische Entwicklungen inspirieren.

Sie möchten gerne weiterlesen?