Humanoide Roboter - Aktueller Stand der
Transcription
Humanoide Roboter - Aktueller Stand der
Humanoide Roboter - Aktueller Stand der Forschung und Zukunft Stefan Profanter ([email protected]) 1. September 2013 Seminar: Geist - Gehirn - Maschine Sommersemester 2013 Technische Universität München Carl von Linde - Akademie i Das Hauptthema dieser Seminararbeit ist die Forschung und Entwicklung Humanoider Roboter weltweit. Nach einer kurzen Einführung und geschichtlichen Überblick über diverse Projekte der letzten Jahrhunderte wir der Schwerpunkt vor allem auf den aktuellen Stand der Forschung gelegt sowie ein Ausblick in die Zukunft Humanoider Roboter gewagt. Als aktueller Forschungsstand werden dabei vor allem Gemeinsamkeiten von Projekten aus den letzten Jahren hervorgehoben. Zukünftigen Entwicklungen sind schwer vorherzusehen, da der Bereich der Robotik-Forschung von vielen Faktoren abhängig ist und stark von anderen Forschungsgebieten beeinflusst wird. Diese Ausarbeitung soll deshalb eine kleine Vorstellung davon geben, was in den nächsten zehn bis 40 Jahren alles auf uns zukommen kann. Inhaltsverzeichnis 1 Was sind Humanoide Roboter 1 2 Die ersten Humanoiden Roboter 1 3 Aktueller Stand der Forschung 3.1 Die bekanntesten Roboterprojekte 3.1.1 ASIMO . . . . . . . . . . . 3.1.2 ARMAR 3 . . . . . . . . . 3.1.3 iCub . . . . . . . . . . . . . 3.2 Telepräsenzroboter . . . . . . . . . 3.3 Androide . . . . . . . . . . . . . . 3.4 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 3 3 5 6 7 8 9 4 Zukunft Humanoider Roboter 4.1 Mobilität & Stromversorgung . . . 4.2 Sensoren & Aktoren . . . . . . . . 4.3 Kognition & Künstliche Intelligenz 4.4 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 12 13 14 14 ii 1 Was sind Humanoide Roboter Roboter sind im Allgemeinen technische Apparaturen, die dazu dienen, dem Menschen Arbeit abzunehmen oder ihn bei der Arbeit zu unterstützen. Sie bestehen aus einem mechanischen Grundgerüst, meist mit verschiedenen Gelenken, um mit der Umgebung zu interagieren. Dieses mechanische Grundgerüst wird mit Sensoren und Aktoren ausgestattet, die von einem Computerprogramm ausgewertet beziehungsweise gesteuert werden. Die Robotics Industries Association definiert Roboter wie folgt: Ein Roboter ist ein programmierbares Mehrzweck-Handhabungsgerät für das Bewegen von Material, Werkstücken, Werkzeugen oder Spezialgeräten. Der frei programmierbare Bewegungsablauf macht ihn für verschiedenste Aufgaben einsetzbar. Das latein-altgriechische Wort Humanoid“ (lat. homo ,Mensch‘ und altgr. eidos ,Gestalt‘) klassifiziert ” alle Lebewesen und Maschinen, die ein menschenähnliches Erscheinungsbild aufweisen. Primäre Klassifizierungsmerkmale sind der aufrechte Gang auf zwei Beinen, ein Torso als zentrales Element, an dem sich die Beine, mindestens ein Kopf und Arme befinden. Somit sind Humanoide Roboter definiert als technische Apparaturen oder Maschinen, die der menschlichen Gestalt nachempfunden wurden und den Bewegungsablauf des Menschen nachahmen. 2 Die ersten Humanoiden Roboter Erste Ideen zu Humanoide Roboter reichen weit vor das Computerzeitalter zurück. Die erste bekannte Aufzeichnung stammt von Leonardo da Vinci aus dem Jahr 1495; da Vincis Ritter-Roboter war durch geschickte Anordnung von Seilzügen und Rädern in der Lage, zu sitzen, zu stehen, die Arme zu bewegen und das Visier zu öffnen [Ros06]. Knapp drei Jahrhunderte später konstruierte Jacques de Vaucanson innerhalb von vier Jahren den Flötenspieler, welchen er im Jahr 1738 der Öffentlichkeit präsentierte. Diese menschengroße Holzstatue konnte zwölf verschiedene Musikstücke auf einer Flöte spielen und dabei die Bewegungen der menschenähnlichen Lippen, Hände und Lunge imitieren. Ein Jahr später präsentierte de Vaucanson einen Tamburin Spieler und eine mechanische Ente, die Körner verdauen konnte [Sch99]. Der Begriff Roboter“ wurde erst im Jahr 1921 geprägt, als Karel Čapek, ein tschechischer Schrift” steller, in seinem Theaterstück R.U.R (Rossum’s Universal Robots) eine Geschichte über künstliche Menschen erzählte. Weitere Berühmtheit erlangte der Begriff durch den 1927 veröffentlichten Film Metropolis“ von Fritz Lang in dem einem weiblichen Maschinenmenschen im Laufe des Films täu” schend menschenähnliche Gestalt verliehen wurde. Nach dem Flötenspieler von de Vaucanson dauerte es 200 Jahre, bis der erste funktionierende Roboter im Jahr 1939 präsentiert wurde, welcher dem heutigen Entwicklungsstand ähnelt: Der 2,1m große und 120,2kg schwere Roboter Elektro“ (Abb. 1) hatte ein humanoides Aussehen, konnte per Sprachsteue” rung gehen, ca. 700 (aufgenommene) Wörter sprechen, Zigarette rauchen, Ballons aufblasen und Kopf und Arme bewegen. Das Video 1 der originalen Vorführung zeigt seine erstaunlichen Fähigkeiten. Ab dem Jahr 1973, in dem die Waseda University aus Tokio den Wabot-1 präsentierte, wurden beinahe jährlich neue Humanoide Roboter von verschiedenen Forschungseinrichtungen und Firmen vorgestellt. Wabot-1 war in der Lage zu gehen, mit einer Person auf Japanisch zu kommunizieren, Entfernungen 1 http://youtu.be/T35A3g_GvSg 1 Abbildung 1: Roboter Elektro aus dem Jahr 1939. (Quelle: Scott Schaut/Mansfield Memorial Museum) mit Hilfe von externen Sensoren zu messen und hatte bereits künstliche Ohren, Augen und einen Mund. Einer der bekanntesten Roboter: ASIMO“ (Abb. 2) wurde im Jahr 2000 von Honda präsentiert und ” entspricht in Hinblick auf die mechanischen Eigenschaften nahezu dem heutigen Entwicklungsstand. In der darauf folgenden Zeit konzentrierten sich Forschungseinrichtungen vor allem auf die Weiter- Abbildung 2: Roboter ASIMO von Honda aus dem Jahr 2000. (Quelle: Wikipedia/Vanillase) entwicklung der künstlichen Intelligenz, unter anderem der besseren Verarbeitung von Wissen und intuitiveren Kommunikation mit dem Menschen, sowie auf die Verfeinerung und Optimierung von Bewegungsabläufen. 3 Aktueller Stand der Forschung Das folgende Kapitel soll einen Überblick über den aktuellen Stand der Forschung in der Humanoiden Robotik bieten. In vergangenen Jahrzehnten wurden hauptsächlich Industrieroboter mit fest vorprogrammierten Bewegungsplänen entwickelt. Seit einigen Jahren geht diese Entwicklung immer mehr 2 in die Richtung der adaptiven Roboter welche sich robust in dynamische Umgebungen verhalten und hin zu Robotern, die immer mehr kognitive Fähigkeiten und Intelligenz besitzen. Dies führte dazu, dass die Robotik immer mehr zu einem interdisziplinären Forschungsbereich zwischen Ingenieuren und Entwicklern, Neurologen, Psychologen, Linguisten und sogar Philosophen und Musikern wurde beziehungsweise wird [DT12]. Aufgrund der relativ großen Anzahl an verschiedenen Projekten wird im folgenden Abschnitt versucht, einige der bekanntesten und wichtigsten Roboter-Projekte der letzten Jahre jeweils vorzustellen und dabei wichtige Errungenschaften hervorzuheben. Dabei gilt zu beachten, dass Forschungsgruppen sich meist auf ein spezielles Gebiet der Humanoiden Robotik, wie z.B. der Kognition, Kommunikation oder Aussehen und Bewegungsablauf konzentrieren und versuchen, dieses Problem unabhängig von anderen Forschungsgruppen zu lösen. Der letzte Teil des Kapitels bietet deshalb eine Übersicht über die vorher vorgestellten Roboter und eine Zusammenfassung des aktuellen Forschungsstandes. 3.1 Die bekanntesten Roboterprojekte In den folgenden Unterkapiteln werden einige der bekanntesten Roboterprojekte vorgestellt. Diese geben einen Einblick darüber, auf welchem Stand der Entwicklung sich aktuelle Humanoide Roboter befinden und woran derzeit geforscht wird. Diese Auflistung ist aufgrund der großen Anzahl an verschiedenen Projekten keineswegs vollständig und stellt eine willkürliche Auswahl dar. 3.1.1 ASIMO ASIMO ist ein zweibeiniger Humanoider Roboter und wurde von Honda im Jahr 2000 entwickelt (siehe Abb. 2). ASIMO ist ein Akronym für Advanced Step in Innovative Mobility“. ” Honda forscht bereits seit 1986 an der Entwicklung Humanoider Roboter, dies (und die Entwicklung des P1) wurde aber bis zur Veröffentlichung des P2 1996 geheim gehalten. Seitdem entwickelte Honda an zwei direkten Nachfolgern des P2, dem P3 und P4 sowie ab 2000 an ASIMO. In Tabelle 1 werden die verschiedenen Modelle gegenübergestellt. Die Entwickler bei Honda experimentierten mit verschiedenen Roboter-Größen und fanden dabei heraus, dass die optimale Größe für einen mobilen Assistenten zwischen 120cm und der durchschnittlichen Größe eines erwachsenen Menschen (175cm 2 ) liegt um Türgriffe oder Lichtschalter zu betätigen. Wie die meisten aktuellen Roboter ist auch ASIMO mit einer wieder aufladbaren Batterie ausgestattet und somit zumindest für wenige Stunden unabhängig von einer externen Stromversorgung. Bemerkenswert bei ASIMO ist unter anderem, dass er aufgrund der komplexen Berechnung des Zero ” Moment Point“ in der Lage ist, das Gleichgewicht zu erhalten und beim Rennen sogar für ca. 80ms beide Beine keine Bodenberührung haben, ohne dass ASIMO umfällt. Der Zero Moment Point“ ist ” jener Punkt bei dem die aktuelle dynamische Geschwindigkeit des Roboters und die Berührungspunkte mit dem Boden keine horizontale Kraft bewirken und somit der Roboter ausbalanciert ist. Wird der Roboter während seiner Bewegung gestoßen, ist er damit sogar in der Lage, dies auszugleichen und sich weiterzubewegen. ASIMO besitzt mehrere verschiedene Sensoren, um bewegte Objekte, Körperhaltung, Gesten, die Umgebung, Laute und Gesichter zu erkennen. Dadurch ist der Roboter in der Lage, mit Menschen auf 2 http://de.wikibooks.org/wiki/Mensch_in_Zahlen 3 Gewicht Höhe Gehgeschw. tragbare Last Betriebsdauer Freiheitsgrade P1 (1993) 175 kg 191.5 cm 30 P2 (1996) 210 kg 182.0 cm 2 km/h P3 (1997) 130 kg 160.0 cm 2 km/h 5 kg/Hand 2 kg/Hand 15 Minuten 25 Minuten 30 28 P4 (2000) 80 kg 160.0 cm 2 km/h 34 ASIMO (2000) 52 kg 120.0 cm 1.6 km/h 30 Minuten ASIMO (2011) 48 kg 130.0 cm 2.7 km/h (gehen) 9 km/h (rennen) 1 kg (tragend) 10kg (in Wagen) 1 Stunde (gehen) 26 57 Tabelle 1: Humanoide Roboter von Honda. (Quelle Wikipedia und [Hon11]) natürlichem Wege zu kommunizieren. Zwei Kameras im Kopf dienen dazu als Augenersatz, wodurch Bewegungen, Entfernung und Richtung erkannt werden können und somit der Roboter Personen direkt ansprechen oder menschliche Gesten erkennen kann. In Kombination mit Mikrofone und Sprachverarbeitung kann ASIMO Sprachbefehle verarbeiten und erkennen, ob ein gegenüberstehender Mensch zur Begrüßung Händeschütteln anbietet, ob er winkt, oder auf ein bestimmtes Objekt zeigt. Durch Verwendung mehrerer Mikrofone kann ASIMO auch die Richtung eines Geräusches erkennen und den Kopf entsprechend zur Geräuschquelle drehen. Er kann außerdem bis zu zehn verschiedene Gesichter oder Objekte erkennen und sich deren Namen merken (siehe http://youtu.be/18wSJs6LIc0). Weitere Errungenschaften, wie z.B. Kollisionen mit Menschen vermeiden, gehen auf unebenen Flächen, in Zeichensprache sprechen, springen (ein Bein, zwei Beine) oder einen Ball stoßen können auch unter diesem verlinkten Video 3 bestaunt werden. Neueste Forschungen von Honda konzentrieren sich vor allem auf die bessere Zusammenarbeit zwischen verschiedenen ASIMO Robotern und die Zusammenarbeit mit Menschen. Ähnlich zu Hondas ASIMO besitzt auch Albert Hubo“ zwei Beine, einen Torso, zwei Arme und ” einen Kopf. Er basiert auf den Roboter KHR-3 HUBO“ welcher vom Korea Advanced Institute of ” Science and Technology (KAIST) entwickelt und 2005 veröffentlicht wurde. Die Leistung von Hubo ist vergleichbar mit jener des ASIMO, dabei gibt es zwei wesentliche Unterscheidungsmerkmale: Albert Hubo besitzt fünf Finger pro Hand und kann diese unabhängig voneinander bewegen. ASIMO hingegen kann seine fünf Finger nur abhängig voneinander öffnen und schließen. Der Name Albert Hubo“ beruht ” auf das Aussehen des Roboters: sein Kopf ist eine Androiden Nachbildung von Albert Einstein (siehe 3 http://youtu.be/zul8ACjZI18 4 Abb. 3). Dadurch kann er eine große Anzahl an verschiedenen Gesichtsausdrücken nachbilden 4 . Abbildung 3: Roboter Albert Hubo“ mit einem Androiden Kopf, welcher Albert Einstein nachempfunden ” wurde. (Quelle: Wikipedia) 3.1.2 ARMAR 3 ARMAR 3 wird vom Karlsruher Institut für Technologie entwickelt. Ziel dabei ist, einen vollig autonom handelnden und lernfähigen Haushaltsroboter zu schaffen, der sich in einer beliebigen Küche zurechtfindet und dort alltägliche Aufgaben erledigen soll 5 . Im Jahr 2000 wurde die erste Version von ARMAR gebaut und bestand aus einer mobilen Plattform mit 25 mechanischen Freiheitsgraden (DoFs). Die Nachfolgerversion entstand 2002 und war in der Lage, sich vor-, seitwärts- und zurück zu beugen. Bei ARMAR-IIIa aus dem Jahr 2006 wurde der Schwerpunkt vor allem auf die Nachempfindung der sensorischen und sensormotorischen Fähigkeiten des Menschen gelegt. Nach aktuellem Entwicklungsstand ist ARMAR III (siehe Abb. 4) in der Lage, Objekte Aufgrund ihrer Textur oder Farbe zu erkennen und Sprachbefehle zu verarbeiten. Er kann z.B. Kommandos wie Bringe mir die grüne Tasse vom Regal“ ausführen. Der Humanoide Roboter kann auch bereits ” die Spülmaschine auf Befehl hin öffnen, bestimmte Objekte einräumen und die Spülmaschine wieder schließen. Bei unbekannten Objekten fragt ARMAR nach und merkt sich dann die Bezeichnung des Objektes; siehe dazu auch das verlinkte Video 6 . ARMAR kann nicht nur Bezeichnungen von Objekten lernen, sondern auch Bewegungsabläufe nachahmen, die von einem Menschen vorgeführt wurden. ARMAR ist auch bereits in der Lage, autonom die Küche aufzuräumen, also falsch platzierte Objekte an die richtige Position zu stellen. Der Nachfolger, ARMAR IV besitzt anstatt Räder zwei Beine zur Fortbewegung. Laut einem der Entwickler, Kosta Schinarakis, wird es aber noch 20 bis 30 Jahre dauern, bis der Roboter für die geplanten Aufgaben voll einsatzfähig ist [Plu12]. 4 http://youtu.be/tF-ZnvxStrQ http://his.anthropomatik.kit.edu/241.php 6 http://www.youtube.com/watch?feature=player_embedded&v=SHMSyYLRQPM 5 5 Abbildung 4: ARMAR-IIIb (links) und ARMAR-IIIa (2008, Quelle: http://his.anthropomatik.kit.edu/241.php) 3.1.3 iCub iCub wurde vom RobotCub Konsortium entwickelt und ist ein ein Meter großer Humanoider Roboter welcher vor allem für die Erforschung der menschlichen Kognition und Künstlichen Intelligenz eingesetzt wird (siehe Abb. 5). Das RobotCub Konsortium ist ein Zusammenschluss mehrerer europäischer Universitäten 7 . Abbildung 5: Der Kindergroße Humanoide Roboter iCub. (Quelle: RobotCub Konsortium) Der gesamte iCub Roboter ist OpenSource, das heißt dass alle Baupläne, elektronische Schaltpläne sowie die Software frei verfügbar sind. Das Akronym cub“ steht dabei für Cognitive Universal Body“. ” ” Die Größe des iCub ist ähnlich zu der eines 3,5 Jahre alten Kindes, da ein Hauptziel der Entwicklung darin lag, die den Kindern nachempfundenen kognitiven Lernalgorithmen durch Interaktion mit der Umwelt zu analysieren und zu verbessern. Dabei wurde iCub von Beginn an nicht als autonomer Roboter konzipiert: er besitzt keine Batterien zur Stromversorgung. Aktuell existieren ungefähr 25 iCubs in verschiedenen Laboren hauptsächlich in Europa, aber auch in 7 http://www.icub.org/ 6 den USA, Türkei und Japan. iCub findet eine so hohe Verbreitung vor allem aufgrund der OpenSource Lizenz und dem relativ günstigen Preis von 250.000e. Dadurch existieren diverse Forschungsprojekte, die iCub verschiedene Fähigkeiten beibringen 8 : • krabbeln, wobei visuelle Bodenmarker verwendet werden 9 • Pfeilschießen auf eine Zielscheibe mit autonomer Lernfunktion • Ausdrücken von Emotionen 10 11 • Greifen von kleinen Objekten wie z.B. Bälle, Flaschen 12 3.2 Telepräsenzroboter Auch im Bereich der Telepräsenz geht der Wandel immer mehr von einfachen fahrenden Bildschir” men“ hin zu menschenähnlichen Robotern. Vor allem die Luft- und Raumfahrt stellt ein wichtiges Forschungsgebiet dar. Die dabei entwickelten Roboter sollen im Weltall Astronauten unterstützen und dabei aus der Ferne gesteuert werden können. Hier bietet der menschenähnliche Aufbau vor allem Vorteile in der Steuerkomplexität und der Verwendung von Werkzeugen: die meisten Werkzeuge, die wir Menschen verwenden sind an unseren menschlichen Händen und Bewegungen angepasst. Somit wird es für menschenähnlich aufgebaute Roboter deutlich einfacher, diese Werkzeuge zu verwenden. Damit der Operator ausreichend Informationen zur aktuellen Umgebung erhält und mit dieser interagieren kann, besitzen Telepräsenzroboter meist verschiedene Sensoren und Kameras, um den Status der Umgebung aufzuzeichnen und zu Übertragen. Am Deutschen Zentrum für Luft- und Raumfahrt (DLR) wird einer der bekanntesten Robonauten entwickelt: Justin (Abb. 6). Justin wird mit dem Ziel entwickelt, in einigen Jahren auf einem eigenen Satelliten montiert durch den Orbit zu navigieren und durch Fernsteuerung andere Satelliten zu reparieren. Justin ist dabei der Name des Torso inklusive Kopf und Arme. Das DLR testet Justin seit ein paar Jahren auf einem fahrbaren Aufbau (Rollin’ Justin). Er hat einen Aktionsradius von 1,7m und wiegt ca. 45kg, dabei hat er eine Tragkraft von ca. 15kg. Aktuell entwickelt das DLR auch am sogenannten DLR-Biped, einem Aufbau mit zwei Füßen. Auch die NASA forscht an Humanoiden Robotern für den Einsatz im Weltall unter dem Projektnamen Robonaut. Ähnlich zu Justin vom DLR bestehen die Robonauten aus einem Torso, Kopf und zwei Arme (siehe Abb. 7) und werden aus der Ferne gesteuert. Der aktuellste Robonaut R2 wurde im Februar 2011 in der ISS (International Space Station) montiert, um zu untersuchen, wie sich der Roboter im schwerelosen Raum verhält. Momentan ist R2 an einer fixen Position befestigt und kann sich nicht durch die ISS bewegen, außerdem fehlen noch die nötigen Abschirmungen, damit er sich außerhalb der ISS im Weltall aufhalten kann. R2 ist nicht immer auf einem Operator angewiesen: er kann eine Aufgabe zugewiesen bekommen und diese dann autonom mit periodischen Statusüberprüfungen ausführen. Für Ende 2013 wurde bereits geplant, Füße zum Klettern und ein Batterie-Pack an die ISS zu liefern und diese an den dort bereits 8 http://en.wikipedia.org/wiki/ICub http://youtu.be/JRqdIFCIZd8 10 http://youtu.be/QCXvAqIDpIw 11 http://youtu.be/qsrs0e_9iX8 12 http://vimeo.com/51011081 9 7 Abbildung 6: Rollin’ Justin entwickelt vom DLR (Quelle: http://robotsfuture.blogspot.it) installierten Roboter zu montieren. In Zukunft soll Robonaut 2 vor allem im Außenbereich der ISS Astronauten bei ihrer Arbeit unterstützen. Abbildung 7: Robonaut 2 in der ISS bei seinen ersten Funktionstests (Quelle: NASA) 3.3 Androide Androide sind eine spezielle Untergruppe Humanoider Roboter, welche den Menschen täuschend ähnlich sehen und sich wie Menschen verhalten. Dabei wird vor allem das menschliche Gewebe und das Gesicht so gut als möglich nachgebildet. Auch der Körperbau entspricht dem eines Menschen. Eine abstrakte Unterscheidung zwischen Androiden und gewöhnlichen Humanoiden Robotern erfolgt durch die Betrachtung des Uncanny-Valley“-Phänomens. Dieses misst die Akzeptanz eines mensch” lichen Betrachters gegenüber eines Roboters: Besitzt ein menschenähnlicher Roboter noch deutliche Kennzeichen dafür, dass es sich um einen Roboter handelt (wie z.B. metallische Oberfläche oder Plastik-Abdeckungen), so wird dies als positiv und angenehm empfunden. Nimmt die Menschenähnlichkeit ab einen gewissen Punkt weiter zu, wirken die Roboter gruselig und ungewohnt und die Akzeptanz nimmt schnell bis zu einem Tiefpunkt ab. Nimmt die Menschenähnlichkeit und Perfektion 8 stark zu, steigt die Akzeptanz wieder. In diesem Bereich spricht man von Androiden. Im Folgenden werden die bekanntesten Androiden kurz vorgestellt. Die entsprechenden Absätze wurden mit Online-Videos verlinkt, um einen Eindruck über die Bewegungsweise der Roboter zu gewinnen. Der japanische Wissenschaftler und Professor Hiroshi Ishiguro ist ein Pionier im Bereich der Androiden und entwickelte seit 2005 bereits mehrere sehr menschenähnliche Roboter. Sein erstes Projekt war der weibliche“ Android Repliee Q1 (Abb. 8(a)). Die Haut von Repliee Q1 besteht aus gefärbtem Silikon. ” Dieser Android kann Sprachbefehle wahrnehmen, darauf reagieren und sich dabei wie ein Mensch gestikulieren (siehe auch http://youtu.be/d13nDVfw0rI). Darauf folgend entwickelte Ishiguro im Jahr 2009 den sogenannten Geminoid, welcher das identische Aussehen wie sein Entwickler hat (Abb. 8(b)). Dieser Geminoid kann seinen Oberkörper und den Kopf bewegen, sowie menschliche Gesichtsausdrücke nachahmen. Er sieht dabei Ishiguro verblüffend ähnlich: http://youtu.be/5ajmy0_QlD0. Alle Geminoide wurde dazu entwickelt, um zu Untersuchen, wie sich ein Mensch gegenüber einem Androiden verhält und ob diese akzeptiert werden. Die Geminoide wurden zu diesem Test aus der Ferne über Tracking-Systeme von einem anderen Menschen gesteuert. Auch eine weiterentwickelte weibliche Version des Geminoid, die Geminoid F“ (Abb. 8(c)) kann ” menschliche Gesichtsausdrücke nachahmen, wobei sich dieser Android noch realistischer als das Vorgängermodel verhält: http://youtu.be/9q4qwLknKag. Der aktuellste Geminoid aus dem Jahr 2011, Geminoid DK“ besitzt sogar Barthaare (Abb. 8(d)): ” http://youtu.be/NSLe7xrP4jQ. 3.4 Zusammenfassung Es gibt eine Vielzahl an verschiedenen Humanoiden Robotern mit sehr unterschiedlichen Aussehen. Dies zeigt, dass das Feld der Robotik viel Freiheit in der Entwicklung und dem Erscheinungsbild des Roboters bietet. Eine gemeinsame Basis der Roboter ist die Verwendung von verschiedenen Sensoren zur Wahrnehmung der Umwelt. Einer der wichtigsten und zugleich aufwändigsten Sensoren ist dabei die Kamera. Kameras liefern kontinuierlich Bilder welche so schnell als möglich ausgewertet werden müssen, um auf das Gesehene zu reagieren. In den letzten Jahren ging die Entwicklung dabei immer mehr von der einfachen Kamera hin zu Stereo-Kamerasystemen welche die Verarbeitung der Umgebung in 3D ermöglichen. Das Blickfeld dieser Kameras ist aktuell noch deutlich kleiner (60◦ horizontal, 45◦ vertikal [DT12]) als das des Menschen (160◦ horizontal, 135◦ vertikal). Im Bereich der Berührungssensoren wurden speziell im Jahr 2013 neure Errungenschaften erreicht: Zhong Lin Wang, ein Professor am Georgia Institute of Technology, entwickelte einen flexiblen, transparenten, der menschlichen Haut ähnlichen Sensor, welcher Robotern erlaubt, die Berührungsstärke und den Berührungsort zu bestimmen [WWW13]. Dies ermöglicht Robotern beim Greifen noch größere Sensitivität und bietet weitere interessante Anwendungsgebiete in der Mensch-Roboter-Interaktion, wie z.B. die Erkennung des Gemütszustandes: Ist man etwa verärgert oder irritiert, drückt man stärker auf einen Touchscreen, fühlt man sich fröhlich, berührt man ihn rhythmischer. 9 (a) Repliee Q1 (2005) (b) Geminoid (rechts) mit seinem Schöpfer (links) (2009, Makoto Ishida) (c) Geminoid-F (links) und sein Vorbild (rechts) (2010, Osaka University) (d) Geminoid-DK (2011, www.geminoid.dk) Abbildung 8: Diese Androiden sehen Menschen verblüffend ähnlich und können auch menschliche Gesichtsausdrücke nachahmen. 10 Mikrofone werden bereits seit mehreren Jahrzehnten eingesetzt, um Geräusche oder Stimmen wahrzunehmen. Die vergrößere Rechenleistung in den letzten Jahren erlaubte auch hier Verbesserungen: durch Verwendung mehrerer Mikrofone und entsprechender Berechnungen ist es möglich, Geräuschquellen (wie z.B. Stimme) zu isolieren und einzeln zu Verarbeiten (siehe auch Hondas Roboter HEARBO 13 ). Eine Gemeinsamkeit, die alle vorher genannten Roboter und Homanoiden haben, ist die Verwendung von elektronischen Gelenk-Motoren. Die Entwicklung geht aber auch in Richtung der hydraulischen und pneumatischen Aktoren wie z.B. bei dem von Anybot entwickelten Roboter Dexter (2008). Boston Dynamics entwickelte 2011 den PetMan welcher pneumatische Aktoren verwendet und dadurch eine noch menschenähnlichere Gangart vorweist (siehe http://youtu.be/tFrjrgBV8K), auch wenn zweibeinige Roboter aktuell noch kleine Schwierigkeiten im Gleichgewicht haben. Festo entwickelte 2007 den Airic’s arm , einen Roboter Arm, der pneumatische Muskeln verwendet und dadurch Be” ” wegungen mit großer Anzahl an Freiheitsgraden vereinfacht und menschenähnlicher ausführen kann 14 . Die Integration all dieser Sensoren und Aktoren in ein gemeinsames System scheitert momentan am Platzbedarf und der benötigten Rechenleistung. Vor allem das Gewicht der Batterien, Rechner, Elektronik und Gelenke erschwert Bewegungsabläufe und verkürzt die Laufzeit des Roboters. Immer mehr Rechenleistung wird auch für das Gehirn“ des Roboters, also der Wissensverarbeitung ” und Entscheidungsfindung benötigt. Wurden früher vor allem vom Programmierer fest definierte Symbole durch Regeln manipuliert (Cognitivism), werden heute immer mehr Systeme eingesetzt, die auf dynamische Änderungen in der Umgebung besser reagieren (Emergent Systems) [Pro12]. Emergente Systeme haben eine starke Verbindung zwischen dem Gedächtnis und dem Körper des Systems mit dem Hintergrundgedanken, dass Kognitive Fähigkeiten ein Zusammenspiel zwischen Körper und Gedächtnis sind. Pezzulo Giovanni vom Institute of Cognitive Sciences and Technologies in Italien fand bei einem Experiment heraus, dass Menschen, die nach Zufallszahlen gefragt wurden und währenddessen den Kopf von links nach rechts schütteln sollten, zu kleineren Zahlen tendierten, wenn der Kopf von links nach rechts bewegt wurde, als bei der Bewegung von rechts nach links [PBC+ 11]. Roboter sind auch bereits in der Lage, mit Hilfe von neuronalen Netzwerken zu lernen und dieses Wissen wiederzugeben: schlägt eine Bewegung oder eine bestimmte Aktion fehl, so wird diese Aktion beim nächsten Versuch leicht abgewandelt und erneut versucht. Bei einem Erfolg werden die Schritte abgespeichert und für zukünftige Bewegungen verwendet. Aktuelle Roboter haben ihre Stärken vor allem in der sogenannten weichen künstlichen Intelligenz“, ” in der die Roboter gleiche, fest definierte Aufgaben in statischen Umgebungen ausführen und dabei kaum Flexibilität aufweisen. In den letzten Jahren wurden aber immer mehr Systeme für harte KI“ ” präsentiert: sie reagieren auf Menschen und verhindern dadurch Kollisionen oder Verletzungen (siehe Hondas ASIMO). Aufgrund der beschränkten Kognition und Intelligenz sind noch keine wirklichen sozialen Dialoge mit Robotern möglich, da sie kein menschliches Bewusstsein und eigenen Willen haben. Ein klarer Vorteil von Roboter gegenüber Menschen ist hingegen der schnelle Wissensaustausch über den hohen Grad an Vernetzung: Roboter können neues Wissen erlernen und dies untereinander zur Verfügung stellen. Somit hat ein Roboter eine weitaus größere Wissensbasis als Menschen. Genau dieser Wissensaustausch wird aktuell im RoboEarth Projekt erforscht und entwickelt 15 . Es fehlt allerdings vor allem noch an 13 http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/hearbo-a-robot-with-superhearing http://www.festo.com/cms/en_corp/9785.htm 15 http://www.roboearth.org/ 14 11 den entsprechenden Algorithmen zur Wissenssammlung und zur Auswertung des verfügbaren Wissens, um die gewünschte Antwort zu finden. Humanoide Roboter werden heutzutage vorwiegend für Demonstrationszwecke oder z.B. ServiceAnwendungen, Museumsführer, Testobjekte im All oder Hollywood-Streifen eingesetzt. Auch im Bereich der Medizin werden Humanoide Roboter zu Testzwecken eingesetzt, wie z.B. der Roboter Kaspar, welcher autistischen Kindern die Interaktion mit anderen Kindern erleichtern soll 16 . Auf verschiedenen Wettkämpfen (DARPA Robotics Challenge, RoboCup) müssen Roboter miteinander gegen andere Roboter antreten oder für Roboter komplexe Aufgaben autonom lösen können. Aufgrund der strikten vordefinierten Testbedingungen bei den Wettkämpfen dienen diese meist als Maßstab für den aktuellen Entwicklungsstand. 4 Zukunft Humanoider Roboter Im vorherigen Kapitel wurden aktuelle Errungenschaften im Bereich der Humanoiden Robotik präsentiert. Diese zeigen bereits, dass die Roboter-Forschung in den letzten Jahren, im Vergleich zu den Jahren davor, große Fortschritte erreichte. Dies ist vor allem auf die Neuentwicklungen im Bereich der Elektronik und Feinmechanik zurückzuführen, die zum einen leistungsfähigere Bauteile ermöglichten, und zum anderen den Platzbedarf verringerten. Ein weiterer treibender Faktor ist die stetig größer werdende Rechenleistung auf immer kleinerer benötigter Fläche. Dieser Entwicklungstrend wird sich in Zukunft mit hoher Wahrscheinlichkeit fortsetzen, wenn nicht sogar beschleunigen. Doch was bedeutet dies für die Zukunft der Humanoiden Roboter? In diesem Kapitel wird versucht, einen kleinen Ausblick in die Zukunft der Humanoiden Robotik und der Künstlichen Intelligenz zu geben. 4.1 Mobilität & Stromversorgung Eines der aktuellen Probleme ist die eingeschränkte Mobilität: Roboter können sich zurzeit bis zu einer Stunde (ASIMO) autonom und ohne externer Stromversorgung bewegen, bis sie wieder aufgeladen werden müssen. Hier ist vor allem die Automobilindustrie ein treibender Faktor. Durch die voranschreitende Entwicklung von elektrisch angetriebenen Autos werden immer stärkere Batterien benötigt, die dabei so kompakt und leicht als möglich sein sollten. Außerdem sollten die Akkus schnell wieder aufgeladen werden können. All diese Faktoren spielen auch in der Robotik eine wichtige Rolle. Im Jahr 2009 entwickelten Forscher am Massachusetts Institute of Technology (MIT) einen Super-Akku [KC09]: die auf Basis von Lithiumeisenphosphat entwickelte Batterie hat eine hohe Leistungsdichte im Vergleich zu aktuellen Akkumulatoren. Weitaus erwähnenswerter ist die sehr kurze Ladezeit dieser Batterie: Unter Laborbedingungen konnte die Ladezeit von sechs Minuten auf 10 bis zwanzig Sekunden verringert werden. Mit dieser Technik könnte ein Handy in nur zehn Sekunden vollständig geladen werden, so die Wissenschaftler. Große Akkus, die derzeit in Autos eingesetzt werden, benötigen aktuell eine Ladezeit von sechs bis acht Stunden. Der neu entwickelte Akku würde dies auf fünf Minuten reduzieren. Der neue Akku soll laut den Wissenschaftlern in wenigen Jahren serienreife haben. 16 http://youtu.be/D6gTHPoO9VI 12 4.2 Sensoren & Aktoren Sensoren sind wichtige Komponenten für Roboter, damit diese die Umwelt wahrnehmen und mit dieser interagieren können. Außerdem sind Sensoren wichtig, um Änderungen rechtzeitig zu erkennen und auf diese zu reagieren; befindet sich zum Beispiel ein Mensch in der Nähe des Roboters, muss dieser entsprechende Vorsicht walten lassen, um den Menschen nicht zu verletzen. Aktuell werden in Robotern vor allem visuelle, taktile und auditive Sensoren eingesetzt. Ein großer Nachteil beim Einsatz von Kameras entsteht durch die benötigte Rechenleistung: aktuell verwendete Rechner besitzen zu wenig Leistung, um das gesamte Kamerabild in voller Auflösung in Echtzeit zu verarbeiten. Die zu geringe Rechenleistung wirkt sich auch auf die verwendbare Anzahl an vor allem taktilen Sensoren aus, da dadurch noch mehr Reize aus der Umwelt aufgenommen und verarbeitet werden müssen. Mit steigender Rechenleistung wird somit auch die Anzahl der Sensoren steigen. Dabei wird vor allem der Einsatz einer künstlichen Haut immer wichtiger: diese ermöglichen Robotern den genauen Berührungspunkt, die Berührungsstärke, sowie Temperatur und Feuchtigkeit festzustellen. Vor wenigen Monaten wurde ein vielversprechendes Projekt präsentiert, in dem eine flexible künstliche Haut entwickelt wurde, die genau diese Fähigkeiten besitzt [SBLNS+ 13]. Diese neue Haut ist zehnmal besser als alle ähnlich existierenden künstlichen Häute, so der Autor Hossam Haick. Durch Veränderung der Materialdicke ist es sogar möglich, die Empfindlichkeit zu variieren. Auch an selbstheilenden Materialien für die elektrische Haut wird bereits geforscht [TWAB12]. Humanoide Roboter haben aktuell noch keinen Geschmacks- und Geruchsinn, denn sie müssen nicht essen, wie wir Menschen und für aktuelle Aufgaben müssen auch keine Gerüche wahrgenommen werden. In Zukunft werden Roboter aber immer mehr mit Menschen zusammenarbeiten und hier ist es wichtig, mehr oder weniger dieselbe Sprache zu verwenden. Damit dies möglich ist, müssen Roboter über olfaktorische und gustatorische Sinne verfügen. Künstliche Nasen und Zungen wurden bereits entwickelt und übertreffen dabei sogar bereits die des Menschen [Mah09]. Künstliche Nasen sind in der Lage, tausende von chemischen Molekülen zu klassifizieren. Diese Sinne sind auch für höhere Level des kognitiven Prozesses nötig, es können zum Beispiel bestimmte Aktionen mit bestimmten Gerüchen verbunden werden (Gasgeruch → Gashahn abdrehen). Bereits seit mehreren Jahren wird an künstlichen Muskeln geforscht. Diese bestehen meist aus Schläuchen, die sich durch Luft- oder Öldruck zusammenziehen, ähnlich den Menschlichen Muskeln. Künstliche Muskeln haben im Vergleich zu rein mechanisch angetriebenen Gelenkten den Vorteil des geringeren Gewichtes und der größeren Designfreiheit (siehe dazu auch Roboter Lara 17 ). Außerdem bieten künstliche Muskeln größere Flexibilität und sind in der Lage, Energie kurzzeitig zu speichern. Dies ist vor allem bei der Fortbewegung ein wichtiger Aspekt: Im menschlichen Knie wird beim Gehen Energie während dem Auftreten gespeichert und beim Abstoßen anschließend wieder abgegeben. Bei aktuellen Roboter, wie zum Beispiel ASIMO, würde diese Energiespeicherung zu einer deutlichen Energieeinsparung führen. Sogenannte Anthropomimetic Roboter versuchen dabei die Struktur der menschlichen Knochen, Gelenke, Sehnen und Muskeln nachzubilden mit dem Hintergedanken, dass menschenähnliche Kongnition stark mit dem Aufbau des Körpers zusammenhängt, Stichwort Embodiment (siehe auch [Pro12]). Der erste Roboter dieser Art wurde an der Technischen Universität München mit dem Namen ECCEROBOT entwickelt 18 und soll als Grundlage für zukünftige menschenähnliche Entwicklungen dienen. 17 18 http://www.dribblers.de/lara/ueberlara.html http://eccerobot.org/ 13 4.3 Kognition & Künstliche Intelligenz Nicht nur die Rechenleistung, sondern auch die Größe beziehungsweise Speicherkapazität der Prozessoren an Bord der Roboter sind ein limitierender Faktor: dadurch sind Roboter aktuell nicht in der Lage, Erinnerungen“ für längere Zeit abzuspeichern. Dies ist vor allem wichtig für Lernerfolge über ” einem längeren Zeitraum, denn aus Fehlern können die Roboter lernen und optimieren. Genau an dieser Problemstelle greift das ALIZ-E 19 Projekt an und versucht, die Mensch-Roboter-Interaktion von möglichen wenigen Minuten auf mehrere Tage auszuweiten. Das Einsatzgebiet dafür ist vor allem eine Alternative zur Tiergestützten Therapie, eingesetzt zur Linderung der Symptome bei psychiatrischen und neurologischen Erkrankungen und Behinderungen. Die Idee dabei ist, dass der Roboter als ständiger Begleiter und Kommunikationspartner für den Patienten dienen soll. Einen anderen Ansatz verfolgt das Human Brain Project 20 , in dem versucht wird, das menschliche Gehirn in Soft- und Hardware nachzubilden, um zum einen die biologischen Abläufe im Gehirn zu verstehen, Krankheiten zu bekämpfen und zum anderen revolutionäre neue Roboter zu entwickeln. Das Projekt hat 2013 begonnen und läuft für vorerst zehn Jahre. Die Weiterentwicklung der KI soll Robotern unter anderem Bewusstsein und einen eigenen Willen verschaffen, wodurch der Lernprozess noch weiter beschleunigt werden kann. Diese Faktoren sind aber auch für die Mensch-Roboter-Interaktion sehr wichtig. Roboter können momentan nur auf einfache Sprachbefehle mit entsprechenden Aktionen reagieren. Aktuell wird in diesem Bereich ausgiebig geforscht, um auch Gesten und Gefühlsausdrücke des Gegenübers zu erkennen. Die Verbesserung des semantischen und emotionalen Sprachverständnisses ist dabei nicht nur für die Robotik von großer Bedeutung (siehe z.B. Apples Siri). Somit werden Roboter in der Lage sein, die Bedeutung von geänderter Lautheit, Irritation, Zuneigung und anderen emotionalen Aspekten zu verstehen und diese in der eigenen Sprachausgabe anzuwenden. Diverse Forschungsprojekte beschäftigen sich auch mit Gedankenübertragungen, somit wird es in einigen Jahrzehnten unter anderem möglich sein, Roboter nur mit dem eigenen Gedanken zu steuern. 4.4 Zusammenfassung Von Szenen wie im Film I, Robot (2004)“ oder Der 200 Jahre Mann (1999)“ ist die Roboterforschung ” ” noch einige Jahrzehnte entfernt. Es existieren zwar bereits Roboter, die sich menschenähnlich bewegen (PetMan) oder fast wie Menschen aussehen (Geminoid). Auch im Bereich der Künstlichen Intelligenz sind in den letzten Jahren bemerkenswerte Fortschritte gelungen, doch das Problem besteht unter anderem darin, all diese Komponenten in ein Gesamtsystem zusammenzufügen. Dies würde die aktuell verwendeten Rechenprozessoren deutlich überlasten und zusätzlich die Mobilität einschränken, da nicht ausreichend Strom zur Verfügung steht. In den kommenden Jahren wird sich die verfügbare Rechenleistung nach dem Mooreschen Gesetz voraussichtlich alle zwei Jahre verdoppeln und somit deutlich leistungsfähigere Roboter ermöglichen. Gleichzeitig werden die Bauteile von Jahr zu Jahr günstiger un immer mehr Hobby-Entwickler interessieren sich für die Humanoide Robotik. Der Wikipedia-Artikel Future of robotics“ 21 bietet eine Übersicht über verschiedene Aussagen von ” Wissenschaftlern zu zukünftigen Jahreszahlen und die dazugehörigen Errungenschaften die in der 19 http://www.aliz-e.org/ http://www.humanbrainproject.eu/ 21 http://en.wikipedia.org/wiki/Timeline_of_the_future_in_forecasts#Artificial_intelligence_and_ robotics 20 14 Humanoiden Robotik bis dahin vielleicht erreicht werden. Folgende Liste gibt die wichtigsten Punkte dieser Liste wieder, um einen Eindruck davon zu bekommen, wie weit wir von Robotern entfernt sind, die von Menschen kaum unterschieden werden können. Die Referenzen zu den jeweiligen Aussagen können aus dem Wikipedia-Artikel entnommen werden: 2015 – Ein Drittel der US Streitkräfte wird aus Robotern bestehen 2018 - Roboter werden routinemäßig Operationen an Menschen durchführen 2019–2021 – Nanoroboter im menschlichen Körper 2022 – Intelligente Roboter, welche die Umgebung vollständig wahrnehmen, Entscheidungen ausführen und lernen, werden in 30% der Haushalte und Organisationen eingesetzt 2030 – Roboter sind in der Lage, manuelle Arbeiten auf demselben Niveau wie Menschen auszuführen 2034 – Roboter (bzw. Heimautomatisierungssysteme) erledigen die meisten Haushaltsaufgaben 2035 – Erste völlig autonome Roboter-Soldaten 2050 - Robotergehirn“ basierend auf Computern, die 100 Billionen (aktuell 177 Milliarden, Intel ” i7) Rechenoperationen pro Sekunde ausführen können und mit der menschlichen Intelligenz konkurrieren können Professor George Bekey von der University of Southern California ist ein Pionier bei Fragen zur Robotik und Ethik. Auf [Bek13] veröffentlichte er folgende Gedanken zur Zukunft Humanoider Roboter in unserer Gesellschaft: Roboter werden immer mehr Funktionen in der menschlichen Gesellschaft übernehmen: Hausmeister, Polizei, Türöffner, Straßenkehrer, diverse Wartungsarbeiten, Auslieferungen oder Taxifahren. Auch im medizinischen Bereich werden immer mehr Roboter für die Pflege oder Operationen eingesetzt werden. Aufgrund der steigenden Anzahl an Robotern wird die Roboter-Roboter-Interaktion immer wichtiger werden, damit sich diese zum Beispiel zu Gruppen zusammenschließen können, um Waldbrände zu löschen oder für das Militär gemeinsame Angriffstaktiken auszuführen. Auch wir Menschen werden uns verändern und anpassen müssen. Welche gesetzlichen, sozialen und ethischen Rechte und Pflichten haben die Roboter? Unser Gesetzsystem basiert auf Belohnung und Bestrafung zur Regulierung des menschlichen Verhaltens. Bestrafung ist aber keine passende Methode um das Verhalten von Robotern zu regulieren; auch hier müssen wir umdenken. Dazu zählen auch die Antworten auf folgende Fragen: Was passiert, wenn ein Roboter ein Gesetz verletzt? Wer wird bestraft? Trägt der Entwickler/Programmierer eine Teilschuld? Die Robotergesetze von Isaac Asimov sind bereits jetzt nicht mehr vollständig gültig. Sie besagen, dass Roboter keinen Menschen verletzen dürfen, immer Menschen gehorchen und die eigene Existenz schützen müssen, ohne dabei die jeweiligen Regeln zu verletzen. Vor allem für den militärischen Einsatz sind diese Gesetze nicht anwendbar. Der schnelle Anstieg dieser autonomen Systeme wird auch soziale Probleme mit sich bringen: Roboter werden immer mehr Arbeiten von Menschen übernehmen. Werden die Systeme nicht rechtzeitig an die Zusammenarbeit mit Menschen angepasst, wird es zu großer Arbeitslosigkeit und damit zu Aufständen führen, die die Zerstörung einer großen Anzahl an Robotern zur Folge haben wird. Somit liegt eine große Last auf den Schultern der Entwickler, die dafür sorgen müssen, dass sich Roboter und Menschen in unserer Gesellschaft zusammen entwickeln und existieren können. Humanoide Roboter werden in vielerlei Hinsicht intelligenter, vielseitiger und autonomer sein als wir. Wir Menschen müssen uns an diese kommende Welt anpassen. 15 Literatur [Bek13] Bekey, George: The Future of Artificial Intelligence: Brave New Machines. http://www.theeuropean-magazine.com/george-bekey--2/ 6578-the-future-of-artificial-intelligence, 2013. [DT12] Duran, Boris und Serge Thil: Rob’s Robot: Current and Future Challenges for Humanoid Robots. In: Zaier, Riadh (Herausgeber): The Future of Humanoid Robots Research and Applications. InTech, 2012. [Hon11] Honda: ASIMO technical FAQ. asimo-technical-faq.pdf, 2011. [KC09] Kang, Byoungwoo und Gerbrand Ceder: Battery materials for ultrafast charging and discharging. Nature, 458(7235):190–193, 2009. [Mah09] Mahmoudi, Esmaeil: Electronic Nose Technology and its Applications. In: International Frequency Sensor Association (Herausgeber): Sensors & Transducers, Band 8, Seiten 17–25. www.sensorsportal.com, 2009. [PBC+ 11] Pezzulo, Giovanni, Lawrence W. Barsalou, Angelo Cangelosi, Martin H. Fischer, Ken McRae und Michael J. Spivey: The Mechanics of Embodiment: A Dialog on Embodiment and Computational Modeling. Frontiers in Psychology, 2, 2011. [Plu12] Pluta, Werner: Armar hilft in der Küche. http://www.golem.de/news/ haushaltsroboter-armar-hilft-in-der-kueche-1203-90365.html, 2012. [Pro12] Profanter, Stefan: Cognitive Architectures. http://profanter.me/static/ publications/SeminarCogArch/elaboration.pdf, 2012. [Ros06] Rosheim, Mark Elling: Leonardo’s Lost Robots. Springer-Verlag Berlin Heidelberg, [New York], 2006. http://asimo.honda.com/downloads/pdf/ [SBLNS+ 13] Segev-Bar, Meital, Avigail Landman, Maayan Nir-Shapira, Gregory Shuster und Hossam Haick: Tunable Touch Sensor and Combined Sensing Platform: Toward Nanoparticle-based Electronic Skin. ACS Applied Materials & Interfaces, 5(12):5531–5541, 2013. [Sch99] Schmidt, Peter: on Jacques de Vaucanson and his Duck: (not to mention the fluteplayer and other Automata). http://www.swarthmore.edu/Humanities/pschmid1/ essays/pynchon/vaucanson.html, 1999. [TWAB12] Tee, Benjamin C-K., Chao Wang, Ranulfo Allen und Zhenan Bao: An electrically and mechanically self-healing composite with pressure- and flexion-sensitive properties for electronic skin applications. Nature Nanotechnology, 7(12):825–832, 2012. [WWW13] Wu, W., X. Wen und Z. L. Wang: Taxel-Addressable Matrix of Vertical-Nanowire Piezotronic Transistors for Active and Adaptive Tactile Imaging. Science, 340(6135):952– 957, 2013. 16