Humanoide Roboter - Aktueller Stand der

Transcription

Humanoide Roboter - Aktueller Stand der
Humanoide Roboter - Aktueller Stand der
Forschung und Zukunft
Stefan Profanter ([email protected])
1. September 2013
Seminar: Geist - Gehirn - Maschine
Sommersemester 2013
Technische Universität München
Carl von Linde - Akademie
i
Das Hauptthema dieser Seminararbeit ist die Forschung und Entwicklung Humanoider
Roboter weltweit. Nach einer kurzen Einführung und geschichtlichen Überblick über diverse
Projekte der letzten Jahrhunderte wir der Schwerpunkt vor allem auf den aktuellen Stand
der Forschung gelegt sowie ein Ausblick in die Zukunft Humanoider Roboter gewagt. Als
aktueller Forschungsstand werden dabei vor allem Gemeinsamkeiten von Projekten aus
den letzten Jahren hervorgehoben. Zukünftigen Entwicklungen sind schwer vorherzusehen,
da der Bereich der Robotik-Forschung von vielen Faktoren abhängig ist und stark von
anderen Forschungsgebieten beeinflusst wird. Diese Ausarbeitung soll deshalb eine kleine
Vorstellung davon geben, was in den nächsten zehn bis 40 Jahren alles auf uns zukommen
kann.
Inhaltsverzeichnis
1 Was sind Humanoide Roboter
1
2 Die ersten Humanoiden Roboter
1
3 Aktueller Stand der Forschung
3.1 Die bekanntesten Roboterprojekte
3.1.1 ASIMO . . . . . . . . . . .
3.1.2 ARMAR 3 . . . . . . . . .
3.1.3 iCub . . . . . . . . . . . . .
3.2 Telepräsenzroboter . . . . . . . . .
3.3 Androide . . . . . . . . . . . . . .
3.4 Zusammenfassung . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
3
3
5
6
7
8
9
4 Zukunft Humanoider Roboter
4.1 Mobilität & Stromversorgung . . .
4.2 Sensoren & Aktoren . . . . . . . .
4.3 Kognition & Künstliche Intelligenz
4.4 Zusammenfassung . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
12
12
13
14
14
ii
1 Was sind Humanoide Roboter
Roboter sind im Allgemeinen technische Apparaturen, die dazu dienen, dem Menschen Arbeit abzunehmen oder ihn bei der Arbeit zu unterstützen. Sie bestehen aus einem mechanischen Grundgerüst,
meist mit verschiedenen Gelenken, um mit der Umgebung zu interagieren. Dieses mechanische Grundgerüst wird mit Sensoren und Aktoren ausgestattet, die von einem Computerprogramm ausgewertet
beziehungsweise gesteuert werden. Die Robotics Industries Association definiert Roboter wie folgt:
Ein Roboter ist ein programmierbares Mehrzweck-Handhabungsgerät für das Bewegen von
Material, Werkstücken, Werkzeugen oder Spezialgeräten. Der frei programmierbare Bewegungsablauf macht ihn für verschiedenste Aufgaben einsetzbar.
Das latein-altgriechische Wort Humanoid“ (lat. homo ,Mensch‘ und altgr. eidos ,Gestalt‘) klassifiziert
”
alle Lebewesen und Maschinen, die ein menschenähnliches Erscheinungsbild aufweisen. Primäre Klassifizierungsmerkmale sind der aufrechte Gang auf zwei Beinen, ein Torso als zentrales Element, an
dem sich die Beine, mindestens ein Kopf und Arme befinden.
Somit sind Humanoide Roboter definiert als technische Apparaturen oder Maschinen, die der menschlichen Gestalt nachempfunden wurden und den Bewegungsablauf des Menschen nachahmen.
2 Die ersten Humanoiden Roboter
Erste Ideen zu Humanoide Roboter reichen weit vor das Computerzeitalter zurück. Die erste bekannte
Aufzeichnung stammt von Leonardo da Vinci aus dem Jahr 1495; da Vincis Ritter-Roboter war durch
geschickte Anordnung von Seilzügen und Rädern in der Lage, zu sitzen, zu stehen, die Arme zu bewegen
und das Visier zu öffnen [Ros06].
Knapp drei Jahrhunderte später konstruierte Jacques de Vaucanson innerhalb von vier Jahren den
Flötenspieler, welchen er im Jahr 1738 der Öffentlichkeit präsentierte. Diese menschengroße Holzstatue
konnte zwölf verschiedene Musikstücke auf einer Flöte spielen und dabei die Bewegungen der menschenähnlichen Lippen, Hände und Lunge imitieren. Ein Jahr später präsentierte de Vaucanson einen
Tamburin Spieler und eine mechanische Ente, die Körner verdauen konnte [Sch99].
Der Begriff Roboter“ wurde erst im Jahr 1921 geprägt, als Karel Čapek, ein tschechischer Schrift”
steller, in seinem Theaterstück R.U.R (Rossum’s Universal Robots) eine Geschichte über künstliche
Menschen erzählte. Weitere Berühmtheit erlangte der Begriff durch den 1927 veröffentlichten Film
Metropolis“ von Fritz Lang in dem einem weiblichen Maschinenmenschen im Laufe des Films täu”
schend menschenähnliche Gestalt verliehen wurde.
Nach dem Flötenspieler von de Vaucanson dauerte es 200 Jahre, bis der erste funktionierende Roboter
im Jahr 1939 präsentiert wurde, welcher dem heutigen Entwicklungsstand ähnelt: Der 2,1m große und
120,2kg schwere Roboter Elektro“ (Abb. 1) hatte ein humanoides Aussehen, konnte per Sprachsteue”
rung gehen, ca. 700 (aufgenommene) Wörter sprechen, Zigarette rauchen, Ballons aufblasen und Kopf
und Arme bewegen. Das Video 1 der originalen Vorführung zeigt seine erstaunlichen Fähigkeiten.
Ab dem Jahr 1973, in dem die Waseda University aus Tokio den Wabot-1 präsentierte, wurden beinahe
jährlich neue Humanoide Roboter von verschiedenen Forschungseinrichtungen und Firmen vorgestellt.
Wabot-1 war in der Lage zu gehen, mit einer Person auf Japanisch zu kommunizieren, Entfernungen
1
http://youtu.be/T35A3g_GvSg
1
Abbildung 1: Roboter Elektro aus dem Jahr 1939. (Quelle: Scott Schaut/Mansfield Memorial Museum)
mit Hilfe von externen Sensoren zu messen und hatte bereits künstliche Ohren, Augen und einen
Mund.
Einer der bekanntesten Roboter: ASIMO“ (Abb. 2) wurde im Jahr 2000 von Honda präsentiert und
”
entspricht in Hinblick auf die mechanischen Eigenschaften nahezu dem heutigen Entwicklungsstand.
In der darauf folgenden Zeit konzentrierten sich Forschungseinrichtungen vor allem auf die Weiter-
Abbildung 2: Roboter ASIMO von Honda aus dem Jahr 2000. (Quelle: Wikipedia/Vanillase)
entwicklung der künstlichen Intelligenz, unter anderem der besseren Verarbeitung von Wissen und
intuitiveren Kommunikation mit dem Menschen, sowie auf die Verfeinerung und Optimierung von
Bewegungsabläufen.
3 Aktueller Stand der Forschung
Das folgende Kapitel soll einen Überblick über den aktuellen Stand der Forschung in der Humanoiden
Robotik bieten. In vergangenen Jahrzehnten wurden hauptsächlich Industrieroboter mit fest vorprogrammierten Bewegungsplänen entwickelt. Seit einigen Jahren geht diese Entwicklung immer mehr
2
in die Richtung der adaptiven Roboter welche sich robust in dynamische Umgebungen verhalten und
hin zu Robotern, die immer mehr kognitive Fähigkeiten und Intelligenz besitzen. Dies führte dazu,
dass die Robotik immer mehr zu einem interdisziplinären Forschungsbereich zwischen Ingenieuren
und Entwicklern, Neurologen, Psychologen, Linguisten und sogar Philosophen und Musikern wurde
beziehungsweise wird [DT12].
Aufgrund der relativ großen Anzahl an verschiedenen Projekten wird im folgenden Abschnitt versucht,
einige der bekanntesten und wichtigsten Roboter-Projekte der letzten Jahre jeweils vorzustellen und
dabei wichtige Errungenschaften hervorzuheben. Dabei gilt zu beachten, dass Forschungsgruppen sich
meist auf ein spezielles Gebiet der Humanoiden Robotik, wie z.B. der Kognition, Kommunikation oder
Aussehen und Bewegungsablauf konzentrieren und versuchen, dieses Problem unabhängig von anderen
Forschungsgruppen zu lösen. Der letzte Teil des Kapitels bietet deshalb eine Übersicht über die vorher
vorgestellten Roboter und eine Zusammenfassung des aktuellen Forschungsstandes.
3.1 Die bekanntesten Roboterprojekte
In den folgenden Unterkapiteln werden einige der bekanntesten Roboterprojekte vorgestellt. Diese
geben einen Einblick darüber, auf welchem Stand der Entwicklung sich aktuelle Humanoide Roboter befinden und woran derzeit geforscht wird. Diese Auflistung ist aufgrund der großen Anzahl an
verschiedenen Projekten keineswegs vollständig und stellt eine willkürliche Auswahl dar.
3.1.1 ASIMO
ASIMO ist ein zweibeiniger Humanoider Roboter und wurde von Honda im Jahr 2000 entwickelt (siehe
Abb. 2). ASIMO ist ein Akronym für Advanced Step in Innovative Mobility“.
”
Honda forscht bereits seit 1986 an der Entwicklung Humanoider Roboter, dies (und die Entwicklung
des P1) wurde aber bis zur Veröffentlichung des P2 1996 geheim gehalten. Seitdem entwickelte Honda
an zwei direkten Nachfolgern des P2, dem P3 und P4 sowie ab 2000 an ASIMO. In Tabelle 1 werden
die verschiedenen Modelle gegenübergestellt.
Die Entwickler bei Honda experimentierten mit verschiedenen Roboter-Größen und fanden dabei heraus, dass die optimale Größe für einen mobilen Assistenten zwischen 120cm und der durchschnittlichen
Größe eines erwachsenen Menschen (175cm 2 ) liegt um Türgriffe oder Lichtschalter zu betätigen.
Wie die meisten aktuellen Roboter ist auch ASIMO mit einer wieder aufladbaren Batterie ausgestattet
und somit zumindest für wenige Stunden unabhängig von einer externen Stromversorgung.
Bemerkenswert bei ASIMO ist unter anderem, dass er aufgrund der komplexen Berechnung des Zero
”
Moment Point“ in der Lage ist, das Gleichgewicht zu erhalten und beim Rennen sogar für ca. 80ms
beide Beine keine Bodenberührung haben, ohne dass ASIMO umfällt. Der Zero Moment Point“ ist
”
jener Punkt bei dem die aktuelle dynamische Geschwindigkeit des Roboters und die Berührungspunkte
mit dem Boden keine horizontale Kraft bewirken und somit der Roboter ausbalanciert ist. Wird der
Roboter während seiner Bewegung gestoßen, ist er damit sogar in der Lage, dies auszugleichen und
sich weiterzubewegen.
ASIMO besitzt mehrere verschiedene Sensoren, um bewegte Objekte, Körperhaltung, Gesten, die Umgebung, Laute und Gesichter zu erkennen. Dadurch ist der Roboter in der Lage, mit Menschen auf
2
http://de.wikibooks.org/wiki/Mensch_in_Zahlen
3
Gewicht
Höhe
Gehgeschw.
tragbare
Last
Betriebsdauer
Freiheitsgrade
P1
(1993)
175 kg
191.5 cm
30
P2
(1996)
210 kg
182.0 cm
2 km/h
P3
(1997)
130 kg
160.0 cm
2 km/h
5 kg/Hand
2 kg/Hand
15 Minuten
25 Minuten
30
28
P4
(2000)
80 kg
160.0 cm
2 km/h
34
ASIMO
(2000)
52 kg
120.0 cm
1.6 km/h
30 Minuten
ASIMO
(2011)
48 kg
130.0 cm
2.7 km/h (gehen)
9 km/h (rennen)
1 kg (tragend)
10kg (in Wagen)
1 Stunde (gehen)
26
57
Tabelle 1: Humanoide Roboter von Honda. (Quelle Wikipedia und [Hon11])
natürlichem Wege zu kommunizieren. Zwei Kameras im Kopf dienen dazu als Augenersatz, wodurch
Bewegungen, Entfernung und Richtung erkannt werden können und somit der Roboter Personen direkt
ansprechen oder menschliche Gesten erkennen kann. In Kombination mit Mikrofone und Sprachverarbeitung kann ASIMO Sprachbefehle verarbeiten und erkennen, ob ein gegenüberstehender Mensch
zur Begrüßung Händeschütteln anbietet, ob er winkt, oder auf ein bestimmtes Objekt zeigt. Durch
Verwendung mehrerer Mikrofone kann ASIMO auch die Richtung eines Geräusches erkennen und den
Kopf entsprechend zur Geräuschquelle drehen. Er kann außerdem bis zu zehn verschiedene Gesichter
oder Objekte erkennen und sich deren Namen merken (siehe http://youtu.be/18wSJs6LIc0).
Weitere Errungenschaften, wie z.B. Kollisionen mit Menschen vermeiden, gehen auf unebenen Flächen,
in Zeichensprache sprechen, springen (ein Bein, zwei Beine) oder einen Ball stoßen können auch unter
diesem verlinkten Video 3 bestaunt werden. Neueste Forschungen von Honda konzentrieren sich vor
allem auf die bessere Zusammenarbeit zwischen verschiedenen ASIMO Robotern und die Zusammenarbeit mit Menschen.
Ähnlich zu Hondas ASIMO besitzt auch Albert Hubo“ zwei Beine, einen Torso, zwei Arme und
”
einen Kopf. Er basiert auf den Roboter KHR-3 HUBO“ welcher vom Korea Advanced Institute of
”
Science and Technology (KAIST) entwickelt und 2005 veröffentlicht wurde. Die Leistung von Hubo ist
vergleichbar mit jener des ASIMO, dabei gibt es zwei wesentliche Unterscheidungsmerkmale: Albert
Hubo besitzt fünf Finger pro Hand und kann diese unabhängig voneinander bewegen. ASIMO hingegen
kann seine fünf Finger nur abhängig voneinander öffnen und schließen. Der Name Albert Hubo“ beruht
”
auf das Aussehen des Roboters: sein Kopf ist eine Androiden Nachbildung von Albert Einstein (siehe
3
http://youtu.be/zul8ACjZI18
4
Abb. 3). Dadurch kann er eine große Anzahl an verschiedenen Gesichtsausdrücken nachbilden 4 .
Abbildung 3: Roboter Albert Hubo“ mit einem Androiden Kopf, welcher Albert Einstein nachempfunden
”
wurde. (Quelle: Wikipedia)
3.1.2 ARMAR 3
ARMAR 3 wird vom Karlsruher Institut für Technologie entwickelt. Ziel dabei ist, einen vollig autonom handelnden und lernfähigen Haushaltsroboter zu schaffen, der sich in einer beliebigen Küche
zurechtfindet und dort alltägliche Aufgaben erledigen soll 5 . Im Jahr 2000 wurde die erste Version
von ARMAR gebaut und bestand aus einer mobilen Plattform mit 25 mechanischen Freiheitsgraden
(DoFs). Die Nachfolgerversion entstand 2002 und war in der Lage, sich vor-, seitwärts- und zurück zu
beugen. Bei ARMAR-IIIa aus dem Jahr 2006 wurde der Schwerpunkt vor allem auf die Nachempfindung der sensorischen und sensormotorischen Fähigkeiten des Menschen gelegt.
Nach aktuellem Entwicklungsstand ist ARMAR III (siehe Abb. 4) in der Lage, Objekte Aufgrund
ihrer Textur oder Farbe zu erkennen und Sprachbefehle zu verarbeiten. Er kann z.B. Kommandos
wie Bringe mir die grüne Tasse vom Regal“ ausführen. Der Humanoide Roboter kann auch bereits
”
die Spülmaschine auf Befehl hin öffnen, bestimmte Objekte einräumen und die Spülmaschine wieder
schließen. Bei unbekannten Objekten fragt ARMAR nach und merkt sich dann die Bezeichnung des
Objektes; siehe dazu auch das verlinkte Video 6 . ARMAR kann nicht nur Bezeichnungen von Objekten
lernen, sondern auch Bewegungsabläufe nachahmen, die von einem Menschen vorgeführt wurden.
ARMAR ist auch bereits in der Lage, autonom die Küche aufzuräumen, also falsch platzierte Objekte
an die richtige Position zu stellen. Der Nachfolger, ARMAR IV besitzt anstatt Räder zwei Beine zur
Fortbewegung.
Laut einem der Entwickler, Kosta Schinarakis, wird es aber noch 20 bis 30 Jahre dauern, bis der
Roboter für die geplanten Aufgaben voll einsatzfähig ist [Plu12].
4
http://youtu.be/tF-ZnvxStrQ
http://his.anthropomatik.kit.edu/241.php
6
http://www.youtube.com/watch?feature=player_embedded&v=SHMSyYLRQPM
5
5
Abbildung 4: ARMAR-IIIb (links) und ARMAR-IIIa (2008, Quelle: http://his.anthropomatik.kit.edu/241.php)
3.1.3 iCub
iCub wurde vom RobotCub Konsortium entwickelt und ist ein ein Meter großer Humanoider Roboter
welcher vor allem für die Erforschung der menschlichen Kognition und Künstlichen Intelligenz eingesetzt wird (siehe Abb. 5). Das RobotCub Konsortium ist ein Zusammenschluss mehrerer europäischer
Universitäten 7 .
Abbildung 5: Der Kindergroße Humanoide Roboter iCub. (Quelle: RobotCub Konsortium)
Der gesamte iCub Roboter ist OpenSource, das heißt dass alle Baupläne, elektronische Schaltpläne
sowie die Software frei verfügbar sind. Das Akronym cub“ steht dabei für Cognitive Universal Body“.
”
”
Die Größe des iCub ist ähnlich zu der eines 3,5 Jahre alten Kindes, da ein Hauptziel der Entwicklung
darin lag, die den Kindern nachempfundenen kognitiven Lernalgorithmen durch Interaktion mit der
Umwelt zu analysieren und zu verbessern. Dabei wurde iCub von Beginn an nicht als autonomer
Roboter konzipiert: er besitzt keine Batterien zur Stromversorgung.
Aktuell existieren ungefähr 25 iCubs in verschiedenen Laboren hauptsächlich in Europa, aber auch in
7
http://www.icub.org/
6
den USA, Türkei und Japan. iCub findet eine so hohe Verbreitung vor allem aufgrund der OpenSource
Lizenz und dem relativ günstigen Preis von 250.000e. Dadurch existieren diverse Forschungsprojekte,
die iCub verschiedene Fähigkeiten beibringen 8 :
• krabbeln, wobei visuelle Bodenmarker verwendet werden
9
• Pfeilschießen auf eine Zielscheibe mit autonomer Lernfunktion
• Ausdrücken von Emotionen
10
11
• Greifen von kleinen Objekten wie z.B. Bälle, Flaschen
12
3.2 Telepräsenzroboter
Auch im Bereich der Telepräsenz geht der Wandel immer mehr von einfachen fahrenden Bildschir”
men“ hin zu menschenähnlichen Robotern. Vor allem die Luft- und Raumfahrt stellt ein wichtiges
Forschungsgebiet dar. Die dabei entwickelten Roboter sollen im Weltall Astronauten unterstützen und
dabei aus der Ferne gesteuert werden können. Hier bietet der menschenähnliche Aufbau vor allem
Vorteile in der Steuerkomplexität und der Verwendung von Werkzeugen: die meisten Werkzeuge, die
wir Menschen verwenden sind an unseren menschlichen Händen und Bewegungen angepasst. Somit
wird es für menschenähnlich aufgebaute Roboter deutlich einfacher, diese Werkzeuge zu verwenden.
Damit der Operator ausreichend Informationen zur aktuellen Umgebung erhält und mit dieser interagieren kann, besitzen Telepräsenzroboter meist verschiedene Sensoren und Kameras, um den Status
der Umgebung aufzuzeichnen und zu Übertragen.
Am Deutschen Zentrum für Luft- und Raumfahrt (DLR) wird einer der bekanntesten Robonauten
entwickelt: Justin (Abb. 6). Justin wird mit dem Ziel entwickelt, in einigen Jahren auf einem eigenen
Satelliten montiert durch den Orbit zu navigieren und durch Fernsteuerung andere Satelliten zu reparieren. Justin ist dabei der Name des Torso inklusive Kopf und Arme. Das DLR testet Justin seit
ein paar Jahren auf einem fahrbaren Aufbau (Rollin’ Justin). Er hat einen Aktionsradius von 1,7m
und wiegt ca. 45kg, dabei hat er eine Tragkraft von ca. 15kg. Aktuell entwickelt das DLR auch am
sogenannten DLR-Biped, einem Aufbau mit zwei Füßen.
Auch die NASA forscht an Humanoiden Robotern für den Einsatz im Weltall unter dem Projektnamen
Robonaut. Ähnlich zu Justin vom DLR bestehen die Robonauten aus einem Torso, Kopf und zwei
Arme (siehe Abb. 7) und werden aus der Ferne gesteuert. Der aktuellste Robonaut R2 wurde im
Februar 2011 in der ISS (International Space Station) montiert, um zu untersuchen, wie sich der
Roboter im schwerelosen Raum verhält. Momentan ist R2 an einer fixen Position befestigt und kann
sich nicht durch die ISS bewegen, außerdem fehlen noch die nötigen Abschirmungen, damit er sich
außerhalb der ISS im Weltall aufhalten kann.
R2 ist nicht immer auf einem Operator angewiesen: er kann eine Aufgabe zugewiesen bekommen und
diese dann autonom mit periodischen Statusüberprüfungen ausführen. Für Ende 2013 wurde bereits
geplant, Füße zum Klettern und ein Batterie-Pack an die ISS zu liefern und diese an den dort bereits
8
http://en.wikipedia.org/wiki/ICub
http://youtu.be/JRqdIFCIZd8
10
http://youtu.be/QCXvAqIDpIw
11
http://youtu.be/qsrs0e_9iX8
12
http://vimeo.com/51011081
9
7
Abbildung 6: Rollin’ Justin entwickelt vom DLR (Quelle: http://robotsfuture.blogspot.it)
installierten Roboter zu montieren. In Zukunft soll Robonaut 2 vor allem im Außenbereich der ISS
Astronauten bei ihrer Arbeit unterstützen.
Abbildung 7: Robonaut 2 in der ISS bei seinen ersten Funktionstests (Quelle: NASA)
3.3 Androide
Androide sind eine spezielle Untergruppe Humanoider Roboter, welche den Menschen täuschend ähnlich sehen und sich wie Menschen verhalten. Dabei wird vor allem das menschliche Gewebe und das
Gesicht so gut als möglich nachgebildet. Auch der Körperbau entspricht dem eines Menschen.
Eine abstrakte Unterscheidung zwischen Androiden und gewöhnlichen Humanoiden Robotern erfolgt
durch die Betrachtung des Uncanny-Valley“-Phänomens. Dieses misst die Akzeptanz eines mensch”
lichen Betrachters gegenüber eines Roboters: Besitzt ein menschenähnlicher Roboter noch deutliche
Kennzeichen dafür, dass es sich um einen Roboter handelt (wie z.B. metallische Oberfläche oder
Plastik-Abdeckungen), so wird dies als positiv und angenehm empfunden. Nimmt die Menschenähnlichkeit ab einen gewissen Punkt weiter zu, wirken die Roboter gruselig und ungewohnt und die Akzeptanz nimmt schnell bis zu einem Tiefpunkt ab. Nimmt die Menschenähnlichkeit und Perfektion
8
stark zu, steigt die Akzeptanz wieder. In diesem Bereich spricht man von Androiden.
Im Folgenden werden die bekanntesten Androiden kurz vorgestellt. Die entsprechenden Absätze wurden mit Online-Videos verlinkt, um einen Eindruck über die Bewegungsweise der Roboter zu gewinnen.
Der japanische Wissenschaftler und Professor Hiroshi Ishiguro ist ein Pionier im Bereich der Androiden
und entwickelte seit 2005 bereits mehrere sehr menschenähnliche Roboter. Sein erstes Projekt war der
weibliche“ Android Repliee Q1 (Abb. 8(a)). Die Haut von Repliee Q1 besteht aus gefärbtem Silikon.
”
Dieser Android kann Sprachbefehle wahrnehmen, darauf reagieren und sich dabei wie ein Mensch
gestikulieren (siehe auch http://youtu.be/d13nDVfw0rI).
Darauf folgend entwickelte Ishiguro im Jahr 2009 den sogenannten Geminoid, welcher das identische
Aussehen wie sein Entwickler hat (Abb. 8(b)). Dieser Geminoid kann seinen Oberkörper und den
Kopf bewegen, sowie menschliche Gesichtsausdrücke nachahmen. Er sieht dabei Ishiguro verblüffend
ähnlich: http://youtu.be/5ajmy0_QlD0. Alle Geminoide wurde dazu entwickelt, um zu Untersuchen,
wie sich ein Mensch gegenüber einem Androiden verhält und ob diese akzeptiert werden. Die Geminoide
wurden zu diesem Test aus der Ferne über Tracking-Systeme von einem anderen Menschen gesteuert.
Auch eine weiterentwickelte weibliche Version des Geminoid, die Geminoid F“ (Abb. 8(c)) kann
”
menschliche Gesichtsausdrücke nachahmen, wobei sich dieser Android noch realistischer als das Vorgängermodel verhält: http://youtu.be/9q4qwLknKag.
Der aktuellste Geminoid aus dem Jahr 2011, Geminoid DK“ besitzt sogar Barthaare (Abb. 8(d)):
”
http://youtu.be/NSLe7xrP4jQ.
3.4 Zusammenfassung
Es gibt eine Vielzahl an verschiedenen Humanoiden Robotern mit sehr unterschiedlichen Aussehen.
Dies zeigt, dass das Feld der Robotik viel Freiheit in der Entwicklung und dem Erscheinungsbild des
Roboters bietet.
Eine gemeinsame Basis der Roboter ist die Verwendung von verschiedenen Sensoren zur Wahrnehmung
der Umwelt.
Einer der wichtigsten und zugleich aufwändigsten Sensoren ist dabei die Kamera. Kameras liefern
kontinuierlich Bilder welche so schnell als möglich ausgewertet werden müssen, um auf das Gesehene zu
reagieren. In den letzten Jahren ging die Entwicklung dabei immer mehr von der einfachen Kamera hin
zu Stereo-Kamerasystemen welche die Verarbeitung der Umgebung in 3D ermöglichen. Das Blickfeld
dieser Kameras ist aktuell noch deutlich kleiner (60◦ horizontal, 45◦ vertikal [DT12]) als das des
Menschen (160◦ horizontal, 135◦ vertikal).
Im Bereich der Berührungssensoren wurden speziell im Jahr 2013 neure Errungenschaften erreicht:
Zhong Lin Wang, ein Professor am Georgia Institute of Technology, entwickelte einen flexiblen, transparenten, der menschlichen Haut ähnlichen Sensor, welcher Robotern erlaubt, die Berührungsstärke
und den Berührungsort zu bestimmen [WWW13]. Dies ermöglicht Robotern beim Greifen noch größere Sensitivität und bietet weitere interessante Anwendungsgebiete in der Mensch-Roboter-Interaktion,
wie z.B. die Erkennung des Gemütszustandes: Ist man etwa verärgert oder irritiert, drückt man stärker
auf einen Touchscreen, fühlt man sich fröhlich, berührt man ihn rhythmischer.
9
(a) Repliee Q1 (2005)
(b) Geminoid (rechts) mit seinem Schöpfer (links)
(2009, Makoto Ishida)
(c) Geminoid-F (links) und sein Vorbild (rechts) (2010,
Osaka University)
(d) Geminoid-DK (2011, www.geminoid.dk)
Abbildung 8: Diese Androiden sehen Menschen verblüffend ähnlich und können auch menschliche Gesichtsausdrücke nachahmen.
10
Mikrofone werden bereits seit mehreren Jahrzehnten eingesetzt, um Geräusche oder Stimmen wahrzunehmen. Die vergrößere Rechenleistung in den letzten Jahren erlaubte auch hier Verbesserungen: durch
Verwendung mehrerer Mikrofone und entsprechender Berechnungen ist es möglich, Geräuschquellen
(wie z.B. Stimme) zu isolieren und einzeln zu Verarbeiten (siehe auch Hondas Roboter HEARBO 13 ).
Eine Gemeinsamkeit, die alle vorher genannten Roboter und Homanoiden haben, ist die Verwendung
von elektronischen Gelenk-Motoren. Die Entwicklung geht aber auch in Richtung der hydraulischen
und pneumatischen Aktoren wie z.B. bei dem von Anybot entwickelten Roboter Dexter (2008). Boston Dynamics entwickelte 2011 den PetMan welcher pneumatische Aktoren verwendet und dadurch
eine noch menschenähnlichere Gangart vorweist (siehe http://youtu.be/tFrjrgBV8K), auch wenn
zweibeinige Roboter aktuell noch kleine Schwierigkeiten im Gleichgewicht haben. Festo entwickelte
2007 den Airic’s arm , einen Roboter Arm, der pneumatische Muskeln verwendet und dadurch Be”
”
wegungen mit großer Anzahl an Freiheitsgraden vereinfacht und menschenähnlicher ausführen kann 14 .
Die Integration all dieser Sensoren und Aktoren in ein gemeinsames System scheitert momentan am
Platzbedarf und der benötigten Rechenleistung. Vor allem das Gewicht der Batterien, Rechner, Elektronik und Gelenke erschwert Bewegungsabläufe und verkürzt die Laufzeit des Roboters.
Immer mehr Rechenleistung wird auch für das Gehirn“ des Roboters, also der Wissensverarbeitung
”
und Entscheidungsfindung benötigt. Wurden früher vor allem vom Programmierer fest definierte Symbole durch Regeln manipuliert (Cognitivism), werden heute immer mehr Systeme eingesetzt, die auf
dynamische Änderungen in der Umgebung besser reagieren (Emergent Systems) [Pro12]. Emergente
Systeme haben eine starke Verbindung zwischen dem Gedächtnis und dem Körper des Systems mit
dem Hintergrundgedanken, dass Kognitive Fähigkeiten ein Zusammenspiel zwischen Körper und Gedächtnis sind. Pezzulo Giovanni vom Institute of Cognitive Sciences and Technologies in Italien fand
bei einem Experiment heraus, dass Menschen, die nach Zufallszahlen gefragt wurden und währenddessen den Kopf von links nach rechts schütteln sollten, zu kleineren Zahlen tendierten, wenn der Kopf
von links nach rechts bewegt wurde, als bei der Bewegung von rechts nach links [PBC+ 11].
Roboter sind auch bereits in der Lage, mit Hilfe von neuronalen Netzwerken zu lernen und dieses
Wissen wiederzugeben: schlägt eine Bewegung oder eine bestimmte Aktion fehl, so wird diese Aktion
beim nächsten Versuch leicht abgewandelt und erneut versucht. Bei einem Erfolg werden die Schritte
abgespeichert und für zukünftige Bewegungen verwendet.
Aktuelle Roboter haben ihre Stärken vor allem in der sogenannten weichen künstlichen Intelligenz“,
”
in der die Roboter gleiche, fest definierte Aufgaben in statischen Umgebungen ausführen und dabei
kaum Flexibilität aufweisen. In den letzten Jahren wurden aber immer mehr Systeme für harte KI“
”
präsentiert: sie reagieren auf Menschen und verhindern dadurch Kollisionen oder Verletzungen (siehe
Hondas ASIMO).
Aufgrund der beschränkten Kognition und Intelligenz sind noch keine wirklichen sozialen Dialoge mit
Robotern möglich, da sie kein menschliches Bewusstsein und eigenen Willen haben. Ein klarer Vorteil
von Roboter gegenüber Menschen ist hingegen der schnelle Wissensaustausch über den hohen Grad
an Vernetzung: Roboter können neues Wissen erlernen und dies untereinander zur Verfügung stellen.
Somit hat ein Roboter eine weitaus größere Wissensbasis als Menschen. Genau dieser Wissensaustausch
wird aktuell im RoboEarth Projekt erforscht und entwickelt 15 . Es fehlt allerdings vor allem noch an
13
http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/hearbo-a-robot-with-superhearing
http://www.festo.com/cms/en_corp/9785.htm
15
http://www.roboearth.org/
14
11
den entsprechenden Algorithmen zur Wissenssammlung und zur Auswertung des verfügbaren Wissens,
um die gewünschte Antwort zu finden.
Humanoide Roboter werden heutzutage vorwiegend für Demonstrationszwecke oder z.B. ServiceAnwendungen, Museumsführer, Testobjekte im All oder Hollywood-Streifen eingesetzt. Auch im Bereich der Medizin werden Humanoide Roboter zu Testzwecken eingesetzt, wie z.B. der Roboter Kaspar,
welcher autistischen Kindern die Interaktion mit anderen Kindern erleichtern soll 16 . Auf verschiedenen Wettkämpfen (DARPA Robotics Challenge, RoboCup) müssen Roboter miteinander gegen andere
Roboter antreten oder für Roboter komplexe Aufgaben autonom lösen können. Aufgrund der strikten
vordefinierten Testbedingungen bei den Wettkämpfen dienen diese meist als Maßstab für den aktuellen
Entwicklungsstand.
4 Zukunft Humanoider Roboter
Im vorherigen Kapitel wurden aktuelle Errungenschaften im Bereich der Humanoiden Robotik präsentiert. Diese zeigen bereits, dass die Roboter-Forschung in den letzten Jahren, im Vergleich zu den
Jahren davor, große Fortschritte erreichte. Dies ist vor allem auf die Neuentwicklungen im Bereich der
Elektronik und Feinmechanik zurückzuführen, die zum einen leistungsfähigere Bauteile ermöglichten,
und zum anderen den Platzbedarf verringerten. Ein weiterer treibender Faktor ist die stetig größer
werdende Rechenleistung auf immer kleinerer benötigter Fläche. Dieser Entwicklungstrend wird sich in
Zukunft mit hoher Wahrscheinlichkeit fortsetzen, wenn nicht sogar beschleunigen. Doch was bedeutet
dies für die Zukunft der Humanoiden Roboter?
In diesem Kapitel wird versucht, einen kleinen Ausblick in die Zukunft der Humanoiden Robotik und
der Künstlichen Intelligenz zu geben.
4.1 Mobilität & Stromversorgung
Eines der aktuellen Probleme ist die eingeschränkte Mobilität: Roboter können sich zurzeit bis zu
einer Stunde (ASIMO) autonom und ohne externer Stromversorgung bewegen, bis sie wieder aufgeladen werden müssen. Hier ist vor allem die Automobilindustrie ein treibender Faktor. Durch die
voranschreitende Entwicklung von elektrisch angetriebenen Autos werden immer stärkere Batterien
benötigt, die dabei so kompakt und leicht als möglich sein sollten. Außerdem sollten die Akkus schnell
wieder aufgeladen werden können. All diese Faktoren spielen auch in der Robotik eine wichtige Rolle.
Im Jahr 2009 entwickelten Forscher am Massachusetts Institute of Technology (MIT) einen Super-Akku
[KC09]: die auf Basis von Lithiumeisenphosphat entwickelte Batterie hat eine hohe Leistungsdichte
im Vergleich zu aktuellen Akkumulatoren. Weitaus erwähnenswerter ist die sehr kurze Ladezeit dieser
Batterie: Unter Laborbedingungen konnte die Ladezeit von sechs Minuten auf 10 bis zwanzig Sekunden
verringert werden. Mit dieser Technik könnte ein Handy in nur zehn Sekunden vollständig geladen
werden, so die Wissenschaftler. Große Akkus, die derzeit in Autos eingesetzt werden, benötigen aktuell
eine Ladezeit von sechs bis acht Stunden. Der neu entwickelte Akku würde dies auf fünf Minuten
reduzieren. Der neue Akku soll laut den Wissenschaftlern in wenigen Jahren serienreife haben.
16
http://youtu.be/D6gTHPoO9VI
12
4.2 Sensoren & Aktoren
Sensoren sind wichtige Komponenten für Roboter, damit diese die Umwelt wahrnehmen und mit
dieser interagieren können. Außerdem sind Sensoren wichtig, um Änderungen rechtzeitig zu erkennen
und auf diese zu reagieren; befindet sich zum Beispiel ein Mensch in der Nähe des Roboters, muss
dieser entsprechende Vorsicht walten lassen, um den Menschen nicht zu verletzen. Aktuell werden in
Robotern vor allem visuelle, taktile und auditive Sensoren eingesetzt. Ein großer Nachteil beim Einsatz
von Kameras entsteht durch die benötigte Rechenleistung: aktuell verwendete Rechner besitzen zu
wenig Leistung, um das gesamte Kamerabild in voller Auflösung in Echtzeit zu verarbeiten. Die zu
geringe Rechenleistung wirkt sich auch auf die verwendbare Anzahl an vor allem taktilen Sensoren
aus, da dadurch noch mehr Reize aus der Umwelt aufgenommen und verarbeitet werden müssen.
Mit steigender Rechenleistung wird somit auch die Anzahl der Sensoren steigen. Dabei wird vor allem
der Einsatz einer künstlichen Haut immer wichtiger: diese ermöglichen Robotern den genauen Berührungspunkt, die Berührungsstärke, sowie Temperatur und Feuchtigkeit festzustellen. Vor wenigen
Monaten wurde ein vielversprechendes Projekt präsentiert, in dem eine flexible künstliche Haut entwickelt wurde, die genau diese Fähigkeiten besitzt [SBLNS+ 13]. Diese neue Haut ist zehnmal besser als
alle ähnlich existierenden künstlichen Häute, so der Autor Hossam Haick. Durch Veränderung der Materialdicke ist es sogar möglich, die Empfindlichkeit zu variieren. Auch an selbstheilenden Materialien
für die elektrische Haut wird bereits geforscht [TWAB12].
Humanoide Roboter haben aktuell noch keinen Geschmacks- und Geruchsinn, denn sie müssen nicht
essen, wie wir Menschen und für aktuelle Aufgaben müssen auch keine Gerüche wahrgenommen werden. In Zukunft werden Roboter aber immer mehr mit Menschen zusammenarbeiten und hier ist es
wichtig, mehr oder weniger dieselbe Sprache zu verwenden. Damit dies möglich ist, müssen Roboter
über olfaktorische und gustatorische Sinne verfügen. Künstliche Nasen und Zungen wurden bereits
entwickelt und übertreffen dabei sogar bereits die des Menschen [Mah09]. Künstliche Nasen sind in
der Lage, tausende von chemischen Molekülen zu klassifizieren. Diese Sinne sind auch für höhere Level
des kognitiven Prozesses nötig, es können zum Beispiel bestimmte Aktionen mit bestimmten Gerüchen
verbunden werden (Gasgeruch → Gashahn abdrehen).
Bereits seit mehreren Jahren wird an künstlichen Muskeln geforscht. Diese bestehen meist aus Schläuchen, die sich durch Luft- oder Öldruck zusammenziehen, ähnlich den Menschlichen Muskeln. Künstliche Muskeln haben im Vergleich zu rein mechanisch angetriebenen Gelenkten den Vorteil des geringeren Gewichtes und der größeren Designfreiheit (siehe dazu auch Roboter Lara 17 ). Außerdem bieten
künstliche Muskeln größere Flexibilität und sind in der Lage, Energie kurzzeitig zu speichern. Dies ist
vor allem bei der Fortbewegung ein wichtiger Aspekt: Im menschlichen Knie wird beim Gehen Energie
während dem Auftreten gespeichert und beim Abstoßen anschließend wieder abgegeben. Bei aktuellen
Roboter, wie zum Beispiel ASIMO, würde diese Energiespeicherung zu einer deutlichen Energieeinsparung führen. Sogenannte Anthropomimetic Roboter versuchen dabei die Struktur der menschlichen
Knochen, Gelenke, Sehnen und Muskeln nachzubilden mit dem Hintergedanken, dass menschenähnliche Kongnition stark mit dem Aufbau des Körpers zusammenhängt, Stichwort Embodiment (siehe
auch [Pro12]). Der erste Roboter dieser Art wurde an der Technischen Universität München mit dem
Namen ECCEROBOT entwickelt 18 und soll als Grundlage für zukünftige menschenähnliche Entwicklungen dienen.
17
18
http://www.dribblers.de/lara/ueberlara.html
http://eccerobot.org/
13
4.3 Kognition & Künstliche Intelligenz
Nicht nur die Rechenleistung, sondern auch die Größe beziehungsweise Speicherkapazität der Prozessoren an Bord der Roboter sind ein limitierender Faktor: dadurch sind Roboter aktuell nicht in der
Lage, Erinnerungen“ für längere Zeit abzuspeichern. Dies ist vor allem wichtig für Lernerfolge über
”
einem längeren Zeitraum, denn aus Fehlern können die Roboter lernen und optimieren. Genau an
dieser Problemstelle greift das ALIZ-E 19 Projekt an und versucht, die Mensch-Roboter-Interaktion
von möglichen wenigen Minuten auf mehrere Tage auszuweiten. Das Einsatzgebiet dafür ist vor allem
eine Alternative zur Tiergestützten Therapie, eingesetzt zur Linderung der Symptome bei psychiatrischen und neurologischen Erkrankungen und Behinderungen. Die Idee dabei ist, dass der Roboter als
ständiger Begleiter und Kommunikationspartner für den Patienten dienen soll.
Einen anderen Ansatz verfolgt das Human Brain Project 20 , in dem versucht wird, das menschliche
Gehirn in Soft- und Hardware nachzubilden, um zum einen die biologischen Abläufe im Gehirn zu
verstehen, Krankheiten zu bekämpfen und zum anderen revolutionäre neue Roboter zu entwickeln.
Das Projekt hat 2013 begonnen und läuft für vorerst zehn Jahre.
Die Weiterentwicklung der KI soll Robotern unter anderem Bewusstsein und einen eigenen Willen
verschaffen, wodurch der Lernprozess noch weiter beschleunigt werden kann. Diese Faktoren sind aber
auch für die Mensch-Roboter-Interaktion sehr wichtig. Roboter können momentan nur auf einfache
Sprachbefehle mit entsprechenden Aktionen reagieren. Aktuell wird in diesem Bereich ausgiebig geforscht, um auch Gesten und Gefühlsausdrücke des Gegenübers zu erkennen. Die Verbesserung des
semantischen und emotionalen Sprachverständnisses ist dabei nicht nur für die Robotik von großer
Bedeutung (siehe z.B. Apples Siri). Somit werden Roboter in der Lage sein, die Bedeutung von geänderter Lautheit, Irritation, Zuneigung und anderen emotionalen Aspekten zu verstehen und diese in
der eigenen Sprachausgabe anzuwenden. Diverse Forschungsprojekte beschäftigen sich auch mit Gedankenübertragungen, somit wird es in einigen Jahrzehnten unter anderem möglich sein, Roboter nur
mit dem eigenen Gedanken zu steuern.
4.4 Zusammenfassung
Von Szenen wie im Film I, Robot (2004)“ oder Der 200 Jahre Mann (1999)“ ist die Roboterforschung
”
”
noch einige Jahrzehnte entfernt. Es existieren zwar bereits Roboter, die sich menschenähnlich bewegen
(PetMan) oder fast wie Menschen aussehen (Geminoid). Auch im Bereich der Künstlichen Intelligenz
sind in den letzten Jahren bemerkenswerte Fortschritte gelungen, doch das Problem besteht unter
anderem darin, all diese Komponenten in ein Gesamtsystem zusammenzufügen. Dies würde die aktuell
verwendeten Rechenprozessoren deutlich überlasten und zusätzlich die Mobilität einschränken, da
nicht ausreichend Strom zur Verfügung steht. In den kommenden Jahren wird sich die verfügbare
Rechenleistung nach dem Mooreschen Gesetz voraussichtlich alle zwei Jahre verdoppeln und somit
deutlich leistungsfähigere Roboter ermöglichen. Gleichzeitig werden die Bauteile von Jahr zu Jahr
günstiger un immer mehr Hobby-Entwickler interessieren sich für die Humanoide Robotik.
Der Wikipedia-Artikel Future of robotics“ 21 bietet eine Übersicht über verschiedene Aussagen von
”
Wissenschaftlern zu zukünftigen Jahreszahlen und die dazugehörigen Errungenschaften die in der
19
http://www.aliz-e.org/
http://www.humanbrainproject.eu/
21
http://en.wikipedia.org/wiki/Timeline_of_the_future_in_forecasts#Artificial_intelligence_and_
robotics
20
14
Humanoiden Robotik bis dahin vielleicht erreicht werden. Folgende Liste gibt die wichtigsten Punkte
dieser Liste wieder, um einen Eindruck davon zu bekommen, wie weit wir von Robotern entfernt sind,
die von Menschen kaum unterschieden werden können. Die Referenzen zu den jeweiligen Aussagen
können aus dem Wikipedia-Artikel entnommen werden:
2015 – Ein Drittel der US Streitkräfte wird aus Robotern bestehen
2018 - Roboter werden routinemäßig Operationen an Menschen durchführen
2019–2021 – Nanoroboter im menschlichen Körper
2022 – Intelligente Roboter, welche die Umgebung vollständig wahrnehmen, Entscheidungen ausführen und lernen, werden in 30% der Haushalte und Organisationen eingesetzt
2030 – Roboter sind in der Lage, manuelle Arbeiten auf demselben Niveau wie Menschen auszuführen
2034 – Roboter (bzw. Heimautomatisierungssysteme) erledigen die meisten Haushaltsaufgaben
2035 – Erste völlig autonome Roboter-Soldaten
2050 - Robotergehirn“ basierend auf Computern, die 100 Billionen (aktuell 177 Milliarden, Intel
”
i7) Rechenoperationen pro Sekunde ausführen können und mit der menschlichen Intelligenz
konkurrieren können
Professor George Bekey von der University of Southern California ist ein Pionier bei Fragen zur Robotik
und Ethik. Auf [Bek13] veröffentlichte er folgende Gedanken zur Zukunft Humanoider Roboter in
unserer Gesellschaft:
Roboter werden immer mehr Funktionen in der menschlichen Gesellschaft übernehmen: Hausmeister,
Polizei, Türöffner, Straßenkehrer, diverse Wartungsarbeiten, Auslieferungen oder Taxifahren. Auch im
medizinischen Bereich werden immer mehr Roboter für die Pflege oder Operationen eingesetzt werden.
Aufgrund der steigenden Anzahl an Robotern wird die Roboter-Roboter-Interaktion immer wichtiger
werden, damit sich diese zum Beispiel zu Gruppen zusammenschließen können, um Waldbrände zu
löschen oder für das Militär gemeinsame Angriffstaktiken auszuführen.
Auch wir Menschen werden uns verändern und anpassen müssen. Welche gesetzlichen, sozialen und
ethischen Rechte und Pflichten haben die Roboter? Unser Gesetzsystem basiert auf Belohnung und
Bestrafung zur Regulierung des menschlichen Verhaltens. Bestrafung ist aber keine passende Methode
um das Verhalten von Robotern zu regulieren; auch hier müssen wir umdenken. Dazu zählen auch
die Antworten auf folgende Fragen: Was passiert, wenn ein Roboter ein Gesetz verletzt? Wer wird
bestraft? Trägt der Entwickler/Programmierer eine Teilschuld?
Die Robotergesetze von Isaac Asimov sind bereits jetzt nicht mehr vollständig gültig. Sie besagen,
dass Roboter keinen Menschen verletzen dürfen, immer Menschen gehorchen und die eigene Existenz
schützen müssen, ohne dabei die jeweiligen Regeln zu verletzen. Vor allem für den militärischen Einsatz
sind diese Gesetze nicht anwendbar.
Der schnelle Anstieg dieser autonomen Systeme wird auch soziale Probleme mit sich bringen: Roboter
werden immer mehr Arbeiten von Menschen übernehmen. Werden die Systeme nicht rechtzeitig an die
Zusammenarbeit mit Menschen angepasst, wird es zu großer Arbeitslosigkeit und damit zu Aufständen
führen, die die Zerstörung einer großen Anzahl an Robotern zur Folge haben wird. Somit liegt eine
große Last auf den Schultern der Entwickler, die dafür sorgen müssen, dass sich Roboter und Menschen
in unserer Gesellschaft zusammen entwickeln und existieren können.
Humanoide Roboter werden in vielerlei Hinsicht intelligenter, vielseitiger und autonomer sein als wir.
Wir Menschen müssen uns an diese kommende Welt anpassen.
15
Literatur
[Bek13]
Bekey, George: The Future of Artificial Intelligence: Brave New Machines.
http://www.theeuropean-magazine.com/george-bekey--2/
6578-the-future-of-artificial-intelligence, 2013.
[DT12]
Duran, Boris und Serge Thil: Rob’s Robot: Current and Future Challenges for Humanoid Robots. In: Zaier, Riadh (Herausgeber): The Future of Humanoid Robots Research and Applications. InTech, 2012.
[Hon11]
Honda: ASIMO technical FAQ.
asimo-technical-faq.pdf, 2011.
[KC09]
Kang, Byoungwoo und Gerbrand Ceder: Battery materials for ultrafast charging
and discharging. Nature, 458(7235):190–193, 2009.
[Mah09]
Mahmoudi, Esmaeil: Electronic Nose Technology and its Applications. In: International Frequency Sensor Association (Herausgeber): Sensors & Transducers,
Band 8, Seiten 17–25. www.sensorsportal.com, 2009.
[PBC+ 11]
Pezzulo, Giovanni, Lawrence W. Barsalou, Angelo Cangelosi, Martin H.
Fischer, Ken McRae und Michael J. Spivey: The Mechanics of Embodiment: A
Dialog on Embodiment and Computational Modeling. Frontiers in Psychology, 2, 2011.
[Plu12]
Pluta, Werner: Armar hilft in der Küche.
http://www.golem.de/news/
haushaltsroboter-armar-hilft-in-der-kueche-1203-90365.html, 2012.
[Pro12]
Profanter, Stefan: Cognitive Architectures.
http://profanter.me/static/
publications/SeminarCogArch/elaboration.pdf, 2012.
[Ros06]
Rosheim, Mark Elling: Leonardo’s Lost Robots. Springer-Verlag Berlin Heidelberg,
[New York], 2006.
http://asimo.honda.com/downloads/pdf/
[SBLNS+ 13] Segev-Bar, Meital, Avigail Landman, Maayan Nir-Shapira, Gregory Shuster und Hossam Haick: Tunable Touch Sensor and Combined Sensing Platform:
Toward Nanoparticle-based Electronic Skin. ACS Applied Materials & Interfaces,
5(12):5531–5541, 2013.
[Sch99]
Schmidt, Peter: on Jacques de Vaucanson and his Duck: (not to mention the fluteplayer and other Automata). http://www.swarthmore.edu/Humanities/pschmid1/
essays/pynchon/vaucanson.html, 1999.
[TWAB12]
Tee, Benjamin C-K., Chao Wang, Ranulfo Allen und Zhenan Bao: An electrically and mechanically self-healing composite with pressure- and flexion-sensitive properties
for electronic skin applications. Nature Nanotechnology, 7(12):825–832, 2012.
[WWW13]
Wu, W., X. Wen und Z. L. Wang: Taxel-Addressable Matrix of Vertical-Nanowire
Piezotronic Transistors for Active and Adaptive Tactile Imaging. Science, 340(6135):952–
957, 2013.
16