Bayern 2, 17. November 2016

Bis zum Humanoiden ist es noch weit

Künstliche Intelligenz und Robotik: der Stand der Technik
Der Roboter Justin (Foto: DLR)
Der Roboter Justin (Foto: DLR)

Die Künstliche Intelligenz boomt. Und 2016 ist, wie wir aus dieser Sendung erfahren, ein Jahr der Erfolge: Zwei Jahrzehnte nach „Deep Blue“ muss sich auch der weltbeste Go-Spieler von einer Software schlagen lassen. Und Roboter mit menschlichen Fähigkeiten sind immer weiter entwickelt.
Wie intelligent sind Roboter? Können sie Gefühle haben? Werden sie eines Tages unsere Jobs machen? Dies sind einige der Fragen, mit denen sich diese Sendung befasst.

Ein „Meilenstein für die Künstliche Intelligenz“ (Autorin Jeanne Rubner) war im März dieses Jahres zu vermelden: Ein Computer mit der Software AlphaGo besiegte einen der weltbesten Spieler des asiatischen Brettspiels Go, den Koreaner Lee Sedol. Das Spiel Go ist anders als Schach, wo es allein mit der Rechenleistung der Maschine gelingt, die besten Schachspieler zu schlagen, indem sie die möglichen Züge durchspielt. Bei Go gibt es zu viele Möglichkeiten. Der Computer muss lernen. Und dies war bei AlphaGo zum ersten Mal der Fall – mit einer Technologie, von der noch die Rede sein wird. Frank Kirchner, der Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz in Bremen, erläutert in der Sendung, die Software habe auch gelernt, indem sie Spielzüge von Profi-Spielern beobachtet und daraus Strategien abgeleitet hat. Sie habe sich sogar selbst beobachtet und damit die eigene Spielweise verbessert.

Heutige Spitzenprodukte der Robotik

Sozusagen eine Basis-Entwicklung ist Nao, hergestellt von der französischen Firma Aldebaran Robotics, in der Sendung das „Haustier“ genannt: Keine 60 cm groß, mit Kulleraugen und großen Ohren, kann er tanzen, Yoga, Fußball spielen. Flüchtlingskinder lernen mit ihm deutsch, Jugendliche programmieren.
Am Deutschen Zentrum für Luft- und Raumfahrt (DLR) in Oberpfaffenhofen bei München wurde Justin (siehe Bild oben) entwickelt, in der Sendung der „Vielseitige“. Alin Albu-Schäffer, Direktor des DLR-Instituts für Robotik- und Mechatronik, erläutert, das Besondere an Justin seien unter anderem dessen Leichtbauarme. Er ermögliche die „Mensch-Roboter-Kollaboration“, also die Zusammenarbeit mit der Maschine. Justin könne schwierige und gefährliche Aufgaben, wie den Einsatz in einem havarierten Atomkraftwerk, übernehmen. Es gibt ihn mit Beinen oder mit Rollen, seine Hände können greifen.
Der Pflegeroboter Care-O-bot ist der „Hilfsbereite“. Entwickelt und gebaut wird er – nunmehr in der vierten Generation – am Fraunhofer-Institut für Produktionstechnik und Automatisierung in Stuttgart. Die Vorgängerversion ist bereits in einem Stuttgarter Altersheim im Einsatz. In Japan sind Roboter in Altersheimen inzwischen weit verbreitet.
Aus dem Labor des Max-Planck-Instituts für Intelligente Systeme in Tübingen stammt Apollo, der „Feinfühlige“. Er kann einen Stab senkrecht balancieren, bewegt den Unterarm hin und her, und soll einmal laufen, muss seinen Körper daher im Gleichgewicht halten können.
Der humanoide Roboter Roboy – von der Größe eines Kindes – ist der „Flexible“. Seine Besonderheit erklärt in der Sendung Rafael Hostettler von General Interfaces in Garching. Roboys „Knochenskelett“ ist aus Kunststoff, mit „Muskeln“ und „Sehnen“, die aus Elektromotoren, Federn und Seilen bestehen. Seine Zahl an 48 „Muskeln“ (Motoren) ist für einen Roboter beachtlich. Er kann blinzeln und rot werden, soll aber nicht zu menschlich aussehen.
Die „oberste Liga“ (Frank Kirchner) der heutigen Robotik stammt aus den USA: Atlas von der Firma Boston Dynamics, dessen neuste Generation bisher nur auf einem Video zu sehen ist. Frank Kirchner beeindruckt die nicht mehr so anfällige Mechanik, das Laufen durch komplexes Gelände, Zurechtfinden in einer realen Umgebung oder Wiederaufstehen nach Umkippen. 

Industrie 4.0

Weitere Spitzenleistungen sind regelmäßig auf der Messe Automatica in München, dem weltweit größten Branchentreff, zu bewundern, zuletzt im Juni in diesem Jahr: Zum Beispiel einen metallischen Arm, der Weißbier einschenkt, hergestellt von der Augsburger Firma Kuka. Oder einen Transportwagen, der autonom zwischen Messeständen herumkurvt. Das Stichwort dafür heißt „Industrie 4.0“: Maschinen sind vernetzt und reden miteinander. Sie verrichten nicht mehr, wie in der ersten Phase der Industrierobotik, monoton immer dieselbe Arbeit hinter einem Schutzzaun. Sie verlassen ihren Schutzraum und werden flexibel.

Defizite der Maschinen: unbekannte Umgebung und die Feinmotorik

Sehen und Bewegung sind die wesentlichen Schwachstellen der Maschinen, erst recht in einer unbekannten Umgebung, wenn sie eine neue Situation erkennen müssen. Das sei der Heilige Gral, so Alois Knoll, Professor für Robotik an der TU München. Anders als die Maschine kann sich das menschliche Gehirn sofort eine Karte seiner Umgebung konstruieren. Neuronale Netze, die das Gehirn nachahmen, sind immerhin heute bereits sehr leistungsfähig, bestehen aus vielen Millionen Zellen, in teilweise tausenden Schichten angeordnet und miteinander verschaltet. Das Verfahren heißt „Deep Learning“. „Je mehr Schichten man hat in so einem neuronalen Netzwerk, desto besser kann man bestimmte Dinge lernen“, sagt KI-Experte Jürgen Schmidhuber in der Sendung. Durch Füttern mit Daten, beispielsweise Bildern, lernt ein neuronales Netz – ähnlich wie ein Kind –, etwa einen Hund von einer Katze zu unterscheiden und lernt so, wie eine Katze aussieht. Mit Hilfe von Deep Learning hat auch die Software AlphaGo ihre Gewinnstrategie trainiert. 
Auch bei der Feinmotorik sei die Maschine dem Menschen noch klar unterlegen. Sie soll sich ja genauso so gut bewegen können wie ein Mensch. Dieser aber verfügt nach langer Evolution über ca. 600 Muskeln und eine ausgezeichnete Feinmotorik, die besten Laufroboter liegen erst bei einem Zehntel davon (nicht Muskeln, sondern Motoren). Stefan Schaal vom Max-Planck-Institut für Intelligente Systeme in Tübingen erklärt, dass sinnvoll mathematisch beschrieben werden müsse, was ein Roboter lernen soll, also zum Beispiel eine Tasse Kaffee zum Mund führen oder einen Reißverschluss aufmachen. Jeanne Rubner: „Wir verstehen noch nicht die Software, die das Gehirn nutzt, um sich in der Welt zurechtzufinden.“ Millionen Jahre der Evolution ließen sich nicht so leicht im Labor nachbauen.

Die Rechenkapazität hat sich immerhin enorm vergrößert. Es sei überraschend, dass heute Dinge gehen – wie das Gewinnen des Spiels Go –, die man vor fünf Jahren noch nicht für möglich gehalten habe, sagt Alois Knoll. Lernverfahren wie Deep Learning stecken inzwischen in vielen Anwendungen. Michael Haag, Vizechef des Entwicklungszentrums der Firma Kuka: Im Alltag merke man heutzutage gar nicht, dass man es mit Künstlicher Intelligenz bzw. lernenden Systemen zu tun hat. Beispiele dafür seien die Spracherkennung beim Handy oder Assistenzfunktionen im Betriebssystem Windows. Der große Durchbruch wäre dann, neue Dinge nicht mehr explizit zu programmieren, sondern durch Vormachen die Computersysteme lernen zu lassen: Das Zusammenbringen von Künstlicher Intelligenz und Robotertechnologie.

Roboter unter uns: ethische Aspekte

Roboter sind bereits unter uns, werden zahlreicher, und sie werden unser Leben weiter verändern. Es gibt sie ja nicht mehr nur in der Industrie, sondern auch außerhalb der Produktion, in menschlicher Umgebung, wie den „Care-O-bot“ im Seniorenheim. Und solche im Dienst des Menschen stehende Maschinen werden auch schon mal auf „Gefühle“ programmiert: „Affective computing“ lautet der Fachbegriff, wenn beispielsweise Avatare (animierte Computerwesen) in den USA für die Behandlung von Kriegsveteranen verwendet werden, die ihre traumatischen Erlebnisse erzählen. Die Gefühle der künstlichen Wesen sind aber keine echten. Der Nürnberger Theologe und Ethiker Arne Manzeschke beschäftigt sich mit den „Gefühlen“ von Tieren und Maschinen: Emotionen, die ein körperliches Erleben bringen, wie rot anlaufen oder Erregung, kann man darstellen, bei Maschinen ähnlich wie Schauspieler es tun. Diese Gefühle sind aber nicht echt, und so fragt Arne Manzeschke, wie wir Menschen mit „emotionalen“ Robotern umgehen würden? Nehmen wir sie in die „Gemeinschaft der moralischen Subjekte“ auf? Haben sie dann ähnliche Rechte wie Menschen? In Japan gibt es bereits Friedhöfe für den Roboterhund Aibo, zu denen Menschen eine emotionale Bindung entwickelt haben.

Wird die natürliche der künstlichen Intelligenz einmal unterlegen sein?

In Science-Fiction-Filmen wie „Westworld“ von 1973, auf dem eine in den USA und bald auch in Deutschland laufende Fernsehserie basiert, wird gern mal die Menschengesellschaft von den Robotern getötet oder versklavt. Die Filmbotschaft ist „Maschinenpessimismus“. Haben wir die Entwicklung im Griff, fragt dieses Feature. Stefan Schaal meint, die Überlegenheit der künstlichen über die natürliche Intelligenz sei noch sehr weit entfernt. „Das ist so weit in der Zukunft. […] Wir haben komplette Kontrolle über die Systeme.“ Selbst wenn es einmal autonome Maschinen gäbe, so wäre schon die Energieversorgung, von der sie abgeschnitten werden könnten, deren Schwachpunkt. Künstliche Intelligenz sei noch so primitiv im Vergleich zu biologischen Systemen. Dass Roboter die Welt übernehmen, sei, wenn überhaupt realistisch, extrem weit weg.

Fazit: Eine mit Informationen vollgepackte Sendung, von der in diesem Text längst nicht alle Aspekte zur Sprache gekommen sind. Eine gelungene Zusammenfassung des gegenwärtigen Standes der Technik und Forschung, die, um alles aufzunehmen, wohl mehrmals gehört werden muss.

Hurra, die Roboter kommen

Wie schlaue Maschinen unseren Alltag verändern

Von Jeanne Rubner
Im O-Ton: Frank Kirchner, Michael Haag, Alin Albu-Schäffer, Rafael Hostettler, Alois Knoll, Jürgen Schmidhuber, Stefan Schaal, Julian Nida-Rümelin, Arne Manzeschke
Sprecher: Hemma Michel, Peter Veit
Regie: Martin Schramm
BR 2016

Bayern 2, Reihe: radioThema
17. November 2016, 20.03 Uhr, 57 min.