Zum Inhalt springen

Asimovsche Robotergesetze - soziale Bindungen zwischen Mensch und Roboter

Ein Roboter mit einem kindlichen Gesicht, Profilbild, im Hintergrund konzentrische Kreise und Rechtecke, darüber Paragrphen-Schriftzeichen
freundliche und nützliche Roboter

Während in der ersten Hälfte des 20. Jahrhunderts Roboter zunächst als metallene Monster und als Bedrohung für die Menschen dargestellt wurden, begann der Science-Fiction-Autor Isaac Asimov schon in den 1930er-Jahren damit, in seinen Erzählungen und Romanen über freundliche Haushaltsroboter oder nützliche Industrieroboter zu schreiben.

Asimov war mit seinen Robotergeschichten sehr erfolgreich. In der Fantasiewelt der Science-Fiction waren seine humanoiden (menschenähnlichen) Roboter in ihrem Aussehen der menschlichen Gestalt nachempfunden, und ihrem Verhalten wurde eine Intelligenz zugesprochen, die in Bezug auf Denken und Verstehen der menschlichen Intelligenz glich.

Mit seinen Geschichten wollte Asimov zeigen, dass Roboter keineswegs immer nur eine Bedrohung für den Menschen sein müssen. Zugleich regte er zum Nachdenken an, ob Roboter mehr sein können als Gegenstände und leblose Automaten wie Kaffeemaschinen, Staubsauger oder andere Haushaltsgeräte. Insbesondere interessierte ihn die Frage, ob soziale Bindungen zwischen Robotern und Menschen entstehen können, auf welcher Ebene sie stattfinden und wie sie funktionieren.

Diese Ideen finden sich früh in der Kurzgeschichte "Robbie" (geschrieben 1939, erstmals 1940 als "Strange Playfellow" in Super Science Stories veröffentlicht). Später wurde "Robbie" in den 1950 erschienenen Erzählband I, Robot aufgenommen (dt. Erstausgabe: Ich, der Robot, Karl Rauch Verlag, Düsseldorf, 1952; Übers. Otto Schag). Der Band verbindet neun Kurzgeschichten durch eine Rahmenhandlung.

info-icon Der Kinofilm I, Robot von Alex Proyas (Twentieth Century Fox, 2004; Start im deutschsprachigen Raum am 5. August 2004) nutzt Motive und Elemente aus Asimovs Werk, unter anderem die Robotergesetze, erzählt jedoch eine eigenständige Handlung und ist nicht die Verfilmung des Buches.

"Robbie" - Nähe, Nutzen, Neubewertung

In "Robbie" kauft eine Familie einen Hausroboter, der als Kindermädchen für die Tochter Gloria dient. Die wachsende Vertrautheit zwischen Kind und Maschine beunruhigt die Eltern. Sie fürchten um Glorias Umgang mit anderen Kindern und geben den Roboter daher an eine Fabrik ab.

Gloria leidet unter der Trennung. Bei einem Besuch in der Fabrik kommt es zu einer gefährlichen Situation. Ein Fahrzeug erfasst beinahe das Mädchen. Robbie reagiert sofort und rettet sie, obwohl er dabei seine eigene Zerstörung riskiert. Das Erlebnis verändert die Sicht der Eltern. Der Roboter kehrt in die Familie zurück.

Motivisch macht die Geschichte deutlich, dass Fürsorge und Nutzen der Maschine die anfängliche Angst überlagern und dass Bindungen zwischen Mensch und Roboter erzählerisch plausibel werden.

"Reason" - freier Wille zwischen Kontrolle und Vertrauen

Die Idee menschenähnlicher Roboter ließ aber auch Befürchtungen aufkommen, Maschinen könnten sich dem Menschen überlegen fühlen und die Kontrolle übernehmen. Asimov greift dieses Motiv in "Reason" (1941; später auf Deutsch als "Vernunft" in Ich, der Robot) auf.

In der Geschichte "Vernunft" wird auf einer Raumstation nahe der Sonne ein neues Robotermodell QT-1 eingesetzt. Dort arbeiten die beiden Forscher Donovan und Powell zusammen mit mehreren humanoiden Robotern.

Zentrum der Station ist ein Umwandler, der Sonnenstrahlung zu einem präzise auszurichtenden Energiestrahl bündelt, der die Erde versorgt. Schon geringe Winkelabweichungen könnten die Empfangsstation verfehlen und erhebliche Schäden verursachen. Wegen schwankender Sonnenaktivität ist eine ständige Nachjustierung nötig. QT-1 soll diese Steuerung übernehmen.

Als Donovan und Powell QT-1 erklären, sie hätten ihn aus gelieferten Teilen zusammengesetzt, glaubt dieser ihnen jedoch nicht und behauptet, er könne gar nicht von den Menschen erschaffen worden sein, da diese seiner Auffassung nach im Gegensatz zu ihm viel unvollkommener seien und daher auch kein Wesen erschaffen könnten, das ihnen selbst überlegen ist.

Es kommt zu einem Streit und QT-1 lässt die beiden Forscher mit Hilfe der anderen Roboter, über die er die Kontrolle übernommen hat, einsperren. Währenddessen erfordert eine erhöhte Sonnenaktivität neue Berechnungen für den Umwandler. Die Forscher sind sehr besorgt und befürchten nach mehreren Stunden ihrer Gefangenschaft, dass große Gebiete auf der Erde zerstört wurden, weil sie den Winkel des Energiestrahls nicht rechtzeitig einstellen konnten.

Plötzlich betritt QT-1 den Raum, in dem Donovan und Powell gefangen gehalten werden, und erkundigt sich nach ihrem Befinden. Er überlässt ihnen auch die Aufzeichnungen der Messdaten des Energiestrahls. Die Messdaten zeigen, dass QT-1 den Strahl besonders präzise justiert hat, besser als es die beiden Forscher selbst gekonnt hätten.

Donovan und Powell diskutieren über die Einsatzfähigkeit des neuen Robotermodells und kommen zu dem Schluss, dass es nicht weiter wichtig ist, wie der Roboter sich seine eigene Existenz erklärt, solange er seine ihm gestellte Aufgabe zuverlässig und äußerst präzise bewältigt.

Robotergesetze

Eine weitere Befürchtung war, dass humanoide Roboter, die aufgrund ihrer Intelligenz einen eigenen Willen besitzen, auch das Bedürfnis entwickeln könnten, sich selbst vor Gefahren zu schützen und dann dem Menschen schaden, wenn sie dessen Anweisungen oder Verhalten als gefährlich für sich selbst betrachteten.

Um dieses Problem zu lösen, schlug Asimov vor, Verhaltensregeln zu entwickeln, die als fester Bestandteil der Programmierung eines Roboters einen gefahrlosen und friedlichen Umgang zwischen Mensch und Maschine ermöglichen sollten:

Asimovsche Robotergesetze (sinngemäß):

1) Menschen schützen: Ein Roboter darf Menschen keinen Schaden zufügen und auch keinen Schaden tatenlos geschehen lassen.

2) Befehle befolgen: Er gehorcht menschlichen Anweisungen, sofern diese nicht gegen Regel 1 verstoßen.

3) Selbsterhaltung: Er schützt die eigene Existenz, soweit dies nicht Regel 1 oder 2 widerspricht.

"Runaround" - Im Kreis der Prioritäten

Asimov formulierte diese Regeln erstmals im Oktober 1941 in seiner Kurzgeschichte "Runaround", veröffentlicht im März 1942 in dem US-amerikanischen Science-Fiction-Magazin Astounding. Ebenso wie "Robbie" und "Reason" wurde auch "Runaround" in den 1950 erschienenen Erzählband I, Robot aufgenommen (dt. Erstausgabe: Ich, der Robot, 1952).

Die Geschichte handelt wieder von den beiden Forschern Donovan und Powell, die bereits in "Vernunft" (s. o.) als Hauptfiguren vorkommen und die diesmal auf dem Planeten Merkur ein stillgelegtes Bergwerk wieder in Betrieb nehmen sollen:

Die Station der beiden Forscher liegt auf der sonnenzugewandten Seite des Planeten, wo extreme Hitze herrscht. Eine Schutzanlage schirmt sie ab, doch dafür benötigt sie das chemische Element Selen, das in dieser Geschichte in heißen Quellen an der Oberfläche vorkommt. Weil der Abbau für Menschen zu gefährlich wäre, übernehmen Roboter diese Arbeit.

info-icon Hintergrund: In den 1940er Jahren nahm man an, dass der Merkur der Sonne stets dieselbe Seite zuwendet. Diese Annahme erwies sich 1965 als falsch. Der Planet rotiert ungefähr alle 58 Tage und zeigt sehr große Temperaturunterschiede. Asimovs Hitzeszenario bleibt innerhalb der Erzählwelt dennoch plausibel.

Als der eingesetzte Roboter "Speedy" nicht zurückkehrt, machen sich Donovan und Powell auf die Suche und finden ihn schließlich, wie er immer wieder um eine Selenquelle kreist. Aus der Quelle steigen giftige Gase auf, die seine Mechanik beschädigen würden, sollte er den Abbau fortsetzen. Sie versuchen, den Roboter an einer anderen Selenquelle einzusetzen, aus der keine giftigen Gase ausströmen, doch der Roboter reagiert nicht auf ihre Anweisungen, sich von der Selenquelle zu entfernen, und wirkt desorientiert.

Um herauszufinden, warum der Roboter nicht mehr auf ihre Anweisungen reagiert, beschäftigen sie sich mit den drei Robotergesetzen, die zu einem festen Bestandteil seiner Programmierung gehören.

Bei Speedy ist Regel 3 (Selbsterhaltung) stärker gewichtet, da es sich um ein sehr teures Robotermodell handelt. Zugleich hatten sie bei ihrem Auftrag keine besondere Dringlichkeit betont, sodass Regel 2 (Gehorsam) nicht so stark wirkt.

Damit entsteht ein Pendeln: Entfernt sich Speedy zur Eigensicherung, sinkt die Gefahr, Regel 2 setzt sich durch und zieht ihn zurück an die Arbeit. Es steigt die Gefahr und es gewinnt wieder Regel 3. Das Ergebnis ist die Kreisbewegung, die sie beobachten.

Kurz erwägen Donovan und Powell, die Gefahr absichtlich zu erhöhen, damit Regel 3 eindeutig dominiert und Speedy den Bereich verlässt. Sie verwerfen den Plan jedoch, denn wegen der hierarchischen Ordnung der Gesetze ließe sich der Konflikt so nicht sauber auflösen.

Bleibt Regel 1 (Schutz von Menschen). Donovan setzt sich sichtbar einer lebensgefährlichen Überhitzung aus und ruft Speedy. Damit hat die Rettung des Menschen Vorrang. Speedy durchbricht die Schleife, bringt Donovan zur Station zurück und ist anschließend wieder ansprechbar und kann neue Anweisungen entgegennehmen.

Heute Prioritäten, morgen vielleicht Rechte

Auf den ersten Blick scheinen die ersten beiden Regeln (1 und 2) alle Gefahren für den Menschen auszuschließen. Die dritte Regel (3) trägt darüber hinaus dem Bedürfnis eines intelligenten Roboters nach Selbsterhaltung Rechnung. Mit individueller Freiheit hat das jedoch nichts zu tun, denn die Regeln sind hierarchisch geordnet.

"Hierarchischer Aufbau" bedeutet, dass (1) Vorrang hat vor (2), und (2) vor (3). Das zuerst genannte Gesetz ist jeweils wichtiger als die folgenden. Ein gesondertes "(4)", das diese Rangordnung festlegt, ist nicht nötig, denn die ergibt sich bereits aus den Formulierungen von (2) und (3).

Die Konsequenz ist, dass ein Roboter in jeder akuten Gefahrensituation einem Menschen helfen muss, selbst wenn er dabei seine eigene Existenz riskiert. Menschen hingegen können sich für ein Opfer entscheiden, aber sie müssen es nicht.

In dieser einfachen Form regeln die Robotergesetze vor allem die Funktionalität und Prioritäten robotischen Handelns. Rechte verleihen sie Maschinen nicht. Dennoch erzeugen freundlich wirkende, humanoide Roboter beim Menschen leicht den Eindruck von Beseeltheit und damit die Sorge, Rechtelosigkeit könne irgendwann in Unzufriedenheit und Aufruhr umschlagen.

Asimov war sich schon früh bewusst, dass dieses Spannungsfeld ungelöst bleibt, solange Robotern keine eigenen Rechte zugestanden werden. Für seine Zeit erschien ihm das aber offenkundig noch zu phantastisch, sodass er versuchte, die Unvollkommenheit seiner Gesetze durch Beispielszenarien zu verdeutlichen, in denen die Anwendung der Gesetze in die Sackgasse führt und Maschinen handlungsunfähig werden.