Selbstfahrende AutosWelche Moral hat künstliche Intelligenz?

Lesezeit 5 Minuten
Der Computer HAL 9000 aus "2001: Odyssee im Weltraum" zeichnet ein pessimistisches Bild der künstlichen Intelligenz. (Foto: Thinkstock)

Der Computer HAL 9000 aus "2001: Odyssee im Weltraum" zeichnet ein pessimistisches Bild der künstlichen Intelligenz. (Foto: Thinkstock)

Köln – Google will bald das erste selbstfahrende Autos auf den Markt bringen. Tests auf öffentlichen Straßen haben bereits im Sommer dieses Jahres begonnen. Durch einen Autopiloten soll es im Google-Wagen nicht mehr nötig sein, selbst zu steuern. Ein menschlicher Fahrer wird überflüssig.

Diese neue Technologie wirft interessante Probleme auf, die in der Philosophie nicht unbekannt sind. Abgesehen von der Debatte, inwiefern künstliche Intelligenz möglich und wünschenswert ist, scheint jetzt eines der berühmtesten Gedankenexperimente der Neuzeit in der Realität angekommen zu sein.

Kant als Maßstab

Als Trolley-Problem beschrieb die britische Philosophin Philippa Foot ein ethisches Dilemma, das zeigen soll, dass moralische Pflichten nicht unbedingt eindeutige Antworten liefern. Der Begriff Trolley leitet sich vom englischen Wort für Straßenbahn ab, und genau darum geht es: In einer fiktiven Situation steht man an einer Schienengabelung mit Weichenstelle, auf die eine außer Kontrolle geratene Straßenbahn mit sehr hoher Geschwindigkeit zurast. Der Zug wird einen der Gleispfade entlang fahren müssen, man selbst hat nun die Chance, die Weichen zu stellen. Problematischerweise befinden sich auf einem der beiden Gleispfade fünf Personen, die vom Zug erfasst würden.

In dem Gedankenexperiment können sie nicht gewarnt werden. Auf dem anderen Gleispfad befindet sich eine einzelne Person, auch sie würde vom Zug erfasst werden, auch sie kann man nicht warnen. Es muss also eine Entscheidung getroffen werden, die in jedem Fall Menschenleben kostet - entweder fünf oder eines.

Der sogenannte deontische Ansatz, den etwa Kants Ethik vertritt, lässt nicht zu, Menschenleben zum Wohle Vieler zu opfern. Sie schaut nur auf die Pflichten (griech.: deon): Nicht zu töten ist eine Pflicht, von der es keine Ausnahme geben kann. Aber was, wenn man keine Wahl hat? Folgt man der utilitaristischen Argumentation, die auf den Nutzen (griech.: utilitas) abzielt, dann kann es moralisch gut sein, den Einzelnen zu opfern, um viele zu retten. Was aber, wenn der einzelne Mensch auf den Gleisen ein Kind oder der Partner des Weichenstellers ist? Viele würden sich dann intuitiv sicher anders entscheiden. Ist das nun aber moralisches Handeln oder egoistisches Kalkül? Was, wenn man die Wahl hätte, entweder fünf Menschen zu töten oder sich selbst?

Eine häufige Antwort auf dieses bedrohliche Szenario ist, dass man in einer konkreten Gefahrensituation natürlich nicht zu rational-moralischen Überlegungen fähig ist und instinktiv versucht, das eigene Leben zu retten. Auch das deutsche Rechtssystem kennt den Begriff der Notwehr - und erkennt somit an, dass ein Individuum nicht für instinktive Handlungen zur Rechenschaft gezogen werden kann, wenn diese dazu dienen, das eigene Leben zu schützen.

Der Einzelne und die Allgemeinheit

Aber was, wenn ein Computer diese Entscheidung für einen fällt? Selbstfahrende Autos sind eine Innovation, die unzählige Vorteile für bietet. Spritvergeudung? Es wird maximal energieeffizient gefahren. Verkehrsunfälle durch unachtsame Fahrer? Gibt es nicht mehr - die Straßen werden sicherer. Trotzdem werden sich Situationen ergeben, in denen unumgänglich Personen zu Schaden kommen. Analog zum Trolley-Problem stelle man sich etwa die Situation vor, in der ein Auto mit hoher Geschwindigkeit auf eine Gruppe von Menschen zurast. Ausweichen ist unmöglich, es sei denn, das Auto führe über den Bürgersteig, wo es aber mit einer Einzelperson kollidieren würde. In einer noch dramatischeren Version des Szenarios besteht nur die Möglichkeit, die Gruppe von Menschen oder den Fahrer des Autos selbst zu töten, indem das Auto gegen eine Wand fährt.

Umfragen zeigen, dass die meisten Menschen, in einer solchen Situation die utilitaristische Lösung bevorzugen würden: Sie würden also den Einzelnen zum Wohle der Allgemeinheit opfern. Ist es also sinnvoll, der künstlichen Intelligenz des selbstfahrenden Autos eine utilitaristische Moral einzuprogrammieren? Wie sollte es auf Grenzfälle reagieren, etwa wenn einige wenige Kinder geopfert werden oder eine größere Menge älterer Menschen?

Die Psychologen Jean-Francois Bonnefon, Azim Shariff und Iyad Rahwan veröffentlichten Anfang Oktober einen Artikel auf dem Online-Portal "arXiv", indem sie diese Fragen diskutieren und drei entsprechende Umfragen machen. Sie zeigen, dass die Mehrheit der Menschen sich zwar eine utilitaristische Programmierung der selbstfahrenden Autos wünscht, aber nicht will, dass Selbstaufopferung zum Beispiel rechtlich vorgeschrieben wird. Hiermit erweitern sie die Diskussion um eine weitere wichtige Komponente: die juristische. Im Falle des Todes eines Fußgängers zum Schutz einer Menschengruppe etwa ist unklar, wer haftbar gemacht werden sollte.

Außerdem stellt sich die Frage, ob Konsumenten tatsächlich ein Auto kaufen würden, von dem sie wissen, dass es sie selbst im Falle eines moralischen Dilemmas opfern würde. Wenn die Autos aber nicht gekauft werden, bleibt die Zahl der Unfälle weiterhin hoch. Sollte es am Ende nicht vielleicht sogar moralisch geboten sein, ein Auto zu fahren, dass selbst steuert? Sind selbstfahrende Autos erst einmal für jeden erschwinglich, könnte es fast fahrlässig erscheinen, immer noch selbst zu steuern, steigt dabei doch das Unfallrisiko um schätzungsweise 90 Prozent.

Die Suche nach der "richtigen" Moral

Der Science-Fiction-Autor Isaac Asimov hat in seiner Kurzgeschichte "Runaround" schon 1942 drei moralische Gesetze für Roboter aufgestellt, die bis heute zitiert werden. Hierarchisch geordnet lauten sie: "1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass es verletzt wird. 2. Ein Roboter muss einem Befehl gehorchen, der von Menschen gegeben wird. 3. Ein Roboter muss seine eigene Existenz beschützen." Es scheint, dass moralische Roboter nicht durch einfache Programmierung dieser Regeln zu erschaffen sind. Um eine künstliche Intelligenz zu schaffen, muss sich der Mensch offenbar zunächst selbst klarmachen, was eigentlich die "richtige" Moral ist.

BUCHTIPPS

Martin Dresler: "Künstliche Intelligenz, Bewusstsein und Sprache: Das Gedankenexperiment des »Chinesischen Zimmers«", Königshausen und Neumann, 145 S., 22 Euro

Thomas Nagel: "Was bedeutet das alles?", Reclam, 102 S., 8,80 Euro

Philipp K. Dick: "Blade Runner", Fischer, 224 S, 9,99 Euro

Rundschau abonnieren