Kategorien
Brettspiel Deutsch Philosophisches Politik & Zeitgeschichte

Das Trolley-Problem – der Kobayashimaru unserer Zeit

Ich bin sicher, ihr kennt alle das berühmte Trolley-Problem. Protagonist dieser Problemstellung ist ein Trolley, also eine Art elektrisch betriebener Bus, der an eine externe Stromleitung gebunden ist und sich demzufolge nicht frei bewegen kann. Besagter Trolley fährt nun auf eine Weiche zu, es gibt zwei mögliche Wege. Der Fahrer muss entscheiden, wo er lang fahren möchte. Doch oh weh! Schon aus der Ferne sieht er, dass auf beiden Gleisen Menschen unterwegs sind! Auf dem rechten Gleis spielt eine Gruppe kleiner Kinder und tanzt fröhlich singend herum. Auf dem linken hingegen haben sich einige berühmte Wissenschaftler versammelt, die – völlig in eines der größten Probleme unserer Zeit vertieft – ganz vergessen haben, wie gefährlich ihre Lage ist, denn sie stehen kurz vor einem wichtigen Durchbruch. Zu allem Überfluss sind die Bremse und die Hupe des Trolleys ausgefallen! Der Fahrer hat nur eine Wahl: Welche der beiden Gruppen muss er notgedrungen überfahren, um die andere zu retten?

Das Trolley-Problem ist äußerst vielschichtig und flexibel. Die Komplexität oder vielleicht gar Aussichtslosigkeit dieser Entscheidung lässt sich gut erkennen, wenn man die Teilnehmer des (gedanklichen) Experiments austauscht. Wie fällt meine Entscheidung aus, wenn auf dem einen Gleis eine Frau steht und auf dem anderen Gleis 10 Frauen? Ändert sich meine Entscheidung, wenn die eine Frau gleichzeitig noch meine Partnerin oder meine Mutter ist? Was, wenn ich weiß, dass unter den 10 Frauen eine gesuchte Massenmörderin ist? Wie lenke ich den Trolley, wenn auf der einen Seite der Strecke das süßeste Hundebaby der Welt niedlich vor sich hin schläft, ausgesetzt in einem Körbchen, und auf der anderen Seite irgendetwas Menschliches?

Das sind Fragen, die mich doch stark an den Kobayashimaru aus Star Trek erinnern. Wer nichts mit diesem Begriff anfangen kann: Der Kobayashimaru war ein Test ersonnen vom Vulkanier Spock, um angehende Offiziere auf die Aussichtslosigkeit mancher Situationen vorzubereiten. Die Prüflinge wurden auf einem Holodeck mit einer Situation konfrontiert, die nicht lösbar war. Die Simulation endete entweder mit der Zerstörung des Schiffs oder dem Scheitern der Mission. Einzig James T. Kirk, dem berühmten späteren Captain der USS Enterprise NCC-1701-A, gelang es, diesen Test erfolgreich zu absolvieren – indem er den Test manipulierte. Er schummelte.

In beiden Simulationen, also im Kobayashimaru wie im Trolley-Problem, kann man, neben der jeweiligen Situation selbst, auch einen Charaktertest sehen. Geht es doch in beiden Fällen schlussendlich darum, dass man sich einer unausweichlichen Situation gegenüber sieht, der man nicht einfach ausweichen kann, vor der man nicht einfach stehen bleiben kann. Wer ist jetzt noch in der Lage, eine Entscheidung zu treffen? Die Entscheidung wird, das ist in beiden Fällen klar, negativ und wird Konsequenzen nach sich ziehen. Im futuristischen Beispiel sind es entweder der eigene Tod oder disziplinarische Maßnahmen seitens der Sternenflotte, ganz ungeachtet der Folgen der Situation selbst, etwa einem Krieg, diplomatischen Verwerfungen oder gar dem Verlust ganzer Sternensysteme. Beim Trolley-Problem ist es mindestens das Schuldgefühl nach dem herbeigeführten Tod bestimmter Individuen, ganz zu schweigen von den juristischen Folgen.

Persönlich wüsste ich wirklich nicht, wie ich im Trolley-Fall entscheiden würde. Das hat für mich auch etwas mit einer ganz grundlegenden Überzeugung oder Frage zu tun: Sind Leben bewertbar? Kann ich sagen, dass zwei Leben mehr wert sind als eines? Oder dass das Leben eines Kindes mehr wert ist als das eines Rentners? Dass ein Hundeleben weniger wert ist als das eines Menschen? Ich bin mir der Tatsache bewusst, dass einige Menschen hier sehr schnell Antworten parat haben. Weniger Leben töten um mehr Leben zu retten – klare Sache! Kinder sind unschuldig und müssen gerettet werden, klare Sache! Hunde sind süß, aber eben keine Menschen – klare Sache!

Für mich persönlich ist die Sache nicht ganz so klar, weil ich mich nicht dazu befähigt fühle, eine solche Entscheidung zu treffen. Ich bin da vermutlich geprägt vom berühmten Flugzeugproblem. Was mache ich als Staatenlenker, wenn ein Flugzeug von Terroristen gekapert wird und droht, irgendwo reinzufliegen? Schieße ich es inklusive all der unschuldigen Fluggäste ab? Das ist ein maximales moralisches Dilemma und ich glaube nicht, dass ich einen entsprechenden Befehl geben könnte. Wobei ich glücklicherweise nie in einer solchen Situation war und hoffentlich auch nie in eine solche Situation kommen werde.

Andere Menschen hingegen haben weniger Probleme damit, solche harten Entscheidungen zu treffen. Wer eine solche Entscheidung trifft, muss hinterher freilich auch mit den Konsequenzen leben, wie auch immer sie ausfallen mögen. Hier zeigt sich also durchaus, wer in Krisenzeiten in der Lage ist, unbequeme Wegstrecken zu gehen und hinterher das Geröll aufzuräumen, während andere – wie ich – wild debattierend endlos vor der verschütteten Brücke stehen bleiben. Manchmal scheint mir das gar wie eine charakterliche Entzweiung in Denker und Macher. Und beide haben ihre Vorzüge und ihre Nachteile, beide haben ihre großen Momente und ihre größten Schwächen.

Auch im Bereich der künstlichen Intelligenz spielt unser Problem eine Rolle – Stichwort „autonomes Fahren“. Wenn es für mich als Mensch schon schwer ist zu entscheiden, wen ich überfahren „möchte“, wie soll eine künstliche Intelligenz diese Entscheidung treffen? Da stellt sich überhaupt erst einmal die Frage: Kann diese Art moralischer Entscheidung, die keine klare Lösung kennt, Bestandteil eines solchen Systems, eines mathematischen Modells sein? Und selbst dann: Wie stark wären in diesem Fall die Programmierer selbigen Modells verantwortlich für die Entscheidungen, die daraus resultieren? Ich denke hier ganz bewusst etwa an face recognition Systeme, die vor einiger Zeit in den Medien waren, da sie oftmals zugunsten hellhäutiger Menschen entschieden hätten – aufgrund eines Bias schon in den Trainingsdaten. Doch für die Auswahl der Trainingsdaten und die Ausformulierung des Modells wiederum sind Menschen verantwortlich. Ist es dann nicht förmlich so, als ginge jeder Tote, den das selbstfahrende Auto verursacht, auf die Kappe der Programmierer?

Zuletzt sind mir die Trolleys übrigens beim Brettspielen über den Weg „gefahren“, nämlich im Spiel „Trail by Trolley“ (hier ein Probespiel auf Englisch auf Geek&Sundry mit der fantastischen Becca Scott als Host). In diesem Spiel stehen sich zwei Teams gegenüber (auch wenn die Zusammensetzung von Runde zu Runde variiert), die jeweils versuchen wollen, den Trolley über die Schiene des anderen Teams zu lenken. Die Entscheidung trifft der „Conductor“, also ein Spieler, der in dieser Runde der Fahrer ist. Abwechselnd legen die beiden Teams neue Karten an die Schienen: entweder Bösewichte an das gegnerische Gleis, die man doch bestimmt nur zu gerne überfahren würde (interessanterweise z.B. „Putin“). Oder „good guys“ an die eigene Schiene, die man garantiert bewahren möchte (z.B. die eigene Mutter oder einen riesigen lila Drachen, der einen reiten lassen würde). Final werden einige der Charaktere noch durch zusätzliche Beschreibungen verändert. Und plötzlich wird aus der eigenen Mutter eine zukünftige Massenmörderin – will man das wirklich zulassen? Am Ende trifft der Fahrer eine Entscheidung: Auf welches Gleis lenkt er seinen Trolley? Das Team, dem diese Schiene gehört, „gewinnt“ Totenköpfe, wer am Ende die wenigsten hat, gewinnt. Es geht also nicht nur darum, moralische Entscheidungen zu treffen. Sondern ganz gewiss auch darum, den jeweiligen Fahrer zu kennen. Eine wichtige Erkenntnis daraus: Bei aller Logik oder moralischen Integrität spielt auch das Individuum eine nicht zu vernachlässigende Rolle in derlei Fragen.

Von Stephan

Stephan ist derzeit Doktorand für Informatik an der Universität Basel. Er hat sowohl Ägyptologie als auch Informatik in München und Basel studiert. In seiner Dissertation wird er diese beiden sehr unterschiedlichen Studienfelder miteinander verbinden. Auch darum wird es auf dieser Webseite gehen - neben vielen anderen Bereichen, die in seinem Leben eine Rolle spielen.

Kommentar verfassen