Autonomes Fahren

Algorithmen des Todes

5. November 2015, 16:34 Uhr | Martin Fryba
Entscheidungsdilemma: Kinder schützenwerter als Erwachsene?
© Tesla

Autopiloten im Fahrzeug sind nicht allein Sache der Technologie. Wie weit darf smarte Software im selbstfahrenden Auto über Leben und Tod entscheiden? Wird es letztlich die Hand Googles sein?

Wer weiß, ob Frank Roebers oder der plötzlich vor ihm auf der Straße stehende Hirsch bei der Kollision mit seinem Auto den größeren Schaden davon getragen hätte? Der Chef von Synaxon hatte gerade das neue Software-Update für den Autopiloten bei seinem Tesla eingespielt und sich nur wenig später vom viel zitierten Vorteil der Verkehrssicherheit bei solchen Systemen überzeugen können. Radar, Sensoren und Kameras hatten das Tier erfasst. Roebers´ Elektroauto wurde abrupt gestoppt. Die Beule am Kopf dürfte der begeisterte Tesla-Fahrer leicht verschmerzen. »Da hat die ganze Sicherheitstechnik mal wirklich geholfen«, so Roebers. Eine Innovation aus dem Silicon Valley rettet den ersten Sechsender auf Deutschlands Straßen und bewahrt den Fahrer womöglich vor Schlimmerem.

Noch sind heutige Autopiloten assistierende Systeme, der Fahrer bleibt allein schon aus Haftungsgründen Herr über das Fahrzeug. Aber das wird sich ändern. Experten schätzen, dass in zehn bis 15 Jahren autonome Steuerungen ohne Eingriffe des Fahrers zum Standard gehören werden. Unfälle mit tödlichem Ausgang könnten sinken, ganz verhindern werden sie sich aber nicht lassen. Nach welcher Logik Autopiloten in unvermeidlichen Kollisionen dann reagieren sollen, ist heute noch völlig offen. Die Experten stecken im Entscheidungsdilemma.

Dürfen Autopiloten im Falle einer nicht abwendbaren Kollision das Auto auf einen Fußgängerweg lenken und dabei den Tod eines auf dem Bürgersteig gehenden Passanten in Kauf nehmen, wenn durch das Manöver drei auf der Fahrbahn stehende Personen gerettet werden könnten? Darf das System sich im Zweifelsfall sogar gegen das Leben des Fahrers entscheiden und sein Fahrzeug einen Abhang hinunter stürzen lassen? Sind Kinder schützenswerter als Erwachsene? Dürfen Maschinen und ihre Logik überhaupt über Menschenleben entscheiden, und soll man im Falle zweier schlechter Unfallszenarien die Software so entscheiden lassen, dass sie die weniger schlechte Variante wählt? Wenn ja, welche Kriterien sollen hierfür gelten?


  1. Algorithmen des Todes
  2. Hand Gottes oder Googles?

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Synaxon

Matchmaker+