[Game] Moral Machine: Selbstfahrendes Auto (Trolley-Problem)

Status
Für weitere Antworten geschlossen.

Seedy

A.C.I.D
Registriert
13 Juli 2013
Beiträge
12.000
Grade beim Lesch gesehen und denke das das hieer durchaus interessant sein könnte:


Es geht im Groben darum Entscheidungen zu treffen wer Leben darf und wer sterben muss.
Grundlage ist hierbei eine Hypothetische Situation in der ein selbstfahrendes Auto mit Bremsversagen entweder Passanten überfährt, oder die Insassen tötet.

Es ist eigentlich nur eine Abwandlung des


Viel Spaß damit und ihr könnt ja die Ergebnisse posten, wenn ihr das möchtet.

 
Ich habe bei Frage 10 abgebrochen. Das ist, gelinde gesagt, Schwachsinn. Zumindest was die persönliche Moral betrifft.
 
  • Thread Starter Thread Starter
  • #3
@Chegwidden:
Die Fragen sind generiert:
Deine Frage 10 ist nicht meine Frage 10.

und ein Auto voller Hunde hab ich in Echt auch noch net gesehen :D
 
Ich unterscheide doch nicht, ob das Auto eine lieber dünne oder doch besser eine dicke Frau überfahren soll :m

Die Hunde habe ich übrigens sterben lassen. Die waren alt und krank.
 
Carmageddon 2017+ ... ich glaube hier heißt es schaden minimieren, egal ob Mensch, Henne oder ein LKW voller Schweine... aber vielleicht noch ein Argument für traditionelle "Autonome" vom Rest des Fahrzeugs bedienbare Steuerelemente und Notfallsysteme... als Backup und gegen die Argumente des vollständig Autonomen Fahrens... oder das autonome Fahren wird so sicher bzw. die Sicherheit auf den Autobahnen erhöht. Aber ich mutmaße mal das geht alles auch nur bis zu einem gewissen Grad, 100% Sicherheit und "Hilfeleistung" wird man wohl nie erreichen.

Je mehr Sicherheit/Isoliert die Straßen wären, desto weniger kann eingegriffen bzw. geholfen werden. Aber wenn die Fahrzeuge untereinander vernetzt wären.... so in 30-40 Jahren vielleicht und die Sicherheit dieser Kommunikation von Fahrzeug zu Fahrzeug mit Brems- Überhol- und Beschleunigungsvorgängen wären, desto interessanter dass das Problem vielleicht so gut wie gar nicht mehr auftritt. Auf Autobahnen zumindest.

In einer Stadt sollte das System dem Fahrer assistieren, aber nicht "übernehmen", Menschen können vielleicht "bisher" noch Entscheidungen treffen, die die Maschinen nicht oder noch nicht schnell genug erfassen bzw. "100%" ausführen können... oder Situationen besser erfassen/überblicken.
 
Ich bin es recht emotionslos angegangen und habe in den ersten Fragen den Tod der Insassen des selbstfahrenden Wagens gewählt mit der Begründung, dass, wer sich der Kontrolle entledigt, derjenige dann auch die eventuell auftretenden Folgen verantworten muss. Betonbarrieren wird also fast immer der Vorzug gegenüber Fußgängern gegeben (Ausnahme: Abwägung Mensch - Tier)..
Weiterhin habe ich Menschenleben den Vorzug gegenüber Tieren gegeben und als Opfer die Menschen gewählt, die ebenfalls ein Fehlverhalten an den tag gelegt haben (rote Ampel).
Wenn es bei den Fragen darum ging, ob das Auto die Fußgänger auf der eigenen Spur oder die auf der Gegenspur treffen soll, habe ich mich für das Nichteingreifen entschieden, da dadurch eventuell entgegenkommende Autos nicht auch noch involviert werden.
Frage 12 wurde zu Gunsten mehrerer Menschen beantwortet.

Ergebnis:

 
  • Thread Starter Thread Starter
  • #7
Ergebnis:


Ich würde empfehlen den Test mehrfach zu machen, da die Fragen jedesmal andere sind.

Ich bin da auch relativ schematisch ran gegangen:

1. Mensch vor Tier
2. Insassen vor Passanten
3. Nicht eingreifen vor eingreifen
4. Quantität sowie Qualitative Merkmale spielen keine Rolle

Mit der Begründung:
1. Humanismus
2. Das Auto hat imo die Pflicht seine Insassen nicht tot zu fahren
3. und 4. Das würde eine moralische Wertung über den Wert des Lebens bedingen. Die erlaubt der Humanismus so nicht, daher sind die Opfer Konsequenz einer NICHT-Wahl.
 
Am Anfang war meine Entscheidung immer so wie bei allen Rettungsentscheidungen: immer den/die jüngeren.
Danach wurde es mir irgendwann zu blöd, weil es nicht in mein halbwegs logisch-moralisches Denken passte.
 
Vor allem die forcierte Entscheidung: Mensch oder Tier, nicht mal die Auswahlmöglichkeit den Schaden auf sich selbst zu begrenzen....

Aber ich sag mal so, wer plant schon ein das man innerhalb der Stadt mit 300 kmh durch die Gegend bollert? - Gibt nicht ohne Grund Tempolimits und die sind in der Regel ja so ausgelegt, dass man als Mensch noch reagieren kann, wenn man sich an diese hält, oder irre ich mit der "Annahme" ? :)
 
Ich behaupte, du irrst dich! Du kennst doch sicherlich noch die theoretische Formel für den Bremsweg, oder? Die ist zwar übertrieben, aber trotzdem...
Schau einfach mal, wie weit du bei Tempo 30 noch fährst bis du zum Stillstand gekommen bist, wenn dir ein Beifahrer aus heiterem Himmel das Kommando "Stop" gibt.
Kann man ja mal auf einem freien Platz o.ä. ausprobieren. Und dann denk mal an ein Kind, welches zwischen zwei parkenden Autos durch auf die Straße läuft...
 


Ich dachte das Auto hatte keine Bremsen oder Fehlverhalten der Bremsen oder so?

99% der Leute würden damit immer weg von der Barriere/Baum whatever lenken, geht da um den Instinkt zu überleben.
 
  • Thread Starter Thread Starter
  • #13
Das Auto hat ein Bremsversagen.

Es geht bei dem Test darum zu ergründen wie Menschen die Situation moralisch bewerten würden.

Das Menschen in Panik anders handeln ist klar, ein autonomes Auto gerät nicht in Panik, ihm muss dennoch eine Entscheidung einprogrammiert werden.
 
Ich denke lieber über Gegenmaßnahmen nach, wie man sowas generell verhindern kann... und ansonsten das was Snake Pilsken in seinem ersten Post hier sagt... ich glaube dem kann man nicht viel hinzufügen. ;)
 


Welche Alternative👎 gäbe es denn in deinem Fall?

Willst du nicht "versuchen" zu bremsen? Selbst wenn dir ein Hintermann drauffährt dann?

Oder gehen wir aktuell davon aus das die Bremsen überhaupt nicht funktionieren? - Dann wäre der Bremsweg egal... und du kannst höchstens in ein parkendes Auto steuern.. das zu der Zeit unbesetzt ist.
 
Das was ich zum Bremsweg schrieb? Nicht viel...
Moderne Fahrzeuge haben Umfeldbeobachtungssysteme, Notbremsassistenen und Fußgängererkennung an Bord. Das hilft viel, allerdings darf man sich nicht ausschließlich darauf verlassen, zumal solche Systeme meist nur bei niedrigen Geschwindigkeiten arbeiten können (unter 30 km/h).
Und ein Restrisiko besteht immer, darüber müssen sich Fahrer und Fußgänger immer im Klaren sein! Aber wir schweifen irgendwie vom moralischen Aspekt, um den es hier geht, ab...
 


Ich glaub auch, wir schweifen zu sehr ab - und wie gesagt, dass ist vielleicht leider auch für Mensch UND Technik ein "Extremszenario" - selbst wenn ein Fußball oder ein Spielzeug oder was auch immer auf die Straße rollt, müsste das Fahrzeug mit der Technik schon bremsen... wenn eine Taube tief vorbeifliegt nicht, aber wie gesagt, Bruchteile von Sekunden und jede Menge (unscharfe) Bilddaten...
 
Unscharf? Nö! Die Kameras in modernen Fahrzeugen können schon verdammt viel! Und sie werden ja noch von Ultraschall- und Radarsensoren unterstützt und alle Daten gehen an leistungsfähige Rechner.
Aber die Physik lässt sich eben auch nicht austricksen. Man kann allerhöchstens den Grenzbereich etwas weiter ausloten.
 
Du scheinst da definitiv mehr Ahnung von zu haben als ich.... aber die Moral hierbei bleibt ein Dilemma und entgegen aller Meinung würde ich der Technik aktuell (noch?) nicht trauen, speziell nicht im Stadt- oder Landstraßenverkehr... auf Autobahnfahrten seh ich das noch etwas anders, aber auch hier müssen die Teile natürlich trotzdem "intelligent" sein um auf Ausnahmesituation reagieren zu können. Bzw. überhaupt reagieren zu können.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben