[Game] Moral Machine: Selbstfahrendes Auto (Trolley-Problem)

Status
Für weitere Antworten geschlossen.
Ja, die Moral ist natürlich der springende Punkt. Und ich wüsste auch kein Patentrezept zum Lösen des Dilemmas.
Technik muss natürlich vertrauenswürdig sein, aber man darf sich meiner Meinung nach nicht einfach so blind zu 100% drauf verlassen. Es gibt immer Ausnahmesituationen, wo eine Maschine "überstimmt" werden sollte, und sei es nun wegen fehlerhafter Erkennung einer Situation. Deswegen bin ich auch gegen völlig autonomes Fahren.
 
Wenn ich es mir aussuchen kann, ob brenzlige Situationen von einem Computer programmiert von 50 Ingeneuren aufgelöst werden oder von Tante Emma aus der Nachbarschaft dann nehme ich in 100% der Fälle den Computer.
Bitte endlich autonome Fahrzeuge überall, das wird die Zahl der Verkehrstoten stärker verringern als Gurte und Airbags.

Vernetzte Fahrzeuge, die sich absprechen.. schon längst da, nicht erst in 30 Jahren.

Leider muss ich wohl noch ein paar Jahrzehnte darauf warten, dass alle Autos zu 100% autonom fahren = Verkehrstote nah bei null.
 
Dann müssten aber nur noch autonome Fahrzeuge unterwegs sein. Das könnte dann fast funktionieren, wenn da nicht so Faktoren wie Fußgänger u.ä, wären. Die handeln nämlich ab und an wider jede Logik.
 
Na und? Erkennungssysteme funktionieren heute schon super und nicht nur bei 30km/h.
Mir reicht es ja völlig wenn die autonomen Fahrzeuge 500% besser sind als der Mensch, welcher nicht nur im Zweifelsfall ein gefährliches und ineffektives Manöver macht, sondern gerade am Radioherumfummelt, an seinem Kaffeschlürft oder sich streitet.

Siehe z.B. hier:
Auch darauf achten, wann der Tesla mit warnen/piepsen anfängt...!
 
Was nützt es, bei 120 km/h einen Fußgänger automatisch zu erkennen, der plötzlich auf die Straße rennt? Da ist es eventuell unmöglich, noch anzuhalten. Physik und so...
 
Teil welchen Arguments soll das denn sein? Ich dachte wir reden hier drüber:
Es gibt immer Ausnahmesituationen, wo eine Maschine "überstimmt" werden sollte, und sei es nun wegen fehlerhafter Erkennung einer Situation. Deswegen bin ich auch gegen völlig autonomes Fahren.
Im übrigen unterstreichst du natürlich, dass ein Mensch womöglich einfach bremsen würde und den Fußgänger überfährt, weil er es nicht schafft adäquat auszuweichen gleichzeitig, was für einen Computer aber ein Klaks ist.

Letztens nochmal Artikel gelesen, wie schlimm man damals die Anschnallgurte fand... hat sich der deutsche Bürger teilweise massiv gewehrt.. und am Ende wars gut und viel weniger tote..
so wird es auch mit autonomen Fahrzeugen sein, nur das diese natürlich die absolute Krönung sind (zusammen mit den heutigen Sicherheitsmerkmalen wie Gurte und Airbags).
 
Gut, dann anders...
Mein Fahrzeug ist auch vollgestopft mit so ziemlich allem, was der Markt aktuell hergibt. So weit, so gut.
Wenn aber bestimmte Fahrzeuge der Marke Renault vor mir her fahren, "spinnen" die Ultraschall-Abstandswarner und das Fahrzeug bremst nach einer Warnung an den Fahrer.
Wenn man das nun nicht manuell übersteuern könnte, wäre das eventuell doof für den Motorradfahrer hinter mir, der nicht mit solch einem System ausgestattet ist.
 
Ok. Maschinen haben Fehler. Menschen machen Fehler.
Der Vorteil ist, dass wir Fehler aus Maschinen raus kriegen. Aus Menschen aber nicht. Sowas wie bei dir ist natürlich kompletter Rotz und ungeeignet für autonomes Fahren. Sollten vllt. mal Tesla fragen, wie das geht.
Am Ende des Tages werden wir erleben, wie mit steigender Penetration der Technologie Jahr für Jahr weniger Menschen sterben im Verkehr bis wir auf 1% or whatever des heutigen Standes sind.
Weil, ganz ehrlich, dieses moral maschine Ding ist sicherlich interessant.. gerade wenn es drum geht, wie so Bewertungssysteme in Autos aufgebaut sein sollten.. und sicherlich treffen die dann in 0,01% der Fälle diskutable Entscheidungen... aber wenn insgesamt die Zahl der Verkehrstote von 3300 auf 33 schrumpft wird das hoffentlich allen wumpe sein.
 
Du wirst mit deiner Prognose zu Verkehrsunfällen recht haben, wenn wirklich alle Fahrzeuge autonom fahren und vernetzt sind. Davor glaube ich nicht daran.
 
  • Thread Starter Thread Starter
  • #30


Ist völlig egal was einprogrammiert wird, denn Fahrer wird immer so handeln und damit eingreifen.

Öffne mal bitte das Foto was ich ganz unten gepostet habe.
Du gehst davon aus das es A: Einen Fahrer gibt und B: Dieser eingreifen kann.

Das sind zwei Bedingungen die nicht gegeben sein müssen.
 
  • Thread Starter Thread Starter
  • #32
Die Grundsatzfrage die hier ermittelt werden soll ist:
Wie SOLL die Maschine unserer Meinung nach handeln.

Das ist keine Frage von "Fehlern" in der Maschine, es ist eine rein Subjektive Frage der Moral, welche wir "theoretisch" in die Maschine programmieren.
 
Guter Einwand! Aber alles im Leben hat zwei Seiten. Menschen treffen irrationale Entscheidungen und Technik kann versagen.
 
Und ja, mir ist durchaus klar, worum es in diesem Thread eigentlich geht. Habe ja oben schon geschrieben, dass die Diskussion (zwischen mir und theSplit ins OT abdriftet).
 
Zum Spiel: das wurde schon mal gepostet.

Zum Moralkonzept: In den meisten Fällen ist die Anwort ein Mensch kommt öfter in die Problemsituationen und tötet somit im Schnitt deutlich mehr Menschen. Das ist bereits recht ausführlich nachgewiesen. Die einzige Frage die sich noch stellt wie vermarktet man es. Wenn die nicht gelöst werden kann scheisst man auf die Verkehrstoten wie man es bisher getan hat. Ein Menschenleben hat einen Statistisch errechenbaren Preis. Das kann nur kein Firmensprecher zugeben aber beweise dafür kkommen immer mal wieder raus. Zuletzt: VW-Abgsskandal, davor: Selbstmorde bei Auftragsfertigern, ...
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben