Wales: Fehlerrate bei Gesichtserkennung von Menschenmassen liegt bei 92 Prozent


Erste Ergebnisse eines Praxistests zur automatischen Gesichtserkennung in Echtzeit, den die Waliser Polizei seit Juni 2017 durchführt, lieferten eine hohe Fehlerquote. Dabei sollten Kameras die Gesichter der Besucher erfassen und diese automatisiert mit den aktuellen Fahndungslisten abgleichen. So hat die Software beim Finale der Champions League 2017 im walisischen Cardiff bei mehr als 2000 Personen fälschlich Alarm ausgelöst. Kein System sei hundertprozentig sicher, verteidigte es hingegen die Polizei, .



Ein von der walisischen Polizei verwendetes System zur Gesichtserkennung hat beim Finale der Champions League 2017, als rund 170.000 Personen Cardiff besuchten, um das Fußballspiel zwischen Real Madrid und Juventus anzuschauen, davon 2470 Menschen fälschlicherweise als potentielle Verdächtige angezeigt. Konkret traf das aber nur auf 173 Besucher zu. Daraus resultiert die deutlich hohe Fehlerquote von 92 Prozent.



Die südwalisische Polizei räumte ein, dass „kein Gesichtserkennungssystem zu 100% korrekt ist“, immerhin habe man seit der Einführung des Systems mehr als 2000 echte Kriminelle identifizieren können, wodurch es zu 450 Festnahmen kam. Die Polizei gab dazu bekannt: „Zu den resultierenden Verurteilungen gehören sechs Jahre Gefängnis für Raub und viereinhalb Jahre Haft für Diebstahl“. Es hieß auch, dass niemand infolge eines derartigen „False Positives“ festgenommen worden sei und auch aus der Öffentlichkeit habe sich keiner beschwert. Die hohe Fehlerrate beim Finale der Champions League sei auf eine „schlechte Qualität“ der Fotos zurückzuführen, die von Europas Fußballverband UEFA, Interpol und anderen diversen Quellen geliefert worden seien. Bei anderen durchgeführten Tests fielen die Ergebnisse ähnlich schlecht aus: bei einem Boxkampf waren 90 Prozent der „erkannten“ Kriminellen falsch, bei einem Rugby-Match sank die Fehlerquote dann aber bereits auf 87 Prozent.

Kritik an diesem System kommt von der Bürgerrechtsbewegung Big Brother Watch: „Die automatische Gesichtserkennung in Echtzeit ist nicht nur eine Gefahr für Bürgerrechte, sie ist auch ein gefährlich ungenaues Polizeiwerkzeug.“, . Matt Jukes, Polizeipräsident in South Wales hält dagegen und meint: „Wir brauchen Technologie, wenn tausende Menschen in Massen kommen und wir die Sicherheit aller gewährleisten wollen und damit haben wir gute Erfahrungen gemacht“.

Bildquelle: , thx! (CC0 Public Domain)




Autor: Antonia
 
Die Überschrift ist falsch.

Es müßte korrekt heißen, daß beim Finale der Champions League 2017 die Rate der false positives bei 92% lag.
In der news wird auf einen Artikel von "the guardian" verwiesen, nach dem bei einem Liam Gallagher Konzert die trefferqoute bei 100% lag.
Also 0% "Fehler".
Beide Zahlen stellen nicht die Gesamtsituation dar.

Wobei Fehler ja schon ein zumindest grenzwertige Begriff in diesem Zusammenhang ist, da es bei der Aufgabenstellung ja bereits um potentielle Verdächtige geht, nicht bereits um eindeutige Identifizierung.
Und man spricht ja auch nicht von einem Fehler, wenn bei einer Polizeikontrolle bei jemanden nichts zu beanstanden ist.

Sicher aber ist, daß es da noch viel Luft nach oben gibt.

Ich persönlich finde das unter technischen Gesichtspunkten durchaus spannend und erkenne auch den möglichen Nutzen. Allerdings auch ebenso den Preis den der einzelne mit seiner persönlichen Freiheit dafür bezahlen muß.
 
Müsste es nicht eher "...davon 2470 Menschen als potentielle Verdächtige angezeigt. Konkret traf das aber nur auf 173 Besucher zu." heißen ???
Sonst wären die 92% (sind das nicht 93% ?) doch eher die Trefferquote, und keine Fehlerrate.
 
Ein von der walisischen Polizei verwendetes System zur Gesichtserkennung hat beim Finale der Champions League 2017, als rund 170.000 Personen Cardiff besuchten, um das Fußballspiel zwischen Real Madrid und Juventus anzuschauen, davon 2470 Menschen fälschlicherweise als potentielle Verdächtige angezeigt. Konkret traf das aber nur auf 173 Besucher zu. Daraus resultiert die deutlich hohe Fehlerquote von 92 Prozent.

Es wurden nicht 2470 Menschen fälschlicherweise als potentielle Verdächtige angezeigt. Der Satz ist auch falsch.
Es wurden 2470 Menschen als potentielle Verdächtige angezeigt.173 waren true positives. Bleiben also 2.297 false positives.
 
Zurück
Oben