• Hallo liebe Userinnen und User,

    nach bereits längeren Planungen und Vorbereitungen sind wir nun von vBulletin auf Xenforo umgestiegen. Die Umstellung musste leider aufgrund der Serverprobleme der letzten Tage notgedrungen vorverlegt werden. Das neue Forum ist soweit voll funktionsfähig, allerdings sind noch nicht alle der gewohnten Funktionen vorhanden. Nach Möglichkeit werden wir sie in den nächsten Wochen nachrüsten. Dafür sollte es nun einige der Probleme lösen, die wir in den letzten Tagen, Wochen und Monaten hatten. Auch der Server ist nun potenter als bei unserem alten Hoster, wodurch wir nun langfristig den Tank mit Bytes vollgetankt haben.

    Anfangs mag die neue Boardsoftware etwas ungewohnt sein, aber man findet sich recht schnell ein. Wir wissen, dass ihr alle Gewohnheitstiere seid, aber gebt dem neuen Board eine Chance.
    Sollte etwas der neuen oder auch gewohnten Funktionen unklar sein, könnt ihr den "Wo issn da der Button zu"-Thread im Feedback nutzen. Bugs meldet ihr bitte im Bugtracker, es wird sicher welche geben die uns noch nicht aufgefallen sind. Ich werde das dann versuchen, halbwegs im Startbeitrag übersichtlich zu halten, was an Arbeit noch aussteht.

    Neu ist, dass die Boardsoftware deutlich besser für Mobiltelefone und diverse Endgeräte geeignet ist und nun auch im mobilen Style alle Funktionen verfügbar sind. Am Desktop findet ihr oben rechts sowohl den Umschalter zwischen hellem und dunklem Style. Am Handy ist der Hell-/Dunkelschalter am Ende der Seite. Damit sollte zukünftig jeder sein Board so konfigurieren können, wie es ihm am liebsten ist.


    Die restlichen Funktionen sollten eigentlich soweit wie gewohnt funktionieren. Einfach mal ein wenig damit spielen oder bei Unklarheiten im Thread nachfragen. Viel Spaß im ngb 2.0.

[Tarnkappe] Wales: Fehlerrate bei Gesichtserkennung von Menschenmassen liegt bei 92 Prozent


Erste Ergebnisse eines Praxistests zur automatischen Gesichtserkennung in Echtzeit, den die Waliser Polizei seit Juni 2017 durchführt, lieferten eine hohe Fehlerquote. Dabei sollten Kameras die Gesichter der Besucher erfassen und diese automatisiert mit den aktuellen Fahndungslisten abgleichen. So hat die Software beim Finale der Champions League 2017 im walisischen Cardiff bei mehr als 2000 Personen fälschlich Alarm ausgelöst. Kein System sei hundertprozentig sicher, verteidigte es hingegen die Polizei, berichtet The Guardian.



Ein von der walisischen Polizei verwendetes System zur Gesichtserkennung hat beim Finale der Champions League 2017, als rund 170.000 Personen Cardiff besuchten, um das Fußballspiel zwischen Real Madrid und Juventus anzuschauen, davon 2470 Menschen fälschlicherweise als potentielle Verdächtige angezeigt. Konkret traf das aber nur auf 173 Besucher zu. Daraus resultiert die deutlich hohe Fehlerquote von 92 Prozent.



Die südwalisische Polizei räumte ein, dass „kein Gesichtserkennungssystem zu 100% korrekt ist“, immerhin habe man seit der Einführung des Systems mehr als 2000 echte Kriminelle identifizieren können, wodurch es zu 450 Festnahmen kam. Die Polizei gab dazu bekannt: „Zu den resultierenden Verurteilungen gehören sechs Jahre Gefängnis für Raub und viereinhalb Jahre Haft für Diebstahl“. Es hieß auch, dass niemand infolge eines derartigen „False Positives“ festgenommen worden sei und auch aus der Öffentlichkeit habe sich keiner beschwert. Die hohe Fehlerrate beim Finale der Champions League sei auf eine „schlechte Qualität“ der Fotos zurückzuführen, die von Europas Fußballverband UEFA, Interpol und anderen diversen Quellen geliefert worden seien. Bei anderen durchgeführten Tests fielen die Ergebnisse ähnlich schlecht aus: bei einem Boxkampf waren 90 Prozent der „erkannten“ Kriminellen falsch, bei einem Rugby-Match sank die Fehlerquote dann aber bereits auf 87 Prozent.

Kritik an diesem System kommt von der Bürgerrechtsbewegung Big Brother Watch: „Die automatische Gesichtserkennung in Echtzeit ist nicht nur eine Gefahr für Bürgerrechte, sie ist auch ein gefährlich ungenaues Polizeiwerkzeug.“, posteten sie auf Twitter. Matt Jukes, Polizeipräsident in South Wales hält dagegen und meint: „Wir brauchen Technologie, wenn tausende Menschen in Massen kommen und wir die Sicherheit aller gewährleisten wollen und damit haben wir gute Erfahrungen gemacht“.

Bildquelle: geralt, thx! (CC0 Public Domain)



https://tarnkappe.info/wales-fehler...on-menschenmassen-liegt-bei-92-prozent/Quelle
Autor: Antonia
Originalbeitrag auf Tarnkappe.info
 

KaPiTN

♪♪♫ wild at heart ♪♫♫♪

Registriert
14 Juli 2013
Beiträge
29.138
Die Überschrift ist falsch.

Es müßte korrekt heißen, daß beim Finale der Champions League 2017 die Rate der false positives bei 92% lag.
In der news wird auf einen Artikel von "the guardian" verwiesen, nach dem bei einem Liam Gallagher Konzert die trefferqoute bei 100% lag.
Also 0% "Fehler".
Beide Zahlen stellen nicht die Gesamtsituation dar.

Wobei Fehler ja schon ein zumindest grenzwertige Begriff in diesem Zusammenhang ist, da es bei der Aufgabenstellung ja bereits um potentielle Verdächtige geht, nicht bereits um eindeutige Identifizierung.
Und man spricht ja auch nicht von einem Fehler, wenn bei einer Polizeikontrolle bei jemanden nichts zu beanstanden ist.

Sicher aber ist, daß es da noch viel Luft nach oben gibt.

Ich persönlich finde das unter technischen Gesichtspunkten durchaus spannend und erkenne auch den möglichen Nutzen. Allerdings auch ebenso den Preis den der einzelne mit seiner persönlichen Freiheit dafür bezahlen muß.
 

Fummsel

NGBler

Registriert
11 Dez. 2016
Beiträge
234
Müsste es nicht eher "...davon 2470 Menschen als potentielle Verdächtige angezeigt. Konkret traf das aber nur auf 173 Besucher zu." heißen ???
Sonst wären die 92% (sind das nicht 93% ?) doch eher die Trefferquote, und keine Fehlerrate.
 

KaPiTN

♪♪♫ wild at heart ♪♫♫♪

Registriert
14 Juli 2013
Beiträge
29.138
Ein von der walisischen Polizei verwendetes System zur Gesichtserkennung hat beim Finale der Champions League 2017, als rund 170.000 Personen Cardiff besuchten, um das Fußballspiel zwischen Real Madrid und Juventus anzuschauen, davon 2470 Menschen fälschlicherweise als potentielle Verdächtige angezeigt. Konkret traf das aber nur auf 173 Besucher zu. Daraus resultiert die deutlich hohe Fehlerquote von 92 Prozent.

Es wurden nicht 2470 Menschen fälschlicherweise als potentielle Verdächtige angezeigt. Der Satz ist auch falsch.
Es wurden 2470 Menschen als potentielle Verdächtige angezeigt.173 waren true positives. Bleiben also 2.297 false positives.
 
Oben