Pornhub: künstliche Intelligenz soll nackte Tatsachen sortieren

pornhub_ki.jpg Mehr als 10.000 verschiedene Stars und Sternchen tummeln sich bei der Videoplattform Pornhub in über fünf Millionen Kurzfilmen. Eine künstliche Intelligenz soll die Darsteller nun mittels Gesichtserkennung zuordnen. Später sollen Attribute zugeordnet und die Videos kategorisiert werden. Doch die Sache hat mindestens einen großen Haken.

Das neue KI-Modell, wie man die neue Software in der Pressemitteilung , soll neben offiziellen Fotos von Pornostars auch mit mehreren tausend überprüften Videos gefüttert werden, damit sie weiß, welches Gesicht zu welchem Darsteller passt. Danach soll die künstliche Intelligenz alle fünf Millionen Videos bei Pornhub durchlaufen. Die Besucher erhalten im Anschluss die Möglichkeit, die Zuordnung zu bestätigen oder Fehler zu melden. Auf Basis des Feedbacks der Community soll die Software dann perfektioniert werden.



Machen wir uns nichts vor. Alle pornografischen Videoplattformen haben das gleiche Problem: dort herrscht das pure Chaos. Diverse Videos sind in verschiedenen Auflösungen mindestens doppelt und dreifach vorhanden. Die Beschreibungen vieler Filme sind entweder leer oder fehlerhaft. Weder können die Nutzer gezielt nach ihrem Lieblingsstar, noch nach anderen Attributen wie zum Beispiel dem Ort des Geschehens suchen, um verlässliche Ergebnisse zu erhalten. Bei der Unmenge an Material, welches dort tagtäglich hochgeladen wird, kann das niemand manuell überprüfen. Eine der wenigen Ausnahmen im Web war appleboobs.com, wo bei einer stark eingeschränkten Auswahl an Clips soar die körperlichen Merkmale . So konnte beispielsweise das Alter mit der Oberweite der Schauspielerinnen, der Haarfarbe und anderen Merkmalen verknüpft werden, um nur genau solche Videos zu Gesicht zu bekommen. AppleBoobs gibt es aber nicht mehr. Die Betreiber haben ihre werbefreie Seite vor mehreren Wochen wieder eingestellt. Sobald der Algorithmus bei Pornhub zuverlässig alle Merkmale der Darsteller und der Umgebung erkennen kann, wäre eine ähnlich gezielte Suche auch dort möglich. Dann käme das Chaos in der Datenbank endgültig zum Erliegen.




Gesichtserkennung perfekt, um Menschen an den Pranger zu stellen


Die Sache mit der ausgeklügelten Gesichtserkennung birgt aber auch einige Gefahren. Damit können nämlich auch Laiendarsteller identifiziert werden. Und auch solche, die ihren Clip zu rein privaten Zwecken aufgenommen haben. Im Frühjahr 2016 . Der russische Anbieter der App wirbt bis heute mit dem Slogan „FindFace will find anybody in VK.com“. Die Gesichtserkennung dieses Anbieters gleicht biometrische Daten von Zielpersonen mit denen des sozialen Netzwerks Vkontakte ab. Damit kann man zum Beispiel Laiendarsteller gezielt outen, um ihr Treiben im heimischen Schlafzimmer an den Pranger zu stellen. Das gilt natürlich auch für die Personen, deren Videos oder Nacktfotos ungewollt veröffentlicht wurden. Im Gegensatz zu den großen Portalen interessieren sich unzählige Videoplattformen nicht für Dinge wie Rufschädigungen, dem Recht am eigenen Bild oder Persönlichkeitsverletzungen. Die Sache wird also spätestens dann heikel, sobald Pranger-Apps auf die Profile westlicher Netzwerke zugreifen, was laut Kaspersky Lab

Grafik von , thx!






Autor: Lars "Ghandy" Sobiraj
 
Wer glaubt den Schwachsinn den wirklich.
Nichtmal seine Vertreter sind wirklich davon überzeugt.
 
Auf der flachen Gottesfürchtigen Erde glauben wir das heidnischer Teufel!

Ihr pickt euch doch eure "Tatsachen" wie sie euch gerade passen!
Mr. ZufallHatAllesErschaffen:rolleyes:
 
Ich glaube nicht das man sich hier wegen der Privatsphäre machen muss, Reddit und andere Seiten die amateur Content hosten sind ja sehr schnell darin Nacktbilder zu löschen. Ich persönlich finde AI die videos taggt gut, ich brauche so etwas selber. Ich habe bestimmt 1TB an Pornos und es wäre echt nett wenn eine AI mir das ganze sortieren würde.
 
Die Sache mit der ausgeklügelten Gesichtserkennung birgt aber auch einige Gefahren. Damit können nämlich auch Laiendarsteller identifiziert werden. Und auch solche, die ihren Clip zu rein privaten Zwecken aufgenommen haben.

Das verstehe ich gerade nicht. Es sollen vorhandene Videos nach Kriterien geordnet werden. Für eine Identifizierung müßten weitere Quellen hinzugezogen werden.
Welche Gefahr meint Lars hier zu erkennen?
 
Hört sich schlimmer an als es eigentlich ist. Ich bin halt ein Sammler, wenn mir ein Video/Photo gefällt dann möchte ich alle Bilder/Videos dieser Person haben, und einige Frauen haben halt mal 100gb an videos von sich selbst. Und wenn ich einen Premium Account habe der nur 2 oder 3 Tage hält, dann downloaded ich so viel ich kann. Ich bin jedenfalls gut auf einen Internetausfall vorbereitet.
 
Auch daran habe ich gedacht, ein Teil der Kollektion ist ja auf meinem Handy gelagert. Ich war früher nicht so gut mit Finanzen, hin und wieder hat mir da die Stromgesellschaft den Saft abgestellt deswegen habe ich da etwas Erfahrung. Früher war das nicht so einfach, damals musste ich Strom vom Keller klauen. Konnte mein Handy dort an die Steckdosen anschließen. Heute kann man ja in jedem Cafe sein Handy aufladen. Wenn ich etwas ganz dringend brauchen sollte, ein Freund von mir arbeitet im IT bereich, und der hat solche adapter die es einem erlauben Festplatten per USB anzuschließen. Ich könnte also meine HDD ausbauen und an meinen Laptop anschließen. Der Laptop selbst hat keine Pornos drauf.
 
Bei einem Terabyte an Pornos auf der Platte würde ich mir eher Gedanken machen, dass der Nachschub an Bepanthen nicht abreißt...
 
Manche besuchen regelmäßig diverse Pornoportale und stöbern da in der Kollektion.
Andere frönen ihrem Sammeltrieb auch noch und haben dann eben viele Pornos auf der Platte. Ist schlussendlich Jacke wie Hose.
 
Zurück
Oben