Inhalt
newsletter Newsletter

Mit KI-Bildanalyse erkennt Chatroulette den entscheidenden Unterschied zwischen zwei Früchtchen deutlich besser.

Netz-Veteranen erinnern sich: Im November 2009 startete Chatroulette durch wie Elon Musks zukünftige Marsrakete. Innerhalb weniger Monate trafen sich Millionen Nutzer täglich auf der Plattform, um sich ohne vorherige Registrierung zufällig per Videochat miteinander verbinden zu lassen für kultivierte Gespräche, humorvolle Gags, musikalische Darbietungen, tiefgreifende Philosophie.

Dann griff die alte Internetregel: Je mehr Nutzer, desto Penis.

Die Zahl der nur teilweise oder gar nicht bekleideten Videochatter stieg immer mehr an, sie soll im März 2010 bei mehr als 10 Prozent gelegen haben. Der exhibitionistische Drang einiger Nutzer (und einige andere Dinge) wurde dem Start-up zum Verhängnis, auch weil es damals und in den Folgejahren technisch fast wehrlos war.

Anzeige
Anzeige

KI moderiert bei Chatroulette besser als der Mensch

Der Moskauer Erfinder von Chatroulette Andrey Ternovskiy entschied sich 2019, Chatroulette eine weitere Chance zu geben - und stellte das Projekt professioneller auf. Unter anderem holte er den Australier Andrew Done ins Team, der sich mit maschinellem Lernen befasst. Done startete als Technikchef, später wurde er CEO.

Mit dem Start der Corona-Pandemie stiegen auch die Nutzerzahlen bei Chatroulette. Das Unternehmen trennte die Plattform in einen moderierten und einen unmoderierten Kanal: Auf den moderierten Kanal setzte es KI-Bildanalyse von Amazon, Microsoft und Google an, um unerlaubte Nacktheit zu erkennen und zu blockieren.

Der Durchbruch gelang mit der KI-Software des Start-ups Hive, die auch bei Reddit Inhalte filtert. Laut Done erreicht Hive eine Genauigkeit bei moderativen Eingriffen, die bislang nicht möglich war, und die über der menschlicher Moderatoren liegt.

Hives Bildanalyse-KI reduziert Videostreams mit ungeeigneten Inhalten laut Chatroulette um 75 Prozent. Entsprechende Streams könnten innerhalb einer Sekunde entdeckt werden. Hive gibt dann ein Signal an menschliche Moderatoren in der Schweiz und in Russland, die den Account sperren. Mehr als 600 Millionen Einzelbilder verarbeitete das System bislang.

Hinter der maschinellen Genauigkeit steckt allerdings ein enormer menschlicher Aufwand: Mehr als zwei Millionen Lohnarbeiter weltweit sichten Bilder und beschriften sie für das KI-Training, schreiben beispielsweise "nackter Mann" oder "Mann mit Pistole" zu einem entsprechenden Motiv. Erst so erreicht Hive überhaupt die hohe Genauigkeit in der sehr spezifischen Domäne.

Empfehlung

Quelle: Wired

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!