Metas Metaverse: Experiment legt gravierende Moderationsprobleme offen

Metas Metaverse: Experiment legt gravierende Moderationsprobleme offen

Journalisten wollten mit einem Experiment herausfinden, wie Meta die eigene Metaverse-Plattform moderiert. Die Antwort: kaum.

Als Mark Zuckerberg seine Metaverse-Vision vorstellte, versprach er, dass es von den Problemen verschont werden sollte, die Facebook und andere soziale Netzwerke plagen.

Die Website Buzzfeed News schickte Meta einen Katalog mit 19 Fragen, um mehr darüber zu erfahren, wie das Unternehmen die virtuellen Räume von Horizon Worlds moderiert und für Sicherheit sorgt. Horizon Worlds ist Metas zentrale Metaverse-Plattform, die Ende 2021 in den USA und Kanada eröffnete.

___STEADY_PAYWALL___

Da Meta nicht auf die einzelnen Fragen eingehen wollte, startete Buzzfeed ein Experiment und kreierte einen Raum mit Inhalten, die auf Facebook und Instagram verboten sind.

Das Ergebnis wurde "The Qniverse" genannt und mit Slogans der QAnon-Bewegung sowie Covid-19-Desinformation gepflastert, die in Facebook oder Instagram einen Bann nach sich zögen. Der Raum blieb allerdings privat und war nur für eine Handvoll eingeladener Buzzfeed-News-Redakteure betretbar, nach dem Vorbild geheimer Facebook-Gruppen.

Metaverse-Moderation: Neuland, auch für Meta

Während der nächsten 36 Stunden wurde das Qniverse nicht von Meta entdeckt. Zumindest reagierte das Unternehmen nicht. Als einer der Redakteure die Welt dem Moderationsteam meldete, geschah zwei Tage lange nichts.

Erst nach der dritten Meldung kam eine Antwort, in der stand, dass der Raum die Inhaltsrichtlinien nicht verletze. Buzzfeed News spekuliert, dass Meta den Raum vielleicht deshalb beließ, weil es ihn für eine Parodie hielt. Erst nachdem sich die Webseite direkt an Metas Kommunikationsabteilung gewandt hatte, wurde der Raum gelöscht.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

Die Horizon-Worlds-Welt Quniverse mit QAnon- und Pro-Trump-Parolen.

Ein Screenshot des "Qniverse" in Horizon Worlds. | Bild: Buzzfeed

Das Experiment zeigt zum einen, dass es seitens Meta Nachholbedarf in Sachen Kontrolle und Erkennung fragwürdiger Inhalte gibt, zum anderen, dass die Moderationsregeln und die Art und Weise ihrer Durchsetzung nicht so transparent sind, wie es das Unternehmen vorgibt. Vermutlich hat sich Meta selbst noch nicht festgelegt und muss erst herausfinden, wie man 3D-Räume effektiv moderiert.

Verhalten statt Inhalte moderieren

Da Horizon Worlds erst ein paar Monate alt ist und vergleichsweise wenige Nutzer:innen haben dürfte, drängt die Lösung dieses Problems weniger stark als bei Facebook und Instagram. Anders wird es sein, wenn sich Millionen von Menschen auf Metas Metaverse-Plattform tummeln. Mark Zuckerberg kündigte vor kurzem an, die Plattform für Smartphones zu öffnen, was zu einem starken Zustrom an Nutzer:innen führen könnte.

In den vergangenen Wochen erhielt Horizon Worlds viel negative Presse. Die Rede war von toxischem Verhalten und sexueller Belästigung in den VR-Räumen der Plattform. Missbräuche, die noch dazu kaum oder gar nicht geahndet werden.

Ein grundsätzliches Problem der Metaverse-Moderation ist, dass nicht nur Geschriebenes und Inhalte, sondern ebenso Geäußertes und Verhalten moderiert werden müsste, was bedeutend schwieriger ist.

Klar, dass sich Meta nicht in der komplizierten Rolle einer Verhaltenspolizei wiederfinden will, die ihre Nutzerschaft rund um die Uhr überwacht. Ein Schritt, den Metas VR- und AR-Chef Andrew Bosworth im Vornherein ausschloss. Dennoch führt kein Weg daran vorbei, zwischen Sicherheit einerseits und Privatsphäre andererseits abzuwägen. Für Meta bleibt noch viel Arbeit zu tun.

Weiterlesen über das Metaverse:

Quellen: Buzzfeed News