Metas Metaverse: Experiment legt gravierende Moderationsprobleme offen
Journalisten wollten mit einem Experiment herausfinden, wie Meta die eigene Metaverse-Plattform moderiert. Die Antwort: kaum.
Als Mark Zuckerberg seine Metaverse-Vision vorstellte, versprach er, dass es von den Problemen verschont werden sollte, die Facebook und andere soziale Netzwerke plagen.
Die Website Buzzfeed News schickte Meta einen Katalog mit 19 Fragen, um mehr darüber zu erfahren, wie das Unternehmen die virtuellen Räume von Horizon Worlds moderiert und für Sicherheit sorgt. Horizon Worlds ist Metas zentrale Metaverse-Plattform, die Ende 2021 in den USA und Kanada eröffnete.
___STEADY_PAYWALL___Da Meta nicht auf die einzelnen Fragen eingehen wollte, startete Buzzfeed ein Experiment und kreierte einen Raum mit Inhalten, die auf Facebook und Instagram verboten sind.
Das Ergebnis wurde "The Qniverse" genannt und mit Slogans der QAnon-Bewegung sowie Covid-19-Desinformation gepflastert, die in Facebook oder Instagram einen Bann nach sich zögen. Der Raum blieb allerdings privat und war nur für eine Handvoll eingeladener Buzzfeed-News-Redakteure betretbar, nach dem Vorbild geheimer Facebook-Gruppen.
Metaverse-Moderation: Neuland, auch für Meta
Während der nächsten 36 Stunden wurde das Qniverse nicht von Meta entdeckt. Zumindest reagierte das Unternehmen nicht. Als einer der Redakteure die Welt dem Moderationsteam meldete, geschah zwei Tage lange nichts.
Erst nach der dritten Meldung kam eine Antwort, in der stand, dass der Raum die Inhaltsrichtlinien nicht verletze. Buzzfeed News spekuliert, dass Meta den Raum vielleicht deshalb beließ, weil es ihn für eine Parodie hielt. Erst nachdem sich die Webseite direkt an Metas Kommunikationsabteilung gewandt hatte, wurde der Raum gelöscht.
- MIXED.de ohne Werbebanner
- Zugriff auf mehr als 9.000 Artikel
- Kündigung jederzeit online möglich
Das Experiment zeigt zum einen, dass es seitens Meta Nachholbedarf in Sachen Kontrolle und Erkennung fragwürdiger Inhalte gibt, zum anderen, dass die Moderationsregeln und die Art und Weise ihrer Durchsetzung nicht so transparent sind, wie es das Unternehmen vorgibt. Vermutlich hat sich Meta selbst noch nicht festgelegt und muss erst herausfinden, wie man 3D-Räume effektiv moderiert.
Verhalten statt Inhalte moderieren
Da Horizon Worlds erst ein paar Monate alt ist und vergleichsweise wenige Nutzer:innen haben dürfte, drängt die Lösung dieses Problems weniger stark als bei Facebook und Instagram. Anders wird es sein, wenn sich Millionen von Menschen auf Metas Metaverse-Plattform tummeln. Mark Zuckerberg kündigte vor kurzem an, die Plattform für Smartphones zu öffnen, was zu einem starken Zustrom an Nutzer:innen führen könnte.
In den vergangenen Wochen erhielt Horizon Worlds viel negative Presse. Die Rede war von toxischem Verhalten und sexueller Belästigung in den VR-Räumen der Plattform. Missbräuche, die noch dazu kaum oder gar nicht geahndet werden.
Ein grundsätzliches Problem der Metaverse-Moderation ist, dass nicht nur Geschriebenes und Inhalte, sondern ebenso Geäußertes und Verhalten moderiert werden müsste, was bedeutend schwieriger ist.
Klar, dass sich Meta nicht in der komplizierten Rolle einer Verhaltenspolizei wiederfinden will, die ihre Nutzerschaft rund um die Uhr überwacht. Ein Schritt, den Metas VR- und AR-Chef Andrew Bosworth im Vornherein ausschloss. Dennoch führt kein Weg daran vorbei, zwischen Sicherheit einerseits und Privatsphäre andererseits abzuwägen. Für Meta bleibt noch viel Arbeit zu tun.
Weiterlesen über das Metaverse:
- Ich liebe Virtual Reality – aber das Metaverse juckt mich nicht
- Liebe im Metaverse: Diese Doku begeistert Kritiker
- Meta plant "große Ankündigung" und will Metaverse-Klarheit schaffen
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.