Metas neuer Super-GAU: Belästigung im Metaverse

Metas neuer Super-GAU: Belästigung im Metaverse

Was ist schlimmer als Hassrede und Mobbing bei Facebook? Hassrede und Mobbing im Metaverse. Dieses Risiko sieht auch Metas Technikchef Andrew Bosworth.

Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen.
Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.

In einem der Financial Times vorliegenden internen Memo schwört Bosworth die Meta-Belegschaft entsprechend auf maximale Metaverse-Sicherheit ein: Die zu entwickelnde Plattform müsse Sicherheit „fast auf Disney-Niveau“ bieten, solange die Meta-Marke darüberstehe. Für Welten und Räume von Drittanbietern könnten andere Regeln gelten.

Bosworth beschreibt toxisches Verhalten und Belästigung als mögliche „existenzielle Bedrohung“ für Metas Metaverse-Pläne, wenn beides dazu führe, dass Menschen den Spaß an VR verlieren. Metas erste Horizon-Trailer kommen dem Disney-Gefühl jedenfalls schon recht nahe.

Wie moderiert man eine komplette Digitalwelt?

In dem Memo schlägt Bosworth vor, die bestehenden Community-Regeln bei Facebook als Grundlage für Virtual Reality zu verwenden, aber strikter bei deren Durchsetzung zu sein über ein Verwarnsystem, Suspendierungen und letztlich dem Ausschluss aus Multi-User-Räumen.

Allerdings ist es laut Bosworth nahezu unmöglich, das Nutzerverhalten in einem größeren Umfang zu moderieren. Er verweist dabei auf den Techdirt-Gründer Mike Masnick, der in einem Artikel aus 2019 beschreibt, dass die Moderation großer digitaler Communitys unmöglich allen involvierten Parteien und Interessen gerecht werden kann. Laut Masnicks ist diese Erkenntnis allerdings keine Entschuldigung für fehlende oder schlechte Moderation.

Während sich Masnicks Argumentation vornehmlich auf die Moderation bezieht, hat Meta gerade im Metaverse zusätzliche Interface-Möglichkeiten, das Verhalten von Nutzer:innen zu steuern. Beispielsweise können digital-körperliche Annäherungen durch Sicherheitszonen unterbunden werden, die Nutzer:innen für sich selbst definieren. Social-VR-Plattformen wie Rec Room machen das vor. Auch Meta testet entsprechende Mechanismen.

Metaverse-Sicherheit: Bosworth veröffentlicht Richtlinien

Womöglich als Reaktion auf die geleakte interne Notiz veröffentlicht Bosworth im Oculus Blog einen Beitrag mit dem Titel „Die Sicherheit der Menschen in VR und darüber hinaus“, in dem er auf verschiedene schon vorhandene VR-Moderationswerkzeuge verweist.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 2,80 € / Monat
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen.
Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.

Dazu zählt der zuvor beschriebene Körperblock, den es auch in Oculus Venues gibt, und die Überwachung durch beobachtende, unsichtbare Moderator:innen, wie sie in der Horizon Beta stattfindet. Die Moderator:innen werden bei konkreten Verdachtsmomenten ausgesandt, etwa nach Beschwerden. Ebenfalls verfügbar sind Meldewerkzeuge direkt in VR und im Web sowie eine Blockadefunktion für einzelne Personen.

Außerdem fertigt die Horizon Beta automatisch laufend Aufzeichnungen an und bewahrt sie in einem Zwischenspeicher auf. Bei Beschwerden können die Aufzeichnungen abgerufen und verschickt werden. Ansonsten werden sie nach einer gewissen Zeit automatisch überschrieben.

„Der Weg zum Metaversum ist ein langer und notwendigerweise kollaborativer Weg, und man kann leicht vergessen, dass VR noch ein relativ junges Medium ist. Gemeinsame Normen für akzeptables Verhalten in diesen Räumen sind noch in der Entstehungsphase“, schreibt Bosworth.

Der Tech-Manager verweist unter anderem auf ein kürzlich von Meta aufgelegtes Forschungsprogramm zur Metaverse-Sicherheit, das 50 Millionen US-Dollar ausschüttet. Das ist eine vergleichsweise geringe Summe, setzt man sie in Relation zu Metas Investitionen in XR-Technologie insgesamt. Allerdings ist es längst nicht Metas einzige Maßnahme.

Weiterlesen über das Metaverse:

Quelle: Financial Times, Oculus Blog, Techdirt