Zwischen Belästigung und Hass: Undercover im Metaverse

Zwischen Belästigung und Hass: Undercover im Metaverse

Ein erfahrener Content-Moderator gibt Einblicke in seine Arbeit in Virtual Reality und die Herausforderungen, denen er sich täglich stellen muss.

Tate Ryan-Mosley spricht in seinem Newsletter The Technocrat mit Ravi Yekkanti, einem Content Moderator für Social-VR-Erfahrungen wie Horizon Worlds. Yekkanti überwacht für ein externes Unternehmen virtuelle Welten verschiedener Anbieter. In seinem Job, so Yekkanti, vergehe kein Tag, an dem er nicht mit schlechtem Benehmen konfrontiert werde.

Moderation in VR: Grundlegende Unterschiede zu Social Media

Yekkanti ist seit 2014 als Content Moderator tätig und betont, dass sich die Moderation von VR-Inhalten deutlich von herkömmlicher Content Moderation unterscheide. VR-Moderation fühle sich sehr real an, da man das Verhalten der Spieler direkt moderiere, so Yekkanti.

___STEADY_PAYWALL___

Der große Unterschied zu „normalen“ Social-Media-Plattformen besteht darin, dass nicht nur Text und Bild kontrolliert werden müssen. VR-Moderatoren bewerten vor allem Sprache und Verhalten in Echtzeit. Moderation in Virtual Reality gilt deshalb noch immer als Neuland. Das zeigt auch ein Experiment, das Anfang 2022 gravierende Moderationsprobleme bei Meta offenlegte.

Die noch recht junge VR-Plattform Horizon Worlds hat immer wieder mit Belästigung zu Kämpfen und versucht unter anderem mit Sicherheitsvorkehrungen wie persönlichen Interaktionsgrenzen dagegen vorzugehen.

Auf der Jagd nach Diskriminierung und Hass in VR

Als Moderator ist Yekkanti selbst Teil der virtuellen Welt und nicht als „Offizieller“ erkennbar. VR-Moderator:innen agieren inkognito. Würden sie in irgendeiner Form markiert, könnten Nutzer:innen ihr Verhalten bewusst anpassen.

Sein eigenes Verhalten und Auftreten könne deshalb bei gewissen Spielenden ebenso negative Reaktionen auslösen wie das anderer Nutzer:innen. Allein sein indischer Akzent mache ihn für manche zum Ziel von Spott, Diskriminierung und Mobbing, so Yekkanti.

Manche Spieler:innen wollen einfach böse sein

Zur Vorbereitung auf die Moderation im Metaverse durchlaufen die Moderator:innen eine technische und mentale Schulung. Sie lernen, unerkannt zu bleiben, Gespräche zu beginnen und anderen Spielern bei der Navigation zu helfen.

Gleichzeitig werden sie auf den Umgang mit problematischem Verhalten vorbereitet. Gut geschulte Moderator:innen werden für Anbieter von Social-VR-Plattformen immer wichtiger, da Belästigung im Metaverse keine Seltenheit ist. Metas XR-Chef Andrew Bosworth beschreibt toxisches Verhalten als existenzielle Bedrohung für Metas Metaverse-Pläne.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

Yekkanti erlebt dieses Verhalten fast täglich. „Nicht alle Spieler verhalten sich so, wie man es sich wünscht. Manchmal kommen die Leute nur, um böse zu sein. Wir bereiten uns darauf vor, indem wir verschiedene Szenarien durchgehen, auf die man treffen kann und wie man am besten damit umgeht“, erklärt der Moderator.

So agieren Content Moderator:innen bei Verstößen

Moderator:innen erfassen alle relevanten Informationen wie den Namen des Spiels, die Teilnehmenden, die Dauer der jeweiligen Session sowie den Verlauf von Konversationen. Häufig müssen sie auch abwägen, wann eine Grenze überschritten wird.

Als grenzwertiges Verhalten wird beispielsweise die Verwendung von Schimpfwörtern aus Frust angesehen. „Wir verfolgen das trotzdem, weil vielleicht Kinder auf der Plattform sind“, sagt Yekkanti. Wenn es zu persönlich werde, müsse er als Moderator auf jeden Fall eingreifen.

Bei schwerwiegenden Verstößen gegen die Verhaltensrichtlinien gebe es verschiedene Möglichkeiten, wie das Stummschalten oder das Entfernen von Spielenden aus dem Spiel. Außerdem würden solche Vorfälle den Auftraggebern gemeldet, die dann weitere Maßnahmen ergreifen könnten.

Content-Moderation kann Leben retten

Trotz aller Probleme betont der Moderator, dass seine Arbeit Spaß mache und auch wichtig sei. Ein Beispiel dafür sei die erfolgreiche Rettung eines entführten Kindes, das über eine Online-Plattform um Hilfe gebeten hatte.

Yekkanti habe daraufhin die Rettungskräfte eingeschaltet und das Kind sei gerettet worden. Diese Erfahrung habe ihn gelehrt, dass seine Arbeit tatsächlich die reale Welt beeinflusse und zur Sicherheit der Nutzerinnen und Nutzer beitrage.

Quellen: Technology Review