Virtual Reality: Microsoft zeigt Demo für intuitive Spracheingabe

Virtual Reality: Microsoft zeigt Demo für intuitive Spracheingabe

Microsofts neuer Sprachservice erlaubt es Entwicklern, eine lernende und intuitive Spracheingabe in die eigene Anwendung zu integrieren. Speziell für Virtual Reality soll das natürliche Gespräche mit künstlichen Menschen ermöglichen.

Anzeige
Anzeige

Die Virtual Reality schafft nicht allein virtuelle Räume, sondern auch zahlreiche neue Schnittstellen und Paradigmen für die Interaktion mit Computern. 3D-Controller und neue Trackingverfahren sind erste Hinweise auf Veränderung.

Sprache als Interface hingegen ist kein neues Konzept, aber für VR-Anwendungen ein besonders wichtiges. Denn wenn sich ein virtueller Avatar in Lebensgröße vor einem aufbaut, möchte man keine Textboxen wegklicken und sicher keine bruchstückhaften Robotersätze hören - das wäre eher unheimlich. Man möchte sich einfach wie im echten Leben mit dem Gegenüber unterhalten.

___STEADY_PAYWALL___

Der Computer soll nicht auf vorab definierte Befehle hören, sondern die Absicht des Nutzers verstehen

Solche Gespräche soll Microsofts neuer "Custom Speech Service" ermöglichen. Mit einem Lernverfahren ist das Programm laut Microsoft dazu in der Lage, nicht allein auf explizite Sprachbefehle zu hören, sondern die Absicht des Nutzers aus einer Vielzahl von Formulierungen herauszudeuten. Das System gibt dann die richtige Antwort oder führt eine passende Aktion aus.

In Kooperation mit dem eigens für diesen Zweck gegründeten Entwicklerstudio Human Interact zeigt Microsoft die Virtual-Reality-Erfahrung "Starship Commander". Das VR-Spiel wird komplett über Sprache gesteuert, andere Eingabegeräte sollen nicht zum Einsatz kommen. Um sein Raumschiff zu bedienen, spricht man - fast wie bei Star Trek - mit dem Computer.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

"Die Software ist darauf ausgelegt, dass sie immer versteht, was der Nutzer sagt und an die passende Stelle im Skript springt", sagt der Gründer von Human Interact Alexander Mejia.

Das Programm soll sogar so clever sein, dass es Anweisungen und Dialoge eigenständig versteht, die vom Entwickler im Vorfeld nicht bedacht wurden. Um das Raumschiff zu starten, so Meija, könne der Spieler "Let's go" sagen, aber auch "autopilot", "get me out of here," "let’s go faster than light" oder "engage the hyper-drive" und ähnliche Phrasen.

"Custom Speech Service" gibt es vorerst nur in englischer und chinesischer Sprache. Die Software soll jedoch Sprecher mit Akzent verstehen.

| Featured Image: Microsoft | Source: Microsoft