3D

iPhone 12 Pro: Was den Lidar-Scanner besonders macht

iPhone 12 Pro: Was den Lidar-Scanner besonders macht

Die ersten Lidar-Scanner hatten bewegliche Teile, waren so groß wie eine Kaffeemaschine und kosteten 75.000 US-Dollar. Was ist das Besondere an den 3D-Sensoren und wie schaffte es Apple, die Technologie ins iPhone zu packen?

Apple verbaute den Lidar-Scanner erstmals im neuen iPad Pro, das im Frühjahr 2020 erschien. Im Herbst folgten das iPhone 12 Pro und Pro Max. Berichten zufolge wird der Lidar-Scanner ab der nächsten iPhone-Generation in jedem Modell verbaut sein und damit ein Standard-Feature des Smartphones werden. Das zeigt, wie wichtig die Technologie für Apple ist.

Der Lidar-Scanner erlaubt dem iPhone, die Tiefe des Raums zu erkennen. Auf diese Weise sorgt der Sensor für einen schnelleren Kamera-Autofokus und schönere Porträtaufnahmen unter schlechten Lichtbedingungen.

Noch wichtiger ist die Technologie für Augmented Reality: Dank des Lidar-Scanners kann das Smartphone digitale Objekter schneller und realistischer in der realen Welt platzieren, wie das folgende Video eines Snapchat-Filters demonstriert.

Zu guter Letzt kann man mit dem Lidar-Scanner Gegenstände und ganze Räume in 3D einscannen sowie coole Holo-Videos drehen.

Mit Licht den Raum messen

Der Lidar-Scanner funktioniert nach dem sogenannten Time-of-Flight-Prinzip: Ein Sensor sendet Infrarot-Laserstrahlen aus und misst zugleich, wie lange das Licht braucht, um von Objekten in der Umgebung zurückgeworfen zu werden. Auf diese Weise kann in Sekundenbruchteilen die Entfernung gemessen werden.

Einige Android-Smartphones haben einen Sensor verbaut, der nach diesem Prinzip funktioniert. Er erleuchtet den Raum mit einem Laserblitz und erfasst daraus resultierende Lichtreflexionen. Algorithmen berechnen anschließend ein ungefähres 3D-Abbild der Umgebung.

Das Problem dieses Systems ist, dass die 3D-Messungen relativ ungenau sind: Der ToF-Sensor empfängt Lichtreflexionen aus verschiedenen, teils indirekten Richtungen und Algorithmen können Ungenauigkeiten nur zu einem Teil korrigieren.

Was ist neu an Apples 3D-Sensor?

Apples Lidar-Scanner nutzt ebenfalls Time-of-Flight. Der Unterschied zu anderen Lidar-Scannern ist, dass er statt eines einzelnen breiten Lichtblitzes ein Lichtpunktegitter aussendet und misst. Dadurch wird die Umgebung flächig gescannt. Auf diese Weise entsteht eine 3D-Punktewolke mit weniger Rauschen und Fehlern. Das folgende Video veranschaulicht den Unterschied zwischen den beiden ToF-Messtechniken.

Für die Face ID-Gesichtserkennung nutzt Apple das gleiche Messprinzip. Der hierfür zuständige Truedepth-Sensor arbeitet jedoch weitaus präziser: Rund 30.000 Punkte werden auf das Gesicht des Nutzers projiziert, was in einer deutlich höheren Auflösung der 3D-Abtastung resultiert.

Die ist auch nötig, schließlich muss der Sensor feinste Merkmale des Gesichts erkennen. Das folgende Video veranschaulicht den Unterschied zwischen dem Lidar-Scanner und der Truedepth-Kamera.

Lidar-Scanner: Von der Maschine …

Lidar war ursprünglich ein Kofferwort aus Licht und Radar und wird heute als Abkürzung für „Light detection and ranging“ verwendet, was so viel wie „Lichterfassung und -messung“ bedeutet.

Ein Lidar-Scanner besteht aus zwei Grundkomponenten: einem Laser, der Lichtpunkte aussendet und einem Sensor, der Reflexionen erfasst.

Der erste kommerzielle 3D-Lidar-Scanner kam vor mehr als zehn Jahren auf den Markt: Der HDL-64E von Velodyne bestand aus 64 übereinandergeschichteten Lasern und Lichtdetektoren, die sich um die eigene Achse drehen. Die komplexe Maschine wog knapp 13 Kilogramm und kostete 75.000 US-Dollar.

Velodyne_HDL64_E

Der Velodyne HDL64-E ist ein Hochleistungs-3D-Scanner, der für autonome Fahrzeuge entwickelt wurde. | Bild: Velodyne

… zum Smartphone-Chip

Damit die 3D-Messtechnik in ein iPhone passt, setzte Apple auf sogenannte VCSEL („vertical cavity surface-emitting lasers“) als Laser und sogenannte SPAD-Lichtsensoren („single-photon avalance diodes“).

VCSEL strahlen Laserlicht aus ihrer Oberfläche und sind günstig herzustellen, da sie im Vergleich zu anderen Lasern relativ leicht und in hoher Zahl aus Chip-Wafern gewonnen werden können. Das Gleiche gilt für SPAD, die in der Lage sind, einzelne Photonen zu erfassen.

Apple Lidar-Scanner besteht folglich aus einem vergleichsweise günstigen Chip, der hunderte Laserstrahlen aussenden und Reflexionen registrieren kann, ohne komplexe Mechanik oder bewegliche Teile.

iPhone_12_Pro_LIDAR_Sensor

Der Lidar-Scanner ist Bestandteil des iPhone-Kamerasystems. | Bild: Apple

Die Technik hat noch mehr Potenzial

Die starke Miniaturisierung hat auch Nachteile: Apples Lidar-Scanner kann sich nicht mit Hochleistungsgeräten für autonome Fahrzeuge messen, die Objekte in mehr als 200 Meter Entfernung erfassen.

Apples 3D-Sensor kommt auf gerade einmal fünf Meter Messdistanz. Für die Raumerfassung  mit einem iPhone reicht das jedoch. Durch weitere Verbesserungen könnte sich die Messentfernung in den nächsten Jahren vergrößern.

Die VCSEL- und SPAD-Technologie kommt nicht nur Smartphones zugute, sie könnte auch die Automobilindustrie voranbringen.

Bislang galten Lidar-Systeme als zu komplex und teuer für autonome Fahrzeuge. Doch Unternehmen wie Ouster, Ibeo und Sense arbeiten an VCSEL- und SPAD-basierten Lidar-Scannern, die ohne bewegliche Teile auskommen und Objekte in bis zu 100 Meter Entfernung erfassen.

Wegen ihrer vergleichsweise günstigen Herstellung könnten sie zur Durchsetzung von Lidar-Technologie für autonome Fahrzeuge beitragen.

Quellen: Ars Technica, Gadgethacks

Weiterlesen über Lidar: