iPhone 12 Pro: Was den Lidar-Scanner besonders macht
Die ersten Lidar-Scanner hatten bewegliche Teile, waren so groß wie eine Kaffeemaschine und kosteten 75.000 US-Dollar. Was ist das Besondere an den 3D-Sensoren und wie schaffte es Apple, die Technologie ins iPhone zu packen?
Apple verbaute den Lidar-Scanner erstmals im neuen iPad Pro, das im Frühjahr 2020 erschien. Im Herbst folgten das iPhone 12 Pro und Pro Max. Berichten zufolge wird der Lidar-Scanner ab der nächsten iPhone-Generation in jedem Modell verbaut sein und damit ein Standard-Feature des Smartphones werden. Das zeigt, wie wichtig die Technologie für Apple ist.
Der Lidar-Scanner erlaubt dem iPhone, die Tiefe des Raums zu erkennen. Auf diese Weise sorgt der Sensor für einen schnelleren Kamera-Autofokus und schönere Porträtaufnahmen unter schlechten Lichtbedingungen.
___STEADY_PAYWALL___Noch wichtiger ist die Technologie für Augmented Reality: Dank des Lidar-Scanners kann das Smartphone digitale Objekter schneller und realistischer in der realen Welt platzieren, wie das folgende Video eines Snapchat-Filters demonstriert.
Zu guter Letzt kann man mit dem Lidar-Scanner Gegenstände und ganze Räume in 3D einscannen sowie coole Holo-Videos drehen.
Mit Licht den Raum messen
Der Lidar-Scanner funktioniert nach dem sogenannten Time-of-Flight-Prinzip: Ein Sensor sendet Infrarot-Laserstrahlen aus und misst zugleich, wie lange das Licht braucht, um von Objekten in der Umgebung zurückgeworfen zu werden. Auf diese Weise kann in Sekundenbruchteilen die Entfernung gemessen werden.
Einige Android-Smartphones haben einen Sensor verbaut, der nach diesem Prinzip funktioniert. Er erleuchtet den Raum mit einem Laserblitz und erfasst daraus resultierende Lichtreflexionen. Algorithmen berechnen anschließend ein ungefähres 3D-Abbild der Umgebung.
Das Problem dieses Systems ist, dass die 3D-Messungen relativ ungenau sind: Der ToF-Sensor empfängt Lichtreflexionen aus verschiedenen, teils indirekten Richtungen und Algorithmen können Ungenauigkeiten nur zu einem Teil korrigieren.
Was ist neu an Apples 3D-Sensor?
Apples Lidar-Scanner nutzt ebenfalls Time-of-Flight. Der Unterschied zu anderen Lidar-Scannern ist, dass er statt eines einzelnen breiten Lichtblitzes ein Lichtpunktegitter aussendet und misst. Dadurch wird die Umgebung flächig gescannt. Auf diese Weise entsteht eine 3D-Punktewolke mit weniger Rauschen und Fehlern. Das folgende Video veranschaulicht den Unterschied zwischen den beiden ToF-Messtechniken.
Für die Face ID-Gesichtserkennung nutzt Apple das gleiche Messprinzip. Der hierfür zuständige Truedepth-Sensor arbeitet jedoch weitaus präziser: Rund 30.000 Punkte werden auf das Gesicht des Nutzers projiziert, was in einer deutlich höheren Auflösung der 3D-Abtastung resultiert.
Die ist auch nötig, schließlich muss der Sensor feinste Merkmale des Gesichts erkennen. Das folgende Video veranschaulicht den Unterschied zwischen dem Lidar-Scanner und der Truedepth-Kamera.
Lidar-Scanner: Von der Maschine ...
Lidar war ursprünglich ein Kofferwort aus Licht und Radar und wird heute als Abkürzung für "Light detection and ranging" verwendet, was so viel wie "Lichterfassung und -messung" bedeutet.
Ein Lidar-Scanner besteht aus zwei Grundkomponenten: einem Laser, der Lichtpunkte aussendet und einem Sensor, der Reflexionen erfasst.
- MIXED.de ohne Werbebanner
- Zugriff auf mehr als 9.000 Artikel
- Kündigung jederzeit online möglich
Der erste kommerzielle 3D-Lidar-Scanner kam vor mehr als zehn Jahren auf den Markt: Der HDL-64E von Velodyne bestand aus 64 übereinandergeschichteten Lasern und Lichtdetektoren, die sich um die eigene Achse drehen. Die komplexe Maschine wog knapp 13 Kilogramm und kostete 75.000 US-Dollar.
... zum Smartphone-Chip
Damit die 3D-Messtechnik in ein iPhone passt, setzte Apple auf sogenannte VCSEL ("vertical cavity surface-emitting lasers") als Laser und sogenannte SPAD-Lichtsensoren ("single-photon avalance diodes").
VCSEL strahlen Laserlicht aus ihrer Oberfläche und sind günstig herzustellen, da sie im Vergleich zu anderen Lasern relativ leicht und in hoher Zahl aus Chip-Wafern gewonnen werden können. Das Gleiche gilt für SPAD, die in der Lage sind, einzelne Photonen zu erfassen.
Apple Lidar-Scanner besteht folglich aus einem vergleichsweise günstigen Chip, der hunderte Laserstrahlen aussenden und Reflexionen registrieren kann, ohne komplexe Mechanik oder bewegliche Teile.
Die Technik hat noch mehr Potenzial
Die starke Miniaturisierung hat auch Nachteile: Apples Lidar-Scanner kann sich nicht mit Hochleistungsgeräten für autonome Fahrzeuge messen, die Objekte in mehr als 200 Meter Entfernung erfassen.
Apples 3D-Sensor kommt auf gerade einmal fünf Meter Messdistanz. Für die Raumerfassung mit einem iPhone reicht das jedoch. Durch weitere Verbesserungen könnte sich die Messentfernung in den nächsten Jahren vergrößern.
Die VCSEL- und SPAD-Technologie kommt nicht nur Smartphones zugute, sie könnte auch die Automobilindustrie voranbringen.
Bislang galten Lidar-Systeme als zu komplex und teuer für autonome Fahrzeuge. Doch Unternehmen wie Ouster, Ibeo und Sense arbeiten an VCSEL- und SPAD-basierten Lidar-Scannern, die ohne bewegliche Teile auskommen und Objekte in bis zu 100 Meter Entfernung erfassen.
Wegen ihrer vergleichsweise günstigen Herstellung könnten sie zur Durchsetzung von Lidar-Technologie für autonome Fahrzeuge beitragen.
Quellen: Ars Technica, Gadgethacks
Weiterlesen über Lidar:
- Neuer Lidar-Chip für autonomes Fahren von Mobileye vorgestellt
- AR und autonomes Fahren: Lidar-Start-up erhält Millioneninvest
- iPhone 13: Lidar-Scanner soll Standard werden
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.