Ich bezweifle auch, dass das jemals reibungslos funktionieren wird, denn die Software kann über Kameras schlichtweg nicht erkennen wie weit ein Objekt noch weg ist
Bisschen Offtopic:
Finde das auch nicht gut, dass Tesla die USS rausgenommen hat, aber die Aussage würde ich etwas relativieren.
Es ist durchaus möglich, allein durch Kameras ein 3D Modell zu erzeugen und somit auch Entfernungen von Objekten zu messen/berechnen. Das können ja sogar Handykameras oder damals die Microsoft Kinect.
Dahinter steckt manchmal Stereoscopic Vision, sprich 2 Kameras in einem fixen Abstand errechnen aus 2 Bildern eine Punktwolke aus der ein Modell erzeugt werden kann:
[Blockierte Grafik: https://www.intelrealsense.com/wp-content/uploads/2018/07/realsense-depth.gif]
Oder heutzutage häufiger: man hat spezielle Tiefenkameras (Infrared Coded Structured Light), die Pixeln neben RGB Werten auch noch Tiefenwerte zuordnen und daraus ein Tiefenbild erzeugen:
[Blockierte Grafik: https://www.intelrealsense.com/wp-content/uploads/2019/05/what_is_color_depth.jpg]
Also möglich ist es schon, wie es umgesetzt wird ist eine andere Frage