Logo preload
Menú
Ir arriba

El uso del láser no es ajeno a las aplicaciones industriales o la seguridad. Esta tecnología es clave, también, en el desarrollo del coche autónomo. Pero la integración de un sensor láser (el LiDAR) en los smartphones puede ser un cambio trascendental, tanto para las capacidades fotográficas de los dispositivos móviles como para un nuevo impulso (¿será el definitivo?) de la realidad aumentada.

La incorporación de sensores láser en los móviles mejora las prestaciones de las cámaras y abre el campo al desarrollo de la realidad aumentada para el gran consumo.

La constante evolución de los móviles ha consolidado en 2020 un salto en la conectividad (impulsado por la llegada del 5G) y en el número y sofisticación de sus cámaras incorporadas: mientras los grandes esfuerzos de los fabricantes se centran en esas prestaciones —así como en la duración de las baterías y en la rapidez de recarga— irrumpe la tendencia de integrar sensorespara que estas máquinas entiendan mejor el mundo que les rodea, incorporando a los móviles un viejo conocido tecnológico.

La guerra de los megapíxeles y el zoom, que ya vivieron las cámaras fotográficas digitales en la década pasada, vuelve con fuerza al terreno de los teléfonos inteligentes, que aspiran ahora a destronarlas definitivamente. En este contexto, los fabricantes de la familia Android —Xiaomi, Huawei y Samsung, fundamentalmente— han presentado importantes novedades en el último año, mientras que su rival Apple no parece haber dado pasos significativos en esa carrera y se ha concentrado en aprovechar la faceta que lidera: el rendimiento del cerebro de los dispositivos, su procesador, así como su integración con el sistema operativo, ambos diseñados por el fabricante de Cupertino (EEUU). Sin embargo, en 2020 la gran novedad de Apple ha venido con la incorporación del sensor LiDAR, de momento reservado a la gama alta de dispositivos (el iPad Pro y el iPhone Pro).

Tanto el LiDAR como los sistemas ToF, que se venían usando antes, recopilan la información recogida del exterior y la procesan gracias a la inteligencia artificial para conseguir la mejor imagen.

Una tecnología heredada para cambiar el panorama móvil

El uso de esta tecnología, sin embargo, no es algo nuevo. El escáner LiDAR (Light Detection and Ranging, por sus siglas en inglés) permite establecer la distancia a la que está un objeto, mediante la emisión de un haz de luz láser pulsada y determinando el tiempo en que esa luz rebota y es captada de nuevo por el sensor. A diferencia del radar, que utiliza ondas de radio para la detección de los objetos, el LiDAR permite recoger información en un plano de 360º generando una nube de puntos con la que recrea en 3D, con una alta sensibilidad, el espacio físico que rodea a los sensores.

Este sistema es un viejo conocido de las aplicaciones industriales o de la seguridad avanzada; pero también de la aviación, para mapear la superficie terrestre, e incluso la arqueología, para desvelar ruinas ocultas por la vegetación o enterradas bajo tierra. Este escáner se ha convertido, además, en la pieza clave de los vehículos autónomos, a los que dota de “visión” para poder detectar obstáculos así como a la distancia a la que se encuentran, de manera que puedan evitarse y reorientar la dirección de la conducción. Es el dispositivo por el que han optado, por ejemplo, los coches Waymode Google, pero también otros fabricantes como General Motors, Ford, Hyundai y Volkswagen para los asistentes de conducción de sus automóviles convencionales.

Este tipo de sensores consigue avanzar hacia el objetivo de mejorar la interacción de los dispositivos con el entorno. De hecho, todas estas aplicaciones tienen en común un equilibrio entre la recopilación y el análisis de datos, algo que puede ser muy útil aplicado a tabletas y teléfonos inteligentes. Es decir, permite conseguir con estos terminales ir un paso más allá a la hora de reconocer el contexto que los rodea, por ejemplo, cuando se toma una imagen, o interpretarlo y dotarle de información extra, como ocurre con la realidad aumentada (AR).

Antes de que Apple incorporara LiDAR a sus móviles, otros fabricantes ya venían utilizando diferentes sistemas de sensores de profundidad. Es el caso de los ToF (siglas de Time of Flight, tiempo de vuelo en inglés), que a partir de un haz de luz infrarroja componen una escena en 3D, permitiendo medir la profundidad completa, incluido los objetos que forman parte de ella, sin necesidad de enfocar varios planos, información que se procesa gracias a la inteligencia artificial. Estos sensores ya llevan unos años permitiendo en nuestros dispositivos, por ejemplo, el reconocimiento facial o modos de fotografía como el retrato y la fotografía nocturna, evitando imágenes borrosas, de grano gordo y poca definición. Es el sistema que utiliza la mayoría de los modelos Android.

La propuesta de LiDAR, a diferencia de los sensores ToF, recoge más información, ya que en lugar de un solo pulso de luz para mapear un espacio entero, este escáner utiliza múltiples puntos de luz para elaborar la lectura del entorno, con un resultado más rápido, de mayor sensibilidad y exactitud. Es decir, gracias a estos sensores, se toman varias fotografías con diferente exposición que luego son analizadas e interpretadas para crear esa nueva imagen a partir de las mejores capturas en cuestión de nanosegundos.

Más allá de las prestaciones de los smartphones, la llegada del LiDAR inicia una nueva era centrada en buscar que los dispositivos se entiendan mejor con el entorno. Crédito: Wikimedia Commons.

El camino hacia la realidad aumentada de gran consumo

El paso dado por Apple lanza una nueva carrera en el mercado de los dispositivos móviles centrada en la fotografía computacional y la realidad virtual, impulsando que otros fabricantes trabajen también en nuevas modificaciones de los sensores ToF para sus terminales. Es el caso de Samsung, por ejemplo, que ya ha presentado también su propio sensor ISOCELL Vizion 33D, especialmente orientado a mejorar las funcionalidades de sus cámaras. Y abre también la puerta a retomar otros proyectos de realidad aumentada, en los que actores como Google ya tienen un camino recorrido. El gigante había utilizado también el sistema de sensores para recrear la experiencia virtual móvil con el proyecto Tango, pero lo terminó sustituyendo con la plataforma ARCore, que cubría las expectativas hasta entonces para las cámaras y aplicaciones existentes.

Estos nuevos sensores abren un campo enorme en el desarrollo de apps para incorporar elementos externos en un plano o para escanear espacios, algo especialmente útil para el diseño de interiores, las compras, el turismo o, cómo no, el ámbito de los videojuegos. Esta tecnología, combinada con la inteligencia artificial, pone al alcance del usuario de smartphone una realidad aumentada “instantánea”,—sin necesidad de unas gafas AR, lo que ahorra costes y simplifica el acceso a estas representaciones de la realidad.

¿De qué manera el LiDAR y los sensores tipo ToF cambiarán el uso que hacemos de los smartphones? Aunque de momento estas innovaciones están reservadas a las gamas más altas de los fabricantes, lo que parecen dejar claro es que el foco seguirá estando, probablemente, en las cámaras. El siguiente reto es acercarse cada vez más a la precisión del ojo humano en cualquier condición de iluminación: nuestros teléfonos harán unas fotos que sentiremos como más reales, gracias a que cada vez se entenderán mejor con el entorno; y más allá, esa comprensión abrirá una ventana a nuevas sensaciones de lo que es real, las de la realidad aumentada.

Fuente