Dévoilée en même temps que l’iPhone 12, la technologie LiDAR, couplée au radar, pourrait également être utilisée sur les très attendues Apple Glass pour améliorer la vision dans le noir. La firme de Cupertino a récemment déposé un brevet décrivant le procédé, qui repose sur une détection de l’environnement avant d’afficher un rendu graphique.

 

concept design apple glass
Crédits : iDrop News

 

Présente sur l’iPhone 12 Pro et Pro Max, la technologie LiDAR a été un des grands arguments de vente des smartphones lors de la keynote de présentation. Complémentaire du capteur photo, cette dernière permet notamment une de nouvelles possibilités en réalité augmentée, mais également un meilleur autofocus, notamment de nuit. C’est cette dernière application qui a sûrement inspiré le nouveau brevet d’Apple concernant ses futures lunettes connectées.

À lire également : Apple Glass : date de sortie, prix, fiche technique, tout savoir

Intitulé “Head-Mounted Display With Low Light Operation” (“écran monté au niveau de la tête avec mode basse luminosité”, aussi abrégé HMD), celui-ci évoque la possibilité pour les Apple Glass d’améliorer la vision nocturne, rendu possible par une combinaison du LiDAR et du radar. Grâce à des capteurs placés dans le HMD, ces deux technologies scannent l’environnement avant de créer une reconstitution graphique pour l’utilisateur. “Le capteur de profondeur détecte l’environnement, et notamment la distance entre les objets et cet environnement”, précise Apple.

Détecter l’environnement pour mieux voir dans l’obscurité

Cette capacité de calcul, le LiDAR en a déjà fait preuve sur les iPhone 12 Pro en mesurant précisément la taille des gens. C’est justement cette capacité de détection qui intéresse Apple, qui compte visiblement la décliner sur d’autres produits. “Le capteur de profondeur inclut généralement un dispositif  d’éclairage et un détecteur”, évoque la firme. “Le dispositif d’éclairage émet des radiations électromagnétiques (par exemple des lumières infrarouges) dans l’environnement. Le détecteur observe le reflet des radiations électromagnétiques sur les objets se trouvant dans l’environnement”

Le brevet explique ensuite que l’appareil recrée graphiquement ce que l’utilisateur “voit” et déclenche ensuite la diffusion de l’image sur les lunettes. Il précise que ce procédé “se déroule simultanément avec la détection de l’environnement.” On sait encore très peu de choses des fonctionnalités de l’Apple Glass, si ce n’est qu’elle permettra de protéger l’écran de son iPhone des regards indiscrets. Nul doute que la technologie LiDAR enrichit le champ des possibles pour le futur accessoire.

 

Comments are closed.