top of page
Logo Lumyeye blanc et bleu sur fond noir, design épuré et moderne.

CES 2026 : Le Guide Complet de l'aide technologique pour aveugles

Dernière mise à jour : il y a 5 jours

Le Consumer Electronics Show (CES) de Las Vegas 2026, le plus grand salon mondial de l'électronique grand publique a dévoilé une nouvelle ère pour l'accessibilité visuelle. L'époque des gadgets rudimentaires est révolue : nous entrons dans l'âge de la vision artificielle haute performance. Pour les personnes en situation de handicap visuel, le choix ne se porte plus sur un simple outil, mais sur une véritable assistance par intelligence artificielle.


Cependant, une question cruciale émerge des allées du salon : faut-il dépenser des milliers d'euros dans des lunettes connectées ou des dispositifs portables (wearables) complexes quand la puissance de calcul réside déjà dans nos poches ? C'est ici que des solutions comme Lumyeye redéfinissent le marché en offrant une alternative logicielle de pointe aux solutions matérielles historiques.


un panorama de l'aide technologique pour aveugles avec Lumyeye au dernier Salon du CES 2026 à Las Vegas



1. Panorama Détaillé des Innovations du CES 2026

Cette édition a été marquée par une débauche de capteurs et de nouveaux formats de dispositifs d'assistance. Voici les 10 innovations majeures qui ont redéfini les standards de l'industrie :


[01] LES LUNETTES .LUMEN : L'IA DE CONDUITE AUTONOME AU SERVICE DU PIÉTON

Originaire de Roumanie, la start-up .lumen a réalisé une prouesse en compressant la technologie des voitures autonomes dans une monture de lunettes. Ce dispositif ne se contente pas de détecter les obstacles ; il comprend son environnement grâce à cinq caméras haute définition fonctionnant de concert avec un processeur embarqué de haute performance. Le système PAD (Pedestrian Autonomous Driving) cartographie l'espace en temps réel, analysant les vecteurs de mouvement des objets environnants 100 fois par seconde.

L'utilisateur perçoit le monde à travers une interface haptique inédite située sur le front. Ce n'est pas une simple vibration, mais une neuro-stimulation sensorielle : une légère impulsion à gauche ou à droite guide la direction, tandis qu'une vibration intense sur toute la bande frontale indique un arrêt d'urgence. Contrairement au chien-guide, qui demande des années de dressage et un coût d'entretien élevé, les lunettes .lumen sont opérationnelles instantanément. Toutefois, cette concentration technologique soulève des questions de coût, car le prix de fabrication d'un tel concentré d'ingénierie spatiale reste, pour l'heure, un investissement majeur souvent inabordable sans aides étatiques ou associatives.


[02] LA CEINTURE ARTHA : QUAND LE BAS DU DOS DEVIENT VOTRE RÉTINE

La ceinture Artha, fleuron de la French Tech, repose sur le concept neurologique de la substitution sensorielle. L'idée est fascinante : utiliser la peau comme une interface d'entrée pour des données normalement réservées à la vision. Le système se compose d'une paire de lunettes équipées d'une caméra grand angle qui envoie les données vidéo à une ceinture lombaire intelligente. Cette ceinture est tapissée d'une matrice de 48 actuateurs piézoélectriques capables de générer des pressions d'une précision chirurgicale.

Lorsqu'un utilisateur se déplace, la ceinture "dessine" littéralement la silhouette des obstacles sur son corps. Si un piéton croise votre chemin de la gauche vers la droite, vous sentirez une onde de pression se déplacer physiquement sur votre région lombaire. L'apprentissage est la clé de cette technologie : après environ 80 à 100 heures d'utilisation, le cerveau crée de nouvelles connexions neuronales. À ce stade, l'utilisateur ne "sent" plus des vibrations, mais commence à "percevoir" des formes et des distances, un phénomène de visualisation mentale qui transforme radicalement l'interaction avec l'espace public en milieu urbain dense.


[03] LE SMART CANE LIDAR V3 : LE RADAR LASER QUI VOIT EN 3D

La canne blanche, symbole universel de la cécité depuis des décennies, connaît sa révolution la plus importante avec la version V3 du Smart Cane LiDAR. En intégrant un capteur LiDAR (Light Detection and Ranging) rotatif miniature, cette canne ne se limite plus au contact physique avec le sol. Elle émet des milliers d'impulsions laser par seconde pour scanner l'environnement dans un rayon de 5 mètres, créant une bulle de protection virtuelle autour de l'utilisateur.

Le véritable changement de paradigme réside dans la détection des obstacles "en hauteur". Les cannes traditionnelles sont impuissantes face aux branches d'arbres, aux rétroviseurs de camions ou aux panneaux de signalisation suspendus. Le Smart Cane LiDAR identifie ces dangers aériens et alerte l'utilisateur par une vibration différenciée dans la poignée : une vibration haute pour un danger à la tête, et une vibration basse pour un obstacle au sol. De plus, elle intègre une IA de reconnaissance de texte capable de lire les noms des rues ou les numéros de bus via une synthèse vocale transmise par conduction osseuse, offrant une autonomie de navigation jusqu'alors réservée aux voyants.


[04] NEURALSENSE BCI : L'INTERFACE DIRECTE ENTRE CAMÉRA ET CERVEAU

NeuralSense repousse les limites de la médecine avec son interface cerveau-machine (BCI) non-invasive. Ce bandeau high-tech n'essaie pas de réparer l'œil, mais de le remplacer. Il utilise la stimulation magnétique transcranienne (TMS) pour envoyer des signaux directement au cortex visuel situé à l'arrière du crâne. En captant les formes via une caméra frontale, le dispositif traduit les données visuelles en signaux magnétiques qui déclenchent la perception de phosphènes (des points de lumière à l'intérieur de l'esprit).

L'utilisateur ne voit pas une image nette, mais une sorte de carte étoilée en mouvement. Avec l'entraînement, ces points lumineux s'organisent pour représenter les contours des portes, les silhouettes des meubles ou la présence d'une fenêtre. C'est une technologie de rupture pour ceux dont le nerf optique est totalement atrophié, car elle court-circuite le système visuel biologique. Bien que nous soyons encore aux prémices d'une vision haute résolution, les tests cliniques montrent que les patients peuvent désormais localiser des objets sur une table ou suivre un couloir sans aucune aide extérieure, marquant le début de l'ère de la vision synthétique.


[05] LE GILET HAPTIQUE SAFESTEP : UNE NAVIGATION "MAINS LIBRES" TOTALE

Le gilet SafeStep a été conçu pour résoudre le problème de la surcharge cognitive. Pour une personne aveugle, écouter les bruits de la rue tout en écoutant un GPS peut être épuisant et dangereux. Ce gilet déporte l'information sur le sens du toucher grâce à 16 moteurs haptiques haute fréquence. Le gilet agit comme un co-pilote silencieux : si vous devez tourner à droite dans 10 mètres, une légère caresse vibratoire commence sur votre épaule droite et s'intensifie à mesure que vous approchez de l'intersection.

L'innovation majeure de SafeStep est sa gestion du danger vertical. Des capteurs à ultrasons intégrés au gilet surveillent les changements de niveau du sol. À l'approche d'un escalier descendant ou d'un bord de quai de métro, le gilet génère une vibration spécifique sur la poitrine, créant un réflexe d'arrêt immédiat chez l'utilisateur. En libérant l'ouïe, le gilet permet de rester connecté à l'ambiance sonore de la ville (bruit des voitures, voix des passants) tout en étant guidé physiquement. C'est une solution idéale pour les environnements bruyants où les instructions vocales deviennent inaudibles ou gênantes.


[06] ESIGHT NEXT : LA RÉALITÉ AUGMENTÉE POUR REVOIR LE MONDE

Pour les millions de personnes souffrant de basse vision ou de dégénérescence maculaire, les lunettes eSight Next représentent un espoir concret. Ce dispositif ne remplace pas la vue, il l'amplifie massivement. Les lunettes capturent le flux vidéo en UHD 8K et le projettent sur deux écrans OLED de pointe à une vitesse de traitement quasi instantanée (faible latence). Le processeur d'image applique des algorithmes de rehaussement de contraste et de filtrage de lumière bleue pour optimiser ce que l'œil peut encore percevoir.

La fonction de zoom numérique x24 est particulièrement impressionnante : elle permet à une personne malvoyante de zoomer sur le menu d'un restaurant, de lire un livre ou même de regarder un film au cinéma avec une clarté retrouvée. Un mode "lecture" permet également de figer le texte et de le faire défiler de manière fluide devant les yeux, compensant les tremblements ou les zones de vision floues. En ajustant la colorimétrie en temps réel, eSight Next aide également les personnes souffrant de photophobie ou de daltonisme sévère à distinguer des détails qui leur étaient auparavant totalement invisibles.


[07] BUDDYVISION : LE PREMIER CHIEN-GUIDE ROBOTIQUE DOMESTIQUE

Samsung révolutionne l'autonomie à domicile avec BuddyVision, un robot mobile doté d'une intelligence artificielle spécialisée dans la vision sémantique. Ce robot ne se contente pas d'éviter les meubles ; il comprend ce qu'il voit. Grâce à sa technologie SLAM (Localisation et Cartographie Simultanées), il crée une carte mentale de votre maison, identifiant chaque pièce et chaque objet fixe. Il devient alors un assistant capable de retrouver n'importe quel objet égaré en quelques secondes.

"Buddy, où sont mes lunettes ?" lance l'IA dans une recherche systématique. Une fois l'objet localisé, le robot se place à côté et émet un signal sonore, ou guide l'utilisateur par la voix en indiquant : "Tes lunettes sont sur la table basse, à dix centimètres du bord droit". Au-delà de la recherche, BuddyVision assure une fonction de sécurité proactive : il patrouille pour détecter des fuites d'eau, des portes restées ouvertes ou des obstacles inhabituels laissés au sol, prévenant ainsi les chutes domestiques qui sont la première cause d'accident chez les seniors malvoyants.


[08] DOT WATCH PRO : LE BRAILLE DYNAMIQUE À VOTRE POIGNET

La Dot Watch Pro est bien plus qu'une montre ; c'est un terminal de communication braille miniaturisé. Elle utilise une technologie électromagnétique pour soulever et abaisser des points de métal, créant ainsi des caractères braille en temps réel. Cette nouvelle version "Pro" double le nombre de cellules braille, permettant une lecture plus fluide des messages longs, des emails ou même de livres numériques directement depuis son poignet, sans avoir besoin d'un lourd terminal braille externe.

L'innovation la plus marquante de ce modèle est son mode graphique. En disposant les points de manière matricielle, la montre peut afficher des formes simples : la courbe d'une météo, l'aiguille d'une boussole ou le tracé simplifié d'une rue sur un plan GPS. L'utilisateur peut ainsi suivre son itinéraire en sentant la direction de la rue du bout des doigts. Entièrement compatible avec les applications de réseaux sociaux, elle permet une discrétion totale pour lire ses notifications en réunion ou dans les transports, offrant une alternative élégante et technologique à la synthèse vocale souvent trop intrusive.


[09] BIO-PAY SCAN : LA FIN DES OBSTACLES AU PAIEMENT

Le moment du passage en caisse est souvent une source de stress pour une personne aveugle : trouver le terminal, insérer la carte, taper le code sans être vu... Bio-Pay Scan règle ce problème par la biométrie de l'iris. Ce terminal de nouvelle génération est équipé d'une caméra infrarouge haute résolution qui identifie l'utilisateur de manière unique en moins d'une seconde, même s'il porte des lunettes de soleil (technologie active IR).

Pour garantir une sécurité absolue, la transaction est validée par un double facteur biométrique (visage + iris) et le montant est dicté directement dans l'oreillette Bluetooth de l'utilisateur. Aucune donnée bancaire n'est stockée localement, tout passe par un cloud ultra-sécurisé. Cela permet de réaliser des achats en toute confiance, sans avoir à manipuler de l'argent liquide ou à demander l'aide d'un tiers. C'est une avancée majeure vers l'inclusion financière, garantissant que chaque transaction est transparente, sécurisée et totalement autonome.


[10] AUDIO MAPPING DE GOOGLE : LA VILLE DEVIENT UN ORCHESTRE

Le projet Audio Mapping de Google est une solution logicielle révolutionnaire qui utilise l'audio spatial 3D pour créer une "vision sonore". En utilisant des écouteurs à conduction osseuse (qui ne bouchent pas les oreilles), l'utilisateur entre dans une réalité augmentée acoustique. Chaque point d'intérêt de la ville se voit attribuer une signature sonore unique : une boulangerie peut émettre un léger son de clochette virtuelle qui semble provenir précisément de l'endroit où se trouve la porte d'entrée.

Cette technologie permet de créer une image mentale précise de la rue. Si une voiture s'approche d'une zone de danger, le logiciel peut générer un son d'alerte dont la source semble se rapprocher physiquement de l'utilisateur. En couplant cela avec les données de Google Maps, le système annonce les noms des magasins et les services disponibles simplement en orientant la tête vers eux. C'est une navigation intuitive qui transforme l'errance urbaine en une exploration riche en informations, permettant aux personnes aveugles de "découvrir" de nouveaux quartiers avec la même curiosité qu'un voyant.



2. Le Paradigme Lumyeye : L'Intelligence sans la Contrainte

Face à cette profusion de matériels spécifiques, coûteux et parfois stigmatisants, Lumyeye propose une rupture technologique totale. Plutôt que de multiplier les accessoires, Lumyeye concentre la puissance de ces innovations dans une seule interface applicative.

Pourquoi Lumyeye, aide technologique pour aveugles, surpasse les solutions matérielles à 4 000 € ? 


L'avantage de Lumyeye réside dans sa fusion logicielle : l'application remplace à elle seule la lecture OCR d'un OrCam MyEye et la reconnaissance d'objets des robots domestiques. Là où un dispositif matériel devient obsolète en deux ans, Lumyeye bénéficie de mises à jour hebdomadaires, intégrant instantanément les derniers modèles de langage (LLM) et les avancées de la vision assistée.


Surtout, la barrière financière est brisée : alors qu'un équipement complet au CES 2026 coûte le prix d'une voiture d'occasion, Lumyeye offre une vision artificielle premium pour 14,90 € par mois. C'est la fin du matériel lourd et des câbles : votre smartphone devient votre majordome visuel, discret, évolutif et radicalement plus performant.



3. Bilan Financier : L'Addition du Futur

Si vous deviez vous équiper avec les technologies matérielles présentées au CES pour obtenir une autonomie complète, voici votre facture :

  • Navigation & Obstacles (.lumen + Smart Cane) : 4 500 € + 800 € = 5 300 €

  • Lecture & Reconnaissance (OrCam + eSight) : 3 800 € + 6 000 € = 9 800 €

  • Aide Domestique (BuddyVision) : 1 500 €

  • Guidage Urbain (SafeStep) : 600 €

  • Analyse de documents (Envision Glasses) : 3 200 €




Conclusion : L'IA au service de tous, sans barrière financière

Le CES 2026 a confirmé que l'avenir de l'autonomie des aveugles & malvoyants ne réside pas dans des capteurs propriétaires hors de prix, mais dans l'intelligence logicielle.


Pour le prix d'une demi-baguette par jour (14,90 € / mois), Lumyeye vous offre les fonctionnalités d'appareils coutant des milliers d'euros. En choisissant le logiciel plutôt que le matériel, vous n'achetez pas seulement un outil, vous investissez dans une autonomie qui ne pèse rien et qui ne vous ruine pas.


Lumyeye prouve qu'il est possible d'offrir une assistance visuelle premium, capable de rivaliser avec les dispositifs médicaux les plus chers, tout en restant abordable. Le futur de la vision est déjà dans votre poche.


Commentaires


bottom of page