Grâce à l’IA, les lunettes ne permettent plus seulement de corriger la vue mais sont désormais capables de traduire des langues, reconnaître des objets en temps réel, et même d’analyser l’environnement pour offrir des informations. Mais alors, simple gadget ou révolution en marche ? Quel avenir pour ces lunettes intelligentes ?
Catégorie
🗞
NewsTranscription
00:00Dans notre grand rendez-vous sur l'intelligence artificielle aujourd'hui, Laurent Dodette avec nous, bonjour.
00:08Bonjour.
00:09Vous êtes directeur général cofondateur de Lighton, première société européenne cotée spécialisée dans l'IA générative.
00:16Et avec vous, Jérôme Malzac, directeur de l'innovation, expert en IA générative chez Micropole, bonjour.
00:21Micropole, je rappelle, un cabinet de conseil spécialisé dans la transformation digitale des entreprises.
00:26Alors, je voulais vous faire réagir en particulier à deux choses.
00:29D'abord, ces lunettes connectées qui ne sont pas là depuis hier, qui sont là depuis longtemps, mais qui nous promettent maintenant monts et merveilles grâce à l'intelligence artificielle.
00:37On a notamment un nouveau modèle en préparation du côté de méta.
00:42On a des nouvelles fonctionnalités qui arrivent grâce à l'IA.
00:45Est-ce que vous vous dites, qui leur application de l'intelligence artificielle, pourquoi pas, ça peut être dans les lunettes ?
00:53Alors, je pense très clairement qu'on va aller au-delà du gadget que peuvent représenter les méta-ray-ban qui sont sortis maintenant il y a quelques temps et dont la V2 arrive,
01:03qui, bon, servent des caméras cachées à Laurent Baffi ou autre, ou à filmer ses vacances.
01:07Mais je pense qu'on est déjà, d'ores et déjà, au-delà de ces simples applications.
01:13Je pense notamment à des applications comme chez Silor Luxottica où ça sert d'aide auditive pour remplacer des dispositifs un petit peu plus voyants pour les personnes qui entendent mal.
01:23Vous avez également des applications sur les personnes malvoyantes pour les aider à les guider dans des endroits un petit peu complexes.
01:31Les lunettes filment l'environnement et le décrivent à la personne malvoyante pour lui permettre de se guider en sécurité.
01:38Ça, c'est des vraies applications qui existent aujourd'hui.
01:41Et demain, avec de l'intelligence artificielle embarquée plus, au-delà de l'intelligence artificielle, des écrans,
01:45on va vraiment avoir des dispositifs personnalisés qui, peut-être, comme le fantasme nous laisse présager Mark Zuckerberg chez Meta,
01:55remplacera notre smartphone.
01:57Chez Google, ils sont un peu plus réservés.
01:59Ça va être plutôt une extension du mobile, un peu comme notre montre connectée.
02:02Mais vous avez déjà des acteurs qui projettent des informations.
02:06Google avait essayé de le faire en 2011.
02:08Ça n'avait pas marché parce que la technologie n'était pas là.
02:11Il a vite retiré son...
02:13C'est dommage parce que moi, j'aimais beaucoup les Google Glass et le concept, justement, de ces visites guidées dans les musées
02:19qui passaient directement par les lunettes.
02:21Mais le grand public n'y a pas trouvé son compte.
02:23C'était cher.
02:24Mais parce que la technologie n'était pas là à l'époque.
02:26C'était il y a 12 ans quand même.
02:28Donc l'IA, à l'époque, n'était pas ce qu'elle était.
02:31Et donc, du coup, le device ne fonctionne pas.
02:34Alors, Jérôme, vous vous dites, justement, que ça va permettre aux lunettes de ne plus être un gadget, cette IA.
02:40Et moi, je me disais l'inverse.
02:41Je me disais, mais est-ce que l'IA, ce n'est pas le gadget aujourd'hui ?
02:45On nous promet que quand on va mettre de l'IA, ça va être extraordinaire.
02:48C'est effectivement possible qu'on soit encore à une phase où c'est simplement des early adopters
02:53qui vont utiliser ce type de device.
02:57Moi, j'ai tendance à penser que tant qu'on n'aura pas des vrais LLM embarqués sur ces devices-là,
03:05ça va rester relativement limité le type de fonctionnalité qu'on peut avoir.
03:09Parce que, expliquez-nous, justement, qu'est-ce qu'on aura véritablement comme accès ?
03:14On aura accès à quelle technologie d'intelligence artificielle dans ces dispositifs de lunettes ?
03:19Actuellement, dans les modèles qui sont en train de sortir,
03:22Il y a de la technologie, par exemple, pour faire de la traduction instantanée de discours.
03:30Mais ça passe très souvent par une connexion à votre téléphone.
03:33Votre téléphone va se connecter au cloud.
03:35Le cloud va donner la réponse et ça va revenir.
03:38Donc, ça induit des délais.
03:39Ça induit... Il faut être dans des bonnes conditions de captation, etc.
03:43Le futur, c'est que tout soit embarqué dans les lunettes,
03:46qu'on ait la capacité de calcul,
03:47et faire tourner des gros LLM qui soient capables de faire vraiment l'extension,
03:53l'assistant dont vous avez envie,
03:55qui vous fasse de la planification de votre journée, qui vous aide à...
03:59Ça, c'est pas de l'ASF, d'imaginer des grands modèles de langage
04:02embarqués dans des dispositifs aussi légers ?
04:04C'est pas pour aujourd'hui, mais c'est pour demain.
04:05C'est pour demain.
04:06C'est dans 2-3 ans, peut-être, on aura...
04:08Oui, oui, ça viendra.
04:10La miniaturisation avance.
04:12Et de toute façon, quand vous regardez,
04:15il n'y a pas que méta qui avance sur le sujet.
04:17Google relance.
04:18Ça s'est passé un petit peu inaperçu.
04:20Il y a eu un TED Talk il n'y a pas longtemps aux Etats-Unis
04:22où Google a annoncé une nouvelle version de leur Google Glass.
04:25Les numéros 2, ils les sortent.
04:26Vous avez Samsung qui travaille avec Google pour une paire de lunettes connectées.
04:30Apple et leur projet N50.
04:33Ils y vont, ils n'y vont pas.
04:34Après beaucoup de tergiversations, ils semblent y aller.
04:36Donc, ils vont sortir leurs propres lunettes connectées.
04:39Vous avez X-Riol et Vuzix aussi,
04:41qui travaillent depuis très longtemps sur des lunettes connectées
04:43avec, encore une fois, projection de l'écran.
04:45Donc, pour aller faire aussi de la réalité augmentée et de la réalité mixte.
04:49Et au-delà, moi, je pense des LLM on-edge,
04:51enfin, embarqués sur ce type de dispositif,
04:54vous avez d'autres modèles que des modèles de langage.
04:57Par exemple, des modèles de reconnaissance d'objets.
04:59Ils se font fort utile sur ce type de dispositif.
05:02C'est ce que j'allais dire, parce qu'effectivement, il y a la traduction, vous l'avez citée,
05:05mais tout ce qui est vision par IA est en train de se développer.
05:07Chez Micropole, on travaille pas mal avec des industries dont les employés ont besoin de leurs mains libres.
05:14Notamment dans de l'audit ou dans de l'inspection,
05:16ils ont des outils à la main et pourtant, il faut qu'ils fassent leur rapport
05:18ou qu'ils aient accès à des informations.
05:20Ils ne peuvent pas le faire avec leur smartphone en plus des outils.
05:23Donc, le fait d'avoir un dispositif entièrement endless, sans les mains,
05:27avec qui ils vont pouvoir communiquer, avec qui ils vont pouvoir reconnaître des objets, des choses,
05:31c'est des sujets sur lesquels on travaille déjà.
05:33Et ça, qui peut intéresser pas uniquement le grand public,
05:37mais tout le domaine industriel, le domaine de la formation en entreprise ?
05:40Jusqu'à maintenant, on n'avait pas de dispositif.
05:41On avait des HoloLens de chez Microsoft.
05:45Dispositif assez gros, lourd, la durabilité de la batterie qui laisse à désirer.
05:49Alors, il va falloir faire beaucoup de progrès pour embarquer tout ça sur des petites lunettes.
05:54Mais c'est un vrai bon technologique, je pense, qui intéressera fortement ces industries.
05:58Mais ce que vous signalez, cette question d'autonomie des devices,
06:02ça reste encore un facteur limitant actuellement.
06:05Les lunettes actuellement de méta ont une autonomie de 4 heures
06:08et on ne peut pas les porter toute la journée.
06:09Donc, tant que ce problème-là n'est pas résolu,
06:12on n'arrivera pas, je pense, à une adoption vraiment par le grand public.
06:15On restera dans des applications de niche, celles qu'on a citées,
06:17qui sont très intéressantes, sûrement d'autres.
06:18Mais ça, c'est un vrai enjeu.
06:21Autre vrai enjeu, la question des données personnelles.
06:24Parce qu'effectivement, ces lunettes captent tout l'environnement
06:27et en particulier en Europe, ça risque de coincer.
06:31Oui, alors j'ai moi-même pu tester les méta-Raybans.
06:35Alors, je trouve que la qualité au niveau du son,
06:37quand on lance la musique, elle est exceptionnelle.
06:39Je m'interroge sur la faculté, justement, de la vision par IA,
06:44la capacité à filmer des scènes.
06:46Ça va se confronter au RGPD très, très vite, tout ça.
06:50Oui, tout à fait.
06:51En même temps, est-ce qu'on ne le fait pas déjà avec notre smartphone ?
06:53Vous êtes en vacances, vous filmez votre lieu de vacances.
06:55Mais on le voit.
06:56Vous trouvez donc des images d'autres personnes.
06:57On voit que je filme quand même, aujourd'hui.
06:59Alors qu'avec des lunettes, il y a une petite lumière.
07:01On ne peut pas désactiver et qui permet de voir que ça enregistre.
07:05Je ne sais pas si c'est...
07:06Alors, il y a un vrai sujet de confidentialité, de données privées, ça c'est certain.
07:10Est-ce qu'il est beaucoup plus risqué que ce qu'on a déjà avec des technologies de type smartphone ?
07:16Je ne suis pas sûr.
07:17Puis moi, il y a un dernier point quand même qui me convainc dans le fait que ce seront des devices de demain.
07:24Cette année, au CES, encore une fois, j'ai été au CES cette année.
07:27Et c'était impressionnant de voir le nombre de constructeurs industriels qui travaillent sur des sujets de lunettes connectées.
07:35Il y en avait des dizaines cette année.
07:36En fait, je pense que tout le monde cherche le futur du smartphone.
07:40Oui, c'est ça.
07:41Et quand on voit qu'il y a des investissements à ce point-là, on se dit qu'il y a forcément un marché derrière.
07:46Et qu'ils ne le font pas de façon innocente.
07:47Et quand on travaille sur les grands modèles d'IA, justement, on travaille sur leur portabilité.
07:54Parce qu'on voit aujourd'hui, on a des annonces de grands modèles qui tournent sur des PC portables.
07:59Et vous nous dites, oui, arriver dans des lunettes, ça peut être très rapide.
08:03Ce qui est clair, c'est que cet IA génératif, ça repose carrément toute la question des interactions en machine.
08:08Et le device, ça fait partie de l'interaction en machine.
08:11Est-ce qu'effectivement, ça sera par les lunettes ?
08:14Ou est-ce que ça sera par la voix ?
08:15Ou est-ce que ça sera par des hybrides ?
08:16C'est clair qu'on aura cette IA qui va venir de plus en plus d'objets.
08:25Et l'IA générative est là pour repenser toutes les interactions avec les machines.
08:28Alors, c'est le deuxième sujet qu'on aborde ensemble.
08:31C'est les nouvelles promesses, justement, de ces IA génératives.
08:34Mais aussi de leurs limites.
08:36On a les premiers indicateurs qui nous disent, par exemple,
08:38que pilote chez Microsoft, ça ne marche pas aussi bien qu'on pensait.
08:41C'est-à-dire que c'est mis à disposition d'énormément de personnes.
08:43Mais en termes d'utilisateurs, pour l'instant, visiblement, ça ne correspond pas exactement aux attentes.
08:51Comment est-ce que vous expliquez ça ?
08:53Je pense qu'on nous a beaucoup promis avec l'IA générative et que les acteurs comme Microsoft et les autres GAFAM
09:00nous ont un peu fait fantasmer les usages qu'on pouvait en tirer.
09:05Copilot, effectivement, quand on le déploie, et moi je l'utilise au quotidien,
09:11ce qu'on aimerait en faire et ce qu'on peut en faire à date, c'est assez différent.
09:14On est plutôt limité et frustré parfois dans l'utilisation parce que ce n'est pas encore pile-poil adapté aux besoins de tout un chacun.
09:22Et c'est des besoins qui sont parfois très personnels.
09:24Moi, l'usage que j'en fais, ce sera différent d'une autre personne qui travaille sur un projet chez Micropole.
09:29Un autre élément assez important, c'est que c'est une technologie qui évolue.
09:33En quelques mois, je crois qu'en une année, Microsoft a sorti un petit peu plus de 300 nouvelles fonctionnalités sur Copilot.
09:40C'est énorme.
09:41Justement, parmi ces 300, il doit bien y en avoir une ou deux qui vont nous servir.
09:45Oui, mais pas en continu.
09:47Ce que vous n'aviez pas il y a un mois dans Copilot, vous l'avez peut-être aujourd'hui.
09:51Déjà, ça veut dire qu'il faut systématiquement revérifier est-ce que la fonctionnalité y est ou pas.
09:56Et ensuite, je vous dis, l'usage est tellement personnel que des personnes vont pouvoir l'utiliser dans 20-30% des cas,
10:05peut-être 10 fois dans la journée.
10:07Et puis d'autres, comme moi, vont l'utiliser peut-être sur un seul cas d'usage, la recherche documentaire.
10:12Et on n'ira pas plus loin parce que le besoin dans les autres outils de Microsoft n'est pas encore complètement intégré.
10:17Il y a la question du coût aussi quand même, non ?
10:19Il y a la question du coût, mais je pense que ça, c'est secondaire.
10:23À mon avis, il y a vraiment une question d'éducation, de faire en sorte que ça devienne naturel dans toute son interaction avec les machines.
10:30Et il y a sûrement quelque chose de générationnel, de la même manière qu'il y a les digital natives.
10:35Maintenant, on va arriver à une génération de GPT natives, des gens qui sont nés avec l'IA générative
10:40et qui considèrent ça totalement naturel d'utiliser ces outils pour toutes les tâches du quotidien.
10:45Donc, on inclut les tâches de bureautique et d'intégration et c'est là où les copilots feront tout leur sens d'intégration avec la bureautique.
10:56On est encore à une phase, nous, à Lytown, quand on travaille avec nos clients, où il faut encore beaucoup les accompagner sur la définition des use case
11:02pour définir quels sont les workflows qu'on va pouvoir automatiser, sur lesquels on va avoir des gains de productivité mesurables
11:10et sur lesquels on va pouvoir déployer à l'échelle également.
11:13Est-ce qu'il y a vraiment des gains de productivité, du gain de temps aujourd'hui mesurable avec l'utilisation de l'IA génératif ?
11:19Parce que ça, c'est aussi une petite musique qu'on entend.
11:22Finalement, ça coûte de l'argent, ce n'est pas forcément hyper productif, on ne gagne pas forcément tant de temps que ça.
11:29Si. Enfin, tout va dépendre des métiers, bien évidemment, encore une fois.
11:32Mais on travaille avec certains clients pour qui on a déjà mis en place de l'IA générative.
11:38Et sur certains verticaux, dans certains métiers, sur certains processus dans les RAH, dans le juridique, vous avez des vrais gains de temps.
11:45C'est des personnes qui gagnent 20-30% de leur journée à faire autre chose parce qu'une partie de ces tâches-là ont été automatisées par de l'IA ou de l'IA générative.
11:55Donc il y a aujourd'hui des vrais gains de temps. Là où je rejoins Laurent, c'est qu'on ne fait pas tout avec de l'IA ou de l'IA générative.
12:03Et qu'il faut vraiment travailler en amont le besoin des métiers sur quelles sont les difficultés aujourd'hui et en quoi des outils d'IA ou d'IA générative peuvent venir résoudre ces sujets-là.
12:15Et non pas se dire, c'est le Graal qui va nous faire gagner 50% comme on l'a beaucoup lu et beaucoup entendu pendant un an.
12:22Quand c'est sorti en 2023, on entendait que ça, ça va vous faire gagner, on va remplacer tous les développeurs, les développeurs vont aller 50% plus vite.
12:29C'est pas vrai. On gagne du temps mais pas sur tout.
12:32Et c'est vraiment avec les métiers, ceux qui sont dans le quotidien des process, qu'il faut réussir à analyser l'usage qu'ils vont avoir de l'IA générative.
12:42En tout cas sur les développeurs, là il y a un gain de temps qui est absolument immédiat.
12:47Les ingénieurs dans mon entreprise à Lighton disent qu'ils gagnent entre 20 et 30% de temps simplement à utiliser de l'IA générative, ce qui est absolument énorme.
12:57Et demain avec le déploiement d'agents, ça sera encore plus marqué que ça.
13:03On va parler d'ailleurs après pour ceux qui continuent à rester avec nous, on parlera justement de coder avec l'IA juste après.
13:09Moi j'ai été bluffée par la nouvelle application qui a été mise en ligne par Google, Notebook LM, qui permet de compiler énormément de données, de retrouver les sources.
13:19Parce que ça c'est quelque chose d'important quand on utilise des IA génératives, on aime bien quand même savoir à quoi on peut se référer.
13:24Et de créer des podcasts en fait, de faire des retranscriptions du résumé de manière audio avec deux personnages, c'est hyper réaliste, ça se fait en 5 minutes à peine.
13:36Là c'est un peu vertigineux, j'ai envie de dire, moi j'y crois aux promesses de l'IA générative.
13:43Ça peut transformer véritablement profondément des usages, des métiers.
13:48Mais pour autant, est-ce que vous pensez, je vais être provocateur, mais est-ce que vous pensez que ça remplacera le métier de journaliste ?
13:53Non, parce que les podcasts, c'est pas que ça.
13:57C'est pas que de l'information, de l'enquête et de la pédagogie.
14:00Exactement, c'est un vrai bond technologique, ça permet d'aller plus vite peut-être sur la mise à disposition sous forme de podcast de l'information.
14:07Pour autant, ça remplacera pas un métier.
14:09Le métier sera toujours là, aidé, guidé par un nouvel outil qui est lié à l'IA générativement.
14:12En revanche, d'intégrer une partie justement de cette technologie dans son podcast nativement, ça permet de réfléchir à d'autres façons de faire en fait.
14:21Ça ouvre le champ des possibles.
14:22Tout à fait, s'IA est faite uniquement pour refaire de façon automatisée ce que vous faites avec vos processus humains, finalement c'est assez limité.
14:30Maintenant, il faut penser un cran au-delà de se dire, on a cette technologie absolument extraordinaire, quelle nouvelle façon de travailler ça va me donner ?
14:39Et là, ça ouvre l'univers des possibles.
14:43On voit ce qui est possible maintenant, ce qui sera possible demain.
14:48Et là, notamment avec les agents intelligents, il va y avoir des possibilités qui sont assez vertigineuses.
14:56Mais justement, comment on fait pour penser ce demain ?
14:58En fait, c'est tout l'enjeu de trouver les killers applications.
15:00C'est de se dire, je suis capable d'inventer quelque chose, un usage que je faisais avant d'une certaine façon et qui sera totalement différent demain.
15:08Comment est-ce qu'on accompagne les entreprises là-dedans ?
15:12Parce que j'imagine qu'elles pensent substitution au départ.
15:16Alors au départ, c'est oui.
15:18Moi, les premières questions que j'avais de la part des clients, c'était combien on va remplacer de personnes dans mon entreprise grâce à l'IA.
15:26Ça ne se passe pas comme ça en fait.
15:28Comme on le disait, c'est plutôt quels vont être les sujets qui vont pouvoir être accélérés par l'IA.
15:33Et aujourd'hui, on n'a pas trouvé de killer app.
15:35Enfin, il y a des killer app d'IA générative, mais on n'a pas trouvé le cas d'usage où l'IA générative devient incontournable.
15:43Par contre, il existe tout plein d'un tas de tâches sur lesquelles l'IA générative a un sens.
15:48Et notamment avec les agents, où on va pouvoir maintenant, on peut exécuter les actions.
15:53Ce n'est pas simplement une chaîne de pensée où on vient générer du texte ou des images à la chaîne.
15:57C'est vraiment, on réfléchit, l'IA générative réfléchit, lance une action dans d'autres outils, vient passer la main à un autre agent.
16:06Et ça, l'IA agentique est un vrai sujet.
16:08Et ça se travaille vraiment avec le besoin métier.
16:12Encore une fois, j'insiste sur le sujet parce que c'est vraiment la façon dont on doit aborder ce type de sujet.
16:16Et un autre élément, je pense que ce ne sera pas copilot de Microsoft qui va tout révolutionner.
16:20quand on pense à un paradigme de chez Lighton, de Laurent, c'est grâce à des petites solutions comme ça.
16:27Alors déjà, d'une part souveraine, française, et dont la protection de la donnée est quand même un petit peu plus...
16:31On se sent plus à l'aise avec ce type de solution qu'avec les grands GAFAM.
16:35Et qui sont suffisamment plus flexibles, justement, pour pouvoir créer tout un tas de multi-agents
16:39qui vont répondre non pas globalement à un sujet, à un métier, mais tout un tas de petites tâches dans un métier.
16:48Oui, oui, et probablement...
16:50Un mot, Laurent, oui.
16:51Oui, probablement, on ne va pas moins travailler, on ne va pas avoir moins de personnes qui travaillent.
16:57On va juste attaquer à des problèmes plus complexes et on aura des outils qui nous permettront d'être plus créatifs et plus efficaces.
17:03Mais c'est probablement ce qui va arriver.
17:06Merci beaucoup, Laurent Daudet, directeur général, cofondateur de Lighton, d'avoir été avec nous.
17:10Et Jérôme Malzac, directeur de l'innovation, expert en IA générative de Micropole.
17:13Merci à vous.
17:14Encore.
17:14Merci.
17:15Merci.
17:16Merci.