Après avoir longtemps observé le match à distance, Meta rentre à son tour dans la course mondiale de l’IA. Avec des modèles puissants, en open source, et des intégrations poussées dans ses plateformes, le groupe de Mark Zuckerberg veut faire de l’IA un levier central de son écosystème.
Catégorie
🗞
NewsTranscription
00:00Dans le grand rendez-vous de l'IA de Smartech, aujourd'hui nous avons Charles Martinet.
00:08Bonjour Charles. Je rappelle que vous êtes le responsable des relations institutionnelles au Centre pour la Sécurité de l'IA, le CESIA.
00:15Vous élaborez des recommandations pour la gouvernance internationale et européenne de l'intelligence artificielle.
00:20Avec vous Mehdi Medjawi. Bonjour Mehdi.
00:22Bonjour.
00:22Vous êtes entrepreneur, CEO de Olympe-Légal, c'est un assistant IA pour les DPO, pour tous ceux qui travaillent sur la protection des données personnelles dans les entreprises et les organisations.
00:32Et vous êtes également le fondateur de conférences. Je vous ai rencontré sur la première grande conférence Génération AI et plus connu parce que plus ancien, Happy Days également à votre actif.
00:45Alors, je voulais vous faire commenter quelques actualités dans l'intelligence artificielle et notamment parler de Meta AI puisque ça y est, c'est vraiment une entrée en force, en puissance de Meta sur le marché de l'IA et notamment en Europe.
00:58À partir du 27 mai, Meta va commencer à utiliser les données de ses utilisateurs de Facebook, d'Instagram pour nourrir son chatbot, son intelligence artificielle et son grand modèle de langage.
01:11Alors, ça a suscité pas mal d'émois, je dirais, d'un seul coup, les gens se sont dit « mes données personnelles vont être utilisées par l'intelligence artificielle ».
01:20J'ai l'impression qu'à chaque fois que Facebook sort quelque chose qui utilise les données, ça nous met en émois. Les autres font la même chose quand même, il faut le préciser.
01:29Comment est-ce que vous percevez-vous cette arrivée de Meta dans l'IA avec la volonté vraiment d'être une nouvelle puissance parmi les puissances au même titre qu'un chat GPT, un Gemini ?
01:40En fait, Meta, Marc Zuckerberg s'est cherché, il avait Facebook, il a racheté Instagram, il a racheté WhatsApp et ensuite il s'est rendu compte que c'était compliqué.
01:52Il a essayé d'aller dans le Metavers en rebaptisant la société Meta et donc là, il sent que c'est l'IA qui est la grande tendance.
01:59Donc, c'est pour ça qu'il met tout sur l'IA et puis il a même changé même de style, il a changé tout de manière de parler, de penser, enfin ce genre de choses.
02:06Même si ce n'est pas vraiment nouveau parce qu'il faut quand même rappeler dans l'histoire de Facebook, les chatbots, ça fait longtemps que c'est un projet de Marc Zuckerberg de créer justement des applis dans Facebook
02:17pour discuter avec les utilisateurs, pour leur faire des recommandations de shopping. Ça fait longtemps que ce projet est là.
02:22En 2014, il avait racheté je crois 8.AI, Alexandre Lebrun qui maintenant travaille chez Meta. Il avait déjà commencé l'ère des chatbots 2015-2016 mais ça ne marchait pas aussi bien que maintenant.
02:31Et aujourd'hui, oui, quand on attend tellement de données, quand on a une application avec plus de 2 milliards d'utilisateurs, ben oui, on a envie de faire de l'IA parce qu'on sait que c'est la donnée qui va permettre de gagner la bataille.
02:42Et donc là, il essaye, et ça va être intéressant d'en discuter dans un deuxième temps, mais il essaye de montrer qu'il le fait en respectant les règles.
02:49Alors que comme vous le disiez, OpenAI, Meta, Anthropique et tous les autres ne respectent rien du tout.
02:56Là, ils font semblant.
02:58On va parler de X aussi peut-être.
03:00X et AI, oui.
03:01Là, ils font semblant dans un contexte qui est intéressant et on aura l'occasion d'en reparler mais ça s'est joué, c'était très politique.
03:06Quand vous dites qu'ils ne respectent rien les autres, enfin il y a quand même les règles en Europe aujourd'hui qui imposent de respecter la protection des données personnelles,
03:14est-ce que vous êtes plus inquiet aujourd'hui qu'hier par exemple ?
03:18Alors tout à fait, c'est pas forcément très étonnant de la part de Meta.
03:22Comme le disait Mehdi, ils ont un nombre d'utilisateurs et une quantité de données absolument énormes qu'ils peuvent utiliser pour entraîner leur modèle d'IA.
03:30Il faut quand même dire que ça ne s'appliquera pas aux échanges privés sur les applications de Meta.
03:34Pas sur la messagerie WhatsApp.
03:35Exactement, mais ça s'appliquera aux postes qui sont publics et aux échanges faits par les utilisateurs avec les chatbots IA.
03:44Il y a une possibilité de dire qu'on ne veut pas que ces données soient utilisées par Meta, mais ce n'est pas un simple réglage à changer, il faut envoyer un formulaire.
03:53Donc il y a quand même, ils essaient de mettre en place des mécanismes qui font que ça sera systématique.
03:56C'est assez inquiétant de mon point de vue.
04:01Pourquoi ?
04:03De par l'histoire de Meta.
04:06On se souvient du scandale Cambridge Analytica qui avait mené à des violations massives de la vie privée de millions d'utilisateurs.
04:12On voit aussi dans le domaine de l'IA cette fois-ci, Meta a lancé son premier modèle open source, l'AMA, en 2023.
04:22Il a fallu attendre deux ans avant de savoir quels étaient les mécanismes de sécurité mis en place, comment est-ce qu'ils évaluaient leur modèle.
04:29Et c'est assez inquiétant de ce point de vue-là.
04:34Mehdi, vous partagez cette inquiétude ?
04:36Alors, quand on n'est pas au courant, c'est inquiétant. Quand on est au courant, c'est normal.
04:40Parce que, si vous voulez, tout le monde fait ça. Toutes les grandes boîtes de l'IA font ça.
04:44Et c'est aussi une logique de la Silicon Valley qui est « ask for forgiveness, not for permission ».
04:49Ne demandez pas la permission, vous demanderez pardon. Une fois que ce sera plus tard, vous négocierez avec les lois.
04:54Et c'est exactement ça. Il y a Pierre-le-Carl Langlais qui est un chercheur et entrepreneur de la société Playas.
04:59Il a montré que, surtout sur le dernier modèle d'image, vous savez, avec les studios Ghibli et tout ça,
05:06aujourd'hui, les modèles s'entraînent sur toutes les données, ne respectent absolument rien.
05:11Par contre, c'est a posteriori qu'on va filtrer. On va refiltrer.
05:14C'est pour ça qu'il y a des gens qui s'amusent à casser les filtres pour retrouver qu'en fait, ils n'avaient rien à respecter.
05:18Donc en fait, aujourd'hui, on ne respecte pas a priori. On prend tout et ensuite, on filtre.
05:23Et c'est à peu près ce qu'on peut imaginer sur tout ce qui s'est passé.
05:26Le fait que sur XAI, sur X ou Facebook, les données soient gardées par les entreprises, les autres ne peuvent pas y accéder.
05:35Donc c'est un actif qui est différenciant.
05:37Mais aujourd'hui, c'est inquiétant, mais quand on ne le savait pas, mais quand on le sait, en fait, c'est déjà le cas.
05:43Et je prends juste un...
05:44Et on a des moyens de se protéger ?
05:47Il y a quelques moyens de se protéger. Mais vous savez, Montesquieu, la force oppose à la force. Il faut absolument avoir le même niveau de force.
05:55Il y a quelques moyens de se protéger. Je prends l'exemple. Il y a un droit dans le RGPD. Il ne respecte pas grand-chose, mais celui-là, il le respecte.
06:00Si vous demandez à vos données, soit effacé, mais il faut faire un mail, un formulaire, ce genre de choses, effacé, je parle, vous n'apparaîtrez plus dans les résultats, par exemple, d'OpenAI.
06:07Il y a un avocat américain qui s'appelle Jonathan Zitrin. Si vous tapez son nom, ça fait bugger OpenAI immédiatement parce qu'ils savent qu'il a demandé à ce que ce n'est pas le cas.
06:15Ou Disney. Si vous demandez une image faite par Disney, ça bug automatiquement parce qu'ils savent que Disney va les attaquer immédiatement.
06:21Mais avec RG, vous pouvez demander des images de Tintin ou autre chose. Ils n'ont pas peur et donc ils y vont.
06:26Donc c'est vraiment la force s'oppose à la force. Il reste très peu de force européenne pour s'opposer à tout ça.
06:31Comment on se protège alors chaque individu ? On refuse absolument tout partage avec ces chatbots finalement.
06:37On peut refuser mais ça passe aussi par des actions au niveau européen. On a des cadres de loi qui sont en train d'être mis en place au niveau européen,
06:49à la fois sur le copyright mais aussi sur les enjeux d'évaluation, sur les enjeux d'atténuation des risques qui peuvent éviter, faire en sorte que le développement soit fait de manière responsable
07:00et protéger les utilisateurs des plus grands risques. Après ça reste compliqué. Là on parle, Mehdi parle de rapport de force, c'est effectivement l'enjeu.
07:07Et puis ils sont tellement déjà avancés finalement dans cette captation de données personnelles. Pas que personnelles, de données tout court.
07:15De données tout court, exactement. Donc il y a aussi l'enjeu de créer des concurrents en Europe. Et on aura l'occasion d'en reparler plus tard dans l'émission mais c'est le moyen de peser dans le rapport de force.
07:25Oui. Alors moi je voulais juste... Oui, pardon Mehdi ?
07:28Non, je veux juste dire qu'il y a aussi une assez grande forfaiture de l'Europe par rapport à ces sujets.
07:32C'est-à-dire ?
07:32Parce qu'en 2024, Meta a essayé de venir et d'entraîner ses données sur l'IA.
07:37Oui.
07:37Et ils ont dit non, il faut le consentement de l'utilisateur, comme le RGPD, les lois le donnaient.
07:41Au bout d'un an de tractation, lobbying ou ce genre de choses, on est passé de l'intérêt du consentement à l'intérêt légitime.
07:48C'est une exception en fait qui est prévue dans l'IA Act, c'est ça ?
07:52Alors là c'est même dans le RGPD.
07:54C'est dans le RGPD, c'est de l'intérêt légitime. C'est-à-dire qu'avant, si je n'ai pas besoin de vos données, mais je vous les demande gentiment,
08:00je dois avoir votre consentement actif, positif, éclairé. Je dois dire oui.
08:05Et en fait, ils ont négocié avec l'autorité de la CNIL irlandaise pour arriver à un débat où ils arrivent à dire
08:10maintenant il faut que les gens s'opposent à un intérêt légitime. J'ai un intérêt légitime à utiliser ces données.
08:15Je veux améliorer l'application. Pour eux, c'est un intérêt légitime. Je n'ai pas à leur demander leur consentement l'intérêt légitime.
08:21C'est un peu comme l'intérêt légitime pour un chercheur, pour un grand sujet de recherche. En fait, ça lui donne une exception au RGPD.
08:30Ce n'est pas tellement une exception, c'est un autre cadre qui a moins de contraintes et moins de respect de l'utilisateur.
08:37Et juste pour finir, l'autorité de contrôle irlandaise a dit OK pour l'intérêt légitime.
08:42Les CNIL européennes avaient trois mois pour contredire la décision. La CNIL française, qui est quand même assez forte, avait.
08:48Et puis finalement, ils ont décidé de ne pas opposer, de ne pas y aller. Et ils ont juste communiqué sur le fait qu'attention,
08:54il va falloir sortir vos données, faire un opt-out. Mais donc, si vous voulez, ils accompagnent la décision plutôt que de la challenger.
09:01Parce que Meta est basée en Irlande. Et en Irlande, l'autorité de contrôle est moins stricte que la CNIL française.
09:07Donc, il y a de la géopolitique derrière.
09:09Absolument. Alors, bon, mais juste comme ça, pour savoir, ça veut dire que vous, vous allez vous opposer ?
09:15Vous allez utiliser cette case opt-out ?
09:18Moi, oui. Je comprends ce qui se passe. Donc, à la guerre, je vais voir. Je vais m'opposer.
09:23Mais je fais même partie d'une classe action aux États-Unis, quand je vivais là-bas,
09:27Cambridge Analytica, où Facebook a dit on va donner 800 millions de dollars de dommages à intérêts à tous les gens qui font la demande dessus.
09:33Je fais même partie de cette classe action-là. Je ne suis pas forcément un activiste. Mais quand je peux, j'évite.
09:38D'accord. Et vous, Charles ?
09:39A priori, oui. A priori, oui. Si le formulaire, je parviens à le trouver, j'essaierai de le remplir.
09:45Vous allez voir, il y a plein de sites Internet qui détaillent les manipulations.
09:49Alors, je voulais vous lancer sur le projet de CERN européen pour l'intelligence artificielle.
09:53Vous aviez commencé à nous en parler, Charles, lors de votre premier passage. Rappelez-nous un peu quel est le concept.
09:59Tout à fait. Alors, le CERN, tout d'abord, c'est une initiative, une coopération intergouvernementale lancée après la Seconde Guerre mondiale
10:06pour mener à bien des recherches en physique des particules.
10:10C'est dans le contexte de l'IA. L'idée, c'est que l'Europe est dépassée par les États-Unis, par la Chine, même par le Royaume-Uni,
10:18et que ce serait une occasion pour elle de se positionner.
10:21Premièrement, la première étape, ce serait pour les gouvernements européens de s'associer pour investir dans la puissance de calcul en commun.
10:31En ce moment, on a beaucoup d'efforts différents qui sont un peu dispersés.
10:35L'idée, ce serait de réduire cette duplication des efforts pour investir.
10:38En Europe, on a une excellente communauté scientifique.
10:41On est une énergie bas carbone.
10:42On a beaucoup d'avantages qu'on peut utiliser et qu'on peut mettre à profit à travers une initiative comme un CERN pour l'IA,
10:50donc une coopération scientifique intergouvernementale.
10:53Ça, c'est la première étape.
10:55À l'avenir, ce serait aussi intéressant d'accepter d'autres pays dans cette initiative européenne.
11:01L'idée, c'est que...
11:02Extra-européens.
11:04Exactement, extra-européens.
11:05Pourquoi ?
11:05L'idée, c'est que la compétition, l'environnement stratégique actuel, il est caractérisé par de grandes puissances dans l'IA,
11:12mais aussi, de manière générale, la Chine, les États-Unis.
11:15C'est une dynamique de course.
11:17Ça mène ces pays à éviter, par exemple, de réguler l'IA pour garder leur leadership et leur suprématie.
11:24Le problème, c'est que ça mène à des risques.
11:26On le voit très bien au niveau des entreprises.
11:28OpenAI, qui fait face à beaucoup de concurrences, a réduit la durée de temps qu'elle donnait à des évaluateurs externes pour tester leur modèle.
11:38Donc, c'est passé de quelques mois, il y a plusieurs années, à maintenant quelques jours récemment pour leur dernier modèle.
11:43Et cette dynamique, elle s'applique aussi à la compétition entre États.
11:47L'idée, en concentrant la recherche et le développement de l'IA les plus avancées dans un projet international collaboratif,
11:55ça serait d'éviter ce genre de dynamique de compétition, de concurrence extrême,
12:01pour que ce développement soit fait avec des normes de sécurité élevées,
12:06avec la communauté scientifique internationale, et d'éviter les déboires potentiels.
12:13Mehdi, ça vous inspire quoi, cette idée, un cerne européen de l'IA ?
12:17Alors, l'idée est très intéressante, mais c'est pourquoi on le fait ?
12:21Pourquoi on le fait ?
12:22Donc, il y aurait de superbes avantages à faire un cerne de l'IA.
12:25Tout d'abord, les chercheurs auraient accès à une capacité de calcul à l'échelle d'un GAFA,
12:29donc ça à l'échelle d'un Google, d'un Amazon ou d'un OpenAI,
12:33donc à peu près 100 000 processeurs, 100 000 cartes dessus.
12:38Aujourd'hui, aucun chercheur vraiment n'a accès à ça, hormis dans ces sociétés-là, XAI ou autres.
12:43Ça aurait un avantage aussi de leadership.
12:44Avec tous les chercheurs qui veulent partir des États-Unis,
12:46on aurait enfin une entité de recherche à la pointe,
12:50parce qu'il faut savoir aussi qu'énormément de thésards aujourd'hui sont pré-embauchés à Meta,
12:54par OpenAI en amont.
12:57Le projet FER, par exemple, que l'I.N. Lequin avait fait à Paris,
13:00c'était exactement ça.
13:01Mais donc, ils sont déjà en thèse, ils sont déjà embauchés chez Meta en thèse.
13:04Donc, ça redonnerait un leadership sur la recherche dessus.
13:07Ça aurait d'autres effets positifs, de la coopération, des résultats.
13:12Financer une recherche...
13:13Je sens arriver quand même le Met.
13:15Ah oui, oui, il arrive, il arrive.
13:17Financer une recherche aux valeurs européennes, en contrepartie d'une recherche américaine.
13:21Les valeurs, les RGPD, les AIAC seront directement dedans.
13:25L'enjeu, c'est attention, c'est quand même de l'argent public,
13:28c'est de l'argent du contribuable, qui part déjà des labos de recherche.
13:31Il y a un réseau qui s'appelle ELIS, de laboratoires de recherche dans l'IA.
13:34Il y en a 40 distribués, ça risque de sucer tout cet argent-là
13:39dans une seule entité, très centralisée, très étatique, multi-étatique.
13:43Donc, ça, c'est un premier point.
13:45Et puis, il y a un autre point aussi de gouvernance.
13:49On est quand même dans des...
13:50Il y a l'extrême droite en Europe qui est pro-Trump, pro-Musk,
13:54qui a attaqué, je ne sais pas si vous avez vu, EloquitX.
13:57Vous savez, quand ils ont voulu sortir de X quelques...
13:59Créer un outil pour justement voir migrer toute sa communauté de Twitter X vers...
14:04BlueSky ou...
14:05D'autres plateformes décentralisées.
14:07Voilà, ils les ont attaquées assez violemment dessus.
14:10Et puis, attention, le dernier point, c'est qu'on est aujourd'hui dans l'ère de l'usage de l'IA.
14:16Yann Lequin, Luc Julia et Iliane Souskever, qui sont des fondateurs d'OpenIA ou des grands chercheurs,
14:22ont dit qu'on avait atteint un point dans la recherche, un point d'arrêt.
14:25On n'a pas de nouveaux concepts scientifiques qui vont révolutionner l'IA.
14:29Donc aujourd'hui, on est dans l'ère de l'usage, dans l'ère des applications.
14:32On n'est plus dans l'ère de la recherche fondamentale, en tout cas pour les 5-6 prochaines années.
14:36C'est l'enjeu des agents de l'usage.
14:39Et donc là, si on fait un cerne de l'IA pour gagner les 5-6-7 prochaines années, on a complètement tort.
14:44Si c'est pour gagner les 20-30 prochaines années, là, c'est le cas.
14:48Mais attention, qu'on ne se trompe pas, c'est quand même l'argent du contribuable.
14:50Qu'est-ce qu'on est en train de gagner et surtout, qu'est-ce qu'on est en train de ne pas gagner ?
14:53Et puis comment on s'entend à plusieurs États, si c'est même au-delà de l'Union européenne ?
14:58Alors, il ne nous reste plus qu'une minute.
14:59Je voulais vous partager, puisque justement, on est dans cette période de cas d'usage.
15:02C'est le moment où jamais être partagé des petits usages que vous avez trouvés chouettes.
15:06Donc moi, je vous partage le mien.
15:07Moi, j'ai été absolument bluffée par Notebook LM de Google.
15:11Alors, la punchline est quand même tueuse.
15:14Réfléchissez mieux sans réfléchir plus.
15:17Ça, ça m'a un peu inquiétée.
15:18Mais le résultat est sympa.
15:19En fait, on peut lui demander de compiler des tas d'informations sur un sujet
15:22et de le retranscrire sous forme d'un podcast.
15:25C'est super bien joué.
15:26Ça prend quelques minutes.
15:28Les voix jouent les hésitations humaines.
15:30Enfin voilà, ça m'a beaucoup amusée.
15:32Votre appli.
15:33Je me permets juste, sur Notebook LM, ma femme organise un des plus gros festivals de podcasts de France
15:37qui s'appelle La Claque à Marseille.
15:38Et c'est le sujet.
15:40Ah ben, ça ne m'étonne pas.
15:41Voilà, donc c'est ça.
15:42Moi, c'est Kinetics.
15:43C'est aujourd'hui, quand vous générez des vidéos,
15:45très souvent, ça fait des mouvements bizarres, des gens qui dansent.
15:49Les modèles ne savent pas faire.
15:50Mais là, si vous vous enregistrez et vous faites un geste,
15:52le personnage qui était dans la vidéo refait les mêmes gestes que vous
15:55avec une précision assez incroyable.
15:56Et c'est une startup française, Kinetics.
15:58Kinetics, on les a reçues dans Smartech.
16:00Super.
16:01Et moi, ça sera moins original, ce sera d'OpenAI, le dernier modèle O3, donc,
16:05qui est assez intéressant, donc qui a plein de capacités assez impressionnantes.
16:09Une qui est assez intéressante et un petit peu inquiétante,
16:13vous lui donnez une image d'un lieu que vous avez pris, dans la rue, par exemple.
16:16Et le modèle va analyser les différentes parties de l'image
16:19et vous dire avec une précision assez incroyable où est-ce que l'image a été prise.
16:23Ah, c'est génial, parce que je connais une application où on doit,
16:26c'est par rapport à la géographie.
16:27Exactement, GeoGuessor.
16:28Comme ça, on peut gagner à ce jeu-là.
16:30Eh bien, super.
16:31Merci beaucoup à tous les deux.
16:32Charles Martinet, je rappelle que vous êtes responsable des relations institutionnelles OCSIA
16:36et Mehdi Mejiaoui, le fondateur notamment de Génération AI et Happy Days.
16:40Merci encore.
16:41Merci.
16:41Merci à vous.
16:41Sous-titrage Société Radio-Canada