Passer au playerPasser au contenu principalPasser au pied de page
  • aujourd’hui
Anne Fulda reçoit Carole Bienaimé Besse pour son livre «Crépuscule numérique» dans #HDLivres

Catégorie

🗞
News
Transcription
00:00Bienvenue à l'heure des livres, Carole Bien-Aimé-Besse.
00:03Alors vous avez été membre de l'ARCOM, l'instance de régulation de l'audiovisuel, qui a succédé au CSA.
00:12Vous avez publié en 2023 un livre qui s'appelle Les Écrans Rois.
00:16Et là vous venez de publier un nouveau livre, Le Crépuscule Numérique,
00:19quand l'IA bouleverse notre rapport à la vérité, un livre qui est paru à l'Observatoire,
00:23un essai qui imagine un monde où la frontière entre le réel et le virtuel aurait disparu.
00:30Tout en esquissant des pistes pour tenter de réguler et d'arriver à maîtriser une vérité de plus en plus difficile à percevoir.
00:43Alors en fait la question qu'on se pose d'abord c'est finalement ce monde, on y est déjà aujourd'hui.
00:49Déjà il y a des vidéos falsifiées, des fake news, on vit dans ce monde là déjà.
00:53Oui oui tout à fait, c'est pour ça que j'ai commencé en 2023 à écrire ce livre au moment où sont apparues,
00:57souvenez-vous les images de Donald Trump en prison, du pape habillé d'une façon plus qu'inhabituelle.
01:07Et c'est vrai que ces images qui nous parvenaient ressemblaient à des images qu'aurait pu faire l'AFP ou Reuters.
01:13Et on est nombreux à s'être dit, mais finalement est-ce que ce sont de vraies images, de vraies photos de reporters,
01:19alors qu'en fait c'était des images créées par l'intelligence artificielle.
01:22Et puis c'est vrai que ces derniers mois on a pu voir l'intelligence artificielle s'inviter partout,
01:28c'est-à-dire que tout le monde a pu se l'approprier sur nos smartphones notamment, nos ordinateurs.
01:33Et donc on a tous à la capacité de falsifier des documents, des photos, des vidéos.
01:38On a vu aussi apparaître des deepfakes, donc ces vidéos qui falsifient parfois des JT, des journaux télévisés.
01:46On a l'impression que des journalistes reconnus nous recommandent tel ou tel produit alors qu'en fait ce n'est pas le cas.
01:54Ou encore récemment des fraudes émises par de faux banquiers,
02:00c'est-à-dire que c'est l'intelligence artificielle qui reproduit la voix de votre banquier,
02:05qui va être amené à vous demander vos codes, etc.
02:08Il y a de nombreuses fraudes.
02:11Et ce monde il existe.
02:13Alors c'est vrai qu'aujourd'hui on est au début,
02:15donc parfois on peut reconnaître ces falsifications,
02:18mais parfois on est totalement floué.
02:21Et c'est pour ça que j'ai voulu attirer l'attention dans ce récit un peu dystopique,
02:24mais nécessaire me semble-t-il.
02:26Oui, parce que ce qui est embêtant et plutôt alarmant,
02:30c'est qu'en fait ce monde peut mettre en danger nos institutions et nos démocraties finalement.
02:36D'ailleurs vous le dites, en fait l'élection de Donald Trump,
02:39vous parlez de la première, dès 2016,
02:42vous le décrivez comme le parangon de l'ère de la post-vérité.
02:46Et vous dites qu'il est allé encore plus loin en 2024.
02:49Oui, alors c'est vrai que Donald Trump,
02:52vous souvenez-vous de son premier mandat et de sa première campagne,
02:54il a commencé finalement à dire que toutes les personnes qui n'étaient pas d'accord avec lui
02:58étaient finalement en train de mentir.
03:03Donc il parlait de fake news, d'ailleurs tous les journalistes qui ne partageaient pas ses opinions
03:08et qui le challengeaient un petit peu trop,
03:10tout de suite ils les invectivaient en disant fake news, fake news.
03:13Et dans sa deuxième campagne,
03:16donc là il est allé beaucoup plus loin,
03:17c'est-à-dire qu'il assumait de mentir sur cet effet qui était quand même assez important.
03:23Et ensuite on voyait J.D. Vance qui disait,
03:26mais en fait on fait exprès parce que c'est le seul moyen de retenir l'attention des gens,
03:29d'avoir, d'être excessif et d'aller, de ne pas forcément,
03:36et de faire fi finalement de la vérité.
03:38Donc il l'a fait à de nombreux empris dans la campagne,
03:40on a bien vu, c'était une campagne très tendue,
03:42et on a vu quand même pulluler sur la toile de nombreux mensonges,
03:46notamment sur Kamala Harris et d'autres.
03:49Mais c'est vrai que Donald Trump,
03:50il est celui qui d'une certaine manière popularise cette notion de vérité à la carte
03:56et de vérité qui n'existerait plus,
04:01où finalement la vérité serait,
04:05se draperait finalement,
04:07le mensonge se draperait dans une vérité que l'on veut nous cacher.
04:10Tout devient très diffus et confus.
04:12En fait ce qui est intéressant, vous le soulignez à l'instant,
04:15c'est que cette fabrique du faux est appuyée,
04:17est démultipliée par l'effet des réseaux sociaux.
04:21Et surtout, et c'est ce qui est le plus inquiétant,
04:23c'est que s'est développé une forme d'indifférence à l'un des informations.
04:27En fait finalement, vrai faux, ça n'a plus d'importance.
04:29Non, ce qui compte, c'est d'être un peu réconforté.
04:32Alors c'est vrai que les réseaux sociaux nous mettent dans des bulles algorithmiques,
04:35dont souvent on est abreuvés d'informations qui nous conviennent
04:38et qui nous donnent le sentiment de vivre dans un monde
04:41où tout le monde partage les mêmes visions du monde que nous,
04:45alors que ce n'est pas le cas.
04:46C'est pour ça qu'ensuite, ça crée, on le voit bien, une société très polarisée.
04:50On a vraiment du mal de plus en plus à se parler sans que ça dégénère.
04:54On le sent dans nos sociétés aujourd'hui.
04:58Et c'est vrai que les réseaux sociaux ont accéléré cette notion,
05:02puisque les algorithmes font qu'effectivement,
05:06on est abreuvés d'informations sans cesse.
05:09Et que discerner le vrai du faux, c'est devenu compliqué,
05:13puisque aujourd'hui, les moyens techniques font qu'on peut facilement se laisser prendre
05:22et que notre cerveau, finalement, il a du mal.
05:26Et que c'est vrai que quand on a vu une information même fausse 4-5 fois sur Internet...
05:32Vous dites que nos cerveaux sont affaiblis même.
05:34Exactement, exactement.
05:35Elles sont affaiblies parce qu'on reçoit beaucoup d'informations.
05:38Et puis qu'on le sait, on a vu 4 fois une information,
05:42et bien finalement, elle finit par devenir vraie.
05:44Et se développe une forme de crédulité.
05:46Alors en fait, dernière question, et c'est quand même ce qui nous importe,
05:50c'est comment résister, ce qui n'est pas trop tard,
05:53pour freiner cette évolution vers un monde
05:56où les opinions tendent à remplacer les faits ?
05:59Alors, c'est vrai que je pense qu'on est dans un monde où je pense qu'il faut être très vigilant.
06:03Je pense que la technologie va s'améliorer,
06:06donc elle va continuer à créer du faux.
06:08Mais je pense qu'on va avoir aussi des technologies
06:11qui vont nous permettre de mieux repérer ce qui a été falsifié.
06:14Enfin, en tout cas, je l'espère.
06:16Il faut que l'éthique revienne au cœur de la création numérique.
06:20Il faut vraiment que la technologie soit au service de l'humain et pas l'inverse.
06:24C'est-à-dire que l'éthique doit revenir au centre,
06:27que la régulation, alors c'est toujours difficile
06:30parce que le temps du droit n'est jamais le temps de l'innovation.
06:33Donc, on aille un peu plus vite pour être en mesure de réguler
06:37toutes ces technologies qui nous parviennent
06:39et qu'on a un peu du mal à maîtriser.
06:41Et puis ensuite, évidemment, aiguiser le sens critique dès le plus jeune âge
06:45pour qu'effectivement, quand les informations nous parviennent,
06:48on se pose les bonnes questions et qu'on ait les bons réflexes
06:50face à des informations qui ne sont pas toujours très vraies.
06:54En tout cas, merci, Carole Bien-Aimée.
06:56C'est vrai que c'est un livre d'utilité publique, je dirais.
06:58Ça s'appelle « Le crépuscule numérique en lié à bouleverse notre rapport à la vérité ».
07:02C'est publié à l'Observatoire.
07:04Merci beaucoup.
07:04Merci beaucoup, Anne Fildar.
07:05Merci.
07:05Merci.

Recommandations