Categoría
🗞
NoticiasTranscripción
00:00Ni por las buenas, ni por las malas. Aquí solamente puedo mandar soy yo, más nadie.
00:06No, esta voz que acabas de escuchar no es la de Nicolás Maduro. A pesar de que sea
00:11muy parecida a la del presidente de Venezuela, ha sido generada por la inteligencia artificial
00:15con el objetivo de desestabilizar el panorama político venezolano.
00:20A lo largo de estos últimos 12 meses, en las que más de 3.700 millones de personas
00:24han sido llamadas a las urnas, hemos sido testigos de numerosos deepfakes, una serie
00:29de contenidos creados por inteligencia artificial que tenían como objetivo erosionar la confianza
00:34pública. Hemos podido ver a un clon de Joe Biden pidiendo a sus votantes que no acudieran
00:39a las urnas, a Donald Trump alterando la imagen de artistas como Taylor Swift para atraer
00:44el voto de sus seguidoras, o a Claudia Seinbaum promocionando productos financieros cuanto
00:48menos sospechosos.
00:50Presento oficialmente la plataforma financiera para los mexicanos, donde cada mexicano garantiza
00:56ganar 120.000 pesos al mes.
00:58La inteligencia artificial avanza a un ritmo vertiginoso creando contenido cada vez más
01:03realista y accesible para todo el mundo. Y esto está aumentando el riesgo de desinformación,
01:08de fraude y de suplantación de identidad, tal y como nos cuenta Daniel Palacios del
01:12Río, marketing manager de Softech.
01:14Estas tecnologías permiten crear contenido audiovisual extremadamente realista, lo que
01:19dificulta la distinción entre lo real y lo falso. Esto puede ser utilizado para propagar
01:24noticias falsas, manipular opiniones públicas, influir en elecciones o dañar la reputación
01:30de individuos y organizaciones. Sin una intervención adecuada podríamos enfrentar una crisis de
01:35confianza en los medios de comunicación, las redes sociales y hasta en las instituciones
01:41públicas, ya que la veracidad de cualquier contenido será constantemente cuestionada.
01:46¿Y qué estamos haciendo para hacer frente a los deepfakes? Uno de los proyectos más
01:49relevantes a nivel internacional es el propuesto por la coalición para la procedencia y autenticidad
01:54del contenido. Una alianza compuesta por las compañías tecnológicas más relevantes
01:58a nivel internacional que propone incluir una serie de metadatos en cada contenido para
02:02que podamos conocer su origen. Una especie de etiqueta invisible que nos permitirá trazar
02:07el contenido que estemos consumiendo y saber quién es su responsable y qué tipo de herramientas
02:11ha utilizado durante su elaboración. Una gran idea que, sin embargo, requiere de un
02:17consenso global que no termina de llegar, principalmente por la complejidad técnica
02:20para implementar este estándar en todo el mundo, también por los intereses comerciales
02:24que podrían frenar la colaboración o por las diferencias legales entre países.
02:28En el plano ético surge la cuestión del equilibrio entre la privacidad y la seguridad.
02:34Por ejemplo, algunas soluciones implican el uso masivo de datos personales para entrenar
02:38algoritmos que detecten deepfakes, lo que puede poner en riesgo la privacidad de los
02:43usuarios. De ahí que estas empresas hayan comenzado
02:46a lanzar sus propias herramientas a la espera de un consenso mundial. Google cuenta con
02:50Science ID, que identifica y marca contenido generado por inteligencia artificial para
02:54que podamos conocer su procedencia. TruePeek desarrolló Vision, una herramienta que protege
02:59a los contenidos mediante criptografía para evitar posibles alteraciones. Y FakeCatcher
03:04analiza el flujo sanguíneo de los píxeles para determinar si un contenido es real o
03:08falso. ¿Y qué se está haciendo en España? Aunque
03:11a día de hoy no nos enfrentamos a la cantidad de deepfakes que podemos encontrar en otros
03:15países, contamos con varias herramientas que nos ayudan a identificar contenido falso
03:18de inmediato. Una de ellas es Verify, una plataforma desarrollada por Telefónica que
03:23es capaz de detectar cualquier tipo de contenido generado por la inteligencia artificial. Así
03:27nos lo explica Susana Jurado, Head of Telefónica Venture Builder.
03:31Cuando estamos analizando una imagen, por ejemplo, lo que buscamos es patrones, los
03:38típicos patrones de una propia imagen, si de repente hay una ruptura en ese patrón,
03:42o si vemos algún artefacto en particular, o características que son muy típicas de
03:47las imágenes generadas por IA. Funciona como pasa en el mundo de los antivirus, que lo que tienes
03:53que estar es pendiente de las diferentes herramientas que generan esos virus, cuáles son
03:59los patrones que tiene cada una de ellas y tienes que identificar, no es sencillo, no es sencillo.
04:03Por otro lado, Verify Audio es una herramienta periodística desarrollada por Prisa para la
04:08detección de audios falsos. Según nos explica la directora de producto digital de Prisa Radio,
04:12Ana Orma Echea, el avance de la inteligencia artificial provoca que el reto sea cada vez
04:17más grande. Para el oído humano es mucho más complicado diferenciar una voz real de una voz
04:23clonada, porque la tecnología cada día, pero es que además es diario cómo va mejorando y además,
04:32sobre todo, que se ha democratizado. Tú ahora mismo en software como iLevel Labs puedes clonar
04:39una voz con menos de dos minutos de una voz original y lo puedes hacer gratis o muy barato.
04:46Al igual que Verify, esta herramienta se basa en varios módulos de inteligencia que se encarga de
04:50analizar el archivo que has enviado para descubrir si es verdadero o generado por
04:54la inteligencia artificial. Te detecta, digamos, manipulación sobre las propias cualidades físicas
04:59del audio. Nosotros hemos, bueno, no hemos definido nosotros, pero vamos, algunas de las
05:05cualidades físicas que tiene un audio las hemos acotado, que son, pues puedes tener desde tonalidad,
05:11frecuencia, ritmo, creo que hemos definido ocho, creo que son. Entonces, sobre esas variaciones te
05:19va diciendo realmente, bueno, si realmente ha habido una manipulación de esas cualidades o no.
05:26El año 2024 ha marcado, sin duda alguna, un punto de inflexión en cómo la inteligencia
05:30artificial y los deepfakes pueden influir en los procesos democráticos a nivel global. De ahí la
05:35importancia de desarrollar una resistencia tecnológica capaz de contrarrestar este tipo
05:40de contenidos falsos que tienen como objetivo desestabilizar. Necesitamos herramientas de
05:44carácter inmediato y encontrar una solución común a nivel global. Sólo así, y gracias a la
05:50conciencia colectiva, podremos dar este paso adelante para poder impulsar estas
05:54políticas que, sin duda alguna, ayudarían a frenar el auge de estos deepfakes.