Renán Estenssoro, director de Fundación para el Periodismo e impulsor de Bolivia Verifica enfatiza el peligro que suponen las noticias falsas en los procesos electorales. Además del buen hacer de los medios, Estenssoro apela a la población para que también tenga un rol más comprometido al momento de contrastar las informaciones
Categoría
🗞
NoticiasTranscripción
00:00Y sí, vamos a saludar a Renan
00:04Estensoro. Buenos días, Renan,
00:05qué gusto verte después de
00:08tanto tiempo. Sí, Mónica, un
00:09gusto, ¿Cómo estás? Bien,
00:12gracias. Y y bueno, contento de
00:14estar acá y compartir con
00:16ustedes esos minutos en en tu
00:18programa. Decíamos hace un
00:20momento, Renan, que estamos
00:21asistiendo a un momento
00:23preelectoral donde seguramente
00:25las noticias falsas van a subir
00:27de intensidad, pero además
00:29hay un tema electoral que me
00:30parece que va a ser diferente
00:32porque hay una serie de cuentas
00:34falsas manejadas con con con
00:37bots donde desde donde se va a
00:39pretender orientar la opinión
00:41pública hacia un lado y hacia el
00:42otro. Entonces, la pregunta que
00:44te hago es, ¿Cuáles son los
00:46peligros que tenemos los
00:47ciudadanos frente a este tipo
00:49de contenidos que pueden
00:53desinformarnos y de pronto en
00:54en algún caso exagerado también
00:58de manera definitiva influyen en
01:01la opinión pública, ¿Verdad?
01:03Porque ese es el objetivo de la
01:05de la desinformación, ¿No? Y el
01:07problema que tenemos actualmente
01:09y no solamente en Bolivia sino
01:10en todo el mundo es de que las
01:14las campañas electorales han
01:16incorporado a las a las a las
01:18estrategias de desinformación en
01:20las redes sociales en dentro de
01:22sus de sus campañas, ¿No?
01:24Entonces, eso incrementa el
01:26riesgo de desinformación de
01:28muros, ¿No? Y eso también
01:30confunde a ciudadanos, ¿No?
01:32Porque está visto de que es
01:34mucho más barato contratar un
01:36par de personas que se comiencen
01:38a enviar desinformación que hacer
01:41campañas como las hacíamos hace
01:43veinte años, ¿No? Yo creo que
01:46ese es un tema que la corte que
01:48el Tribunal Supremo Electoral
01:49debe debe tomar en cuenta porque
01:52uno de los primeros objetivos
01:53que va que va a tener la
01:54desinformación va a ser pues
01:56este desestimar las todas las
01:59elecciones. Eso significa que
02:02aparte de de divulgar la la
02:04propuesta del candidato, la
02:06imagen del candidato, van a
02:08divulgar como parte de su
02:10estrategia mensajes que
02:12deterioren o desportillen la la
02:14la candidatura del adversario,
02:16¿No es cierto? Exacto, ¿No? Y
02:19además de esto es de que el los
02:22que vayan a ganar van a decir
02:23que las elecciones fueron limpias,
02:25los que van a perder van a decir
02:26que las elecciones fueron fueron
02:28fueron este fraudulentas.
02:31Entonces, el problema es
02:33gigantesco, no es un problema que
02:35hay que tomarlo con mucho cuidado,
02:37hay que comenzar a comenzar a
02:39a combatirlo, ¿No? Y y hacer
02:43diseñar una estrategia global de
02:45medios y de y de instituciones
02:47ligadas a los derechos humanos
02:50Ahora, cuando se habla de de
02:55procesos electorales en el mundo,
02:57se está viendo también que la
02:59Big Data, o sea, todo el dato
03:01que uno va dejando en las redes
03:02sociales a través de su recorrido,
03:04qué contenidos mira, etcétera,
03:06etcétera, son parte de de la
03:08lectura que hacen los estrategas
03:10para los candidatos para que sus
03:12mensajes se adecúen a lo que está
03:14sintiendo y pensando la población,
03:17En ese sentido, ¿Cuáles crees,
03:20Renan, que deben ser los recaudos
03:22que tenemos que tomar como como
03:24ciudadanos para no para no ser
03:28captados tan dócilmente en este
03:30proceso? ¿O no es posible?
03:32No, sí es posible y debemos
03:34hacerlo, ¿No? Primero, lo primero
03:37que hay que tratar de hacer es de
03:38potenciar los medios, ¿No? Es decir,
03:40los medios como el deber, como
03:42otros medios impresos y también
03:44televisivos, son pues una una una
03:46garantía de que la información que
03:48estás viendo a través de los
03:49mismos es una información verídica
03:51que ha sido contrastada, que ha
03:52sido tratada por profesionales.
03:54Entonces, una una primera medida
03:56es esta, ¿No? La segunda es
03:58impulsar verificadoras como
03:59regularidad física que vayan a a
04:02ingresar a las redes sociales y
04:04vayan este sintiendo la
04:07desinformación que va que va
04:09circulando. Y la tercera estrategia
04:11aquí es algo de educación
04:13ciudadana, ¿No? Es decir, ir a las
04:16universidades, a los colegios,
04:18enseñar a la gente cómo puede
04:20identificar las noticias pasas,
04:22cómo puede hacer para este no
04:25caen las trampas de los de los
04:27desinformantes porque ellos te
04:29dicen lo que quieres escuchar y
04:31de alguna manera saben interpretar,
04:33tú decías hace unos instantes
04:35saben interpretar los sentimientos
04:37a la gente. Entonces, creo que
04:39son tres tres estrategias que
04:42deben que deben interesarse y
04:44que deben interesarse con mucha
04:46con mucha fortaleza. Y también
04:49en algún momento cuando yo lo
04:51escuchaba a Martín Barón, el
04:53exdirector del Washington Post,
04:55y hablar de este tema y del
04:57proceso electoral que que iba a
04:59ver el año pasado en Estados
05:00Unidos, él hablaba de la
05:02importancia de las de las
05:04alianzas estratégicas entre los
05:07medios, la academia, entre
05:09quienes pueden estar trabajando
05:12para detectar las noticias
05:14falsas y para para atenuar su
05:17su divulgación, y en ese sentido,
05:19¿cuál es tu tu opinión, Renan?
05:22¿Qué qué podemos hacer en ese
05:23sentido? Mira, hace unos hace un
05:26mes, hemos recibido la la esta
05:29noticia de que Meta, por
05:31ejemplo, ha levantado todas sus
05:33medidas, todas sus políticas,
05:35para combatir la desinformación,
05:37¿no? Y como Meta, también lo
05:39ha hecho X, y algunas otras
05:41plataformas están siguiendo esa
05:43esa eh esta política, ¿no? Que
05:47está apoyada por el gobierno
05:48norteamericano, que dicen ellos
05:50que es para apoyar la libertad
05:52de expresión. Creo que es una
05:53medida totalmente desacostada,
05:55porque da pie libre a los
05:58desinformantes. No hay ningún
06:00tipo de filtro, ningún tipo de
06:03de sí, de filtro, que vaya a a
06:07de alguna forma frenar la cantidad
06:10de desinformación, y de insultos,
06:12y de porque hay mucho en el
06:15discurso del odio en las redes
06:16sociales. Creo que hay que
06:19replantear eso desde los
06:21gobiernos, y desde las
06:22plataformas. Es decir, las
06:24plataformas tienen mucha
06:25responsabilidad en todo esto.
06:27Y ahora con el avance de la
06:30tecnología, hay mayor
06:32vulnerabilidad de que se
06:33divulguen mensajes que parecen
06:35verdaderos, pero que en realidad
06:37son falsos, ¿no? Estamos
06:38hablando de la inteligencia
06:40artificial para impostar voces,
06:43para impostar imágenes. ¿Cuáles
06:45son esos elementos que de alguna
06:48manera pueden influir y hacer
06:50que algo que no es real pueda
06:53parecer creíble? Sí, bueno,
06:56esas estrategias las ya
06:58estábamos utilizando los
06:59desinformantes desde hace varios
07:01años, pero ahora obviamente con
07:03la inteligencia artificial se
07:04ha vuelto esto mucho más fácil
07:06para ellos, ¿no? Es decir, es
07:08mucho más fácil testificar un
07:09video, o crear un video con un
07:11personaje X, o hacerle decir
07:13algo a alguien que no lo ha
07:14dicho, a través de la
07:16inteligencia artificial, las
07:18midfakes, ¿no? Los videos falsos
07:20que se llaman, ¿no? Es un
07:24momento bastante difícil, ¿no?
07:26Sobre todo para quienes creemos
07:28en la democracia y creemos de
07:30que la sociedad debe
07:31orientarse sobre bases sólidas,
07:33sobre la verdad, ¿no? Quienes
07:36tenemos valores y creemos que
07:38los derechos humanos tienen
07:39vigencia y que tenemos todos el
07:41derecho a estar bien informados
07:43y que no nos estén rompiendo. En
07:46ese sentido creo que es
07:47importante que los gobiernos y
07:51que las plataformas, que la
07:52ciudadanía entiendan de que
07:53estamos en un problema bastante
07:55grande que debemos enfrentarlo
07:57de manera consciente.
07:59Y en el trabajo que hace
08:01Bolivia Verifica, en el último
08:03tiempo han aumentado las
08:05noticias falsas y si hay ya
08:07noticias falsas que incorporen
08:09esto, este tipo de recursos
08:11tecnológicos que de alguna
08:13manera confunden más a la
08:15población.
08:17Sí, mira, nosotros emitimos un
08:20informe cada mes sobre las
08:22tendencias de la desinformación
08:24y vemos quiénes han sido los
08:25personajes o las personalidades
08:27más atacadas, cuáles son los
08:29temas por los cuales la
08:31desinformación ha tomado como
08:33punto central, ¿no? Y también
08:35vemos la frecuencia de la
08:38desinformación. No, la
08:40desinformación existe y es un
08:42bolígrafo bastante grande, es
08:44muy difícil cuantificarla y es
08:47muy difícil decir cuánto
08:48desinformación había antes y
08:50cuánto hay ahora, ¿no? Pero sí
08:51podemos decir que la
08:53desinformación tiene ciertos
08:55objetivos políticos bien
08:57estructurados, ¿no? Es decir,
08:58hay ciertos momentos en los
09:00que el ataque se enfrenta en
09:02por ejemplo en el presidente,
09:04otros en personajes políticos,
09:06otros en empresarios, lo que
09:08sea, ¿no? Entonces, no es
09:11al azar. Hay estrategias, hay
09:14gente detrás de las fake news
09:17que diseñan una estrategia de
09:19cómo van a abordar y qué
09:21objetivos están siguiendo y
09:23si funciona ello, lanzan las
09:25desinformaciones, ¿no? Por otro
09:28lado, creo que es importante que
09:30la gente entienda de que no
09:32debe replicar cualquier mensaje
09:35que le lleva por WhatsApp o en
09:37el Facebook, ¿no? Es decir,
09:38primero tienes que ver el
09:40mensaje, evaluarlo y antes de
09:42eso, antes de replicarlo, pues
09:45preguntarte si es cierto, si es
09:47verdadero, si es una fake news
09:49y qué efecto va a tener estos
09:51puros recursos, porque ese es el
09:53grado de de viralización que
09:55tienen los mensajes. Claro. Y
09:57ahí está la responsabilidad
09:59individual, ¿no? Porque de
10:01pronto te llega algo muy
10:03llamativo, algo muy guau para
10:05la la información y y y la
10:07réplica se hace automáticamente,
10:09¿no? Algo que alguna lo que
10:12ellos tienen generalmente tiene
10:15una habilidad muy grande a los
10:17medios de comunicación para
10:19captar el sentimiento de la
10:21gente, ¿no? Entonces, siempre
10:23llegan con algo que tú estás
10:25esperando leer, ver, cuando te
10:27llega y dice, a ver, yo tenía
10:29razón, esto es así, se lo voy a
10:31mandar a a mi amigo Benganito
10:33para que también lo sepa, ¿no?
10:35Entonces, ya estás replicando la
10:37desinformación, porque eso que
10:39tú querías escuchar. Claro,
10:41pero, pero, o sea, me refiero
10:43al hecho de que si a mí me llega
10:45algo intrascendente, porque eso
10:47estoy siendo parte de ese remolino
10:49de desinformación que va a confundir
10:51a toda la sociedad, ¿no es cierto?
10:53Últimamente, por ejemplo, han salido
10:55muchas noticias falsas sobre la muerte
10:57del papa, ahora que el papa está
10:59enfermo, y
11:01y si se, ¿no?
11:03Y el otro día,
11:05hace un poco, no sé,
11:07tres o cuatro semanas, hace un mes
11:09y lo mataron
11:11a Luis Perales, después
11:13lo encontró él en las redes
11:15y dijo, no, no estoy muerto por sacarlo,
11:17me dio mucha...
11:19Pero esa es una, es decir,
11:21esta gente que está dedicada
11:23a hacer esto,
11:25muchas veces lo hace por dinero, hay empresas
11:27en las cuales tú puedes acudir
11:29y puedes decirle que tú necesitas
11:31una protección de esta naturaleza
11:33para un objetivo X,
11:35¿no? Pero también hay gente que lo hace por diversión,
11:37¿no? Hay gente que
11:39le encanta difundir
11:41información porque
11:43sí, ¿no? Entonces
11:45yo creo que estamos ante un
11:47fenómeno bastante
11:49comprometedor para la democracia,
11:51es decir, yo temo
11:53mucho para la democracia porque
11:55es un tema que afecta mucho a nuestros valores.
11:57¿Crees que
11:59la desinformación, las noticias
12:01falsas, pueden
12:03tener una cuota de determinación
12:05en lo que vaya a ser el
12:07destino de las elecciones?
12:09No sé si a
12:11ese punto, ¿verdad? Pero
12:13sí sé que,
12:15estoy convencido de ello,
12:17que gran parte del debate electoral
12:19se va a llevar a través de las redes
12:21sociales.
12:23Y por eso hay que
12:25tener mucho más cuidado. ¿Cómo podemos
12:27acceder a ese informe mensual que ustedes
12:29hacen, Renan? Porque me parece
12:31que sería importante saber por
12:33dónde van las tendencias, ¿no? También
12:35para estar informado y no caer
12:37como, muy fácilmente.
12:39Sí, bueno,
12:41está en nuestra página web, pero yo voy a
12:43encargarme de que te lo envíen a tu
12:45correo, y al correo
12:47del periódico
12:49y la radio, para que puedan tenerlo.
12:51Sí, es importante.
12:53Mónica, creo que también sería
12:55importante que el deber pueda también de alguna otra forma
12:57replicar
12:59estos informes. ¿Te parece?
13:01¿Se asume o se hace compromiso de alguna otra forma?
13:03Sí, porque yo creo que todo lo que
13:05pueda generar mayor
13:07información, mayor contexto,
13:09va a ayudar a que
13:11también se… la información
13:13no pase solamente al impulso
13:15de replicar, sino también ya
13:17al razonamiento de qué puede estar pasando
13:19detrás de eso que me llega.
13:21Va a ser importante.
13:25Mil gracias, querido Renan, por
13:27esta información.
13:29Yo creo que vamos a estar en contacto
13:31muy seguido por todas
13:33esas advertencias y peligros
13:35que se ciernen sobre la opinión pública
13:37y que al final
13:39terminan atentando contra nuestra
13:41libertad de elegir, ¿no?,
13:43con los cinco sentidos.
13:45Y como decías
13:47al principio,
13:49es importante
13:51tener en cuenta lo que es la mentira, ¿no?
13:53Es decir, que la mentira no se vaya a aplicar
13:55en nuestros valores
13:57como algo natural, como algo
13:59que es válido, ¿no?
14:01La mentira hay que combatirla,
14:03la mentira hay que eliminarla,
14:05hay que sancionar a quienes mienten,
14:07¿no?, porque están
14:09socavando los valores de nuestra
14:11sociedad y de nuestra democracia.
14:13Perfecto. Gracias y un abrazo
14:15grande. Hasta la paz.
14:17A ti, a ambos. Gracias. Chao.
14:19Chao, chao.