Conversamos con: Ariel Ramos Ortega
Codingraph
Viernes 28 marzo 2025
Codingraph
Viernes 28 marzo 2025
Categoría
📺
TVTranscripción
00:00Hola, ¿qué tal? Saludo a Andrea Salazar. Gracias por acompañarnos aquí en Conversamos,
00:10y pues hoy vamos a estar hablando de la ciberseguridad precisamente con Ariel Ramos Ortega, quien
00:15es el Gerente General de Codingraf. Ariel, gracias por acompañarnos. También lo conocemos
00:21como docente de la Universidad Fidelitas, que siempre pues nos ayuda con todos estos
00:26de ciberseguridad. Bienvenido, Ariel.
00:28Muchas gracias por el espacio, Andrea.
00:30Ariel, pues bueno, hablemos ahorita, este 2025,
00:33sobre las formas más avanzadas que se están utilizando
00:38para el tema de estafas cibernéticas, ¿verdad?,
00:41que vemos que cada vez son más noticias,
00:44cada vez vemos que más instituciones dicen, bueno,
00:47no caigan en esta estafa, no caigan en esta trampa.
00:51¿Cuáles son las que tal vez son más novedosas para este 2025?
00:55Cuando entramos en el tema de estafas en el mundo digital,
00:58ciertamente el 2025 se ha caracterizado hasta ahora
01:01por el uso de la inteligencia artificial.
01:04Y hay muchas formas en las cuales las personas pueden caer
01:09debido a las estrategias, herramientas o métodos
01:13que utilizan para engañar a una persona
01:16y entregarle información que le haga pensar que es real.
01:20Puede ser un banco, puede ser un anuncio en redes sociales.
01:23Ciertamente, por ejemplo, si nos concentramos en un ámbito
01:26como lo son las redes sociales,
01:28hay muchos anuncios que son estafas
01:31que redirigen a las personas a sitios web
01:34que son copias del sitio original u oficial
01:37y a partir de ahí empieza todo un proceso
01:40en el cual van a obtener información privada
01:43hasta lograr su cometido que es la extracción de datos
01:46o el robo de dinero o cualquier otro tipo de insumo
01:51o de activo que ellos quieran obtener.
01:53Muchas veces damos este tipo de datos,
01:55a veces como algo muy natural,
01:57dar el nombre, apellido, número de celda.
01:59Tenemos que pensarlo realmente dos veces
02:02antes de poner esta información
02:04que nosotros creemos que hay que importar,
02:06por si eso todo el mundo lo sabe.
02:08Eso no debería ser así, Ariel.
02:10Sí, hay dos partes dentro de la balanza.
02:13Ciertamente uno tiene que cuidar bastante
02:16a quien le da la información,
02:18pero también hay trámites que inevitablemente
02:20necesitan esos datos.
02:22Sin embargo, en el mundo digital en el que estamos
02:25sí debería ser más fácil para muchas instituciones
02:27dentro de los parámetros de seguridad adecuados
02:30obtener los datos de una persona
02:32sin estar a cada rato solicitándolos
02:34la cédula, la dirección,
02:36en qué se dedica, exactamente.
02:39Entonces, es una balanza
02:40donde hay que entregarlos en algunos casos
02:42pero hay que tener cuidado a quien se los damos.
02:44Daniel, se habla mucho de...
02:48Bueno, usted me habla precisamente
02:50de las redes sociales, ¿verdad?
02:52Que algunas de estas son copias
02:55de otras páginas web.
02:57¿Cómo nos damos cuenta que son copias?
03:00Podemos tomar un ejemplo muy concreto
03:02que ha venido ocurriendo en los últimos días
03:04y de hecho se repite en los últimos dos años
03:06este tipo de estafa,
03:08que son la venta de maletas olvidadas
03:10y abro comillas, olvidadas, del aeropuerto.
03:13Sí, hace poco estuvo circulando esa noticia.
03:16Exactamente.
03:17Por ejemplo, en Facebook aparece ese anuncio
03:19e indica que las maletas están a un precio muy bajo
03:22y que pueden pagar por SIMP
03:24e incluso pueden haber direcciones a una página
03:26que es exactamente un clon
03:28y las personas creen
03:31que es la página oficial ya sea del aeropuerto
03:33o de alguna otra institución.
03:35¿Cómo nos damos cuenta realmente
03:37que esto es un phishing?
03:39Así se le conoce la suplantación de identidad.
03:41En este caso se suplanta la identidad
03:43del aeropuerto internacional Juan Santa María.
03:46Primero, uno verifica la página de Facebook
03:50de dónde se está haciendo el anuncio.
03:52Si tiene dos likes, cero likes,
03:55si las publicaciones fueron de hace un día,
03:57son recientes y no hay más
03:59atrás de publicaciones o de histórico publicaciones,
04:01ya esa es una señal, definitivamente.
04:04Luego, la página que redirige normalmente al usuario
04:07debe ser la oficial.
04:09Entonces, usted tiene que comparar en su navegador,
04:11sea en el celular o en la computadora,
04:13si realmente es la página real, original,
04:16de esa empresa, de esa institución.
04:19Y adicionalmente los comentarios.
04:21Una estrategia muy particular de este anuncio
04:23fue que en los comentarios hay muchas personas
04:25diciendo que recibieron el paquete
04:27y son cuentas, uno, o hackeadas
04:29o cuentas creadas con la intención
04:31de engañar o eludir al usuario.
04:35Ariel, hablamos también mucho precisamente
04:39de redes sociales y muchas veces
04:42se han dado discusiones al respecto
04:45de que si nuestros dispositivos nos están escuchando,
04:48que a veces hablamos de cierto producto,
04:51de cierto lugar que tal vez queremos visitar,
04:54un antojo de una comida,
04:56y unas horas después empezamos a ver
04:59nuestras redes sociales y empiezan a salir
05:01anuncios sobre estos temas que estuvimos conversando.
05:03Entonces, al final sí podemos decir
05:06que se está dando este tipo de escucha
05:09a los dispositivos con estos fines de marketing.
05:12Aquí entramos en un área muy particular
05:14que es la protección de datos
05:16y la privacidad del usuario.
05:18Por ejemplo, las aplicaciones móviles
05:20que usted tiene en su celular.
05:22Más allá de si es IOS, Android
05:25o cualquier otro proveedor o sistema operativo,
05:27toda aplicación que uno descarga de las tiendas
05:30debe indicarle al usuario cuáles son los permisos
05:33o accesos que va a tener.
05:35Por ejemplo, acceso a la red de Internet o red Wi-Fi,
05:39acceso a la lista de contactos,
05:41acceso a la galería de fotos.
05:43Y basado en esos permisos,
05:45hay aplicaciones, y hablemos puntualmente,
05:47por ejemplo, Facebook, WhatsApp o Instagram,
05:50que monitorean toda la información que hay
05:53o de lo que ocurre en el celular.
05:55Por ejemplo, si usted está conversando
05:57con una amistad en WhatsApp,
05:59qué bueno sería ir a comprar tal cosa.
06:02Usted va a tener en las redes sociales
06:04de esa misma empresa, que es Meta,
06:06anuncios porque saben que usted tiene interés en eso.
06:10También si usted está conversando.
06:12Definitivamente, las aplicaciones pueden escuchar
06:15porque piden acceso al micrófono.
06:17Con eso, ya también tienen un insumo más
06:19con el cual pueden recabar esos datos
06:21y darle algo que ellos dan a entender así como lo es,
06:24información o publicidad personalizada.
06:27Sin embargo, ahí estamos llegando a un tema.
06:29¿Qué pueden escuchar y qué no pueden escuchar?
06:32Porque yo podría estar hablando con un cliente
06:34de cosas que son privadas dentro de un contrato,
06:37y aún así puede ser que esa información
06:40esté siendo procesada por un tercero,
06:42sin mi consentimiento.
06:44¿Cómo podemos evitar eso?
06:46Porque, bueno, incluso yo creo que les comentaba
06:49hace unos días que el MISIDA había incluso sacado
06:53una infografía en donde daba algunas opciones
06:56avanzadas de ciberseguridad.
06:58Dentro de estas decían que había que evitar
07:01este tipo de conversaciones como la que usted apunta,
07:04que son muy sensibles, cerca de dispositivos.
07:08O, por ejemplo, Alexa, que incluso ya se había dicho
07:12también que sí escuchaba y hasta grababa
07:15esas conversaciones.
07:16Sí.
07:17Estos consejos que da el MISIDA son muy adecuados
07:19porque uno así puede filtrar.
07:21O decir, ok, ¿qué tipo de cosas yo puedo transferir
07:24en el mundo digital?
07:26¿Y qué otras mejores deberían quedarse
07:28en un entorno más aislado o privado?
07:30Por ejemplo, en el día a día, pues sí,
07:32una llamada telefónica, un audio en una aplicación
07:36de mensajería, un correo electrónico,
07:38puede llevar cualquier tipo de información
07:40y de muchas categorías.
07:41Pero, por ejemplo, el uso de inteligencia artificial
07:44en aplicaciones generativas como un chat GPT.
07:47Una persona no debería subir ahí un contrato
07:50o un documento privado de algún cliente y decir
07:52analice esto.
07:53No, no podemos ser pues tan...
07:57Confiados.
07:58Exactamente, confiados con ese tipo de datos
08:00porque ya están dentro de un marco legal,
08:02dentro de un marco de privacidad,
08:04y ya esa información una vez subida,
08:06perdemos control.
08:07Claro.
08:08Entonces sí debería existir y por eso todas las aplicaciones
08:10deben tener un apartado que indica
08:12qué hacen con los datos que recaban.
08:15Deberíamos entonces sí también evitar
08:17esas conversaciones cerca del teléfono
08:19o de Alexa o de Google,
08:21de todos estos otros dispositivos.
08:23Una buena práctica sería primero revisar
08:25qué aplicaciones tienen o no acceso,
08:27por ejemplo al micrófono o a la cámara.
08:29Todos los celulares normalmente traen
08:31una aplicación de configuraciones
08:33o en inglés llamada settings.
08:35Ahí dentro usted puede saber
08:37qué aplicación tiene acceso
08:39a qué recursos de su celular.
08:41Basado en esto se puede dar sorpresas
08:43donde usted dice que es raro
08:45porque esta aplicación que hace algo totalmente distinto
08:47necesita un micrófono.
08:49¿Para qué?
08:51Y ahí lo puedo desactivar.
08:53Ahora, si cuando sabemos
08:55que hay dispositivos cerca nuestro
08:57que están en una constante escucha
08:59o escucha activa,
09:01hay que tener cuidado sobre qué hablamos.
09:03Por ejemplo, yo no tendría Alexa
09:05en lo particular activado o cerca
09:07si yo sé que las reuniones
09:09que tengo con clientes o con otras personas
09:11se maneja información sensible
09:13o información que sólo está
09:15para cierto tipo de
09:17público específico.
09:19Entonces yo tendría cuidado en esa parte.
09:21Y siempre revisar en las configuraciones
09:23qué app tiene acceso a qué recursos.
09:25Venga, eso siempre causó
09:27también mucho revuelo, ¿verdad, Daríel?
09:29De que si esto pasaba
09:31o no podemos dar por un hecho entonces no sé si pasa.
09:33Sí, es totalmente
09:35un hecho de que las aplicaciones se escuchan.
09:37Por eso es que uno tiene el control aún
09:39hasta la fecha
09:41de ciertas acciones en su celular
09:43para definir o delimitar
09:45ese nivel de privacidad.
09:47Muchas gracias, Daríel. Vamos a hacer
09:49nuestra primera pausa aquí en Conversamos.
09:51Quédense con nosotros, ya volvemos.
10:09Gracias por continuar con nosotros
10:11aquí en Conversamos.
10:13Estamos en compañía de Ariel Ramos Ortega
10:15quien es gerente general
10:17de Codingraph
10:19hablando de ciberseguridad.
10:21Ariel, este ya es un tema
10:23de todos los días y yo creo que es algo
10:25que nunca se va a acabar
10:27esta conversación acerca
10:29de todos esos cuidados que debemos
10:31de tener en redes sociales,
10:33navegando en Internet y principalmente
10:35dando datos sensibles como ya lo habíamos
10:37hablado anteriormente.
10:39¿Qué papel ahora,
10:41ya lo hablamos un poquito en el bloque anterior,
10:43pero qué papel ahora toman
10:45también el tema de la inteligencia artificial
10:47que si bien nos puede
10:49venir a ayudar mucho, a facilitar
10:51la vida en muchas cosas, pues también es
10:53usabilizada con fines
10:55no tan buenos, ¿verdad?
10:57Claro, la ciberseguridad como tal
10:59es un campo muy amplio, con
11:01muchísimas aristas.
11:03Y ahora que entramos con el tema de la inteligencia
11:05artificial, que es un área de conocimiento
11:07muy amplia,
11:09que es un área de conocimiento
11:11muy amplia y que
11:13definitivamente y necesariamente
11:15debe estar complementada
11:17con la protección de datos, pues aquí es
11:19donde ahora que hay tantas opciones
11:21en el mercado, pues uno
11:23debe comenzar a filtrar
11:25qué necesito en mi día a día,
11:27pero también cómo yo tengo
11:29o administro bien la información
11:31que ahí se almacena.
11:33Por ejemplo, hablemos de la inteligencia
11:35artificial.
11:37¿Qué información le estamos dando
11:39a la inteligencia artificial?
11:41Algunas sólo generan textos,
11:43otras generan imágenes, pero
11:45¿qué información le estamos dando
11:47para que nos dé esos resultados?
11:49¿Y esa información es
11:51adecuada para ser enviada
11:53en estas plataformas o es mejor
11:55manejarla de una manera distinta
11:57por un tema de privacidad?
11:59Ciertamente con la AI
12:01tenemos muchas ventajas, pero no
12:03tenemos muchas ventajas.
12:05¿Qué podemos hacer?
12:07¿Qué podemos hacer antes de
12:09decidir si ponemos una información
12:11o no en una de estas
12:13inteligencias artificiales?
12:15Aquí entra la letra pequeña
12:17de cualquiera de estas plataformas.
12:19Tiene que haber un apartado
12:21donde le explican al usuario
12:23qué hacen con la información
12:25y qué tipo de información recaban.
12:27¿Por cuánto tiempo va a estar
12:29esa información retenida en la
12:31aplicación?
12:33¿Por cuánto tiempo va a estar
12:35esa información retenida en la
12:37aplicación?
12:39Y nos damos cuenta luego que
12:41ese documento que fue enviado
12:43es guardado en algún lugar
12:45remoto de esos sistemas y luego
12:47es vendido a empresas de
12:49marketing o empresas que tienen
12:51un propósito de la información
12:53para poder vender un producto.
12:55Ya eso sería un uso no autorizado
12:57de un documento que yo subí.
12:59Uno de los principales errores
13:01que cometemos es precisamente
13:03no leer todos esos términos
13:05que siempre nos ponen cuando
13:07descargamos un app o cuando
13:09utilizamos un app de estos.
13:11Tenemos la mala costumbre de dar
13:13clic en siguiente, siguiente,
13:15siguiente, aceptar y luego nos
13:17damos cuenta y probablemente
13:19alguno de los televidentes
13:21tenga una situación particular
13:23donde haya hecho eso y luego
13:25se da cuenta que tiene otra
13:27aplicación.
13:29Entonces, la gente entera de que
13:31hay un uso no esperado de la
13:33información que manejaba ahí y
13:35tal vez eso le pueda traer
13:37problemas a nivel laboral.
13:39La gente también utiliza
13:41aplicaciones que no están
13:43dentro de, por ejemplo, el
13:45Play Store.
13:47Por ejemplo, eso
13:49deberíamos de evitarlo.
13:51Totalmente es una mala práctica
13:53descargar aplicaciones externas.
13:55¿Cuáles son esas aplicaciones?
13:57¿Cuáles son esas aplicaciones?
13:59Hay un par de casos puntuales.
14:01Aplicaciones que hacen
14:03streaming de series, que
14:05normalmente uno debería pagar
14:07una licencia o una suscripción,
14:09pero hay personas que le dicen
14:11yo tengo la versión, decimos
14:13así, craqueada o parcheada.
14:15Piratería.
14:17Exactamente, y se la transfieren
14:19no por medio de la tienda, sino
14:21que se la pueden pasar por
14:23la tienda.
14:25¿Qué más?
14:27¿Qué otra información está
14:29accediendo a esa aplicación?
14:31Y muchas veces tienen algo que
14:33se llama mal words o código
14:35malicioso.
14:37Comienzan a registrar las
14:39acciones que usted realiza en su
14:41celular, comienza a recabar datos
14:43que en ningún momento tenían que
14:45ser extraídos de su dispositivo.
14:47Entonces, no es una buena
14:49práctica.
14:51También hay que tener en cuenta
14:53que la aplicación no es
14:55exclusiva.
14:57Hay personas que no paguen la
14:59suscripción, pero se la dejan a
15:01un precio cómodo, por ejemplo.
15:03Anual, mensual.
15:05Exacto, o de una única vez el
15:07pago, pero obtienen las
15:09aplicaciones de lugares de
15:11dudosa procedencia.
15:13Ariel, ¿se puede dar ahora el
15:15tema de la utilización de la
15:17inteligencia artificial para
15:19conseguir resultados más
15:21rápidos?
15:23Bueno, la inteligencia artificial
15:25es algo que va creciendo en los
15:27últimos dos años en términos de
15:29aplicabilidad en el día a día.
15:31Sin embargo, así como hay cosas
15:33que nos pueden servir en
15:35productividad, organizar tareas,
15:37obtener resultados más rápidos,
15:39lastimosamente se está
15:41utilizando también para algunas
15:43actividades no lícitas.
15:45Por ejemplo, hablemos del
15:47ditfake.
15:49El ditfake lo que hace es hacer
15:51una simulación de una persona
15:53para que parezca un video,
15:55y lastimosamente hay gente que
15:57se lo cree.
15:59Claro, uno podría encontrar
16:01detalles en el video que le
16:03hacen a uno sospechar, pero yo
16:05he visto en redes sociales la
16:07gran cantidad de personas que se
16:09creen publicaciones generadas
16:11con inteligencia artificial, y
16:13no me extraña por eso que se
16:15estafa.
16:17No me extraña por eso que
16:19también existan casos de gente
16:21que se estafa lastimosamente.
16:23Sí, creo que hubo un caso
16:25bastante sonado, incluso con
16:27unos videos de Brad Pitt, si no
16:29me equivoco, donde algunas
16:31personas incluso hicieron
16:33donaciones porque él estaba por
16:35medio de un video que estaba
16:37manipulado de esta manera
16:39pidiendo ese dinero también.
16:41Sí, de hecho en un país, si no
16:43me equivoco, en un país en el
16:45que hay gente que se estafa
16:47con inteligencia artificial,
16:49una chica se divorció de su
16:51marido porque creyó que le estaba
16:53hablando una celebridad por
16:55teléfono, por Whatsapp, y le
16:57ofreció casarse y todo, pues no
16:59era generado con AI, con
17:01inteligencia artificial, pero
17:03necesitamos un trabajo arduo a
17:05nivel de democratizar el tema
17:07de este tipo de cómo detectar
17:09una AI, cómo detectar si algo
17:11está malo o no, ¿no?
17:13¿no?
17:15La razón por la cual siguen
17:17habiendo estafas es un buen
17:19indicador de que hay mucho
17:21trabajo por hacer.
17:23Ariel, si hablamos ahorita de
17:25temas tal vez que nos pueden
17:27pasar a cualquiera que estamos
17:29en la calle, a cualquiera que
17:31utilice su teléfono también,
17:33¿qué hay para hacer a nivel de
17:35empresas que también manejan
17:37datos muy sensibles de clientes
17:39y de empleados?
17:41¿cuál es la importancia de la
17:43investigación, de la investigación
17:45en el tema institucional, por
17:47ejemplo, el hackeo que hubo en
17:49la caja costarricense del seguro
17:51social?
17:53de ahí la importancia en una
17:55fase inicial que toda institución,
17:57no importa si es del sector
17:59privado o público, deba tener una
18:01inducción en temas básicos de
18:03ciberseguridad o detección de
18:05amenazas para cada uno de sus
18:07clientes, y en el caso de la
18:09empresa, la historia, tiene que
18:11haber un apartado sí o sí,
18:13y yo sé que a nivel institucional,
18:15a nivel de gobierno, pues,
18:17hay ministerios, hay instituciones
18:19que están trabajando en esta
18:21parte, dándoles capacitaciones,
18:23trabajando arduamente en toda
18:25esta área de introducción a la
18:27ciberseguridad, pero también en
18:29las empresas privadas eso debe
18:31existir, actividades como un
18:33tiempo de concientización al año
18:35para que las personas que
18:37necesitan, las personas que
18:39necesitan ser capacitadas o
18:41actualizadas en estos
18:43conocimientos, son sumamente
18:45fundamentales, sin olvidar las
18:47herramientas, las estrategias, y
18:49todo lo técnico que debería
18:51tener una organización para estar
18:53protegidos, las personas son
18:55también de las primeras, pues,
18:57nuestros primeros objetivos a
18:59capacitar o entrenar para que a
19:01nivel de seguridad estemos más
19:03protegidos, y también tenemos
19:05que tener en cuenta que
19:07lamentablemente cada vez vemos
19:09a más menores utilizando
19:11dispositivos electrónicos.
19:13Yo tengo un criterio muy
19:15particular sobre a partir de
19:17qué edad un niño debería tener
19:19acceso a un dispositivo, porque
19:21en Internet hay muchas cosas, y
19:23también hay muchos tipos de
19:25personas, y uno debería tener
19:27cuidado, por ejemplo, en el tema
19:29de los videojuegos, pues, quién
19:31debería tener acceso a los
19:33videojuegos?
19:35¿ quién debería tener acceso a
19:37los videojuegos?
19:39y ahí es donde los padres de
19:41familia tienen que utilizar
19:43herramientas como el control
19:45parental, que es una forma en la
19:47cual pueden gestionar a qué
19:49acceden o no sus hijos, pero
19:51también está el tema de poder,
19:53pues, hacer que conozcan todo
19:55este mundo de la manera adecuada
19:57para la edad que tienen, porque
19:59cuando yo era un niño apenas
20:01era como la transición, pero
20:03ahora ellos tienen mucha
20:05tecnología a la mano, y algunos
20:07padres de familia le dan una
20:09tablet con acceso a Internet a
20:11un niño, pero sin ninguna
20:13limitación de Internet, y eso es
20:15preocupante, porque no sabemos
20:17con qué se va a encontrar.
20:19Debemos aprender a siempre
20:21pensar mal de todas estas
20:23publicaciones, de todos estos
20:25mensajes que pueden llegar por
20:27Internet, y no siempre ir de una
20:29vez a dar clic a este enlace,
20:31por más que diga que este
20:33celular, que normalmente vale,
20:35no sé, 800,000, ahí está en
20:37promoción en 20,000, no.
20:39Los estafadores de 20,000
20:41colones en 20,000 colones...
20:43hacen el montón, por supuesto.
20:45Exacto, hacen una fortuna, pero
20:47eso se debe a que las personas
20:49aún no han logrado identificar
20:51a los padres de familia, y
20:53también a los padres de familia
20:55que aún no han logrado
20:57identificar muchas, pues cuáles
20:59son esas claves o esas pistas
21:01para saber si esto es una estafa.
21:03Igual con SMS. Probablemente
21:05los televidentes recuerden un
21:07SMS que les llegó de que hay un
21:09supuesto paquete en correos
21:11esperando, o que tiene un cobro
21:13pendiente, o que se ganó
21:15un premio. Yo siempre digo,
21:17si usted no participó en una
21:19rifa, no espere un mensaje que
21:21le diga que se ganó.
21:23Y si usted no participó en una
21:25rifa, no espere un mensaje que
21:27le diga que se ganó.
21:29Exacto. Pero también, aunque
21:31usted haya pedido un paquete,
21:33use los canales oficiales,
21:35porque a veces esos enlaces le
21:37dirigen a uno a una página, que
21:39es una copia o un clon, usted da
21:41los datos, y luego sale la
21:43pregunta clave con el tiempo,
21:45¿cómo obtuvieron esta información
21:47que es mía y que es personal?
21:49Por ese tipo de errores.
21:51¿Cuál es la posibilidad de
21:53enfrentar estos ataques?
21:55¿Cuál es la posibilidad de
21:57seguridad para los próximos
21:59años, y cómo también podemos
22:01llegar a enfrentarlos?
22:03Definitivamente hay que
22:05robustecer la legislación para
22:07tomar en cuenta muchos tipos de
22:09ataques que están apareciendo.
22:11Con la inteligencia artificial,
22:13estos ataques se vuelven cada
22:15vez más efectivos, y aparecen
22:17nuevas vulnerabilidades en los
22:19próximos años.
22:21En el caso de la violencia
22:23agresiva, hay que hacer un
22:25esfuerzo, pero hacia adelante,
22:27para estar más seguros.
22:29Adicionalmente, dentro del país,
22:31cuando hablamos a nivel legal,
22:33a nivel de legislación, estos
22:35proyectos de ley siempre deben
22:37estar en constante evolución,
22:39porque la tecnología avanza muy
22:41rápido, no podemos esperar que
22:43una ley que aborda ciertos temas
22:45de seguridad se actualice cada
22:47año.
22:49Entonces, todo eso tiene que
22:51abordarse de una manera integral,
22:53pero de una manera también
22:55expedita, no podemos caer en un
22:57vacío burocrático, donde este
22:59tipo de actividades, que más bien
23:01protegen a la población, sean
23:03tan lentas.
23:05Y adicionalmente, tanto empresa
23:07privada como empresa pública,
23:09deben capacitar a sus empleados,
23:11sí o sí, y sabemos que el 100%
23:13de las empresas no lo hace
23:15porque no tienen la capacidad
23:17como parte de la inducción para
23:19cualquier persona.
23:21No importa si es nueva o si
23:23lleva 30 años ahí trabajando,
23:25tiene que hacerse un monitoreo
23:27constante de ese conocimiento
23:29para estar más seguros.
23:31Bien, Ariel, se nos acabó el
23:33tiempo, pero muchas gracias por
23:35acompañarnos.
23:37Con mucho gusto.
23:39También gracias a usted por
23:41seguirnos acá por medio de la
23:43red de comunicación.