banner ICBF Generacion para la paz

DE LAS FAKE NEWS AL DEEP FAKE: ¡LLEGARON NUESTROS CLONES!

Publicidad

Por Abel Medina Sierra

Cuando la humanidad aún no se había adaptado, ni la mayoría de personas han creado mecanismos seguros para poder identificar un potencial falso en una noticia (las fake news) de las que suelen llegar a diario a nuestros dispositivos, una nueva amenaza impulsada por la inteligencia artificial nos abruma con una mayor carga de incertidumbre, vulnerabilidad y desconcierto. En los últimos años, y con especial énfasis en tiempos radicalizados por campañas políticas, golpes blandos, referéndum o plebiscitos, campean libérrimas las falsas noticias diseñadas de manera que imitan, a veces a la perfección y en otras, burdamente, la información publicada por reconocidos medios y se vuelven virales gracias a los incautos que, sin verificar autenticidad, reenvían cuanto le llega a su red social y lo da por hecho.

Pero, el salto al nuevo reto de la virtualidad, impulsado por los adelantos tecnológicos de la inteligencia artificial (IA) hacen que los fake news sean una minucia con relación a los deep fake. En estos días, por ejemplo, el mismo Papa Francisco, se quejaba de la manera cómo usaban su imagen con un vestuario inusual:  «Basta pensar en el problema de la desinformación al que nos enfrentamos desde hace años, las fake news que hoy recurren a los deep fakes, es decir, la creación y difusión de imágenes que parecen perfectamente verosímiles, pero que son falsas (yo también fui objeto de una), o mensajes de audio que utilizan la voz de una persona diciendo cosas que ella nunca dijo». Remató el jerarca católico diciendo: «La simulación, que es la base de estos programas, puede ser útil en algunos campos específicos, pero se vuelve perversa, cuando distorsiona la relación con los demás y con la realidad».

De igual manera, el presidente Gustavo Petro, fue otra vez, víctima de los deep fake cuando alguien manipuló con IA sus declaraciones en Davos sobre la Guyana Esequiba. El presidente aparecía en estado ebriedad. Un caso más, el famoso músico urbano Bad Bunny, se quejó de un Tik Tok en el que se usó su voz para una canción que nunca hizo ni interpretó. Es decir, lo clonaron.

 En estos días, algunos videos alertan a la ciudadanía para que no responda video llamadas de números desconocidos o del exterior. ¿El riesgo?: capturan tu voz y tu rostro, lo manipulan por IA y luego lo envían a tus contactos con urgentes llamados de auxilio económico, o te hacen ver en escena porno, de violación o delictuosa y te extorsionan para no enviar a tus contactos ese material perjudicial.

Todos estos ejemplos hacen parte de los nocivos alcances de los deep fake. El primer caso reconocido sucedió en el 2016 en Estados Unidos cuando apareció nada menos que Barak Obama con palabras en su boca que jamás dijo: «el presidente Trump es un total y completo idiota». Desde entonces, la práctica se ha exacerbado y hoy, vemos cómo imágenes y vídeos son manipulados de tal manera que que son capaces de hacer que aparezca un presidente, líder político o celebridad simulando decir y hacer lo que el creador de contenidos quiera. Bien pudiera decir un Putin que declara la guerra a Occidente (ya ha aparecido en algunos en aparente ebriedad), un líder de Hamas anunciando ataques contra grandes ciudades o el Papa masturbándose y, seguramente, habrá quien lo crea sin dudar de la fuente.

Publicidad

El nombre Deep Fake es un acrónimo inglés que se compone de los términos Deep Learning (aprendizaje profundo) y Fake (falso). Algunos medios, evitando el extranjerismo han comenzado a denominarlo como “Ultrafalso”.  Funciona a través un tipo de algoritmos conocidos como RGAs y se comenzó a usar en el cine. En las películas ‘Rogue One: una historia de Star wars’ se usó el deep fake para que la actriz Carrie Fisher fungiera como la princesa Leia y que el actor Peter Cushing ya fallecido, volviera a actuar. También en la serie The Mandalorian, el actor Luke Skywalker, a través de esta tecnología, aparece con la fisonomía de cuando era un adolescente.  Es decir, el deep fake puede crear clones y así revivir muertos y ponerlos a actuar o a cantar (ya escuchamos a Martín Elías cantar una canción reciente que nunca alcanzó a conocer en vida), devolver un actor anciano a sus años mozos en la pantalla, entre otros simulacros.   

Ahora bien, este tipo de contenidos supone otro reto, por ejemplo, para el sistema judicial.  En las pasadas elecciones se divulgó un video de conductas reprochables por parte de un candidato a elecciones regionales. Cuando la sanción social y los pedidos de investigación subieron la marea, el cuestionado político salió a decir que eso era un deep fake creado, seguramente, por sus contradictores políticos. Surge la pregunta: ¿Está la justicia preparada para identificar que un video o un audio de “chuzada” es auténtico o si fue creado por este tipo de manipulación de la IA? Lo dudo. Esto releva algo paradójico: que el deep fake puede servir para crear falsedades, pero también para falsear verdades.

Los tiempos aquellos en los que el ideal de tener un clon era más una utopía de ciencia ficción, han cambiado mucho. Ahora podemos tener la certeza que algún cucuriaco de las tecnologías virtuales puede captar nuestra voz y nuestra imagen para ponernos a hacer lo que le dé la gana en un video o audio y jodernos la vida. Asusta el futuro que ya llegó y la única arma disponible es la capacidad crítica para evaluar la autenticidad de los contenidos, algo escaso en estos días.

Soporte: Riverasofts.com