Los deepfakes y cómo los medios están combatiendo una nueva ola de desinformación creada con inteligencia artificial

Stiven Cartagena febrero 22, 2023

Fakecatcher

En los últimos años ha sido muy común ver o escuchar la expresión de ‘fake news’, noticias falsas por su significado en español. El término no se limita a su relación con el contenido dudoso de una hecho informativo, como una noticia o un reportaje en medios de comunicación. La expresión también hace referencia a todo el contenido falso que se puede encontrar en internet y las redes sociales.

No obstante, con el pasar del tiempo se crearon diferentes mecanismos para identificar la veracidad de una información, pero desde la masificación de las redes sociales, es cada día más complejo poder comprobar cuándo un hecho es real o falso, ya que éste puede alcanzar una gran repercusión permitiendo que llegue a millones de personas antes de poder ser confirmado como falso.

Lo que en un tiempo pudo ser imposible, ahora es relativamente fácil gracias a los avances de la tecnología, en específico de la inteligencia artificial y su popular creación conocida como los deepfakes, vídeos fabricados mediante modelos que pretenden generar polémica y manipular a la opinión pública. Y ya hay varios medios que trabajan para combatirlos.

Supongamos que un día te levantas y ves un video con tu rostro en la televisión o en alguna red social donde supuestamente estás hablando mal de alguien. En teoría, sabes inmediatamente que esto es falso, y que en ningún momento has grabado algo así, pero la realidad es que este vídeo ya lo han visto millones de personas.

Precisamente así fue como empezó todo. En el año 2018 se viralizó un vídeo donde utilizaron el rostro del expresidente de los Estados Unidos, Barack Obama, para hacer una campaña contra el, en ese entonces, presidente Donald Trump. Mientras el video le daba la vuelta al mundo, varios medios se pusieron a la tarea de difundir la veracidad de esta información, y convencer a la gente de que se trataba de una fake news.

Pero este no es el único caso en el que se ha usado inteligencia artificial para modificar la voz o rostro de una persona. También se han visto casos de fanáticos que han usado a figuras como Ariana Grande, Ava Max, Miley Cyrus o Lady Gaga, para recrear sus voces y rostros haciendo nuevas canciones. También en un supuesto vídeo de Elon Musk donde anunciaba que iba a comprar Meta: no era real, se trata de un deepfake.

Otro ejemplo fue el vídeo compartido a través de redes sociales que mostraba a Vladimir Putin declarando la paz con Ucrania. Horas más tarde, Meta y YouTube presentaron un comunicado donde afirmaban que se trataba de una noticia falsa e inmediatamente eliminaron el vídeo de sus plataformas. 

Deepfake de Vladimir Putin anunciando el fin de la guerra con Ucrania

El Gobierno de Maduro recreó un deepfake para impulsar propaganda en el extranjero

Recientemente, una cuenta de Twitter llamada “Cazadores de Fake News”, publicó un hilo en el que señalaban al gobierno de Venezuela de reproducir información falsa a través del uso de avatares falsos que afirmaban que la economía del país estaba en pleno crecimiento.

El vídeo, que se emitió en un programa de televisión en inglés, fue compartido por miles de personas a través de redes sociales como YouTube y Tik Tok. Según el portal, la estrategia se hacía a través de varios videos que circulaban con la exposición de una presentador que hablaba sobre la economía venezolana.

El contenido de los vídeos incluye información en el que exponen datos y las supuestas mejoras económicas de Venezuela, a través de videos con títulos como: “Venezuela y su economía: ¿mito o realidad?”.

Según el hilo, lo que más llamó la atención es que el presentador habla en inglés, pero en ningún momento se identifica. Por lo tanto, al verificar este dato hicieron una búsqueda de la cara del presentador y encontraron “decenas de fotos casi idénticas”. Lo que sin duda alguna se trató de un deepfake.

Además, Cazadores de Fake News resaltó que varios canales de difusión oficiales del gobierno de Nicolás Maduro difundieron los vídeos como si se tratara de propaganda extranjera, y afirmando que todo se trata de una campaña propia del mismo gobierno para seguir impulsando las noticias falsas en el país.

China, el primer país en anunciar una regulación

Los vídeos que fomentan las noticias falsas comenzaron a ser un verdadero problema para países como China, donde decidieron poner un límite a través de una nueva ley. Según un documento compartido por el portal Reuters, las tecnológicas Google, Facebook y Twitter recibieron un aviso según el cual debían acabar con la publicación de deepfakes. 

La Unión Europea impondrá multas si no se cumple con esta medida. Mientras tanto, la Administración del Ciberespacio de China está trabajando para  implementar su nueva legislación en torno a esta tecnología y la distribución de noticias falsas. 

El objetivo de esta nueva ley será limitar su viralización y las suplantaciones de identidad. Entre los puntos clave de la nueva normativa se encuentra la concesión de consentimiento para el uso de imágenes por parte del usuario y la prohibición de tecnologías de este tipo para la difusión de noticias. 

En China es común encontrarse avatares creados con IA en las redes sociales

Otra de las obligaciones antes de publicar un contenido de este tipo será poner un aviso donde indique a las personas que se trata de una imagen editada o modificada. En caso de que el creador incumpla este requisito, se verá obligado a eliminar el contenido o enfrentar una condena en el país chino, pues estaría atentando contra la seguridad nacional.

Esta acción de la Administración del Ciberespacio de China es el primer intento integral de una agencia reguladora de restringir el mal uso de softwares de inteligencia artificial. El gigante asiático es sin duda el país con mayor capacidad para controlar los deepfakes por la configuración de sus sistemas de vigilancia en el ciberespacio. 

Sin duda, la implementación de la nueva normativa puede servir como ejemplo a seguir para el resto del mundo, lo que obligaría a estas tecnologías a desarrollar otros métodos engañosos para continuar con su propagación. Aplicaciones populares como el creador de avatares Lensa o el generador de texto ChatGPT, de OpenAI, están revolucionando el empleo de sistemas automatizados e inteligencia artificial, lo que comienza a preocupar a los gobiernos.

Mientras avanza la legislación, algunos consejos para detectar deepfakes

Por ahora, mientras esperamos que llegue la ley que regule la circulación de los avatares falsos, o un software que permita su identificación, existen algunas señales que nos revelarán cuándo un vídeo se trata de un deepfake o es realmente veraz: 

  • Cabello y barba: El cabello tiende a ser una de las características más difíciles de recrear en sistemas de inteligencia artificial, así que los programas que los crean tienden a difuminar partes del cabello para disimular las fallas.
  • Accesorios: Las redes adversariales son propensas a generar imágenes con gafas incorrectamente ya que generan brillos artificiales que son fácilmente detectables.
  • Rasgos físicos: Al ponerse de perfil el sistema puede generar algunas deformaciones en la imagen fácilmente perceptibles.
  • Expresiones: Fijarse en si la persona está actuando de forma natural es crucial, estas redes solo generan imágenes, no saben lo que es una expresión facial.
  • Ojos: Es muy común encontrarse deep fakes con la mirada perdida, con los párpados muy sistematizados, esto es un índice para determinar de que trata de un vídeo falso.
  • Pestañas: Si prestamos atención al pestañeo de la persona, es posible deducir si es un deep fake o no. En general, muchas veces hacen videos de pestañeos muy rápidos e incluso a veces casi ni pestañean.
  • Rostro: Debido a la reducida variabilidad de generación de imágenes, es muy probable que detectemos que el deepfake no vocaliza bien o que sus dientes y brillos en los párpados hacen que luzcan muy artificiales.