Las grandes tecnológicas firman un acuerdo para vetar los contenidos falsos creados con IA

Stiven Cartagena febrero 20, 2024

Durante esta semana se llevó a cabo la Conferencia de Seguridad en Múnich, un evento que sirve para reunir a los principales actores de la industria tecnológica. Empresas como Google, amazon, Meta, Microsoft, OpenAI, X y TikTok hicieron parte de la conversación firmando un acuerdo para frenar el contenido engañoso generado por inteligencia artificial.

La iniciativa estuvo liderada -paradójicamente- por OpenAI (quien al mismo tiempo es la principal propulsora de contenido fabricado con IA). Sam Altman, actual CEO de la compañía, se propuso luchar contra la desinformación durante las elecciones que se realizarán este 2024 en más de 50 países.

En el acuerdo, las compañías reconocen que el rápido avance de la inteligencia artificial estaba creando nuevas oportunidades y desafíos en los procesos democráticos. Ejemplos de esto último radican en la difusión de contenido engañoso, que podría «poner en peligro la integridad de los procesos electorales».

Las compañías centrarán especial atención en las imágenes, audios y videos que sean difundidos en las redes sociales y que estén fabricados con inteligencia artificial. Recientemente la cantante estadounidense Taylor Swift fue víctima de material explícito generado por inteligencia artificial generativa, por semanas rondaron en plataformas como X videos alterados de la cantante, allí el contenido fue reproducido más de 50 millones de veces, finalmente la cuenta que difundió el contenido terminó siendo suspendida.

Cabe resaltar que las tecnológicas no se comprometieron a prohibir o eliminar los deepfakes, pues en su lugar, mostraron los métodos para detectar y etiquetar el contenido fabricado por IA. Por ejemplo, la implementación de marcas de agua o la fácil filtración de este tipo de contenido a través de sus metadatos.

El reto de enfrentar los desafíos de la IA

Nick Clegg, presidente de asuntos globales de Meta, dijo que la utilidad del acuerdo es la amplitud de las empresas que lo firman, y que además es indispensable contar con el apoyo de los usuarios: «Todo el mundo reconoce que ninguna empresa de tecnología, ningún gobierno, ninguna organización de la sociedad civil es capaz de hacer frente por sí sola a la llegada de esta tecnología y su posible uso nefasto».

El acuerdo de las 20 compañías se basa en intercambiar las mejores prácticas entre sí y comprometerse a reaccionar rápidamente ante la difusión de contenido engañoso generado por inteligencia artificial. Sin embargo, no han proporcionado detalles adicionales sobre cómo implementarán estas medidas ni han establecido un plan de acción concreto.

Como resultado, algunos críticos ya han descrito el acuerdo como impreciso y principalmente simbólico. Rachel Orey, directora del Proyecto Electoral del Centro de Política Bipartidista en Estados Unidos, comentó que “el lenguaje utilizado no es tan contundente como se esperaba” y señaló que “será voluntario, por lo que estaremos observando si lo cumplen”.

Una de las principales elecciones que pone en alerta a todas las plataformas en internet son las presidenciales de Estados Unidos. De hecho, el año pasado el Partido Republicano difundió contenido generado por IA contra el presidente Joe Biden, candidato a la reelección. Además, en enero de este año, algunos residentes de New Hampshire recibieron una llamada automática con la voz de una persona que afirmaba ser Biden.

Anteriormente, otras compañías de la industria de la tecnología ya habían anunciado un acuerdo para establecer medidas especiales durante las elecciones. OpenAI, quien está detrás de tecnologías como ChatGPT, dijo que prohibiría a los políticos utilizar sus herramientas para fines politicos. TikTok también se sumó al llamado y dijo que crearía centros electorales para monitorear las publicaciones de su plataforma durante los dias de las elecciones.