WASHINGTON.- Entre las imágenes de casas bombardeadas y calles devastadas en Gaza, algunas destacaron por el horror absoluto que mostraban: bebés ensangrentados y abandonados.
Estas imágenes, vistas millones de veces en línea desde que comenzó la guerra, son deepfakes (audios, imágenes o videos realistas manipulados o generados digitalmente) creadas con inteligencia artificial. Si se observa atentamente, puede detectar pistas: dedos que se curvan de manera extraña u ojos que brillan con una luz antinatural, todos ellos signos reveladores de engaño digital. No obstante, la indignación que se buscaba provocar con las imágenes es totalmente real.
Las imágenes de la guerra entre Israel y Hamás han ilustrado vívida y dolorosamente el potencial de la inteligencia artificial (IA) como herramienta de propaganda, utilizada para crear imágenes realistas de matanzas. Desde que comenzó la guerra el mes pasado, imágenes alteradas digitalmente y difundidas en las redes sociales se han utilizado para hacer afirmaciones falsas sobre la responsabilidad por las víctimas o para engañar a la gente sobre atrocidades que nunca ocurrieron.
Si bien la mayoría de las afirmaciones falsas que circulan en línea sobre la guerra no requirieron IA para su creación y provienen de fuentes más convencionales, los avances tecnológicos se producen con una frecuencia cada vez mayor y con poca supervisión. Esto ha hecho que el potencial de la IA para convertirse en otra forma de arma sea claramente evidente, y ha ofrecido un vistazo de lo que vendrá durante futuros conflictos, elecciones y otros eventos importantes.
“Esto será peor, mucho peor, antes de que mejore”, dice Jean-Claude Goldenstein, director general de CREOpoint, una empresa de tecnología con sedes en San Francisco y París que utiliza inteligencia artificial para verificar la validez de las publicaciones en línea. La compañía ha creado una base de datos de los deepfakes más virales que han surgido en Gaza. “Imágenes, video y audio: con IA generativa será una escalada que no has visto”, dice Goldenstein.
Manipulación sin control
En muchos casos, las imágenes falsas parecen diseñadas para provocar una fuerte reacción emocional al incluir cuerpos de bebés, niños o familias. En los sangrientos primeros días de la guerra, los partidarios tanto de Israel como de Hamás afirmaron que el otro lado había victimizado a niños y bebés. Deepfakes de bebés llorando ofrecieron una “evidencia” fotográfica que rápidamente se presentó como prueba.
Los propagandistas que crean este tipo de imágenes son hábiles para suscitar las ansiedades y los impulsos más profundos de las personas, dice Imran Ahmed, director general del Center for Countering Digital Hate (Centro para Contrarrestar el Odio Digital), una organización sin fines de lucro que ha rastreado la desinformación de la guerra. Ya sea el deepfake de un bebé o una imagen real de un bebé de otro conflicto, el impacto emocional en el espectador es el mismo.
Cuanto más aborrecible sea la imagen, más probabilidades habrá de que un usuario la recuerde y la comparta, propagando aún más la desinformación sin darse cuenta.
“Ahora mismo se le dice a la gente: mira esta foto de un bebé”, señala Ahmed. “La desinformación está diseñada para hacer que tú participes en ella”. Contenido igualmente engañoso generado por IA comenzó a difundirse después de que Rusia invadió Ucrania en 2022. Un video alterado parecía mostrar al presidente ucraniano Volodymyr Zelenskyy ordenando a los ucranianos que se rindieran. Tales afirmaciones han seguido circulando incluso la semana pasada, lo que demuestra cuán persistente puede ser la información errónea y falsa, aun cuando ha sido desacreditada fácilmente.
El riesgo electoral de la IA
“Nosotros, como nación, debemos hacer esto bien”, declaró Connolly.
En todo el mundo, varias startups de tecnología trabajan en nuevos programas que pueden detectar deepfakes, colocar marcas de agua en imágenes para demostrar su origen o examinar texto para verificar cualquier afirmación engañosa que pueda haber sido insertada por IA.
“La próxima ola de IA será: ¿Cómo puedes verificar el contenido existente? ¿Cómo puedes detectar información errónea o falsa? ¿Cómo puedes analizar el texto para determinar si es confiable?”, señala Maria Amelie, cofundadora de Factiverse, una empresa noruega que ha creado un programa de IA que puede examinar contenido en busca de imprecisiones o sesgos introducidos por otros programas de IA.
Estos programas serían de interés inmediato para educadores, periodistas, analistas financieros y otras personas interesadas en erradicar las falsedades, el plagio o el fraude. Programas similares están siendo diseñados para detectar fotografías o videos manipulados.
Si bien esta tecnología es prometedora, quienes utilizan la IA para mentir suelen ir un paso adelante, según David Doermann, un científico informático que dirigió un esfuerzo en la Defense Advanced Research Projects Agency (Agencia de Proyectos de Investigación Avanzada de Defensa) para responder a las amenazas a la seguridad nacional que plantean las imágenes manipuladas por IA.
Doermann, quien es ahora profesor de la Universidad de Buffalo, dice que responder eficazmente a los desafíos políticos y sociales que plantea la desinformación generada con IA requerirá tanto mejores tecnologías como mejores regulaciones, estándares voluntarios de la industria y grandes inversiones en programas de alfabetización digital para ayudar a los usuarios de internet a encontrar maneras de distinguir la verdad de la fantasía.
“Cada vez que lanzamos una herramienta que detecta esto, nuestros adversarios pueden usar IA para ocultar ese rastro de evidencia”, añade Doermann. “Detectar y tratar de eliminar estas cosas ya no es la solución. Necesitamos tener una solución mucho mayor”.
RSV