Un fake del Pentágono en llamas generado por IA generó el caos. El culpable no fue la IA: fue Twitter
El pasado lunes por la mañana apareció un preocupante mensaje en Twitter. Según (entre otras) la cuenta verificada de Bloomberg Feed, había habido una explosión en el Pentágono. Bajo el llamativo titular aparecía una foto con una gran columna de humo negro muy cerca de un edificio que tenía una construcción similar a la de otros edificios del Pentágono. Era todo mentira: esa cuenta no tiene relación alguna con Bloomberg aunque su nombre tratara de indicar lo contrario, y Twitter la suspendió poco después de publicar esa falsa noticia.
Deepfake peligroso. El mensaje publicado por esa cuenta verificada se comenzó a compartir de forma viral y vertiginosa. Aunque ningún gran medio de noticias en EEUU lo difundió, si lo hicieron muchos usuarios e incluso la organización de medios rusa Russia Today (RT). El impacto de esa noticia fue importante en el ámbito financiero.
Caída repentina en bolsa. En pocos minutos se produjeron bajadas en varios índices bursátiles. El S&P 500 cayó un 0,3%, mientras que el índice Dow Jones también cayó sensiblemente en apenas 4 minutos. Ambos se recuperaron con la misma rapidez tras revelarse que la noticia era falsa.
Daños leves. A pesar de esas repentinas caídas, el daño real parece haber sido mínimo. El Cuerpo de Bomberos del Condado de Arlington (donde está situado el Pentágono) rápidamente desmintió la noticia en un tuit. Uno de sus integrantes, el capitán Nate Hiner, explicó que “simplemente mirando la imagen, eso no es el Pentágono. No tengo ni idea de qué edificio es. No hay un edificio como ese en Arlington”.
Era todo mentira.Una inspección detallada de la foto dejaba claro que se trataba de un deepfake, una imagen falsa creada digitalmente. Aparentemente podría haber sido creada por algún modelo de IA generativa, pero como explicaban los expertos, en realidad el problema no era ese. Así lo indicaba Renée DiResta, directora de investigación del Observatorio de Internet de Stanford y experta en cómo circula la desinformación, que lo indicaba en The Washington Post:
“No se trata de un problema de IA en sí. Cualquiera con experiencia en Photoshop podría haber hecho esa imagen; irónicamente, probablemente podría haberla hecho mejor. Pero es una muestra de cómo las señales que ayudan a la gente a decidir si la información sobre noticias de última hora es digna de confianza en Twitter se han vuelto inútiles, del mismo modo que la capacidad de crear irrealidad de alta resolución se ha puesto al alcance de todo el mundo”.
De quién es la culpa. No es de la IA, desde luego. Una de las claves está en Twitter, que tras los despidos masivos se ha quedado sin los equipos que moderaban y censuraban en el ámbito de la desinformación. También es un problema que ahora cualquiera pueda conseguir una cuenta verificada pagando la suscripción de Twitter Blue de 8 dólares al mes y confirmando con su teléfono móvil. Eso ya ha provocado bromas pesadas recientemente.
Cuidado con retuitear. La culpa la tiene la forma en la que funciona esa viralidad de estas imágenes: si uno no comprueba si el tuit es real, el problema se agranda. Como indican en WaPo, el problema aquí es que otras cuentas verificadas como OSINTdefender retuitó el mensaje a sus 336.000 seguidores.
Más tarde borraron el mensaje —ya se había visto al menos 730.000 veces—, pero explicaron que vieron la noticia en Discord por parte de alguien llamado “Walter Bloomberg” y la imagen de la explosión provenía de alguien que la había publicado en Facebook y que afirmaba trabajar en Arlington. Esa página de Facebook fue borrada posteriormente.
Si no tienes check azul, no te creo (tanto). Otras cuentas con miles de seguidores —sean o no bots— republicaron la noticia, y algunas de ellas tenían la marca verificada. La Agencia de Los Cuerpos de Protección del Pentágono que precisamente protege este organismo no tiene esa marca de verificada y Twitter no le ha concedido el check gris que muestra que es una institución verificada.
Este organismo retuiteó el mensaje del Cuerpo de Bomberos de Arlington que precisamente desmentía los hechos. Ese tuit tiene ahora mismo más de 117.000 reproducciones, mucho menos que los originales en los que se difundía la falsa noticia, y que replicaron multitud de cuentas. Desde entonces Twitter ha marcado varios de los tuits que difundieron la información falsa y ha añadido un recuadro con el texto “Mantente informado” avisando de que probablemente ese mensaje es falso.
Un viejo problema que probablemente se haga más frecuente. Aunque en este caso la imagen podía engañar a primera vista, detectar que era falsa era relativamente sencillo. Eso es cada vez más complicado con los modelos de IA generativa y probablemente sea casi imposible detectar que una imagen es falsa a corto plazo, pero el problema en realidad no será ese: los usuarios y sobre todo los medios y organismos oficiales serán los que tendrán que estar muy atentos para no ayudar a que esas informaciones falsas se propaguen. Aquí plataformas como Twitter harían bien en dedicar más personal este problema, sobre todo ahora que con estos modelos de IA probablemente aparezca con mucha mayor frecuencia. Mientras, eso sí, tratan de aparecer sistemas que validen o al menos etiqueten esos contenidos generados por IA.
–
La noticia
Un fake del Pentágono en llamas generado por IA generó el caos. El culpable no fue la IA: fue Twitter
fue publicada originalmente en
Xataka
por
Javier Pastor
.