Imagen creada con IA sobre explosión en el Pentágono provoca caída en el mercado bursátil

La cuenta «Bloomberg Feed» y la difusión de la noticia falsa

Una imagen falsa que simulaba una explosión en el Pentágono, creada con la ayuda de la Inteligencia Artificial (IA), ha demostrado nuevamente el poder y la influencia de la tecnología en la era digital. Este engaño fue difundido por una cuenta de Twitter y provocó una caída breve pero significativa en el mercado bursátil. El pasado 22 de mayo, la cuenta verificada de Twitter llamada «Bloomberg Feed» compartió la imagen de la supuesta «gran explosión» cerca del Pentágono. 

Esta cuenta, que pretendía estar vinculada a Bloomberg, ha sido suspendida tras la difusión de la noticia falsa. La desinformación no tardó en extenderse y fue retuiteada por varios medios de comunicación, entre ellos Russia Today y Republic, con una audiencia conjunta de más de 5,8 millones de seguidores en Twitter. Tras conocerse la falsedad de la noticia, ambos medios procedieron a eliminar sus respectivos tuits.

Imagen falsa del Pentágono creada con IA

Confirmación de la falsedad y consecuencias en el mercado

Las autoridades locales, incluyendo la Agencia de Protección de la Fuerza del Pentágono, responsables de la seguridad del edificio, confirmaron que no había habido «ninguna explosión o incidente». A pesar de esta confirmación, el impacto en el mercado financiero fue inmediato. El S&P 500 registró una caída breve de un 0.26% que se recuperó rápidamente una vez se reveló la falsedad de la noticia.

Varios usuarios de Twitter identificaron inconsistencias en la imagen que indicaban que se había hecho uso de Ia para su creación. De esta forma, observaron por ejemplo, que la fachada del edificio no era uniforme y que dos vallas distintas parecían fusionarse en la imagen. Dos signos claros de la falsedad de la imagen.

El uso de la Inteligencia Artificial en la creación de noticias falsas

Este incidente no es el único caso en que se ha utilizado la IA para difundir noticias falsas y contenidos engañosos. En mayo, el periódico irlandés The Irish Times tuvo que disculparse después de publicar un artículo generado por IA que resultó ser falso. En abril, el regulador financiero de California tomó medidas contra presuntos servicios de comercio de criptomonedas, denunciando que algunas empresas utilizaban avatares generados por IA para actuar como sus CEOs en videos promocionales.

 Un caso notable fue el de un video falso del cofundador de FTX, Sam Bankman-Fried, que circuló después del colapso de la plataforma de intercambio. Este tipo de incidentes plantea serias preocupaciones sobre el papel de la IA en la creación y difusión de noticias falsas, así como en su capacidad para influir en la economía mundial y en la confianza del público en los medios de comunicación.

Ley Celaá