Estamos llegando al punto en el que el ritmo de la desinformación casi es igual al de la información factual, y es casi imposible discernir qué es real. Esta guía busca enseñar a los periodistas cómo identificar contenido generado por IA mientras están bajo la presión de una entrega, y ofrece siete categorías de detección avanzada que todo reportero debe dominar.
Hablando como alguien que apoya a las redacciones en su lucha contra la desinformación, esto es lo que me preocupa: la verificación de datos tradicional tarda horas o días, mientras la desinformación generada por IA tarda minutos.
La desinformación en video comenzó décadas antes que la tecnología moderna de IA. Incluso a pesar de las limitaciones técnicas de los primeros equipos de grabación, se podían crear representaciones devastadoramente falsas. En 2003, la niñera Claudia Muro pasó 29 meses en prisión porque una cámara de seguridad con una baja velocidad de fotogramas hizo que los movimientos cariñosos parecieran violentos, y a nadie se le ocurrió verificar la grabación. En enero de 2025, la profesora británica Cheryl Bennet debió asumir la clandestinidad luego de que en un video ultrafalso apareciera haciendo comentarios racistas.
La imagen generada por IA, que mostraba al Papa Francisco I vistiendo una chaqueta acolchada Balenciaga. Imagen: Midjournery, Pablo Xavier
Esta imagen viral del Papa Francisco I con una chaqueta acolchada Balenciaga blanca engañó a millones de personas en redes sociales, antes de que se revelara que fue hecha por IA con un prompt de texto a imagen de Midjourney. Algunas pistas claves para detectarla fueron el crucifijo que colgaba sobre su pecho, que estaba inexplicablemente sostenido sobre el aire, y que allí donde debía estar la otra mitad de la cadena sólo estaba la chaqueta. El creador de la imagen, Pablo Xavier, le dijo a BuzzFeed News: “Sólo pensé que era divertido ver al Papa en una chaqueta graciosa”.
En ocasiones el contenido falso más efectivo ni siquiera necesita de IA. En mayo de 2019, un video de la vocera de la Cámara de Representantes de Estados Unidos, Nancy Pelosi, fue desacelerado a una velocidad de 75% y se alteró el timbre de su voz, para hacerla parecer intoxicada. En noviembre de 2018, la Casa Blanca compartió un video acelerado de una interacción del corresponsal de CNN, Jim Acosta, con un practicante de la Casa Blanca, haciendo que su brazo pareciera más agresivo de lo que en realidad fue.
Hace poco creé un escándalo político inexistente, que incluía presentadores de televisión, ciudadanos enfurecidos, grabaciones de protestas y hasta un alcalde ficticio, en tan sólo 28 minutos, durante mi hora de almuerzo. Fue una crisis política completamente fabricada que pudo haber engañado a editores atareados y presionados por cumplir con una entrega.
Hace poco, observaba a un verificador de datos veterano declarar confiado que una cierta imagen era real y no generada por IA, porque la mano tenía cinco dedos en lugar de seis. Hoy esa solución es prácticamente obsoleta.
Esta es la cruda realidad de detectar la IA: los métodos que nos hacen sentir seguros se están evaporando ante nuestros ojos. Antes, las manos mal representadas, como dedos extra o fusionados, eran una táctica común para identificar imágenes generadas por IA. Contenidos falsos virales, como el “arresto de Trump” de 2023, en parte lograban revelarse por estos obvios errores con las manos. Sin embargo, en 2025, los grandes modelos de IA como Midjourney y DALL-E han mejorado significativamente al representar manos de forma anatómicamente correcta. Por ello, las manos ya no son una manera confiable de detectar imágenes creadas por IA, y quienes desean reconocer el arte creado por IA deben recurrir a otras pistas más sutiles.
La revolución en la presentación de textos sucedió incluso más rápido. Si bien antes los letreros de protesta de la IA presentaban mensajes confusos, como “STTPO THE MADNESSS” y “FREEE PALESTIME”, algunos de los actuales modelos producen una tipografía perfecta. OpenAI entrenó específicamente a DALL-E 3 en la precisión textual, mientras Midjourney V6 añadió “texto preciso” como una característica a la venta. Lo que antes era un método confiable de detección ahora escasamente funciona.
Cada vez son más inusuales las orejas desalineadas, los ojos anormalmente simétricos y los dientes pintados que antes caracterizaban a los rostros de la IA. Las imágenes de retratos generadas en enero de 2023 todo el tiempo arrojaban errores detectables. Los mismos prompts hoy producen rostros realistas.
Esto implica un cambio fundamental para las redacciones. Un periodista entrenado en métodos de detección en 2023 podría decir que es real un contenido que obviamente es IA porque supera pruebas obsoletas. Esta certeza errada es más peligrosa que la duda honesta.


