No diré nombres, que a mi me enseñaron a «decir el pecado, pero no el pecador», pero, recientemente, ha habido más de un medio que ha abierto sus ediciones en papel y en digital con fotografías realistas elaboradas con Inteligencia Artificial. Sí diré que se trata de, al menos, dos prominentes medios de Madrid. Les reconoceré que, al menos, indicaron en el pie de foto que se trataba de imágenes falsas. Pero lo cierto es que no es suficiente.
El uso de la IA para la información gráfica de temas de actualidad –lo que he decidido llamar fotoperIAdismo– es extremadamente peligroso. Por mucho que se indique en el algún lugar que de trata de una imagen falsa generada por ordenador, su impacto visual, unido a la información escrita y al hecho que se publica en un medio «serio», genera en la cabeza del lector un halo de veracidad. Por ejemplo, aunque no haya imágenes de Sánchez, Ábalos y Cerdán en el Peugeot, si un periódico publica una foto hecha con IA de esa escena, y la coloca acompañando una noticia real, muchos creerán que la imagen es cierta. Incluso si leen en el pie de foto que es un montaje.
Un problema todavía mayor es que la imagen hecha con IA se una a una información equivocada o falsa. Ya es posible inventarse cualquier noticia, por alocada que sea, y acompañarla de una imagen que le de veracidad. ¿Tiene Angela Merkel pasado nazi? Hay imágenes que lo demuestran. ¿Ha engañado Feijoo a su esposa? Hay una foto que dice que sí. ¿Iba León XIV a 180 km/h con el Papamóvil? Mire esta imagen. Falsa, claro.
Queda lejos esa época en la que las grandes agencias de noticias despedían a reporteros gráficos que editaban más de la cuenta con Photoshop. O de medios que pedían perdón por publicar una fotografía errónea. Ahora todo vale. Incluso publicar fotos falsas a sabiendas.