“¿Es IA o es real?”. La pregunta no es para nada nueva, pero la llamada me tomó por sorpresa. Me invitaron al programa de Javier Ceriani (famoso periodista que conduce su propio show desde EEUU) para analizar un video y responder a esa interrogante que se repite cada vez más.

El video que me pidieron analizar mostraba una situación delicada vinculada a los cantantes y figuras de la farándula mexicana Imelda Tuñón y Julián Figueroa (fallecido en 2023), por lo que el cuidado al hablar y la claridad eran tan importantes como el análisis técnico.

Como estaba frente a un público amplio, que no es experto ni mucho menos en tecnología ni en IA, decidí centrarme en lo básico, en las señales más evidentes y comprensibles que cualquiera puede aprender a observar. Y la recepción fue muy buena, tanto en los comentarios del público como por parte de Javier Ceriani, a quien agradezco el espacio para abordar el tema de los videos hechos con Inteligencia Artificial.

Se critica mucho a los programas de farándula por su contenido, y muchas veces me parece que esas críticas son justificadas. Pero también se pueden abordar temas serios y trascendentes a partir de la farándula, y este fue uno de esos casos. Javier no solo se tomó la molestia de contactarme para hablar del tema, sino que, efectivamente, me dio el tiempo para hablar.

Video de Imelda Tuñón y Julián Figueroa: ¿Es IA o es real?

Mi primera intervención en el programa fue para establecer que el video no estaba hecho con IA, en mi opinión. Quizás se podría llegar a hacer un video así con IA actualmente, pero me pareció muy complejo.

Luego enumeré los factores más sencillos para identificar un video hecho con Inteligencia Artificial, remarcando que todos pueden ser de “sentido común”, pero que no siempre uno está atento a buscar esos detalles.

Partí por lo más simple: los sellos de agua. Muchos videos generados con IA todavía los incluyen. No suelen estar en mitad del video, sino en alguna orilla, y con un reencuadre se pueden dejar fuera. Pero no dejé de mencionarlos porque he visto muchas veces a personas dando por cierto videos que en un rincón tienen el logo de Sora.

Luego hablé de las deformidades, esos errores típicos donde manos, rostros u objetos no terminan de encajar con la anatomía humana o con la lógica visual. Eso sí, esto ya es prácticamente “historia antigua”, porque desde hacer alrededor de un año que veo generadores de imágenes y videos que no caen en estos errores.

También mencioné las incoherencias, como un semáforo en medio de una calle donde no debería existir, o elementos urbanos que no tienen sentido entre sí. Y para el último dejé lo más esencial de todo: lo que se sale del sentido común. Cosas como un gato verde o una persona levitando, que muchas veces se ven reales, pero sabemos que no existen.

En el caso del video de Imelda Tuñón no se distinguía ninguno de estos factores.

Hilando más fino (hasta la fecha)

Hasta ahí, lo esencial. Pero el tema no se agota en esos indicios evidentes. Existen análisis más finos, más técnicos, que ayudan a entender por qué hoy la IA engaña tanto, y por qué todavía comete errores.

Uno de ellos tiene que ver con el ruido de la imagen. Los videos reales, grabados con cámaras, siempre tienen cierto grano, sobre todo en zonas oscuras. No es uniforme: aparece más en las sombras, menos en las luces, y se mantiene coherente a lo largo del tiempo. En cambio, muchos videos hechos con IA se ven demasiado limpios, casi como de plástico, o con un ruido artificial que parece una capa pegada encima y que cambia de un cuadro a otro de forma poco natural.

Otro punto clave son los defectos ópticos reales. Las lentes físicas no son perfectas. A veces generan pequeños bordes de color en zonas de alto contraste o pierden nitidez en las esquinas. En videos generados por IA, en cambio, todo puede verse excesivamente nítido de borde a borde, o aparecen errores extraños, como un objeto desenfocado cuyo reflejo aparece perfectamente enfocado, algo que simplemente no ocurre en el mundo físico.

También está la forma en que la luz interactúa con el cuerpo humano. En un video real, cuando una luz intensa atraviesa una oreja o los dedos, la piel se vuelve ligeramente rojiza y translúcida. Es un efecto físico, natural. En muchos videos de IA, la piel se ve opaca, como de cera, o brilla de manera artificial, sin esa profundidad que tenemos los seres humanos.

Un detalle fascinante son los micro-movimientos biológicos. Nadie está completamente quieto. Respiramos, parpadeamos, los ojos hacen pequeños ajustes, el cuello se mueve levemente con el pulso. En videos generados por IA, todavía es común ver rostros donde solo se mueve la boca mientras el resto de la cara parece congelada, o fondos que se mueven de forma independiente al sujeto principal.

Finalmente, está lo que hoy sigue siendo uno de los grandes puntos débiles de la IA: la coherencia en el tiempo. En un video real, una camisa a cuadros sigue siendo la misma camisa aunque la persona se mueva o se dé vuelta. Un objeto que pasa detrás de otro reaparece igual. En videos hechos con IA, los patrones suelen deformarse, cambiar sutilmente, o los objetos reaparecen con detalles distintos: un reloj cambia de muñeca, un diseño se transforma sin razón.

Por supuesto, todos estos factores son válidos hasta la fecha. Tal como avanza la IA generativa, mañana se podrían estar superando algunos. O incluso hoy mismo, en un rato más.

Recommended Posts
0
eficiencia-mediante-codigo-asistido