Desde hace un tiempo empezaron a proliferar en redes sociales videos falsos sobre adopción de perros hechos con IA. Estos videos apuntan a la sensibilidad por los animales para generar interacciones y ganancias, usando herramientas de Inteligencia Artificial para fabricar escenas que nunca ocurrieron.
Muchas personas creen que pueden detectar fácilmente estos montajes, pero terminan siendo víctimas de producciones que apelan directamente a la compasión por los perros abandonados. De eso se aprovechan cuentas que acumulan cientos de miles de seguidores y millones de “me gusta”, mostrando supuestas jornadas de adopción de perros rescatados.
En estos videos se ve a perros caminando por pasillos llenos de gente que, en teoría, quiere adoptarlos, y se vende la idea de que los animales “eligen” a su nueva familia entre aplausos y abrazos.
Cómo detectar videos falsos de perros rescatados
Si se observan con detalle, estos contenidos muestran señales claras de generación sintética: rostros deformes o cambiantes en el fondo, manos y cuerpos con movimientos poco naturales y errores en elementos del entorno como sillas o carteles. A simple vista, especialmente en la pantalla pequeña del teléfono, estas fallas pasan desapercibidas, pero se vuelven evidentes al detenerse en cada fotograma.
También son frecuentes los textos mal escritos o deformados en la ropa o en letreros, algo típico de la generación de imágenes y video con IA. Frases que intentan mostrar el nombre de la cuenta o algún mensaje emotivo aparecen con letras alteradas o palabras inventadas, una pista clave para sospechar de su autenticidad.
Otra señal de alerta son los cambios bruscos entre escenas: fondos que se transforman repentinamente, personas que aparecen o desaparecen sin lógica y objetos que modifican su forma o posición de un plano a otro. Los aplausos, abrazos y reacciones del público suelen verse rígidos, repetitivos o forzados, como si el movimiento no terminara de encajar con la situación mostrada.
En los comentarios de estas publicaciones comienzan a aparecer usuarios que se dan cuenta del engaño y señalan precisamente estos detalles: ropa extraña, aplausos irreales, caras “raras” o fondos que parecen de videojuego. Sin embargo, la mayoría consume este contenido de manera rápida, confía en la narrativa emocional y no se detiene a analizar si lo que ve es real o está fabricado.
Cada “me gusta”, comentario o compartido contribuye a que estas cuentas sigan creciendo, consigan más alcance y terminen monetizando un contenido que se apoya en la manipulación emocional. El riesgo aumenta cuando estos perfiles empiezan a pedir donaciones, ayudas o algún tipo de apoyo económico, aprovechando la buena voluntad de quienes creen estar colaborando con una causa justa.
Frente a esta situación, es fundamental aprender a identificar imágenes y videos generados con Inteligencia Artificial y utilizar las herramientas de denuncia disponibles en las plataformas. Categorías como “información falsa”, “deep fakes” o “imágenes sintéticas manipuladas” permiten reportar estos contenidos para frenar su difusión y evitar que sigan lucrando con la ingenuidad de las persona.
Si te interesa ver un análisis detallado de un caso concreto, te invito a ver el siguiente video que publiqué hace unos días en mi canal de YouTube.


