En Resumen
- Un video generado con Kling AI mostró intercambios de cuerpo completo con actores de Stranger Things y alcanzó más de 14 millones de vistas en X.
- Expertos advirtieron que estas herramientas reducen barreras técnicas para crear deepfakes y facilitan estafas de suplantación de identidad.
- Investigadores señalaron que cualquiera puede generar videos de políticos o CEOs con una sola imagen por unos pocos dólares.
Un video viral supuestamente realizado con el Control de Movimiento 2.6 de Kling AI causó revuelo en las redes sociales esta semana, cuando un clip del creador de contenido brasileño Eder Xavier lo mostró intercambiando sin fisuras su rostro y cuerpo con los de los actores de Stranger Things Millie Bobby Brown, David Harbour y Finn Wolfhard.
Los videos se han difundido ampliamente en las plataformas sociales y han sido vistos más de 14 millones de veces en X, con versiones adicionales publicadas desde entonces. Los clips también han atraído la atención de tecnólogos, incluyendo a la socia de a16z Justine Moore, quien compartió el video desde la cuenta de Instagram de Xavier.
"No estamos preparados para lo rápido que van a cambiar los procesos de producción con la IA", escribió Moore. "Algunos de los últimos modelos de video tienen implicaciones inmediatas para Hollywood. Infinitos intercambios de personajes a un costo insignificante".
A medida que las herramientas de generación de imágenes y videos continúan mejorando, con modelos más nuevos como Kling, Veo 3.1 de Google y Nano Banana, FaceFusion, y Sora 2 de OpenAI expandiendo el acceso a medios sintéticos de alta calidad, los investigadores advierten que las técnicas vistas en los clips virales probablemente se difundirán rápidamente más allá de demostraciones aisladas.
Una pendiente resbaladiza
Mientras los espectadores quedaron asombrados con la calidad de los videos de intercambio de cuerpos, los expertos advierten que sin duda se convertirá en una herramienta para estafas de suplantación de identidad.
"Las compuertas están abiertas. Nunca ha sido tan fácil robar la imagen digital de un individuo—su voz, su rostro—y ahora, darle vida con una sola imagen. Nadie está a salvo", señaló a Decrypt Emmanuelle Saliba, Directora de Investigación de la firma de ciberseguridad GetReal Security.
"Comenzaremos a ver abuso sistémico a todas las escalas, desde ingeniería social uno a uno hasta campañas de desinformación coordinadas y ataques directos a negocios e instituciones críticas", afirmó.
Según Saliba, los videos virales con actores de Stranger Things muestran lo frágiles que son actualmente las barreras contra el abuso.
"Por unos pocos dólares, cualquiera puede ahora generar videos de cuerpo completo de un político, celebridad, CEO o individuo privado usando una sola imagen", señaló. "No hay protección predeterminada de la imagen digital de una persona. No hay garantía de identidad".
Para Yu Chen, profesor de ingeniería eléctrica y computación en la Universidad de Binghamton, el intercambio de personajes de cuerpo completo va más allá de la manipulación solo del rostro utilizada en herramientas deepfake anteriores e introduce nuevos desafíos.
"El intercambio de personajes de cuerpo completo representa una escalada significativa en las capacidades de medios sintéticos", agregó Chen a Decrypt. "Estos sistemas deben manejar simultáneamente la estimación de pose, el seguimiento esquelético, la transferencia de ropa y textura, y la síntesis de movimiento natural en toda la forma humana".
Junto con Stranger Things, los creadores también publicaron videos de Leonard DiCaprio con cuerpo intercambiado de la película El Lobo de Wall Street.
We're not ready.
AI just redefined deep fakes & character swaps.
And it's extremely easy to do.
Wild examples. Bookmark this.
[🎞️JulianoMass on IG]pic.twitter.com/fYvrnZTGL3
— Min Choi (@minchoi) January 15, 2026
"Las tecnologías deepfake anteriores operaban principalmente dentro de un espacio de manipulación limitado, enfocándose en el reemplazo de la región facial mientras dejaban el resto del cuadro prácticamente intacto", explicó Chen. "Los métodos de detección podían explotar inconsistencias de límites entre el rostro sintético y el cuerpo original, así como artefactos temporales cuando los movimientos de la cabeza no se alineaban naturalmente con el movimiento del cuerpo".
Chen agregó que: "Si bien el fraude financiero y las estafas de suplantación de identidad siguen siendo preocupaciones, varios otros vectores de mal uso merecen atención. Las imágenes íntimas no consensuadas representan el vector de daño más inmediato, ya que estas herramientas reducen la barrera técnica para crear contenido explícito sintético con personas reales".
Otras amenazas que tanto Saliba como Chen destacaron incluyen la desinformación política y el espionaje corporativo, con estafadores suplantando empleados o CEOs, publicando clips "filtrados" fabricados, eludiendo controles y recolectando credenciales a través de ataques en los que "una persona creíble en video reduce la sospecha el tiempo suficiente para obtener acceso dentro de un negocio crítico", señaló Saliba.
No está claro cómo responderán los estudios o los actores retratados en los videos, pero Chen afirmó que, debido a que los clips dependen de modelos de IA disponibles públicamente, los desarrolladores juegan un papel crucial en la implementación de salvaguardas.
Sin embargo, la responsabilidad, agregó, debería compartirse entre plataformas, legisladores y usuarios finales, ya que colocarla únicamente en los desarrolladores puede resultar inviable y obstaculizar usos beneficiosos.
A medida que estas herramientas se difunden, Chen afirmó que los investigadores deberían priorizar modelos de detección que identifiquen firmas estadísticas intrínsecas del contenido sintético en lugar de depender de metadatos que se eliminan fácilmente.
"Las plataformas deberían invertir tanto en procesos de detección automatizados como en capacidad de revisión humana, mientras desarrollan procedimientos claros de escalamiento para contenido de alto riesgo que involucre figuras públicas o posible fraude", señaló, agregando que los legisladores deberían enfocarse en establecer marcos de responsabilidad claros y mandatar requisitos de divulgación.
"La rápida democratización de estas capacidades significa que los marcos de respuesta desarrollados hoy serán puestos a prueba a escala en meses, no años", concluyó Chen.

