17 marzo 2026

Los ‘deepfakes’ se profesionalizan con modelos de IA: hacen más de cien videollamadas al día para engañar a sus víctimas

Los 'deepfakes' se profesionalizan con modelos de IA: hacen más de cien videollamadas al día para engañar a sus víctimas
Compartir esto:

   MADRID, 17 Mar. –

   A medida que avanza la inteligencia artificial (IA), también lo hacen las amenazas y estafas que se valen de ella para incorporar técnicas más elaboradas, como los «modelos de IA» para las videollamadas con ‘deepfakes’, que llegan a hacer más de cien al día para engañar a sus víctimas.

    Una investigación de Wired revela la existencia de canales y grupos de Telegram que ofrecen puestos de trabajo como «modelos de IA», sin especificar para qué en muchas ocasiones, desde países como Camboya y otras regiones del sudeste asiático.

   El investigador de ciberdelincuencia de la ONG vietnamita ChongLuaDao Hieu Minh Ngo ha advertido sobre el reclutamiento de modelos por parte de organizaciones criminales dedicadas a ciberataques. «Proporcionan el ‘software’ para que puedan cambiar sus caras mediante IA y realizar estafas románticas«, ha explicado.

   En esta línea, la organización contra la trata de personas Humanity Research Consultancy ha alertado sobre personas procedentes de Europa del Este, América Latina, norte de África o Asia central, que se promocionan también en Telegram como «modelos de IA».

   Muchas de ellas cuentan con experiencia laboral en Camboya, Dubái o Birmania, incluso con residencia en estas regiones. Entre sus responsabilidades anteriores se encuentran algunas como «gestión del mercado estadounidense, incluyendo criptomonedas o el comercio de oro», por lo que ya han podido trabajar en mercados susceptibles a estafas y fraudes.

   Aunque Wired envió a Telegram una lista con 24 canales que ofertaban este tipo de empleos y reclutamiento, la compañía no los ha eliminado aún. Sin embargo, un portavoz de la plataforma afirmó al medio citado que el contenido que fomenta o facilita las estafas está explícitamente prohibido y se elimina en cuanto se detecta, pero que en casos como este, «existen razones legítimas por las que alguien podría ceder su imagen, por lo que dicho contenido debe examinarse caso por caso».

   Muchos de estos canales no especifican explícitamente cuál es el objetivo de las modelos de IA, pero hay señales que levantan sospechas. Ngo ha indicado que primero hay que preguntarse por qué necesitan la IA, y después hay que fijarse en la procedencia de la oferta, así como en los requisitos, como el conocimiento de chino.

   CÓMO TRABAJAN LOS «MODELOS DE IA»

   Los ciberdelincuentes recurren a los «modelos de IA» (en la mayoría de casos mujeres jóvenes), para llevar a cabo estafas amorosas. Este tipo de fraudes consisten en contactar con usuarios a través de plataformas como Facebook o Instagram para establecer una relación con la víctima con el fin de obtener dinero.

   Sin embargo, para llevar a cabo este tipo de estafas, los atacantes tienen que estar preparados para eludir cualquier tipo de sospecha de las víctimas. Por ejemplo, una víctima dice que quiere realizar una videollamada para asegurarse de que la persona con la que está entablando una relación es real.

   Como la persona que hay detrás de la pantalla no existe, recurren a ‘deepfakes’, la manipulación realista de imágenes, vídeos y audios con inteligencia artificial. De esta forma, la víctima está teniendo una videollamada «de verdad», pero en realidad se trata del atacante, o en este caso, de la modelo.

   No obstante, las condiciones laborales en las que trabajan estas «modelos de IA» pueden llegar a ser abusivas, con jornadas que llegan a las doce horas diarias, y entre cien y 150 videollamadas al día. Entre los anuncios analizados también hay algunos que advierten de que el pasaporte se retendrá para la «gestión de visados y permisos de trabajo», lo que puede derivar en el robo de pasaportes para retener a los trabajadores.

   En algunos casos, los modelos esperan un salario de 7.000 dólares mensuales (unos 6.071 euros), pero también hay peticiones específicas como una habitación propia, poder ir a su casa en su día libre o incluso tener una lavadora personal.

   En este contexto, la cofundadora de la ONG EOS, Ling Li, afirma que las «modelos de IA» pueden gozar de mayor libertad que las víctimas de trata, pero aún así ser maltratadas por sus jefes e incluso sufrir acoso sexual. «Una víctima europea nos contó que vio a algunas modelos italianas en su edificio, pero no puede saber si estaban allí voluntariamente o no porque las golpearon delante de él», ha detallado.

CL24