Thalía, la reconocida cantante mexicana y estrella internacional, ha sido utilizada sin autorización en un video falso generado con inteligencia artificial que circula en redes sociales. En la grabación, se le ve supuestamente promocionando una plataforma de inversión que promete “ganancias rápidas”, una técnica comúnmente usada por estafadores digitales.
Aunque Thalía no ha emitido declaraciones oficiales al respecto, fueron sus propios fans quienes encendieron las alertas. A través de X, Instagram y Facebook, seguidores de la artista comenzaron a compartir advertencias sobre el contenido manipulado, destacando que el lenguaje y comportamiento del video no coinciden con el estilo de la intérprete de “Amor a la mexicana”.

Usuarios detectan video manipulado con IA con la imagen de Thalía
“Esto no es real, esa no es Thalía. Es un montaje muy bien hecho con inteligencia artificial”, escribió una usuaria preocupada. Otros comentarios señalaron que el objetivo del video es engañar a personas para que inviertan dinero en sitios fraudulentos haciéndose pasar por figuras públicas confiables.
Este tipo de prácticas han ido en aumento gracias a los avances en herramientas de IA que permiten falsificar imágenes y voces con un realismo inquietante. El caso de Thalía ha puesto nuevamente sobre la mesa el debate sobre los riesgos del uso no autorizado de la imagen de los famosos y la urgencia de mayor regulación digital.
Mientras tanto, los fans de la artista continúan difundiendo mensajes para evitar que más personas caigan en la estafa, dejando claro que Thalía no tiene relación alguna con el contenido viral.
Este tipo de fraudes no es nuevo: otros artistas como Pepe Aguilar también han sido víctimas de deepfakes utilizados para estafas. Es fundamental mantenerse alerta, verificar siempre las fuentes y entender que no todo lo que se ve en redes es real. La inteligencia artificial puede ser poderosa, pero también peligrosa en manos equivocadas.
Nota de ínteres: Majo Aguilar de luto: Así se despidió de su sobrino