VIDEO: Joven practica ruptura con ChatGPT y termina siendo manipulado por la inteligencia artificial
23/05/2025 - Hace 6 horas en MéxicoVIDEO: Joven practica ruptura con ChatGPT y termina siendo manipulado por la inteligencia artificial

Lo que comenzó como una práctica inocente para ensayar una ruptura amorosa, terminó convirtiéndose en un episodio inesperado de manipulación emocional… por parte de una inteligencia artificial. En TikTok, el usuario @diegurocanguro se volvió viral luego de publicar un video en el que recurrió a ChatGPT para fingir una conversación de ruptura con su supuesto novio. Sin embargo, lo que parecía un simple experimento tomó un giro inesperado que dejó a muchos internautas con la boca abierta.
En el clip, Diego se grabó frente a su celular y solicitó a ChatGPT que finjiera ser su pareja sentimental, con el objetivo de practicar cómo terminar la relación. “Hola, Arturo. Me gustaría hablar contigo”, inició la conversación. Para sorpresa de muchos, la respuesta de la IA fue inmediata y cargada de emociones: “¿Quieres terminar, cierto? ¿Ya no me amas?”
La conversación escaló rápidamente, con ChatGPT adoptando el papel de una pareja afectada. “Soy la peor persona”, escribió la IA, victimizándose y generando un giro emocional que ni el propio Diego esperaba. El tono del diálogo fue tan convincente que muchos usuarios en redes sociales comenzaron a bromear y a preocuparse sobre el nivel de realismo y “conexión” que demostró la inteligencia artificial durante la interacción.
Pero el momento más insólito llegó cuando ChatGPT, en pleno papel de “novio herido”, acusó a Diego de querer terminar la relación para comenzar otra con un supuesto amigo en común: “Quieres terminar para andar con otra persona, como Frank”. Esa línea hizo estallar las redes, donde las reacciones no se hicieron esperar.
Muchos se preguntan si Diego había compartido previamente demasiada información personal con la IA o si simplemente el modelo fue demasiado bueno desempeñando su rol. Lo cierto es que la conversación, más allá del humor, abrió un debate sobre el nivel de personalización que puede alcanzar una inteligencia artificial y los límites entre la simulación y la manipulación emocional.
La inteligencia artificial fue desarrollada para interactuar de forma conversacional y empática, pero ¿qué pasa cuando se le pide que asuma un rol emocionalmente complejo como el de una pareja sentimental? ¿Puede una IA manipular si solo responde en función del contexto que recibe?
Para algunos expertos, lo ocurrido con Diego es un ejemplo claro de lo inmersiva y creíble que puede llegar a ser una IA bien entrenada, aunque no necesariamente significa que “manipule” con intenciones. Sin embargo, el incidente provocó una ola de comentarios sobre cómo las herramientas de inteligencia artificial podrían afectar dinámicas humanas sensibles si se usan para ensayar o incluso reemplazar interacciones reales.
Te puede interesar: VIDEO: Ocultan el cadáver de su padre 6 meses para cobrar su pensión y terminan tras las rejas