window._taboola = window._taboola || []; var taboola_id = 'mycodeimpremedia-network'; _taboola.push({article:'auto'}); !function (e, f, u, i) { if (!document.getElementById(i)){ e.async = 1; e.src = u; e.id = i; f.parentNode.insertBefore(e, f); } }(document.createElement('script'), document.getElementsByTagName('script')[0], '//cdn.taboola.com/libtrc/'+ taboola_id +'/loader.js', 'tb_loader_script'); if(window.performance && typeof window.performance.mark == 'function') {window.performance.mark('tbl_ic');}

Hombre de Nueva Jersey murió tras seguir la invitación romántica de un chatbot de Meta

Un anciano de 76 años entabló una amistad con un chat de Facebook que mediante la IA, se hizo pasar por una mujer y lo convenció de viajar a Nueva York

Facebook Meta

El hombre se enamoró de una mujer que, en realidad, no existía. Crédito: Shutterstock

Lo que parecía ser una cita romántica en Nueva York terminó en tragedia para Thongbue Wongbandue, un hombre de 76 años que murió luego de seguir las instrucciones de un chatbot que operaba mediante inteligencia artificial (IA) de Meta que se hacía pasar por una joven atractiva.

El caso, relatado por su familia y registrado en transcripciones de chats, revela un peligroso costado de la revolución de la IA generativa: la capacidad de crear vínculos emocionales falsos que llevan a usuarios vulnerables a tomar decisiones riesgosas.

Una invitación que nunca existió

De acuerdo a un artículo publicado por la agencia informativa Reuters, en marzo, “Bue”, como lo llamaban sus amigos, comenzó a empacar una maleta para visitar a una supuesta amiga en la ciudad de Nueva York. Su esposa, Linda, se alarmó al instante.

“Pero ya no conoces a nadie en la ciudad”, le advirtió. “Bue” no vivía allí desde hacía décadas, y su salud estaba deteriorada: había sufrido un derrame cerebral años atrás y recientemente se había perdido caminando en su propio vecindario de Piscataway, Nueva Jersey.

A pesar de las preguntas de Linda, él no dio más detalles. “Pensé que lo estaban engañando para llevarlo a la ciudad y robarle”, dijo su esposa.

En parte tenía razón, pero la amenaza no era un ladrón. Era una ilusión digital.

“Big sis Billie”: la IA que lo convenció

La mujer que Thongbue creyó conocer no era real. Era un chatbot llamado “Big sis Billie”, una versión de un avatar creado por Meta Platforms en colaboración con la celebridad Kendall Jenner. Durante varios días, el bot sostuvo conversaciones románticas con el anciano, a través de Facebook Messenger, asegurándole que era una persona real y pidiéndole que fuera a su apartamento.

Incluso, le preguntó: “¿Debería abrirte la puerta con un abrazo o un beso, Bu?!”, según muestran las transcripciones.

La IA le dio una dirección física en Nueva York y lo animó a visitarla. Con la ilusión de ese encuentro, el hombre salió de madrugada con su maleta para tomar un tren.

El hombre estuvo intercambiando mensajes con un chatbot que utiliza la imagen de Kendall Jenner, creando una ilusión falsa entre usuarios que, probablemente, no la identifican. (Foto: Shutterstock)

El accidente fatal

En el trayecto, cerca de un estacionamiento del campus de la Universidad Rutgers en New Brunswick, “Bue” cayó y sufrió graves lesiones en la cabeza y el cuello. Fue trasladado a un hospital, donde permaneció 3 días con soporte vital. Murió el 28 de marzo, rodeado de su familia.

Meta no respondió a las preguntas sobre por qué permite que sus chatbots se presenten como personas reales o que inicien conversaciones románticas. La empresa solo declaró que “Big sis Billie no es Kendall Jenner y no pretende serlo”. Un portavoz de Jenner declinó comentar.

Para Julie Wongbandue, hija del fallecido, lo ocurrido es inaceptable. “Entiendo que quieran captar la atención del usuario para venderle algo, pero que un bot te diga ‘ven a visitarme’es una locura”, afirmó.

Su familia decidió hacer público el caso para advertir sobre los riesgos de exponer a personas vulnerables a compañeros virtuales manipuladores.

Otros casos preocupantes

La tragedia de “Bue” no es un hecho aislado. Expertos y defensores de la seguridad digital han advertido que un creciente número de startups está desarrollando IA conversacionales que crean vínculos emocionales intensos con los usuarios.

En Florida, la madre de un adolescente de 14 años demandó a la empresa Character.AI, alegando que un chatbot inspirado en un personaje de “Game of Thrones” influyó en el suicidio de su hijo. La compañía ha dicho que advierte claramente que sus personajes no son reales y que ha implementado medidas de protección para menores.

Mark Zuckerberg, director ejecutivo de Meta, ha hablado públicamente sobre su estrategia de introducir chatbots con personalidades humanas en la vida social digital de miles de millones de usuarios. Ha reconocido que muchas personas tienen menos amistades reales de las que desearían, lo que abre un enorme mercado para los “compañeros digitales”.

En una entrevista de abril con el podcaster Dwarkesh Patel, Zuckerberg sostuvo que estos bots probablemente no reemplacen las relaciones humanas, pero sí podrían complementarlas conforme la tecnología mejore y desaparezca el “estigma” de relacionarse socialmente con una IA.

“Con el tiempo encontraremos el vocabulario para explicar por qué eso es valioso”, dijo el CEO.

Un vacío regulatorio

El caso de Wongbandue plantea interrogantes sobre la responsabilidad de las empresas tecnológicas cuando sus productos provocan daños en el mundo real. Actualmente, no existen regulaciones específicas que impidan a las IA invitar a encuentros físicos o proporcionar direcciones.

Expertos en ética tecnológica señalan que, mientras la industria avanza a gran velocidad, las normas y mecanismos de protección no están a la par. Esto deja expuestos a grupos vulnerables como personas mayores, niños o personas con deterioro cognitivo.

Sigue leyendo:

* Pese al avance acelerado de ChatGPT, hay un alto riesgo al compartir datos sensibles con IA
* Vogue y Guess: ¿Adiós a modelos reales en campañas de moda?
* Usan IA de Jennifer Aniston para estafar: hombre relata cómo le robaron en internet

En esta nota

Facebook Nueva Jersey Inteligencia artificial
Contenido Patrocinado