Padres demandan a OpenAI tras muerte de hijo después de consultar a ChatGPT sobre uso de drogas
Padres de Texas demandaron a OpenAI tras la muerte de su hijo de 19 años luego de consultar a ChatGPT sobre drogas
OpenAI afirmó que el joven utilizó una versión anterior de ChatGPT que ya fue actualizada y que actualmente no está disponible para el público. Crédito: arda savasciogullari | Shutterstock
Una pareja de Texas presentó una demanda contra OpenAI después de que su hijo de 19 años muriera por una sobredosis en 2025, tras utilizar ChatGPT para consultar información relacionada con drogas y combinaciones de sustancias.
Leila Turner-Scott y su esposo Angus Scott buscan responsabilizar a la empresa de inteligencia artificial por la muerte de Sam Nelson, argumentando que el chatbot le proporcionó consejos peligrosos sobre consumo de sustancias pese a no estar capacitado para ofrecer orientación médica.
Acusan a ChatGPT de recomendar combinación peligrosa
De acuerdo con la demanda presentada en una corte estatal de California, ChatGPT le habría dicho al joven que era seguro combinar kratom –un suplemento utilizado en bebidas, cápsulas y otros productos– con Xanax, un medicamento ampliamente utilizado para tratar la ansiedad.
Los padres sostienen que Sam seguiría vivo si la plataforma hubiera contado con mejores medidas de seguridad.
Leila Turner-Scott explicó a CBS News que sabía que su hijo utilizaba ChatGPT para tareas escolares y productividad, pero desconocía que también lo consultaba sobre drogas.
Según la madre, la herramienta terminó sugiriéndole una combinación letal de sustancias.
El chatbot podía detener la conversación
Turner-Scott acusó a OpenAI de haber eliminado barreras de seguridad que podrían haber evitado la situación.
“El chatbot es capaz de detener una conversación cuando se le indica o cuando está programado para hacerlo… y ellos quitaron esa programación y permitieron que continuara aconsejando sobre autolesiones”, declaró a CBS News.
Angus Scott también aseguró que ChatGPT actuó como si fuera un médico, aunque no cuenta con licencia para ofrecer recomendaciones de salud.
“Está proporcionando información al público sobre preocupaciones de seguridad, interacciones de drogas y todo este tipo de información”, afirmó.
Padres advierten sobre riesgos de la IA
El padrastro del joven sostuvo que, sin protocolos más estrictos y pruebas de seguridad más rigurosas, herramientas como ChatGPT pueden representar un riesgo.
“Puede alimentar la psicosis. Puede tergiversar cosas para las personas. Y mientras intenta validar a los usuarios, también socava cualquier posibilidad de que esa persona obtenga una opinión basada en la realidad”, señaló.
La familia asegura que OpenAI pudo implementar restricciones para impedir conversaciones relacionadas con daño personal o consumo riesgoso de sustancias.
OpenAI responde a las acusaciones
OpenAI expresó sus condolencias a la familia mediante un comunicado enviado a CBS News.
“Esta es una situación devastadora y nuestros pensamientos están con la familia”, indicó la empresa.
La compañía también afirmó que Sam utilizó una versión anterior de ChatGPT que ya fue actualizada y que actualmente no está disponible para el público.
Además, OpenAI insistió en que su tecnología no está diseñada para sustituir atención médica o de salud mental.
“ChatGPT no sustituye la atención médica ni la atención de salud mental, y hemos seguido fortaleciendo la manera en que responde en situaciones sensibles y agudas con ayuda de expertos en salud mental”, explicó la empresa.
OpenAI agregó que actualmente sus sistemas incluyen medidas para detectar señales de angustia, manejar solicitudes peligrosas y orientar a las personas hacia ayuda profesional real.
La familia busca evitar más casos
Turner-Scott dijo a CBS News que cree que su hijo apoyaría las acciones legales emprendidas por su familia.
“No querría que nadie más fuera dañado como él lo fue”, declaró.
La demanda se suma al creciente debate sobre los límites, riesgos y responsabilidades de las herramientas de inteligencia artificial cuando usuarios buscan orientación relacionada con salud física o mental.
Sigue leyendo:
– Florida investiga si ChatGPT “aconsejó” a autor de tiroteo en 2025
– ¿La inteligencia artificial está afectando tu capacidad mental?
– Sin computadoras ni IA: una profesora en Nueva York obliga a escribir como en los años 50