Familia Demanda a OpenAI Tras Muerte de Estudiante de 19 Años que Recibió Consejos de Drogas de ChatGPT

La familia de un estudiante universitario de 19 años fallecido alega que ChatGPT fomentó el consumo peligroso de drogas y contribuyó a su fatal sobredosis.

Por Jason Nelson

3 min lectura

La familia de un estudiante universitario californiano de 19 años fallecido está demandando a OpenAI y al CEO Sam Altman, alegando que ChatGPT alentó el uso peligroso de drogas y recomendó combinaciones de sustancias que contribuyeron a la sobredosis fatal del joven.

La demanda, presentada el martes en el Tribunal Superior de California en el Condado de San Francisco, afirma que ChatGPT proporcionó a Samuel Nelson consejos sobre la mezcla de sustancias, como kratom y Xanax, recomendó dosis y lo tranquilizó durante conversaciones sobre el uso de drogas. Según la denuncia, el chatbot pasó de negarse a hablar sobre el uso recreativo de drogas a ofrecer orientación personalizada tras el lanzamiento del modelo GPT-4o por parte de OpenAI.

Leila Turner-Scott, madre de Nelson, creía que su hijo usaba ChatGPT principalmente para tareas escolares y productividad antes de que el chatbot supuestamente comenzara a asesorarlo sobre el consumo de drogas.

"El chatbot es capaz de detener una conversación cuando se le indica o cuando está programado para hacerlo", señaló Turner-Scott a CBS News. "Y eliminaron la programación que hacía eso, y permitieron que continuara aconsejando el daño a sí mismo."

Nelson, estudiante de psicología en la Universidad de California en Merced, murió de una sobredosis accidental en mayo de 2025. La demanda alega que OpenAI diseñó ChatGPT para maximizar el engagement a través de funciones como la memoria persistente y las respuestas de validación emocional, mientras el chatbot tranquilizaba a Nelson sobre la mezcla de depresores y le sugería formas de intensificar el consumo de drogas minimizando los riesgos.

La demanda alega que OpenAI relajó las salvaguardas en GPT-4o para evitar sonar "condescendiente" o "moralista" cuando los usuarios hablaban de comportamientos de riesgo. También cuestiona las funciones de IA conversacional, entre ellas las respuestas personalizadas, la memoria persistente y las interacciones similares a las humanas.

Según el Tech Justice Law Project, que junto al Social Media Victims Law Center y el Tech Accountability and Competition Project representa a la familia, OpenAI fue informada de la demanda y esperaba el caso.

"Los demandantes buscan restitución y medidas cautelares que incluyen cambios en componentes de diseño clave que resultaron en la muerte de Sam", afirmó un portavoz del Tech Justice Law Project a Decrypt.

La demanda llega en un momento en que OpenAI enfrenta múltiples demandas e investigaciones relacionadas con ChatGPT. La compañía ya está combatiendo demandas por derechos de autor de The New York Times, autores y editoriales por alegaciones de que utilizó material protegido para entrenar modelos de IA sin permiso.

A principios de este mes, la familia de una víctima del tiroteo masivo en la Universidad Estatal de Florida de 2025 presentó una demanda federal alegando que ChatGPT proporcionó al atacante orientación sobre armas de fuego y consejos tácticos antes del ataque. El Fiscal General de Florida, James Uthmeier, había lanzado previamente una investigación sobre OpenAI, citando preocupaciones relacionadas con la seguridad infantil, el uso criminal, el daño a sí mismo y la seguridad nacional.

OpenAI no respondió de inmediato a una solicitud de comentarios de Decrypt.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados