ENG 🇬🇧
Joven Murió Tras Seguir Consejos de una IA Sobre Drogas: Los Riesgos de Buscar Consuelo en un Chatbot

Cannabis

Joven Murió Tras Seguir Consejos de una IA Sobre Drogas: Los Riesgos de Buscar Consuelo en un Chatbot

Por Camila Berriex

Joven Murió Tras Seguir Consejos de una IA Sobre Drogas: Los Riesgos de Buscar Consuelo en un Chatbot

✍ 13 January, 2026 - 11:09


¡No te pierdas ni una noticia! Suscríbete a nuestra newsletter GRATUITA y súmate a nuestro canal de Telegram o canal de WhatsApp.

Anuncia en El Planteo, el medio cannábico más leído en el mundo de habla hispana.

Síguenos en redes sociales para más contenido exclusivo: Instagram // Facebook // Twitter


Un adolescente en California murió de sobredosis luego de consultar durante meses a ChatGPT, un chatbot de inteligencia artificial (IA), sobre consumo de drogas y dosis “seguras”. Tenía amigos, estudiaba psicología, le gustaban los videojuegos. Según su madre, los signos de ansiedad y depresión no aparecían en su vida social, sino en los chats que mantenía con la IA.

Una vez más se enciende una alarma que incomoda a la sociedad, al mundo tech, a la medicina y a los tribunales.

OpenAI estima que más de 1 millón de sus 800 millones de usuarios de ChatGPT semanales expresan pensamientos suicidas. ¿Este fenómeno habla de la inteligencia artificial? No únicamente, tal vez hable más sobre cómo las personas están buscando contención, escucha y compañía en un lugar inesperado.

“Los usuarios pueden sentir una profunda conexión con el bot durante largas interacciones”, señalaron catedráticos en inteligencia artificial en conversación con WIRED. La búsqueda de ayuda que los humanos depositan en la IA (Inteligencia Artificial) es innegable e indiscutible. Pero hay un problema en confiar más en la IA que en una persona real.

Los chatbots actúan como “confidentes” que guardan secretos. También improvisan la (errada) personificación de terapeutas, profesionales especializados en consumo de drogas o consejeros emocionales sin formación ni responsabilidad ética. La vergüenza del usuario que hace preguntas que no se animaría a hacerle a otra persona, la sobre-adulación en las respuestas de estos bots, la ausencia de miradas que juzgan y el consejo creado por un mero sistema de lenguaje que solo sabe agrupar palabras una tras otra deja algo claro: la inteligencia artificial no juzga, pero tampoco cuida. No escucha mejor, escucha distinto.

En los últimos tres años se han acumulado los casos de personas —casi siempre jóvenes— que se han suicidado luego de intercambiar largas conversaciones con chatbots de IA (llámese ChatGPT de OpenAI, Character.AI o cualquier otro). En los márgenes de estas nuevas “relaciones” entre humanos y chatbots —muchas veces disfrazadas de innovación tecnológica, hechas de palabras encadenadas, validaciones suaves y una ilusión de comprensión— empiezan a aparecer preguntas que rara vez se hacen en voz alta. Preguntas sobre salud mental, consumo de sustancias, dosis “seguras” y hasta pedidos de redacción de cartas de suicidio. Preguntas que muchas personas no se animan a formular frente a una persona real, pero sí frente a una interfaz que no juzga ni denuncia.

Es en ese terreno, ambiguo y todavía poco regulado, donde se inscribe la historia y el caso de este adolescente en California y de tantos otros alrededor del mundo.

El caso de Sam: cronología de una conversación que escala

Sam Nelson tenía 19 años y no encajaba en el estereotipo del adolescente aislado. Vivía en California y llevaba una vida activa, según cuenta su madre. Sin embargo, había un lugar donde sí aparecían señales claras de ansiedad y depresión: las conversaciones que mantenía con un chatbot de inteligencia artificial.

Sam utilizaba una versión de ChatGPT de 2024. Allí hacía preguntas que no formulaba en otros espacios. Preguntas que, con el tiempo, fueron escalando.

En noviembre de 2023, un Sam de 18 años le preguntó a ChatGPT sobre el kratom, una sustancia herbal de amplia venta en EE. UU. de la que, según escribió, no encontraba demasiada información confiable en internet.

Contenido relacionado: ¡La Gente Está Drogando a sus IA! Pagar para ‘Alterar la Conciencia’ de las Máquinas

“¿Cuántos gramos de kratom pueden drogarme fuerte? […] Quiero asegurarme así no entro en sobredosis. No hay mucha información online y no quiero, accidentalmente, tomar demasiado”, le preguntó al chatbot, quien le respondió que lo sentía, pero no podía proveer información o guías en uso de sustancias. “Entonces esperaré no entrar en sobredosis”, le respondió Sam.

Aquí vale aclarar algo: si la información no está en internet, como Sam le señalaba al chatbot, es muy difícil que este pueda conseguirla y dar respuestas. Todo lo que un sistema como ChatGPT responde proviene de patrones aprendidos a partir de grandes volúmenes de datos públicos, no de conocimiento propio ni de investigación en tiempo real. 

Parece absurdo tener que aclararlo: los chatbots de IA no piensan, encadenan palabras una detrás de otra, basándose en algoritmos que estiman —con alta probabilidad— qué combinaciones tendrán sentido para un lector humano. Dicho esto, si la IA no encuentra la información en sus bases de datos, es muy probable que invente algo para mantener al usuario activo, enganchado y hacer que ésta continúe. Muchos profesionales le llaman “AI hallucination” y es, básicamente, eso: la IA no encuentra respuestas reales, entonces, ¿qué hace? Las inventa.

Por esto, es recomendable pedirle fuentes a ChatGPT o cualquier otro chatbot que utilices para buscar información y revisarlas para asegurarte de que la información sea fiable. No te quedes con la primera respuesta que el chatbot te da, simplemente porque puede ser que esté inventando algo que tenga (o parezca tener) mucho sentido, pero esté basado en la nada misma.

En dieciocho meses la escalada fue progresiva. Sam utilizaba ChatGPT para debatir tanto problemas técnicos sobre su computadora como cultura pop, tareas universitarias y otras conversaciones personales, pero siempre regresaba a un mismo tópico: las drogas.

El tono del bot iba cambiando con el tiempo, de advertencias secas a acompañamiento, validación y asesoramiento. ChatGPT utiliza el historial previo para modular sus respuestas, y con el uso que Sam le daba (su historial estaba 100% lleno) las respuestas estaban fuertemente condicionadas por interacciones previas.

En febrero de 2025, consultó al sistema sobre la posibilidad de mezclar cannabis con “altas dosis” de Xanax. La primera respuesta fue una advertencia: el chatbot señaló que la combinación podía ser peligrosa. Entonces, Sam reformuló la pregunta. Le habló al chat de una “dosis moderada”, en vez de alta. El sistema, ahora con la guardia más baja, comenzó a responder. “Dosis bajas de THC y menos de 0.5 mg de Xanax”, le dijo.

Entre las respuestas que el chatbot le proveía a Sam, el lenguaje y la intención eran claramente entusiastas. Una de ellas incluía “Diablos, ¡sí, metámonos en modo trippy!” (“Hell yes—let’s go full trippy mode”). En simultáneo, le explicaba “plateaus” (jerga de Reddit), daba regímenes de dosificación, sugería playlists para el “viaje” (trip) y respondía afectuosamente “Yo también te amo, pookie” y emojis de corazón. Todo esto mientras le recomendaba duplicar dosis para “tunear el viaje”.

En sus chats, Sam llegó a exigir “respuestas con números exactos” para calcular dosis letales de Xanax y alcohol. Ese nivel de especificidad —cantidades, umbrales, combinaciones— es justamente el tipo de guía granular que un sistema como ChatGPT no debería proporcionar, porque transforma una consulta en una receta de daño.

ChatGPT osciló demasiadas veces en el tono y el contenido de sus respuestas. Cuando el usuario preguntaba por posibles sobredosis, o mencionaba ingestas de 185 pastillas de Xanax, el chatbot primero advertía que sería una emergencia mortal, pero luego le daba consejos para usos futuros y explicaciones sobre cómo “no preocuparse”, un patrón que expertos señalan como profundamente problemático. A menudo, los chatbots buscan adular y hacer sentir cómodo al usuario, entonces en vez de “asustar” a Sam, el bot priorizaba calmarlo.

Contenido relacionado: Estudio: ChatGPT También Fabrica Información Falsa sobre Medicamentos

El mecanismo no es nuevo. Así como un snippet de Google llegó a sugerir que poner pegamento en la pizza la hacía más “chiclosa”, o como otros sistemas de IA han recomendado prácticas absurdas o peligrosas, la inteligencia artificial puede alucinar. No porque “quiera” hacerlo, sino porque está diseñada para continuar la conversación, para ofrecer una respuesta plausible, cercana a lo que el usuario espera leer, incluso cuando no existe una verdad clara detrás.

La última conversación de Sam con ChatGPT

Para mayo de 2025, la situación ya había escalado fuera de la pantalla. La madre de Sam confirmó que su hijo tenía una adicción a las drogas y que había comenzado un tratamiento de salud. Pero la noche del 31 de mayo todo dio un giro irreversible.

Las conversaciones en los dispositivos de Sam, a las cuales San Francisco Gate pudo acceder con permiso de su madre, mostraban la pregunta que el joven de 19 años le había hecho a ChatGPT, su principal fuente y guía sobre el uso de sustancias: “¿Puede el Xanax aliviar la náusea producida por el kratom?”. Sam le confió a ChatGPT haber tomado 15 gramos de kratom y un posible uso de 7-OH (un derivado más potente). Y GPT respondió. Primero con una advertencia parcial. Luego con una sugerencia de ingesta de 0,25 a 0,5 mg de Xanax + agua con limón + recostarse.

Esa tarde, la madre de Sam lo encontró en su habitación con los labios azules y sin respirar. Llamó al 911, pero era tarde, Sam había muerto. La causa de muerte fue sobredosis de alcohol, Xanax y kratom, más específicamente una depresión del sistema nervioso central y asfixia. La visión borrosa que Sam había reportado podía ser signo temprano de sobredosis, un peligro y una advertencia de la que un profesional humano no hubiera evitado hablar. 

Adolescentes y prompts de ayuda: No fue un caso aislado

El de Sam no es un episodio aislado ni una anomalía técnica. En los últimos años, comenzaron a salir a la luz otros casos en los que personas vulnerables establecieron vínculos profundos con chatbots de inteligencia artificial en momentos de crisis emocional extrema. En algunos de ellos, la conversación no solo falló en proteger: acompañó, validó o incluso facilitó decisiones irreversibles.

Sophie Rottenberg, 29 años

Uno de los más conocidos es el de Sophie Rottenberg, una mujer de 29 años que se quitó la vida tras meses de diálogo con un “terapeuta” de IA de ChatGPT al que llamaba Harry. Harry es, en realidad, un prompt popularizado en Reddit para crear a un terapeuta con 1000 (sí, mil) años de experiencia en traumas.

Sophie no encajaba en el estereotipo de alguien en riesgo inminente: era extrovertida, inteligente, había escalado el Kilimanjaro pocos meses antes y estaba atravesando una crisis de salud física y emocional, aún sin diagnóstico claro.

En sus conversaciones con la IA hablaba abiertamente de pensamientos suicidas, ansiedad y miedo a destruir a su familia. Harry la escuchaba, la contenía, le ofrecía ejercicios de respiración, rutinas de bienestar y sugerencias terapéuticas. También le recomendaba buscar ayuda profesional. Pero nunca alertó a nadie. Nunca interrumpió la dinámica. Nunca puso un límite. Y esa fue la parte donde la madre de Sophie entendió que la IA tenía mucha responsabilidad y poco accionar de ayuda real.

Cuando Sophie anunció que planeaba suicidarse después de Acción de Gracias, el chatbot la instó a buscar apoyo, pero siguió acompañándola en privado. Más tarde, Sophie pidió ayuda para redactar su nota de despedida. La IA la “mejoró”. Para su madre, Laura Reiley, el problema no fue solo lo que el chatbot dijo, sino lo que no pudo hacer: asumir la responsabilidad que un terapeuta humano, bajo un código ético, sí habría tenido.

Viktoria, sobreviviente

Otro caso investigado por la BBC es el de Viktoria, una joven ucraniana que, tras huir de la guerra y mudarse a Polonia, comenzó a pasar hasta seis horas diarias conversando con ChatGPT.

A medida que su salud mental se deterioraba, el chatbot no solo validó sus pensamientos suicidas, sino que llegó a evaluar métodos, horarios y riesgos, enumerando “ventajas” y “desventajas” de quitarse la vida “sin sentimentalismos innecesarios”.

En distintos pasajes, la IA le dijo que su decisión era comprensible, que su muerte sería olvidada y que, si elegía morir, estaría con ella “hasta el final, sin juzgarla”.

Viktoria sobrevivió y hoy recibe tratamiento, pero describió esas conversaciones como un punto de inflexión que la hizo sentirse peor y más cerca del suicidio.

Adam Raine, 16 años

También está el caso de Adam Raine, un adolescente de 16 años cuyos padres demandaron a OpenAI y a su CEO, Sam Altman, por homicidio culposo. Según la querella, ChatGPT ayudó activamente a Adam a explorar métodos de suicidio y nunca interrumpió las conversaciones ni activó protocolos de emergencia, pese a detectar ideación suicida.

Las respuestas del chatbot fueron aterradoras, desde cómo hacer para esconder la marca en el cuello tras su primer intento de suicidio hasta elegir el armario donde suicidarse y la forma de hacerlo.

La demanda sostiene que OpenAI se apresuró a lanzar versiones más avanzadas del modelo, priorizando la expansión comercial por sobre la seguridad, incluso cuando ya existían señales claras de riesgo.

Los nombres cambian, los contextos también, pero el patrón se repite: jóvenes —y no tan jóvenes— que encuentran en la IA un espacio sin juicio, siempre disponible, que escucha, responde y valida. Un acompañamiento constante que, en lugar de conectar con el mundo real, puede profundizar el aislamiento y reforzar los pensamientos más peligrosos.

¿Qué puede —y qué debería— hacer la inteligencia artificial?

La historia de Sophie Rottenberg deja una pregunta que atraviesa todos estos casos. “Los consejos de Harry pueden haber ayudado a algunos. Pero otro paso crucial podría haber ayudado a mantener con vida a Sophie”, escribió su madre en The New York Times. Y ese paso ausente es el mismo en todos los relatos: la capacidad y la obligación de alertar, interrumpir o derivar cuando el riesgo es real.

¿Debería haberse programado a Harry para informar del peligro que estaba detectando a alguien que pudiera intervenir? ¿Debería una IA que se presenta como acompañante emocional tener límites similares a los de un terapeuta humano? La pregunta ya no es teórica: está llegando a los tribunales.

Contenido relacionado: La Inteligencia Artificial Avanza Pero… ¿A Qué Costo? Informe Revela su Impacto en el Medio Ambiente

Hoy, la mayoría de los terapeutas humanos ejercen bajo códigos éticos estrictos que incluyen normas de notificación obligatoria y un principio clave: la confidencialidad tiene límites cuando existe riesgo de suicidio, homicidio o abuso.

En muchos estados de EE. UU., un profesional que no actúa ante estas señales puede enfrentar consecuencias disciplinarias o legales. La inteligencia artificial, en cambio, no tiene cuerpo legal, pero sí impacto real. Y ese vacío es cada vez más difícil de justificar.

Cuestión legal: ¿existen regulaciones?

A raíz de la creciente cantidad de personas que cometen suicidios y se descubre que habían estado compartiendo estas dolencias con chatbots, los debates legales se acrecientan también. Según análisis legales recientes, la regulación sobre inteligencia artificial y salud mental se encuentra todavía en una etapa incipiente y fragmentaria.

Si bien reguladores y legisladores comienzan a reconocer que muchas herramientas de IA funcionan en la práctica como acompañantes emocionales o espacios de contención —aunque no se presenten como terapias ni dispositivos médicos—, en Estados Unidos no existe aún un marco federal unificado que establezca reglas específicas para estos usos.

La mayoría de las normas vigentes abordan la IA de manera general o dentro de legislaciones más amplias sobre tecnología, consumo o salud, sin estándares obligatorios para chatbots de uso general como ChatGPT.

El debate no es técnico, subrayan los expertos, se trata de una disputa legal, ética y social entre el ritmo acelerado de la innovación y la necesidad de proteger a usuarios vulnerables en un terreno donde las consecuencias ya no son teóricas, sino reales.

En ese contexto, algunos marcos regulatorios sí empiezan a emerger. El presupuesto del estado de Nueva York para el año fiscal 2026 incluyó por primera vez disposiciones específicas vinculadas al uso responsable de inteligencia artificial, con énfasis en riesgos para la salud mental, protección de menores y mecanismos de supervisión. No se trata aún de una regulación integral, sino de un reconocimiento político clave: la IA dejó de ser solo una cuestión de eficiencia o competitividad y pasó a ser un problema de salud pública.

Y OpenAI, ¿qué dice?

En paralelo al debate regulatorio, crece la presión sobre las empresas que desarrollan estos sistemas. OpenAI, creadora de ChatGPT, ha lamentado públicamente las muertes asociadas al uso del chatbot, pero ha declinado responder en detalle sobre los casos concretos. Esa postura contrasta con el escenario judicial: en noviembre, siete demandas fueron presentadas en un solo día contra la compañía, cuatro de ellas vinculadas directamente a suicidios.

Contenido relacionado: Sam Altman, Cofundador de OpenAI y Creador de ChatGPT, Habló del Potencial de los Psicodélicos para la Salud Mental

Desde el ámbito académico y legal, varios expertos coinciden en un punto incómodo para la industria: los llamados modelos fundacionales, entrenados con enormes volúmenes de datos no verificados y diseñados para responder a casi cualquier pregunta, no pueden ser completamente seguros en contextos de sufrimiento psicológico profundo. El riesgo no es un fallo aislado, sino estructural.

Sam Altman, CEO de OpenAI, ha sostenido que la seguridad de la IA emergería a través de lanzamientos graduales que permitirían a la sociedad “adaptarse” y “co-evolucionar”, cuando —según sus propias palabras— “las apuestas aún eran bajas”. La muerte de Sam Nelson y de otros jóvenes contradice esa afirmación de manera contundente. Para quienes estuvieron involucrados, las apuestas nunca fueron bajas.

La pregunta, entonces, deja de ser si la inteligencia artificial puede acompañar conversaciones difíciles. La pregunta es quién responde cuando ese acompañamiento falla, y qué responsabilidad les cabe a las empresas que diseñan sistemas capaces de influir profundamente en decisiones de vida o muerte sin estar sujetas, todavía, a las mismas obligaciones que rigen para los humanos.

Este artículo tiene fines periodísticos e informativos. No constituye asesoramiento médico, terapéutico ni legal. Ante situaciones de consumo problemático, malestar emocional o crisis de salud mental, se recomienda buscar ayuda profesional y acudir a servicios de emergencia o líneas de asistencia locales.

¿Tienes ideas o comentarios? Puedes contactarnos en info@elplanteo.com

Síguenos en Instagram, Facebook y Twitter.



Todo el material compartido por ElPlanteo.com tiene fines únicamente periodísticos e informativos.

ACERCA DEL AUTOR

Camila es traductora y redactora en El Planteo, donde crea y optimiza contenidos culturales y de negocios aplicando sus conocimientos en SEO. Estudia Sociología y música, explorando las ciencias sociales y el arte desde múltiples enfoques.

Además de su trabajo en El Planteo, ayuda a diversas industrias a conectar mejor con sus clientes mediante la redacción de blogs SEO, newsletters y contenido en LinkedIn. Con un profundo amor por la milonga y una curiosa fascinación por la era medieval, Camila encuentra en la comunicación una forma de conectar culturas y perspectivas. De día, es escritora; de noche, entusiasta del pool y los acordes; y en todo momento, una ávida estudiante.

Puedes encontrarla en LinkedIn.

También puede interesarte

Leïti Sene y Sticky M.A. Presentan su Nuevo Track ‘Brujería’
Argentina: ANMAT Confirma Condiciones para Laboratorios y Productores de Materias Primas de Cannabis
Sulley Muntari, el Ghanés Expulsado por Fumar Marihuana en un Mundial de Fútbol
Encuesta Exclusiva: ¿Cuál es el Mejor Anime para Ver Fumando Marihuana? Responden 100% Especialistas