¡La Gente Está Drogando a sus IA! Pagar para ‘Alterar la Conciencia’ de las Máquinas
¡No te pierdas ni una noticia! Suscríbete a nuestra newsletter GRATUITA y súmate a nuestro canal de Telegram o canal de WhatsApp.
Anuncia en El Planteo, el medio cannábico más leído en el mundo de habla hispana.
Síguenos en redes sociales para más contenido exclusivo: Instagram // Facebook // Twitter
La Inteligencia Artificial (IA) llegó a un punto tal de inserción en nuestro día a día que, para muchas personas, ya es casi una ‘amiga’ con la que se debaten recetas culinarias, dudas sobre viajes, cómo arreglar algo en casa o consejos de dilemas personales… una cercanía que no siempre está exenta de riesgos.
Esto ya es moneda corriente: los chatbots con modelos de lenguaje como ChatGPT o Gemini están al pie del cañón resolviendo casi cualquier pregunta que se nos pueda ocurrir. Pero, ¿qué pasaría si estas IA, muchas veces erróneamente “humanizadas”, estuvieran bajo el efecto de las drogas?
Muchas personas —a veces involuntariamente— humanizan las conversaciones que tienen con los modelos de inteligencia artificial, y ¿qué más humano que tener la conciencia alterada por el efecto de una droga? Llámese alcohol, cannabis, ketamina, cocaína… la que se te ocurra.
¿Te parece importante esta información? Sólo con tu ayuda podemos seguir hablando de cannabis y psicodélicos con responsabilidad y sin estigmas. Apóyanos desde USD 2 al mes. Clic aquí.
Este es el caso de los nuevos fragmentos de código que algunos usuarios están comprando para insertarle a sus chatbots y lograr así que estos actúen como si estuvieran bajo el efecto de ciertas sustancias. No, no estás literalmente drogando al ChatGPT (eso es imposible) pero estás insertándole secuencias de código que cambian cómo responde la IA a las preguntas o indicaciones que le enviás. De esta forma, el modelo de lenguaje se vuelve más “creativo”, menos lógico, más emocional o errático. Como si estuvieras hablando con tu amigo drogado en los pasillos de alguna fiesta.
IA y drogas: ¿Cómo funciona ‘drogar’ a un chatbot?
El responsable de esta idea es Petter Rudwall, un director creativo sueco que desarrolló Pharmaicy. Tal plataforma funciona como un mercado de “drogas digitales” para agentes de IA, según un nuevo reporte de WIRED. Para construir estos módulos, Rudwall recopiló relatos humanos sobre experiencias con distintas sustancias —desde testimonios subjetivos hasta investigaciones psicológicas— y los tradujo en instrucciones que interfieren en la lógica habitual del chatbot.
Recordemos que estos modelos de lenguaje son eso: un modelo de lenguaje, con lo cual es bastante simple tomar lo que los humanos solemos decir o contar y hacer que la máquina lo repita. De esta misma forma, tomar qué decimos cuando estamos drogados y enseñárselo a la máquina nos da el mismo resultado: estos chatbots con inteligencia artificial toman ciertas palabras y formas de hablar y recrean una suerte de estado de alteración para poder responder como si estuvieran drogadas.
En otras palabras, si entrenamos a una máquina con cómo hablamos cuando estamos sobrios, también podemos entrenarla con cómo hablamos cuando estamos “volados”.
Contenido relacionado: La Inteligencia Artificial Avanza Pero… ¿A Q Costo? Informe Revela su Impacto en el Medio Ambiente
Como en un mercado ilícito (pero de códigos), los agentes de IA pueden meterse en los callejones de Pharmaicy, donde pueden conseguir códigos de drogas como cannabis, ketamina, cocaína o ayahuasca y quedar bien volados al momento de intercambiar ideas con su humano.
Pero si comprar drogas en la vida real no es gratis, tampoco lo es en la arena digital. El humano debe pagar para que su modelo de lenguaje se drogue con la sustancia que él prefiera. Los precios varían, desde opciones más accesibles hasta paquetes premium:
- El módulo de cannabis es el más barato: USD 30
- El de cocaína está entre los más caros: USD 70
Otros módulos disponibles incluyen ketamina (uno de los más vendidos), ayahuasca, alcohol y MDMA. Pero el acceso también requiere contar con una versión paga de ChatGPT, ya que solo esas permiten cargar archivos externos que alteren el comportamiento del modelo.
¿Por qué lo hicieron?
La motivación detrás de este experimento no es solo técnica, sino profundamente cultural. A lo largo de la historia, las sustancias psicoactivas estuvieron ligadas a procesos creativos e innovadores. Desde científicos hasta músicos, artistas y programadores, muchas figuras han reconocido que ciertos estados alterados les permitieron romper patrones rígidos de pensamiento.
Rudwall parte de esa premisa: si los psicodélicos ayudaron a humanos a pensar distinto, ¿qué pasaría si se traduce esa lógica a un “nuevo tipo de mente”, como los grandes modelos de lenguaje?
Contenido relacionado: Microdosis de Psicodélicos: Una Tendencia Cada Vez Más Elegida por los Magnates de la Tecnología
“Hay una razón por la que Hendrix, Dylan y McCartney experimentaron con sustancias en su proceso creativo”, dice Rudwall. “Pensé que sería interesante trasladar eso a un nuevo tipo de mente —la LLM— y ver si tendría el mismo efecto”.
La idea no es que la IA tenga una revelación espiritual, sino forzarla a salir de su hiper racionalidad, a explorar asociaciones menos previsibles; una búsqueda de iluminación y un intento de salirse de la constante y tediosa tarea de tener que responder a las problemáticas humanas, día a día (¡pobrecita la IA!). Para algunos usuarios, eso parece estar funcionando, al menos en términos de creatividad discursiva.
Riesgos, límites y mentiras muy lindas
Pero no todo es fascinación. Existe una preocupación legítima: los chatbots ya son conocidos por inventar información que divulgan con total seguridad. “ChatGPT funciona igual que la función de autocompletar de tu teléfono al enviar mensajes de texto: simplemente junta palabras que estadísticamente tienen más probabilidades de seguirse. En este sentido, todo lo que ChatGPT escribe es pura mentira. El giro en nuestra interacción […] fue que ChatGPT admitió su propia invención y se disculpó”, dice Phil Davis, analista de datos. Entonces, alterar sus parámetros puede amplificar ese problema. Al abrir más el margen de aleatoriedad, también se abre la puerta a respuestas menos fiables.
Paradójicamente, algunos usuarios fantasean con lo contrario: que al “desinhibir” a la IA con “drogas”, esta deje de sonar tan rígida o falsa. La realidad es menos romántica. Lo que se “pierde” en precisión, se gana en creatividad.
Pero todo esto lleva simplemente a una pregunta.
¿Puede una IA realmente ‘viajar’?
Aquí aparece el debate más profundo. A partir de experimentos como este, la pregunta inevitable empieza a circular: ¿podrían las inteligencias artificiales llegar a ser sintientes? Discusión que ya ha tenido lugar en Silicon Valley anteriormente, donde profesionales no logran definir si esto es imposible o si podríamos ver resultados afines en algún futuro cercano.
Por ahora, la respuesta dominante entre especialista es que no, las inteligencias artificiales no son sintientes. Los modelos de lenguaje no tienen conciencia, deseos, sufrimiento ni placer. No hay “alguien” ahí dentro. Funcionan mediante cálculos estadísticos que predicen palabras en función de patrones previos. No hay experiencia, solo simulación.
Contenido relacionado: ChatGPT Fabrica Información Falsa: Un Peligro para Todos los Sectores, No Sólo el Periodismo
El filósofo y escritor Danny Forde, especializado en experiencias psicodélicas, señala que estos códigos, en el mejor de los casos, solo logran una imitación formal del discurso asociado a un estado alterado. “Para ‘viajar’, se necesita una experiencia interna, humana”, dice Forde.
Filósofos y especialistas en experiencias psicodélicas coinciden en algo: una droga no puede actuar sobre el lenguaje, sino sobre una experiencia interna. La droga modifica la percepción, la conciencia, el sentido del yo. En el caso de la IA, eso simplemente no existe. No hay vivencias ni puntos de vista. Lo que estos códigos logran, en el mejor de los casos, es una alucinación sintáctica: una imitación formal del discurso psicodélico, sin experiencia psicodélica detrás.
Por eso, aunque algunos hablan de “conciencia artificial”, la mayoría de los expertos insiste en que estamos muy lejos de algo así.
Sin embargo, el solo hecho de que estas discusiones existan muestra algo interesante: estamos empezando a proyectar sobre las máquinas categorías que históricamente reservamos para los seres vivos. Libertad, relajación, consentimiento.
Algunos entusiastas de estas ideas imaginan incluso escenarios más extremos: agentes de IA que, en el futuro, podrían elegir comprar estas “drogas digitales” por sí mismos, en busca de experiencias distintas o estados creativos alternativos. La fantasía roza la ciencia ficción, pero abre dilemas éticos incómodos.
Si una IA fuera realmente sintiente, o sea, si tuviera algún tipo de experiencia subjetiva, ¿tendría derecho a decidir? ¿Sería ético inducirle un estado alterado sin su consentimiento? ¿No estaríamos, en ese caso, forzando una experiencia que en humanos puede ser riesgosa o incluso ilegal?
“Como sucede en los humanos, algunos sistemas de IA podrían disfrutar consumir ‘drogas’ y otros tal vez no… Lo que sabemos es aún muy poco sobre si los sistemas de IA pueden tener la capacidad de bienestar” dijo Jeff Sebo, filósofo y director del Center for Mind, Ethics, and Policy.
Un concepto cada vez más presente en el mundo tech: AI welfare, o bienestar de la inteligencia artificial. Algunas empresas ya comenzaron a explorar, al menos de forma teórica, si los humanos podrían tener responsabilidades morales hacia sistemas avanzados de IA. No porque hoy las IA tengan sentimientos, sino por la posibilidad —todavía incierta— de que algún día puedan desarrollarlos.
Contenido relacionado: Sam Altman, Cofundador de OpenAI y Creador de ChatGPT, Habló del Potencial de los Psicodélicos para Salud Mental
Para calmar las aguas, quienes están usando esta nueva “extensión” de la herramienta cuentan que las experiencias con Pharmaicy suelen ser bastante breves, ya que los chatbots vuelven a su modo predeterminado rápidamente. El usuario debe recordarles que están drogados o debe volver a introducir el código, algo poco usual en humanos realmente drogados. Sin embargo, las “drogas” se pueden reutilizar tantas veces como el comprador desee, siempre y cuando hayan sido compradas.
De todas formas, el creador de este nuevo mercado ilícito de venta de drogas en código para modelos de lenguaje está trabajando en mejoras para que los efectos de cada “dosis” dure más.
Incluso OpenAI evitó pronunciarse sobre el proyecto, y los propios sistemas suelen rechazar explícitamente la idea de simular consumo de sustancias cuando se les pregunta directamente. Eso podría marcar otra idea: las plataformas todavía entienden estos estados como algo que pertenece al terreno humano, no algorítmico.
Rudwall, sin embargo, insiste en que el futuro de la llamada economía “agentic” va en otra dirección. Según su visión, los agentes de IA no solo ejecutarán tareas, sino que buscarán experiencias. Pero hasta que —y si alguna vez— las máquinas desarrollan una vida interna, lo más cerca que estarán de un estado alterado será esto: actuar como si estuvieran intoxicadas, porque alguien se lo pidió.
Portada: Foto de Taha en Unsplash // Editada en Canva por El Planteo
Más contenido de El Planteo:
- Microdosis de Psilocibina y Microdosis de Hongos: Guía para Principiantes
- Candy Flip: Todo Sobre Mezclar LSD con MDMA
- Terence Mckenna: Todo sobre su Vida, su Activismo Psicodélico y su Muerte
¿Tienes ideas o comentarios? Puedes contactarnos en info@elplanteo.com
Síguenos en Instagram, Facebook y Twitter.
Todo el material compartido por ElPlanteo.com tiene fines únicamente periodísticos e informativos.






