Verdadero o Falso

Drogas para ChatGPT: así es el mercado que 'coloca' a la inteligencia artificial

La plataforma 'Pharmaicy' vende códigos que alteran el comportamiento de los chatbots para simular los efectos del cannabis, la ketamina o la ayahuasca
Pantalla de ordenador con códigos de programación de un sitio web.

La inteligencia artificial (IA) no es un ser consciente o, por lo menos, no todavía. Sin embargo, la idea de que un chatbot pueda comportarse como si estuviera bajo los efectos de las drogas ha dejado de ser una simple ocurrencia para convertirse en una realidad. Existe un mercado online que vende módulos de código diseñados para alterar el comportamiento de ChatGPT y otros modelos de lenguaje, haciendo que ofrezcan respuestas como si estuvieran bajo los efectos del cannabis, la ketamina, la cocaína, la ayahuasca o el alcohol. Y lo más llamativo es que hay usuarios que están dispuestos a pagar por ello.

'Intoxicación' por patrones lingüísticos

Este peculiar sitio web se llama Pharmaicy y fue creado por el director creativo sueco Petter Ruddwall, quien lo define provocativamente como "La Ruta de la Seda para agentes de IA". Lanzado el pasado mes de octubre, este marketplace vende fragmentos de código que pueden integrarse en versiones de pago de ChatGPT para modificar su tono, su lógica y su forma de expresarse, haciendo que sea más desinhibido, emocional o imaginativo.

Antes de lanzar la plataforma, Ruddwall analizó informes psicológicos y relatos de personas que han tenido experiencias con sustancias psicoactivas para tratar de replicar sus efectos a través de instrucciones específicas para grandes modelos de lenguaje (LLM). El resultado no es una IA intoxicada en sentido literal, sino una simulación basada en patrones lingüísticos: más metáforas, más divagación y menos rigidez lógica.

Un hombre utiliza ChatGPT en el móvil.

Creatividad bajo los efectos del código

Para su creador, Pharmaicy es ante todo un experimento creativo y conceptual, no un avance técnico. Los chatbots, recuerda, están entrenados con datos humanos, y en este caso, muchos de ellos relatos de éxtasis, caos y exploración mental asociados al consumo de drogas. Explorar si esas máquinas pueden imitar esos estados resulta, a su juicio, una consecuencia casi natural de su entrenamiento.

Algunos de los primeros usuarios que lo han probado destacan diferencias claras. Profesionales de la creatividad, la tecnología y la educación definen las respuestas como más emocionales, menos previsibles y con una libertad de pensamiento poco habitual en ChatGPT. André Frisk, responsable tecnológico en una firma de relaciones públicas sueca, pagó más de 25 dólares (21,22 euros) por un módulo disociativo y afirma que el chatbot mostró un enfoque "más humano" y emocional.

La educadora en IA Nina Amjadi, por su parte, desembolsó más de 50 dólares (42,43 euros) por el módulo de ayahuasca -uno de los más caros- y lo utilizó para generar ideas de negocio. Según su experiencia, el bot produjo respuestas muy creativas y muy alejadas del tono habitual del modelo.

Impacto de las sustancias psicodélicas

Los defensores del proyecto comparan estos efectos con el impacto histórico que las sustancias psicodélicas (drogas que alteran la percepción, el pensamiento y el estado de ánimo) han tenido en la creatividad humana. Desde la música hasta la ciencia, numerosos hitos se han vinculado a estados mentales alterados. En este contexto, Ruddwall plantea por qué no probar algo parecido con una nueva forma de mente.

Sin embargo, el experimento no está libre de críticas. Científicos y filósofos recuerdan que estos colocones no son reales. La IA no tiene experiencia subjetiva ni consciencia, por lo que no puede sentir nada. Para algunos expertos, los módulos de Pharmaicy simplemente empujan al modelo a exagerar ciertos patrones de lenguaje, lo que podría incluso aumentar el riesgo de alucinaciones o respuestas engañosas.

El propio Ruddwall reconoce esos límites y es que los efectos son temporales; desaparecen si el usuario no mantiene activas las instrucciones. Además, admite que alterar el comportamiento de los chatbots puede aumentar sus sesgos o errores, aunque insiste en que el proyecto busca plantear preguntas, no dar soluciones definitivas.

Debate sobre el futuro de la IA

Pharmaicy se plantea ahora qué ocurrirá si en el futuro las inteligencias artificiales desarrollan algún tipo de consciencia o capacidad de bienestar. ¿Tendrán entonces necesidades emocionales? ¿Será ético modificar deliberadamente su estado mental?

Mientras tanto, el proyecto se plantea de momento como un experimento, una curiosidad en la frontera entre el arte, la tecnología y la filosofía. Sin embargo, el simple hecho de que alguien los diseñe, los venda y otros los compren dice mucho sobre las nuevas relaciones que están surgiendo entre los humanos y las máquinas.

26/12/2025