Derechos digitales y reducción de daños: cómo las plataformas afectan el acceso a la información sobre drogas

Author picture

Escrito por:

Comparte este artículo:

La censura en redes sociales limita el acceso a información clave sobre drogas y reducción de daños. En Échele Cabeza analizamos cómo los algoritmos de plataformas digitales afectan los derechos digitales, la libertad de expresión y el acceso a educación en salud pública.

mayo 2025
Por Alejandra Medina
Parte del equipo de Échele Cabeza

Carta a nuestras comunidades digitales:

Llevamos años, más de una década trabajando por los derechos de las personas que usan drogas en diferentes espacios: político, jurídico, diplomáticos, académicos, con el sector privado, en fiestas y festivales, en las calles, en los barrios, y en tantos lugares como hemos podido. 

Junto a nuestras audiencias, nuestro equipo de voluntarios y la red de organizaciones de la sociedad civil que apostamos por la disrupción en drogas y la transformación de la cultura y ocio nocturno, hemos explorado e innovado en nuestras estrategias de intervención. Parte de ese camino nos ha llevado a las plataformas digitales,  donde buscamos ampliar nuestro impacto y llegar a más personas con información basada en evidencia sobre reducción de daños.

Nuestra identidad, apuesta gráfica y comunicación participativa nos ha permitido construir comunidades digitales sólidas y diversas. Gracias a su apoyo —a veces con desaciertos, pero siempre aprendiendo y manteniendo un enfoque de derechos humanos, justicia social y reforma a la política de drogas—. Este trabajo nos ha permitido superar fronteras físicas, idiomáticas, generacionales, poblacionales e incluso en ocasiones ideológicas, conectando con públicos diversos y amplificando nuestros mensajes.

Hablar sobre drogas o “dr0g*s” en redes sociales ha sido un reto. Para nuestro proyecto ha sido un camino interesante y con pequeñas victorias el lograr hablar sobre drogas en plataformas digitales no desde el estigma, sino desde la evidencia, los derechos humanos, la salud pública, la gestión del placer, la movilización social, la cultura e incluso desde el humor, abordando  y poniendo el tema desde otra perspectiva en las narrativas y el acceso a la información en los entornos digitales. Hemos aprendido a hablar sobre drogas en redes combatiendo la desinformación y promoviendo el derecho a la información. 

Sin embargo, como el mundo real —la calle está dura amix :’( y todo está muy facho—, las plataformas digitales se han convertido en un nuevo escenario de resistencia para la reducción de riesgos y daños.

Cuando desaparecimos de Instagram sin explicación

El 24 de diciembre de 2024, Instagram  eliminó nuestra cuenta. Meta nos notificó de forma genérica informándonos que habíamos violado su política sobre drogas y bienes restringidos, pero sin especificar qué publicación había causado la sanción además de poca información y accesibilidad sobre los mecánismos de apelación.

Paradójicamente, la última era un video de cierre de año, en el que agradecíamos a la comunidad por su participación en una feria sobre regulación del cannabis en Colombia, clubes cannábicos y consumo en espacio público. Un evento organizado por nuestro proyecto hermano Soberanía Psicoactiva, en el que participaron expertxs, funcionarixs públicos, organizaciones reconocidas y activistas del cannabis. 

Intentamos apelar la decisión aclarando que no vendemos ni promovemos el consumo de sustancias, sino que hablamos de salud pública y derechos humanos. Dos semanas después, Meta restauró nuestra cuenta, pero sin dar detalles sobre lo sucedido ni sobre qué cambió en su revisión.

Esta experiencia nos dejó muchas preguntas, que ya nos venían preocupando en el pasado, sobre las sanciones desproporcionadas en redes sociales: 

¿Cómo es posible que la moderación de contenidos Meta no distinga entre educación en salud y promoción del consumo? ¿Por qué no hay un proceso de apelación transparente o claro para defender contenido legítimo? ¿Cuántos proyectos como el nuestro han sido censurados sin recuperación?

Moderación de contenido y la ambigüedad de Meta

Meta prohíbe contenido que “facilite o promueva el uso indebido de drogas”,pero su sistema de detección automatizado no distingue entre educación en salud pública y promoción. Sabemos que el proceso es más complejo, pero para ponerlo en palabras sencillas si el algoritmo detecta palabras como “drogas” o “consumo”, es probable que sancione sin revisar el contexto. Sabemos y nos preocupa que no somos los únicos, esto ha afectado a muchas organizaciones de reducción de daños, pero también a muchas causas como salud sexual y reproductiva, acceso libre al aborto, protesta social, medio ambiente y de derechos humanos, que han visto su contenido eliminado o su cuenta restringida.

Además, Meta cambia constantemente sus Normas Comunitarias o los procesos asociados y ,como hemos visto en noticias recientes, las apuestas políticas de sus dueños (señoros de la tecnología cof, cof) influyen en la moderación del contenido. Recientemente, Mark Zuckerberg, CEO de Meta, anunció cambios significativos en las políticas de moderación de contenido de la compañía. Entre las medidas adoptadas, se destaca la eliminación del programa de verificación de datos con terceros, sustituyéndolo por un sistema de “Notas Comunitarias” similar al implementado por X (anteriormente Twitter). Este nuevo enfoque permitirá a los usuarios agregar contexto a las publicaciones, promoviendo una moderación más comunitaria. Estas decisiones han generado diversas reacciones. Mientras algunos sectores aplauden la medida como un avance hacia la libertad de expresión, expertos y organizaciones de derechos digitales expresan preocupación por el potencial aumento de desinformación y discursos de odio en las plataformas de Meta.

No solo enfrentamos bloqueos directos, también “shadowbanning” —forma de bloqueo o restricción disimulada que una plataforma de redes sociales aplica a una cuenta o contenido sin que el usuario reciba una notificación —(no tenemos pruebas, pero tampoco dudas). Esto nos ha llevado a la autocensura, pensarlo dos veces antes de publicar algo, no por falta de argumentos, sino por miedo a las sanciones arbitrarias.Irónicamente,  Meta permite que las empresas paguen por publicidad sobre: alcohol; tabaco y productos relacionados; tratamiento de adicción a las drogas y al alcohol; medicamentos con o sin receta o productos derivados del cannabis, pero NO haya una discusión orgánica y acceso a la reducción de daños al no constituir un nicho de mercado rentable para el modelo de negocio de la plataforma. No nos interesa que lo sea, pero lo que no pueden hacer es impedir que estas discusiones prosperen en sus plataformas bajo los derechos reconocidos a nivel internacional y nacional de derecho a la información y a la libertad de expresión.

💡 Recomendamos leer el informe de la Fundación Karisma, que documenta varios casos de organizaciones de la sociedad civil censuradas en redes sociales. Gracias a Karisma por acompañarnos en este proceso.

Lo que pedimos: transparencia y justicia digital

No somos los únicos, y es que esto es gravísimo, lo mismo ha ocurrido con iniciativas que proponen una transformación profunda en la sociedad y que llevan años luchando contra la censura algorítmica.

Por eso, creemos que Meta puede y debe mejorar su moderación de contenido con cambios concretos:

  • Diferenciar promoción de educación: Informar sobre drogas, su impacto y estrategias para reducir riesgos, no es lo mismo que venderlas.
  • Un proceso de apelación claro, oportuno, accesible y transparente. Considerando y defendiendo perfiles de especial protección como organizaciones defensoras de derechos humanos. 
  • Incluir una perspectiva o debida diligencia con personas expertas en reducción de daños en la moderación de contenido: Dejar esto en manos de algoritmos o moderadores sin formación en salud pública no es viable.
  • Etiquetas informativas en lugar de eliminación de contenido: En lugar de borrar publicaciones, pueden agregar etiquetas que adviertan sobre el contexto del contenido, permitiendo el acceso a información verificada.

Lo que nos imaginamos: un mundo con drogas reguladas y comunidades listas para ello

Las plataformas digitales no deben ser espacios donde solo las empresas tecnológicas decidan las reglas sin escuchar a las comunidades. Tampoco donde su funcionamiento sea determinado por intereses económicos. 

En un ecosistema digital donde los algoritmos moldean lo que vemos, lo que se comparte y lo que desaparece, es fundamental que, como comunidad, tomemos un papel activo en la construcción de espacios más resilientes y diversos, además de democráticos y que combatan la desinformación y los discurso de odio. Esto significa cuestionar por qué seguimos, compartimos, apoyamos o comentamos ciertos contenidos, incluso cuando no estamos de acuerdo con ellos.

No podemos permitir que las plataformas —o incluso las propias audiencias— nos lleven a una uniformidad forzada, donde todos los contenidos se vean y suenen igual, solo porque es lo que “funciona”. La diversidad en las conversaciones es clave para el pensamiento crítico y el acceso a información confiable.

Resistir en lo digital también es mantener debates sin caer en discursos de odio o violencias digitales. La censura injustificada y la desinformación son dos caras de una misma moneda que afectan nuestra capacidad de acceder a información clave, ya sea en salud pública, derechos humanos, reducción de daños, reforma a la política de drogas o cualquier otro tema crucial. Por eso, debemos encontrar formas de defender el acceso a información basada en evidencia.

Por último, queremos invitar a nuestra comunidad digital a consumir contenidos de manera crítica y responsable, así como promovemos con total convicción el uso informado de sustancias psicoactivas informadas y contra el establecimiento del prohibicionismo. Las redes sociales no son solo entretenimiento y publicidad; también son un espacio donde se difunden conocimientos, se generan debates y se protegen derechos. Elegir qué leer, qué compartir y qué apoyar es una forma de transformación.

Las plataformas digitales deben ser herramientas para el acceso a la información y la construcción de conocimiento colectivo, no barreras que lo limiten. Por eso, sigamos aprendiendo, cuestionando y defendiendo nuestro derecho a la información. Porque la reducción de daños no solo aplica a las sustancias, sino también a cómo navegamos en lo digital

Con amor y aprendiendo siempre. 

 Corporación ATS y Échele Cabeza cuando se de en la Cabeza 

Comparte este artículo:

Author picture

Escrito por:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll to Top