Nuestro derecho, nuestro lugar, nuestro futuro…

Texto:

Estudiante de Comunicación Social (UNM)

Censura silenciosa en las redes: la era del shadow banning

Publicaciones que no se encuentran en un buscador o no se le sugieren a ningún usuario. Esas y otras medidas toman las empresas dueñas de las redes sociales ante determinadas noticias, sin explicar los motivos. El fenómeno ya tiene nombre en inglés pero el problema es internacional. Hablan dos especialistas.
“Las plataformas reducen la visibilidad de ciertos temas o perfiles, pero lo hacen de una forma invisible. Hay un doble ocultamiento: se invisibiliza y además se oculta la medida misma¨, explica Carolina Martínez Elebi, una de las autoras del informe de ObservaCom. Fotos: Clara Pérez Colman, de Anccom.

Publicar ya no es garantía de ser escuchado. En la era del exceso de voces, hay silencios que pesan más que nunca. Publicaciones que se esfuman, temas que se vuelven invisibles y denuncias que no llegan a destino. Así opera el shadow banning, la censura invisible de las redes sociales. Nadie  elimina ni reporta aquellas Simplemente desaparecen del radar de las audiencias.

A este fenómeno se lo conoce como una práctica de invisibilización algorítmica en la que las plataformas reducen el alcance de ciertos contenidos sin informar al usuario. “Las plataformas reducen la visibilidad de ciertos temas o perfiles, pero lo hacen de una forma invisible. Hay un doble ocultamiento: se invisibiliza y además se oculta la medida misma¨, explica Carolina Martínez Elebi, licenciada en Ciencias de la Comunicación y directora del medio digital DHyTecno-

El shadow banning no es nuevo, pero su presencia se ha vuelto más evidente en contextos de fuerte tensión política y social. Vladimir Cortés, especialista en derechos humanos y director de Campañas y Alianzas en Digital Action, lideró junto a Martínez una investigación regional en América Latina y el Caribe sobre el fenómeno, para el Observatorio Latinoamericano de Regulación, Medios y Convergencia (ObservaCom).

Cortés comenta: “Empezamos a recibir alertas de periodistas, activistas y personas defensoras de derechos humanos que veían caer drásticamente el alcance y la visibilidad de sus publicaciones”. De esta forma los investigadores comenzaron a estudiar este hecho..

El especialista, aclara que “esto coincidía con contenidos políticos o denuncias, como las que surgieron en torno al genocidio en Palestina. Detectamos un patrón similar en México, Perú, Chile y Argentina, donde algunos contenidos se volvían prácticamente imposibles de encontrar” La coincidencia no parece casual: detrás de la invisibilización hay una forma de control algorítmico que decide qué temas merecen circular y cuáles no.

El estudio, que duró más de un  año, mostró cómo en los casos más extremos las cuentas afectadas ni siquiera aparecían en los buscadores. “Nos encontramos con personas que no reconocían directamente este fenómeno y de un momento a otro, sus publicaciones dejaban de tener impacto sin motivo aparente y su usuario no se encontraba”, revela Cortés .

Las plataformas suelen justificar estos casos apelando a la automatización y la escala global. Sin embargo, Cortés, advierte que “esa explicación no basta, los procesos de moderación deben contemplar a periodistas, activistas y defensores de derechos humanos, con intervención humana”. De lo contrario, la censura se automatiza y se disfraza de neutralidad tecnológica.

El especialista en derechos humanos no duda en calificar el fenómeno como una forma de censura indirecta, ya que “impacta tanto en el derecho a expresarse como en el de acceder a la información;  las personas se convierten en fantasmas dentro de las plataformas”. Sus palabras ponen en evidencia una paradoja en la cual las redes sociales, que nacieron como espacios de apertura y participación, hoy pueden convertirse en lugares silenciosos.

Martínez Elebi coincide en que esta forma de silenciamiento resulta aún más peligrosa que la censura abierta. “Cuando te eliminan un contenido, al menos te notifican y podés reclamar, pero con el shadow banning no te enterás. Podés pasar semanas o meses sin darte cuenta de que tu voz fue silenciada”, dice.

En América Latina, los casos más frecuentes se detectaron en X (antes Twitter) y en las plataformas de Meta —Facebook e Instagram—. Allí, tanto los sistemas automáticos como las decisiones corporativas pueden afectar de manera directa la circulación de información crítica. En estos espacios, donde buena parte del debate público se desarrolla hoy, volverse invisible equivale a quedar fuera de la conversación democrática.

Martínez Elebi agrega que “en el último año se ha observado “un cambio explícito en la orientación ideológica de las plataformas. Las decisiones de visibilizar o esconder contenidos están mostrando un sesgo cada vez más claro”. Según la investigadora, esta deriva ideológica no es casual, responde a transformaciones internas en las empresas, nuevas dirigencias y presiones políticas que influyen directamente en los criterios de moderación de contenido.

Más allá del impacto técnico, el shadow banning tiene consecuencias emocionales profundas, porque no solo restringe el alcance de las publicaciones; también debilita la voluntad de participar en el espacio digital. “Eso produce un efecto inhibitorio: la gente deja de publicar, se autocensura. Desde el punto de vista de los derechos humanos, eso es gravísimo”, afirma Cortés.

Frente a la falta de transparencia, los especialistas recomiendan documentar y compartir lo que sucede. Cortés propone: “Comparar estadísticas, consultar con otros usuarios si también notan la invisibilización y buscar patrones”. Y sobre todo hablar del problema, denunciarlo públicamente para que este fenómeno se visibilice.

Martínez Elebi refuerza la importancia del trabajo colectivo.: “Cuando más personas identifican estos casos, se vuelve más difícil negarlos. Las comunidades digitales tienen un rol clave en exponer estas prácticas”., afirma. La resistencia al silenciamiento no depende solo de la tecnología, sino de la capacidad de los usuarios de organizarse y visibilizar juntos lo que las plataformas intentan ocultar.

Para Cortés, el desafío es doble: “Las grandes tecnológicas deben terminar con la opacidad del shadow banning. Necesitamos políticas claras, accesibles y mecanismos efectivos de apelación”. Él advierte que la autorregulación de las plataformas muestra un agotamiento  y que es urgente una participación estatal más activa para equilibrar el poder corporativo de las tecnológicas que moldean el debate público.

Este fenómeno representa una forma de censura silenciosa, tan eficaz como invisible. No elimina las voces, pero las disuelve entre los pliegues del código.“Lo más grave es que se trata de un silenciamiento sin rastro. Una censura que no deja huellas, pero que erosiona la libertad de expresión de forma constante. Si no la vemos, es justamente porque funciona”, dice Martínez Elebi

El shadow banning no borra mensajes ni apaga voces, las disuelve en un murmullo digital del que pocos se dan cuenta. Mientras las redes insisten en presentarse como espacios abiertos, la realidad muestra un escenario cada vez más controlado, donde el silencio ya no es ausencia de palabras, sino el resultado de un algoritmo que decide quién merece ser escuchado.

Comparte esta nota 

otros artículos
relacionados

Agencia de Noticias de la Universidad Nacional de Moreno

Av. Bme. Mitre N° 1891, Moreno (B1744OHC), provincia de Buenos Aires.
Edificio Histórico – Ala Oeste P.B. – Interno: 3771
Teléfonos:
0237 460-9300 (líneas rotativas)
011 2078-9170 (líneas rotativas)
Correo electrónico: anunm@unm.edu.ar

UNM_bicentenario_blanco
Ingresar usuario y contraseña
Logout