viernes, 07 octubre 2022

Libertad de expresión y censura en las redes

La incorporación de los usuarios en las redes sociales ha favorecido la democratización de espacios de participación ciudadana. En base a la teoría el uso de las redes sociales permitía que cualquier persona, sin importar su origen ni posición social, pudiera hacer valer su testimonio y publicar con absoluta libertad.

Sin embargo, con el paso del tiempo estas buenas intenciones han derivado en dinámicas más perniciosas donde los haters y los trolls ocupan un lugar central para intoxicar las redes. Los que eran llamados a ser espacios de debate en muchos casos han derivado en acciones conjuntas de acoso y derribo, vertedero de odio e insultos.

¿Dónde están los límites? A caso la libertad deja de serlo cuando infringe un daño a otro y le deja con menos libertad.

Zakarías Zafra es escritor y editor, colaborador  para The Washington Post en Español. Autor de Maquinaria íntima: Cuerpo, exilio, memoria, palabra. En un más reciente artículo apunta a esa contradicción que viven las redes sociales y los prejuicios dentro de un sistema de vigilancia digital donde nos creemos libres pero podemos ser usados para influir de forma deliberada a intereses que desconocemos.

Desde la suspensión de las cuentas del expresidente estadounidense Donald Trump en redes sociales por incitar al odio, hasta el bloqueo de una escritora argentina en Twitter por “promover el suicidio” luego de anunciar el título de su novela Mátate, amor, pasando por cientos de miles de mensajes que son filtrados a diario desde oficinas de control de contenidos, hay una zona gris de intereses, reglas indefinidas y sistemas de vigilancia digital que no parecen distinguir entre poder político, moral privada y seguridad pública.

Cualquiera puede decir una “palabra no permitida” por las plataformas. Cualquiera puede ser objeto de inspección si el algoritmo lo detecta. Los derechos a expresarse de los humanos hiperconectados parecen atascados entre un estímulo constante a publicar en redes sus vidas y la custodia disciplinaria de la inteligencia artificial.

(…)

Andrew Marantz recuerda en el libro Antisocial el optimismo en torno a las redes sociales al inicio de la década pasada y la “ósmosis cultural” que condujo las discusiones tempranas sobre la libertad de expresión en las plataformas digitales. La apuesta de sus creadores, dice Marantz, fue lanzar esos productos al mundo dando por sentadas las diferencias, desigualdades, aspiraciones y malestares individuales y colectivos, y corregir sobre la marcha lo que escapara de la autorregulación divina del internet.

Lo que difícilmente se podía advertir entonces era que el crecimiento exponencial de usuarios y el perfeccionamiento de un modelo de negocio que depreda la data privada y convierte las comunidades en objetivos de anuncios publicitarios, cambiarían por completo las reglas del juego.

El creciente poder editorial de las plataformas, y su facultad para vigilar y suspender usuarios o posteos, son el resultado de la evolución natural —aunque acelerada—del dominio de unos pocos sobre el espectro de las interacciones mundiales entre personas y datos. El algoritmo corporativo puede deformar a su gusto el espacio público digital y modelar los intereses de las audiencias. Puede, además, desmovilizar o reforzar ciertas agendas en servicio de intereses privados , como ha sucedido en procesos electorales recientes de impacto mundial.

De ahí que hayan pasado de tribunas a tribunales instantáneos que al mismo tiempo pueden acusar por incitar al odio, fomentar autolesiones o promover la desinformación. La pregunta clave es si los dueños de las plataformas deberían tener el poder para evaluar y corregir la voz de millones de personas. La otra pregunta clave es cuándo le dimos ese poder.

Las reglas de Twitter y YouTube son explícitas acerca del control sobre mensajes que inciten a la violencia, el terrorismo, la explotación sexual y el acoso. Facebook, con un esquema más retórico, reconoce en sus normas que puede permitir ciertos contenidos delicados tras una evaluación de su “riesgo de daño” y su interés periodístico.

En gran parte la presión unánime de la opinión pública es la que ha logrado que las plataformas estén más vigilantes de los discursos perjudiciales que circulan en sus canales. El problema está cuando esos criterios de moderación se aplican desde la discrecionalidad de un grupo sin otra contraloría que la corporativa y, tras definiciones vagas de qué puede y no puede decirse, queda en evidencia una especie de moral mediada por el capital. Cuando, por ejemplo, el algoritmo censura el seno de una mujer en lactancia materna pero deja abiertas cuentas de prostitución y pornografía hardcore.

Cuando suspenden la cuenta de una lingüista ayuujk por cuestionar la relación entre Estado y nación, pero fortalecen canales que venden contenido basura, rumores o fake news.

Como bien señala Jack Balkin en el libro La libertad de expresión: un ideal en disputa, el cambio tecnológico ha introducido una enorme contradicción social: la acumulación de utilidades por parte de las plataformas solo puede lograrse al clausurar el ejercicio de las formas de libertad y participación cultural que ellas mismas crearon. En la economía de la información, la libertad de expresarse es un derecho subordinado a la protección de los propietarios de la inversión. Por eso las redes sociales pueden ser masivas pero jamás públicas. Por eso las propuestas de regulación del Estado, que suponen esquemas de multas, controles institucionales y sanciones para limitar el poder supranacional de las plataformas, terminan siendo anacrónicas.

Todo apunta a un asunto que entra y sale de las pantallas: la confusión entre lo público, lo publicado y lo publicitado. Si la producción de contenidos y la reproducción de opiniones desdibujan el marco de las interacciones con lo público en nuestros días, la propia experiencia de usuario tendrá que darnos las pistas de una posible solución: cuándo somos ciudadanos digitales y cuándo solo somos usuarios de un entorno monetizado de expresión. Habría incluso que establecer criterios más conscientes de consumo y participación que nos ayuden, por una parte, a evitar el caos de millones de mensajes sin relevancia ni interacción y, por otra, a saltar el cerco algorítmico creado por las normas de una asamblea de accionistas.

Redacción
En Positivo

Leer más:

¿Por qué se comparten tantas noticias falsas?

La hora del periodismo constructivo

Clubhouse En Positivo, la primera mesa de redacción abierta en la nueva red social

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.
Privacidad