Skip to content
Resistencia, poder, representación y censura algorítmica digitales de las comunidades refugiadas
  • Amanda Wells
  • May 2024
Fotografía tomada en Calais CC por malachybrowne y publicada en flickr.com

Las comunidades refugiadas que tratan de emplear los medios digitales como mecanismo de resistencia hacen frente a obstáculos como la censura algorítmica y el acoso, lo que refuerza su marginalización política. Esto pone de manifiesto la necesidad de mayor transparencia, rendición de cuentas y democracia en la gobernanza digital.

Los problemas de las personas refugiadas y migrantes a menudo han sido objeto de acciones políticas digitales con diferentes grados de éxito. Las imágenes de Alan Kurdi, el niño sirio de dos años que se ahogó cruzando el Mediterráneo, desataron la empatía del gran público durante la «crisis de refugiados» de 2015 en Europa, después de que se difundieran con rapidez a través de las plataformas digitales de noticias y las redes sociales. Por contrapartida, el uso de las redes sociales para exponer las condiciones del centro de detención de refugiados en Nauru en 2015 derivó en la expulsión de organismos de vigilancia como Save the Children de las instalaciones.

Este artículo analiza la manera en la que las personas refugiadas utilizan las redes sociales para llamar la atención del público en la esfera digital por medio de producciones visuales como fotografías y vídeos. ¿Son las redes sociales una herramienta eficaz para la resistencia de las comunidades refugiadas? A partir de los estudios de caso de la resistencia visual encarnada por las comunidades refugiadas en Calais y Ámsterdam, el presente artículo demuestra que las tendencias actuales en la gobernanza digital relegan a estas comunidades aún más a los márgenes del ámbito público y limitan su capacidad para utilizar los medios digitales como herramienta política.

Poder y representación

El principal fuerte de las redes sociales es que ofrece a los grupos marginalizados la posibilidad de expresar sus propios movimientos políticos, en lugar a través del filtro de terceros, como el periodismo o los medios de comunicación.

El fácil acceso a teléfonos móviles y cuentas en redes sociales coloca el poder de representación literalmente en las manos de grupos por lo demás marginalizados, lo que les da libertad para llevar a cabo sus movimientos políticos como consideren oportuno. Este hecho es significativo en el caso de las personas refugiadas, ya que proporciona una alternativa a las narrativas tradicionales que las representan como sujetos apolíticos, pasivos y dependientes de actores influyentes. Desde un punto de vista puramente visual, la proliferación de imágenes de protestas refugiadas contrasta notablemente con la representación que suele hacerse de esta población en los medios de comunicación, que en vez de reflejar su agencia se centran en su vulnerabilidad y precariedad.

Las protestas de 2016 en el asentamiento refugiado informal en Calais, apodado «la Jungla»[i] son un ejemplo de la manera en la que las personas refugiadas pueden utilizar los medios digitales para presentarse como actores políticos fuera de las instituciones políticas. En febrero de 2016, ocho hombres que habían sido desalojados por la fuerza de sus viviendas improvisadas en la Jungla debido a una demolición planificada se cosieron los labios para llamar la atención sobre el movimiento de resistencia del campamento. La naturaleza pública del campamento, unida a la tecnología móvil de sus residentes y del personal de las ONG, resultó en una amplia variedad de producciones visuales a las que sigue siendo relativamente fácil acceder en Internet.

Los ocho manifestantes llevaban la cara tapada, capuchas y bufandas para subrayar el carácter colectivo de sus protestas. Sostenían pancartas denunciando las condiciones del campamento, interpelando en particular a su audiencia («los representantes de las Naciones Unidas», según una de ellas) y haciendo referencia a las obligaciones internacionales en materia de derechos humanos. De esta forma, los manifestantes demostraron una buena comprensión de la vertiente visual indispensable para su labor de oposición e intentaron influir en el curso que tomarían sus protestas en línea.

Pese a sus esfuerzos por influir en la representación mediática de sus acciones, los medios de comunicación y los fotógrafos manipularon de todas formas sus fotografías. En una fotografía profesional de gran difusión, se modificó el cartel que portaba uno de los manifestantes, que originalmente decía «A los representantes de las Naciones Unidas y de los derechos humanos: vengan y vean; somos humanos» para que simplemente rezara «Somos humanos». El fotógrafo tomó la decisión política de enmarcar la cuestión de esa forma y editar el mensaje de los manifestantes, lo que debilitó el impacto que perseguían los manifestantes e hizo que el autor participara de la coautoría de la narrativa sobre las protestas.

El ejemplo de los manifestantes de Calais que se cosieron los labios pone de manifiesto que, aunque los refugiados pueden utilizar las redes sociales para cambiar los discursos que los conciernen, en última instancia están sujetos a la interpretación y al criterio de otros actores. Incluso cuando los manifestantes pueden recurrir a los medios para sortear a terceros la imposibilidad de acceso a los espacios políticos públicos, siguen dependiendo en gran medida de agentes externos.

La censura algorítmica y el acoso digital

La censura en redes sociales puede realizarse mediante la eliminación directa de contenido o la falta de promoción de contenido no deseado, lo que limita su alcance y su difusión. Es poca la información pública sobre los parámetros y las condiciones por los que se rigen los algoritmos de las redes sociales pero, por lo general, se entiende que censuran o, como mínimo, limitan la visibilidad del contenido explícito y ofensivo. Esto incluiría las fotos de denunciantes que informan sobre las condiciones en los campamentos de refugiados o en los centros de detención, los relatos de primera mano sobre el genocidio y la guerra o las protestas centradas en el cuerpo, como el coserse los labios o la inmolación.

Poco se conoce sobre la manera en la que se entrena a los sistemas de aprendizaje automático para moderar los contenidos, pero es evidente que la censura algorítmica dista de ser sutil. En un artículo publicado en la revista Philosophy and Technology, Jennifer Cobbe afirma que «para alguien inexperto, puede parecer que los grupos marginalizados que se reapropian de un término abusivo son quienes están cometiendo el abuso», lo significa que se censura tanto el material subversivo con su objetivo último. Además, un estudio realizado por Koebler y Cox concluyó que, en general, los algoritmos son más eficaces a la hora de detectar y eliminar el contenido violento que los discursos de odio. Esto hace que prolifere el hostigamiento hacia los temas que atañen a las comunidades refugiadas, mientras que quienes los experimentan en primera persona quedan aún más excluidas.

Los algoritmos de censura se entrenan con conjuntos de datos que contienen sesgos y desigualdades preexistentes del mundo real. Esto implica que los modelos de moderación de contenido están mal dotados para dar cabida a minorías raciales y étnicas, a contenido en lenguas distintas al inglés y a posturas políticas no dominantes. Por consiguiente, estos contenidos pueden censurarse de manera ilegítima o se puede limitar su visibilidad.

En determinados casos, la censura y la exclusión sistémicas mediante algoritmos hacen que las poblaciones refugiadas hagan frente a un mayor acoso digital. En el caso de Kambiz Roustayi, un refugiado iraní que se inmoló en la plaza Dam, en Ámsterdam, en 2011, la censura de las imágenes gráficas de su protesta hizo que los únicos registros públicos de lo ocurrido solo puedan encontrarse en su mayoría en sitios web y blogs extremistas. El único lugar en el que se han podido encontrar muestras visuales de este suceso fue un pequeño sitio web llamado Documenting Reality, donde las imágenes recibieron crueles comentarios. «Todos podemos donar algo por una buena causa y ayudar a personas como este hombre. Yo voy a enviarle un bidón de gasolina«, decía uno de los comentarios. «¡Dios mío! ¿Y la gente de verdad ha ayudado después de esto?», preguntaba otro usuario.

Kambiz Roustayi ya solo existe en el recuerdo público por el «olor» de su muerte, por ser un «psicópata» y por ser «una manera espantosa de empezar el día». Este caso ilustra que, cuando las imágenes gráficas de la resistencia refugiada son relegadas a los márgenes políticos debido a la censura, quienes protestan quedan expuestos a una mayor violencia discursiva.

Karin Andriollo dice lo siguiente sobre la «ética de la atención»: «deberíamos responder a esos sacrificios públicos como si, de mirar hacia otro lado, las personas que se suicidan en señal de protesta murieran dos veces: una por sus propias manos y otra a manos del silencio de nuestro imaginario».

La memoria es poderosa y las redes sociales pueden ser una forma eficaz de ampliar la hemeroteca pública para incluir a quienes han pasado sus vidas en una situación de marginalización. Sin embargo, el caso de Kambiz Roustayi demuestra que la creciente censura automática, pese a que pretenda reducir el acoso, puede llegar a intensificarlo. Esto, a su vez, reduce la potencial utilidad de las redes sociales para la protesta política o para una ética radical e inclusiva de la representación pública. En su lugar, da cabida a una mayor opresión de las comunidades refugiadas y migrantes. De este modo, la censura algorítmica propicia unas circunstancias que permiten que el ciclo de violencia física y dialéctica contra las personas refugiadas se perpetúe.

¿Qué se necesita?

En este artículo se ha defendido la idea de que las redes sociales pueden ser útiles en la resistencia de las comunidades refugiadas, pero que la censura algorítmica limita su potencial, al priorizar los contenidos de creadores privilegiados y eliminar el contenido explícito sobre la resistencia refugiada.

A la luz de las problemáticas cada vez más complejas en torno a la moderación de los contenidos, como la propaganda generada por inteligencia artificial y los deepfakes, las plataformas digitales deben ser transparentes sobre sus modelos de censura algorítmica. La opacidad de la toma de decisiones por medio de algoritmos supone una amenaza para la elección colectiva de definir nuestra memoria y nuestra atención pública. Quienes utilizamos, trabajamos y legislamos sobre lo digital, debemos abogar por una mayor rendición de cuentas, democracia y transparencia en la gobernanza digital.

Amanda Wells
Investigadora independiente
amanda.morgan.wells@gmail.com

LEER EL NÚMERO COMPLETO

[i] El apodo «la Jungla» ha sido objeto de críticas justificadas por su intento de estigmatizar a los residentes del campamento y de retratarlos como bárbaros y peligrosos. En este escrito, se utiliza el nombre «la Jungla» en aras de la claridad y en referencia a un periodo y a una organización del campamento específicos dentro de la larga historia de asentamientos de migrantes en la zona.

DONATE DONATE
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.