Skip to content
Résistance numérique des réfugiés, pouvoir, représentation et censure algorithmique
  • Amanda Wells
  • May 2024
Photo de Calais CC, avec l’aimable autorisation de malachybrowne sur flickr.com

Les réfugiés qui tentent d’utiliser les médias numériques à des fins de résistance rencontrent un certain nombre d’obstacles, notamment la censure algorithmique et le harcèlement, ce qui consolide leur position aux marges de la politique. Cette situation illustre le besoin d’une plus grande transparence, d’une meilleure responsabilisation et d’un renforcement de la démocratie dans la gouvernance numérique.

Les questions relatives aux réfugiés et aux migrants sont souvent mêlées à l’action politique en ligne, avec des résultats variés. On attribue aux photos d’Alan Kurdi, un réfugié syrien de deux ans qui s’est noyé lors de la traversée de la Méditerranée, la vague de compassion du public lors de la crise des réfugiés de 2015 en Europe, suite à leur diffusion rapide sur les médias en ligne. À l’inverse, l’utilisation des réseaux sociaux pour révéler les conditions du centre de détention des réfugiés à Nauru en 2015 ont entraîné l’expulsion d’organismes de contrôle, comme Save the Children.

Dans cet article, j’examinerai comment les réseaux sociaux sont utilisés par les réfugiés cherchant à attirer l’attention du grand public à travers des visuels publiés dans les médias numériques, comme des photos ou des vidéos. Les réseaux sociaux sont-ils un outil efficace pour la résistance des réfugiés ? En m’appuyant sur des études de cas de résistance visuelle des réfugiés à Calais et Amsterdam, je démontrerai que les tendances actuelles en matière de gouvernance numérique poussent encore davantage les réfugiés aux marges de la vie publique et réduisent leur capacité à transformer les médias numériques en outil politique.

Pouvoir et représentation

Les réseaux sociaux ont un pouvoir spécifique : ils offrent la possibilité aux groupes marginalisés de médiatiser leurs mouvements politiques eux-mêmes, plutôt qu’à travers le prisme de tiers, tels que les journalistes et les médias. L’accessibilité des téléphones mobiles et des réseaux sociaux place littéralement le pouvoir de représentation entre les mains des groupes marginalisés par ailleurs. Ainsi, ils sont libres de mener leur propre action politique comme ils l’entendent. Dans le cas des réfugiés, cela a son importance, car ces outils sont une alternative aux récits traditionnels qui dépeignent les réfugiés comme des sujets apolitiques et passifs, dépendants d’acteurs influents. D’un point de vue purement visuel, la prolifération d’images représentant des réfugiés dans des manifestations marque un contraste saisissant avec les photos de réfugiés dans les médias, qui échouent souvent à montrer la capacité d’action des réfugiés et soulignent plutôt leur vulnérabilité et leur précarité.

Les manifestations de 2016 dans le camp de réfugiés informel de Calais, surnommé « la Jungle »,i sont un parfait exemple de la façon dont les réfugiés peuvent utiliser les réseaux sociaux pour se positionner eux-mêmes en acteurs politiques en dehors des forums politiques institutionnalisés. En février 2016, huit hommes qui avaient été expulsés de force de leur logement de fortune dans la Jungle dans le cadre d’une opération de démantèlement planifiée ont entrepris de se coudre les lèvres pour attirer l’attention sur le mouvement de résistance du camp. La proximité du camp avec le public, associée aux technologies mobiles des résidents du camp et du personnel des ONG, ont permis d’obtenir de nombreux visuels qui sont toujours plus ou moins disponibles en ligne.

Les huit manifestants avaient revêtu des masques, des capuches et des écharpes pour accentuer la nature collective de leur contestation. Ils brandissaient des pancartes sur les conditions de vie dans le camp qui interpellaient directement leur audience (l’une des pancartes indiquait « Représentants des Nations Unies ») et rappelaient les obligations internationales en matière de droits humains. Ainsi, les manifestants ont démontré leur compréhension de l’aspect visuel, essentiel à leur mouvement de résistance, et ont tenté de modeler eux-mêmes le récit de leur contestation en ligne.

Malgré les efforts actifs des manifestants pour façonner le récit médiatique de leurs actions, les photos ont été retouchées par les médias et les photographes. Une photo professionnelle largement diffusée modifiait la pancarte de l’un des manifestants, qui indiquait à l’origine « Représentants des Nations Unis et des droits humains, venez et soyez témoins : nous sommes des êtres humains », transformant le message en un simple « Nous sommes des êtres humains ». Le photographe a pris la décision hautement politique de cadrer son sujet de la sorte et d’altérer le message des manifestants, le vidant de sa substance. Ce faisant, il participait d’un processus d’auto-censure sur la constitution de ces manifestations.

L’exemple des manifestants aux lèvres cousues à Calais montre que, même si les réfugiés peuvent utiliser les réseaux sociaux pour transformer le récit à leur sujet, ils restent soumis à l’interprétation et à la cooptation d’autres acteurs. Même lorsque les manifestants sont en mesure d’utiliser les médias numériques pour contourner les tiers ou un manque d’accès aux espaces politiques publics, ils restent à la merci de forces extérieures.

Censure algorithmique et harcèlement numérique

La censure sur les réseaux sociaux peut se traduire par la suppression littérale de contenus ou la sous-promotion de contenus indésirables, limitant ainsi leur audience et leur portée. Le grand public manque d’informations sur les paramètres et les conditions de fonctionnement des algorithmes des réseaux sociaux. Nous savons toutefois qu’ils appliquent une forme de censure ou, a minima, qu’ils entravent la promotion de contenus explicites et offensants. Ceci englobe les photos de dénonciation qui font état des conditions de vie dans les camps de réfugiés et les centres de détention, les témoignages d’actes de génocide et de guerre, et les actions de contestation centrées sur le corps, comme le fait de se coudre les lèvres ou de s’immoler.

On en sait peu sur la formation des systèmes d’apprentissage automatique en matière de modération du contenu. Toutefois, il est clair que la censure algorithmique ne fait pas dans la nuance. Dans un article paru dans Philosophy and Technology HYPERLINK “https://link.springer.com/article/10.1007/s13347-020-00429-0″Jeniffer Cobbe écrit que « les groupes marginalisés dénonçant des termes injurieux peuvent sembler utiliser eux-mêmes ces termes pour les non-initiés ». C’est ainsi que des contenus subversifs se retrouvent censurés au même titre que leur cible. En outre, selon une étude de HYPERLINK “https://link.springer.com/article/10.1007/s13347-020-00429-0” \l “ref-CR70″Koebler et Cox, les algorithmes sont généralement plus efficaces pour détecter et supprimer les contenus violents plutôt que les propos haineux. Ceci facilite la prolifération du harcèlement autour des questions relatives aux réfugiés, tandis que les voix des premiers concernés se retrouvent encore plus exclues.

La formation de la censure algorithmique est effectuée sur des ensembles de données, en utilisant des biais et inégalités préexistants basés sur des mots réels. Cela signifie que les modèles de modération du contenu ne sont pas armés pour gérer les minorités ethniques, les contenus non anglophones et les opinions politiques hors des idées dominantes. Par conséquent, ces contenus peuvent être censurés de manière illégitime ou privés de promotion.

Dans certains cas, la censure algorithmique et l’exclusion systémiques rendent les réfugiés encore plus vulnérables au harcèlement en ligne. Citons l’exemple de Kambiz Roustayi, un réfugié iranien qui s’est immolé sur la place du Dam à Amsterdam en 2011. À cause de la censure des images explicites de l’événement, les seules archives publiques sur le sujet n’existent plus désormais que sur les sites et les blogs extrémistes. Le seul endroit où j’ai trouvé des preuves visuelles de ce drame est un petit site Internet appelé « Documenting Reality », où les images sont accompagnées de commentaires cruels. L’un des commentaires disait : « Nous pouvons tous donner quelque chose pour une bonne cause et aider des gens comme cet homme. Je me charge d’envoyer quelques litres d’essence. » Un autre abondait : « Mon Dieu ! Et il y a des gens qui l’ont aidé ? ».

Désormais, Kambiz Roustayi n’existe dans la mémoire collective que pour « l’odeur » de sa mort, ou parce qu’il était un « psychopathe » ou « le début d’une mauvaise journée ». Ceci illustre comment, lorsque des images explicites d’actes de résistance de réfugiés sont repoussées aux marges du spectre politique à cause de la censure, elles sont ensuite soumises à d’autres discours violents.

Karin Andriollo a écrit sur l’éthique de l’attention : « si nous répondons au sacrifice public en détournant le regard, les personnes qui commettent un suicide en protestation sont tuées deux fois, une fois de leurs propres mains et une fois par le silence de nos imaginations ».

La mémoire est un outil puissant et les réseaux sociaux peuvent être un moyen efficace d’étendre les archives publiques, de façon à inclure celles et ceux qui ont été marginalisés toute leur vie. Cependant, le cas de Kambiz Roustayi montre que le développement de la censure automatique, même dans l’intention d’affaiblir le harcèlement, peut en fait entraîner sa prolifération. En retour, cette posture réduit l’utilité potentielle des réseaux sociaux dans la contestation politique et limite l’application d’une éthique radicale et inclusive de l’attention. Au lieu de cela, elle livre les réfugiés et les migrants à toujours plus d’oppression. Ainsi, la censure algorithmique crée les circonstances qui permettent la perpétuation du cycle de la violence physique et verbale contre les réfugiés.

Définition des besoins

J’ai défendu ici l’idée selon laquelle les réseaux sociaux pouvaient être utiles à la résistance des réfugiés, mais que la censure algorithmique affaiblissait ce potentiel, à la fois en donnant la priorité au contenu de créateurs privilégiés et en supprimant tout contenu explicite de résistants réfugiés.

À la lumière des questions de plus en plus complexes de modération du contenu, telles que la propagande générée par l’IA et les deepfakes, les plateformes numériques doivent être transparentes sur les conditions de la censure algorithmique. Un processus de prise de décision algorithmique opaque constitue une menace pour le choix collectif de la façon dont nous définissons notre attention et notre mémoire publiques. En tant qu’utilisateurs, professionnels du numérique et législateurs, nous devons plaider pour une plus grande responsabilisation, davantage de démocratie et une meilleure transparence dans la gouvernance numérique.

Amanda Wells
Chercheuse indépendante
amanda.morgan.wells@gmail.com

READ THE FULL ISSUE

iLe nom de « Jungle » est critiqué par de nombreuses personnes, à juste titre, pour sa propension à stigmatiser les résidents du camp et à les dépeindre comme des barbares dangereux. J’utilise ici ce nom pour plus de clarté, car « la Jungle » renvoie à une période et à une structure spécifiques dans la longue histoire des installations de migrants dans cette région.

DONATESUBSCRIBE