La censure sur Internet : Diagnostic d'une menace mondiale
Le Dr Navid Yousefian analyse qui est à l'origine des mesures de censure mondiale, et quels sont leurs objectifs : la première partie

Partager
Nym est fier de présenter ses dernières recherches sur l'état de la censure mondiale. Le rapport détaillé intitulé « Censualité sans frontières : Déconstruire le mythe de l'Ouest contre l'Est » sera publié en deux parties. Lisez le rapport complet ici.
Dans les premiers jours de l'Internet, de nombreux chercheurs et décideurs politiques pensaient que les réseaux numériques feraient disparaître les frontières et faciliteraient la libre circulation des informations au niveau mondial. en fin de compte amoindrir le pouvoir de la censure de l’État et de la démocratisation de l’information. Les penseurs Cyberlibertaires imaginaient le web comme un royaume sans frontières où l'information transcende les frontières nationales et les contraintes autoritaires. Par contre, les perspectives cyber-paternalistes et -réalistes prévoyaient que les États et les puissants intérêts privés trouveraient des moyens de contrôler et de manipuler ce médium, comme ils l'avaient fait avec les médias traditionnels de la presse écrite et de la radiodiffusion. Au cours des trois dernières décennies, l'expérience a confirmé ce dernier point de vue : la censure en ligne a non seulement persisté, mais a évolué, adopter de nouvelles formes et de nouveaux outils qui diffèrent considérablement des méthodes traditionnelles hors ligne.
La censure traditionnelle impliquait souvent des examens préalables à la publication, des interdictions de livres, des fermetures de journaux, des intimidations physiques ou la confiscation de la presse. La censure numérique d’aujourd’hui s’étend bien au-delà de ces tactiques ouvertes et localisées. Il tire parti des caractéristiques uniques de l’internet – sa vitesse, son échelle, sa portée mondiale et ses mécanismes de tri algorithmique – pour appliquer le contrôle de l’information. Les acteurs des États peuvent maintenant utiliser des systèmes centralisés de « coupe-feu » et de filtrage technique pour bloquer des pans entiers du réseau mondial, comme on le voit dans des modèles comme [le “Grand Pare-feu” de la Chine] (/blog/what-is-great-firewall-of-china) et, plus récemment, les mesures de souveraineté de la Russie. Les acteurs non étatiques, des groupes extrémistes aux lobbyistes d'entreprises, peuvent exercer des formes d'influence plus subtiles, façonner ce que les utilisateurs voient à travers des tactiques comme des campagnes de désinformation orchestrées ou des pressions silencieuses sur des plates-formes pour déclasser des sujets spécifiques.
Par exemple, entre 2012 et 2019, les autorités russes [ont bloqué plus de 4. Des millions de ressources Internet] (https://digitalcommons.bowdoin.edu/cgi/viewcontent.cgi?article=1170&context=honorsprojects) sans mandat et démontrant à quel point un état peut facilement façonner l'accès numérique. De même, [l’interdiction de la Turquie de 2017 sur Wikipédia] (https://www.theguardian.com/world/2017/apr/29/turkey-blocks-wikipedia-under-law-designed-to-protect-national-security) a forcé les utilisateurs qui recherchent des informations de base à affronter soudainement, des barrières légalement appliquées, soulignant comment des domaines de la connaissance entiers peuvent être soudainement fermés.
Ces dernières années, étant donné que les États autoritaires ont affiné leurs livres de musique censurés, ces méthodes ont commencé à se diffuser au niveau international. La censure contemporaine ne repose plus uniquement sur la force brutale, comme les arrestations de masse ou les fermetures de journaux en gros, elle émerge aussi par des infrastructures de surveillance élaborées et des ajustements algorithmiques subtiles. Par exemple, des équipements de surveillance provenant d'entreprises chinoises telles que Hikvision et Huawei apparaissent aujourd'hui dans des dizaines de pays dans le monde, tandis que la technologie compatible SORM de la Russie se propage discrètement entre les anciens États soviétiques et au-delà. Cette dispersion globale des techniques de contrôle de l'information, allant du blocage basé sur des mots clés au classement stratégique des voix dissidentes, montre que la frontière de la censure est devenue non seulement transnationale, mais aussi profondément ancrée dans les économies politiques d’exportation et d’influence technologiques.
Pourtant, ce récit néglige le fait que les démocraties occidentales s’engagent également dans des efforts visant à réguler la désinformation et à améliorer la responsabilisation des plates-formes, crucial pour lutter contre les préjudices aux processus démocratiques et aux groupes marginalisés. Cependant, ces initiatives soulèvent des questions sur les impacts involontaires sur la liberté d’expression, mettant en cause la simple dichotomie entre un « Occident libre» et un « Orient autoritaire». Comme le montrent les récents débats sur l'interdiction de TikTok aux États-Unis, la conformité et l'accès aux données des utilisateurs ne sont pas exclusivement des préoccupations de l'Est. Les États occidentaux tirent également profit des arguments économiques et de sécurité pour influencer le comportement des plates-formes et restreindre potentiellement la liberté d'expression en ligne.
Dans les démocraties occidentales, les mécanismes de censure ont évolué pour devenir plus implicites et plus technologiques. La loi allemande NetzDG (https://www.hrw.org/news/2018/02/14/germany-flawed-social-media-law), introduite en 2018, illustre ce changement. Conçue pour lutter contre le discours haineux et le contenu illégal des médias sociaux, NetzDG impose des délais stricts pour le retrait du contenu et des amendes élevées en cas de non-conformité. Bien que destiné à protéger les utilisateurs contre les contenus préjudiciables, les critiques soutiennent qu’il encourage la suppression excessive et étouffe la liberté d’expression légitime, en particulier des voix minoritaires ou dissidentes.

Un index simplifié surplombant les complexités de la censure douce
La manipulation algorithmique – comme les interdictions d’ombre, les aliments conservés et le déclassement des contenus – est devenue une forme clé de censure dans les sociétés démocratiques. Bien que encadrées en tant que « contrôle de qualité » ou « optimisation de l'expérience utilisateur », ces interventions secrètes peuvent systématiquement marginaliser les voix dissidentes et le contenu critique. surtout lorsque le gouvernement est guidé par les « demandes » ou les signaux de politique des organismes de réglementation. De plus, le manque de transparence dans la modération algorithmique signifie que les citoyens des démocraties libérales ne savent peut-être jamais que leur discours a été étouffé ou que leurs postes ont été enterrés, créer efficacement des hiérarchies de parole cachées qui reproduisent silencieusement le contrôle du style autoritaire.
Evolution de la nature de la censure à l'ère numérique
Contrairement à la censure traditionnelle, qui pourrait être brutale et facilement identifiable, la censure en ligne peut être opaque et insaisissable. La structure globalisée de l'internet permet des interventions diverses et par couches :
- La censure technique implique une interférence directe avec l'infrastructure sous-jacente. Cela inclut le blocage DNS, le filtrage IP, et l'utilisation de Deep Packet Inspection (DPI) pour identifier et stopper le trafic associé à des contenus politiquement ou culturellement sensibles. Alors que la censure classique impliquait de saisir physiquement une course à la presse écrite, les régimes actuels peuvent « tirer une bougie virtuelle» ou ralentir le trafic vers certaines régions, comme observé dans les incidents où la Russie, la Chine ou l'Iran ont suspendu régionalement le service de données mobiles pour réprimer les troubles.
- Contrôles algorithmiques et de niveau de la plateforme : Entreprises privées exécutant des plates-formes de réseaux sociaux, moteurs de recherche, et les magasins d'applications déploient des politiques de modération qui déterminent ce qui est visible, tendance ou "recommandé". Parfois, c'est volontaire, comme pour les « directives communautaires » de l'entreprise qui reflètent les valeurs de l'entreprise et les stratégies de protection de la marque. Autres fois, elle résulte de la pression de l’Etat – par exemple en exigeant que les entreprises de technologie étrangère se conforment aux lois locales sur ce qui peut ou ne peut pas être posté – ou des incitations subtiles au marché qui favorisent certains points de vue. Par exemple, le modèle russe repose sur une combinaison de mandats légaux et de pressions extralégales sur les FSI et les plates-formes. De même, le cas chinois montre des plateformes employant des armées de “superviseurs de contenu” ou “50 cents party” commentateurs pour façonner le discours en accord avec les préférences de l'état. Dans les contextes occidentaux, les interférences algorithmiques fonctionnent souvent de manière plus implicite. Par exemple, La décision de Facebook de [déprioriser le contenu politique] (https://about.fb.com/news/2021/02/reducing-political-content-in-news-feed/) dans son flux d'actualités en 2021 a réduit la visibilité des campagnes activistes et des médias indépendants, soulevant des préoccupations quant à la capacité de la plateforme à façonner discrètement le discours public sous le couvert de la modération du contenu.
- Auto-censure et influence comportementale : Contrairement aux anciens systèmes où le silence du citoyen pourrait être forcé par la menace tangible de l'arrestation ou de la violence. dans l'ère numérique, les utilisateurs peuvent se censurer volontairement en raison de l'effet effrayant de la surveillance omniprésente, des exigences d'enregistrement d'identité ou de l'incertitude de modération de la plate-forme. L'ampleur du discours de haine, de fausses nouvelles, ou les lois « extrémistes» de la parole – telles que les dispositions légales de la Russie sur les « matières extrémistes» ou les directives ambiguës mais strictement appliquées de la Chine sur le contenu subversif – créent un environnement où les utilisateurs internalisent les restrictions. De même, dans les contextes occidentaux, la crainte d'être banni de l'ombre ou d'avoir un algorithme de contenu dépriorisé pour le partage du flux non intégré, les voix critiques ou politiques peuvent dissuader les utilisateurs de s'engager dans des discussions ouvertes. Cette forme implicite de censure conduit les individus à s'autoréguler, en évitant les sujets controversés pour maintenir leur visibilité et leur portée, reflétant efficacement les effets répressifs observés dans les régimes plus ouvertement autoritaires.
Au cours de la dernière décennie, la connectivité mondiale croissante s’est paradoxalement accompagnée de tactiques de censure plus sophistiquées. Les gouvernements réclament des justifications de sécurité nationale et d'intégrité culturelle pour étendre leur boîte à outils, alors que les plates-formes privées plaident pour la modération du contenu comme moyen de lutter contre la désinformation ou le discours de haine. Il en résulte un environnement hautement complexe où de multiples acteurs – États, entreprises, groupes de la société civile – pousser et tirer sur les limites du discours permis.
L'étude de la censure en ligne en ce moment est cruciale pour plusieurs raisons. Premièrement, la convergence croissante des technologies de communication numérique avec tous les aspects de la vie sociale, économique et politique amplifie l'impact des contrôles de l'information. Deuxièmement, alors que les démocraties sont confrontées aux défis de la désinformation et du contenu extrémiste, les limites entre la modération légitime et la subtile censure brouillent, rendant impératif de comprendre la nuance de ces interventions. Troisièmement, étant donné que les régimes autoritaires en réseau perfectionnent leurs techniques – parfois en les exportant ou en inspirant des contrôles similaires dans d’autres États – la compréhension de ces méthodes devient essentielle pour préserver un environnement mondial ouvert de l’information.
Le cadre analytique élaboré dans ce rapport considérera la censure comme un continuum. D’une manière ou d’une autre se trouve la « censure dure », illustrée par des pannes totales, des sites Web interdits et la responsabilité pénale pour l’accès aux connaissances interdites. D’un autre côté, la « censure douce » inclut le classement algorithmique descendant de certains sujets, interdire les activistes et retirer silencieusement les applications des magasins à la demande du gouvernement. Entre ces pôles se trouvent des formes hybrides : un contenu marqué comme « extrémiste » et placé sur des listes noires publiques, la localisation forcée des données qui encourage le respect par les entreprises des lois locales de censure et les politiques de plateforme qui sont continuellement ajustées en réponse aux pressions politiques et aux incitations du marché.
Le concept de censure à l'ère numérique ne peut être séparé de ses racines historiques. La transition de l'analogique au numérique n'a pas effacé les stratégies antérieures; elle les a transformées, rendant la censure moins chère, plus souple et plus facilement dissimulée. Les premières bourses en matière de gouvernance de l’internet ont noté que les efforts comme le « Bouclier doré » chinois (Grand pare-feu) serviraient de précédents mondiaux. Des bourses d'études ultérieures – sur les lois russes sur l'internet, les tentatives de l'Europe pour contrer les « fausses nouvelles» et les États-Unis. débats sur la responsabilité des plates-formes – a montré que les états et les entreprises adaptent les modes d’influence précédents dans le domaine numérique pour des raisons de sécurité et d’intérêts géopolitiques. Ainsi, des définitions évolutives reconnaissent que, même si la censure exigeait autrefois une action lourde et intensive en ressources, les méthodes actuelles exploitent la curation algorithmique, les politiques de plate-forme et les normes sociales pour atteindre des fins similaires avec moins de visibilité. Alors que beaucoup de bourses se concentrent sur les appareils de censure explicites dans des endroits comme la Chine et la Russie, les États occidentaux se fient de plus en plus aux outils de censure « douces» y compris les algorithmes qui rétrogradent certains contenus et les lois de désinformation qui incitent les plates-formes à supprimer les bordures, en limitant efficacement la portée de la parole autorisée sans laisser de traces légales ouvertes.
Les moteurs de la censure en ligne
Motivations politiques
Au cœur de nombreux régimes de censure se trouvent des agendas politiques distincts. Les gouvernements autoritaires tirent parti de la censure en ligne pour maintenir le pouvoir, étouffer les dissidents et façonner la perception du public. En Chine, le vaste pare-feu de l’État de parti, couplé à une combinaison d’ouvertures (blocage de sites Web, filtrage de mots-clés) et subtils (algorithmes qui rétrogradent le contenu politiquement sensible) illustrent une approche descendante pour contrôler le récit. La Russie, évoluant plus récemment vers un modèle d'autoritarisme numérique, emploie un mélange de mandats législatifs, d'accords public-privé avec les FAI, et la cooptation des grandes plates-formes pour atteindre des buts similaires – empêcher les efforts de mobilisation comme la place Bolotnaya proteste et dissuader les critiques de la direction politique. Un autoritarisme numérique de plus en plus affirmé est sorti des lois qui poursuivent des centaines de personnes pour des messages en ligne « extrémistes ». [604 accusations] (https://digitalcommons.bowdoin.edu/cgi/viewcontent.cgi?article=1170&context=honorsprojects) ont été portées entre 2011 et 2017 en vertu des articles 280 et 282, servant de base juridique à une large censure.
Ces cas ne se limitent pas à un seul axe autoritaire. Certains érudits mettent en évidence des formes plus subtiles de censure politique dans des contextes soi-disant démocratiques. Les démocraties occidentales et les États de transition utilisent souvent des politiques de modération de contenu pour lutter contre la désinformation étrangère ou le matériel extrémiste, ce qui soulève des questions sur la transparence et le respect des procédures. Bien que ces mesures puissent être justifiées par des préoccupations de sécurité nationale ou de sécurité publique, elles peuvent également tomber dans la répression politiquement opportuniste de certains points de vue. Cette tension fait écho à scholarship qui discute des institutions mondiales de gouvernance d'Internet. montrer que la politique intérieure façonne la manière dont les États réagissent aux menaces numériques perçues. Par exemple, une ingérence électorale – sous la forme d’un blocage de certaines sources d’information ou d’une manipulation de la circulation des contenus – se produit dans les régimes autoritaires et semi-concurrentiels, confirmant ainsi que les motivations politiques de la censure transcendent les catégories claires.
Le cadre de censure en ligne de l’Iran offre un autre objectif permettant de comprendre les moteurs politiques. Tout comme la Chine et la Russie, l’Iran surveille et restreint le contenu à des fins de sécurité nationale et de stabilité du régime. L’approche de l’État consiste à bloquer les plates-formes étrangères, à imposer des contrôles stricts sur les applications de messagerie et à développer un intranet national sanctionné par l’État. Bien que les motivations de l’Iran se chevauchent avec celles d’autres États autoritaires – empêcher la coordination en ligne des manifestations et la répression des voix dissidentes – son paradigme de censure est également influencé par des facteurs religieux et culturels qui amplifient le calcul politique.
Au fur et à mesure que ces agendas politiques s’échelonnent, nous observons des gouvernements comme Egypt ou Tanzania, inspirée du coupe-feu sophistiqué de la Chine et du cadre législatif de la Russie, en adoptant des réglementations et des technologies parallèles. Par exemple, l’initiative chinoise Belt and Road sert de conduit stratégique, permettant à Pékin d’exporter le savoir-faire et le kit de surveillance de la censure – des systèmes de reconnaissance faciale, Les outils de gestion du trafic et les mandats de localisation des données par les AI sont directement attribués aux États désireux de reproduire des aspects de son modèle. De même, la portée de la Russie à travers le Commonwealth des États indépendants garantit que les lois de surveillance et d'interception basées sur le SORM sont reflétées dans des pays tels que le Belarus, Kazakhstan, et Ouzbékistan](https://www.europarl.europa.eu/meetdocs/2009_2014/documents/libe/dv/soldatov_presentation_/soldatov_presentation_en.pdf). Cette réplique transnationale confirme que les régimes de censure voyagent souvent aux côtés des partenariats économiques et des liens diplomatiques, transformer l’influence politique en un projet de contrôle de l’information au-delà des frontières d’une seule nation.
Dans les démocraties occidentales, les motivations politiques de la censure peuvent se cacher dans des stratégies de lutte contre la désinformation. Les lois ciblant les « fausses nouvelles» ou la « propagande terroriste» risquent de créer un environnement où les élites politiques et les acteurs bien connectés peuvent façonner des politiques de plateformes et pousser des plates-formes pour supprimer des contenus qui sont politiquement gênants ou difficiles pour les intérêts dominants. Cette forme subtile de pilotage du contenu en Occident n’est pas moins politique que les tactiques de blocage plus explicites observées dans les États autoritaires. Elle opère simplement sous le couvert de la légalité et de la conformité des entreprises, ce qui complique l'hypothèse que les sociétés ouvertes maintiennent par nature des espaces numériques vraiment libres.
Facteurs culturels, religieux et sociaux
Les normes culturelles et religieuses interagissent souvent avec les priorités politiques pour renforcer la censure. Les restrictions imposées par la Chine au contenu religieux ou ethnique – telles que les informations relatives au [Falun Gong ou aux groupes minoritaires] (https://www.ohchr.org/en/press-releases/2021/06/china-un-human-rights-experts-alarmed-organ-harvesting-allegations). Les dispositions légales de la Russie contre les « croyants religieux offensants» démontrent également que la ligne entre les valeurs culturelles et l’application politique est mince. Les contenus considérés comme « extrémistes » peuvent comprendre des satires religieuses, des réinterprétations historiques ou des commentaires sur les dirigeants politiques qui s’alignent sur la foi nationale.
L’Iran est un exemple frappant de la manière dont la doctrine religieuse peut étayer la censure numérique. Le statut de la République islamique du pays informe son approche des restrictions en ligne : le contenu jugé contraire aux normes morales islamiques ou menaçant l’autorité religieuse est systématiquement éliminé. Ici, la préservation culturelle, la légitimité religieuse et l'identité nationale sont étroitement liées. Le blocage de sites web qui promeuvent des valeurs “non-islamiques” ou la suppression de contenu qui contredit les sentiments religieux mélange la culture avec le politique, veiller à ce que la censure ne se limite pas au contrôle du haut vers le bas, mais résonne également avec certains segments des attentes morales de la population. Le gouvernement a à plusieurs reprises bloqué des applications de messagerie comme Telegram et WhatsApp, invoquant des orientations morales et religieuses pour justifier le silence du contenu politiquement sensible, fusionnant les normes culturelles et les impératifs politiques. Ces applications, y compris Facebook, Instagram, X et YouTube, ont été complètement bloquées ces dernières années et ne sont accessibles que par VPN. Ironiquement, des millions d'Iraniens continuent à utiliser ces plateformes via des VPN, dont la plupart seraient vendus ou tacitement autorisés par le gouvernement. soulever des questions au sujet des éventuelles collaborations en coulisses ou des intérêts mutuels dans le maintien d'un accès partiel.
Le mélange des impératifs culturels et religieux et de la censure d'État ne se limite pas à une seule région. Le « [Réseau national de l’information] (https://link.springer.com/article/10.1007/s44206-024-00146-7)» de l’Iran s’est par exemple matérialisé en partie en consultant la Chine, aligner les principes islamiques sur une sphère d’information étroitement gérée sur le modèle chinois. Dans des contextes plus laïques, comme certaines parties de l’Amérique latine, les valeurs culturelles pourraient se manifester par des récits légitimant la surveillance sous couvert de sécurité publique. Ici, des solutions « ville sûre» fournies par les Chinois sont installées pour surveiller les foules, identifier les comportements « indisciplinés» et donc appliquer discrètement les normes, suggérant que là où les lois religieuses universelles sont absentes, des cadres culturels ou moraux partagés peuvent encore déterminer quel contenu doit disparaître ou être découragé.
Au-delà de ces contextes explicitement autoritaires, les pressions culturelles et sociales peuvent également se manifester dans des sociétés plus ouvertes. Les plates-formes de médias sociaux elles-mêmes, encouragées par les rapports d'utilisateurs ou les réactions révoltantes des médias, peuvent supprimer le contenu considéré comme haineux ou offensant. Même si cette modération peut être bien intentionnée, elle soulève également des questions sur les préjugés culturels intégrés dans les décisions algorithmiques et les directives sur les réviseurs de contenu.
Influences économiques et corporatives
Les moteurs économiques jouent également un rôle crucial dans la mise en place de la censure en ligne. Le capitalisme de surveillance, où les entreprises monétisent les données des utilisateurs, permet des formes subtiles de censure en adaptant les recommandations de contenu qui maximisent l'engagement et les revenus publicitaires, souvent aux dépens de points de vue divers ou dissidents. De nombreux chercheurs soulignent l'interaction entre les acteurs des entreprises et la réglementation de l'État : les entreprises technologiques se conforment souvent aux lois locales de censure pour maintenir l'accès au marché. En Chine, des entreprises nationales comme Tencent, Baidu et Alibaba ont longtemps internalisé la censure dans le cadre de leur environnement opérationnel. Des entreprises internationales telles que Google ou Facebook ont parfois envisagé des compromis – la localisation de données, le respect des droits de propriété – pour entrer sur des marchés lucratifs. LinkedIn a initialement respecté les règles chinoises en censurant les profils, y compris ceux des journalistes occidentaux, en 2021 ; cependant, des défis réglementaires croissants et des possibilités opérationnelles limitées ont conduit la plate-forme à [quitter complètement le marché chinois d'ici août 2023] (https://techwireasia.com/2023/05/after-a-long-struggle-linkedin-gives-up-on-china), suite à la [fermeture de ses fonctionnalités de réseautage social en 2021] (https://www.businessinsider.com/linkedin-blocks-profiles-reporters-researchers-in-china-over-prohibited-content-2021-9) et à l'arrêt éventuel de son application axée sur le travail, InCareer.
Les récentes pressions de la Russie en faveur des lois sur la localisation des données et du blocage des plates-formes qui refusent la conformité soulignent également que les incitations économiques – accès aux grandes bases d'utilisateurs et revenus publicitaires – peuvent amener les entreprises à adapter leurs politiques de contenu aux exigences du gouvernement. Dans un contexte démocratique, la nécessité de se conformer aux réglementations locales est tout aussi contraignante. Par exemple, L'interdiction nationale du Brésil de X (anciennement Twitter) à la suite de son rôle dans la diffusion de la désinformation politique a forcé la plateforme à supprimer du contenu ou à mettre fin entièrement aux opérations, en soulignant que les entreprises ne peuvent pas se permettre de défier les mandats de l’État sans répercussions significatives, même en Occident. De même, le fondateur de Telegram, Pavel Durov, a été arrêté en France après que la plateforme ait coopéré avec les demandes gouvernementales de modérer le contenu. illustrant que les pressions de conformité vont au-delà des régimes autoritaires.
Pourtant, les incitations économiques compliquent encore la situation. Les géants de la technologie chinoise tels que ZTE et Alibaba et les firmes russes comme Protei et VAS Experts dépendent de marchés étrangers pour leur croissance. Dans la mesure où ils exportent non seulement du matériel – comme des caméras CCTV et des systèmes DPI (Deep Packet Inspection) – mais aussi du conseil et de la formation, ils étendent leur empreinte mondiale tout en normalisant des contrôles de contenu plus stricts. Prenons par exemple les ateliers de médecine légale numérique organisés par Meiya Pico chinois qui ont formé la police argentine à ouzbékistan. Ces sessions mettent en évidence la synergie entre les États membres : les gouvernements reçoivent des outils de contrôle avancés et un savoir-faire pratique, les entreprises garantissent des transactions lucratives et une influence sur le marché, et la frontière entre le contrôle légitime de la cybercriminalité et la répression politique devient de plus en plus poreuse.
En résumé, les facteurs politiques, culturels et économiques qui sous-tendent la censure en ligne forment une matrice multidimensionnelle. Les gouvernements s'appuient sur la censure pour préserver la légitimité du régime et neutraliser l'opposition, tandis que les impératifs religieux et culturels façonnent ce qui est considéré comme un discours autorisé. Les incitants économiques obligent les entreprises à adapter leurs politiques ou à risquer de perdre des parts de marché, mais la censure n’est pas seulement un outil du pouvoir de l’État. Au-delà de la conformité réglementaire, les motivations purement commerciales entraînent également des pratiques de censure. Par exemple, Les FSI des pays occidentaux peuvent [étouffer le contenu étranger] (https://www.haptic-networks.com/wifi/network-throttling/) ou privilégier des plateformes plus rentables non pas en raison d'obligations légales, mais pour réduire les coûts opérationnels ou favoriser des partenariats lucratifs. En outre, les décisions prises au niveau de la plate-forme visant à interdire certains médias ou à déclasser certains contenus spécifiques peuvent provenir d'intérêts commerciaux visant à maximiser l'engagement des utilisateurs et les revenus publicitaires.
Acteurs clés et leurs interactions
L’écosystème de la censure en ligne est façonné par un réseau d’acteurs interactifs – allant des gouvernements et des services de sécurité de l’État aux géants de la technologie internationale, les FSI locaux et les organisations locales. Ces intervenants n'agissent pas de façon isolée; leurs relations sont dynamiques, évolutives en réaction aux changements de politiques, de technologies, de forces du marché et de comportement des utilisateurs. En examinant leurs rôles et les formes de censure qu'ils emploient, nous comprenons de manière holistique comment les flux d'information numériques sont régulés, supprimé, ou manipulé à travers différents régimes et contextes culturels.
Acteurs au niveau de l'État
À l'apogée de la plupart des architectures de censure se trouvent les institutions étatiques – gouvernements, organismes de régulation, et les agences de sécurité – qui formulent et appliquent les contraintes juridiques et techniques. L’administration chinoise cyberspatiale (CAC) de la Chine et Roskomnadzor de la Russie illustrent clairement la manière dont les autorités centralisées imposent des mandats de censure descendants. En Chine, le CAC orchestre un modèle sophistiqué de censure « dure» – blocage direct, filtrage des mots clés, l'isolement du réseau complet dans les moments critiques – ainsi que la censure « douce », comme des ajustements algorithmiques pour les classements de recherche ou les flux de nouvelles. La Russie Roskomnadzor, bien que historiquement moins centralisée sur le plan technologique que le système de pare-feu chinois, a de plus en plus visé à consolider son contrôle, mettre en place des listes noires et des lois de localisation des données et tester des exercices d’isolement pour couper l’infrastructure Internet du pays du Web mondial.

À mesure que les systèmes chinois et russes de contrôle des voyages à l’étranger, la dynamique entre les FAI, les fournisseurs de plates-formes et les agences gouvernementales s’intensifie. Les pays le long de la ceinture et de la route chinoise, par exemple, pourraient adopter des versions locales des vagues lois cybernétiques de la Chine, encourageant ainsi les FSI à pratiquer un filtrage proactif. Pendant ce temps, Les suites analytiques conçues par la Russie – telles que celles vendues par Analytical Business Solutions – aident les autorités des États post-soviétiques à identifier rapidement les menaces perçues dans les discussions sur les médias sociaux. De même, les technologies américaines ont également été impliquées dans l'activation de la censure à l'étranger. Des entreprises comme Cisco et [Blue Coat Systems] (https://citizenlab.ca/2013/01/planet-blue-coat-mapping-global-censorship-and-surveillance-tools/) auraient vendu des outils de filtrage et de surveillance de réseau plus tard utilisés par les gouvernements dans des pays tels que Arabie Saoudite, Bahreïn et Syria pour bloquer le contenu et surveiller les activistes. Cela démontre que les technologies favorables à la censure ne sont pas exclusives à des États autoritaires comme la Chine et la Russie, mais sont également exportées de pays démocratiques sous le couvert de transactions commerciales.

Les acteurs non étatiques, y compris les journalistes étrangers qui reçoivent une formation à [la Baise Executive Leadership Academy] de Pékin (https://www.scmp.com/news/china/economy/article/2155203/remote-corner-china-beijing-trying-export-its-model-training), rentrer dans leur environnement natal armé d'idées qui pourraient remodeler leurs décisions éditoriales. Simultanément, les activistes et les groupes de la société civile sont confrontés à de nouveaux défis : non seulement ils doivent apprendre sur les contraintes locales, mais ils doivent également naviguer dans les infrastructures et les cadres juridiques initialement perfectionnés dans des États lointains. Dans cette interaction, les ordres du jour de la censure et les stratégies de résistance deviennent des puzzles transnationaux, chacun influencés par des modèles et des technologies étrangères.
Fournisseurs d'infrastructure et de plate-forme
Au-delà de l'état, [Fournisseurs de services Internet] (/blog/internet-service-providers) (FAI), entreprises de télécommunications, et les fournisseurs de plates-formes mondiales (réseaux de médias sociaux, moteurs de recherche, réseaux de distribution de contenu) fonctionnent comme des points d’échappement clés. Techniquement, les FSI peuvent imposer une censure « difficile» en bloquant les noms de domaine ou les adresses IP sur ordre de l’État. Les grands opérateurs de télécommunications en Russie et en Iran, souvent avec une propriété partielle de l'État ou selon des exigences strictes en matière de licences, ont une marge de manœuvre limitée pour résister à de telles instructions. Ils doivent installer des équipements de surveillance et de filtrage, comme c’est le cas avec le SORM russe ou l’infrastructure de réseau contrôlée par l’État iranien.
La contraction des FSI sert souvent non seulement des objectifs réglementaires ou politiques, mais aussi des motivations économiques, où les économies commerciales et l'efficacité du réseau ont la priorité. Les FSI ralentissent délibérément le contenu étranger ou à large bande passante, comme les plates-formes de streaming ou les services internationaux lourds de données, afin de réduire les coûts opérationnels et de gérer la congestion. Cette pratique privilégie fréquemment les plates-formes nationales ou partenaires par le biais de mécanismes tels que les transactions de notation zéro où les services sélectionnés ne comptent pas contre les plafonds de données, orienter subtilement les utilisateurs vers un contenu favori. Par exemple, les services de streaming vidéo ou les applications basées sur le cloud peuvent faire face à des vitesses plus lentes pendant les périodes de pointe, alors que des alternatives ou des plates-formes locales avec des [accords ISP exclusifs] (https://www.haptic-networks.com/wifi/network-throttling) fonctionnent de manière transparente. De telles pratiques, bien que encadrées comme une gestion de la bande passante ou un contrôle de la congestion, introduire une couche de censure basée sur le commerce qui influence l'accès des utilisateurs à des contenus globaux divers, reflétant souvent un contrôle plus explicite vu dans des contextes autoritaires.
Pendant ce temps, les principales plates-formes – Facebook (Meta), Twitter (X), Google, TikTok et WeChat – agissent en tant que gardiens du flux d’informations. Ces plates-formes mettent en œuvre leurs propres politiques sur la modération du contenu, ce qui peut mener à une censure « douce». Par exemple, le filtrage algorithmique peut dévaloriser de manière disproportionnée les dissidents politiques ou favoriser les récits alignés sur l'État, que ce soit délibérément ou comme résultat involontaire des moteurs de recommandation opaques. Dans les marchés autoritaires, ces entreprises sont confrontées à des choix difficiles: satisfaire aux exigences de censure en matière d'accès au marché ou tout simplement retirer des services. Il y a eu des discussions sur la manière dont Google a pesé pour entrer sur le marché chinois dans le cadre du projet “Dragonfly” ou comment LinkedIn a accepté les règles de censure localisées pour fonctionner en Chine, illustrant l'influence que les gouvernements exercent sur les plates-formes mondiales. De même, Les tentatives de blocage de Telegram par la Russie soulignent comment les États de la messagerie de pression et les services de médias sociaux leur accordent un accès aux données des utilisateurs ou adhèrent aux demandes de suppression de contenu. Fournisseurs d'infrastructures et plates-formes, des principaux FAI à l'App Store d'Apple, parfois se conformer aux exigences de censure – comme [Apple enlevant des douzaines d'applications VPN] (https://www.bbc.com/news/technology-40772375) de son App Store chinois en 2017 et [en Russie] (https://www.techradar.com/pro/vpn/apple-keeps-removing-vpn-apps-in-russia-and-the-toll-is-worse-than-we-thought) en septembre 2024 – montrant comment les entreprises mondiales deviennent les catalyseurs des régimes de censure locale.
Cependant, les plates-formes ne sont pas toujours passives. Certains choisissent des mesures limitées de recul ou de transparence – par exemple, les précédents « rapports de transparence» publics de Twitter sur les demandes de retrait – offrant une résistance partielle. Lorsque l'intérêt personnel de l'entreprise s'aligne sur la liberté d'expression ou la réputation de la marque, les plates-formes peuvent refuser la conformité ou déplacer les services. La tension entre les plates-formes et les gouvernements devient donc une négociation façonnée par des incitants économiques, l’opinion publique et les coûts de réputation.
Acteurs non étatiques et transnationaux
Les acteurs non étatiques façonnent également le paysage de la censure. D'une part, les groupes de la société civile, les ONG, et les organisations de défense des intérêts – telles que celles qui produisent des indices comme Freedom House ou qui travaillent à des tests open-source (e. ., OONI) – lutte contre la censure en documentant, en surveillant et en exposant la suppression de contenu caché (critique à suivre dans la section V). Ils aident les utilisateurs à utiliser des outils de contournement, à faire pression sur les plates-formes et les États en vue d'une plus grande responsabilité et d'une application moins arbitraire. Leur influence est mondiale et en réseau, contribuant à la sensibilisation à la censure dans des endroits comme la Russie, La Chine et l’Iran, ainsi que la mise en évidence de formes subtiles de censure dans les démocraties.
D’autre part, les organisations extrémistes, les « fermes de trolls» et les réseaux de désinformation compliquent la situation. Loin d'être simplement victimes de la censure, ces groupes bénéficient également de la manipulation de l'information. Les « fermes de trolls» et les agents de désinformation russes exploitent les défis de modération des plates-formes, forçant les États et les entreprises technologiques à surcorriger et à censurer les discours légitimes. Dans ces cas, les acteurs non étatiques provoquent un environnement où les gouvernements justifient des mesures plus autoritaires. De même, le contenu extrémiste en ligne conduit à des appels des groupes d'activistes et du public à supprimer les discours haineux ou nuisibles donner aux plates-formes et aux états une justification morale à la censure – même si cela peut créer une pente glissante.
En outre, certains lobbyistes, des coalitions de l’industrie ou des associations professionnelles influent sur la manière dont les politiques de modération élaborent. En faisant pression pour une réglementation plus stricte ou moins stricte, ils peuvent basculer l'équilibre entre la liberté d'expression et la censure. Dans certains contextes culturels, les institutions religieuses ou les dirigeants de la communauté font pression sur les plates-formes et les FSI pour supprimer les contenus culturels ou religieux « offensifs ». Ces acteurs représentent la diversité de la tapisserie des groupes d'intérêt qui peuvent collectivement pousser les normes de censure dans des directions différentes – parfois en s'alignant sur les objectifs de l'État, d'autres temps s'y opposent.
Lire dans la partie 2 pour apprendre comment la censure fonctionne et comment la résister.
Internet censorship: FAQs
Alors que les VPNs s'appuient sur des serveurs de sortie connus (souvent bloqués ou maîtrisés), les mixnets mélangent et aléatoirement le routage de manière dynamique, ce qui rend les actions de blocage beaucoup plus difficiles pour les acteurs autoritaires.
Oui — en encapsulant le trafic chiffré et en cachant les relations source-destination via le trafic de couverture par couche, les mixnets empêchent les acteurs de la censure au niveau du FAI d'identifier ou de bloquer les flux HTTP/HTTPS.
Les nœuds de mixage à gestion volontaire, appuyés par des incitations de mise en jeu ou par des jetons, diversifient la disponibilité de sortie – permettant aux utilisateurs des régions fortement censurées de se connecter par le biais d'infrastructures géographiquement réparties.
Le protocole de Nym prend en charge le routage adaptatif et la gestion des nœuds de nœuds – en redirigeant rapidement le trafic à travers des nœuds non affectés pour maintenir la connectivité pendant la censure à grande échelle.
Les utilisateurs peuvent prouver qu'ils ont la permission d'utiliser des services résistants à la censure sans révéler l'identité ou les empreintes digitales des clients, ce qui rend un accès anonyme viable même dans le cadre de régimes restrictifs.
À propos des auteurs
Table des matières
Continuer à lire...
Nym accueille un nouveau chercheur au sein de son équipe de résistance à la censure
La lutte contre la censure est l’un des plus grands défis auxquels sont confrontés les réseaux privés virtuels (VPN)

