Dérégulation : Les réseaux sociaux, nouvelles arches de Noé des passions ignorées

Algorithmes, Maîtres du jeu
Les réseaux sociaux, conçus comme des outils d’émancipation démocratique, sont devenus des arènes où la quête du profit prime sur la qualité de l’information. En favorisant les contenus les plus clivants et émotionnels, ces plateformes exacerbent les passions et fragmentent le débat public. Cette dérégulation algorithmique, loin de renforcer la liberté d’expression, amplifie la désinformation et favorise les discours extrêmes, menaçant ainsi les fondements démocratiques. Pour contrer cette dérive, seule une régulation ferme, associée à une responsabilisation des plateformes et à une éducation critique du public, permettra de préserver un espace public sain et pluraliste.

Les réseaux sociaux se sont imposés comme des outils incontournables d’information, de communication et de mobilisation politique. Initialement, pour moderniser le fonctionnement des démocraties et permettre à chacun de faire entendre sa voix, ils sont rapidement devenus des vecteurs d’influence majeurs sur les masses. Selon le rapport Digital 2023, environ 60 % de la population mondiale les utilise quotidiennement, en moyenne, à raison de 2 h 30 par jour.

Dès leurs balbutiements, certains experts du Web vaticinaient l’avènement d’un « âge d’or » de la démocratie numérique. Des entrepreneurs de la Silicon Valley ont été érigés en figures de proue de cette révolution numérique, porteurs d’un projet de désintermédiation de l’information et d’émancipation citoyenne. Clay Shirky (Here Comes Everybody, 2008) et Yochai Benkler (The Wealth of Networks, 2006) définissent cette logique participative du Web 2.0, ayant vocation à permettre au citoyen lambda de devenir acteur et moteur du débat public, en bypassant les médias traditionnels.

Cependant, victime de son succès, ces belles intentions ont été rattrapées par une réalité économique y trouvant des intérêts tout autres. L’impérieuse nécessité de rentabiliser ces plateformes a conduit à une priorisation des contenus susceptibles de maximiser l’engagement, au détriment de la diversité et de la qualité de l’information.

L’argument de la « liberté d’expression » a souvent été brandi pour justifier la dérégulation des réseaux sociaux. Force est de constater que cette liberté ne s’est pas traduite par un pluralisme renforcé : elle a surtout permis une captation du débat public par des logiques marchandes. Quinn Slobodian (Le Capitalisme de l’Apocalypse) analyse cette tendance contemporaine comme une extension du capitalisme au domaine cognitif, où l’information devient une ressource économique exploitée selon des dynamiques de marché.

Cette analyse rejoint le concept d’anarcho-capitalisme développé par Peter J. Hill dès 1979, qui se caractérise par une quête de liberté absolue du marché, s’opposant à toute régulation étatique perçue comme une entrave illégitime. Dans cette optique, les réseaux sociaux sont vus comme un eldorado, des places de marché idéologiques, où les idées sont valorisées non pour leur pertinence ou leur contribution au bien commun, mais pour leur capacité à générer, voire exacerber, des réactions émotionnelles.

La rentabilité pour unique boussole, seules les propositions les plus rentables en termes d’engagement algorithmique prospèrent. Cette évolution finalise ainsi la privatisation du débat public, désormais soumis aux logiques d’offre et de demande. Les plateformes numériques sont des arènes de compétition où la viralité devient la nouvelle mesure d’une « vérité » sur laquelle capitaliser.

Historiquement, dans l’Europe du XVIIe siècle, cette dynamique nous rappelle certaines caractéristiques du mercantilisme : une concurrence exacerbée entre puissances, la captation des richesses informationnelles par une poignée d’acteurs dominants et une instrumentalisation des passions collectives au service d’intérêts particuliers. Transposées dans l’espace numérique, les plateformes technologiques se substituent aux grandes puissances étatiques. Les algorithmes orchestrent une nouvelle forme d’accumulation primitive, non plus de richesses matérielles, mais de données et d’attention. Comme autrefois les grandes compagnies commerciales cherchaient à monopoliser les routes du commerce mondial, les grandes entreprises technologiques rivalisent pour capter et exploiter nos interactions sociales, au prix d’une fragmentation du débat public.

Dans ce contexte, la montée des discours populistes s’explique en partie par l’environnement algorithmique des plateformes, terreau fertile qui permet d’exploiter le ressentiment d’une partie de la population envers une « élite progressiste » ou « woke ». Reste encore à personnifier cette lutte en désignant un adversaire iconoclaste. L’Union européenne devient alors une cible privilégiée, caricaturée en « Grande prostituée de Babylone », dépeinte en incarnation d’un espace perverti par le cosmopolitisme, corrompu et décadent, et dont la bureaucratie — en déconnexion des réalités populaires — trahit les valeurs des peuples qu’elle est censée représenter.

Les réseaux sociaux accélèrent et amplifient la diffusion de ces narratifs. Des personnalités publiques telles que Donald Trump, Viktor Orbán ou Elon Musk utilisent cette rhétorique pour fédérer leur base électorale. Dans la poursuite de cet objectif, il leur apparaît nécessaire d’affaiblir les régulations et les institutions médiatiques.

Toutefois, au-delà de leur discours, cette détérioration du débat public n’est pas seulement une conséquence du climat politique actuel mais un objectif en soi. Il s’agit de créer des « zones d’exception » favorisant une reconfiguration des rapports de pouvoir au profit de nouvelles élites économiques remplaçant les anciennes politiques et intellectuelles. La quête d’un pluralisme authentique sert de mirage pour consolider l’avènement d’un pouvoir basé sur l’influence et le contrôle total des canaux d’informations.

Michel Foucault rappelait déjà, dans Surveiller et punir (1975) et Naissance de la biopolitique (1979), comment la surveillance et la discipline peuvent façonner les comportements, préfigurant ainsi les dynamiques de contrôle qui se déploient dans cet univers numérique.

Le micro-ciblage politique, couplé à la puissance des algorithmes, façonne désormais les comportements électoraux bien au-delà de la simple diffusion d’informations : il amplifie les clivages idéologiques. L’affaire Cambridge Analytica (2018) a illustré de quelle manière l’exploitation des données personnelles de millions d’utilisateurs Facebook pouvait influencer directement des scrutins majeurs, notamment l’élection présidentielle américaine de 2016 et le référendum sur le Brexit, en diffusant des messages conçus pour renforcer les biais cognitifs des électeurs (Cadwalladr, The Guardian, 2018).

Daniel Kahneman (Thinking, Fast and Slow, 2011) souligne d’ailleurs l’impact de ces biais, où la pensée rapide et intuitive tend à réagir plus fortement aux contenus chargés d’émotion, rendant la manipulation politique particulièrement efficace.

Dans la deuxième moitié de l’année 2024, ces pratiques ont franchi un palier significatif. L’élection présidentielle américaine a été marquée par une utilisation sans précédent de campagnes de désinformation algorithmique, notamment sur X (anciennement Twitter), où la politique de modération d’Elon Musk, au nom de la liberté d’expression, a favorisé une libéralisation totale des contenus. La campagne de Donald Trump a suivi une stratégie de communication ultra-ciblée via les podcasts conservateurs, devenus des relais clés de la mobilisation électorale.

En Europe, les dernières élections européennes ont été fortement impactées par des campagnes de manipulation venues de l’étranger, notamment de la Russie, qui a su tirer avantage de ces algorithmes pour amplifier les discours souverainistes et anti-élites.

Face à ces menaces, la régulation des plateformes devient complexe. L’adoption du Digital Services Act (DSA) en 2023 constitue une avancée salutaire en matière de transparence et de lutte contre la désinformation, mais sa mise en œuvre est freinée par le poids des lobbyistes des Big Tech et les divergences politiques entre les États membres (La Revue Européenne des Médias, 2025). En outre, l’arrivée aux affaires de l’administration Trump est venue élever ces divergences à un niveau géopolitique, faisant craindre une remise en cause des initiatives visant à encadrer les plateformes numériques américaines.

Les réseaux sociaux ne sont plus des espaces neutres. Mués en chambres d’écho algorithmiques, où la désinformation et les discours extrêmes prospèrent à un rythme accéléré, ils sont devenus les moteurs d’une économie politique de l’émotion. Et pour cause, des études du MIT (Vosoughi, Roy & Aral, 2018) ont démontré que les fake news circulent six fois plus vite que les informations vérifiées.

Ce phénomène est exacerbé par l’optimisation récente des algorithmes pour favoriser les contenus les plus engageants et extrêmes, indépendamment de leur véracité. Ce biais structurel explique pourquoi les contenus polarisants, complotistes ou haineux bénéficient d’une visibilité accrue. Cette dynamique participe d’un processus plus large, décrit par Shoshana Zuboff (The Age of Surveillance Capitalism, 2019), où la monétisation des comportements et des interactions sociales devient le moteur du capitalisme numérique.

Les réseaux sociaux ne se contentent pas d’exploiter nos données personnelles : ils transforment chaque individu en consommateur d’idéologie. Leur modèle économique repose sur l’accélération de la diffusion des contenus émotionnels, structurant une économie politique de l’émotion, où l’indignation et la colère deviennent des actifs monétisables. À l’image de la surexploitation des énergies fossiles, la surexploitation de l’attention entraîne une érosion des principes démocratiques.

En définitive, la crise démocratique engendrée par la dérégulation des réseaux sociaux n’est pas un accident : elle est le symptôme d’un système en perte de contrôle. À force de s’aligner sur les impératifs de croissance et de rentabilité, ces plateformes sont devenues les laboratoires d’un capitalisme dérégulé, dont les effets ne se limitent plus au domaine économique, mais impactent directement nos équilibres sociaux et politiques.

Cette concentration du pouvoir soulève des questions cruciales quant à l’équilibre entre l’innovation technologique et la protection de l’espace public, un équilibre qui semble aujourd’hui compromis. Comme le souligne Quinn Slobodian, cette fuite en avant pourrait bien précipiter une forme de « fin » — qu’elle soit environnementale, sociétale ou politique.

Il est intéressant d’analyser la montée des discours extrêmes à travers le modèle proposé par Fathali Moghaddam, professeur de psychologie à l’université Georgetown, dans son article «The Staircase to Terrorism», publié en 2005 dans The American Psychologist. Selon Moghaddam, la radicalisation est assimilable à l’ascension d’un escalier. Au rez-de-chaussée, de nombreux individus éprouvent une frustration et un sentiment d’injustice, sans toutefois basculer dans la violence. Une partie d’entre eux franchit ensuite le premier étage, à la recherche de solutions, mais, faute de réponses satisfaisantes, la colère et la défiance les gagnent. Ils passent alors au deuxième étage, où l’agressivité se concentre sur un « ennemi » perçu. Les troisième et quatrième étages marquent un engagement idéologique de plus en plus fort. L’individu adopte la vision morale d’une organisation extrémiste, se laisse convaincre par une conception « nous contre eux » et finit par se faire recruter. Enfin, au cinquième étage, il est psychologiquement prêt à commettre un acte violent ou terroriste.

Suivant cette métaphore, les algorithmes, en amplifiant des sentiments de frustration et de défiance, facilitent le passage de l’expression d’une colère diffuse à l’adhésion à des positions plus radicales. Les grandes plateformes mettent en avant les contenus générant un fort engagement, sans pour autant avoir une volonté délibérée de promouvoir la haine ou l’extrémisme, mais en vertu de la logique de l’attention qui cherche à maximiser la rentabilité publicitaire. C’est ainsi que l’idéologie radicale, dès les premiers étages, peut être renforcée ou accélérée par la visibilité offerte aux discours enflammés et clivants.

Cette divergence interroge la notion de souveraineté démocratique, c’est-à-dire la capacité d’un État à imposer sur son propre territoire des règles jugées légitimes par celui-ci. Jürgen Habermas, dans L’espace public : archéologie de la publicité comme dimension constitutive de la société bourgeoise, insiste sur l’importance d’un espace délibératif protégé par des normes partagées. Dès lors, si les plateformes numériques disposent, dans une dimension globale, de la capacité de fixer leurs propres règles de diffusion et de visibilité, la légitimité et l’effectivité normative du pouvoir politique s’en trouvent affaiblies. Certains auteurs, dont Shoshana Zuboff, évoquent un capitalisme de surveillance, où des multinationales recueillent et monnayent les données personnelles tout en exerçant une influence non négligeable sur les choix politiques et l’opinion publique.

Dans ce contexte, l’Union européenne a tenté d’affirmer son propre soft power via le Digital Services Act, afin de ne pas se laisser imposer les normes de la Silicon Valley. Joseph Nye (The Future of Power, 2011) rappelle en effet que le pouvoir s’exerce de plus en plus par l’influence plutôt que par la contrainte directe, et cette logique s’étend pleinement au cyberespace, devenu un terrain stratégique pour tous. Mais force est de constater, à travers les récentes déclarations de JD Vance lors de l’AI Summit de Paris puis lors de la Conférence de Munich, que les États-Unis sont déterminés à faire obstacle à toute initiative européenne de nature à sanctionner les entreprises américaines.

On assiste ainsi à un clivage transatlantique entre un modèle régulé, où l’État intervient pour protéger l’espace public et imposer certaines garanties, et un modèle libéral, valorisant l’innovation et la liberté d’entreprise, même au détriment d’une gouvernance plus éthique.

Pourtant, comme rappelé en introduction, l’histoire des réseaux sociaux est née sous le sceau d’un certain optimisme hérité de John Stuart Mill, John Locke ou encore de Jürgen Habermas, pour n’en citer que quelques-uns. Mill, dans On Liberty, défendait l’idée qu’en se reposant sur la libre confrontation des opinions, y compris les plus extrêmes et les moins pertinentes, la vérité finirait indubitablement par émerger. Au début de l’ère numérique, nombre de pionniers imaginaient un marché des idées en ligne, suscitant l’émergence d’une vérité enrichie de la participation populaire, par confrontation libre des opinions, libérée du jugement de valeur ou de légitimité.

Cass Sunstein, dans son étude Republic.com 2.0 publiée en 2007, rejoignait cet idéalisme. Il voyait dans l’apparition de forums et d’espaces de discussions la promesse d’une délibération citoyenne renouvelée. Cependant, il alertait déjà sur le fait que la logique de l’algorithme, conjuguée à l’inclination humaine à fuir la dissonance cognitive, pouvait transformer ces forums en chambres d’écho, en contradiction avec le postulat initial d’une confrontation ouverte et plurielle.

Les faits lui donnent raison et, de nos jours, la conception d’algorithmes devant répondre à un objectif maximaliste impose une logique de tri et de filtrage ayant pour effet de réduire à peau de chagrin la diversité des opinions visibles. Nous vivons sous le règne d’une économie de l’attention, un concept déjà anticipé par Herbert A. Simon, dans laquelle chaque clic, partage, like ou réaction se convertit en données monétisables. Cette économie a tué la nuance, lui préférant les contenus clivants et extrêmes renforçant les echo chambers, c’est-à-dire des espaces où la contradiction est perçue non comme une ouverture possible mais comme une agression.

Jeff Victoroff, dans The Mind of the Terrorist, et d’autres chercheurs en psychologie de l’extrémisme observent que ces chambres d’écho contribuent à valider en permanence les croyances d’un groupe, condition propice à une radicalisation progressive. Un phénomène, par ailleurs, renforcé par la propension plus ou moins forte de l’individu à se couper de toute contradiction quand ses convictions sont renforcées en continu.

Dans le prolongement de ces études, Shoshana Zuboff, dans The Age of Surveillance Capitalism, enrichit la compréhension de l’effet des algorithmes grâce auxquels les réseaux sociaux ne se contentent pas de diffuser des contenus, mais collectent, analysent et vendent chaque action, préférence ou émotion. Les individus se trouvent progressivement enfermés dans un écosystème informationnel dicté par des impératifs commerciaux, dans lequel l’utilisateur contribue à sa propre exclusion de la diversité d’opinions et du pluralisme d’un véritable espace public de débat.

On assiste impuissants à une fragmentation de l’espace public : les opinions s’agrègent en bulles de filtres où les individus ne sont plus exposés qu’à des idées similaires aux leurs. Cette tendance accentue la radicalisation des points de vue et transforme les désaccords politiques en conflits identitaires insolubles. Ainsi, loin de promouvoir un débat pluraliste et rationnel, les réseaux sociaux valorisent le spectaculaire, l’émotionnel, la haine. Les récents événements, comme l’assaut du Capitole en janvier 2021, illustrent la façon dont l’instrumentalisation de l’indignation virtuelle peut faire le saut vers le réel sous prétexte de défendre une supposée vérité cachée ou une victoire politique confisquée.


Washington D.C., 6 janvier 2021 : Intervention de la police face aux partisans de Donald Trump ayant pénétré dans le Capitole. © Mostafa Bassim / Anadolu Agency / AFP

 

Le modèle de Moghaddam est pertinent pour apprécier la pente dans laquelle s’engagent les utilisateurs, et est de nature à nous inquiéter quant à la suite des événements. À mesure que la défiance envers les institutions grandit, la nécessité de corroborer les faits devient de moins en moins nécessaire, contribuant ainsi à renforcer les groupes radicaux, peu importe leur obédience.

Par ailleurs, ces phénomènes ne se limitent pas à l’Occident. En Amérique latine, en Afrique, l’absence d’institutions suffisamment fortes pour encadrer les usages numériques peut favoriser la propagation de discours haineux et la manipulation politique. L’économie de l’attention, devenue globale, n’épargne plus aucun continent et rend ces dynamiques d’autant plus difficiles à contenir et à réguler. Les réseaux sociaux deviennent alors des armes capables de transformer une simple théorie du complot en action violente, des canaux facilement utilisables par une puissance étrangère, un opérateur économique ou par un seul homme à des fins politiques, en exerçant ce contrôle invisible. Nous ne voyons que ce que l’algorithme veut bien nous montrer ; ce qu’il nous « cache » – par choix ou négligence – reste hors de notre champ de conscience. La liberté d’expression revendiquée limite l’accès à l’information par l’effet des mécanismes d’exposition algorithmique.

Les dynamiques psychosociales : un terreau fertile de radicalisation

Le modèle exposé dans « Staircase to Terrorism » de Moghaddam illustre comment la majorité des individus, malgré un sentiment d’injustice, reste au niveau de base de l’échelle. Mais certains, confrontés à un sentiment persistant de privation et à l’absence de perspectives d’amélioration, entament une ascension où les alternatives se réduisent progressivement. Ils deviennent alors plus perméables aux messages radicalisants, jusqu’à envisager la violence comme unique recours pour rétablir la justice.

Ce « narrowing of choice » rejoint la fragmentation algorithmique : tout comme les algorithmes enferment l’utilisateur dans ses croyances, la montée sur l’escalier enferme l’individu dans une vision binaire, opposant un « nous » radical à un « eux » hostile. La revue de Jeff Victoroff sur la psychologie du terrorisme souligne aussi l’hétérogénéité des processus de radicalisation. Initialement, on a privilégié des explications simplistes (psychopathologie, choix purement rationnel), mais il ressort désormais que la formation d’une mentalité radicale résulte d’interactions complexes entre facteurs individuels, sociaux et contextuels.

Une fois que l’individu intègre un groupe extrême, les discours violents se renforcent mutuellement, et la logique algorithmique peut amplifier leur diffusion. Cette synergie entre les mécanismes psychologiques décrits par Moghaddam et l’univers numérique polarisé explique en grande partie pourquoi la radicalisation se déploie si rapidement sur les réseaux.

Le simple constat d’une réalité algorithmique ne suffit pas à expliquer la radicalisation. Par nature, l’être humain recherche la confirmation de ses croyances. Les algorithmes, qui repèrent rapidement ce qui attire l’attention, enferment chacun dans des bulles de filtres (Eli Pariser), où les contenus similaires s’accumulent. Sociologiquement, on assiste à une tribalisation, un archipel d’affinités où la diversité des idées s’amenuise. Psychologiquement, la théorie de la dissonance cognitive (Leon Festinger) montre qu’un individu cherche à réduire toute contradiction interne. Involontairement, les plateformes nourrissent ce mécanisme en proposant du contenu aligné sur les convictions de l’utilisateur, renforçant l’auto-validation identitaire.

Le cloisonnement idéologique, cependant, ne suffit pas à expliquer le passage à la radicalisation. Les travaux de Cass Sunstein sur la polarisation montrent que la surenchère devient la norme dans des enclaves idéologiques fermées, où le besoin de reconnaissance pousse certains à adopter une radicalité orchestrée. Des leaders populistes exploitent cette colère pour fédérer un discours identitaire, se réclamant d’une liberté d’expression « absolue », quitte à banaliser la violence verbale ou les propos haineux.

Sur le plan sociologique et anthropologique, cette quête de reconnaissance s’apparente à une recherche de « capital symbolique » (Pierre Bourdieu) : l’individu radicalisé gagne une forme de distinction dans l’excès ou la provocation. Les facteurs socio-économiques (inégalités, précarité, sentiment de déclassement) aggravent ce phénomène. La défiance envers les médias, les partis et les gouvernements alimente une désintermédiation où chacun peut prétendre être journaliste ou commentateur professionnel. Selon la Fondation pour l’Innovation Politique (2024), l’avis d’un expert scientifique se retrouve parfois mis sur le même plan que celui d’un simple influenceur, fragilisant la notion même de vérité. Il s’agit aussi d’une crise de légitimité (Max Weber) : l’autorité rationnelle-légale ne suffit plus à emporter l’adhésion, et la popularité sur les plateformes se substitue parfois à la crédibilité éditoriale.

Du virtuel au réel : études de cas et passages à l’acte

L’assaut du Capitole (6 janvier 2021) demeure le symbole majeur de la polarisation issue d’Internet. Il n’a surpris que ceux qui niaient la puissance des « vérités parallèles » forgées en ligne. Des manifestants, nourris par des discours conspirationnistes et un refus obstiné de la défaite électorale, ont contesté la légitimité d’un scrutin pourtant validé par les institutions américaines. Les réseaux sociaux ont servi d’incubateur : en maximisant le clash, l’algorithme a favorisé la diffusion de contenus extrêmes. Le biais de confirmation et le sentiment de « sauver la démocratie » ont alors fait basculer l’indignation virtuelle dans l’action violente.

Cet événement illustre la porosité entre espace numérique et sphère réelle. Pour Cass Sunstein, ce phénomène de « groupe polarisé » s’amplifie dès lors que les discussions s’enferment dans des enclaves idéologiques. L’assaut du Capitole apparaît ainsi comme l’instant où la bulle en ligne a explosé au cœur de l’institution américaine, révélant la vulnérabilité d’un système démocratique face aux manipulations de masse.

Intelligence artificielle et manipulation cognitive : quel avenir pour la pensée critique ?

Sur le plan technologique, cette dynamique s’accélère grâce aux progrès de l’intelligence artificielle et du machine learning, qui permettent une personnalisation toujours plus fine des contenus. Les algorithmes, en optimisant sans cesse les interactions, créent un environnement où les individus ne perçoivent plus la réalité qu’à travers un prisme calibré pour maximiser leur engagement. Les enjeux éthiques sont considérables : qui endosse la responsabilité des biais algorithmiques qui renforcent les discriminations et les stéréotypes ? Et quelle place demeure pour l’esprit critique quand l’information nous parvient de manière invisible ?

Les polémiques récentes sur l’IA générative (chatbots, deepfakes, etc.) sont de nature à inquiéter davantage. Certains chercheurs proposent des mécanismes de certification des sources et d’outils de vérification automatisés, mais on se heurte aussitôt à des débats sur la censure, la liberté d’innovation et la souveraineté numérique. Face à ces dérives, l’éducation aux médias et à l’information est une réponse insuffisante, une solution « Coca-Cola » qui déresponsabilise les opérateurs économiques en culpabilisant les citoyens, tenus pour dépourvus de pensée critique, incapables de vérifier des faits. Bien que cette éducation soit nécessaire, sans une régulation minimale, elle ne saurait être la panacée pour endiguer un phénomène de nature globale.

Par ailleurs, la conception des algorithmes n’explique pas à elle seule la radicalisation. Les travaux du Pew Research Center (2022) et de la Fondation Jean-Jaurès (2023) montrent qu’il existe une architecture de la radicalisation mêlant algorithmes de recommandation et ressorts psychosociaux. L’être humain cherche en effet la confirmation de ses croyances. Cette recherche mène à un effet de tribalisation, où les échanges intergroupes se raréfient au profit du confort prodigué par l’entre-soi. La polarisation qui en émerge se nourrit de la surenchère et du besoin de reconnaissance, d’une quête de capital symbolique comme le définirait Pierre Bourdieu.

Dans cette nouvelle communauté, plus l’individu adopte une posture radicale, plus il se voit récompensé de partages ou de likes — des shots de dopamine qui le poussent à aller toujours plus loin dans l’excès. Les inégalités, la précarité et le sentiment de déclassement vécus IRL sont autant d’éléments qui mènent sur la route d’un exutoire collectif, pour une raison que tout le monde comprendra : se sentir exister. Parfois cela ne suffit pas, et lorsque le ressentiment persiste, certains commencent à gravir les marches, rétrécissant progressivement leur champ de choix. La fragmentation algorithmique agit alors comme un accélérateur.

La liberté d’expression, lorsqu’elle n’est pas pensée dans ses conditions d’exercice, peut s’avérer contre-productive pour l’idéal démocratique qu’elle prétend servir. Certains PDG de la tech promeuvent un principe de « tout est permis », tandis qu’une partie du public oscille entre attrait pour la polémique et fatigue face à la toxicité du débat en ligne. Il ne s’agit pas de restreindre la parole, mais de la replacer dans un cadre collectif où l’on pourrait encore pratiquer l’argumentation respectueuse et la recherche du bien commun.

Plus que jamais, la vigilance citoyenne et la responsabilité des entreprises, associées à une coopération internationale, se révèlent indispensables si l’on veut faire de ces « arches de Noé » une agora où se préserverait la diversité et la complexité des opinions. La souveraineté démocratique elle-même est en jeu : la manière dont nous réglerons le numérique et encouragerons l’esprit critique déterminera l’avenir de notre débat public. Sans cette prise de conscience collective, l’assaut du Capitole pourrait n’être qu’un avant-goût de conflits à venir, tant les fractures informationnelles menacent de s’étendre.

En revanche, si une régulation équilibrée, une liberté d’expression repensée et des modèles économiques responsables se conjuguent, il demeure une chance de concrétiser la vision d’un Internet véritablement démocratique, fidèle à l’élan initial qui a porté les pionniers du numérique. Les propositions d’éducation aux médias, de taxation de la publicité, de transparence algorithmique ou d’alternatives en matière de financement et de gouvernance numérique ne sont que des pistes qui méritent d’être développées et coordonnées à l’échelle internationale. C’est à ce prix que l’innovation technologique pourra s’accorder avec la protection de l’espace public, condition essentielle à l’épanouissement d’une démocratie véritable.

Des pistes de régulation et d’éducation existent. Dès le plus jeune âge, l’éducation aux médias peut apprendre à identifier les sources fiables, repérer la désinformation et comprendre la logique algorithmique. La responsabilisation des plateformes passe par une transparence accrue et des garde-fous limitant la viralité des contenus extrêmes. Au niveau international, des instances de concertation transnationales pourraient tenter d’harmoniser un socle minimal de régulation, pour éviter un web morcelé en modèles contradictoires.

Repenser l’économie de l’attention implique de valoriser la qualité plutôt que le clic, en favorisant des modèles économiques qui ne reposent pas uniquement sur la publicité et la monétisation des données. L’innovation éthique doit également être encouragée, en plaçant la protection de la vie privée et la diversité des opinions au cœur des développements technologiques.

Dans ce contexte, la liberté d’expression, lorsqu’elle n’est pas réfléchie dans ses conditions d’exercice, peut se retourner contre l’idéal démocratique qu’elle prétend servir. L’idéologie du « tout est permis » séduit certains PDG de la tech, tandis que l’opinion publique oscille entre fascination pour les clashs et lassitude. Il ne s’agit pas de brider la libre parole, mais de la réancrer dans un sens collectif, où argumentation, confrontation respectueuse et recherche du bien commun puissent se déployer.

L’entrée en vigueur du Digital Services Act européen, en 2024, amorce une réflexion sur la responsabilité des plateformes, mais il faudra plus qu’une loi pour concilier la réalité marchande des réseaux avec une véritable agora démocratique. Se pose également la question de la régulation à l’échelle mondiale, alors que les législations varient fortement d’un État à l’autre. La gouvernance du numérique ne peut être strictement occidentale : elle doit intégrer des perspectives géopolitiques plus larges, pour éviter un internet fragmenté entre contrôle excessif et dérégulation totale.

Nous avons vu comment la dérégulation algorithmique, le capitalisme de surveillance et les dynamiques psychosociales convergent pour transformer les réseaux sociaux en de nouvelles « arches de Noé », où toutes les passions et croyances embarquent sans hiérarchie morale ni rationnelle. De l’utopie millienne d’un marché libre des idées, nous sommes passés à une réalité dominée par l’économie de l’attention, l’emprise algorithmique et la polarisation des débats. Les initiatives comme le Digital Services Act marquent un premier pas, mais elles ne suffiront pas à elles seules à endiguer la puissance des grands acteurs du numérique.

Plus que jamais, la vigilance citoyenne, la responsabilisation des plateformes et la coopération internationale sont indispensables pour transformer ces « arches de Noé numériques » en vecteurs d’un débat public respectueux de la diversité et de la complexité des opinions. La souveraineté démocratique est en jeu : c’est de notre capacité collective à réguler le numérique et à promouvoir l’esprit critique que dépendra, en grande partie, l’avenir du débat public. Sans une prise de conscience partagée — des citoyens, des gouvernements et des entreprises — le risque est de voir se multiplier les fractures de l’espace informationnel, dont l’assaut du Capitole n’aura été qu’un avant-goût. À l’inverse, si l’on parvient à concilier régulation éclairée, liberté d’expression et modèles économiques responsables, il reste encore une chance de faire d’Internet cette agora démocratique rêvée par les pionniers du numérique.

Dans cette perspective, un dialogue multilatéral associant les grandes puissances technologiques (États-Unis, Europe, Chine, etc.), les organisations internationales et la société civile pourrait définir des principes communs pour l’IA et la gouvernance algorithmique. Les approches de Moghaddam et de Victoroff, combinées à celles de Mill, Habermas, Arendt et Zuboff, montrent à quel point la démocratie demeure fragile face aux dynamiques de l’attention et de la radicalisation. L’enjeu est considérable : dépasser la simple logique du profit pour réinventer une sphère publique où pluralité, raison et engagement citoyen restent possibles.

En définitive, l’économie de l’attention, la dérégulation algorithmique et le capitalisme de surveillance représentent autant de défis majeurs pour la vitalité démocratique. Les propositions d’éducation aux médias, de taxation de la publicité en ligne, de transparence algorithmique ou encore de modèles alternatifs de financement et de gouvernance numérique constituent des pistes pour rééquilibrer le rapport de force entre plateformes et citoyens. Mais seule une coopération internationale permettra de concilier l’innovation technologique et la protection de l’espace public, condition indispensable à l’épanouissement d’une démocratie authentique.

Dérégulation : Les réseaux sociaux, nouvelles arches de Noé des passions ignorées