Le Protocole

Diagnostic

Une évaluation clinique des crises systémiques convergentes — écologiques, institutionnelles, technologiques et épistémiques — fondée sur des rapports institutionnels et les jugements d'acteurs qui ont toutes les raisons de dire le contraire.

Ouverture

Ce site vous a présenté le protocole et sa vision — fondée sur une lecture de l’histoire qui éclaire l’avenir d’une lumière particulière et suggère que nous devons agir et construire. Mais avant d’agir, il faut voir clairement l’horizon ; et avant d’agir collectivement, il faut s’accorder sur les faits — ce qui devient de plus en plus difficile.

Ce qui suit est un diagnostic au sens clinique du terme. Non pas une liste désordonnée de problèmes, mais l’identification d’une pathologie dont les symptômes multiples procèdent d’une seule logique structurelle. Il est préférable de les considérer comme une seule crise, observée sous différents angles, plutôt que comme des crises séparées. Ce sont leurs interactions et leurs conséquences potentielles qui rendent le moment présent catégoriquement différent des périodes antérieures de turbulences mondiales.

L’évaluation s’appuie sur des rapports institutionnels — parmi lesquels le WEF Global Risks Report 2026, le UNEP Emissions Gap Report 2025, l’International AI Safety Report 2026 — mais aussi sur quelque chose de plus difficile à écarter : les jugements d’acteurs qui ont toutes les raisons de dire le contraire. Les agences de renseignement militaire qui planifient en fonction des menaces, non des préférences. Les marchés de l’assurance et de la réassurance qui évaluent le risque avec leurs propres capitaux. Les banques agricoles. Les négociants en matières premières. Ce ne sont pas des idéalistes titulaires de bourses de recherche. Ils voient la même image.

Cette convergence — entre intérêts concurrents, méthodologies opposées et acteurs ayant tout intérêt à minimiser le risque — constitue le fondement sur lequel repose cette évaluation : non parce que chaque source est parfaite, mais parce que l’image tient même lorsqu’on en retire celles auxquelles on fait le moins confiance.


I. La Terre

Les limites du système

Sept des neuf limites qui définissent l’espace de fonctionnement sûr de la Terre ont été franchies — et les sept continuent de se dégrader. Le Planetary Health Check 2025 a confirmé que l’acidification des océans a franchi le seuil pour la première fois, rejoignant le changement climatique, l’intégrité de la biosphère, le changement d’usage des sols, l’utilisation de l’eau douce, les flux biogéochimiques et les nouvelles entités du mauvais côté de la ligne. Seuls l’appauvrissement de la couche d’ozone et la charge en aérosols atmosphériques restent dans les limites sûres.12

Mais le chiffre sept est trompeur, car les limites ne sont pas une liste de contrôle. Elles forment un système couplé, et leurs interactions se renforcent mutuellement. Un climat déstabilisé accélère le stress hydrique. L’altération des systèmes terrestres accélère la perte de biodiversité. La perte de biodiversité affaiblit les puits de carbone biologiques qui régulent le climat — ce qui déstabilise davantage le climat. L’acidité des océans a augmenté d’environ 30 % depuis la révolution industrielle — mesurée en concentration d’ions hydrogène — un changement sans précédent en millions d’années d’archives géologiques.2 Un tiers des stocks mondiaux de poissons est surexploité, aggravant la pression sur des écosystèmes marins déjà affaiblis par le réchauffement et l’acidification. Sur terre, les systèmes d’eau douce ont été le théâtre de 347 conflits violents en 2023 — une augmentation de 50 % en une seule année — alors que les aquifères s’épuisent sous la plaine de Chine du Nord, le Pendjab et la vallée centrale américaine.3 Quarante pour cent des sols agricoles mondiaux sont dégradés.4 La défaillance de l’un quelconque de ces systèmes resserre les contraintes sur tous les autres.

Climat : dépassement confirmé

Le seuil de 1,5 °C de réchauffement mondial sera franchi au cours de la décennie en cours — très probablement entre 2028 et 2032. Le rapport Emissions Gap Report 2025 du PNUE a confirmé ce que la physique atmosphérique avait déjà rendu inévitable.56 Avec la mise en œuvre intégrale de tous les engagements climatiques nationaux actuellement sur la table, le réchauffement en fin de siècle atteint 2,3–2,5 °C. Sous les politiques actuelles, 2,8 °C. Pour maintenir une trajectoire à 1,5 °C, les émissions mondiales devraient diminuer de 55 % d’ici 2035 par rapport à 2019 — un rythme de réduction qu’aucune grande économie n’a commencé à approcher.

Le rapport introduit une distinction qui recadre l’ensemble du débat climatique : température de pic versus température de retour. La question n’est plus de savoir si l’humanité franchira la ligne des 1,5 °C. C’est de savoir combien de temps nous resterons au-delà, et ce qui se brisera pendant que nous y serons. Chaque fraction de degré de dépassement, et chaque année de durée, augmente la probabilité de déclencher des processus qui ne s’inversent pas à l’échelle du temps humain. La calotte glaciaire du Groenland perd de la masse à un rythme accéléré ; sa déstabilisation complète engage la planète dans des mètres d’élévation du niveau de la mer sur des siècles. L’Amazonie brésilienne, déjà déforestée à environ 20 %, approche du seuil au-delà duquel la diminution des précipitations et l’augmentation des feux transforment la forêt tropicale en savane — un basculement auto-entretenu.4 Le pergélisol arctique contient deux fois plus de carbone que l’atmosphère actuelle ; à mesure qu’il dégèle, il libère des gaz à effet de serre sans intervention humaine supplémentaire. Ce ne sont pas des prévisions. Ce sont des mécanismes déjà en mouvement, dont le rythme dépend de la durée du dépassement.

Biodiversité : l’effondrement silencieux

La planète perd sa complexité biologique à un rythme 100 à 1 000 fois supérieur au taux naturel de référence. Un million d’espèces animales et végétales sont menacées d’extinction.78 Les populations de pollinisateurs — dont dépendent entre 235 et 577 milliards de dollars de production agricole annuelle — déclinent dans pratiquement toutes les régions surveillées.4 Les récifs coralliens ont connu leur blanchissement le plus étendu jamais enregistré en 2023–2024, simultanément dans tous les bassins océaniques.

L’objectif est de protéger 30 % des zones terrestres et marines d’ici 2030, fixé par le Cadre mondial pour la biodiversité de Kunming-Montréal. Couverture actuelle : 18 % terrestre, 8 % marine. Cinq années séparent le présent de l’échéance. L’écart entre l’ambition et la capacité ne se réduit pas.

Deux échecs et un succès

En août 2025, cinq années de négociations sur un traité mondial contre la pollution plastique se sont soldées par un échec à Genève. Plus de 100 pays exigeaient des plafonds de production. Un bloc de pays producteurs de pétrole insistait pour limiter le champ d’application à la gestion des déchets. Aucun accord n’a été atteint.9

En janvier 2026, l’industrie brésilienne du soja s’est retirée du Moratoire sur le soja amazonien — un pacte de vingt ans pour zéro déforestation — après que l’État du Mato Grosso a supprimé les incitations fiscales accordées aux entreprises participantes. Les modèles projettent une augmentation de 30 % de la déforestation amazonienne d’ici 2045.10

Au cours du même mois, le Traité sur la haute mer est entré en vigueur — le premier cadre juridique international pour la protection de la biodiversité marine au-delà des juridictions nationales, couvrant les deux tiers des océans du monde. Sa négociation a pris vingt ans.11

Et la couche d’ozone continue de se reconstituer. Régulièrement, de manière mesurable, trois décennies après l’adoption du Protocole de Montréal en 1987. Elle reste la seule crise environnementale à l’échelle planétaire que l’humanité ait réussi à inverser. Les conditions qui l’ont permis étaient spécifiques : un signal scientifique sans ambiguïté, un nombre restreint d’acteurs industriels identifiables, la disponibilité de substituts chimiques viables, et une volonté politique suffisante pour produire un traité contraignant doté de mécanismes d’application. Aucune crise actuelle ne reproduit intégralement ces conditions — les acteurs sont plus nombreux, les intérêts plus enchevêtrés, les substituts moins évidents, les délais plus serrés. Mais le précédent est là. L’obstacle n’est pas une incapacité inhérente de l’action collective. C’est l’absence, jusqu’ici, d’architectures de gouvernance à la hauteur de ce qui doit désormais être gouverné.


Le CO₂ atmosphérique, une fois émis, persiste pendant des siècles. La déstabilisation d’une calotte glaciaire, une fois amorcée, est irréversible à l’échelle du temps humain. La réduction d’émissions requise pour maintenir 1,5 °C exige une baisse de 55 % en dix ans. Le mécanisme institutionnel chargé de l’atteindre se réunit une fois par an.


II. L’ordre mondial

Les institutions qui gouvernent l’ordre mondial partagent une origine commune : elles ont été construites à partir de décombres. Les Nations unies, des cendres d’une guerre mondiale qui tua quatre-vingts millions de personnes. Le système de Bretton Woods, des ruines d’une dépression qui mit les démocraties à genoux. Le Traité sur la non-prolifération nucléaire, de la terreur de la crise des missiles de Cuba, quand l’espèce humaine fut à quelques heures de s’anéantir. Le schéma s’est maintenu pendant plus d’un siècle — la catastrophe, puis la construction — et jamais la construction n’a précédé la catastrophe.

Ce qui suit décrit ce qui se produit lorsque ces garde-fous s’effondrent plus vite que de nouveaux ne peuvent être érigés, tandis que les forces qu’ils étaient censés contenir ont dépassé tout ce que leurs architectes auraient pu concevoir.

L’architecture de 1945

Le système a été conçu pour un monde de deux superpuissances et cinquante États. Il fait désormais face à 193 États, des acteurs non étatiques dotés d’une capacité équivalente à celle d’États, des armes qui n’existaient pas lorsque ses traités furent rédigés, des flux financiers plus rapides que les régulateurs conçus pour les observer, et un environnement informationnel qu’aucun gouvernement ne contrôle et qu’aucun traité ne couvre. Internet — l’infrastructure la plus déterminante depuis l’électrification — se fracture en trois régimes incompatibles : l’un fondé sur les droits, l’autre sur la souveraineté, le troisième oscillant entre liberté de marché et restriction sécuritaire. Aucune institution n’existe pour gouverner l’espace où ils entrent en collision.

Le Conseil de sécurité de l’ONU reflète encore la carte du pouvoir de 1945 — cinq membres permanents, chacun doté d’un droit de veto, dans un monde qui ne présente plus aucune ressemblance structurelle avec celui pour lequel cet arrangement avait été conçu. L’organe de règlement des différends de l’OMC est non fonctionnel depuis 2019. La confrontation géoéconomique a déplacé le risque environnemental de la première place des menaces mondiales pour 2026 — la première fois qu’une crise de la coordination humaine dépasse les crises biophysiques décrites dans la section précédente.12

La distance entre l’architecture et le monde qu’elle est censée maintenir ensemble n’est plus une question de réforme. Elle est structurelle.

Mais l’inadéquation structurelle n’est que la moitié du diagnostic. L’autre moitié est comportementale. Ce qui distingue 2026 des périodes antérieures de tension institutionnelle n’est pas seulement que l’architecture est inadéquate — c’est que les grandes puissances ont cessé de faire semblant qu’elle compte. Les États-Unis imposent des droits de douane à leurs alliés et à leurs adversaires sans distinction et conditionnent leurs engagements de sécurité au respect de critères transactionnels. L’Europe se réarme parce que la garantie transatlantique sur laquelle elle avait bâti son ordre d’après-guerre n’est plus crédible. La Russie mène une guerre conventionnelle interétatique de conquête territoriale en Europe — la première entre États reconnus depuis 1945. La Chine pratique la coercition économique ouvertement, sans couverture diplomatique. Aucune grande puissance ne fait confiance à aucune autre. Aucune alliance n’est inconditionnelle. Le registre diplomatique a basculé de la coopération au positionnement, du positionnement à l’hostilité, et sur certains fronts, de l’hostilité à la violence ouverte. Au cours des décennies précédentes, les États violaient les règles tout en prétendant les respecter — et l’hypocrisie elle-même était une forme d’hommage rendu au système.

Cette façade a été abandonnée.

Ce qui reste est ce que Hobbes décrivait : la guerre de tous contre tous — bellum omnium contra omnes. L’ordre d’après 1945 avait été conçu pour empêcher précisément cela — par des hommes qui avaient vu où cela mène.

Commerce et finance : des règles aux armes

Le grand pari de la fin du XXᵉ siècle était que l’interdépendance économique contiendrait les conflits — que des nations imbriquées dans le commerce trouveraient la guerre trop coûteuse pour l’envisager. Ce pari a été perdu. L’interdépendance n’a pas empêché la confrontation — elle l’a armée.

Ce qui est en cours n’est pas une guerre commerciale. Une guerre suppose deux camps se disputant un même système. C’est une fragmentation : l’éclatement d’un ordre fondé sur des règles en blocs concurrents dotés de normes, de structures tarifaires et de régimes d’application incompatibles, chacun partant du principe que les autres sont des adversaires. Le taux effectif de droits de douane américain est passé de 2,5 % à 27 % en trois mois — la plus forte hausse en plus d’un siècle — puis est redescendu vers 9 % après une décision de la Cour suprême, soit tout de même le niveau le plus élevé depuis 1946. Des droits de remplacement ont été annoncés en quelques jours.13 L’Union européenne a imposé un tarif carbone sur les émissions incorporées des importations. La Chine a répondu par des contrôles à l’exportation sur les minéraux critiques.14 Le seul mécanisme multilatéral conçu pour arbitrer de tels différends — l’Organe d’appel de l’OMC — est paralysé depuis sept ans. Chaque acteur revendique la légitimité. Aucun ne peut se coordonner avec les autres. Personne n’arbitre.

Le coût pèse le plus lourdement là où il est le moins visible. Environ 40 % des pays africains sont en situation de surendettement ou s’en approchent. Sur tout le continent, le service de la dette absorbe 137 % de ce que les gouvernements ont besoin pour l’adaptation climatique — ils paient les intérêts de l’emprunt d’hier tandis que les conditions biophysiques documentées dans la section précédente s’accélèrent sous leurs pieds. Le Fonds pour les pertes et dommages, la réponse de la communauté internationale aux coûts climatiques des nations les plus vulnérables, a recueilli 700 millions de dollars de promesses contre un besoin annuel estimé entre 100 et 400 milliards de dollars. Trois ordres de grandeur.

Recul démocratique et crise des déplacements

Les droits politiques et les libertés civiles se sont détériorés à l’échelle mondiale pendant dix-neuf années consécutives. Soixante pays ont enregistré un recul en 2024. Trente-quatre ont montré une amélioration.15 L’érosion atteint les démocraties établies. Les mécanismes sont suffisamment constants pour constituer un schéma : manipulation électorale, contraintes sur la liberté de la presse, érosion de l’indépendance judiciaire, normalisation de l’excès de pouvoir exécutif. Ce n’est pas une série de défaillances nationales. C’est une condition structurelle — le garde-fou de l’autocorrection démocratique s’affaiblit dans l’ensemble du système au moment même où il est le plus nécessaire.

Là où les garde-fous échouent entièrement, les conséquences se mesurent en corps et en déplacements. L’Ukraine entre dans sa quatrième année de guerre à grande échelle sans voie de résolution et avec plus d’un demi-million de victimes. Le Soudan fait face à la plus grande crise humanitaire de la planète — famine, déplacements massifs et un conflit que la communauté internationale n’a pu ni arrêter ni même ralentir. Du Sahel — où une cascade de coups d’État a ouvert des corridors à l’expansion djihadiste — au Myanmar en passant par Gaza, le schéma se répète : l’architecture n’a ni le mandat, ni la capacité, ni le consensus pour agir. Le nombre de personnes déplacées de force a dépassé 122 millions en 2025 — près du double d’il y a dix ans.16 Chaque chiffre est une personne qui a perdu le lieu où sa vie s’était construite.


Le 5 février 2026, le dernier traité de contrôle des armements nucléaires entre les États-Unis et la Russie a expiré — le dernier maillon d’une chaîne remontant à 1972.17 Pour la première fois en plus de cinquante ans, aucune limite contraignante n’existe sur les deux plus grands arsenaux nucléaires de la planète. Aucune inspection. Aucun échange de données. Aucune architecture de transparence.

Dans ce vide, une troisième variable : l’arsenal chinois, historiquement une fraction des stocks américain et russe, en expansion à un rythme qui le rendra stratégiquement pertinent d’ici quelques années. Mais l’effondrement du contrôle des armements n’est que la couche visible. En dessous, la nature même du risque nucléaire a changé. Les missiles hypersoniques ont comprimé les fenêtres de décision de trente minutes à moins de dix. Les systèmes d’alerte précoce et de ciblage intégrés par l’IA poussent la logique de la dissuasion vers l’automatisation — non parce qu’une doctrine l’exige, mais parce que la cognition humaine est trop lente pour les armes qui existent désormais. Le danger n’est plus l’erreur de calcul entre dirigeants. C’est la pression structurelle pour retirer les dirigeants de la boucle décisionnelle.

L’architecture n’a pas simplement été mise à la retraite. Elle a été dépassée. Ce qui émergera — qu’il s’agisse d’un nouveau protocole de sécurité collective ou de la gestion automatisée de la destruction mutuelle — reste non écrit.

Les traités de contrôle des armements ont été négociés sur des décennies et démantelés en quelques années. Les régimes commerciaux qui ont mis une génération à se construire basculent en quelques mois. La contagion financière franchit les frontières en quelques heures. Les armes hypersoniques comblent la distance en quelques minutes. Les forces que ces garde-fous étaient censés contenir opèrent désormais sur des échelles de temps qui ne laissent aucune place à la délibération qu’ils étaient conçus pour permettre.


III. La grande transformation

Bien avant l’IA, et avant qu’il ne soit enclos, l’internet est né décentralisé, ouvert, non commercial — et chacune de ces propriétés lui a été retirée. L’usage commercial, interdit sur ARPANET, s’est imposé sans vote ni débat. Le système de noms de domaine — le cadastre du réseau, l’infrastructure qui détermine qui existe en ligne — a été placé sous l’autorité du département du Commerce des États-Unis pendant dix-huit ans. L’immense majorité des utilisateurs n’a jamais appris qu’une guerre de souveraineté avait été menée sur cette couche invisible.

Puis vinrent les murs — et les tunnels. La Chine a érigé le Grand Pare-feu. La Russie a greffé des contrôles sur un réseau initialement libre. L’Occident a choisi une troisième voie, que Snowden a révélée en 2013 : non pas le mur, mais la pénétration. PRISM a donné à la NSA un accès en temps réel aux données détenues par Google, Apple, Facebook et Microsoft — une colonisation structurelle de l’infrastructure commerciale par les agences de renseignement. Le web « privé », cet espace dans lequel deux milliards de personnes croyaient correspondre et penser en sécurité, n’avait jamais existé.

Lorsque la Russie a annexé la Crimée, l’une des premières opérations militaires a été la saisie des points d’échange internet : contrôler le réseau, c’est contrôler l’environnement informationnel d’une population. En parallèle, une enclosure plus lente et plus profonde. Meta, Google et Amazon ont accumulé un pouvoir sur les données rivalisant avec celui des États. Le RGPD de l’Union européenne en 2018, puis l’arrêt de la Cour de justice en 2023 — fusionnant violations de la protection des données et abus de position dominante — ont marqué les premières contre-offensives. Trop tard pour inverser la concentration. Du routage DNS aux algorithmes de recommandation, chaque couche d’infrastructure numérique a été un champ de bataille entre ouverture et capture.

L’intelligence artificielle n’a pas inauguré ce conflit. Elle en a changé la nature.

Des données au langage

Pendant trente ans, des milliards d’êtres humains ont écrit — courriels, articles, forums, code, conversations, thèses, œuvres créatives. Librement, sur des plateformes qui se présentaient comme des services. Cette production, la plus grande accumulation de langage humain de l’histoire, est devenue le corpus d’entraînement des grands modèles de langage.

Ces modèles ne pensent pas. Ce sont des machines stochastiques — des architectures probabilistes entraînées sur le langage humain, capables de produire du texte, du code, du raisonnement et des images avec une fluidité qui mime la cognition sans la reproduire. Leur puissance ne vient pas de l’intelligence mais de l’échelle : suffisamment de paramètres, suffisamment de données, et des propriétés émergentes apparaissent que leurs propres concepteurs ne peuvent pas toujours expliquer. C’est cette combinaison — prédiction statistique, comportements émergents, adaptabilité à un nombre incalculable de tâches — qui rend la technologie à la fois si prometteuse et si difficile à gouverner.

Et pourtant, ce qui importe ici n’est peut-être pas la nature du mécanisme, mais l’étendue de sa surface. Ces modèles opèrent dans tous les domaines où l’activité humaine est médiatisée par le langage : l’écriture, le raisonnement, la traduction, le diagnostic, l’enseignement, le droit, la programmation. Non pas la totalité de l’intelligence. Mais un territoire si vaste que des professions entières, des industries et des institutions se retrouvent à sa portée.

Les promesses sont à la mesure de cette surface. Un modèle de langage peut démocratiser l’accès au savoir, réduire des inégalités informationnelles que des siècles d’éducation publique n’ont pas réussi à combler, et amplifier la capacité d’action de chaque individu connecté. Pour la première fois, un outil cognitif puissant est potentiellement accessible à tous, partout, dans toutes les langues. Potentiellement. Car la structure dans laquelle ces outils sont déployés détermine si cette puissance émancipe ou asservit. Et cette structure, aujourd’hui, est celle de la concentration.

L’accélération et le choc

Chaque outil précédent dans l’histoire humaine a automatisé une fonction. Le levier : la force. Le moteur : la vitesse. L’ordinateur : le calcul. L’humain restait nécessaire pour une seule chose — le jugement. Décider, interpréter, saisir le contexte, naviguer l’ambiguïté. C’est précisément là qu’opèrent les grands modèles de langage. Non avec la subtilité d’un esprit humain. Avec autre chose : une force brute de reconnaissance de motifs appliquée à une surface que personne n’avait jamais automatisée — le langage, le raisonnement, la synthèse, la création.

La question n’est plus de savoir si ces machines « pensent ». La question est de savoir si la distinction compte encore, économiquement et politiquement, quand le résultat s’en approche suffisamment.

Il y a une ironie structurelle que les rapports officiels ne formulent pas. Ces modèles n’ont pas été construits à partir de rien. Ils ont été entraînés sur nous — sur trente ans d’écriture humaine déposée librement sur un internet qui se présentait comme un espace d’échange. Forums, articles, thèses, code, conversations, œuvres créatives. Ce corpus — le plus grand patrimoine linguistique jamais constitué — est devenu la matière première d’outils qui concurrencent désormais directement ceux qui l’ont produit.

Le FMI estime que 40 % de l’emploi mondial est exposé, ce taux s’élevant à 60 % dans les économies avancées.18 L’OIT documente que les femmes sont trois fois plus vulnérables.19 Derrière les modèles, des annotateurs de données au Kenya, aux Philippines et en Inde étiquettent les données d’entraînement pour moins de deux dollars de l’heure.20 Le producteur a nourri la machine. La machine remplace le producteur. Les travailleurs les plus précaires sont ceux qui la rendent possible.

Le 26 février 2026, Jack Dorsey a annoncé la suppression de plus de 4 000 postes chez Block — la moitié des effectifs de l’entreprise — non parce que l’activité était en difficulté mais parce qu’elle était florissante, et que les outils d’IA avaient rendu une équipe plus réduite plus productive que la précédente.21 C’est un cas parmi d’autres. Amazon a supprimé 30 000 postes de cadres entre fin 2025 et début 2026.22 Salesforce a réduit ses effectifs de support client de 9 000 à 5 000. Baker McKenzie, l’un des plus grands cabinets d’avocats au monde, a annoncé la suppression de 600 à 1 000 postes de services aux entreprises — environ 10 % de ses effectifs de support — invoquant une restructuration liée à l’IA.23 Le dénominateur commun n’est pas la détresse. C’est l’optimisation.

Et tout s’accélère. En janvier 2025, DeepSeek a publié R1 — un modèle de raisonnement dont la phase finale d’entraînement a coûté environ 294 000 dollars, construit sur un modèle de base (DeepSeek-V3) entraîné pour moins de 6 millions de dollars — atteignant des performances comparables à des systèmes propriétaires coûtant des ordres de grandeur de plus.24 Ce que cela démontre n’est pas simplement que l’IA devient moins chère. C’est qu’elle obéit à un paradoxe de Jevons : les gains d’efficacité ne réduisent pas le déploiement total — ils l’accélèrent, en rendant la technologie accessible à une base d’acteurs exponentiellement plus large.

En février 2026, des chercheurs de l’ETH Zurich et d’Anthropic ont démontré que les grands modèles de langage peuvent désanonymiser des comptes en ligne à grande échelle — reliant des profils pseudonymes à des identités réelles avec une haute précision, en quelques minutes, pour quelques dollars par profil. La pseudonymité en ligne, l’un des derniers refuges de l’architecture actuelle du web, n’est plus une garantie technique. C’est un pari contre la puissance computationnelle.

Les centres de données consomment déjà l’équivalent énergétique de nations entières.25 Des systèmes d’armes autonomes capables de sélectionner et d’engager des cibles sans contrôle humain significatif sont en cours de développement par plusieurs acteurs étatiques, sans aucun traité contraignant régissant leur déploiement. Ce ne sont pas des risques à l’horizon. Ce sont des faits accomplis, se cumulant à un rythme que les institutions — conçues pour des cycles de décision de mois ou d’années — ne peuvent pas traiter.

Ce n’est pas que les choses vont vite. C’est que la vitesse elle-même change la nature du problème. La technologie peut être saine. La vélocité de son déploiement, sans architecture institutionnelle capable de l’absorber, convertit l’opportunité en choc systémique.

Et la direction de ce choc n’est pas déterminée. Plusieurs avenirs sont déjà en compétition.

Les forces en concurrence

Ce qui est en jeu avec l’intelligence artificielle n’est pas quel pays remporte la course. C’est quelles forces prévalent à l’intérieur de chaque pays — et si un cadre institutionnel émergera capable d’en orienter l’issue. Trois forces façonnent déjà la transformation. Ce ne sont pas des modèles nationaux. Elles coexistent, interagissent et rivalisent au sein des mêmes systèmes.

La première est la concentration. La puissance de calcul, les données d’entraînement et les canaux de distribution s’accumulent entre un nombre toujours plus réduit de mains. Les entreprises américaines dominent le top dix des firmes d’IA par capitalisation boursière. NVIDIA seule dépasse 4 300 milliards de dollars début 2026 — davantage que le PIB de l’Allemagne.26 Selon Gartner, les dépenses mondiales en IA — matériel, infrastructure et services confondus — devraient dépasser 2 500 milliards de dollars en 2026. La concentration est une tendance structurelle de la technologie, qui récompense l’échelle, l’intensité capitalistique et le contrôle de l’infrastructure — bien que des percées récentes comme DeepSeek suggèrent que cette tendance n’est pas absolue à tous les niveaux de capacité. Mais partout où elle n’est pas contrée, elle produit la même attraction gravitationnelle : des outils cognitifs d’une puissance sans précédent, loués à ceux qui ont capturé les données et la puissance de calcul nécessaires à leur construction. Le risque n’est pas théorique. C’est que la capacité de penser, d’écrire, de produire et de diagnostiquer — des fonctions auparavant exercées par des humains autonomes — devienne un service fourni par une poignée de prestataires, sans participation démocratique aux conditions d’accès.

La deuxième est l’intégration. Les États incorporent l’IA dans l’appareil de gouvernance — non comme un outil ajouté aux institutions existantes, mais comme une couche qui restructure ce que les institutions peuvent voir, prédire et sur quoi elles peuvent agir. La logique structurelle est la lisibilité : la conversion de comportements humains complexes et opaques en flux de données lisibles, modélisables et anticipables par des systèmes centralisés. La Chine est allée le plus loin dans cette direction, avec un réseau estimé de plusieurs centaines de millions de caméras de surveillance, une initiative AI+ explicitement dédiée à la modernisation de la « gouvernance sociale », et des systèmes prédictifs conçus pour fusionner les flux de données provenant de caméras, capteurs, médias sociaux et informateurs de terrain en modèles capables d’anticiper le désordre avant qu’il ne se manifeste.

Mais la logique de la lisibilité n’est pas exclusivement chinoise. Considérons l’évaluation algorithmique du risque dans les condamnations pénales : un système déployé dans des dizaines d’États américains qui convertit les antécédents d’arrestation, les codes postaux, l’historique d’emploi et des variables démographiques indirectes en un score influençant le fait qu’un être humain attende son procès en prison ou chez lui. L’outil est présenté comme objectif. Les données encodent des décennies de pratiques policières discriminatoires. Le prévenu ne peut souvent ni voir le modèle, ni contester ses entrées, ni comprendre comment le score a été produit. Voilà à quoi ressemble l’intégration de l’IA dans la gouvernance en pratique — non nécessairement comme une grande architecture de surveillance, mais comme le remplacement silencieux du jugement humain par des processus computationnels opaques aux points de décision qui déterminent la vie des gens. L’échelle varie considérablement entre démocraties et systèmes autoritaires. L’impulsion sous-jacente — rendre les populations plus lisibles et administrables par le calcul — opère dans les deux cas.

La troisième est l’ouverture. DeepSeek, Llama, Mistral — les modèles à poids ouverts démontrent que la puissance de calcul n’est pas condamnée à rester propriétaire. Des communautés de développeurs, de chercheurs et d’institutions publiques construisent des alternatives qui prouvent la viabilité technique d’une voie distribuée. Ce n’est pas marginal : le R1 de DeepSeek a atteint des performances de pointe pour une fraction du coût des acteurs établis, et Mistral a établi la position la plus crédible de l’Europe dans le développement de modèles fondationnels.

L’argument technique en faveur de l’ouverture a déjà été gagné. L’argument institutionnel, non. Les modèles ouverts peuvent être téléchargés, affinés et déployés par quiconque — y compris par les acteurs les plus puissants, qui possèdent l’infrastructure pour les exploiter à une échelle que les communautés ne peuvent égaler. Sans cadres de gouvernance et mécanismes de redistribution, l’ouverture redistribue la capacité sans redistribuer le pouvoir. La voie technique existe. L’architecture politique pour qu’elle compte est la pièce qui reste à construire.

Ces trois forces coexistent au sein de chaque pays, de chaque économie, de chaque système politique. Les États-Unis abritent à la fois l’oligopole d’IA le plus concentré de la planète et l’écosystème open-source le plus dynamique. La Chine a produit DeepSeek et le Grand Pare-feu. L’Europe a rédigé l’AI Act mais n’héberge aucun développeur opérant à l’échelle des principaux laboratoires de pointe américains ou chinois.27 Aucune nation n’a résolu la tension entre ces forces. Aucune institution actuellement en activité n’a le mandat, la vitesse ou la conception pour y parvenir.

Ce cadre n’existe pas encore. Son absence est la conclusion centrale de cette section — et le point de départ de ce que ce site propose de construire.


IV. Les esprits

Les trois sections précédentes ont tracé un diagnostic à travers le substrat biophysique, l’architecture institutionnelle et la transformation technologique. Chacune a décrit des systèmes soumis à un stress structurel. Cette section concerne le substrat dont dépend toute réponse collective : la capacité des êtres humains à percevoir la réalité, à former des jugements et à agir ensemble sur la base de faits partagés.

Cette capacité se dégrade — non soudainement, et non à cause d’une seule technologie. Son environnement informationnel se remodèle désormais à la vitesse de l’optimisation algorithmique, tandis que la capacité délibérative qu’il supplante — les habitudes d’attention soutenue, de raisonnement fondé sur des preuves et de confiance institutionnelle dont dépend la gouvernance démocratique — a été construite au fil de siècles de pratique éducative, d’institution civique et de lente accumulation culturelle. De toutes les asymétries temporelles documentées dans cette évaluation, celle-ci est peut-être la plus lourde de conséquences : la force la plus rapide du système opère sur le substrat le plus lent à réparer.

L’érosion longue

L’érosion n’a pas commencé avec le smartphone. Elle n’a pas commencé avec les réseaux sociaux. Ses premiers signaux mesurables apparaissent des décennies avant le premier navigateur, dans des données qui n’ont rien à voir avec les écrans.

Le politiste Robert Putnam a documenté, à travers cinq décennies de données longitudinales, un déclin soutenu de l’association civique, de la confiance sociale et de la participation communautaire commençant dans les années 1960 et s’accélérant dans les années 1980 et 1990 — bien avant que l’internet n’atteigne une adoption de masse.28 Les causes identifiées par Putnam étaient multiples — l’étalement urbain, le ménage à deux carrières, les mutations de valeurs générationnelles — mais la conclusion centrale était structurelle : l’infrastructure sociale de la délibération démocratique se contractait avant qu’une seule plateforme n’existe pour accélérer le processus.

Ce que les écrans ont hérité n’était pas une culture délibérative saine perturbée par la technologie. C’était une culture déjà en train de perdre les habitudes institutionnelles — l’association locale, la lecture prolongée, le débat civique en face à face — par lesquelles le jugement collectif s’était formé.

La preuve que le déclin s’étend à la cognition elle-même est arrivée plus tard, et elle est plus difficile à écarter. Pendant la majeure partie du XXᵉ siècle, l’intelligence mesurée a progressé régulièrement dans tous les pays où des tests étaient administrés — un phénomène connu sous le nom d’effet Flynn, documenté à travers 271 échantillons totalisant quatre millions de participants.29 Meilleure nutrition, expansion de l’éducation, stimulation cognitive accrue : les gains étaient réels et constants.

Ils se sont inversés. Une étude de 2018 publiée dans les Proceedings of the National Academy of Sciences, utilisant les données de conscription militaire norvégienne couvrant trois décennies de cohortes de naissance, a identifié le point de retournement : les cohortes nées après environ 1975 présentent un déclin soutenu de 0,23 point de QI par an.30 Le résultat est méthodologiquement inhabituel — et inhabituellement difficile à contester — parce que le déclin apparaît au sein des familles. Les frères nés plus tard obtiennent des scores inférieurs à ceux nés plus tôt. Cela exclut la dérive génétique. Cela exclut les effets de l’immigration. Cela exclut les changements dans la population testée. Quelque chose dans l’environnement partagé a basculé, et ce basculement s’est fait contre le développement cognitif.

Les causes restent débattues. Le phénomène, non. Et le schéma de son apparition — un renversement émergeant au milieu des années 1970, s’approfondissant au cours des décennies suivantes — le situe précisément dans la même période qui a vu la télévision supplanter la lecture comme médium dominant, la participation civique décliner, et l’environnement informationnel entamer sa longue migration de la page imprimée vers l’écran.

Le Programme international pour le suivi des acquis des élèves de l’OCDE confirme la trajectoire à l’autre extrémité du spectre des âges. Les résultats PISA 2022 ont documenté un déclin d’environ 10–11 points en lecture (selon les critères d’inclusion des pays pour la comparabilité des tendances) et d’environ 15 points en mathématiques dans les pays de l’OCDE — les plus fortes baisses en un seul cycle de l’histoire du programme.31 L’analyse des tendances antérieures à la pandémie confirme que le déclin était en cours avant le COVID-19 ; la pandémie l’a accéléré, mais ne l’a pas causé.

Ce ne sont pas des impressions culturelles. Ce sont des mesures — conduites sur des millions de sujets, répliquées à travers les pays, publiées dans des revues à comité de lecture du plus haut niveau. Elles convergent vers un tableau qu’aucune étude isolée ne pourrait établir : les capacités cognitives et délibératives dont dépend une gouvernance démocratique complexe déclinent, de manière mesurable, depuis des décennies.

Et le déclin ne se cantonne pas à l’environnement informationnel. Quatre-vingt-dix-neuf pour cent de la population mondiale respire un air dépassant les limites de l’OMS. L’exposition au plomb, les particules fines et la prolifération de microplastiques — désormais détectés dans le tissu cérébral humain, avec des concentrations en hausse mesurable entre 2016 et 2024 — ont tous des effets neurocognitifs documentés.32 Le tableau causal complet est contesté, mais la convergence des pressions informationnelles, chimiques et nutritionnelles sur le développement cognitif au cours des mêmes décennies ne l’est pas. L’érosion de l’esprit, comme l’érosion des sols documentée dans la section I, a plus d’une source — et les sources se cumulent.

L’architecture et ses conséquences

L’érosion longue documentée ci-dessus a progressé graduellement, sur des décennies, portée par des forces diffuses. Ce qui s’est produit ensuite n’a pas été graduel. À partir du milieu des années 2000, l’environnement informationnel par lequel les sociétés démocratiques forment leurs jugements a été réingéniéré — délibérément, à grande échelle, et dans un but qui n’a rien à voir avec la formation du jugement.

Le modèle économique est désormais bien compris, bien que ses implications structurelles restent insuffisamment examinées. Les plateformes dominantes — Google, Meta, YouTube, TikTok, X — ne vendent pas de l’information aux utilisateurs. Elles vendent les utilisateurs aux annonceurs. La marchandise n’est pas le contenu mais l’attention, mesurée en temps passé, en interactions générées et en données comportementales captées. Cela a été si souvent rapporté que c’est devenu un lieu commun, et les lieux communs sont les endroits où réside le danger analytique — car la familiarité se substitue à la compréhension.

La structure profonde n’est pas la vente d’attention. C’est l’ingénierie de l’attention. Pour vendre l’attention à l’échelle et avec la précision que les annonceurs exigent, les plateformes doivent apprendre ce qui capte chaque utilisateur individuel — non les utilisateurs dans l’agrégat, mais cet utilisateur, maintenant, sur cet écran. L’architecture est donc conçue pour modéliser les croyances, les déclencheurs émotionnels, les préférences et les marqueurs identitaires de chaque personne qui la touche, et pour faire remonter un contenu calibré pour produire de l’engagement à partir de ce profil psychologique spécifique. La fonction d’optimisation n’est pas la vérité, la pertinence ou l’utilité civique. C’est la maximisation du temps et de l’énergie émotionnelle que chaque utilisateur investit dans la plateforme. Chaque défilement, chaque pause, chaque clic est un point de données réinjecté dans un modèle dont le seul objectif est d’apprendre ce qui vous retient — et de vous en donner davantage.33

Ce n’est pas un effet secondaire. C’est le produit. Ce que Shoshana Zuboff, chercheuse à la Harvard Business School, a identifié comme le capitalisme de surveillance n’est pas simplement un modèle économique qui tire profit des données — c’est une logique économique qui nécessite l’extraction et l’instrumentalisation continues de l’expérience humaine comme matière première pour la prédiction et la modification comportementale.33 La commodification de l’attention a une filiation remontant à la publicité dans les journaux du XIXᵉ siècle ; mais la couche de personnalisation — la capacité de modéliser et de cibler les vulnérabilités cognitives de chaque individu à la vitesse de la machine — est sans précédent.34

Les conséquences découlent de l’architecture avec quelque chose qui s’apparente à une nécessité logique.

Les contenus qui provoquent l’indignation, la peur ou l’identification tribale génèrent plus d’engagement que ceux qui informent. Ce n’est pas une hypothèse — c’est la conclusion centrale de la plus vaste étude sur la diffusion de l’information jamais réalisée. En 2018, des chercheurs du MIT Media Lab ont analysé la propagation d’environ 126 000 histoires vraies et fausses vérifiées sur Twitter, partagées par trois millions d’utilisateurs sur plus d’une décennie. Les fausses nouvelles ont atteint plus de personnes, pénétré plus profondément dans les réseaux et se sont propagées plus vite que les vraies dans toutes les catégories examinées — politique, science, finance, légendes urbaines. L’effet n’était pas dû aux bots. Il était dû aux humains, partageant des contenus plus nouveaux et plus émotionnellement excitants qu’un reportage exact.35

Mais l’asymétrie n’est pas aléatoire. Elle est personnalisée. L’architecture n’amplifie pas simplement ce qui est le plus bruyant. Elle apprend ce avec quoi chaque utilisateur est le plus susceptible d’interagir et fait remonter ce contenu de manière préférentielle. Pour un utilisateur dont les schémas d’engagement antérieurs indiquent une identité politique conservatrice, l’algorithme fait remonter du contenu qui confirme et intensifie cette identité. Pour un utilisateur dont les schémas indiquent une identité progressiste, l’inverse. Le contenu qui maximise l’engagement pour chaque profil tend, par tendance mesurée, à être un contenu plus extrême, plus émotionnellement chargé et moins exact que ce qu’un processus éditorial neutre ferait remonter — parce que l’extrémisme et la charge émotionnelle sont ce que la fonction d’engagement récompense.36

Le résultat n’est pas une chambre d’écho au sens simple — les utilisateurs ne sont pas hermétiquement séparés des opinions opposées. La conclusion est plus troublante que cela. Dans une expérience dirigée par Christopher Bail de l’université Duke et publiée dans PNAS, des utilisateurs républicains de Twitter payés pour suivre un bot retweetant des élus et des leaders d’opinion libéraux sont devenus plus conservateurs, non moins. Les démocrates exposés à du contenu conservateur ont montré une légère augmentation des attitudes libérales — un effet qui n’atteignait pas la significativité statistique.36 L’exposition à des opinions contraires, médiatisée par l’architecture de la plateforme, a accru la polarisation plutôt que de la réduire — parce que l’architecture a cadré la rencontre non comme un échange informationnel mais comme une confrontation identitaire. Le médium n’a pas porté le message. Le médium a transformé le message en une provocation calibrée pour approfondir la division qu’il prétendait combler.

Les gens ne croient pas principalement les faussetés parce qu’ils le veulent. Ils les croient parce que l’environnement informationnel dans lequel ils les rencontrent n’active pas — et dans de nombreux cas supprime activement — les processus cognitifs plus lents et plus coûteux en effort par lesquels l’exactitude est évaluée.37 L’architecture récompense la vitesse : le partage immédiat, la réaction instinctive, la première réponse émotionnelle. Elle pénalise la pause. Chaque choix de conception — le défilement infini, l’impulsion de notification, la métrique d’engagement rendue visible — est conçu pour maintenir l’utilisateur dans le registre rapide et hors du registre lent. L’architecture ne se contente pas de distribuer la désinformation. Elle cultive les conditions cognitives dans lesquelles la désinformation prospère.

Dans cet environnement déjà dégradé, l’IA générative a introduit quelque chose de structurellement nouveau. Les médias synthétiques — vidéo deepfake, audio cloné, texte généré par IA — ont atteint un niveau de sophistication qui résiste à l’inspection ordinaire. Le volume de contenus deepfake est passé d’environ 500 000 fichiers en 2023 à une projection de huit millions en 2025 ; le taux de détection humaine pour les deepfakes vidéo de haute qualité se situe aux alentours de 24 %.38 Entre 96 % et 98 % de l’ensemble des contenus deepfake en ligne consistent en images intimes non consenties, et 99 % d’entre eux ciblent des femmes — une arme genrée qui constitue le cas d’usage dominant de la technologie.38

Mais le dommage épistémique s’étend au-delà de la tromperie individuelle. La conséquence plus profonde est ce que les juristes ont nommé le dividende du menteur : quand tout enregistrement — image, vidéo ou audio — peut plausiblement être rejeté comme synthétique, la base probatoire du discours public s’effondre. Un homme politique pris sur le vif peut désormais prétendre que l’enregistrement est fabriqué. Un crime de guerre documenté en vidéo peut être écarté d’un geste. L’existence même de faux convaincants empoisonne le puits de l’évidence — non seulement quand des faux sont présents, mais chaque fois qu’ils sont simplement plausibles. C’est l’inversion structurelle : la même technologie qui rend trivialement facile de fabriquer des preuves rend trivialement facile de les nier. Le résultat n’est pas un monde inondé de mensonges. C’est un monde dans lequel la distinction entre preuve et fabrication devient structurellement insoluble pour les citoyens ordinaires.

Le résultat cumulé n’est pas la désinformation. C’est quelque chose de structurellement plus dommageable : l’émergence de populations habitant des réalités informationnelles incompatibles. L’étude empirique la plus complète de ce phénomène — une analyse systématique de la consommation médiatique, des schémas de partage et des flux d’information pendant l’élection américaine de 2016 par des chercheurs de Harvard — a conclu que l’écosystème informationnel américain s’était bifurqué en deux environnements médiatiques structurellement distincts et mutuellement inintelligibles, portés non par le choix individuel mais par l’architecture de distribution.39 Ce n’est pas une métaphore. C’est une condition empiriquement documentée dans laquelle deux groupes de citoyens, consommant de l’information à travers les mêmes plateformes, parviennent à des images factuelles du monde si divergentes que l’échange politique productif entre eux devient impossible — non parce qu’ils sont en désaccord sur les valeurs, mais parce qu’ils sont en désaccord sur ce qui s’est passé.

Les données longitudinales sur la confiance institutionnelle confirment la nature structurelle du basculement. La confiance dans les médias, les gouvernements, les entreprises et la société civile a décliné dans les 28 pays suivis par l’Edelman Trust Barometer depuis plus de deux décennies.40 Les données transnationales de l’OCDE sur la confiance dans les gouvernements montrent des trajectoires parallèles.41 Ce ne sont pas des fluctuations de sentiment. Ce sont des tendances structurelles opérant à travers des systèmes politiques, des environnements médiatiques et des contextes culturels divers — ce qui suggère que la cause n’est pas la politique locale mais l’architecture informationnelle par laquelle toutes ces sociétés fonctionnent désormais.

La même conclusion a été atteinte par un autre point de départ par Martin Gurri, ancien analyste de sources ouvertes à la CIA — non un universitaire ou un militant, mais un analyste professionnel formé à identifier des schémas structurels dans les environnements d’information publique.42 L’observation est précise. L’ancienne architecture de l’autorité institutionnelle était imparfaite, souvent capturée et fréquemment malhonnête. Mais elle remplissait une fonction : elle produisait une surface factuelle partagée — contestée, incomplète, biaisée, mais commune — sur laquelle la délibération démocratique pouvait avoir lieu. La nouvelle architecture produit de l’engagement. Elle produit de l’activation. Elle produit de la confirmation identitaire à grande échelle. Ce qu’elle ne produit pas — ce qu’elle n’est pas conçue pour produire, ce contre quoi sa fonction d’optimisation travaille activement — c’est une base probatoire partagée pour le jugement collectif.

Les institutions démocratiques délibèrent à la vitesse des auditions, des publications, des enquêtes, des décisions de justice. La désinformation se propage à la vitesse de l’amplification algorithmique — en secondes.43 Le temps qu’une rectification soit publiée, l’affirmation fausse a été vue par des millions de personnes. Le temps qu’une enquête aboutisse, le récit a été absorbé. L’asymétrie temporelle entre la production du faux et la production de la correction n’est pas un défaut du système. C’est le système. Et il opère sur des citoyens dont la capacité pour la cognition plus lente et plus exigeante que requiert l’exactitude décline — de manière mesurable, à travers les pays — depuis des décennies.

La formation sous distorsion

L’architecture décrite ci-dessus a été construite par des adultes, pour des adultes, afin d’extraire de la valeur commerciale de l’attention adulte. Ses effets les plus conséquents portent peut-être sur des personnes qui n’ont eu aucune part dans sa construction et aucune capacité à consentir à ses termes.

Un enfant né en 2010 est entré à l’école primaire l’année de la sortie de l’iPad. Au moment où cet enfant a atteint l’adolescence, les algorithmes de recommandation avaient été affinés par des milliards de cycles de rétroaction, et le smartphone était devenu le principal dispositif de médiation entre l’esprit en développement et le monde extérieur. L’environnement informationnel dans lequel cet enfant évolue n’est pas une version dégradée d’un environnement antérieur. C’est un environnement différent — et l’esprit qui s’y forme est façonné différemment.

Les preuves sont institutionnelles, longitudinales et transnationales. L’enquête Health Behaviour in School-aged Children de l’Organisation mondiale de la santé — couvrant 280 000 jeunes à travers 44 pays — documente que la proportion d’adolescents déclarant un usage problématique des réseaux sociaux est passée de 7 % en 2018 à 11 % en 2022.44 Ce ne sont pas des échantillons autosélectionnés ou des enquêtes militantes. Ce sont les propres données de l’OMS, comparables en poids institutionnel aux évaluations de la biodiversité de l’IPBES ou aux rapports sur les émissions du PNUE cités dans la section I.

Le débat méthodologique sur les tailles d’effet importe ici, et le geste intellectuellement honnête est de l’affronter directement. Une étude de référence publiée dans Nature Human Behaviour, utilisant une analyse par courbe de spécification sur un ensemble de données de 350 000 adolescents, a révélé que l’association entre l’utilisation de la technologie numérique et le bien-être des adolescents est réelle — mais faible. Les tailles d’effet étaient comparables à l’association négative entre le port de lunettes et le bien-être, et substantiellement inférieures à celles du harcèlement, de la privation de sommeil ou du tabagisme.45 Ce résultat n’écarte pas le problème. Il le précise : le dommage n’est pas dramatique et aigu, comme le suggère la couverture alarmiste, mais diffus et structurel — une pression de faible intensité exercée en continu, sur une génération entière, à travers chaque heure d’éveil d’exposition aux écrans. De petits effets, cumulés sur des centaines de millions d’adolescents pendant des années de formation développementale, produisent des conséquences au niveau populationnel qu’aucune étude individuelle ne peut saisir. La conclusion honnête n’est pas que les écrans sont inoffensifs. C’est que le mécanisme est chronique, non catastrophique — ce qui est précisément ce qui le rend difficile à combattre et facile à ignorer.

Mais sous les données comportementales — temps passé, bien-être autodéclaré, usage problématique — se trouve un changement plus profond et moins réversible. La neuroscientifique cognitive Maryanne Wolf a documenté ce qu’elle appelle l’érosion du « cerveau lecteur » : le circuit neurologique spécifique, construit par des années d’engagement soutenu avec le texte long, qui sous-tend la lecture profonde, le raisonnement inférentiel, l’analyse critique et la capacité à maintenir des arguments complexes en mémoire de travail.46 Ce circuit n’est pas inné. Il doit être construit par la pratique — par l’expérience lente, exigeante et répétée de suivre un argument développé de la prémisse à la conclusion, de maintenir l’ambiguïté sans résolution, de construire des modèles mentaux à partir du texte seul. Ce circuit est, dans le cadrage de Wolf, l’une des réalisations cognitives les plus significatives de l’histoire culturelle humaine. Et il est de moins en moins activé.

Les données expérimentales confirment la thèse neurologique. Une méta-analyse de 54 études confirme que le même texte lu sur écran produit une compréhension mesurablment inférieure et un traitement inférentiel plus faible que le même texte lu sur papier.47 La différence ne s’explique pas par la seule distraction. La lecture sur écran active des schémas attentionnels différents — plus de balayage, moins d’engagement linéaire soutenu — et ces schémas, répétés des milliers de fois au cours des années de développement, façonnent les voies neuronales disponibles pour les tâches cognitives ultérieures. L’inquiétude n’est pas que les jeunes lisent moins, bien que ce soit le cas. C’est que le mode de lecture qu’ils pratiquent le plus — fragmenté, piloté par le défilement, optimisé pour la vitesse — sollicite un circuit cognitif différent de celui que requiert le type de raisonnement dont dépendent la délibération démocratique, la culture scientifique et le jugement institutionnel.

Les résultats PISA 2022 de l’OCDE confirment la trajectoire au niveau de la population. Les scores en mathématiques dans les pays de l’OCDE ont chuté d’environ 15 points — la plus forte baisse enregistrée dans l’histoire de PISA — et les scores en lecture ont décliné d’environ 10–11 points parmi les pays disposant de données de tendance comparables.48 L’analyse des tendances antérieures à la pandémie confirme que la détérioration était en cours avant le COVID-19 ; la pandémie a accéléré un processus déjà engagé. Les élèves testés en 2022 sont nés entre 2006 et 2007 — la première cohorte à avoir passé la totalité de son adolescence au sein de l’architecture décrite dans la section précédente.

La réponse institutionnelle a été d’introduire les propres produits de l’architecture dans la salle de classe. Dans les pays de l’OCDE, les environnements d’apprentissage sur tablette se sont multipliés — souvent financés ou promus par les entreprises technologiques dont les plateformes sont impliquées par les données. La Suède a inversé sa politique nationale de numérisation pour l’enseignement primaire en 2023 après que sa propre agence de l’éducation a conclu que l’apprentissage sur écran contribuait au déclin des compétences en lecture et en écriture, et a commencé à réintroduire les manuels physiques.49 Elle reste une exception. La plupart des systèmes éducatifs continuent d’adopter des outils numériques sur la présomption que le médium par lequel le contenu est délivré est neutre au regard de la cognition qu’il produit. Les recherches examinées ci-dessus suggèrent que cette présomption est erronée.

Plusieurs juridictions ont commencé à agir du côté des plateformes. L’Australie a légiféré un âge minimum de 16 ans pour l’accès aux réseaux sociaux en 2024. Le Digital Services Act de l’Union européenne impose des obligations spécifiques en matière de conception de plateforme pour les mineurs. L’Online Safety Act 2023 du Royaume-Uni établit un cadre réglementaire traitant directement de l’architecture des plateformes. Ce sont des réponses précoces et partielles. Elles partagent un postulat commun : que le dommage se situe dans des plateformes ou des catégories de contenu spécifiques plutôt que dans l’architecture cognitive que l’environnement produit.

Rien de cela n’importerait au-delà du domaine de la politique éducative si les capacités en jeu étaient purement scolaires. Elles ne le sont pas. La capacité d’attention soutenue, la tolérance à l’ambiguïté, l’engagement avec la complexité et l’évaluation des preuves en conditions d’incertitude ne sont pas des compétences scolaires. Ce sont les prérequis cognitifs de la citoyenneté démocratique. C’est ce qui permet à une population d’évaluer des affirmations contradictoires, de résister à la manipulation, de demander des comptes aux institutions et de délibérer sur l’action collective face à une information incomplète. Chaque crise documentée dans cette évaluation — écologique, institutionnelle, technologique — requiert précisément ces capacités pour sa résolution. Et chaque tendance documentée dans cette section — les scores en baisse, le cerveau lecteur altéré, la pression chronique de faible intensité de l’architecture attentionnelle — les érode dans la génération qui héritera des conséquences.

La crise épistémique n’est pas seulement une urgence au présent. Elle façonne la capacité délibérative de la prochaine génération — la génération dont le jugement déterminera, en dernière instance, la réponse à toutes les autres crises de ce document.

Le piège récursif

Chaque crise documentée dans cette évaluation admet, en principe, une réponse. Les émissions peuvent être réduites. Les institutions peuvent être réformées. Les technologies peuvent être gouvernées. Les difficultés sont immenses, mais ce sont des difficultés de volonté, de coordination et de conception — non de la capacité à percevoir et raisonner sur le problème lui-même. La physique du système climatique est comprise. Les défaillances de l’architecture institutionnelle sont visibles. La trajectoire de la transformation technologique peut être cartographiée.

La gouvernance démocratique requiert une population capable d’attention soutenue, de raisonnement fondé sur des preuves, de tolérance à la complexité et de formation d’un jugement collectif en conditions d’incertitude. Ce sont les capacités que les trois sous-sections précédentes ont montré être soumises à une érosion structurelle — non par une cause unique, mais par une convergence de forces opérant sur des décennies, à travers les pays, et à travers chaque médium par lequel les citoyens rencontrent le monde. Le long déclin cognitif documenté dans la première sous-section est aggravé par une architecture informationnelle, documentée dans la deuxième, qui supprime activement la cognition réflexive que l’exactitude requiert. Et la troisième sous-section a montré que la génération héritant de ces pressions cumulées se forme en leur sein — son architecture cognitive façonnée pendant les années de développement au cours desquelles la capacité de lecture profonde, d’argumentation soutenue et de discrimination probatoire se construit — ou ne se construit pas.

La crise documentée dans cette section est d’un ordre différent. C’est une crise de la capacité à répondre aux crises.

Voilà le piège récursif. La dégradation de la capacité épistémique collective n’est pas une crise parmi d’autres. C’est la méta-crise — la dégradation de la faculté même par laquelle toutes les autres crises doivent être perçues, évaluées et combattues. Une société incapable de maintenir son attention ne peut pas suivre un modèle climatique. Un corps politique incapable de distinguer la preuve de la fabrication ne peut pas demander des comptes aux institutions. Une génération formée aux fragments ne peut pas construire les structures que la complexité exige.

Le piège est récursif parce que toute réponse à celui-ci doit être mise en œuvre par les capacités mêmes qu’il a dégradées. Les institutions qui réguleraient l’économie de l’attention délibèrent à un rythme que l’économie de l’attention a déjà dépassé. Les systèmes éducatifs qui reconstruiraient la lecture profonde fonctionnent au sein de l’environnement informationnel qui la sape. Les publics démocratiques qui exigeraient la réforme sont les publics dont la capacité de jugement collectif est en question. Il n’existe aucun point de vue extérieur depuis lequel réparer le système. La réparation doit venir de l’intérieur d’un système déjà compromis.

Ce n’est pas un problème que davantage d’information résout. C’est un problème dans les conditions sous lesquelles l’information devient jugement collectif — les conditions sous lesquelles les faits sont perçus, pesés, débattus et convertis en action. Ces conditions n’étaient pas données. Elles ont été construites, au fil des siècles, par la pratique éducative, la conception institutionnelle, l’habitude civique et la lente accumulation de normes délibératives. Elles peuvent être reconstruites. Mais pas par le diagnostic seul.

Le travail de reconstruction est le point où cette évaluation se termine et où la construction commence.


Références

Footnotes

  1. Stockholm Resilience Centre & Potsdam Institute for Climate Impact Research, Planetary Health Check 2025 (2025). planetaryhealthcheck.org

  2. Richardson, K., et al., “Earth beyond six of nine planetary boundaries,” Science Advances 9, no. 37 (September 2023). doi:10.1126/sciadv.adh2458. Mis à jour dans Planetary Health Check 2025. 2

  3. Water Peace and Security Partnership, Conflict Data 2023 — événements conflictuels liés à l’eau douce. waterpeacesecurity.org

  4. UNEP, Global Environment Outlook — GEO-7: People and Planet in Peril (Nairobi: UNEP, 2024). unep.org/geo/ 2 3

  5. United Nations Environment Programme, Emissions Gap Report 2025: Coming in Hot (Nairobi: UNEP, November 2025). unep.org/resources/emissions-gap-report-2025

  6. UNEP, Emissions Gap Report 2025 — analyse technique complémentaire sur l’alignement des CDN et les trajectoires 1,5 °C.

  7. IPBES, Global Assessment Report on Biodiversity and Ecosystem Services (Bonn: IPBES Secretariat, 2019). ipbes.net/global-assessment

  8. UNEP, Global Environment Outlook — évaluation des menaces sur les espèces, confirmant les conclusions de l’IPBES.

  9. UNEP, « INC-5.2 on Plastic Pollution concludes without agreement », communiqué de presse, août 2025. unep.org

  10. Retrait d’ABIOVE du Moratoire sur le soja amazonien, janvier 2026. Couvert par Mongabay, Reuters et Carbon Brief.

  11. Nations unies, « Accord dans le cadre de la Convention des Nations unies sur le droit de la mer relatif à la conservation et à l’utilisation durable de la diversité biologique marine des zones ne relevant pas de la juridiction nationale » (Accord BBNJ), entré en vigueur le 17 janvier 2026.

  12. World Economic Forum, Global Risks Report 2026, 21st ed. (Geneva: WEF, January 2026). weforum.org/publications/global-risks-report-2026

  13. Yale Budget Lab, “U.S. Tariff Tracker: Effective Tariff Rates 2025–2026,” mis à jour février 2026 ; Tax Foundation, “Tariff Analysis Post-IEEPA Ruling,” février 2026.

  14. Center for Strategic and International Studies, “China’s Export Controls on Critical Minerals: Gallium, Germanium, and Antimony,” analyse, 2025. csis.org

  15. Freedom House, Freedom in the World 2025 (Washington, DC: Freedom House, février 2025). freedomhouse.org/report/freedom-world/2025

  16. Haut-Commissariat des Nations unies pour les réfugiés, Global Trends: Forced Displacement in 2024 (Genève: UNHCR, 2025). unhcr.org/global-trends

  17. Nuclear Threat Initiative, “New START Treaty Expiration: Implications and Next Steps,” février 2026. nti.org. Voir aussi les analyses de Chatham House, du Lowy Institute et de Brookings.

  18. Fonds monétaire international, “Gen-AI: Artificial Intelligence and the Future of Work,” Note de discussion des services du FMI (janvier 2024). imf.org

  19. Organisation internationale du travail, “Generative AI and Jobs: A global analysis of potential effects on job quantity and quality,” Document de travail de l’OIT (2025). ilo.org

  20. CBS News, “The invisible workers behind AI” (2025) ; Brookings Institution, “Data Labelers and the Ethics of AI” (2025) ; Computer Weekly, “Kenya AI workers form Data Labelers Association” (janvier 2025).

  21. Annonce de Jack Dorsey et couverture de la réduction d’effectifs de Block (Square) de plus de 4 000 postes, 26 février 2026. Couvert par Bloomberg, TechCrunch et The Verge.

  22. Réductions de postes de cadres chez Amazon totalisant environ 30 000 positions, fin 2025–début 2026. Couvert par The American Bazaar (28 janvier 2026), CNBC et Reuters.

  23. Restructuration des effectifs de Baker McKenzie affectant 600 à 1 000 postes de services aux entreprises, invoquant une réorganisation liée à l’IA. Couvert par RollOnFriday (5 février 2026), Bloomberg Law, Legal Cheek, Above the Law et The Global Legal Post.

  24. DeepSeek, “DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning,” rapport technique et publication Nature, janvier–septembre 2025. Le chiffre de 294 000 $ correspond à la phase de fine-tuning par RL de R1 ; le chiffre de ~5,6–6 M$ couvre l’entraînement complet du modèle de base DeepSeek-V3 (2 048 GPU H800, ~55 jours). Voir The Register, 19 septembre 2025 ; analyse des coûts SemiAnalysis, janvier 2025.

  25. International Energy Agency, Electricity 2024: Analysis and Forecast to 2026 (Paris: IEA, 2024). iea.org/reports/electricity-2024

  26. Capitalisation boursière de NVIDIA : environ 4 310–4 500 milliards de dollars en février–mars 2026. Sources : companiesmarketcap.com, stockanalysis.com, Trading Economics.

  27. Commission européenne, « AI Act » (Règlement UE 2024/1689) ; Executive Order 14235, “Removing Barriers to American Leadership in Artificial Intelligence,” 23 janvier 2025 ; communiqué du Sommet de Paris sur l’IA et déclarations des non-signataires, février 2025.

  28. Putnam, R.D., “Tuning In, Tuning Out: The Strange Disappearance of Social Capital in America,” PS: Political Science and Politics 28, no. 4 (1995) : 664–683. Voir aussi Putnam, R.D., Bowling Alone: The Collapse and Revival of American Community (New York: Simon & Schuster, 2000).

  29. Pietschnig, J. & Voracek, M. (2015). “One Century of Global IQ Gains: A Formal Meta-analysis of the Flynn Effect (1909–2013).” Perspectives on Psychological Science 10, no. 3 : 282–306. doi:10.1177/1745691615577701.

  30. Bratsberg, B. & Rogeberg, O. (2018). “Flynn effect and its reversal are both environmentally caused.” Proceedings of the National Academy of Sciences 115, no. 26 : 6674–6678. doi:10.1073/pnas.1718793115.

  31. OCDE, PISA 2022 Results: Factsheets (Paris: Éditions OCDE, 2023). Mathématiques : la moyenne OCDE a baissé de 489 (2018) à 472 (2022). Lecture : baisse d’environ 10–11 points parmi les pays disposant de données de tendance comparables ; le chiffre précis dépend des critères d’inclusion des pays pour la comparabilité des tendances. oecd.org/pisa

  32. Sur les effets neurocognitifs des polluants environnementaux : Landrigan, P.J., et al., “The Lancet Commission on pollution and health,” The Lancet 391, no. 10119 (2018) : 462–512. doi:10.1016/S0140-6736(17)32345-0. Sur les microplastiques dans le tissu cérébral humain : Nihart, A.J., Garcia, M.A., El Hayek, E., et al. (2025). “Bioaccumulation of microplastics in decedent human brains.” Nature Medicine 31, no. 4 : 1114–1119. doi:10.1038/s41591-024-03453-1. Données de l’OMS sur la qualité de l’air citées dans la section I de ce document.

  33. Zuboff, Shoshana, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power (New York: PublicAffairs, 2019). Voir aussi Williams, James, Stand Out of Our Light: Freedom and Resistance in the Attention Economy (Cambridge: Cambridge University Press, 2018) — Williams est un ancien stratège de Google devenu philosophe à Oxford ; son analyse de la manière dont l’économie de l’attention dégrade l’agentivité individuelle et la capacité délibérative complète l’analyse structurelle de Zuboff. 2

  34. Wu, Tim, The Attention Merchants: The Epic Scramble to Get Inside Our Heads (New York: Knopf, 2016). Wu retrace la commodification de l’attention depuis la publicité dans les journaux du XIXᵉ siècle à travers la radio, la télévision et l’internet, établissant l’architecture actuelle comme le stade le plus récent — et le plus précis — d’un processus séculaire.

  35. Vosoughi, S., Roy, D., & Aral, S. (2018). “The spread of true and false news online.” Science 359, no. 6380 : 1146–1151. doi:10.1126/science.aap9559.

  36. Bail, C.A., et al. (2018). “Exposure to opposing views on social media can increase political polarization.” Proceedings of the National Academy of Sciences 115, no. 37 : 9216–9221. doi:10.1073/pnas.1804840115. 2

  37. Pennycook, G. & Rand, D.G. (2019). “Lazy, Not Biased: Susceptibility to Partisan Fake News Is Better Explained by Lack of Reasoning Than by Motivated Reasoning.” Cognition 188 : 39–50. doi:10.1016/j.cognition.2018.06.011.

  38. Volume, détection et impact des deepfakes : Keepnet Labs, “Deepfake Statistics & Trends 2026” (janvier 2026) ; Entrust Identity Fraud Report 2025 ; Pindrop 2025 Voice Intelligence + Security Report. Prévalence des images intimes non consenties : UK Parliament, House of Lords briefing, 2024 ; Ceartas.io Global Deepfake Statistics & Impact Report, 2025. Note : les chiffres proviennent principalement de la veille commerciale en matière de menaces ; la vérification gouvernementale indépendante reste partielle compte tenu de la nouveauté du phénomène. L’Internet Organised Crime Threat Assessment (IOCTA) 2024 d’Europol corrobore la tendance qualitative ; les chiffres précis de volume restent issus de la veille commerciale. 2

  39. Benkler, Y., Faris, R., & Roberts, H., Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics (New York: Oxford University Press, 2018).

  40. Edelman, Trust Barometer (annuel, 2001–2026). edelman.com/trust

  41. OCDE, Trust in Government (2021, mis à jour 2024). oecd.org/gov/trust-in-government.htm

  42. Gurri, Martin, The Revolt of the Public and the Crisis of Authority in the New Millennium (San Francisco: Stripe Press, 2018). Non évalué par les pairs, mais son argument central — que l’information en réseau détruit l’autorité institutionnelle sans offrir de remplacement — est analytiquement précis et largement cité dans les communautés politiques et du renseignement.

  43. Rosa, Hartmut, Social Acceleration: A New Theory of Modernity, trad. Jonathan Trejo-Mathys (New York: Columbia University Press, 2013).

  44. Organisation mondiale de la santé, Bureau régional pour l’Europe, Health Behaviour in School-aged Children (HBSC) International Report 2022 (Copenhague: OMS Europe, 2024). Enquête auprès de 280 000 jeunes à travers 44 pays. who.int

  45. Orben, A. & Przybylski, A.K. (2019). “The association between adolescent well-being and digital technology use.” Nature Human Behaviour 3 : 173–182. doi:10.1038/s41562-018-0506-1. Ensemble de données de 350 000 adolescents ; analyse par courbe de spécification testant 20 004 spécifications de modèles.

  46. Wolf, Maryanne, Reader, Come Home: The Reading Brain in a Digital World (New York: HarperCollins, 2018). Wolf est professeure en résidence et directrice du Center for Dyslexia, Diverse Learners, and Social Justice à la UCLA Graduate School of Education and Information Studies ; anciennement titulaire de la chaire John DiBiaggio à l’université Tufts. Voir aussi Wolf, M., Proust and the Squid: The Story and Science of the Reading Brain (New York: HarperCollins, 2007) pour le fondement neuroscientifique.

  47. Delgado, P., Vargas, C., Ackerman, R., & Salmerón, L. (2018). “Don’t throw away your printed books: A meta-analysis on the effects of reading media on reading comprehension.” Educational Research Review 25 : 23–38. doi:10.1016/j.edurev.2018.09.003. Méta-analyse de 54 études confirmant l’écart de compréhension entre écran et papier. Voir aussi Mangen, A., Walgermo, B.R., & Brønnick, K. (2013). “Reading linear texts on paper versus computer screen: Effects on reading comprehension.” International Journal of Educational Research 58 : 61–68. doi:10.1016/j.ijer.2012.12.002.

  48. OCDE, PISA 2022 Results: Factsheets (Paris: Éditions OCDE, 2023). Mathématiques : la moyenne OCDE a baissé de 489 (2018) à 472 (2022), soit environ 15 points. Lecture : baisse d’environ 10–11 points parmi les pays disposant de données de tendance comparables. oecd.org/pisa

  49. Agence nationale suédoise pour l’éducation (Skolverket), révision de la stratégie de numérisation dans l’enseignement primaire, 2023. La ministre de l’Éducation Lotta Edholm a annoncé le changement de politique en mai 2023, citant des recherches liant l’apprentissage sur écran au déclin des compétences en lecture et en écriture. Couvert par The Guardian, Politico et les médias nationaux suédois.