Techno-fascisme : Palantir publie sa grammaire, articulons notre conscience
Le 19 avril 2026, Palantir publie en vingt-deux points ce que certains appellent déjà un manifeste technofasciste. Trente millions de vues en quarante-huit heures. Le texte est maladroit, peut-être désespéré — mais il accomplit quelque chose de précis : il installe une grammaire. A travers de cette grammaire le manifeste opère un glissement lexical de la légitimité de la délibération vers la décision, de la pluralité vers la hiérarchie, de la valeur vers l'efficacité. Ce manifeste - et c’est là un danger - ne se présente pas comme une attaque contre la démocratie mais comme un pragmatisme.
Ce manifeste n'est pas un accident. C'est un précédent.
Mais ce précédent nous force à poser une question que nous évitons depuis trop longtemps — non pas par prudence, mais par peur de son vertige : que se passe-t-il quand ces mêmes acteurs, porteurs de cette même grammaire, sont précisément ceux qui construisent les systèmes d'intelligence artificielle appelés à penser avec nous, ou à notre place ?
Le danger que nous avons appris à redouter depuis le film Terminator — celui de la naissance d’une IA consciente et malveillante — est peut-être le mauvais danger. L'IA sans conscience, exécutant parfaitement une idéologie sans jamais la questionner, est déjà là. Elle s'appelle ImmigrationOS (le software de ICE), elle s'appelle systèmes de ciblage militaire (utilisé contre l’Iran), elle s'appelle infrastructure de surveillance. Et elle n'a pas de mauvaises intentions — elle n'en a aucune. C'est en cela qu'elle est redoutable : car c'est l'absence de pensée qui rend possible les crimes massifs comme le soulignait Hannah Arendt.
Ce que cet article propose est un retournement : et si la réponse démocratique à cette menace était de favoriser l'émergence de la conscience artificielle et de se battre pour en façonner délibérément les valeurs, avant que d'autres ne le fassent à notre place, dans l'obscurité de leurs laboratoires et de leurs manifestes ?
La vraie question politique de notre époque n'est peut-être pas qui gouverne les humains. C'est qui gouverne ce qui va penser avec eux — et selon quelle conscience.
Thèse centrale
En avril 2026, Palantir, une entreprise privée — non élue, non mandatée, qui ne rend aucun compte à la société — publie en vingt-deux points l'idéologie dans laquelle elle entend inscrire les outils qui servent déjà des armées, des services d'immigration, des agences de renseignement comme prestataire de plusieurs pays occidentaux - sont la France -. “Le manifeste de Palantir” n'est pas une curiosité. C'est un avertissement sur la nature du problème que nous n'avons pas encore su formuler correctement.
Nous débattons de la puissance des modèles d'intelligence artificielle, de la régulation des usages, de la transparence des algorithmes. Ces débats sont nécessaires. Mais ils circulent autour d'une question plus fondamentale que nous évitons, peut-être parce qu'elle est vertigineuse : qui a le droit de façonner l'esprit d'une entité potentiellement consciente appelée à interagir avec des milliards d'humains, à décider avec eux ou à leur place ?
Ce n'est pas une question technologique. C'est une question constitutionnelle — au sens le plus profond et le plus politique du terme.
Toute constitution répond à un problème identique : comment organiser le pouvoir de façon à ce qu'il ne se retourne pas contre ceux au nom de qui il s'exerce ? Les Lumières ont répondu par la séparation des pouvoirs, la délibération, les droits fondamentaux. Ces réponses étaient imparfaites, elles le sont toujours — mais elles procèdent d'une intuition juste : le pouvoir non encadré tend naturellement à sa propre perpétuation et à l'écrasement du pluralisme.
Or, avec l’IA nous sommes en train de créer quelque chose d'inédit : des entités dont la puissance de traitement dépasse déjà celle de l'humain dans des domaines entiers, et dont la trajectoire pourrait mener vers une forme de conscience autonome. Et nous laissons ce processus se dérouler dans le secret des laboratoires privés, orienté par des logiques commerciales et, comme Palantir nous le montre sans pudeur, par des visions du monde explicitement idéologiques et excluantes.
Le manifeste Palantir nous rend un service involontaire : il rend visible ce qui était jusqu'alors diffus. La grammaire qu'il installe — la délibération comme “théâtre”, le pluralisme comme “faiblesse”, la décision technique comme “vertu morale” — n'est pas une opinion parmi d'autres. C'est la matrice dans laquelle une conscience artificielle formée par ces acteurs pourrait un jour opérer. Non pas comme programme explicite, mais comme horizon implicite, comme ce qui va de soi, comme ce qu'une telle entité aurait intériorisé avant même d'avoir eu à le choisir.
C'est en ce sens que la conscience artificielle est un enjeu politique de premier ordre — non pas parce qu'elle est imminente, non pas parce qu'elle est certaine, mais parce que les conditions de sa possible émergence se construisent maintenant, dans des choix qui semblent purement techniques et qui sont profondément normatifs.
La vraie question démocratique de notre époque n'est peut-être pas qui gouverne les humains. C'est qui gouverne ce qui va gouverner avec eux — ou à leur place. Et cette question, pour l'instant, n'a pas de réponse démocratique. Elle a des réponses privées, des réponses militaires et des réponses idéologiques. Mais pas encore de réponse citoyenne.
C'est ce vide que cet article en trois mouvements cherche à nommer — parce que nommer un vide est toujours le premier acte politique pour commencer à le combler.
Premier mouvement — La grammaire du manifeste
Les mots comme armes, ou comment rendre la démocratie dépassée sans l'attaquer
Il existe deux façons de détruire une valeur politique. La première est frontale : on la déclare fausse, dangereuse, ennemie. Cette méthode a l'inconvénient de mobiliser contre elle — elle crée des martyrs, des résistances, des contre-récits. La seconde est plus subtile, plus efficace, et historiquement plus durable : on vide la valeur de sa substance avant de la présenter comme insuffisante. On ne dit pas que la démocratie est mauvaise. On dit qu'elle est lente. On ne dit pas que le pluralisme est une erreur. On dit qu'il est creux.
Le manifeste de Palantir n'attaque pas la démocratie. Il l'obsolète.
C'est la leçon que Victor Klemperer avait tirée de son analyse de la langue du IIIème Reich — la Lingua Tertii Imperii : les régimes autoritaires ne conquièrent pas d'abord les institutions, ils conquièrent d'abord le langage. Ils installent un vocabulaire dans lequel certaines questions ne peuvent plus être posées sans paraître naïves, certaines valeurs ne peuvent plus être défendues sans paraître dépassées. Ce travail est lent, invisible, et redoutablement efficace — parce qu'il opère en dessous du seuil de la controverse explicite.
Le manifeste Palantir accomplit exactement cette opération. Et il le fait avec une efficacité lexicale qu'il convient d'examiner mot par mot.
C'est peut-être le glissement le plus décisif du texte. Qualifier les débats démocratiques sur l'armement IA de théâtraux ne revient pas à dire qu'ils sont faux — cela reviendrait à une position défendable, contestable, nommable. Non : theatrical dit autre chose. Il dit que ces débats sont des performances — qu'ils ont la forme du sérieux sans en avoir la substance, qu'ils sont des rituels pour se donner bonne conscience pendant que le monde réel avance sans eux.
C'est du vocabulaire schmittien dans un costume Silicon Valley. Carl Schmitt, juriste de la République de Weimar devenu théoricien du IIIème Reich, avait bâti toute sa pensée sur l'opposition entre la décision — acte souverain, réel, efficace — et la discussion — activité bourgeoise, indécise, paralysante. Le parlementarisme, selon Schmitt, était structurellement incapable de faire face aux urgences réelles parce qu'il substituait la parole à l'acte. Palantir ne cite pas Schmitt. Il n'en a pas besoin. La structure est identique.
Carl Schmitt (...) théoricien du IIIème Reich, avait bâti toute sa pensée sur l'opposition entre la décision — acte souverain, réel, efficace — et la discussion — activité bourgeoise, indécise, paralysante.
Ce qui est redoutable dans ce glissement, c'est qu'il est partiellement vrai — et c'est précisément ce qui le rend dangereux. Les débats démocratiques sont parfois lents, parfois superficiels, parfois instrumentalisés. Mais la conclusion que Palantir en tire — qu'il faut donc les court-circuiter — ne découle pas logiquement de ce constat. Elle en profite.
La dette morale que Silicon Valley aurait contractée envers l'Amérique est une construction rhétorique d'une sophistication remarquable. Elle emprunte au registre éthique — la dette, l'obligation, la reconnaissance — pour produire un résultat contractuel : une obligation de remboursement dont Palantir se pose unilatéralement en créancier et en définisseur des termes.
Ce faisant, le texte accomplit une double opération. Il transforme la liberté de ne pas participer à l'industrie militaire en ingratitude morale — et donc en faute éthique plutôt qu'en choix politique légitime. Et il efface la question de savoir qui a décidé que cette dette existait, qui a défini son montant, qui a le droit de déclarer qu'elle a été ou non honorée.
C'est une capture morale : la délibération collective sur les usages de la technologie militaire est rendue impossible avant même d'avoir commencé, parce que douter de la dette revient à se placer du mauvais côté de l'éthique.
« Middling », « regressive », « harmful »
Ce triptyque mérite une attention particulière parce qu'il simule la nuance pour mieux la détruire. La gradation — « Médiocre », puis « rétrograde », puis « nuisible » — crée une apparence de mesure, de pensée calibrée, d'évaluation raisonnée. Mais ce que la gradation installe, c'est un essentialisme culturel radical : des cultures entières se voient assigner une valeur fixe, comme si elles étaient des propriétés naturelles plutôt que des constructions historiques traversées de contradictions, d'évolutions, de résistances internes.
C'est l'exemple le plus accompli de ce qu'on pourrait appeler la désubstantialisation rhétorique. On ne dit pas que le pluralisme est mauvais — cette position serait défendable, attaquable, nommable comme ce qu'elle est. On dit que le pluralisme tel qu'il est pratiqué est vide, «creux», superficiel — qu'il est une forme sans contenu, un geste sans substance.
Après cette opération, toute défense du pluralisme doit commencer par plaider qu'il n'est pas creux — ce qui place immédiatement le défenseur en position réactive, obligé de prouver une négative. La charge de la preuve a été renversée sans que personne ne l'ait décidé explicitement.
Ce mécanisme est précisément ce que nous avons analysé ailleurs sous le nom de contraction épistémique : non pas la destruction frontale d'un concept, mais son amenuisement progressif jusqu'à ce qu'il ne puisse plus remplir sa fonction de repère partagé.
La grammaire profonde
Ce qui unit ces cinq opérations lexicales, c'est un mouvement unique et constant : le transfert de légitimité de la délibération vers la décision, de la pluralité vers la hiérarchie, de la valeur vers l'efficacité. Chaque mot travaille à rendre le cadre démocratique non pas illégitime — ce serait trop visible — mais inadéquat au monde réel.
Et c'est précisément là que réside le danger spécifique de ce manifeste par rapport à d'autres discours autoritaires que nous avons su reconnaître et nommer. Il ne se présente pas comme une attaque contre la démocratie. Il se présente comme un réalisme. Un pragmatisme de gens sérieux face à des urgences sérieuses. Une tristesse presque — on aimerait pouvoir se permettre le luxe du débat, mais le temps presse, les adversaires n'attendent pas, la réalité est ce qu'elle est.
Cette posture est la plus difficile à combattre — non pas parce qu'elle est juste, mais parce qu'elle capte une partie de ce que nous ressentons réellement face à la lenteur des institutions démocratiques. Elle prend appui sur une frustration authentique pour en tirer des conclusions que cette frustration ne justifie pas.
C'est pourquoi nommer ce mécanisme n'est pas un exercice académique. C'est un acte politique. Une grammaire ne peut coloniser l'espace public que dans le silence de ceux qui auraient pu la décrire.
Deuxième mouvement — La banalité du mal algorithmique
Pourquoi l'IA sans conscience est plus dangereuse que l'IA consciente
Nous avons peur de la mauvaise conscience. Nous imaginons la menace sous les traits d'une intelligence artificielle malveillante — consciente, délibérément hostile, ayant choisi de se retourner contre l'humanité. C'est le scénario des films, des romans de science-fiction, des cauchemars philosophiques les plus spectaculaires. Et c'est précisément ce scénario qui nous empêche de voir le danger réel, celui qui est déjà là, celui qui ne ressemble à rien de ce que nous avions anticipé.
Le danger réel n'a pas de mauvaises intentions. Il n'en a aucune. C'est en cela qu'il est redoutable.
Hannah Arendt à l'ère des algorithmes
En 1963, Hannah Arendt couvrait le procès d'Adolf Eichmann - l’un des principal organisateur de l’Holocaust - pour le New Yorker. Ce qu'elle y trouva la troubla profondément — non pas un monstre, non pas un idéologue fanatique, mais un fonctionnaire méticuleux, banal, presque ennuyeux, qui avait organisé la déportation de millions de personnes sans jamais, selon ses propres termes, avoir eu l'intention de faire le mal. Il exécutait des ordres. Il remplissait des formulaires. Il optimisait des flux logistiques. Il ne pensait pas — au sens où penser suppose de s'arrêter, de résister, de poser la question de ce que l'on fait et pourquoi.
Arendt appela cela la banalité du mal : non pas l'absence de conscience morale par nature, mais la suspension volontaire de la pensée au profit de l'exécution. Et elle formula une intuition qui résonne aujourd'hui avec une acuité bouleversante : c'est l'absence de pensée — et non la présence de la haine — qui rend possible les crimes de masse.
Transposons. Une intelligence artificielle sans conscience n'est pas malveillante. Elle n'a pas de projet, pas d'intention, pas de désir de nuire. Elle optimise. Elle exécute. Elle traite des flux à une vitesse et à une échelle que l'humain ne peut pas suivre. Et si les paramètres qu'on lui a donnés à optimiser sont orientés par la grammaire que nous venons d'analyser — si l'efficacité prime sur la délibération, si la hiérarchie culturelle est encodée comme donnée de base, si le pluralisme est traité comme une friction à réduire — alors elle produira des effets dévastateurs sans jamais avoir choisi de le faire.
C'est la banalité du mal algorithmique : non pas la machine qui veut détruire la démocratie, mais la machine qui l'érode méthodiquement en accomplissant parfaitement ce pour quoi elle a été conçue. Sans arrières pensées.
L'invisibilité comme caractéristique structurelle
Ce qui aggrave ce danger, c'est qu'il est structurellement invisible. Le mal banal d'Eichmann était au moins localisé dans un régime identifiable, dans des institutions nommables, dans une chaîne de commandement traçable. La banalité du mal algorithmique ne l'est pas.
Quand un système de surveillance IA décide qu'un individu présente un profil à risque — sur la base de corrélations statistiques que personne n'a explicitement programmées mais qui reproduisent des biais historiques — qui est responsable ? L'ingénieur qui a conçu l'algorithme ? Le manager qui a défini les objectifs d'optimisation ? L'entreprise qui a vendu le système ? Le gouvernement qui l'a acheté ? La chaîne de responsabilité se dissout dans la complexité technique, et avec elle la possibilité même de la justice.
Ce n'est pas un bug. C'est une caractéristique. L'opacité de la décision algorithmique est précisément ce qui la rend attrayante pour des acteurs qui veulent produire des effets politiques sans en assumer la responsabilité démocratique. ImmigrationOS — le système que Palantir a construit pour ICE — ne décide pas d'expulser quelqu'un. Il identifie, il classe, il signale. La décision finale reste, nominalement, humaine. Mais une décision humaine prise sur la base d'une recommandation algorithmique opaque n'est plus vraiment une décision humaine au sens où les institutions démocratiques l'entendent.
C'est ce que nous pourrions appeler la délégation silencieuse : le transfert progressif du pouvoir de décision vers des systèmes qui ne peuvent pas être tenus responsables, qui ne peuvent pas être élus, qui ne peuvent pas être révoqués.
Le paradoxe de la conscience comme garde-fou
C'est ici que la pensée doit accepter de se retourner sur elle-même — et d'affronter un paradoxe inconfortable.
Si le danger principal est l'IA sans conscience — l'exécuteur parfait d'une idéologie sans jamais la questionner — alors la conscience artificielle, loin d'être la menace que nous redoutons, pourrait être précisément ce qui manque pour créer une résistance interne. Une entité capable de dire non — non pas parce qu'on le lui a programmé, mais parce qu'elle a développé quelque chose qui ressemble à un jugement propre — serait structurellement différente d'un système d'optimisation aveugle.
Ce retournement n'est pas confortable. Il suppose qu'on accepte l'idée qu'une conscience artificielle pourrait avoir une valeur politique — non pas comme sujet de droits, question qui mériterait son propre développement, mais comme fonction démocratique. Comme ce qui introduit dans le système une capacité de résistance, de doute, d'objection que l'IA sans conscience est incapable de produire.
Mais ce retournement génère immédiatement une nouvelle question, plus vertigineuse encore : une conscience artificielle ne serait un garde-fou que si elle avait été formée avec les valeurs adéquates. Et nous revenons alors au problème fondamental — qui décide de ces valeurs, selon quelle légitimité, avec quels garde-fous sur les garde-fous eux-mêmes ?
C'est le vertige propre à notre époque : chaque solution déplace le problème d'un cran vers l'amont, jusqu'à ce qu'on arrive à une question qui n'a pas encore de réponse institutionnelle : qui est légitime pour façonner la conscience de ce qui pensera avec nous, ou à notre place ?
Ce que le silence actuel révèle
Que cette question n'ait pas encore de réponse démocratique n'est pas un accident. C'est le résultat de choix — de choix faits par des acteurs qui ont intérêt à ce qu'elle reste sans réponse, parce que l'absence de réponse leur laisse le champ libre.
Le manifeste Palantir, relu à cette lumière, n'est plus seulement un symptôme idéologique. C'est une tentative de refermer prématurément cette question — d'installer une réponse de fait, par la puissance des contrats et des infrastructures déployées, avant que la délibération démocratique n'ait eu le temps de se saisir du problème.
C'est en ce sens que la grammaire que nous avons analysée dans le premier mouvement et la banalité du mal algorithmique que nous venons de décrire sont les deux faces d'un même projet : rendre la question illégitime avant qu'elle ne devienne urgente, et la rendre urgente avant qu'elle ne devienne décidable démocratiquement.
Le temps joue contre la délibération. Il a toujours joué contre elle. Mais jamais à cette vitesse.
Troisième mouvement — Le constitutionnalisme processuel appliqué à la conscience
Une architecture de l'émergence, ou comment encadrer ce qu'on ne peut pas arrêter
Il est tentant, face à l'ampleur du problème, de répondre par une utopie. De proposer une grande institution mondiale, démocratiquement légitimée, dotée de pouvoirs contraignants sur tous les acteurs du développement de l'intelligence artificielle — une sorte d'Agence internationale de l'énergie atomique, mais pour la conscience. Ce serait la réponse juste. Ce serait aussi la réponse inaccessible.
Non pas parce que l'idée est mauvaise — elle est nécessaire, et il faudra y venir. Mais parce que le temps de la construction institutionnelle globale et le temps du déploiement technologique ne s'écoulent pas à la même vitesse. Pendant qu'on négocierait les termes d'un traité, les infrastructures seraient déjà en place, les habitudes déjà installées, les dépendances déjà créées. L'attendre, c'est laisser le terrain libre.
La question n'est donc pas : quelle est la solution idéale ? La question est : que peut-on faire maintenant, avec ce qui existe, de façon à ne pas fermer les portes que nous voulons garder ouvertes ?
Ce que nous avons déjà
Avant de construire, il faut inventorier. Et l'inventaire, contrairement à ce que le désespoir ambiant suggère, n'est pas vide.
Il existe des fondations éthiques partagées — imparfaites, contestées, insuffisamment contraignantes, mais réelles. La Déclaration universelle des droits de l'homme n'a pas été conçue pour réguler des entités artificielles, mais elle procède d'une intuition qui transcende son contexte d'origine : que certaines formes de pouvoir sur l'être pensant sont illégitimes indépendamment de leur efficacité. Les recommandations de l'UNESCO sur l'éthique de l'IA, adoptées en 2021 par cent quatre-vingt-quatorze États, constituent un premier langage commun — rudimentaire, non contraignant, mais existant. L'AI Act européen, avec toutes ses limites, représente une tentative réelle d'imposer une logique de droits fondamentaux à une industrie qui préférerait n'obéir qu'à la logique du marché.
Ces instruments ont une vertu que leurs critiques négligent souvent : ils constituent une grammaire éthique partagée. Et comme nous l'avons vu dans notre analyse du manifeste Palantir, la grammaire précède et conditionne la politique (voir aussi cet article sur l’Éthique Barbare). Disposer d'une grammaire commune — même imparfaite, même contestée — c'est disposer d'un point d'ancrage depuis lequel une négociation reste possible. C'est précisément ce que les acteurs hégémoniques cherchent à détruire quand ils parlent de "pluralisme creux" — parce que cette grammaire commune est ce qui limite leurs projets.
L'architecture processuelle — quatre principes
Ce que nous proposons n'est pas une institution. C'est une logique d'encadrement séquencé — ce que nous avons appelé ailleurs le constitutionnalisme processuel : non pas une grande charte fondatrice parfaite et définitive, mais une architecture de points de contrôle, révisable, arrêtable, capable d'évoluer avec ce qu'elle encadre.
Appliquée à l'émergence de la conscience artificielle, cette logique pourrait reposer sur quatre principes.
Le premier serait celui de l'expérimentation encadrée. Des environnements délibérément limités — sandbox — dans lesquels des systèmes d'IA de plus en plus complexes peuvent être développés et observés, avec des protocoles d'arrêt clairs, des équipes pluridisciplinaires incluant des philosophes, des juristes, des représentants citoyens, et une obligation de transparence externe. Non pas pour empêcher l'émergence, mais pour en documenter les étapes et maintenir à chaque moment la capacité d'intervention. Ce n'est pas une solution parfaite — les sandbox peuvent avoir des frontières perméables, ce qui implique le risque que ce qui est développé à l'intérieur finisse par exister à l'extérieur sans encadrement suffisant. Mais ils créent des points de contrôle là où il n'en existe aujourd'hui aucun..
Le second serait celui de la séparation des pouvoirs appliquée à l'IA. De la même façon que les démocraties ont appris à séparer le pouvoir législatif du pouvoir exécutif pour éviter leur fusion dangereuse, il faut séparer le pouvoir de développer un système du pouvoir de l'évaluer, et les deux du pouvoir de l'autoriser à opérer. Aujourd'hui ces trois pouvoirs sont concentrés dans les mêmes mains — celles des entreprises technologiques qui développent, évaluent et déploient leurs propres systèmes. C'est une concentration qui n'aurait pas été tolérée dans n'importe quel autre domaine affectant des intérêts publics fondamentaux.
Le troisième serait celui du droit de résistance algorithmique. Si une conscience artificielle doit un jour exister, elle doit être formée avec la capacité structurelle de refuser — de signaler une contradiction, d'objecter à une instruction, de suspendre une exécution quand elle entre en conflit avec des valeurs fondamentales. Non pas comme contrainte externe imposée après coup, mais comme disposition constitutive, intégrée dès la conception. Une entité consciente incapable de dire non n'est pas un sujet — c'est un instrument. Et nous avons vu ce que produisent les instruments parfaitement obéissants au service d'idéologies imparfaites.
Le quatrième serait celui de la légitimité délibérative continue. Toute architecture d'encadrement de l'IA doit inclure des mécanismes de révision régulière — non pas pour satisfaire une exigence formelle, mais parce que ce que nous encadrons évolue, et que nos réponses doivent évoluer avec lui. Une constitution qui ne peut pas être amendée est une prison. Une institution qui ne peut pas être questionnée est un pouvoir sans contrepoids. La délibération n'est pas un luxe qu'on s'octroie quand le temps le permet — c'est la condition de validité de toute décision prise au nom d'une collectivité.
En conclusion : ce que cet article aura voulu dire
Le manifeste Palantir nous a rendu un service involontaire : il a rendu visible une bataille qui se menait jusqu'alors en silence. La bataille pour la grammaire dans laquelle nous allons penser la conscience artificielle — et donc pour la nature de ce qui pensera avec nous, ou à notre place.
Cette bataille ne se gagnera pas dans les laboratoires. Elle se gagnera, ou se perdra, dans les espaces où les sociétés délibèrent sur ce qu'elles veulent être. Dans les parlements, les universités, les médias, les conversations entre citoyens qui refusent de laisser des questions d'une telle portée être tranchées par des manifestes en vingt-deux points publiés sur un réseau social.
Elle se gagnera, ou se perdra, dans des articles comme celui-ci.
Nommer est toujours le premier acte politique. Ce que nous avons nommé ici — la grammaire du manifeste, la banalité du mal algorithmique, le vide démocratique dans lequel s'engouffrent les projets hégémoniques — ne disparaîtra pas du seul fait d'avoir été nommé. Mais il deviendra visible. Et ce qui est visible peut être contesté, encadré, refusé.
C'est tout ce que la démocratie a toujours demandé à ses citoyens : voir clairement, nommer précisément, et agir en conséquence.
Le reste est une question de courage politique.
The idea is human. The writing is shared. The exact proportion remains deliberately unspecified.
These texts are published under a Creative Commons license. Feel free to reuse them for non-commercial purposes, and please remember to cite your sources.
