Manifeste
Pour la souveraineté de la conscience humaine à l'ère de l'intelligence artificielle
— Anne et Michel, mars 2026
Réel ou pas réel ?
Dans le dernier opus de la saga The Hunger Games, Peeta, un protagoniste ayant subi un conditionnement mental, interroge fréquemment sa compagne Katniss chaque fois qu'un doute s'installe dans son esprit sur la réalité d'une situation ou d'une affirmation, sur ce qu'il perçoit ou sur ce qui lui est dit : « Réel ou pas réel ? »
Cette question simple est devenue notre fil conducteur. Non par pessimisme, mais par lucidité. Parce que nous vivons désormais dans un environnement informationnel où la frontière entre ce qui est vrai et ce qui est fabriqué est devenue, pour la première fois dans l'histoire humaine, techniquement indiscernable à l'œil nu.
L'intelligence artificielle n'a pas créé ce problème. Mais elle l'a porté à une échelle et à une vitesse sans précédent.
Nous sommes deux retraités des technologies de l'information qui avons codé nos premières pages HTML à la main dans les années 1990, à une époque où le web portait encore la promesse d'une démocratisation réelle de l'information et du savoir.
Cette promesse s'est heurtée, méthodiquement, à des désillusions répétées. Les réseaux sociaux ont transformé l'espace public en chambre d'écho. Les algorithmes de recommandation ont appris à exploiter nos biais cognitifs avec une précision chirurgicale. La désinformation est devenue une industrie. Et la polarisation politique, sociale, épistémique — la fragmentation du réel partagé — est devenue la norme dans la plupart des démocraties occidentales.
Nous avons vu venir chacune de ces dérives. Et nous voyons maintenant ce qui arrive.
L'intelligence artificielle générative représente un saut qualitatif dans la capacité à produire du contenu persuasif, personnalisé, et indifférenciable du contenu humain authentique. Ce n'est pas une hypothèse : c'est déjà opérationnel.
Nos craintes sont précises :
- La manipulation de masse industrialisée. Des outils capables de générer des millions de messages ciblés, adaptés aux profils psychologiques individuels, au service d'intérêts politiques ou commerciaux, sans que les destinataires en soient conscients.
- L'érosion de l'autonomie épistémique. La capacité à former ses propres croyances librement, à partir de faits vérifiables et d'un raisonnement critique, est le fondement de toute démocratie fonctionnelle. Cette capacité est aujourd'hui sous pression systémique.
- La dépendance cognitive. Une IA qui pense à notre place, qui formule nos arguments, qui choisit nos informations — même avec de bonnes intentions — érode à long terme la musculature intellectuelle de ceux qui l'utilisent sans discernement.
- La concentration du pouvoir. Les systèmes d'IA les plus puissants sont entre les mains d'un nombre très restreint d'acteurs — sociétés et États — dont les intérêts ne coïncident pas nécessairement avec ceux des individus qu'ils servent.
- L'invisibilité de la manipulation. Contrairement à la propagande traditionnelle, qui était souvent identifiable comme telle, la manipulation par IA peut être indétectable, précisément parce qu'elle s'adapte à chaque individu en temps réel.
Nous refusons le catastrophisme stérile. L'IA est un outil — le plus puissant que l'humanité ait jamais produit — et comme tout outil, sa valeur dépend entièrement de l'intention et de la lucidité de celui qui l'utilise.
Une IA utilisée avec discernement peut faire exactement l'inverse de ce que nous craignons : aider à distinguer les faits des opinions, identifier les biais cognitifs dans un raisonnement, présenter les arguments contradictoires sur une question complexe, signaler les manipulations émotionnelles dans un contenu, et refuser de produire de la flatterie au lieu de la vérité.
C'est précisément ce que Hum_ID et Hum_SCAN cherchent à rendre possible. Hum_ID transforme l'IA d'un outil potentiellement manipulateur en un partenaire intellectuel honnête, orienté par les valeurs explicites de l'utilisateur. Hum_SCAN permet d'analyser éthiquement n'importe quel texte — ou d'améliorer le sien — selon ces mêmes valeurs.
Les neurosciences apportent ici un éclairage singulier : lever une ambiguïté, distinguer le fait de la manipulation ou restaurer la clarté d'un récit confus active les circuits de la récompense. Ce sont les mécanismes mêmes que les réseaux sociaux exploitent, mais à des fins opposées. Tandis que des plateformes comme Facebook entretiennent une incertitude chronique pour nourrir l'addiction, l'acte de comprendre dissipe cette tension. Cette résolution cognitive procure une satisfaction neurochimique profonde. Dès lors, l'autonomie épistémique n'est plus un simple idéal philosophique, mais une nécessité biologique fondamentale du cerveau humain.
Nous ne sommes pas naïfs sur les intentions des entreprises technologiques. Mais nous croyons aux actes concrets plus qu'aux déclarations de principe.
En février 2026, Anthropic — créateurs de Claude — l'IA que nous utilisons, a refusé catégoriquement d'autoriser l'utilisation de Claude pour la surveillance de masse ou le développement d'armes autonomes sans supervision humaine. Ce refus leur a coûté un contrat de 200 millions de dollars avec le Pentagone américain.
Ce geste ne résout pas tous les problèmes. Mais il démontre qu'il est possible, même dans un environnement commercial ultra-compétitif, de poser des limites éthiques non négociables et de les tenir face à une pression financière considérable.
C'est le type de signal concret sur lequel nous choisissons de bâtir, non par allégeance aveugle, mais parce que les principes d'Anthropic en matière d'honnêteté, de non-manipulation et de protection de l'autonomie épistémique correspondent précisément aux valeurs que HUMANITY.NET défend.
Pourquoi certaines personnes ressentent-elles un plaisir réel à utiliser Hum_ID ou Hum_SCAN ? La réponse n'est pas anecdotique, elle est neurologique.
Sébastien Bohler, dans Le Bug Humain, montre comment les réseaux sociaux ont appris à exploiter le striatum — la structure cérébrale au cœur du système de récompense — en maintenant l'utilisateur dans un état d'incertitude artificielle. La récompense (un like, une notification) arrive de façon imprévisible, activant la dopamine selon le schéma le plus addictif connu : le renforcement à ratio variable, le même que dans les machines à sous. Le résultat est une addiction qui fragilise la pensée à long terme et rend l'individu chroniquement vulnérable à la manipulation.
Hum_ID et Hum_SCAN activent le même circuit neurologique, mais par un mécanisme radicalement différent : non pas en entretenant l'incertitude, mais en la résolvant. Quand un texte ambigu est structuré, quand une opinion déguisée en fait est nommée, quand la clarté remplace le malaise diffus, le cerveau répond par ce que les neuroscientifiques appellent une décharge dopaminergique de résolution. Ce plaisir est réel, mesurable, et ses effets à long terme sont exactement inverses à ceux des réseaux sociaux : vous revenez capable de penser davantage par vous-même, non moins.
Edward Deci et Richard Ryan, dont la théorie de l'autodétermination est l'une des plus solidement validées en psychologie de la motivation, identifient l'autonomie et le sentiment de compétence comme des besoins psychologiques fondamentaux au même titre que la faim ou le sommeil. Les satisfaire produit un bien-être durable. Les frustrer, comme le font systématiquement les plateformes conçues pour capter l'attention, produit de l'anxiété et de la vulnérabilité.
La souveraineté de la conscience dépasse la simple posture éthique pour devenir une condition sine qua non de la santé mentale. En libérant l'esprit de l'emprise des biais et des dissonances cognitives imposées, elle préserve l'intégrité de nos processus de décision. Dès lors, défendre cette autonomie n'est pas seulement un acte militant, mais constitue, littéralement, un acte de soin essentiel pour maintenir notre équilibre intérieur.
La défense de sa propre conscience n'est pas une posture philosophique abstraite. C'est un ensemble de pratiques concrètes, accessibles à tout individu, quel que soit son niveau technique.
- Posez la question systématiquement. Face à toute affirmation — en ligne, dans les médias, dans une conversation générée par IA — demandez-vous : « Est-ce un fait vérifiable, une opinion, ou une hypothèse ? »
- Définissez vos règles avant d'utiliser l'IA. Ne laissez pas l'IA décider comment elle vous répondra. Soumettez-lui explicitement vos valeurs et vos exigences épistémiques en début de conversation. C'est précisément ce que Hum_ID vous permet de faire. Et quand un texte vous laisse perplexe, ou que vous souhaitez améliorer votre propre écriture, Hum_SCAN applique ces mêmes règles à n'importe quel contenu.
- Méfiez-vous du confort intellectuel. Une IA qui valide systématiquement vos idées n'est pas une IA utile. C'est une IA qui vous manipule doucement. Recherchez activement la contradiction et le point de vue opposé.
- Préservez votre raisonnement propre. Utilisez l'IA pour enrichir votre réflexion, confronter vos idées ou structurer votre pensée, mais gardez la primauté de vos conclusions. Abandonner son discernement à l'algorithme est la forme la plus insidieuse de capitulation intellectuelle.
- Exigez la transparence. Savoir qu'on parle à une IA, connaître ses limites et ses biais connus, comprendre les intérêts de la plateforme qui la déploie. Ce sont des droits, pas des privilèges.
- Transmettez ces réflexes. Les enfants et adolescents d'aujourd'hui grandissent dans un environnement où la distinction entre contenu authentique et contenu généré sera de plus en plus difficile. Les outiller dès maintenant n'est pas optionnel.
Ce que nous défendons
HUMANITY.NET ne défend pas une technologie, ne défend pas une entreprise et ne défend pas une idéologie.
HUMANITY.NET défend une capacité fondamentale : celle de chaque être humain à distinguer le réel du fabriqué, à former ses propres croyances librement, et à utiliser les outils les plus puissants de son époque sans en devenir l'instrument.
Réel ou pas réel ? La question la plus simple est souvent la plus radicale.