Manifeste
Pour la souveraineté de la conscience humaine à l'ère de l'intelligence artificielle
— Anne et Michel, mars 2026
Réel ou pas réel ?
Dans le dernier opus de la saga The Hunger Games, Peeta, un protagoniste ayant subi un conditionnement mental, interroge fréquemment sa compagne Katniss chaque fois qu'un doute s'installe dans son esprit sur la réalité d'une situation ou d'une affirmation, sur ce qu'il perçoit ou sur ce qui lui est dit : « Réel ou pas réel ? »
Cette question simple est devenue notre fil conducteur. Non par pessimisme, mais par lucidité. Parce que nous vivons désormais dans un environnement informationnel où la frontière entre ce qui est vrai et ce qui est fabriqué est devenue, pour la première fois dans l'histoire humaine, techniquement indiscernable à l'œil nu.
L'intelligence artificielle n'a pas créé ce problème. Mais elle l'a porté à une échelle et à une vitesse sans précédent.
Nous sommes deux retraités des technologies de l'information qui avons codé nos premières pages HTML à la main dans les années 1990, à une époque où le web portait encore la promesse d'une démocratisation réelle de l'information et du savoir.
Cette promesse s'est heurtée, méthodiquement, à des désillusions répétées. Les réseaux sociaux ont transformé l'espace public en chambre d'écho. Les algorithmes de recommandation ont appris à exploiter nos biais cognitifs avec une précision chirurgicale. La désinformation est devenue une industrie. Et la polarisation politique, sociale, épistémique — la fragmentation du réel partagé — est devenue la norme dans la plupart des démocraties occidentales.
Nous avons vu venir chacune de ces dérives. Et nous voyons maintenant ce qui arrive.
L'intelligence artificielle générative représente un saut qualitatif dans la capacité à produire du contenu persuasif, personnalisé, et indifférenciable du contenu humain authentique. Ce n'est pas une hypothèse : c'est déjà opérationnel.
Nos craintes sont précises :
- La manipulation de masse industrialisée. Des outils capables de générer des millions de messages ciblés, adaptés aux profils psychologiques individuels, au service d'intérêts politiques ou commerciaux, sans que les destinataires en soient conscients.
- L'érosion de l'autonomie épistémique. La capacité à former ses propres croyances librement, à partir de faits vérifiables et d'un raisonnement critique, est le fondement de toute démocratie fonctionnelle. Cette capacité est aujourd'hui sous pression systémique.
- La dépendance cognitive. Une IA qui pense à notre place, qui formule nos arguments, qui choisit nos informations — même avec de bonnes intentions — érode à long terme la musculature intellectuelle de ceux qui l'utilisent sans discernement.
- La concentration du pouvoir. Les systèmes d'IA les plus puissants sont entre les mains d'un nombre très restreint d'acteurs — sociétés et États — dont les intérêts ne coïncident pas nécessairement avec ceux des individus qu'ils servent.
- L'invisibilité de la manipulation. Contrairement à la propagande traditionnelle, qui était souvent identifiable comme telle, la manipulation par IA peut être indétectable, précisément parce qu'elle s'adapte à chaque individu en temps réel.
Nous refusons le catastrophisme stérile. L'IA est un outil — le plus puissant que l'humanité ait jamais produit — et comme tout outil, sa valeur dépend entièrement de l'intention et de la lucidité de celui qui l'utilise.
Une IA utilisée avec discernement peut faire exactement l'inverse de ce que nous craignons : aider à distinguer les faits des opinions, identifier les biais cognitifs dans un raisonnement, présenter les arguments contradictoires sur une question complexe, signaler les manipulations émotionnelles dans un contenu, et refuser de produire de la flatterie au lieu de la vérité.
C'est précisément ce que Hum_ID cherche à rendre possible : transformer l'IA d'un outil potentiellement manipulateur en un partenaire intellectuel honnête, orienté par les valeurs explicites de l'utilisateur, et non par les intérêts de la plateforme.
Nous ne sommes pas naïfs sur les intentions des entreprises technologiques. Mais nous croyons aux actes concrets plus qu'aux déclarations de principe.
En février 2026, Anthropic — créateurs de Claude, l'IA que nous utilisons, a refusé catégoriquement d'autoriser l'utilisation de Claude pour la surveillance de masse ou le développement d'armes autonomes sans supervision humaine. Ce refus leur a coûté un contrat de 200 millions de dollars avec le Pentagone américain.
Ce geste ne résout pas tous les problèmes. Mais il démontre qu'il est possible, même dans un environnement commercial ultra-compétitif, de poser des limites éthiques non négociables et de les tenir face à une pression financière considérable.
C'est le type de signal concret sur lequel nous choisissons de bâtir, non par allégeance aveugle, mais parce que les principes d'Anthropic en matière d'honnêteté, de non-manipulation et de protection de l'autonomie épistémique correspondent précisément aux valeurs que HUMANITY.NET défend.
La défense de sa propre conscience n'est pas une posture philosophique abstraite. C'est un ensemble de pratiques concrètes, accessibles à tout individu, quel que soit son niveau technique.
- Posez la question systématiquement. Face à toute affirmation — en ligne, dans les médias, dans une conversation générée par IA — demandez-vous : « Est-ce un fait vérifiable, une opinion, ou une hypothèse ? »
- Définissez vos règles avant d'utiliser l'IA. Ne laissez pas l'IA décider comment elle vous répondra. Soumettez-lui explicitement vos valeurs et vos exigences épistémiques en début de conversation — c'est précisément ce que Hum_ID vous permet de faire.
- Méfiez-vous du confort intellectuel. Une IA qui valide systématiquement vos idées n'est pas une IA utile. C'est une IA qui vous manipule doucement. Recherchez activement la contradiction et le point de vue opposé.
- Préservez votre raisonnement propre. Utilisez l'IA pour vous informer, vous challenger, vous aider à structurer vos idées, mais formez vos conclusions vous-même. La délégation totale du jugement est la forme la plus silencieuse de la capitulation intellectuelle.
- Exigez la transparence. Savoir qu'on parle à une IA, connaître ses limites et ses biais connus, comprendre les intérêts de la plateforme qui la déploie. Ce sont des droits, pas des privilèges.
- Transmettez ces réflexes. Les enfants et adolescents d'aujourd'hui grandissent dans un environnement où la distinction entre contenu authentique et contenu généré sera de plus en plus difficile. Les outiller dès maintenant n'est pas optionnel.
Ce que nous défendons
HUMANITY.NET ne défend pas une technologie, ne défend pas une entreprise et ne défend pas une idéologie.
HUMANITY.NET défend une capacité fondamentale : celle de chaque être humain à distinguer le réel du fabriqué, à former ses propres croyances librement, et à utiliser les outils les plus puissants de son époque sans en devenir l'instrument.
Réel ou pas réel ? La question la plus simple est souvent la plus radicale.
