Deux nouvelles, une seule question

Deux événements survenus cette semaine méritent d’être lus ensemble.

Le premier : Donald Trump a publié sur Truth Social un message accusant les grands médias américains de diffuser de fausses informations sur la guerre en Iran, suggérant que les responsables pourraient être “poursuivis pour TRAHISON pour diffusion de fausses informations”. Il a aussi salué son président de la FCC, Brendan Carr, qui menaçait de retirer leurs licences aux diffuseurs produisant ce qu’il appelle des “canulars et distorsions de l’information”.

Le second : le Financial Times, le Guardian, la BBC, le Telegraph et Sky News ont annoncé leur intention de former une coalition — qu’ils appellent eux-mêmes une “OTAN de l’information” — pour forcer les entreprises d’IA à payer pour le contenu journalistique utilisé pour entraîner leurs modèles. Des médias norvégiens vont plus loin : ils financent leur propre modèle de langage (LLM) à partir des archives nationales.

Ces deux nouvelles semblent sans rapport. Elles parlent pourtant exactement de la même chose : qui contrôle ce qui est vrai, et qui en tire profit.


Ce qui est établi

Trump a publié le 16 mars 2026 sur Truth Social un message de 401 mots accusant les médias de coordination avec l’Iran pour diffuser de fausses informations, en particulier une vidéo générée par IA montrant le porte-avions USS Abraham Lincoln en flammes. Il a suggéré des “poursuites pour TRAHISON”.

CNN a vérifié : aucun grand média américain n’a diffusé la vidéo falsifiée. Les seules références trouvées pointaient vers trois médias étrangers — israélien, turc et saoudien. La Maison-Blanche, interrogée sur des exemples concrets, n’en a fourni aucun provenant de médias américains.

La peine maximale pour trahison aux États-Unis est la peine de mort.

Le président de la FCC, Brendan Carr, a menacé les diffuseurs de perdre leurs licences. Des juristes spécialisés en droit des médias ont qualifié cette menace de “creuse” — la FCC n’a pas révoqué de licence depuis des décennies, et tout recours déclencherait une procédure longue et incertaine protégée par le Premier Amendement.

De l’autre côté, les IA génératives ont effectivement été construites en utilisant des volumes considérables d’articles journalistiques accessibles en ligne, sans rémunération des producteurs de contenu. C’est documenté et non contesté par les entreprises d’IA elles-mêmes.

Patrick Bourbeau, vice-président Affaires juridiques de La Presse, a confirmé que des robots moissonneurs contournent activement les blocages mis en place par les médias pour empêcher ce type d’extraction.


Ce qui est débattu

Les menaces de Trump contre les médias sont-elles sérieuses ou rhétoriques ? Les experts juridiques s’accordent à dire que les menaces actuelles ont peu de chances d’aboutir à des poursuites réelles — la protection constitutionnelle de la liberté de la presse est robuste. Mais Jameel Jaffer, directeur exécutif du Knight First Amendment Institute à Columbia, y voit “une intensification d’un effort de longue date visant à amener les organes de presse à s’aligner sur le programme politique et idéologique” du président. La pression n’a pas besoin d’être légalement viable pour produire des effets réels d’autocensure.

La coalition européenne peut-elle changer les règles du jeu ? Patrick Bourbeau estime que si la coalition réussit à “fermer le robinet”, cela pourrait forcer les entreprises d’IA à changer un modèle dans lequel elles “ne paient rien pour le contenu”. D’autres observateurs sont plus sceptiques : les grandes plateformes ont les ressources juridiques et politiques pour résister longtemps, et certains modèles d’IA utilisent désormais des données synthétiques qui contournent la dépendance au contenu journalistique.

Le modèle norvégien est-il transposable ? La Norvège finance son propre LLM à partir des archives nationales de presse avec l’appui de l’État. Le professeur Pierre Trudel, de l’Université de Montréal, juge que “lancer des initiatives comme celle des médias européens est une bonne façon pour ces entreprises de retrouver une certaine maîtrise des enjeux posés par la généralisation de l’IA”. Mais un LLM national demande des ressources considérables, une volonté politique soutenue, et pose ses propres questions sur le contrôle étatique de l’information.


Ce qui reste hypothétique

Si un gouvernement peut qualifier de “fake news” tout ce qui dérange sa narration officielle — et menacer de poursuites ceux qui publient autrement — alors la question de savoir qui décide de ce qui est vrai n’est plus académique. Elle devient une question de survie pour le journalisme indépendant.

Il est trop tôt pour dire si la coalition européenne réussira à imposer un modèle de rémunération viable. Il est également impossible de prédire si Trump ira au-delà de la rhétorique. L’histoire récente suggère que la pression, même sans sanction légale directe, produit des effets durables sur la liberté éditoriale.


Ce que ces deux nouvelles révèlent — notre position

Il y a une ironie profonde dans le fait que des grands médias réclament une “OTAN de l’information” pour défendre leurs contenus face aux IA — au moment précis où ces mêmes médias font face à une crise de confiance que les IA n’ont pas créée, mais qu’elles amplifient.

La vraie question n’est pas “comment empêcher l’IA d’utiliser nos contenus ?” C’est “pourquoi des millions de lecteurs ne savent plus si ce qu’ils lisent est vrai ?”

Trump peut menacer les médias de trahison parce que suffisamment de gens n’ont plus les outils pour distinguer une affirmation vérifiable d’une opinion politique présentée comme un fait. Cette confusion n’est pas le résultat d’un complot — c’est le résultat d’une décennie de journalisme qui a progressivement effacé la frontière entre information établie, interprétation débattue, et hypothèse spéculative.

Ce que nous proposons n’est pas une défense des médias ni une attaque contre eux. C’est une méthode.

Distinguer explicitement ce qui est établi (vérifiable, sourcé, non contesté), ce qui est débattu (interprétations légitimes en conflit), et ce qui est hypothétique (spéculation raisonnée mais non vérifiable) n’est pas une révolution. C’est un retour aux fondements du journalisme rigoureux — appliqué avec transparence, visible pour le lecteur.

C’est ce que HUMANITY.NET pratique sur ses propres articles. C’est ce que Hum_ID permet à chaque utilisateur d’exiger de l’IA qu’il utilise.

Et c’est, nous le croyons, la seule réponse durable à un monde où le pouvoir a appris à weaponiser le doute.


Réel ou pas réel ? Les faits cités dans cet article sont sourcés et vérifiables. Nos conclusions sont clairement identifiées comme les nôtres.