Dans les rédactions, la surveillance constante des performances s’est imposée comme une norme. Devenue un indicateur central, elle redéfinit peu à peu la pratique du métier. Les journalistes s’y conforment, souvent sans s’en rendre compte, jusqu’à faire de ces chiffres la mesure implicite de leur travail.
« TOTAL : 54/60 — Niveau : Excellence », « TOTAL : 36/60 — Niveau : Moyen »… Ceci n’est pas une note de travail d’un·e collégien·ne, mais bien ce que les journalistes de La Dépêche du Midi peuvent lire après avoir déposé leur article dans le prompt ChatGPT « Analyse de la qualité de l’article », conçu par le journal. « Clarté et cohérence », « impact et engagement » ou encore « exactitude et fiabilité »… Six critères ont été retenus pour évaluer la qualité d’un papier. Les chiffres ne se limitent donc déjà plus à mesurer le succès, ils deviennent un repère pour orienter la production journalistique.
Si les journalistes du groupe n’ont pas été autorisé·es à nous répondre — « la charte intelligence artificielle (IA) est encore en cours d’élaboration » — plusieurs sources internes confirment que l’utilisation de ces prompts, bien que facultative, est largement répandue. Le gain de temps, la fluidité dans la production et la possibilité d’explorer de nouveaux angles sont cités comme les principaux avantages. « Une de mes collègues cherchait systématiquement à avoir la note plus haute possible », se rappelle Paul*, ancien stagiaire à La Dépêche.
Se conformer aux attentes des lecteur·ices
Restent plusieurs questions : comment le prompt « Analyse de la qualité de l’article » a-t-il été conçu ? A-t-il été pensé pour correspondre à un profil de lecteur·ice en particulier ? Aucun critère de ce type n’a été mentionné.
En revanche, d’autres indicateurs semblent, eux, clairement orienter le·la journaliste sur l’adéquation de son papier avec son lectorat. Sur l’outil d’édition utilisé par le journal, chaque mot-clé associé à un article reçoit un pourcentage de « performance » calculé par une autre IA. Celui-ci est censé refléter dans quelle mesure le texte répond aux attentes des lecteur·ices. Si ce score est élevé, l’article est considéré comme bien adapté. Dans le cas contraire, il doit être ajusté ou enrichi pour le rendre plus attractif.
Le titre influe également sur la notation : les journalistes sont incité·es à utiliser de meilleures formulations, plus percutantes, afin de voir leur pourcentage augmenter et donc d’attirer l’attention. Consciemment ou non, elles et ils se conforment à des standards éditoriaux définis par leur direction.
Une audience scrutée
Les grands principes de la presse prônent pourtant un journalisme affranchi de la logique des chiffres. Pour Gilles van Kote, directeur délégué du Monde, ce n’est pas toujours le nombre de vues qui définit la qualité d’un papier. « Nos articles qui fonctionnent le mieux en termes de statistique sont souvent issus de bâtonnage (pratique qui consiste à reprendre une dépêche d’agence de presse en la réécrivant partiellement ou en l’adaptant avant publication, NDLR) et ne demandent pas beaucoup d’heures de travail. » Une manière de rappeler que le succès numérique ne rime pas toujours avec exigence journalistique.
Pour autant, les chiffres sont tout de même scrutés. « Tous les matins, des rapports sur les audiences sont transmis aux directions départementales », rapporte Thomas Bronnec, chef du desk numérique de Ouest-France. « On surveille notre taux de conversion, soit combien de lecteurs se sont abonnés à la suite de la lecture d’un article donné, plus que l’audience brute, ajoute de son côté Gilles van Kote. Ce qui compte pour nous, c’est d’augmenter notre nombre d’abonnés, car c’est ce qui nous fait vivre. » Encore plus dans un contexte économique compliqué pour la presse écrite. D’autres indicateurs se sont aussi imposés, comme le taux de complétion, soit le pourcentage d’un article effectivement lu.
LES PRINCIPAUX OUTILS DE MÉTRIQUES D’AUDIENCE UTILISÉS PAR LES MÉDIAS
L’audience : L’audience d’un média est le public destinataire du message. Elle rend compte du nombre ou du pourcentage de personnes ayant au moins un contact avec un média ou son contenu au cours d’une période, quelle qu’en soit la durée. Elle se mesure selon plusieurs indicateurs. L’audience moyenne indique le nombre de lecteur·ices présent·es en moyenne à un instant T, tandis que l’audience par jour moyen de parution évalue la fréquentation quotidienne d’un journal sur une semaine type.
Taux de conversion : En presse écrite, le taux de conversion mesure la part de lecteur·ices ayant accompli une action recherchée — ici s’être abonné·e après avoir acheté un numéro ou cliqué sur un lien. Il se calcule en rapportant le nombre d’actions réalisées au nombre total de personnes exposées aux contenus.
Taux de complétion : Le taux de complétion évalue la proportion d’internautes qui consultent un contenu jusqu’à la fin, qu’il s’agisse d’une vidéo ou d’un article en ligne. Cet indicateur, de plus en plus prisé par les rédactions web, permet de mieux comprendre les comportements de lecture et d’adapter la forme des contenus aux usages du public.
« Même s’il y a des limites aux études quantitatives, cela permet de connaître son lectorat », apporte Alan Ouakrat, chercheur en sciences de l’information et de la communication et maître de conférences à l’université Sorbonne Nouvelle. Et ainsi de s’adapter aux lecteur·ices. Une étude datant de 2013 et menée par Hong Tien Vu, chercheur américain sur le journalisme, a d’ailleurs démontré que, sur 318 éditeur·ices, 84 % surveillaient les métriques d’audience régulièrement et 31 % d’entre elles et eux les utilisaient pour « planifier la production de contenus ». Aujourd’hui, ces données récoltées servent désormais de matière première à la conception des prompts d’intelligence artificielle, élaborés par certaines rédactions et utilisés au quotidien par les journalistes.
« Les métriques nous ont permis d’aller plus loin dans le journalisme de qualité avec par exemple la rubrique Nos vies du journal, confie Thomas Bronnec, de Ouest-France. On a vu qu’elle fonctionnait très bien et nous y avons donc accordé peut-être plus d’importance que si nous n’avions pas eu ce retour. » Un constat que partage Gilles van Kote, du Monde : « Grâce à ces données, le journal a pu dégager des tendances et essayer d’y répondre. On fait par exemple des formats plus longs pour les seniors, des vidéos pour les plus jeunes… L’information reste pour autant la même pour tous. C’est ce qui prime. »
Se soumettre au clic
Mais attention, comprendre son lectorat pour adapter ses contenus, oui. Se laisser dicter ses choix éditoriaux, non. « Ce qui plaît aux lecteurs, ce ne sont pas toujours les papiers les plus qualitatifs mais ceux qui attirent l’œil », témoigne Line, ancienne journaliste dans un titre de presse quotidienne régionale. Résultat, « l’accent est mis dessus ». Le compte Instagram de son ancien journal en est la preuve même : « On n’y voit quasiment que des faits divers car ça génère du clic. » Un constat partagé par Maxime, stagiaire dans un grand quotidien national. « D’un point de vue journalistique, certains sujets n’ont aucune valeur… Pourtant ils cartonnent, donc on continue d’en proposer. »
« Ces chiffres peuvent mettre en péril la ligne éditoriale et l’identité d’un journal. »
« Il faut réfléchir à l’usage de ces chiffres, alerte Alan Ouakrat. Ils peuvent mettre en péril la ligne éditoriale et l’identité d’un journal. » Un point de vue tout de même nuancé par Thomas Bronnec : « Même si nous savons, par exemple, que les faits divers plaisent à nos lecteurs, nous ne cherchons pas à en produire plus. »
RADIO FRANCE CONFIE À L’INTELLIGENCE ARTIFICIELLE LA MESURE DE SON PLURALISME
l’intelligence artificielle n’est plus seulement un outil au service de la production, elle devient désormais un instrument d’évaluation du journalisme lui-même. Auditionnée par la commission Culture du Sénat, mercredi 8 octobre 2025, la présidente de la Maison ronde, Sibyle Veil, a expliqué que les équipes de la radio publique développaient un nouveau « baromètre », fondé sur l’intelligence artificielle. Ce système analysera automatiquement les invité·es, les thèmes abordés et la diversité des points de vue exprimés, selon des critères définis par les rédactions elles-mêmes, en cohérence avec ceux de l’Arcom. L’objectif : produire un baromètre régulier et public, capable d’objectiver les débats et de démontrer l’équilibre des programmes, tout en répondant aux accusations de partialité dont le groupe fait l’objet.
« Faire perdre le sens du travail »
Pour le chercheur Alan Ouakrat, l’ensemble de ces dispositifs traduisent une transformation plus profonde du management éditorial. « Lorsque ces outils deviennent un instrument de direction pour mieux discipliner le travail, c’est un problème », alerte-t-il. Considérer les journalistes uniquement sous l’angle de leur performance revient à leur « faire perdre le sens de leur travail ».
Selon lui, les métriques peuvent faire partie des outils d’amélioration, à condition toutefois qu’elles s’inscrivent dans un véritable projet éditorial et ne se réduisent pas à une logique de rendement. « Il ne faut pas les considérer comme une solution absolue, car les données ne traduisent pas la complexité du travail journalistique. »
COMBIEN EST NOTÉ NOTRE ARTICLE ?
Nous avons eu accès au prompt utilisé par La Dépêche du Midi et voici la note attribuée à notre papier : « 52/60 → Niveau : EXCELLENCE (Article digne d’un grand quotidien national ou international). »
Parmi les remarques, l’IA souligne que « certaines transitions entre sections pourraient être davantage fluidifiées pour renforcer la continuité du propos ». Elle propose également d’explorer « la dimension éthique ou sociétale de cette mutation numérique » et note quelques redondances. Nous avons peut-être encore du travail…
* : Le prénom a été modifié
Ana Puisset–Ruccella et Louis Tetard.