|

Aurore Domont (Media Figaro) : « L’information ne doit pas être un simple produit, mais un pilier de la démocratie »

Aurore Domont (Media Figaro) : « L’information ne doit pas être un simple produit, mais un pilier de la démocratie »
Aurore Domont, présidente de Media Figaro a été membre du groupe de travail « L’espace informationnel et l’innovation technologique» aux Etats Généraux de l'Information.

INTERVIEW DU LUNDI. Dans un contexte de bouleversement numérique, les États Généraux de l’Information visent à repenser le rôle des médias et à encadrer les pratiques des grandes plateformes pour défendre la démocratie. Aurore Domont, présidente de Media Figaro, revient sur son implication dans ce groupe de travail stratégique présidé par Sébastien Soriano. Dans cette interview à The Media Leader, elle partage les constats et les propositions développés pour un encadrement plus fort du numérique, au service de l’intérêt général.

The Media Leader : Vous avez participé aux États Généraux de l’Information avec pour mission de “transformer la jungle numérique en bien commun démocratique.” Comment s’est déroulée cette expérience, et que retenez-vous des discussions ?

Aurore Domont : J’ai effectivement eu le privilège de participer au groupe de travail « Espace informationnel & innovation technologique » présidé par Sébastien Soriano, dont la feuille de route était d’aboutir à des propositions concrètes pour assurer l’accès de toutes et tous à une information en ligne fiable et pluraliste.

J’ai tout de suite été marquée par l’ampleur des défis à relever : la promotion du droit à l’information à l’ère numérique, le contrôle démocratique de l’intelligence artificielle, la conciliation entre la liberté d’expression et la lutte contre la désinformation, l’équilibre du marché de l’intermédiation publicitaire…

Pour saisir tous les aspects de ces problématiques, nous avons constitué un groupe de travail rassemblant des profils et des parcours variés et avons procédé à une cinquantaine d’interviews avec des experts (des chercheurs et des universitaires, des spécialistes de l’IA, des juristes, des journalistes…). Nous avons été frappés par la complexité des enjeux car en matière de régulation, il ne s’agit pas seulement de formuler des recommandations, mais bien de proposer des véhicules juridiques, c’est-à-dire des textes de loi. La diversité des points de vue et des témoignages nous a permis de prendre pleinement conscience des impacts des plateformes numériques sur la société : la désinformation massive, la santé mentale affectée, les risques pour le libre arbitre des citoyens…

TML : Vous évoquez un constat “inquiétant” sur le rôle des plateformes. Qu’est-ce qui vous a semblé le plus alarmant ?

A.D. : Ce qui ressort de façon frappante, c’est que pour certaines plateformes, l’information est traitée comme un produit parmi d’autres, sans considération de son impact social. Les algorithmes de recommandation et de modération jouent un rôle central dans la diffusion des contenus, et trop souvent, ils amplifient les discours polarisants ou les fausses informations. En tant que citoyens, nous n’avons aucune maîtrise de ces outils qui influencent nos opinions et nos comportements. À ce stade, l’un des défis majeurs est d’encadrer ces algorithmes pour protéger le libre arbitre des utilisateurs. Il ne suffit plus de dire que l’information est un bien public : il faut prendre des mesures pour qu’elle ne soit pas utilisée à des fins de manipulation.

TML : Vous parlez d’encadrer les algorithmes. Quelle serait, selon vous, l’approche la plus appropriée pour y parvenir ?

A.D. : Il y a deux types d’algorithmes à prendre en compte : ceux de modération, qui filtrent les contenus inappropriés, et ceux de recommandation, qui influencent ce que les utilisateurs voient. Nous proposons que des audits des algorithmes de modération soient menés par des chercheurs dans ce que l’on appelle des “chambres noires” – des espaces sécurisés pour analyser comment les algorithmes fonctionnent et prennent leurs décisions. Un audit approfondi permettrait de vérifier si, par exemple, des informations erronées sont maintenues sur une plateforme malgré leur signalement comme fausses par des organismes tels que l’AFP. Ce contrôle pourrait aider à comprendre comment l’algorithme est conçu pour générer de l’audience, souvent au détriment de la qualité de l’information.

TML : L’un des débats aux États Généraux portait sur la responsabilité des plateformes. Doivent-elles être responsables de ce qu’elles diffusent, à l’image des médias traditionnels ?

A.D. : Absolument. Nous avons beaucoup débattu de ce point. Nous pensons que les plateformes doivent assumer leur responsabilité en tant que diffuseurs. Aujourd’hui, elles se dédouanent en affirmant qu’elles ne produisent pas elles-mêmes le contenu, mais diffusent uniquement des informations produites par d’autres. Or, leur rôle d’intermédiaire confère une responsabilité. Nous avons suggéré de leur attribuer un statut de “diffuseur”, pour qu’elles soient tenues responsables des contenus qu’elles laissent circuler, à l’instar de ce qui est exigé des médias traditionnels. En somme, elles ne produisent peut-être pas le contenu, mais elles en assurent la diffusion, ce qui engage leur responsabilité envers le public.

TML : Si ces propositions ne sont pas mises en œuvre, quels risques voyez-vous pour la société ?

A.D. : Les dangers sont multiples et extrêmement préoccupants. D’abord, l’accélération des fake news avec l’IA, qui permet une production illimitée de contenus trompeurs. Ce n’est plus seulement le texte, mais aussi l’image et la vidéo qui peuvent être manipulés. Ensuite, la polarisation des opinions, amplifiée par des algorithmes qui enferment les utilisateurs dans des bulles d’informations. Enfin, le troisième danger est celui de la santé mentale, notamment chez les jeunes, qui sont particulièrement vulnérables aux effets de ces plateformes. Lorsqu’un enfant utilise l’IA pour répondre à une question, il risque de perdre confiance en sa propre réflexion et de développer une dépendance au numérique.

TML : Comment peut-on, selon vous, trouver un équilibre entre réguler ces pratiques et respecter la liberté d’expression ?

A.D. : La liberté d’expression est évidemment un pilier fondamental. Cependant, elle s’arrête là où elle met en danger les individus ou la société. Nous pensons que la liberté des plateformes doit être tempérée par leur responsabilité. Certains pays ont interdit l’accès aux plateformes aux mineurs, et il me semble que cette mesure mérite d’être envisagée pour protéger les jeunes. Il est essentiel d’agir maintenant, pour éviter une explosion de la désinformation et des comportements extrêmes à l’avenir.

TML : Concrètement, quelles sont les mesures prioritaires que vous proposez pour répondre à ces problématiques ?

A.D. : Quatre mesures sont, à mon sens, essentielles. La première est la portabilité de l’information : permettre aux citoyens d’accéder aux médias d’information, y compris sur les plateformes numériques. La deuxième mesure est la mise en place d’audits pour analyser et contrôler les algorithmes. La troisième mesure concerne la possibilité pour les utilisateurs de paramétrer leur exposition aux contenus, en choisissant par exemple d’éviter certains types de contenus ou de favoriser des sources d’information vérifiées. Enfin, il est indispensable de renforcer l’éducation aux médias, pour apprendre aux jeunes générations à naviguer dans un monde numérique complexe et surtout à discerner le vrai du faux.

TML : Vous avez également évoqué la responsabilité des entreprises. Quel rôle devraient-elles jouer selon vous ?

A.D. : Les entreprises et les agences doivent assumer leur responsabilité dans le rééquilibrage de la publicité, en soutenant les médias d’information qui produisent des contenus vérifiés. Nous proposons d’intégrer cette responsabilité dans les rapports RSE (Responsabilité Sociale et Environnementale) des entreprises, qui devraient déclarer la part de leurs investissements publicitaires dans les médias d’information. Cela ne doit pas être perçu par les entreprises comme une contrainte, ni comme du mécénat. Cela relève certes d’un engagement citoyen des entreprises mais il en va aussi et surtout de leur intérêt tant les médias d’information sont à même de répondre à leurs grands enjeux : la confiance et la réputation, l’attention, la construction de nouveaux imaginaires… Si je devais le résumer simplement : ce qui est bon pour les médias d’information est bon pour la démocratie et est bon pour les entreprises.

TML : Pensez-vous que des mesures fiscales pourraient contribuer à rééquilibrer le marché publicitaire comme le propose Bruno Coquet ?

A.D. : C’est une piste intéressante. Certains ont suggéré une taxe sur les investissements publicitaires réalisés auprès des plateformes étrangères, comme Google ou Meta. Les fonds récoltés pourraient être réinvestis pour soutenir les médias locaux et rétablir une équité dans la répartition des revenus publicitaires. Il s’agit d’une idée qui mérite d’être explorée, car elle pourrait encourager les entreprises à soutenir davantage les médias nationaux. Outre ces possibles mesures futures, saluons les engagements réels et concrets d’acteurs de l’écosystème publicitaire et notamment des agences médias qui s’engagent pour promouvoir les médias d’information auprès de leurs clients (et dans l’intérêt de leurs clients). Je pense notamment à l’offre Back to News de GroupM : à budget constant, Back to News génère 16 % d’attention en plus, versus un dispositif publicitaire exclusivement sur les plateformes. C’est également le sens du programme éditorial que nous avons développé avec Havas pour interroger le lien entre performance et responsabilité des entreprises, dont les médias sont des maillons indissociables.
Les engagements sincères et concrets de nombreux acteurs de l’écosystème publicitaire vont dans le bon sens et, je l’espère, nous permettront de retrouver un point d’équilibre entre les investissements dans les plateformes et dans les médias d’information.

TML : Vous avez soulevé de nombreuses questions. Pour finir, quel serait, selon vous, le rôle de l’État dans la mise en œuvre de ces mesures ?

A.D. : L’État a un rôle clé à jouer, à la fois pour mettre en place une régulation adaptée et pour sensibiliser les citoyens. Il pourrait notamment faciliter l’accès des médias aux jeunes en intégrant des modules d’éducation aux médias dès l’école. L’État doit aussi soutenir les entreprises qui font le choix d’investir dans les médias nationaux, et encadrer l’IA pour éviter que la production d’informations manipulées ne s’emballe. En tant que société, nous devons agir collectivement pour que l’information reste un pilier de la démocratie, et non un produit purement commercial.

La newsletter

Toute l'actualité des médias et de la publicité chaque jour

S'inscrire gratuitement
Newsletter
Adwanted Inscription