L’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM) a adopté, le 6 mars 2024, une recommandation relative aux élections européennes qui vient compléter sa classique délibération du 4 janvier 2011 relative au pluralisme politique dans l’audiovisuel. Plus original car plus nouveau, l’ARCOM a a adopté, le même jour, des préconisations relatives à la lutte contre la manipulation de l’information sur les plateformes en ligne. Le premier commence à s’appliquer aujourd’hui lundi 15 avril 2024, tandis que certains événements de la campagne commence à montrer concrètement l’intérêt du second.
La classique recommandation sur la régulation des temps de parole et d’antenne
Cette recommandation s’applique à l’ensemble des services de radio et de télévision à compter d’aujourd’hui, lundi 15 avril 2024. La recommandation n° 2024-01 du 6 mars 2024 aux services de radio et de télévision en vue de l’élection des représentants au Parlement européen les 8 et 9 juin 2024 est téléchargeable ici, et s’avère d’une facture classique.
Cette fois-ci, la période de régulation est de 8 semaines et non de 6 comme traditionnellement, l’ARCOM souhaitant ainsi prendre acte d’un début de campagne précoce dans le cadre de ces élections européennes. En revanche, le principe d’application au fond est classique, puisqu’il s’agit du principe d’équité, avec les critères habituels, l’appréciation du respect du principe de pluralisme politique s’appréciant sur la base de la représentativité des listes et des partis politiques qui se mesure, notamment, à l’aune des résultats obtenus lors de la dernière élection des représentants au Parlement européen de 2019 et aux plus récentes élections, des indications de sondages d’opinion, et de la capacité des listes à animer le débat électoral c’est à dire l’organisation de réunions publiques, de déplacements et visites de terrain, et l’exposition au public par tout moyen de communication, y compris les réseaux sociaux, dont on voit l’importance redoubler en cette campagne européenne.
Les acteurs les plus importants doivent transmettre à l’ARCOM la comptabilisation des temps de parole et d’antenne pour contrôle : il s’agit pour les télévision de TF1, France 2, France 3 (prog. national), France 5, Canal + (prog. en clair), M6, C8, TMC, RMC Découverte, RMC Story, LCI, CNews, BFM TV, France info TV, Euronews, France 24, TV5-Monde (pour ses programmes propres), et pour les radios de France Inter, France Info, France Culture RTL, Europe 1, RMC, BFM Business, Radio Classique, Sud Radio, Radio France Internationale. Ces relevés seront publiés par l’ARCOM sur son site internet à des fins de transparence et suivant la logique d’open data permettant ensuite d’en faire différents retraitements. La première transmission aura lieu le 29 avril et permettra donc de faire un examen.
Les préconisations relatives à la lutte contre la manipulation de l’information sur les plateformes en ligne
Plus novatrices sont les préconisations relatives à la lutte contre la manipulation de l’information sur les plateformes en ligne. Une première recommandation générale avait été édictée en 2019, la Recommandation n° 2019-03 du 15 mai 2019 du Conseil supérieur de l’audiovisuel aux opérateurs de plateforme en ligne dans le cadre du devoir de coopération en matière de lutte contre la diffusion de fausses informations. Elle est complétée et renforcée par cette recommandation spécifique à une élection. Il s’agit semble-t-il d’une première (en tout cas sur le plan formel, car des préconisations avaient déjà été faites aux plateformes en 2022 lors de réunions avec l’ARCOM), alors que l’ARCOM avait déjà pu réaliser un bilan de l’action des plateformes pour l’élection présidentielle et les élections législatives de 2022.
Ces préconisations relatives à la lutte contre la manipulation de l’information sur les plateformes en ligne en vue des élections au Parlement européen du 6 au 9 juin 2024 sont téléchargeables ici.
A la différence des médias audiovisuels, les plateformes en ligne ne sont pas soumises au principe de pluralisme et de juste représentation des courants
politiques, difficilement transposables dans leur cas particulier, raison pour laquelle c’est plutôt la transparence qui est privilégiée. On pourrait en débattre, mais c’est l’impossibilité de le faire qui préside ici. Il n’en reste pas moins que l’absence de régulation de pluralisme politique n’entraîne pas en France une dérégulation des médias audiovisuels classiques, comme l’a affirmé le Conseil d’Etat dans son arrêt du 13 février 2024. Ce système à deux vitesses perdure donc.
La loi relative à la lutte contre la manipulation de l’information de 2018 (LOI n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information) avait déjà produit des obligations. Notamment en application de l’article L. 163-1 du code électoral, les opérateurs dont l’activité dépasse un seuil fixé par décret (cinq millions de visiteurs uniques par mois, par plateforme, calculé sur la base de la dernière année civile en vertu de l’article D. 102-1 du code électoral) « doivent fournir une information loyale, claire et transparente, agrégée au sein d’un registre public et ouvert, sur les contenus promus se rattachant à un débat d’intérêt général, et présentant un lien avec la campagne électorale, qui sont diffusés pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du scrutin. Ces informations concernent l’identité de l’annonceur, les données personnelles utilisées, les rémunérations versées lorsque le montant est supérieur à un seuil fixé par décret (100 euros par contenu en vertu de l’article D. 102-1 du code électoral ». La loi vise ce faisant les réseaux sociaux généralistes (Snapchat, Instagram, Facebook, TikTok) ou spécialisés (LinkedIn), les plateformes de partage de vidéos ou d’audios différé ou en direct (YouTube, Dailymotion, Twitch), les forums en ligne (Jeuxvideo.com), les moteurs de recherche (Bing, Google), les encyclopédies participatives (Wikipédia)…
Par ailleurs aujourd’hui, l’Arcom préconise aux plateformes en ligne, en articulation avec le projet de lignes directrices de la Commission européenne, des bonnes pratiques afin de lutter contre les risques de désinformation en ligne en période électorale, en tenant compte des spécificités du droit électoral français, alors qu’en parallèle le projet de loi visant à sécuriser et réguler l’espace numérique, dont la version discutée en CMP a été adoptée par l’Assemblée Nationale le 10 avril, prévoit de désigner l’Arcom comme coordinateur pour les services numériques pour la mise en œuvre de ce règlement en France. Sont concernés les très grandes plateformes en ligne (TGPL) et les très grands moteurs de recherche (TGMR) désormais soumis au Règlement sur les services numériques (RSN), entré pleinement en application le 17 février 2024. Les TGPL et les TGMR, désignés par la Commission européenne, sont désormais soumis à des obligations renforcées, en premier lieu d’identification et de réduction des risques systémiques.
Ces recommandations sont les suivantes, tirées de la recommandation de l’ARCOM :
• adapter les modalités d’exploitation de leurs services afin de s’assurer qu’ils ne sont pas susceptibles de nuire aux processus électoraux, en tenant compte du contexte français ;
• mettre en place des équipes internes dédiées, dotées de ressources adéquates, en particulier de capacités linguistiques adaptées, et de toute l’expertise pertinente en période électorale, notamment pour assurer le respect des dispositions applicables du code électoral français ;
• désigner des points de contact opérationnels et des interlocuteurs privilégiés pour garantir un dialogue renforcé et régulier avec les autorités publiques nationales en charge de l’organisation du scrutin, ainsi qu’avec les équipes de campagne ;
• entretenir un dialogue ouvert avec les organisations de la société civile, les
chercheurs et les vérificateurs de faits participant à la lutte contre la désinformation et les ingérences étrangères ;
• faire preuve d’une transparence renforcée sur les décisions de modération, afin de favoriser la confiance des utilisateurs dans le processus électoral, en rendant compte sans délai des éventuelles actions mises en œuvre, notamment en cas de décision de modération impactant des comptes particulièrement visibles et participant au débat électoral ou en cas de révision d’une décision de modération touchant ces mêmes
comptes ;
• sensibiliser les candidats et leurs équipes aux risques d’atteinte à la propriété
intellectuelle et ce, particulièrement en période électorale, afin de prévenir tout risque de litige lié à la publication de contenus comportant des extraits soumis à
l’autorisation des titulaires de droits ;
• mettre en avant les informations issues de sources officielles sur le processus
électoral et sensibiliser les utilisateurs à la participation civique, notamment en
orientant les utilisateurs vers des informations officielles sur les modalités et le lieu de vote en France ;
• permettre aux utilisateurs d’accéder à davantage d’informations contextuelles afin de pouvoir identifier la provenance ou l’authenticité des contenus et des comptes liés aux élections, en prêtant une attention particulière aux médias étrangers qui ne bénéficient pas des garanties d’indépendance éditoriale nécessaires vis-à-vis de l’État qui les contrôle ;
• identifier clairement les annonces publicitaires à caractère politique, lorsque leur diffusion est autorisée par les conditions générales du service et, ce, dans les limites autorisées par le code électoral
• mettre en place des procédures appropriées pour assurer la détection en temps utile d’opérations de manipulation non authentique coordonnée, incluant les techniques de création de ressources en ligne de désinformation et les moyens de les rendre crédibles (comptes ou réseaux de comptes inauthentiques, fausses réactions, détournement de compte), ainsi que les tactiques de diffusion de contenus de désinformation (ciblage délibéré de publics vulnérables,
utilisation de médias manipulés et trompeurs comme les deepfakes, coordination inauthentique pour l’amplification de contenus de type « bourrage » de mots-clés)
• tirer toutes les conséquences des règles applicables en France, qui visent à assurer le bon déroulement des opérations électorales ; à ce
titre, informer leurs utilisateurs, en particulier ceux susceptibles de bénéficier d’une large audience (“les influenceurs”) , des règles applicables en matière d’expression publique pendant la période de silence électoral, de non-diffusion de résultats partiels ou estimés avant la clôture du scrutin, et s’assurer que les ressources mobilisées pour la modération soient en mesure de réagir promptement en cas de signalement de contenus qui seraient, à ce titre, illicites pendant cette période.
Le caractère contraignant de ces recommandations est toutefois relatif, l’ARCOM précisant que « Dans tous les cas, il convient de rappeler que l’Arcom n’a pas vocation à intervenir sur d’éventuels cas particuliers relatifs à des mesures de modération individuelles sur les plateformes en ligne. Les candidats aux élections ont la possibilité de signaler des contenu problématiques aux platefvormes et aux autorités compétentes », de sorte que les plateformes restent les interlocuteurs privilégiés. Dans un cas précis d’espèce, la seule possibilité est de saisir le juge des référés peut en cas de diffusion délibérée, artificielle ou automatisée et massive par le biais d’un service de communication au public en ligne de fausses informations, si ces dernières risquent d’altérer le scrutin, en application de l’article L. 163-2 du code électoral, mais il n’y a à ce jour que très peu de précédents et les conditions de mise en oeuvre sont très restrictives : « I.-Pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin où celles-ci sont acquises, lorsque des allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir sont diffusées de manière délibérée, artificielle ou automatisée et massive par le biais d’un service de communication au public en ligne, le juge des référés peut, à la demande du ministère public, de tout candidat, de tout parti ou groupement politique ou de toute personne ayant intérêt à agir, et sans préjudice de la réparation du dommage subi, prescrire aux personnes physiques ou morales mentionnées au 2 du I de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique ou, à défaut, à toute personne mentionnée au 1 du même I toutes mesures proportionnées et nécessaires pour faire cesser cette diffusion. Le juge des référés se prononce dans un délai de quarante-huit heures à compter de la saisine« . Les conditions sont restrictives : diffusion artificielle, informations manifestement mensongères et impact manifeste sur la sincérité du scrutin en raison d’une réserve d’interprétation du Conseil constitutionnel dans sa décision n° 2018-773 DC du 20 décembre 2018. Comme l’a précisé le Conseil, ces allégations ou imputations manifestement trompeuses ne recouvrent ni les opinions, ni les parodies, ni les inexactitudes partielles ou les simples exagérations. Elles sont celles dont il est possible de démontrer la fausseté de manière objective. Seule la diffusion de telles allégations ou imputations répondant à trois conditions cumulatives peut être mise en cause : elle doit être artificielle ou automatisée, massive et délibérée. Mais ces hypothèses ne sont plus du tout d’école.
De quoi évidemment s’interroger sur l’efficacité réelle de telles préconisations, alors que de fausses vidéos réalisées par intelligence artificielle de Marine Le Pen et Marion Maréchal Le Pen sur Tik Tok ne cessent de faire parler d’elles, même si en l’espèce, les vidéos ont en effet, a posteriori et après avoir fait plusieurs millions de vues, été supprimées de la plateforme. « Cela n’avait rien de politique. Voyez cela comme une expérience sociale pour démontrer les dangers de la désinformation et des deepfakes », a expliqué à BFM TV la créateur du compte Lena.Marechal.LePen. On le croira si on voudra.
On noter que le projet de loi visant à sécuriser et réguler l’espace numérique a été adopté par l’Assemblée Nationale le 10 avril dans sa version issue de la CMP. Les sanctions pénales concernant les Deep Fake sont augmentées. L’article 226‑8 du code pénal prévoit aujourd’hui que « est puni d’un an d’emprisonnement et de 15 000 euros d’amende le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention ». Les sanctions seront portées à deux ans d’emprisonnement et à 45 000 euros d’amende lorsque les délits prévus au présent article ont été réalisés en utilisant un service de communication au public en ligne. Le texte d’ailleurs adapte la formulation à l’IA :« Est ajoutée une phrase ainsi rédigée : « Est assimilé à l’infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d’un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l’image ou les paroles d’une personne, sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un contenu généré algorithmiquement ou s’il n’en est pas expressément fait mention. ». Par ailleurs pour mieux se protéger contre la désinformation de médias étrangers frappés par des sanctions européennes (tels que Sputnik ou Russia Today France), l’Arcom pourra enjoindre à de nouveaux opérateurs de stopper sous 72 heures la diffusion sur internet d’une chaîne de « propagande » étrangère. En cas d’inexécution, elle pourra ordonner le blocage du site concerné et infliger une amende pouvant aller jusqu’à 4% du chiffre d’affaires de l’opérateur ou 250 000 euros.
Romain Rambaud