Options Mon compte Next INpact
Affichage
Modifications sauvegardées
  • Smileys
  • Images
  • Commentaires par actu
  • Commentaires sous les news
  • Désactiver la version mobile
  • Taille de police
Close

Vous consultez la version mobile de ce contenu.

Cliquez ici pour être redirigé vers la version complète, ou attendez 5 secondes. Fermez ce pop-up pour continuer sur la version mobile.

5
secondes
Loi anti-Fake News :  les recommandations du CSA aux plateformes
Loi

Loi anti-Fake News : les recommandations du CSA aux plateformes

FactChecking > Mme Michu
5 min

À l'approche du début des élections européennes, le Conseil supérieur de l’audiovisuel a publié la recommandation prévue par la loi contre la manipulation de l’information. Facebook, Twitter et les autres se voient notamment priés de mettre en avant les sites de presse et les médias audiovisuels labellisés.

Publiée au Journal officiel le 23 décembre 2018, la loi contre les « Fake News » demande aux opérateurs de plateformes une série de mesures de transparence, en particulier sur l’origine et le coût des publicités promouvant des contenus « se rattachant à un débat d'intérêt général ».

Comme détaillé fin avril, le CSA a gagné à cette occasion de nouveaux crans de compétence, loin de la télévision et de la radio, son univers naturel. L'autorité administrative est chargée en effet du pouvoir d’adresser aux intermédiaires comme Facebook ou Twitter « des recommandations » pour lutter contre les « infox ».

Chacune de ces recommandations vise « à améliorer la lutte contre la diffusion de fausses informations susceptibles de troubler l'ordre public ou de porter atteinte à la sincérité du scrutin ». Et le CSA est en plus chargé d’en contrôler la mise en œuvre.

Un bouton d'alerte uniforme, simple et accessible

Dans ce texte publié lui aussi au Journal officiel, le conseil recommande ainsi chaudement aux acteurs du numérique concernés « de mettre en œuvre les mesures qui suivent et de déployer les moyens humains et techniques nécessaires en vue d'atteindre les objectifs fixés par la loi ».

En première place, l’autorité se fait l’interprète de la loi. Celle-ci exige que les opérateurs mettent en place un bouton d’alerte, soit dans le texte « un dispositif facilement accessible et visible permettant à leurs utilisateurs de signaler de fausses informations susceptibles de troubler l'ordre public ou d'altérer la sincérité du scrutin ».

Fort de ses compétences aiguisées, le CSA plaide pour que cette fonction d’alerte soit intitulée clairement, par exemple en affichant… « Signaler un contenu ».

Cet outil devrait en tout cas être placardé non loin des contenus ou des comptes à signaler. Et celui-ci de demander aux opérateurs d’utiliser cette fonction de manière uniforme sur l’ensemble des déclinaisons de leurs sites ou application. Aux professionnels du Net toujours, il demande encore un « parcours de signalement simple et logique » et une information des utilisateurs sur « l'état d'avancement » de chaque alerte.  

Les sites de presse mis en avant 

La transparence des algorithmes est également à l’honneur. Le CSA « encourage » les opérateurs à informer chaque utilisateur « sur les critères ayant conduit à l'ordonnancement du contenu qui lui est proposé et le classement de ces critères selon leur poids dans l'algorithme ».

Surtout, le conseil souhaite que Twitter, Facebook, YouTube et tous les autres concernés identifient désormais « les sources de contenus issus d'entreprises et d'agences de presse et de services de communication audiovisuelle » (chaine en ligne…).

Comment ? Par l’usage d’un indicateur clairement visible. Pour faire le tri, les opérateurs de plateforme « sont encouragés à tenir compte des démarches de labellisation, notamment celles réalisées par les entreprises et agences de presse et les services de communication audiovisuelle »

En somme, pour distinguer le compte de Monsieur Tout-le-Monde de celui d’un site de presse ou d’une chaîne de TV, les opérateurs pourront scruter les éventuels labels détenus par ces médias. Ceci fait, le CSA demande aux intermédiaires techniques « de déployer des moyens technologiques visant à mettre en avant les informations provenant de ces sources et en particulier les contenus dits de « fact-checking »  dans les résultats des moteurs de recherche, les fils d'actualité et les autres canaux de diffusion opérant par classement automatisé ».

En somme, un surréférencement ou une mise en avant par n’importe quel moyen afin, d’une certaine manière, d’éditorialiser ces contenus aux yeux de tous, loin des contenus lambdas…  

Lutte contre les comptes propageant des fausses informations

Pour lutter contre les fausses informations, ils devront prévoir des solutions destinées à détecter les comptes propageant massivement des fausses informations, associés à un panel de sanctions (avertissement, suppression, mise en quarantaine, restrictions des droits de l'utilisateur ou de la portée des contenus qu'il diffuse, etc.) « dans le respect de la liberté d'expression et de communication ».

Notons qu'il n'utilise pas l'adverbe manifestement, qu'avait introduit le Conseil constitutionnel. Celui-ci avait par exemple exigé que seules les « fake news » manifestement illicites soient retirées sur ordre du juge – et encore à condition qu’elles soient manifestement susceptibles d’altérer le scrutin...

Ce n’est pas tout : « le Conseil recommande aux opérateurs de plateforme en ligne de veiller à distinguer clairement les contenus sponsorisés des autres contenus et encourager le développement d'outils permettant à l'utilisateur d'identifier les critères qui ont conduit la plateforme à lui proposer de tels contenus ».

Il propose aussi que les plateformes appellent à « la vigilance des utilisateurs sur les contenus qui ont fait l'objet de signalements » et que « dans la mesure du possible », soit indiquées « l'existence de contreparties financières, l'ampleur de la diffusion (nombre de vues, type de population ciblée, etc.) » et si ces publicités « ont été générées de manière automatisée ou non ».

Par ailleurs, le Conseil recommande « aux plateformes de mettre en œuvre des mesures afin d'informer les utilisateurs sur l'identité de la personne physique ou la raison sociale, le siège social et l'objet social des personnes morales leur versant des rémunérations en contrepartie de la promotion de contenus d'information se rattachant à un débat d'intérêt général » prévient-il avant de définir ce que sont ces contenus.   

La définition des contenus se rattachant à un débat d'intérêt général

Inspiré par le Conseil d'État et la Cour européenne des droits de l'homme, il souligne que ce sont des sujets « qui touchent le public dans une mesure telle qu'il peut légitimement s'y intéresser, qui éveillent son attention ou le préoccupent sensiblement, notamment parce qu'elles concernent le bien-être des citoyens ou la vie de la collectivité ». Les opérateurs sont ainsi chargés de faire le tri, là encore entre les informations simples des informations devant faire l’objet de telles informations.

Les acteurs en ligne devront en tout cas remplir une déclaration annuelle au plus tard le 31 mars de l'année suivant l'année d'exercice sur laquelle elle porte. Ils devront y détailler les mesures mises en œuvre dans la filiation de ces recommandations.

De son côté, le CSA publiera un bilan périodique de leur application et de leur effectivité. Pour nouer les échanges avec l’autorité, chaque acteur doit en outre désigner au plus vite un représentant légal, qui endossera la fonction de référent en France.

Publiée le 17 mai 2019 à 16:46


Chargement des commentaires