La semaine dernière, Google, Facebook et Twitter ont promis de lutter, chacun à sa manière, contre les informations erronées, les discours haineux et autres exagérations, suite aux nombreuses critiques pointant l’impact de leurs algorithmes sur l’issue des élections présidentielles américaines. Mais ce débat, qui aurait dû avoir lieu plus tôt, laisse sans réponse de nombreuses interrogations préoccupantes.

Google a promis qu’il empêcherait les sites web véhiculant des contenus invérifiés d’accéder à sa plateforme publicitaire AdSense, qui aide ces sites à profiter de recettes publicitaires. Facebook a déclaré qu’il n’intégrerait, ou ne diffuserait sur la toile, aucune annonce présentant un contenu illégal, trompeur ou visant délibérément à induire en erreur, comme les intox ou les informations inexactes. Twitter a déclaré dans un communiqué qu’il supprimerait les comptes de tout utilisateur affichant un contenu offensant, en s’appuyant sur les fonctionnalités qui permettent aux utilisateurs de « rendre muets » (mute) de tels contenus et de signaler un abus, confirmant ainsi sa politique relative aux discours de haine et autres contenus offensants.

Frapper au portefeuille est la bonne stratégie pour prévenir de tels abus, note Jennifer Golbeck, directrice de l’Intelligence Social Lab, professeure de sciences de l’information à l’Université du Maryland et auteure du livre Social Media Investigation: A Hands-on Approach. Les nouvelles mesures prises par ces entreprises ont « privé ces sites de leur principale source de revenus, ces profits étant souvent la raison même de leur existence ». Jennifer Golbeck fait aussi remarquer que bon nombre d’individus et d’organisations ayant mis en ligne les fausses informations en question, particulièrement lors des récentes élections, ne sont pas basés aux États-Unis et ne se soucient pas des idéologies qui se cachent derrière ces contenus. « Leur seul souci est de gagner de l’argent, et de créer les flux de clics qui le leur permettront. »

Ces mesures sont permises par une loi, plus précisément l’article 230 du Communications Decency Act, qui donne aux grandes plateformes « un minimum de protection juridique sur les contenus postés par les internautes, tant qu’ils ne vont pas trop loin dans l’édition de ces contenus », explique Andrea Matwyshyn, professeur de droit à la Northeastern University et chercheur associé au Center for Internet and Society de la Faculté de Droit de Stanford. « Facebook, Twitter et Google font quelques pas dans la direction d’un contexte légal qui, de leur point de vue, sera le meilleur, un environnement qui n’ira pas à l’encontre des dispositions prévues par l’article 230 du CDA qui leur garantit une protection juridique ».

Le PDG de Facebook, Mark Zuckerberg, qui avait pourtant démenti les accusations selon lesquelles son entreprise aurait involontairement permis à de fausses infos de proliférer, est sorti du déni. Dans un message posté sur son site le 18 novembre dernier, il décrit comment son entreprise s’apprête à déployer un front pluridimensionnel visant à prévenir la prolifération d’informations erronées. Il reconnaît néanmoins les limites de cette nouvelle politique : « Nous ne voulons pas nous poster en arbitres de la vérité, mais plutôt nous appuyer sur notre communauté, ainsi que sur des acteurs extérieurs à qui nous voulons pouvoir faire confiance. »

fakenews

 

Jusqu’où pourraient-ils aller?
Pour Kevin Werbach, professeur de droit et d’éthique des affaires à l’Université de Wharton, la question centrale est de savoir si Facebook et les autres médias sociaux assument leur responsabilité dans le modelage de l’environnement informationnel. « Ils ne veulent pas se considérer comme des médias à proprement parler, mais jouent le même rôle que les médias traditionnels dans l’influence qu’ils exercent sur l’opinion publique. De cette influence naît leur responsabilité. »

Le gouvernement devrait-il s’associer aux réseaux sociaux pour renforcer leur action ? Les lois et règlementations pourraient y contribuer, mais le défi réside dans leur élaboration, explique Jonah Berger, professeur de marketing à Wharton. « Ce qui est pornographie pour l’un est chef d’œuvre pour l’autre », a-t-il déclaré. « Et dans le domaine des croyances religieuses, la vérité de l’un est le mensonge d’un autre. C’est là que les choses se compliquent. »

Les réseaux sociaux ont cependant quelques options pour éviter de propager des informations erronées. Certes, cela ne va pas forcément dans le sens de leurs intérêts, et par ailleurs elles n’en ont pas forcément les moyens, explique Pinar Yildirim, professeure de marketing à Wharton. « Les journaux sérieux – jusque-là gardiens de l’information – sont généralement bien plus efficaces dans la vérification des faits avant la publication d’une info. Étant donné que les barrières à la diffusion de l’information ont été considérablement abaissées ces dernières années, il devient d’autant plus difficile à des plateformes comme Twitter et Facebook de filtrer les contenus disponibles dans de tels volumes et à une telle échelle. Elles ne veulent pas non plus froisser leurs utilisateurs en bloquant leurs contenus. »

Mais il leur est possible, en revanche, de donner aux utilisateurs le pouvoir de décider de ce qu’ils veulent voir ou de ce qu’ils veulent ignorer. Et c’est dans l’intérêt des plateformes. « Après les élections polarisées de 2016, il est devenu évident qu’il est nécessaire de donner aux utilisateurs un plus grand contrôle sur le type d’information auxquels ils souhaitent être exposés, si l’on souhaite qu’ils continuent à utiliser ces plateformes », explique Pinar Yildirim. « En l’absence de ces outils, les utilisateurs auraient plus tendance à se désinscrire ou à moins fréquenter la plateforme pour éviter de subir des contenus non désirés. »

Les efforts de Twitter visent à protéger non seulement ses utilisateurs, mais aussi son image de marque, sérieusement égratignée en raison des discours haineux et des trolls désobligeants qui prolifèrent sur ce réseau. Golbeck a fait observer que la semaine dernière, Twitter a suspendu les comptes de certains membres d’organisations suprématistes blanches et de groupes néonazis.

Andrea Matwyshyn est moins enthousiaste sur les motivations que cachent ces initiatives. Elle fait remarquer que Twitter est lié par contrat avec ses utilisateurs, qui se voient imposer des clauses comprennent désormais l’interdiction de discours de haine. « Les mesures qu’il prend maintenant ne sont ni plus ni moins qu’une stricte mise en application de clauses déjà prévues au contrat », note-t-elle.

Peut-être plus significatif encore, les perspectives de Twitter pourraient également être améliorées par ces récentes mesures, car l’entreprise est en pleine recherche d’un acquéreur. Twitter a vu sa plateforme « se transformer en un bourbier glauque, considère Jennifer Golbeck, du fait de la prolifération de comptes anonymes qui en ont fait un endroit parfois dangereux pour les utilisateurs ».

« Par souci pour son image, et pour la façon dont toute cette affaire pourrait affecter durablement l’entreprise et l’idée qu’on se fait de sa valeur, il ne pouvait y avoir de meilleur moment pour que Twitter lance cette campagne », pointe Jennifer Golbeck. Au cours des derniers mois, plusieurs prétendants – dont Google et Disney – auraient envisagé d’acheter Twitter, mais auraient apparemment remis ce rachat à plus tard en raison des discours haineux et des débordements auxquels on assiste sur le site.

En plus de ses récents efforts pour lutter contre les abus, Twitter a également expérimenté une autre piste, note Andrea Matwyshyn : la notion d’identité de l’utilisateur comme marqueur de crédibilité. Selon cette proposition, la plateforme ne filtrerait pas les idées, mais permettrait d’évaluer les utilisateurs en leur affectant une crédibilité ou une note de confiance. Ce concept pourrait être étendu à d’autres plateformes.

Jennifer Golbeck note que cette fonction de fiabilité pourrait également être intégrée aux résultats de recherche. « Google part traditionnellement du principe que le nombre de personnes se connectant à votre page est l’indice que vous êtes digne de confiance », fait-elle remarquer, ajoutant que cela constitue de moins en moins un indicateur de fiabilité.

Les réseaux sociaux ont-ils attendu trop longtemps pour agir ? Kevin Werbach rappelle que Facebook, comme d’autres sites publicitaires, a « un modèle d’affaires qui récompense l’activité plutôt que la qualité ou l’exactitude ». Cela pourrait présenter un conflit d’intérêt dans l’étendue de leur lutte contre les fausses infos ou les propos injurieux. « On peut regretter, sans en être surpris, que pour prendre des mesures Facebook et Google aient attendu la fin de l’élection – et que les revenus publicitaires provenant de ces sites aux contenus douteux aient été engrangés. »

D’autres veulent accorder aux entreprises le bénéfice du doute. « Je pense que les dirigeants de Twitter sont sensibles à la liberté d’expression, même lorsque cette parole est désagréable ou pose problème. Leur position a toujours été par défaut d’encourager le libre échange des contenus », explique Andrea Matwyshyn. Leurs efforts récents sont une « révolution » pour cette entreprise, « qui passerait d’un échange de contenus sans entraves à la création sur sa plateforme d’un environnement assaini et plus propice au respect. »

« Pour un observateur extérieur, il est facile de dire qu’ils auraient dû agir plus tôt », admet Berger. « Personnellement, j’aimerais qu’ils se penchent sérieusement sur la question, surtout sur la question des discours haineux ou de l’intox. » Cependant, il a ajouté que puisque les réseaux sociaux veulent dans un même temps favoriser la liberté d’expression, il est difficile de déterminer une limite sous ce rapport. « Comment savez-vous que tel discours est un discours de haine ou contient des informations fausses? », a-t-il demandé. « Une fois que vous commencez à restreindre certaines de ces acquis, vous vous placez sur une pente glissante et vous vous exposez à des poursuites judiciaires. »

Les contenus abusifs : une guerre interminable
« C’est une bataille que les moteurs de recherche livrent inlassablement », explique Jennifer Golbeck. « Ils trouvent un moyen de classer les contenus de qualité, et les utilisateurs qui cherchent à promouvoir des contenus fallacieux trouvent moyen de déjouer les garde-fous du système. La tâche de Google sera maintenant de signaler les contenus erronés qui apparaissent pourtant en premier dans les résultats de recherche, puis de les rétrograder. »

Mais Pinar Yildirim souligne aussi un autre inconvénient. Elle s’inquiète de ce que ces nouveaux outils susciteront « une ségrégation des internautes » et contribuera ainsi à créer des « chambres d’écho ».

Par exemple, un utilisateur avec des penchants d’extrême droite peut, selon Pinar Yildirim, bloquer les contenus des partisans du Parti Démocrate, et s’exposer alors à d’autres vues potentiellement biaisées. « Il va donc constamment tomber sur des contenus exprimant à quel point l’ObamaCare est nuisible, combien les impôts sont élevés, que les emplois industriels pourraient être relocalisés aux États-Unis, etc. », expliqu-t-elle. « Il va finir par croire que tout le monde pense comme lui, et il sera moins en mesure de remettre en question certaines de ses croyances pourtant erronées. »

Les entreprises de médias avaient pris des mesures pour filtrer les contenus choquants bien avant la récente controverse, mais ces mesures se sont avérées insuffisantes. Elles impliquent généralement un algorithme initial qui recherche et supprime automatiquement certains commentaires, processus suivi par des vérifications manuelles exécutées par un personnel dédié et des modérateurs de conversations.

Quand l’information est inexacte
Les dégâts que peuvent faire de fausses informations sont bien entendu considérables. Une récente histoire relatée dans le New York Times évoquait ce faux post sur des manifestants emmenés en car à une réunion de Trump à Austin, Texas. Eric Tucker, co-fondateur d’une agence de marketing à Austin, avait tweeté que des personnes transportées à des manifestations anti-Trump avaient été payées pour le faire. Il n’avait pas vérifié son information, et son tweet avait été partagé au moins 16 000 fois sur Twitter, et plus de 350 000 fois sur Facebook. « Il a alimenté une théorie du complot à l’échelle nationale – conspiration sur laquelle M. Trump s’est empressé de surfer », écrit le NYT.

« Personne ne contrôle plus ses sources – Voilà comment Trump a été élu », a déclaré Paul Horner, l’éditeur d’un de ces sites de fausses infos (qui tirent l’essentiel de leurs revenus de la publicité et ont donc intérêt à jouer le sensationnalisme), dans un entretien pour le Washington Post. Et de battre sa coulpe : « Je suis l’un des responsables de l’élection de Trump. »

Les auteurs de fausses informations pourraient également compromettre le fonctionnement de navigateurs web et autres dispositifs en ligne utilisés par les internautes afin de relier ces derniers à des botnets, par exemple. Comme le rappelle Andrea Matwyshyn, « une partie de la bataille consiste ici à protéger les utilisateurs contre les atteintes invisibles à leur sécurité, en plus de la question du contenu ». Elle rappelle la récente affaire des hackers qui connectaient des appareils domestiques connectés, par exemple des webcams, à un botnet qui à son tour désactivait Twitter et quelques autres sites web populaires pendant toute une journée, voire plus.

S’attaquer aux fausses infos, comme à d’autres formes de pratiques ayant cours sur les plateformes de médias sociaux, sera un processus à multiples facettes, pense Kevin Werbach, qui ajoute qu’aucune solution miracle n’est encore en vue. « Faire plus exigera probablement un ensemble de moyens combinant une surveillance humaine, des algorithmes conçus pour détecter et éliminer le mensonge ou les dérives, et des outils permettant de donner encore plus la main à l’utilisateur », a-t-il ajouté.

Andrea Matwyshyn a indiqué que la Federal Trade Commission, où elle a travaillé comme conseillère, n’a à ce jour envisagé aucun filtrage de cet ordre. On s’attend d’abord à une évolution dans le secteur privé, avant que le gouvernement ne s’implique davantage pour contrecarrer de telles menaces de sécurité, a-t-elle fait remarquer. « Une réponse trop marquée du gouvernement serait, à ce stade, prématurée. »

En tout état de cause, les réseaux sociaux ne peuvent se permettre de ne rien faire dans la lutte contre les fausses informations. « À un moment donné, s’il ne reconnaît pas les effets néfastes des fausses infos, Facebook subira un retour de bâton de la part des utilisateurs et des régulateurs », précise Werbach. « La seule raison pour laquelle ces entreprises ne sont pas tenues pour juridiquement responsables des contributions et contenus inexacts ou malveillants de leurs utilisateurs, est que le Congrès a inclu une disposition dans sa tentative de 1996 d’interdire les contenus indécents en ligne pour protéger les ‘bons samaritains’ et encourager la croissance des plateformes en ligne. »

Au fur et à mesure que les plateformes de médias sociaux tenteront de limiter le harcèlement des contenus et l’intox en ligne, elles seront « vivement critiquées par les conservateurs », prédit Werbach. En fait, il a souligné que plusieurs évaluations indépendantes ont laissé transparaitre que les informations erronées en ligne étaient beaucoup plus répandues et crues chez les pro-Trump. « J’espère que les plateformes de médias sociaux auront le courage de rester fermes », a-t-il dit. « Elles doivent être ouvertes dans leur démarche, et être prêtes à faire évoluer leurs dispositifs en tenant compte des effets qui en résulteront. »

Cet article a été publié par notre partenaire Knowledge@Wharton, sous le titre « Fake news, hate speech and social media abuse: what’s the solution? » Copyright Knowledge@Wharton. Tous droits réservés. Traduit et publié sur autorisation.

 

References

BOOKS

More on paristech review

By the author

  • Intox et fausses nouvelles: Google, Facebook et Twitter vont-ils vraiment réagir?on November 22nd, 2016
  • Apple vs. FBI: les enjeux d’une polémiqueon February 22nd, 2016
  • People analytics: les RH sauront-elles prendre le virage des données?on July 15th, 2015

www.paristechreview.com

This content is licensed under a Creative Commons Attribution 3.0 License
You are free to share, copy, distribute and transmit this content

Logo creative commons

5 quai Voltaire 75007 Paris, France - Email : contact@paristechreview.com / Landline : +33 1 44 50 32 89