Société Le 28 août 2020

Algorithmes et réseaux sociaux : le débat démocratique comme dommage collatéral ?

0
0
Algorithmes et réseaux sociaux : le débat démocratique comme dommage collatéral ?

© pixabay

Les démocraties libérales sont-elles mises en danger par les réseaux sociaux ? Jérôme Duberry, chercheur au Global Studies Institute de l’Université de Genève, répond par l’affirmative. Pour l’auteur, les réseaux sociaux ne favorisent ni l’ouverture aux avis divergents, ni la prise en compte du bien commun.


 

Dans un contexte de grande incertitude, comme actuellement avec la pandémie de Covid-19, la demande d’information des citoyen-ne-s est forte : il s’agit, pour les gouvernements et les médias, de donner du sens à cette réalité en constante évolution. Dans les démocraties occidentales, la libre circulation d’information est assurée par la constitution, garante des principes de liberté de pensée, d’opinion et d’expression. Les choix politiques des citoyen-ne-s sont basés sur cette pluralité d’information.

Ce que corrobore le professeur en psychologie Jon Baron, qui a étudié durant de nombreuses années les processus de décision et de jugement individuels et collectifs : selon lui, tout choix politique doit à la fois résulter d’un dialogue entre avis divergents, et prendre en compte l’intérêt de la communauté1. En effet, soumettre notre jugement et notre décision à des avis différents est ce qu’il appelle « open-minded thinking »2. Si nous acceptons la possibilité d’avoir tort, c’est avant tout car nous avons conscience de l’impossibilité de connaître tous les paramètres d’une question.

C’est également ce que John Stuart Mill défend dans le premier chapitre de « On Liberty »3 : le jugement d’une personne est digne de confiance quand elle l’a soumis à l’avis et aux critiques des autres individus. C’est d’ailleurs tout l’intérêt de l’examen par les pairs de la méthode scientifique. Ainsi, remettre en question notre point de vue sur le monde constitue un lien qui nous relit à la communauté. Ce lien est essentiel pour comprendre le sens de l’acte de voter. Comme le fait remarquer Jon Baron, un vote individuel ne peut pas déterminer le résultat d’une élection. L’intérêt individuel ne devrait donc pas dicter le choix politique. Faire entendre sa voix devrait par conséquent être motivé par le bien commun.

Ainsi, prendre une décision politique, comme élire des représentants ou participer à une votation, demande non seulement un accès à une pluralité d’information, mais aussi une ouverture aux avis divergents, et une prise en compte de l’intérêt de la communauté. À l’ère des réseaux sociaux, est-ce possible ? En d’autres termes, est-ce que les conditions d’accès à l’information favorisent cette ouverture aux avis divergents, et cette prise en compte du bien commun ?

Les technologies numériques, et en particulier les réseaux sociaux, ont totalement transformé les conditions d’accès à l’information pour les citoyen-ne-s. En effet, dans de nombreuses démocraties occidentales, les réseaux sociaux sont devenus au cours des années une source importante, sinon la source principale, d’information4. Au niveau individuel, chacun-e est à la fois consommateur-rice et producteur-rice d’information. En quelques clics, nous pouvons facilement et rapidement mettre en ligne une image, une vidéo, un audio ou un texte.

Face à cette avalanche d’information, un tri doit être fait et automatisé, afin de sélectionner les informations qui sont les plus susceptibles de nous concerner. C’est ici qu’interviennent les algorithmes. Un algorithme est une série d’instructions prédéfinies, qui permet d’automatiser une décision. Ainsi, l’algorithme de Facebook va choisir les informations que nous verrons dans notre flux d’actualités, selon des critères choisis par l’entreprise, et les données collectées à notre sujet. Il en va de même pour les algorithmes des autres réseaux sociaux.

Le fait que les algorithmes tentent en permanence d’adapter les informations à nos intérêts et croyances, conduit à limiter le contenu auquel nous avons accès, et à nous « enfermer » dans des formes de bulles individuelles5, où ne filtrent que les informations qui renforcent nos convictions préexistantes. En conséquence, nous sommes de moins en moins confrontés à des vues divergentes.

De plus, le concept de chambre d’écho6 met en lumière le fait qu’un contenu va être amplifié et partagé au sein de communauté d’utilisateur-rice-s qui ont les mêmes croyances. La fameuse étude des chercheurs du Massachusetts Institute of Technology (MIT)7 a illustré ce phénomène, en démontrant que les principaux responsables de distribution de fausses nouvelles sur Twitter étaient les utlisateur-rice-s, et non pas les programmes informatiques « bots »8. En effet, sur les réseaux sociaux, ce ne sont pas les discussions approfondies et raisonnées qui deviennent virales, mais bien plutôt du contenu davantage sensationnaliste, d’opinion, extrême, et facilement digérable.

Ainsi, les réseaux sociaux ne favorisent pas la réflexion ou le débat raisonné. Certains chercheurs vont même jusqu’à affirmer que la circulation de l’information est plus importante que l’information elle-même. La professeure des médias Jodi Dean décrit ce phénomène comme le capitalisme communicatif9. Le message fait simplement partie d’un flux de données en circulation : son contenu particulier n’est pas pertinent, qui l’a envoyé n’a pas d’importance, qui le reçoit n’a pas d’importance, et le fait qu’il faille y répondre n’a pas d’importance. La seule chose qui importe est la circulation d’information. Du point de vue des entreprises comme Facebook, c’est clairement le cas : plus de contenu et plus d’échanges signifient plus de données collectées et plus de temps d’attention disponible.

Dans ce contexte, les réseaux sociaux ne favorisent ni l’ouverture aux pensées et avis divergents, ni la prise en compte du bien commun. D’une part, les algorithmes tendent à filtrer les informations les plus adaptées et qui confirment notre point de vue, et d’autre part ils favorisent les informations facilement digérables, au prix du débat public et des échanges nécessaires à toute démocratie libérale. Ils ne favorisent donc pas l’émergence de consensus autour du bien commun et des décisions collectives. Il est donc urgent que les gouvernements prennent des mesures pour mieux encadrer les algorithmes afin de les rendre plus transparents et plus responsables.

 


Références :

1. Baron, J., 2006. Thinking and Deciding. Cambridge University Press.

2. Baron, J., 2019. Actively open-minded thinking in politics. Cognition188, pp.8-18.

3. Mill, J.S., 1887. On liberty. Longmans, Green.

4. Voir les récents Eurobaromètre sur l’utilisation des réseaux sociaux: https://ec.europa.eu/digital-single-market/en/news/final-results-eurobarometer-fake-news-and-online-disinformation

5. Filter Bubble, voir Pariser, Eli. The filter bubble: How the new personalized web is changing what we read and how we think. Penguin, 2011.

6. Echo chamber, voir Barberá, P., Jost, J. T., Nagler, J., Tucker, J. A., & Bonneau, R. (2015). Tweeting from left to right: Is online political communication more than an echo chamber?. Psychological science, 26(10), 1531-1542.

7. Voir  MIT Study: On Twitter, false news travels faster than true stories. http://news.mit.edu/2018/study-twitter-false-news-travels-faster-true-stories-0308

8. En informatique, un bot est un type de programme informatique qui effectue des tâches automatisées, comme par exemple « aimer », « commenter » ou « partager » automatiquement du contenu sur les réseaux sociaux.

9. Dean, J., 2002. Publicity’s secret: How technoculture capitalizes on democracy. Cornell University Press.

Laisser un commentaire

Soyez le premier à laisser un commentaire

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *
Jet d'Encre vous prie d'inscrire vos commentaires dans un esprit de dialogue et les limites du respect de chacun. Merci.