Pour des états généraux de l’Internet indépendant

Avez-vous remarqué comme le monde se réduit ? Comme nous sommes passés d’un idéal de miniaturisation technique à une sorte de cauchemar réductionniste ? Lawrence Lessig déclarait récemment : «Quand Twitter est né, j’ai parlé avec un de ses fondateurs. Il était très excité par ce qu’ils avaient fait, et je lui ai dit : "Je comprends, mais n’êtes-vous pas un peu inquiet à l’idée de générer un discours de 140 caractères ? N’est-ce pas un problème ?" Il a répondu : "C’est ce que les gens veulent, alors, il faut le leur donner !" Il s’est finalement trouvé que ce n’était pas une bonne réponse à caractère universel.»

L’espace social se réduit, l’espace discursif se réduit, l’espace de consultation (nos écrans de smartphones) se réduit, le temps d’attention se réduit et se fractionne à l’avenant.

L’histoire des sciences et des techniques algorithmiques est devenue celle des ruses de la persuasion technologique permettant aux plateformes de s’assurer que rien ne pourra leur être caché ou dissimulé alors même qu’elles auront tout loisir de nous imposer tel ou tel déterminisme algorithmique. Ce que l’on nous vendait hier comme de l’«empowerment», de la «capacitation» est devenu, en quelques années, une impuissance, une aliénation. Politiques et intellectuels sont en train de se réveiller criant «haro» sur le baudet Google ou le mulet Facebook. Ce réveil tardif est étonnant car tout était déjà parfaitement clair en 2003, lorsque Facebook n’existait pas, que Google n’avait pas encore cinq ans.

«Quand nous consultons une page de résultats de Google, ou de tout autre moteur utilisant un algorithme semblable, nous ne disposons pas simplement du résultat d’un croisement combinatoire binaire entre des pages répondant à la requête et d’autres n’y répondant pas ou moins (matching). Nous disposons d’une vue sur le monde (watching) dont la neutralité est clairement absente […] et s’appuyant sur des principes de classement non plus seulement implicites (comme les plans de classement ou les langages documentaires utilisés dans les bibliothèques) mais invisibles et surtout dynamiques.»

Voilà ce que j’écrivais avec un collègue dans un article scientifique publié en 2003. Treize ans plus tard, la tempête médiatique autour des «fake news» et de la «post-vérité» n’est rien d’autre que l’essor de ces trois phénomènes cumulés : la réduction numérique des espaces de consultation et d’expression, la capacité des plateformes à ne nous présenter que des pans altérés d’une réalité informationnelle et sociale, et les principes implicites, invisibles et dynamiques qui régissent les algorithmes de hiérarchisation, de visibilité et/ou d’obfuscation de l’information.

Toute tentative de régulation législative ne sera que partielle quand elle ne sera pas entièrement vaine. Parce que le code est devenu la loi. En appeler à la «responsabilité» de ces plateformes a à peu près autant de chances d’aboutir que de demander à Vincent Bolloré de respecter une quelconque déontologie journalistique. Taxer davantage leurs revenus ne fera que les inciter à les dissimuler davantage. En appeler à des algorithmes qui soient à la fois «transparents à l’inspection, prévisibles pour ceux qu’ils gouvernent, et robustes contre toute manipulation» - The Ethics of Artificial Intelligence (1) - est une règle qui ne pourra prévaloir qu’à l’échelle de secteurs régaliens si tant est que d’autres algorithmes que ceux des plateformes actuelles puissent les empêcher d’investir lesdits secteurs.

Nécessité du storytelling faisant loi et climat d’insécurité aidant, le politique a principalement traité ces questions sous l’angle de la menace terroriste, de l’incitation à la haine et de la radicalisation en ligne. Le résultat ne s’est pas fait attendre : les plateformes ont repris la main, remplaçant une incurie déontologique (la modération des contenus haineux) par une obscurité algorithmique supplémentaire et achevant de sceller une incompréhension définitive entre de deux univers qui ne travaillent ensemble qu’à la hauteur de ce qu’ils espèrent en retirer en termes d’image ou, littéralement, d’affichage.

La seule solution consiste à donner corps à l’idée du chercheur en sciences de l’information Dirk Lewandowski, en créant un index indépendant du Web. Car tout part de là, à commencer par la fin des monopoles et des effets de rente actuels. C’est techniquement possible, à court terme, et à un coût raisonnable. Ce n’est pas une utopie mais une nécessité pour s’éviter, collectivement, un gouvernement mondial des Gafa (Google, Apple, Facebook, Amazon) à la solde de quelques lobbys.

Comme l’a écrit le spécialiste en sécurité informatique Bruce Schneier, l’histoire d’Internet est celle «d’un accident fortuit résultant d’un désintérêt commercial initial, d’une négligence gouvernementale et militaire et de l’inclinaison des ingénieurs à construire des systèmes ouverts simples et faciles».

Si le Web de demain doit être réinventé, ce concours de circonstances ne se reproduira pas. De plus en plus d’ingénieurs (Tristan Harris, Paul Duan) remettent l’éthique au cœur des préoccupations algorithmiques. Des organismes «consultatifs» font un travail de fond remarquable (la Cnil, le Conseil national du numérique).

Des associations proposent des outils pour «dégoogliser Internet» (Framasoft), d’autres combattent sur le front des communs et des libertés numériques (Vecam, la Quadrature du Net, SavoirsCom1), des entrepreneurs proposent des modèles vertueux respectueux de la vie privée (MyCozy Cloud, DuckDuckGo, Qwant…).

Le grand public a ouvert les yeux suite aux révélations de Julian Assange ou d’Edward Snowden. Des organismes publics (la BNF, l’INA), des fondations (Internet Archive), ont numérisé des pans entiers du Web qui pourraient être réexploités dans cet index indépendant.

Des technologies de recherche Open Source existent et sont souvent d’ailleurs utilisées par les Gafa qui, eux-mêmes, font le choix de basculer en Open Source des pans entiers de leurs technologies.

Même «le marché» n’en peut plus de se voir soumis aux logiques de rente des Gafa. Toutes les conditions sont réunies pour que se réunissent des états généraux du Web pour construire cet index indépendant qui seul pourra nous rendre nos libertés et nos illusions perdues.

Sinon ? Sinon, l’essentiel de l’avenir du monde connecté se jouera à New York, où les patrons de Google, de Facebook, d’Amazon, d’IBM, d’Oracle, de Microsoft, de Cisco et d’Apple ont rencontré mercredi Donald Trump.

Il y a urgence.

Olivier Ertzscheid , Chercheur en sciences de l’information et de la communication, maître de conférences à l’université de Nantes et à l’Institut universitaire de technologie de La Roche-sur-Yon.


(1) «The Ethics of Artificial Intelligence» de Nick Bostrom et Eliezer Yudkowsky, 2011.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *