L’explicabilité des algorithmes est-elle un droit fondamental ?

De plus en plus présents dans l’économie mais aussi dans notre vie quotidienne, les algorithmes ne cessent de nous questionner. L’algorithme utilisé pour Parcoursup a défrayé la chronique sur le sujet de la transparence des algorithmes locaux utilisés par les universités pour inscrire les étudiants, et une proposition de loi est annoncée sur le sujet par le Sénat pour rendre obligatoire leur publication. Le débat est ouvert, illustrant la difficulté de concilier la transparence des algorithmes avec d’autres impératifs, tels que le secret des délibérations des équipes pédagogiques.

Aujourd’hui, tous domaines confondus, on met régulièrement en cause ces « boîtes noires » dont les décisions se voient accusées d’être biaisées et de discriminer les personnes, volontairement ou involontairement, en fonction de leur genre, de leur origine ethnique, ou encore de leur orientation sexuelle. Si efficacité de l’algorithme de rime pas forcément avec neutralité, il semble nécessairede comprendre comment il produit un résultat.

Si l’on ne parvient pas à répondre à cette question de l’explicabilité, le développement attendu de l’intelligence artificielle en France et en Europe sera freiné. Les enjeux sont colossaux et dépassent le débat sur la transparence des plates-formes. Les initiatives réglementaires prolifèrent sans nécessairement être coordonnées.

Outre la future proposition de loi sur Parcoursup, la déclaration des pays du G20 et de l’Organisation de coopération et de développement économiques (OCDE) prône une explicabilité des algorithmes. Le rapport Villani sur l’intelligence artificielle (« Donner un sens à l’intelligence artificielle », voir lien PDF), le rapport du groupe d’experts de la Commission européenne, le Règlement général de protection des données (RGPD), la loi Lemaire, le nouveau règlement européen Platform to Business… chaque initiative propose une approche différente de l’explicabilité.

Rendre la logique générale accessible

Derrière l’explicabilité se cachent de multiples interrogations techniques, économiques et juridiques : comment concilier la transparence des algorithmes et le secret des affaires ? Comment permettre l’explicabilité tout en protégeant l’algorithme contre des stratégies de contournement ? Comment répliquer le fonctionnement d’un algorithme qui est en constante évolution ? Comment rendre intelligible le fonctionnement d’un réseau de neurones multicouches ? Les exigences d’explicabilité peuvent-elles nuire à l’innovation et freiner le développement de futurs services numériques ? L’explicabilité est-elle un droit fondamental ?…

A toutes ces questions, la régulation finira par apporter des réponses. Au lieu d’imposer une seule recette, la réglementation doit fournir une matrice qui permettra d’ajuster l’explicabilité à chaque cas, selon les finalités de l’explication, les différents publics visés, le niveau de risque et la temporalité de l’explication. Les outils d’explicabilité envers un régulateur seraient ainsi différents de ceux mis à la disposition de l’utilisateur final. En cas d’audit, l’exploitant de l’algorithme devra être en mesure de donner accès à l’ensemble de la documentation concernant l’algorithme et les données d’apprentissage, et permettre au régulateur de conduire des tests, notamment des tests de perturbation de données d’entrée.

A l’autre bout du spectre, du côté du grand public, il ne s’agira pas de révéler la complexité technique du système, mais de rendre la logique générale de l’algorithme accessible, tout en préservant pour l’individu un droit de recours efficace. Pour s’adapter à tous ces cas de figure, la régulation doit rester souple, fournissant des critères d’appréciation plutôt que des réponses toutes faites.

Comme pour le RGPD, l’explicabilité peut favoriser l’innovation à condition que la réglementation permette une certaine prise de risques et des expérimentations pour les entreprises et les régulateurs. Lorsque les contours de l’explicabilité et les outils techniques seront mieux compris dans un domaine précis – par exemple dans la lutte contre le blanchiment d’argent, ou dans le cadre d’une plate-forme d’admission aux universités –, la réglementation pourra alors se durcir en devenant plus prescriptive.

David Bounie (Enseignant-chercheur, responsable du département sciences économiques et sociales à Télécom ParisTech) et Winston Maxwell (Directeur d’étude en droit numérique à Télécom ParisTech)

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *