Choisir l’“IA douce” contre l’“IA Big Brother”

Il faut rappeler cette évidence : l’intelligence artificielle (IA) n’est qu’un outil, mais un outil très puissant, qu’il faudra apprendre à maîtriser. Une intelligence augmentée au service de l’homme, qui l’aide à mieux gérer la complexité croissante de notre monde et à être plus efficace. Les algorithmes excellent dans certaines tâches pour lesquelles les êtres humains ne sont pas performants, comme percevoir des « signaux » dans des milliards de données. Mais l’IA est incapable de réaliser des tâches à plus haute valeur ajoutée : les décisions complexes, l’imagination, ou le bon sens, lui échapperont pour longtemps encore ! Même avec ses limites, elle est un formidable potentiel au service de l’homme pour simplifier les usages au sein du monde digital et ainsi réduire la « fracture numérique ».

L’IA fascine, mais elle effraie aussi, projette des sur-promesses, et parfois des peurs. S’il faut se défier de ces fantasmes (non, les IA qui deviennent autonomes et échappent à leurs créateurs, ça n’existe pas ; les IA qui inventent leurs propres langages incompréhensibles pour les êtres humains, ça n’existe pas…), il est de notre responsabilité − en tant qu’entreprise qui porte une philosophie du numérique et de l’humain, ou en tant que chercheur responsable − de nous intéresser aux conséquences de l’algorithme qu’on est en train de mettre au point, et de faire en sorte qu’il corresponde à un besoin humain et non pas à un projet technologique incontrôlé.

Analyser sans cesse les risques

Si les avantages de l’IA bien utilisée sont infiniment supérieurs aux risques, ces derniers, quand ils existent, doivent être écartés et contrôlés. En ce domaine, l’humain doit évidemment rester au centre de tout. Pour chacun des usages projetés, il est nécessaire de nous assurer de l’éthique des objectifs poursuivis, de bien cibler les données dont on a besoin, d’analyser sans cesse les risques, et de mettre en place une supervision permettant à l’homme de recadrer le projet si nécessaire.

Cette centralité de l’humain n’est pas toujours le souci dans certains pays, ni pour certains géants du monde numérique. Ce sont en effet deux modèles qui s’opposent à l’échelle mondiale en la matière. D’une part, certains acteurs utilisent l’IA à des fins de contrôle social ou de consumérisme, avec une vision techniciste qui échappe de plus en plus aux citoyens comme aux consommateurs. D’autre part, en Europe, l’ambition d’une IA au service de l’humain, une « IA douce », présente dans nos vies, mais à la main de l’homme, respectant des principes éthiques élaborés collectivement.

C’est là que nous nous trouvons devant une alternative, technologique et civilisationnelle, entre une « IA Big Brother » et une « IA douce » qui, selon moi, est la seule réponse en phase avec les valeurs et les besoins du citoyen européen.

Construction d’un cadre éthique

En participant à un groupe d’experts de la Commission européenne sur le sujet, je me suis investie dans la construction d’un cadre éthique pour une IA de confiance, qui favoriserait cette « IA douce ». Nous avons défini sept exigences-clés : le contrôle humain, la robustesse, le respect de la vie privée, la transparence, la non-discrimination, le bien-être sociétal et environnemental, et le principe de responsabilité. Ces principes pourraient être résumés ainsi : « Je veux être aidé par l’IA, mais je veux garder mon libre arbitre ! » Des systèmes qui offriraient des réponses ou des assistances « standardisées » ne tiendraient pas compte de notre autonomie humaine.

Une IA douce est une IA qui développe l’intelligence collective et la diversité : elle favorise notre capacité à échanger et interagir, offre des avis variés, respecte les diversités en multipliant les sources d’informations ou de connaissance…

C’est aussi une IA relocalisée et raisonnée. Aujourd’hui, les données sont majoritairement rapatriées dans des data centers, traitées par les algorithmes, et les résultats sont renvoyés vers les utilisateurs. Dans le futur, il est souhaitable que ce qui peut être fait localement le soit : c’est un moyen d’économiser l’énergie, mais aussi de respecter la vie privée. De même, il est intéressant de mettre « juste ce qu’il faut d’IA » par rapport à un besoin donné. Comme la nourriture ou le transport, elle doit être employée avec parcimonie. Cette « IA douce » peut être un immense facteur de progrès économiques et sociétaux. Elle ouvre des perspectives nouvelles à l’homme, par exemple au service de la mobilité douce ou de l’économie frugale et circulaire.

Technologies prédictives

Un des grands défis à relever est d’améliorer la sécurité des réseaux et de réduire leur empreinte énergétique. Dans ce domaine, nous imaginons des technologies prédictives pour anticiper des problèmes (comme une dégradation temporaire de la qualité du réseau) et les corriger avant même qu’ils ne se produisent. Un autre exemple est la reconnaissance faciale, qui fait l’objet de débats en France comme ailleurs. Car la même technologie peut permettre à des médecins d’évaluer la douleur ressentie par des patients incapables de communiquer : c’est ce que les chercheurs d’Orange sont en train de tester avec le CHU de Nice.

Le vrai combat de l’IA, c’est l’utilité. Mais pour atteindre cette exigence d’utilité, il faut aller plus loin que les nécessaires politiques européennes et la définition d’un cadre éthique : il faut aussi une ambition plus large, que l’on peut qualifier d’« intelligence ambiante », qui associe les objets et les capteurs qui nous entourent avec un système d’IA locale et de confiance, et une connectivité fiable et efficiente permettant de superviser et sécuriser ces IA locales, de les relier entre elles… et avec nous ! Une coopération centrée sur l’humain des écosystèmes de l’IA, de l’Internet des objets et des réseaux qui fera émerger cette « intelligence ambiante » agissant au plus proche de nos besoins collectifs et individuels.

La démarche d’Orange va dans le sens d’un développement de cette intelligence ambiante, en menant des réflexions et des recherches autour d’une utilisation raisonnée des données ; en respectant la sécurité des données et la vie privée des utilisateurs ; en participant à la construction d’un cadre éthique et législatif clair, partagé et évolutif ; en expérimentant sans cesse et en associant les utilisateurs finaux dès le début du projet. L’IA du futur ne peut que se concevoir ainsi.

Mari-Noëlle Jégo-Laveissière est directrice technologie et innovation chez Orange

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *