Il y a quelques semaines, le chercheur en intelligence artificielle (IA) de réputation internationale et fondateur du Mila, Yoshua Bengio, témoignait devant le Sénat américain pour réclamer davantage de ressources et de réglementations afin d’encadrer le développement de l’IA. Plusieurs interventions publiques récentes d’acteurs importants du secteur de l’IA et du capital algorithmique, comme Bengio, Sam Altman, Elon Musk ou encore Geoffrey Hinton, qui évoquent des menaces importantes, voire des « risques existentiels » posés par l’IA, sont déroutantes à première vue.
Deux types d’interventions peuvent sembler particulièrement contradictoires. D’une part, il y a de nombreux appels, de la part de ceux qui pourtant se partagent les profits symboliques et économiques du développement effréné de l’IA, à une intervention des pouvoirs publics afin de réglementer davantage ce secteur, voire imposer un moratoire sur l’innovation. D’autre part, certains brandissent le spectre de « l’apocalypse de l’IA », c’est-à-dire un risque existentiel pour l’humanité causé par une « intelligence artificielle générale » superpuissante anéantissant les humains à dessein ou par accident, ou encore réduisant l’humanité à l’esclavage, dans un futur plus ou moins rapproché.
Bien sûr, les débats au sein du secteur de l’IA sont complexes et ces positions y sont contestées. Mais les appels à l’intervention gouvernementale, aux moratoires, et les scénarios alarmistes prônés par les leaders du secteur se diffusent largement dans l’espace public. La question se pose : pourquoi un secteur en forte croissance réclame-t-il que les gouvernements interviennent pour réguler, encadrer, voire adopter un moratoire pour freiner ses innovations ? Pourquoi une industrie et ses experts évoquent-ils la menace que son développement puisse éradiquer l’humanité ?
Si ces discours semblent à première vue risquer de freiner le développement de l’IA et apeurer le public, ils peuvent au contraire faire partie d’une stratégie de l’épouvantail qui vise précisément l’inverse : pérenniser le développement de l’IA et fabriquer le consentement du public. En effet, les plus grands dangers qui se posent au développement du capital algorithmique à ce moment-ci sont l’incertitude législative et la faible acceptabilité sociale des technologies algorithmiques.
Alors que l’incertitude législative affecte la stabilité du secteur technologique et fragilise les perspectives des investisseurs, l’acceptabilité sociale de l’IA peine à s’établir pleinement en raison de son amplification de problèmes sociaux et environnementaux. Notons par exemple la précarisation du travail, des enjeux de surveillance et de respect de la vie privée, la perte de souveraineté nationale, une empreinte carbone et environnementale insoutenable, l’envenimement du débat public, la haine en ligne et la désinformation, etc.
Considérés de ce point de vue, les deux types d’intervention susmentionnés tombent sous le sens. Premièrement, le discours prorégulation cherche à faire adopter des lois qui conviennent aux besoins de l’industrie et favorisent un environnement stable et prévisible afin d’attirer les investissements privés et développer des partenariats pérennes avec l’État et les organismes publics.
L’attitude proactive est une stratégie pour d’une part éviter une régulation trop stricte et d’autre part rassurer le grand public en montrant un visage responsable et éthique. Par exemple, le p.-d.g. de l’entreprise OpenAi Sam Altman réclame sur toutes les tribunes une régulation accrue de l’IA générative, tout en faisant du lobbying auprès des instances afin d’amoindrir la portée des nouvelles législations et vider les règlements de toute disposition contraignante à l’innovation.
À plus long terme, l’appel de l’industrie à la régulation par les pouvoirs publics vise à normaliser et stabiliser le développement l’intelligence artificielle, à assurer son intégration au système économique, et favoriser une meilleure symbiose avec les gouvernements qui dépendent par ailleurs eux-mêmes de plus en plus de ces technologies.
Deuxièmement, brandir le spectre de l’apocalypse de l’IA (un scénario improbable, et qui ne se base sur aucune preuve empirique) a pour effet de situer les risques de l’IA dans un futur incertain, au lieu d’en souligner les impacts délétères ici et maintenant. Évoquer l’apocalypse détourne l’attention de l’exacerbation de problèmes sociaux et environnementaux actuels bien réels autour du travail, des changements climatiques, de la surveillance, de l’automatisation des inégalités et des discriminations, etc.
En fin de compte, sous le couvert de se préoccuper de l’intérêt public, la stratégie de l’épouvantail de l’industrie des algorithmes et de ses porte-parole défend ses propres intérêts. Elle désoriente le débat public afin de générer de l’acceptabilité sociale envers ces technologies dont le développement renforce en fait le pouvoir d’une poignée d’acteurs privés au détriment de la vaste majorité du public.
Bien sûr, on ne se surprendra guère que des chercheurs en éthique de l’IA plaident pour davantage de ressources pour la recherche sur les risques de l’IA… Or, si ces technologies présentent effectivement des risques, les « risques existentiels » pour l’humanité se situent davantage dans la poursuite de la logique capitaliste sociocidaire et écocidaire, que les algorithmes contribuent à accélérer et amplifier.
Jonathan Martineau, professeur adjoint au Liberal Arts College de l’Université Concordia. Jonathan Durand Folco, professeur agrégé à l’École d’innovation sociale Élisabeth-Bruyère de l’Université Saint-Paul. Ils cosignent le livre «Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle», à paraître le 26 septembre aux éditions Écosociété.