Dans l’ombre, des start-up créent les briques matérielles indispensables aux applications de l’intelligence artificielle

Le 22 avril, Elon Musk a dévoilé avec fierté la toute dernière création de Tesla : une puce baptisée FSD (Full Self Driving). Selon lui, celle-ci devrait permettre aux véhicules de la marque d’accéder à l’autonomie complète d’ici à quelques mois à peine, affirmation aussitôt mise en doute par son ancien fournisseur, Nvidia, qui en a profité pour vanter son propre système intégré destiné à la conduite autonome.

S’il est difficile de trancher cette polémique, elle aura au moins eu un mérite : mettre en lumière l’importance cruciale du hardware pour les applications de l’intelligence artificielle (IA). En cherchant à développer sa propre puce, Tesla ne fait en réalité que rejoindre la plupart des grands noms de la technologie. Depuis l’iPhone 8, Apple intègre à ses puces ce qu’il appelle un Neural Engine. Google a, de son côté, spécifiquement conçu une puce baptisée Tensor Processing Unit (TPU) pour sa plate-forme de machine learning TensorFlow.

Amazon a procédé à plusieurs acquisitions en ce sens pour renforcer les capacités de son enceinte connectée Echo, tandis que Facebook a fait part de ses intentions en la matière. De leur côté, les spécialistes du semi-conducteur ne sont pas en reste, à l’image d’Intel, qui a procédé à d’importantes acquisitions ces dernières années (Nervana, Mobileye), ou encore de Samsung, qui vient d’annoncer un colossal plan d’investissement de plus de 100 milliards de dollars sur dix ans.

Développement de l’innovation matérielle

Ces grandes manœuvres passent pourtant inaperçues tant, en matière d’intelligence artificielle (IA), ce sont les perspectives d’application qui monopolisent toute l’attention. Dans l’effervescence actuelle, il n’est question que de détection de signaux faibles ou de corrélations insoupçonnées, d’aide à la décision et d’automatisation, de prédiction et de personnalisation. Pour les start-up, l’IA est même pratiquement devenue un passage obligé. La quasi-totalité d’entre elles la mettent au menu de leur modèle économique et de leur feuille de route technologique bien que, pour les trois quarts, cela ne reflète aucune réalité.

Chacun promet monts et merveilles, et le caractère un peu mystérieux du terme ne fait qu’amplifier la confusion. Cependant, s’il est d’ores et déjà possible de tirer des bénéfices significatifs de l’IA, ceux-ci sont encore bien modestes au regard de son potentiel. Ce sont, comme on dit en anglais, les « low-hanging fruits », les fruits les plus facilement accessibles. Mais les plus nombreux, et les plus juteux, se trouvent plus haut ! Pour les atteindre, il faudra d’autres échelles que les systèmes actuels.

Et c’est là tout l’enjeu de la course moins médiatisée, mais non moins acharnée, à l’innovation matérielle. Les principes sous-jacents des systèmes informatiques ordinaires, y compris les plus puissants, ont été définis à une autre époque et pour d’autres contextes d’utilisation : machines isolées et peu nombreuses, volumes de données restreints, technologies de production limitées, faibles contraintes énergétiques et de sécurité…

Un avantage stratégique

Ces architectures généralistes ne peuvent plus tout à fait répondre aux exigences de l’IA, qui requiert des systèmes de pointe à tous les niveaux : pour bâtir les modèles, pour les éduquer et pour les opérer, que ce soit à distance, dans le cloud ou de façon embarquée, pour prendre les décisions au plus près de la donnée avec une latence minimale (« edge computing »). À chacune de ces situations correspond une équation où interviennent, dans des proportions variables, la puissance de traitement, la précision des calculs, la consommation d’énergie, l’enveloppe thermique, les volumes de données, la sécurité et le coût.

En outre, ces exigences, et donc les solutions, peuvent varier en fonction du domaine d’application, qu’il s’agisse de conduite autonome, de robotique industrielle, d’objets connectés ou d’applications numériques. Dès lors, on comprend que tous les grands noms de la technologie se penchent sur le sujet. Disposer de son propre matériel n’est pas seulement une question d’indépendance vis-à-vis de ses fournisseurs, c’est aussi un avantage stratégique. Cela permet d’optimiser son système en l’intégrant de bout en bout (« full stack »), mais aussi de le fermer, de manière à y conserver toutes ses précieuses données.

Préparer le futur

Dans l’ombre des grands, de nombreuses start-up travaillent elles aussi à créer les briques matérielles qui, demain, seront indispensables aux applications d’IA avancées. C’est, par exemple, le cas du français LightOn, qui développe des processeurs utilisant la lumière, ou de la licorne britannique Graphcore, dont l’Intelligence Processing Unit (IPU) est exclusivement conçue pour le machine learning.

Ces nouveaux acteurs sont confrontés à une pénurie de compétences et à des investisseurs parfois frileux face à une activité réputée très capitalistique et à la rentabilité incertaine. Mais ces deep techs ont pour elles un atout majeur : la disruption. À l’inverse des grandes entreprises, elles ne sont pas tenues de s’inscrire dans une feuille de route stratégique ou de s’accorder à une organisation existante. Elles peuvent partir d’une feuille blanche, explorer de nouvelles voies, associer des compétences issues de la recherche académique et inventer de nouveaux paradigmes. Et si elles bénéficient aujourd’hui de moins d’exposition que toutes les start-up qui affirment utiliser l’IA, ce sont bien elles qui en préparent le futur.

Alexis Houssou, PDG et cofondateur du fonds d’investissement Hardware Club.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *