L'intelligence artificielle, la technologie même qui alimente les puces de Nvidia, alimente désormais de nouvelles startups visant à bousculer la position du géant des puces sur le marché. Wafer et Ricursive Intelligence déploient l'IA pour optimiser les logiciels destinés à divers matériels et rationaliser la création de puces, modifiant potentiellement le paysage concurrentiel. « Nous voulons maximiser l'intelligence par watt », a déclaré Emilio Andere, cofondateur de Wafer, mettant l'accent sur l'efficacité plutôt que sur les performances brutes.
Le paysage du matériel d'intelligence artificielle est en pleine mutation, avec de nouvelles entreprises qui appliquent l'IA elle-même pour relever des défis d'ingénierie complexes qui ont longtemps renforcé la domination d'acteurs établis comme Nvidia. Alors que les unités de traitement graphique (GPU) de Nvidia restent l'épine dorsale pour l'entraînement des plus grands modèles d'IA, une nouvelle vague d'innovation se concentre sur l'optimisation des performances de *n'importe quelle* puce. Wafer, une startup qui a récemment obtenu 4 millions de dollars de financement de démarrage, est à l'avant-garde de ce mouvement.
L'entreprise entraîne des modèles d'IA pour effectuer l'une des tâches les plus exigeantes en ingénierie logicielle : optimiser le code pour qu'il s'exécute avec une efficacité maximale sur des puces de silicium spécifiques. Cela implique la génération de ce que l'on appelle le code noyau (kernel code), la couche logicielle qui interagit directement avec le matériel d'une puce, un processus qui a toujours requis une expertise humaine hautement spécialisée. Emilio Andere, cofondateur et PDG de Wafer, a expliqué que leur approche implique l'apprentissage par renforcement sur des modèles open source.
Ils enseignent à ces modèles à écrire du code noyau à partir de zéro. Au-delà de cela, Wafer intègre également des « harnais agentiques » (agentic harnesses) avec des grands modèles de langage existants, tels que Claude d'Anthropic et GPT d'OpenAI, pour améliorer leur capacité à écrire du code directement pour les puces. Cette double stratégie vise à créer des logiciels très efficaces, adaptés à diverses architectures matérielles.
L'optimisation des logiciels pour différentes conceptions de puces a longtemps été un goulot d'étranglement pour les entreprises s'aventurant au-delà de l'écosystème de Nvidia. Alors que de nombreuses puces haut de gamme de concurrents comme AMD, les Trainium d'Amazon et les TPU de Google offrent des performances en virgule flottante comparables au silicium haut de gamme de Nvidia, le défi réside dans leur programmabilité. Nvidia a bâti un écosystème logiciel complet, comprenant des bibliothèques et des outils, qui simplifie le développement et la maintenance du code pour ses GPU.
Cela facilite la tâche des développeurs. D'autres architectures de puces manquent souvent de ce support robuste, ce qui rend difficile, même pour les grandes entreprises technologiques, d'atteindre des performances optimales de manière indépendante. Considérons l'expérience d'Anthropic, une importante entreprise de recherche en IA.
Quand Anthropic a choisi de construire ses modèles d'IA sur le matériel Trainium d'Amazon, elle a été confrontée à la tâche considérable de réécrire entièrement le code de son modèle. Cela était nécessaire pour garantir que le logiciel s'exécute aussi efficacement que possible sur le nouveau matériel non-Nvidia. De tels efforts sont coûteux et chronophages.
Ils nécessitent un ensemble de compétences spécifiques. Andere estime que l'IA, qui a déjà atteint des capacités surhumaines dans l'écriture de code général, érodera bientôt cet avantage logiciel. « Le fossé réside dans la programmabilité de la puce », a observé Andere, faisant référence aux nombreux outils logiciels fournis par Nvidia. « Je pense qu'il est temps de commencer à reconsidérer si cela constitue réellement un fossé solide. » Ce changement pourrait démocratiser l'accès au calcul haute performance, permettant à un plus grand nombre d'entreprises d'exploiter divers matériels sans les coûts d'ingénierie prohibitifs. Au-delà de l'optimisation des logiciels pour le silicium existant, une autre startup, Ricursive Intelligence, s'attaque à un défi encore plus fondamental : la conception des puces elles-mêmes à l'aide de l'intelligence artificielle.
Cofondée par d'anciennes ingénieures de Google, Azalia Mirhoseini et Anna Goldie, Ricursive développe de nouvelles méthodes pour automatiser et accélérer la conception de puces, un domaine traditionnellement dominé par des ingénieurs humains hautement spécialisés. La conception de puces informatiques est un processus complexe et exigeant. Les ingénieurs doivent agencer précisément des milliards de composants sur un minuscule morceau de silicium, en optimisant diverses fonctionnalités comme la vitesse, la consommation d'énergie et l'efficacité thermique.
Après une conception initiale, les performances de la puce subissent des tests et une vérification rigoureux à travers un cycle itératif avant de pouvoir être envoyée à une fonderie pour fabrication. Cela demande un temps et des ressources considérables. Mirhoseini, également professeure adjointe à l'Université de Stanford, a expliqué que Ricursive cible « les aspects les plus longs de la conception de puces — la conception physique et la vérification de la conception », deux des aspects les plus chronophages.
Mirhoseini et Goldie avaient précédemment développé une méthode basée sur l'IA chez Google qui optimisait la disposition des composants clés au sein des puces informatiques. Cette approche a transformé les processus internes de conception de processeurs de Google et est depuis devenue une technique largement adoptée dans l'industrie pour l'agencement des fonctionnalités sur diverses puces. Ricursive vise à s'appuyer sur ce succès, en automatisant davantage d'éléments du flux de travail de conception et en intégrant des grands modèles de langage.
L'objectif est de permettre aux ingénieurs d'utiliser le langage naturel pour décrire les changements souhaités ou poser des questions spécifiques sur la conception d'une puce, s'orientant vers un avenir où l'on pourrait « concevoir une puce par intuition » (vibe design), comme l'a suggéré Goldie. Le potentiel de l'IA à co-concevoir à la fois des puces et des algorithmes offre une vision d'amélioration récursive de l'IA. Goldie a décrit un avenir où l'IA pourrait ajuster son propre silicium et son code, créant une « loi d'échelle pour la conception de puces » (scaling law for chip design). Ce concept suggère une boucle de rétroaction continue où le matériel conçu par l'IA améliore la capacité de l'IA à concevoir un matériel encore meilleur, accélérant le rythme de l'innovation.
Les investisseurs portent une attention particulière à ces développements. Ricursive Intelligence a rapidement levé 335 millions de dollars, atteignant une valorisation de 4 milliards de dollars en quelques mois seulement. Cette injection de capital significative souligne la confiance du marché dans le potentiel transformateur de la conception de puces basée sur l'IA.
La politique dit une chose sur la concurrence du marché, mais la réalité est souvent façonnée par ces avancées technologiques. Ce que cela signifie réellement pour votre famille, ou du moins pour les entreprises technologiques qui les emploient, est un changement dans la détention des clés de l'informatique avancée. Si l'IA peut démocratiser la capacité à optimiser le code pour n'importe quelle puce, et même à concevoir du silicium personnalisé, alors la barrière à l'entrée pour le développement d'une IA de pointe pourrait s'abaisser.
Les petites entreprises pourraient acquérir la capacité d'innover à égalité avec les géants, favorisant un écosystème technologique plus diversifié et compétitif. Cela pourrait conduire à un matériel plus spécialisé et efficace pour des tâches d'IA spécifiques, réduisant potentiellement le coût d'exécution de grands modèles d'IA pour les entreprises et, par extension, les consommateurs. Les deux parties revendiquent la victoire dans la course à l'innovation.
Voici les chiffres : les milliards d'investissements suggèrent un véritable défi au statu quo. Cette concurrence émergente n'est pas purement théorique. Des entreprises comme Apple, Google et Amazon ont déjà investi massivement dans le silicium personnalisé depuis des années pour améliorer les performances et l'efficacité de leurs produits, des smartphones aux plateformes de cloud computing.
Meta Platforms a récemment annoncé son intention de déployer un gigawatt de capacité de calcul en utilisant une nouvelle puce développée avec Broadcom. Le déploiement de silicium personnalisé implique l'écriture d'un code étendu pour assurer un fonctionnement fluide et efficace. Cette tendance existante valide le marché pour des services comme ceux de Wafer et des technologies comme celles de Ricursive.
Les implications vont au-delà du simple résultat net pour les fabricants de puces. Pour les milliers d'ingénieurs spécialisés dans la conception de puces et l'optimisation des performances, ces outils d'IA représentent une nouvelle frontière. Alors que certains pourraient craindre l'automatisation, d'autres y voient une opportunité de décharger les tâches fastidieuses et de se concentrer sur l'innovation de plus haut niveau.
La demande d'ingénieurs en performance qualifiés reste élevée, mais l'IA pourrait augmenter leurs capacités, permettant aux équipes d'accomplir davantage avec moins de ressources. Ce changement pourrait redéfinir ce que signifie être un ingénieur matériel à l'ère de l'IA, passant de l'optimisation manuelle à la gestion et au guidage d'agents de conception intelligents. - L'IA commence à optimiser le code pour diverses architectures de puces, remettant en question l'avantage de l'écosystème logiciel de Nvidia. - Des startups comme Wafer utilisent l'IA pour écrire du code noyau très efficace pour le matériel non-Nvidia. - Ricursive Intelligence applique l'IA pour automatiser et accélérer les processus fondamentaux de conception de puces, de la disposition à la vérification. - Ces développements pourraient démocratiser l'accès au calcul haute performance et favoriser une plus grande concurrence sur le marché du matériel d'IA. À l'avenir, les 12 à 18 prochains mois seront cruciaux.
Soyez attentifs aux prochaines levées de fonds pour ces startups et aux annonces spécifiques des grandes entreprises technologiques concernant leur adoption de code optimisé par l'IA ou de puces conçues par l'IA. Tout partenariat majeur entre un grand fournisseur de cloud ou un développeur d'IA et l'une de ces entreprises émergentes de silicium basées sur l'IA pourrait signaler un point de basculement. L'évolution continue de la capacité de l'IA à construire et à programmer son propre matériel déterminera l'étendue réelle de cette perturbation technologique.
Points clés à retenir
— - L'IA commence à optimiser le code pour diverses architectures de puces, remettant en question l'avantage de l'écosystème logiciel de Nvidia.
— - Des startups comme Wafer utilisent l'IA pour écrire du code noyau très efficace pour le matériel non-Nvidia.
— - Ricursive Intelligence applique l'IA pour automatiser et accélérer les processus fondamentaux de conception de puces, de la disposition à la vérification.
— - Ces développements pourraient démocratiser l'accès au calcul haute performance et favoriser une plus grande concurrence sur le marché du matériel d'IA.
Source : Wired
