Azure, AWS, ou encore GCP : ces noms sont pour la plupart inconnus du grand public, et pourtant, ils sont la colonne vertĂ©brale de nombre dâapps utilisĂ©es tous les jours par des millions de personnes. Si la plupart de ces services sont hĂ©bergĂ©s sur des serveurs mĂȘlant processeurs Intel ou maison avec des cartes spĂ©cialisĂ©es créées par Nvidia, Apple a pensĂ© (et pense encore ?) pouvoir tirer son Ă©pingle du jeu, grĂące Ă ses propres puces.
Le projet ACDC... voilĂ qui sonne bien. Image AC/DC.
Câest The Information qui a mis la main sur le projet, nommĂ© ACDC en interne (pour Apple Chips in Data Centers) : jusquâĂ prĂ©sent, lâusage du cloud par les dĂ©veloppeurs se bornait Ă avoir besoin de capacitĂ©s de stockage confortables et dâune bande passante plus que large. Mais les besoins changent, et de plus en plus dâapps font appel au cloud pour des calculs en rapport avec lâIA. Et ça tombe bien : si Nvidia vient directement en tĂȘte pour ses monstres de puissance dĂ©diĂ©s Ă lâIA, Apple nâest pas en reste, dĂ©veloppant ses puces maison depuis 2010, et le Neural Engine intĂ©grĂ© Ă celles-ci depuis 2017.
Dans le domaine, Apple est plutĂŽt bien Ă©quipĂ©e pour venir croiser le fer avec les meilleurs du domaine : le nerf de la guerre dans les data centers, câest lâefficience, domaine dans lequel les puces Apple sont loin dâĂȘtre Ă la traĂźne. Au point que certaines start-up spĂ©cialisĂ©es utilisent des ordinateurs de la pomme pour effectuer des travaux dĂ©diĂ©s Ă lâIA, comme Dragonfruit.ai , qui emploie des Mac mini sur de la reconnaissance dâobjets, dâintrusion ou de vols Ă partir des flux des camĂ©ras de surveillance de boutiques et autres entrepĂŽts. Amit Kumar, CEO de lâentreprise, ne cache pas son intĂ©rĂȘt pour les SoC dâApple :
Apple fait du calcul dâIA dans ses SoC depuis plus longtemps que nâimporte qui. Quand Nvidia ne pensait encore quâaux jeux vidĂ©os, Apple Ă©tait dĂ©jĂ en train de faire des calculs dâintelligence artificielle.
Pourtant, Ă©trangement, Apple loue encore maintenant les serveurs de ses concurrents pour entraĂźner son IA, notamment chez Amazon et Google, oĂč elle dĂ©bourse 7 milliards de dollars par an. Pourquoi louer, alors quâelle pourrait tout faire en interne ? Selon The Information , lâentraĂźnement de lâIA Ă©tant la partie la plus gourmande dans la crĂ©ation de celle-ci, Apple nâa pas envie dâinvestir dans un nombre consĂ©quent de NPU Nvidia pour quâils lui restent ensuite sur les bras, dâautant plus si elle compte utiliser sa propre architecture plus tard.
En interne, les dĂ©veloppeurs utilisent des serveurs Ă©quipĂ©s de puces maison pour tester des services comme Photos, Apple Music, et bien entendu Siri, qui a Ă©tĂ© le premier Ă tourner sur les serveurs made in Cupertino. La pomme a aussi fait ses preuves avec des charges au nombre Ă©levĂ© de transactions, ses propres serveurs gĂ©rant les Ă©changes dâApple Wallet.
Apple a donc largement les capacitĂ©s de proposer des services de cloud computing, ne serait-ce que grĂące Ă la puissance de ses derniers processeurs. Cependant, le projet serait mis en pĂ©ril par le dĂ©part de son crĂ©ateur et dĂ©fenseur, Michael Abbott. Ce dernier, responsable Cloud Engineering depuis 2018, est parti en 2023 et Ă©tait lâinstigateur de cette idĂ©e.
Depuis, plus rien ne transpire sur cette ambition de services de cloud computing. Mais le marché étant en pleine expansion, comme le montrent des services comme Google Cloud qui a rapporté 42,3 milliards de dollars à Alphabet en 2024, il serait dommage pour la pomme de laisser passer une telle possibilité...