Auditeurs:
Meilleurs auditeurs :
play_arrow
Big Bang Radio – Qualité HLS (AAC) Big Bang Radio Live
play_arrow
Big Bang Radio – Qualité HD+ (1500 kbps) Big Bang Radio Live
play_arrow
Big Bang Radio – Qualité HQ (MP3/192 kbps) Big Bang Radio Live
play_arrow
Big Bang Radio – Qualité HQ+ (AAC 192 kbps) Big Bang Radio - Live
play_arrow
Big Bang Radio – Qualité SD (AAC/128 kbps) Big Bang Radio Live
play_arrow
Podcast - La géométrie quantique Big Bang Radio - Podcast
Écouter cet article :
play_arrow
Google abandonne Nvidia pour propulser Gemini BBR

C’est une onde de choc qui traverse la Silicon Valley et dont les répliques se font sentir jusqu’au Vieux Continent. L’information, techniquement dense mais stratégiquement explosive, est tombée : Google ne se contente plus de louer la puissance de calcul nécessaire à son IA. Le géant de Mountain View fait désormais tourner son système phare, Gemini, presque exclusivement sur ses propres puces maison.
Fini le temps où l’on faisait la queue pour obtenir les précieux GPU de Nvidia. Google a décidé de cuisiner sa propre sauce, et les ingrédients sont 100 % maison. Pour Big Bang Radio, nous avons décortiqué ce mouvement tectonique qui redessine la carte mondiale de la puissance de calcul.
Pour comprendre la portée de l’annonce, il faut soulever le capot. Google ne fait pas que « bricoler » quelques processeurs. Ils ont déployé une infrastructure complète, verticale et intégrée. Au cœur du réacteur, on trouve les TPU (Tensor Processing Units), et plus spécifiquement la génération Trillium (v6e).
Contrairement aux GPU de Nvidia, qui sont des couteaux suisses ultra-performants capables de tout faire (du jeu vidéo au minage de crypto), les TPU de Google sont des scalpels. Ils sont conçus pour une seule et unique tâche : l’algèbre linéaire massive nécessaire aux réseaux de neurones.
À cela s’ajoute l’arrivée des processeurs Axion, basés sur l’architecture ARM. Ces CPU gèrent les tâches généralistes des centres de données avec une efficacité énergétique redoutable, laissant les TPU se concentrer sur l’intelligence pure. En contrôlant tout, de la conception du transistor jusqu’à l’algorithme de Gemini, Google s’offre un luxe que peu peuvent se payer : une optimisation totale.
Outre-Atlantique, la réaction ne s’est pas fait attendre. Les analystes de Wall Street parlent d’un « changement sismique ». Jusqu’ici, Nvidia était le roi incontesté, le « marchand de pelles » de la ruée vers l’or de l’IA. En montrant qu’il est possible de se passer du roi, Google a fait trembler la couronne.
L’annonce récente d’un partenariat potentiel avec Meta (la maison mère de Facebook/Instagram) pour l’utilisation de ces mêmes puces TPU a fini d’enflammer les débats. Si les géants de la tech commencent à s’échanger leurs propres puces pour contourner Nvidia, c’est tout le modèle économique du secteur qui vacille.
Pour les observateurs américains, c’est une déclaration d’indépendance. Google signale qu’il ne laissera pas sa marge opérationnelle et son destin technologique entre les mains d’un fournisseur tiers, aussi brillant soit-il. C’est une démonstration de force brute : « Nous avons les capitaux, nous avons les ingénieurs, nous ferons nos propres puces. »
De ce côté de l’Atlantique, l’accueil est plus mitigé, teinté de cette éternelle angoisse européenne : la souveraineté numérique.
D’un point de vue économique, l’Europe bénéficie des miettes de ce festin. Google a annoncé des investissements massifs (plusieurs milliards d’euros) pour étendre ses centres de données en Belgique et en Allemagne. C’est bon pour l’emploi local et les infrastructures. Cependant, la presse tech européenne et les régulateurs de Bruxelles voient cela d’un autre œil.
Pendant que les États-Unis se battent pour savoir qui construira le moteur de l’IA de demain, l’Europe semble encore chercher les clés de la voiture. La Commission européenne a récemment ouvert des enquêtes sur les pratiques de Google concernant les données utilisées pour entraîner ces modèles, mais sur le plan matériel (« hardware »), la dépendance de l’Europe s’aggrave.
L’inquiétude est palpable : si l’architecture matérielle de l’IA devient propriétaire (Google avec ses TPU, Amazon avec ses puces Trainium), l’Europe risque de passer du statut de client de Nvidia à celui de vassal technologique de systèmes fermés et incompatibles entre eux. Le « fossé technologique » se creuse, et la réponse européenne tarde à se matérialiser sous forme de « giga factories » de puces pourtant promises.
On pourrait croire que ces histoires de processeurs ne concernent que les ingénieurs. Détrompez-vous. Si Google réussit son pari :
Le coût de l’intelligence va baisser. En ne payant pas la « taxe Nvidia », Google peut potentiellement offrir des services Gemini moins chers ou plus puissants dans sa version gratuite.
La vitesse d’innovation va accélérer. En adaptant ses puces à ses modèles (et inversement), les mises à jour de Gemini (comme la récente version 3 Pro) peuvent être déployées plus vite.
L’impact énergétique. Les puces spécialisées comme les TPU sont souvent plus efficientes énergétiquement que les GPU généralistes, un point non négligeable alors que l’IA consomme des quantités astronomiques d’électricité.
Google ne joue plus seulement au jeu du logiciel. Ils sont en train de construire la machine physique qui hébergera l’esprit de leur IA. Et dans cette partie de poker à plusieurs centaines de milliards de dollars, ils viennent de faire « tapis ».
Commentaires d’articles (0)