Les rumeurs concernant le prochain Google Pixel 10a se multiplient. Bien que l’appareil semble conserver un design externe similaire à son prédécesseur, les spécifications internes racontent une histoire différente. Certains observateurs suggèrent que Google devrait abandonner sa série A, mais le Pixel 9a constitue un appareil remarquable qui représentait le meilleur rapport qualité-prix de l’année dans ... Lire plus
Les canons esthétiques ont toujours évolué, mais à l’ère des réseaux sociaux, ils se transforment à une vitesse fulgurante. Du minimalisme clean girl à l’esthétique quiet luxury, chaque nouvel idéal promet une perfection hors d’atteinte pour la plupart, alimentant comparaisons et doutes personnels. Les tendances sur les plateformes sociales ne sont pas seules responsables de ces sentiments d’inadéquation ... Lire plus
Des protéines nanoscopiques dérivées des anticorps d’animaux comme les chameaux et les lamas peuvent pénétrer dans des espaces cellulaires inaccessibles aux autres anticorps. De plus en plus d’indices suggèrent que ces minuscules molécules pourraient être mobilisées pour protéger le cerveau de pathologies difficiles à traiter telles qu’Alzheimer et la schizophrénie. Dans une publication récente, une équipe scientifique ... Lire plus
MAPPA célèbre le retour de l’anime avec un film spécial intitulé Jujutsu Kaisen: Execution. Ce long-métrage compile l’arc de l’Incident de Shibuya et dévoile les deux premiers épisodes de la saison 3. Ces épisodes inauguraux adaptent l’arc Extermination d’Itadori, qui explore non seulement les conséquences de l’Incident de Shibuya mais révèle aussi les véritables motivations de Yuta ... Lire plus
Les dernières années ont marqué un véritable âge d’or pour les franchises Predator et Alien. La première a connu le succès avec des productions comme Prey, Predator: Killer of Killers et Predator: Badlands. Du côté des Xénomorphes, Alien: Covenant et Alien: Earth ont conquis respectivement le grand et le petit écran. Avec Weyland-Yutani, la fameuse ... Lire plus
Son Goku, le héros légendaire de Dragon Ball, est sans conteste l’un des personnages les plus puissants de l’univers de l’animation japonaise. Maître des arts martiaux, le Saiyan peut canaliser son Ki en attaques dévastatrices et atteindre des formes de puissance quasi divines comme le Super Saiyan Blue ou l’Ultra Instinct. Mais malgré sa force ... Lire plus
L’attente touche à sa fin pour les fans de Vince Gilligan, créateur des séries cultes Breaking Bad et Better Call Saul. Sa nouvelle production science-fiction Pluribus arrive sur Apple TV+ avec une révélation majeure survenue à quelques heures seulement de la première. Le mystère soigneusement entretenu autour de la série s’évapore partiellement suite à la ... Lire plus
L’entreprise Quantinuum marque un tournant historique dans l’informatique quantique avec le lancement commercial d’Helios, système officiellement reconnu comme la machine la plus puissante et précise du monde. Présenté le 5 novembre 2025, cet ordinateur quantique révolutionnaire intègre 98 qubits avec une fidélité atteignant 99,9% sur l’ensemble des paires de qubits, surpassant largement son prédécesseur H2. ... Lire plus
Le catalogue PlayStation Plus s’apprête à accueillir un mastodonte du jeu vidéo. Alors que Sony vient de déployer sa sélection mensuelle gratuite pour novembre (incluant Stray, WRC 24 et Totally Accurate Battle Simulator), une fuite majeure révèle qu’un titre mythique rejoindra bientôt le service par abonnement. Cette information, dévoilée par le site Dealabs, concerne Grand Theft Auto ... Lire plus
Le manga One Piece, en publication depuis plus de 28 ans, continue d’étonner les fans avec de nouveaux développements majeurs. Alors que le récit explore actuellement le passé d’Elbaf, la légendaire terre des géants, le créateur Eiichiro Oda semble préparer un tournant majeur dans la saga finale. Et cette fois, tous les regards se tournent ... Lire plus
Nouvelle défection chez Intel dans l’IA d’entreprise : Saurabh Kulkarni, vice‑président en charge du product management pour l’IA en data center, s’en irait chez AMD selon plusieurs échos. Son dernier jour chez Intel serait fixé à vendredi, tandis qu’Anil Nanduri, VP AI Go-To-Market, reprendrait la tête de l’organisation produit IA.
Un profil clé quitte DCAI au moment où AMD accélère
Arrivé il y a un peu plus de deux ans, Kulkarni pilotait le product management des systèmes IA, des GPU et de la conception silicium au sein du groupe data center. Il aurait notamment défini la stratégie systèmes IA sous l’égide de Sachin Katti, Chief Technology and AI Officer, avec des travaux sur la photonique sur silicium visant à doper l’évolutivité GPU pour des déploiements à grande échelle. « Il a façonné la feuille de route systèmes IA d’Intel », peut-on résumer.
Avant ce passage, il a occupé des fonctions de direction chez Graphcore et Lucata, et passé six ans chez Microsoft à diriger l’ingénierie pour l’infrastructure cloud et IA d’Azure. En février, Intel perdait déjà Justin Hotard, l’ex-patron de la division Data Center and AI, parti diriger Nokia.
AMD en pleine montée, Intel se réorganise
Le mouvement intervient alors qu’AMD intensifie sa poussée IA en data center avec les GPU Instinct et des victoires de design majeures, dont OpenAI. La société projette que son activité accélérateurs IA pourrait peser des dizaines de milliards de dollars annuels d’ici 2027, un cap réaffirmé cette semaine par Lisa Su.
Intel, de son côté, réaligne ses activités IA et data center sous la houlette du nouveau CEO Lip-Bu Tan, après des revenus Gaudi en deçà des attentes et une restructuration touchant environ 15 % de ses effectifs cœur. Plusieurs vétérans, dont Ronak Singhal et Rob Bruckner, ont également quitté le navire alors que le groupe recrute en externe pour rebâtir son leadership IA. Reste à voir l’impact concret de ce transfert sur les feuilles de route GPU et systèmes.
Carton plein pour AMD sur Amazon US en octobre : ses Ryzen X3D se vendent à un rythme que l’offre complète d’Intel n’atteint pas. Un signal fort du marché grand public PC.
Ryzen X3D en tête, Intel à la traîne
D’après les données de ventes d’octobre partagées par @TechEpiphanyYT, les Ryzen 9800X3D et 7800X3D cumulent environ 16 000 unités sur Amazon US. En face, l’ensemble du catalogue processeurs d’Intel ne dépasse pas les 10 000 unités. Résultat : AMD capte environ 83,80 % des CPU vendus, soit plus de huit processeurs sur dix. Les deux X3D s’écoulent chacun à près de 8 000 exemplaires, signe d’un appétit intact pour les puces gaming haut de gamme, malgré des tarifs premium.
AMD Ryzen 7 9800X3D
Le segment valeur n’est pas en reste : le Ryzen 5 5500, six cœurs, frôle les 5 000 ventes et décroche la troisième place, devant les Core i3 quatre cœurs les plus courants. Selon la synthèse, « la demande se polarise entre performance absolue et budget maîtrisé » : d’un côté, les adeptes des X3D pour le jeu, de l’autre, des acheteurs en quête de polyvalence abordable.
Prix moyens, repositionnements et dynamique produits
Intel enregistre un succès limité avec le Core Ultra 7 265K, proche des 1 000 unités après un passage sous les 300 dollars (environ 280 euros). Mais ce sursaut ne compense pas les difficultés de production évoquées sur les générations 12e, 13e et 14e, ni la hausse de prix des Raptor Lake de 13e génération, qui pénalise la compétitivité en retail.
Intel Core Ultra 7 265K
Côté panier moyen, AMD affiche 272,05 dollars quand Intel grimpe à 308,62 dollars, ce qui traduit une présence plus marquée d’AMD sur l’entrée et le milieu de gamme, tandis qu’Intel semble se vendre surtout sur des configurations plus onéreuses.
Enfin, la tarification joue aussi en faveur d’AMD : si certains anciens modèles ont augmenté, la série Ryzen 9000 demeure relativement stable. Cette constance, additionnée aux ventes solides des CPU économiques, maintient un prix moyen inférieur à celui d’Intel sur la plateforme. Reste à voir si cette dynamique se poursuivra lors des promos de fin d’année.
Et en France ?
Et en France ? Si les chiffres précis ne sont pas publics, la tendance semble similaire. Les processeurs Ryzen X3D dominent la majorité des classements de ventes sur Amazon France, LDLC et TopAchat, preuve que la performance ne connaît pas de frontière : les joueurs recherchent avant tout un rapport performance/prix optimal, et sur ce point, les Ryzen conservent une avance tangible sur leurs concurrents directs.
Valve déploie une mise à jour attendue pour le Steam Deck. La console portable peut désormais télécharger des jeux et des mises à jour même lorsque l’écran est éteint, un ajout simple mais bienvenu qui améliore l’autonomie et le confort d’utilisation.
Un mode pensé pour économiser la batterie
Après le lancement du modèle OLED, Valve continue d’affiner l’expérience Steam Deck avec des optimisations logicielles. Cette nouvelle fonction permet de terminer les téléchargements en mode basse consommation, sans que l’écran reste allumé. Le mode est activé par défaut lorsque la console est branchée au secteur, mais il peut aussi être utilisé sur batterie via le menu Paramètres → Alimentation.
Lorsqu’un téléchargement est en cours, un appui sur le bouton d’alimentation permet d’éteindre l’écran tout en maintenant la connexion réseau. La progression peut être affichée à tout moment, et si la batterie passe sous les 20 %, la console entre automatiquement en veille pour éviter toute décharge excessive.
Une évolution logique pour une console plus aboutie
Cette fonction rapproche un peu plus le Steam Deck du comportement des consoles de salon comme la Xbox ou la PlayStation, capables de télécharger en arrière-plan sans afficher d’image. L’objectif est clair : réduire la consommation énergétique tout en offrant une expérience fluide et sans interruption.
Sur le plan technique, ce mode repose vraisemblablement sur une mise en veille partielle du SoC AMD Aerith, qui coupe le GPU et le contrôleur d’affichage tout en conservant la connectivité Wi-Fi. Une gestion fine de la tension et du CPU permet ainsi de limiter la consommation tout en maintenant les téléchargements actifs.
En phase de test avant déploiement global
La fonctionnalité est actuellement disponible pour les utilisateurs des canaux Beta et Preview de SteamOS, avant une intégration prochaine à la version stable.
Ayant déjà testé plusieurs consoles portables, nous pouvons confirmer que la gestion de l’alimentation joue un rôle essentiel dans le confort d’usage au quotidien. Ce nouveau mode s’inscrit clairement dans la volonté de Valve de rendre son écosystème plus accessible, simple et économe.
Régulièrement, depuis la création de l'App Store en 2008, nous publions une petite sélection des applications gratuites sur iPhone et iPad accompagnée de promos.
Un cap vient d’être franchi dans le quantique : Quantinuum commercialise Helios, présenté comme l’ordinateur quantique généraliste le plus précis accessible aux entreprises, avec un socle technique pensé pour accélérer l’adoption réelle des usages hybrides.
Helios, un socle généraliste avec contrôle temps réel et langage Guppy
D’après Quantinuum, Helios combine la plus haute fidélité du marché et un moteur de contrôle en temps réel inédit, permettant de piloter le système quantique comme un composant d’un environnement hétérogène classique. Les développeurs peuvent coder une application unique mêlant calcul quantique et ressources CPU/GPU grâce à un nouveau langage moderne, Guppy, basé sur Python. L’enjeu est clair : rapprocher la programmation quantique des pratiques logicielles actuelles pour déployer des flux hybrides sans friction.
Helios est proposé via le cloud Quantinuum, mais aussi en déploiement sur site. À l’appui, la société avance des métriques de fidélité clés : 98 qubits physiques avec 99,921 % de fidélité sur les portes à 2 qubits, et 99,9975 % sur les portes à 1 qubit. Côté qubits logiques, trois points saillants : 94 LQ « error detected » globalement intriqués avec de meilleures performances que les qubits physiques ; 50 LQ « error detected » supérieurs au physique lors d’une simulation de magnétisme ; 48 LQ « error corrected » aussi au‑dessus des performances physiques avec 99,99 % de fidélité en préparation et mesure d’état. Selon l’entreprise, ces seuils ouvrent la voie à des calculs plus longs et plus fiables.
La firme met en avant un bénéfice direct pour l’IA générative : Helios pourrait enrichir les modèles GenAI avec des données d’origine quantique pour des cas d’usage en analyse de données, conception de matériaux ou chimie quantique. « Le prochain point d’inflexion du calcul commence aujourd’hui », affirme Rajeeb Hazra, président et CEO de Quantinuum, estimant que les entreprises peuvent désormais accéder à un système généraliste très précis pour générer un impact réel, de la découverte de médicaments à la finance.
NVIDIA au cœur du pipeline et un écosystème qui s’étoffe
Pour accélérer le GenQAI, Quantinuum étend son partenariat avec NVIDIA : Helios s’interface avec les accélérateurs via NVIDIA NVQLink afin de bâtir des applications ciblées. Autre point : la pile de calcul accéléré NVIDIA devient la référence pour Helios et ses successeurs, avec l’usage conjoint de Guppy et de la plateforme CUDA‑Q pour réaliser la correction d’erreurs en temps réel, une étape critique du plan de route.
La liste des utilisateurs et partenaires initiaux couvre plusieurs secteurs. Amgen investit et explore l’hybride quantique‑machine learning pour la découverte de biologiques. BlueQubit s’attaque à la reconnaissance d’images à partir de vidéos de conduite réelles. BMW Group vise des matériaux pour catalyseurs de pile à combustible. JPMorganChase évalue les capacités en analytique financière avancée. SoftBank Corp. explore des matériaux organiques pour batteries de nouvelle génération, commutateurs optiques et cellules solaires. Il faut dire que ces cas d’usage pressent le besoin de meilleurs algorithmes, mais aussi de briques matérielles stables.
Sur le plan institutionnel, Quantinuum signe un accord stratégique avec le National Quantum Office et le National Quantum Computing Hub de Singapour : accès local à Helios pour accélérer les applications commerciales en biologie computationnelle, bio‑informatique, modélisation financière et optimisation, matériaux avancés et chimie, ainsi que problèmes combinatoires. Pour soutenir ce partenariat, l’entreprise ouvrira un centre R&D et opérations de rang mondial à Singapour.
Enfin, deux programmes d’écosystème sont lancés : Q‑Net, un groupe utilisateurs dédié au retour d’expérience et à la collaboration, et un programme partenaires pour startups afin de bâtir et faire évoluer des applications tierces sur Helios. Reste à voir comment ces initiatives structureront des workflows vraiment reproductibles et portables entre cloud et on‑prem.
Helios vise une promesse simple mais ambitieuse : rapprocher l’informatique quantique du quotidien des équipes data et R&D avec une pile cohérente, des métriques de fidélité élevées et une intégration GPU déjà cablée. Les prochains mois diront si la combinaison Guppy + CUDA‑Q et la correction d’erreurs en temps réel suffisent à généraliser les premiers cas d’usage en production.
Des centaines d’applications Android malveillantes ont été téléchargées plus de 40 millions de fois sur Google Play entre juin 2024 et mai 2025, alerte ZScaler.
Mieux vaut tard que jamais : AORUS dévoile enfin sa carte très haut de gamme X870E AM5, rejoignant ainsi ASUS et sa Extreme, ainsi que MSI avec sa Godlike. GIGABYTE ambitionne clairement de s’imposer comme la nouvelle référence de l’écosystème AM5 avec une carte mère taillée pour une cible bien précise : les processeurs Ryzen X3D.
Présentée lors du GIGABYTE EVENT 2025, la X870E AORUS XTREME X3D AI TOP mise sur un overclocking assisté par IA, une prise en charge de la DDR5 dépassant les 9000 MT/s et une panoplie d’outils EZ-DIY destinés à simplifier l’assemblage.
Une plate-forme taillée pour Ryzen X3D, refroidie et connectée au cordeau
Après l’unboxing anticipé de Benchlife, la X870E AORUS XTREME X3D AI TOP s’impose d’emblée comme la vitrine du savoir-faire de GIGABYTE. La marque voit grand et ne fait aucune concession : la carte mère phare de la série X3D se dévoile dans un coffret monumental, accompagné d’accessoires aussi luxueux qu’inattendus, illustrant clairement son ambition de dominer le segment ultra-haut de gamme.
Au cœur du dispositif, le X3D Turbo Mode 2.0 : un modèle d’optimisation dynamique entraîné sur de grandes bases de données, capable d’ajuster fréquence, puissance et enveloppe thermique selon chaque puce. GIGABYTE promet, par rapport aux réglages par défaut, jusqu’à 25 % de mieux en jeu et 14 % en productivité multitâche. « X3D Turbo Mode 2.0 libère le vrai potentiel des Ryzen X3D », assure le constructeur.
Côté compatibilité, la X870E AORUS XTREME X3D AI TOP accepte les AMD Ryzen 9000, 8000 et 7000. Elle s’appuie sur une alimentation 24+2+2 (SPS 110A) pensée pour piloter sans broncher un Ryzen 9 9950X3D. Le discours est clair : viser l’intégralité des performances, sans goulot d’étranglement côté VRM.
Le refroidissement bénéficie d’un traitement de flagship, avec la matrice thermique CPU Thermal Matrix destinée à mieux répartir la chaleur et à faire chuter les températures dans les zones DDR et VRM.
Le ventilateur DDR Wind Blade XTREME adopte un flux d’air redessiné, tandis que le M.2 Thermal Guard XTREME associe ailettes et ventilateur de 5 mm pour les SSD haut débit. À cela s’ajoutent de larges radiateurs Fins Array, des caloducs 8+6 mm en duo et une plaque inférieure large pour préserver la stabilité lors des charges soutenues.
La mémoire n’est pas oubliée : le module D5 Bionic Corsa, propulsé par l’IA, vise un overclocking DDR5 à 9000+ MT/s en un clic, sans les tâtonnements habituels. Rien d’étonnant, la marque pousse encore son approche logicielle pour encadrer le hardware.
Ecran 5″ LCD Edge View
Comme le veut la loi du très haut de gamme, GIGABYTE aligne sa carte sur le niveau d’excellence fixé par ses rivales directes que nous avons déjà testées : l’ASUS ROG Crosshair X870E Extreme et la MSI MEG X870E GODLIKE.
Contrairement à une simple plaque décorative, il s’agit d’un véritable écran couleur capable de fournir des informations de monitoring ou des animations personnalisables selon les préférences de l’utilisateur. GIGABYTE mise ainsi sur une approche similaire à celle d’ASUS et de MSI, qui ont chacun intégré un affichage intelligent sur leurs modèles phares, renforçant cette impression de carte pensée autant pour la performance que pour la mise en scène.
EZ-DIY, DriverBIOS et PCIe 5.0 partout
Le chapitre ergonomie met en avant DriverBIOS, une nouveauté qui intègre le pilote Wi‑Fi directement dans l’UEFI pour une connexion sans fil immédiate, dès le premier démarrage. La capacité du BIOS passe à 64 MB, soit le double, de quoi accueillir des firmwares plus complexes et préparer des mises à jour futures.
Le montage est alsoigné par une série d’accessoires et mécanismes sans outil : M.2 EZ‑Match, M.2 EZ‑Flex, PCIe EZ‑Latch Plus Duo, WI‑FI EZ‑Plug, M.2 EZ‑Latch Click, M.2 EZ‑Latch Plus, ainsi qu’une EZ‑Debug Zone. Objectif affiché : réduire les manipulations délicates et accélérer l’assemblage, du SSD à la carte graphique.
Sur la connectique, la carte aligne des slots PCIe Gen 5 x16 en pleine largeur pour les GPU de dernière génération, ainsi que des ports M.2 Gen 5 sur plusieurs formats. La partie réseau comprend un double 10G LAN et du Wi‑Fi 7 (320 MHz), épaulés par une antenne directionnelle à gain élevé avec éclairage ARGB. De quoi couvrir les cas d’usage intensifs, en filaire comme en sans fil.
Enfin, GIGABYTE évoque un packaging retravaillé et un unboxing truffé de petites surprises. Il faut dire que la marque joue ici la carte du vaisseau amiral, avec une finition et des accessoires à la hauteur du positionnement.
À un tarif à la hauteur de ses ambitions
Le prix n’a pas encore été communiqué, mais il faudra sans doute s’attendre à un ticket d’entrée supérieur à 1000 euros, à l’image de ses concurrentes directes. La X870E AORUS XTREME X3D AI TOP s’inscrit clairement dans la catégorie des produits d’exception. Un positionnement justifié par un arsenal technique extrême, mêlant conception soignée, innovations exclusives et fonctionnalités pensées pour exploiter pleinement le potentiel des processeurs Ryzen X3D.
Conclusion
Sur le papier, la X870E AORUS XTREME X3D AI TOP coche toutes les cases d’une plate-forme premium AM5 orientée jeux et création, avec un net accent sur l’IA pour optimiser, configurer et simplifier. Reste à voir comment se comportera X3D Turbo Mode 2.0 sur une large variété d’échantillons, notamment avec les Ryzen 9000 X3D, et si le refroidissement M.2 actif se montre discret au quotidien.
Vous souhaitez que vos données et votre identité restent confidentielles lorsque vous faites des recherches sur Internet ? Quoi de mieux que d'opter pour un VPN ! En ce moment, l'un des meilleurs fournisseurs vous fait justement profiter d'une belle offre sur son abonnement 2 ans.
Samsung franchit un nouveau cap avec sa première LPDDR6 annoncée à 10,7 Gbit/s, gravée selon un procédé 12 nm. Cette génération marque la concrétisation du standard LPDDR6 publié par la JEDEC en juillet 2025, et inaugure une approche plus fine de la gestion énergétique et de la sécurité au sein du sous-système mémoire.
Un bond de 21 % en efficacité énergétique
Selon Samsung, cette première LPDDR6 offre une efficacité énergétique améliorée de 21 % par rapport à la LPDDR5X tout en maintenant les mêmes vitesses. Le constructeur évoque un ajustement en temps réel de la tension et du trafic mémoire selon la charge, permettant d’économiser de l’énergie sans sacrifier les débits. L’objectif est clair : répondre aux besoins croissants des SoC IA mobiles tout en prolongeant l’autonomie des appareils.
10,7 Gbit/s dès la première vague LPDDR6
Ce débit de 10,7 Gbit/s correspond à la vitesse de lancement de la LPDDR6 selon la feuille de route JEDEC, avec un plafond théorique fixé à 14 Gbit/s pour les versions ultérieures.
Samsung rappelle d’ailleurs que sa LPDDR5X optimisée atteignait déjà ce niveau, servant de base à cette transition vers la nouvelle génération. En pratique, la LPDDR6 inaugure une refonte des canaux d’E/S (I/O) et un contrôle dynamique des signaux, permettant une meilleure stabilité sur les plateformes hautes performances.
Sécurité intégrée et fiabilité accrue attendus au CES
Samsung a renforcé la protection des données directement au sein du contrôleur mémoire, avec une surveillance active des accès et une correction d’erreurs intégrée (ECC). Ces fonctions étaient déjà présentes dans la norme JEDEC (JESD209-6), mais le constructeur en livre ici la première implémentation commerciale, à destination des futurs smartphones haut de gamme et appareils IA embarqués.
La firme coréenne prévoit de présenter cette mémoire au CES 2026, avec les premiers prototypes de smartphones et d’ordinateurs portables équipés. Les détails techniques complets devraient être communiqués à cette occasion.
Une étape décisive pour la LPDDR6
Avec cette première production gravée en 12 nm, Samsung ouvre la voie à la démocratisation de la LPDDR6, qui deviendra le standard des plateformes mobiles de 2026 et 2027. Cette mémoire accompagnera la montée en puissance des puces Snapdragon, Exynos et Dimensity de nouvelle génération, conçues pour l’intelligence artificielle et le traitement local des données.
Gros coup de froid sur les RTX 50 SUPER. Selon Uniko’s Hardware, NVIDIA aurait mis un terme au projet, faute de puces GDDR7 de 3 Go disponibles pour le grand public. Ces puces, pierre angulaire de cette supposée série, auraient tout changé.
Officiellement, ni la sortie ni l’annulation n’ont jamais été évoquées par NVIDIA. Et si tout cela n’était qu’une rumeur née, puis éteinte, par les leakers eux-mêmes ?…
Pénurie de GDDR7 menacant les RTX 50 SUPER
D’après le post d’Uniko’s sur X, les puces GDDR7 de 3 Go ne devraient pas arriver sur le desktop, ce qui impacterait directement les supposées RTX 5080 SUPER, RTX 5070 Ti SUPER et RTX 5070 SUPER. Il faut dire que cette mémoire était au cœur de la stratégie évoquée auparavant : passer de modules de 2 Go à 3 Go GDDR7pour gonfler les capacités. Les fuites parlaient ainsi de 24 Go sur les RTX 5080 SUPER et RTX 5070 Ti SUPER, et de 18 Go sur la RTX 5070 SUPER, toujours basées sur les GPU GB203 et GB205 de la série standard.
Uniko’s avance désormais que la GDDR7 de 3 Go serait réservée à d’autres produits, notamment les RTX 5090 Laptopet laRTX PRO 6000 Blackwell. Dans le même temps, « la GDDR7 de 2 Go devient plus chère », affirme la source, ce qui pourrait tendre les prix des actuelles RTX 50 desktop qui l’emploient déjà.
Calendrier, concurrence et possibles effets de bord
Les informations précédentes situaient la fenêtre de lancement entre fin T1 et début T2 2026, avec la hausse de VRAM comme argument principal. Aujourd’hui, si la 3 Go manque et que la 2 Go grimpe, la note pourrait s’alourdir côté desktop, au moment même où les cartes de la classe RTX 5070 et RX 9070 deviennent graduellement plus abordables.
Rien d’étonnant à ce que NVIDIA prenne son temps : la marque fait face à une concurrence contenue et ses modèles actuels tiennent déjà la corde face à AMD et Intel.
La fin des rumeurs ?
Le feuilleton des RTX 50 SUPER continue, et NVIDIA garde le silence. Ce ne sera sans doute pas la dernière rumeur avant que la marque ne décide enfin de dire le vrai du faux. À bientôt pour le prochain épisode.
Depuis l’iPhone 14 Pro, il est difficile de différencier les nouveaux modèles lorsqu’ils sont de face. Cela ne devrait plus être le cas avec l’iPhone 18 Pro.