Tesla a confirmé l’arrivée d’un troisième prototype de son robot humanoïde Optimus, avec un objectif industriel clair: une mise en production à grande échelle dès 2026 et une cadence annoncée à un million d’unités par an. Le constructeur promet un design repensé « depuis les premiers principes » et la capacité d’apprendre de nouveaux gestes en observant des opérateurs humains.
Feuille de route et industrialisation
Le compte officiel @TeslaAI précise que cette troisième génération sera la première à viser la production série. Une ligne pilote tourne déjà à Fremont pour les itérations actuelles d’Optimus, tandis que la ligne dédiée à la Gen3 doit entrer en service en 2026.
Tesla vise un coût unitaire inférieur à 20 000 $ (environ 18 400 € au taux indicatif du jour), un seuil agressif pour un humanoïde polyvalent. La promesse combine montée en volume, intégration verticale et réutilisation d’éléments issus de l’écosystème auto, du contrôle moteur à l’électronique de puissance.
Apprentissage par observation et positionnement
Le volet logiciel met l’accent sur l’apprentissage par démonstration: Optimus doit capter les gestes et séquences d’un opérateur, puis les reproduire et les généraliser. Ce choix réduit la dépendance au codage manuel de procédures et s’aligne avec les travaux récents en vision et contrôle robotique.
La fenêtre 2026 place Tesla face aux autres programmes humanoïdes en cours de pré-série. Le différenciateur avancé reste l’ambition de volume et de coût. Si les objectifs de cadence et de fiabilité sont tenus, le point d’inflexion pourrait venir de cas d’usage répétitifs en intralogistique et manipulation légère, avant d’aborder des tâches mixtes plus exigeantes.
Une GeForce RTX 5070 Ti endommagée, PCB percé, vient de décrocher la première place mondiale sur Unigine Superposition 8K. Une prouesse obtenue après une réparation en direct et un tuning électrique agressif.
RTX 5070 Ti : record 8K sur une carte « zombie »
En octobre, l’équipe de Paulo Gomes a ressuscité une RTX 5070 Ti « morte » en l’appareillant à un PCB d’ASUS GeForce RTX 2080 Ti. La carte sortait initialement de la vidéo en basses résolutions avec une chute de ~400 mV en charge et un lien limité à PCIe 4.0 x4, pour des performances proches d’une RTX 3070.
Durant un live d’environ sept heures avec Enzo Túlio (chaîne 1155 do ET), les moddeurs ont corrigé le signal d’affichage pour rétablir le 1080p, éliminé un conflit de pilotes causant des écrans noirs et renforcé NVVDD, MSVDD et GND en soudant des fils additionnels. Objectif : réduire la résistance de conduction et la perte de tension entre le PCB greffé et le GPU.
Le setup a évolué en cours de stream, passant d’un Core i5 13e gen en PCIe 4.0 x4 à un Ryzen 5 3600 en PCIe 3.0 x16, doublant la bande passante effective de 8 à 16 Go/s selon l’équipe. La stabilité gagnant du terrain, ils ont enchaîné tests en jeu puis itérations de bench.
Réglages électriques, thermiques et montée en fréquence
Les essais ont montré des pics thermiques rapides, de 50 °C à 80 °C en environ une seconde, et un fil 12 V flirtant avec les 100 °C. La télémétrie de puissance de la carte étant hors service, la consommation a été suivie via un logiciel externe.
Le score Superposition 8K a progressé palier par palier : 8400, 9000, 9600, 9800, 10600, 10900, pour culminer à 11106, puis un run final annoncé à 11 150 points. La carte a pris la tête du classement Superposition et d’HWBOT, malgré une courte bataille avec un spectateur qui a brièvement posté un score supérieur.
Fréquences et marges mémoire
Le récapitulatif final mentionne un GPU à ~3,23 GHz, une GDDR à 34 Gbps « sans effort », avec une marge estimée à 36 Gbps si la mise à l’échelle l’avait permis. La chute de tension a été ramenée d’environ 400 mV à ~30 mV grâce aux renforts d’alimentation et de masse.
Unigine Superposition n’est plus le benchmark de référence pour tous, mais il reste un outil solide pour traquer les gains bruts sur ce type de montage. Voir une 5070 Ti partiellement transplantée dominer ce tableau valide surtout l’efficacité des ponts d’alimentation et le bénéfice du passage à un lien x16 sur une carte amputée de ses capteurs.
Ce matin, je discutais avec Emmanuel (un lecteur fidèle) sur mon
Linkedin Korben
et il m'a partagé une ressource vraiment chouette. Si comme moi vous jouez un peu parfois avec un serveur Proxmox qui tourne à la maison pour vos expérimentations ou votre domotique, vous savez que configurer chaque VM ou conteneur LXC peut vite devenir chronophage. On copie-colle des commandes, on installe des dépendances, on se plante, on recommence... La routine quoi sauf que cette routine peut vite devenir reloue.
Hé bien, fini la galère !!!! Le projet dont je veux vous parler aujourd'hui s'appelle Proxmox VE Helper-Scripts et c'est une collection communautaire de scripts (plusieurs centaines !) qui permet d'installer et de configurer tout un tas de services en une seule ligne de commande.
En gros, c'est une immense boîte à outils pour votre hyperviseur. Vous avez besoin d'une instance Home Assistant pour gérer des ampoules connectées ? Hop, vous lancez le script et ça vous crée le conteneur LXC tout propre. Vous voulez monter un serveur média avec Plex ou Jellyfin ? Pareil, c'est généralement plié en quelques minutes (selon votre connexion évidemment).
Vous allez sur le site, vous cherchez l'outil qui vous intéresse, vous copiez la commande bash fournie (du style bash -c "...") et vous la collez dans le shell de votre nœud Proxmox. Et hop, l'assistant se lance. Il vous pose quelques questions (IP statique ou DHCP, espace disque, RAM... ce genre de trucs classiques) et puis tente de s'occuper de tout le reste (si les planètes sont bien alignées et que votre karma est au top !).
Je trouve ça génial parce que non seulement ça gère l'installation, mais ça s'occupe aussi des mises à jour. Mais bon, attention quand même parce qu'une mise à jour upstream peut parfois casser le script, donc prudence. C'est d'ailleurs super utile si vous utilisez
Proxmox sur un Raspberry Pi
(via Pimox), même si l'architecture ARM peut poser souci avec certains scripts.
Parmi les scripts disponibles, on retrouve les classiques Docker, AdGuard Home, Pi-hole, mais aussi des trucs plus pointus pour le monitoring ou la sécurité. C'est vraiment très complet, y compris si vous êtes dans une optique de
création de lab de cybersécurité
.
Après, je dois quand même vous faire une petite mise en garde de circonstance. Car comme d'habitude, exécuter des scripts bash trouvés sur le net direct en root... comment dire... c'est jamais sans risque. Le code est open source et maintenu par une communauté active, ça facilite l'audit, mais ce n'est pas une garantie de sécurité absolue. Sauf si vous aimez vivre dangereusement, jetez toujours un œil au code avant de valider. La confiance n'exclut pas le contrôle !!
Si vous faites du "vibe coding" avec Claude ou Codex, vous savez que laisser un agent IA faire sa life, c'est un peu risqué. Si celui-ci se met à exécuter des rm -rf sur votre ordi de boulot, vous êtes dans la merde !
Heureusement, Kevin Lynagh a sorti
Vibe
et pour vous résumer le délire, c'est une VM Linux ultra-légère capable de sandboxer vos agents IA.
Ce qu'il vous faut
Un Mac ARM (M1, M2, M3...)
macOS 13 Ventura minimum
Temps estimé : 5 minutes
Installation
Hop, on commence par installer Vibe. Plusieurs options s'offrent à vous :
Et là, c'est prêt. C'est du Rust pur compilé avec le framework Virtualization.framework d'Apple, donc ça va viiiiite !
Et ce que vous pouvez voir au lancement de Vibe, c'est le mapping entre vos dossiers locaux liés à Claude, Codex et compagnie, et les dossiers qui sont dans la VM.
Premier lancement
Pour démarrer une VM, c'est aussi simple que ça :
./vibe
Oui, c'est tout. 10 secondes plus tard, vous avez un shell Linux avec un accès réseau et un partage automatique de vos dossiers. Notez jute que la première fois il faut une connexion réseau pour télécharger l'image de base de Debian. Après, tout est en local.
Le truc cool, c'est que Vibe utilise un système copy-on-write où chaque VM part d'une image de base commune et seules les modifications sont stockées. Comme ça même si vous lancez 10 VMs, ça bouffe pas votre SSD.
Bon ok, j'en ai lancé que 2 en vrai mais l'idée est là ^^
Configurer Claude ou Codex
Ensuite c'est simple, il suffit de lancer la commande Claude ou Codex directement dans le terminal que ça vous a créé, de les configurer comme si vous étiez sur votre ordinateur et puis c'est parti, vous pouvez les lancer avec le mode --yolo pour Codex ou avec --allow-dangerously-skip-permissions pour Claude.
Et c'est tout ! Si ça fait de la merde, ce sera dans la VM et vous ne risquerez rien ! Les fichiers sont bien sûr créés et dispo dans le répertoire dans lequel vous avez lancé vibe. Mais tout sera exécuté dans la VM donc y'a plus aucun risque.
Bref, si vous faites du vibe coding et que vous voulez pas finir avec un sudo rm -rf / généré par une IA un peu trop enthousiaste... bah voilà quoi. Le tout en moins de 1200 lignes de Rust, open source sous licence MIT.
Vous utilisez WSL sous Windows mais vous en avez marre de devoir jongler avec les commandes PowerShell dès qu'il s'agit de gérer vos distributions ?
C'est vrai que taper du wsl --import ou du wsl --unregister à chaque fois qu'on veut tester une nouvelle instance, ça finit par être un peu lourd.
Heureusement, y’a un dev, Eric Trenkel (alias bostrot), qui a eu la bonne idée de sortir WSL Manager (qu'on connaissait aussi sous le nom de WSL2 Distro Manager), une interface graphique complète pour piloter tout ça sans se faire mal au terminal.
Cette application, développée avec Flutter offre une vue d'ensemble sur toutes vos instances WSL installées. Ainsi, en un clic, vous pouvez les démarrer, les arrêter, les renommer ou même changer leur version.
Mais là où l'outil excelle, c'est dans sa capacité à importer de nouveaux environnements. Pour ceux qui se demandent comment ça se passe pour récupérer des distributions exotiques, sachez que WSL Manager permet de télécharger et d'utiliser n'importe quelle image Docker comme base pour une instance WSL, et ce, sans même avoir besoin d'installer Docker Desktop sur votre machine.
Par exemple si vous voulez un Alpine minimaliste pour du test ou un Kali pour du pentest, vous l'importez direct depuis les registres Docker et hop, vous avez un nouveau système prêt à l'emploi.
C'est d'ailleurs un excellent complément à des outils comme
DockStation
si vous voulez garder une approche visuelle de vos conteneurs, ou même
WinBoat
pour faire tourner du Windows dans Docker. L'application propose aussi des "Quick Actions", qui sont en gros des petits scripts prédéfinis que vous pouvez exécuter directement sur vos instances pour automatiser les tâches répétitives. Vous pouvez également lancer directement
Windows Terminal
ou VS Code dans la distribution de votre choix en un seul clic.
Si ça vous branche, plusieurs options s'offrent à vous pour l'installer. Comme le projet est open source sous licence GPL-3.0, vous pouvez récupérer les exécutables gratuitement sur la page GitHub du projet.
Il existe aussi une version sur le Microsoft Store
et notez aussi que bien que des paquets winget ou Chocolatey existent, ils sont souvent maintenus par la communauté et pas forcément à jour, donc privilégiez le téléchargement direct ou le Store pour être tranquille.
Voilà, si vous passez vos journées sous Linux tout en restant dans l'écosystème Microsoft, WSL Manager c'est le feu et ça permet de se concentrer sur son boulot plutôt que sur la syntaxe des commandes de gestion système.
Logiciel gratuit et en français permettant d'afficher en transparence sur votre Bureau d'ordinateur un véritable calendrier et de le synchroniser avec vos autres appareils...
Vous devez tester un service en ligne et là, PAF 🥲 formulaire d'inscription 🥲 Ouiiiin !!!
Et bien sûr, même si vous pouvez remplir tous les champs avec un tas de conneries, forcement à un moment, ça vous demande votre email. Et là, impossible d'y échapper... Heureusement pour éviter ça, il existe des services d'emails jetables et je vous propose qu'ensemble qu'on fasse un petit point dessus parce que ça a beaucoup bougé ces dernières années..
Yopmail
, c'est un peu le vétéran du domaine. J'suis certain que vous le connaissez par cœur car ce site tourne quand même depuis 2004 (22 ans au compteur ! Comme mon site en fait !) et le principe c'est que vous choisissez un nom au pif, genre "monpseudo@yopmail.com", et hop, vous avez une boîte mail temporaire. Pas d'inscription, pas de mot de passe, rien. Les messages restent 8 jours puis disparaissent et le truc cool c'est qu'ils ajoutent un nouveau domaine tous les jours pour éviter les blacklists, du coup y'a moins de chances que votre adresse jetable soit refusée.
Sauf que Yopmail a une limitation importante... En effet, n'importe qui peut accéder à votre boîte si il en devine le nom. J'ai testé avec "test123@yopmail.com" et effectivement, on tombe sur les mails de dizaines d'autres personnes qui ont eu la même idée... pas ouf pour du confidentiel. Et pour envoyer des mails, c'est uniquement entre adresses Yopmail, donc oubliez si vous devez répondre à un mail de confirmation.
Pour ceux qui veulent du "privacy first" radical, y'a aussi
MephistoMail
qui ne garde aucun log. Attention par contre, l'inbox peut disparaître à tout moment sans prévenir. J'ai failli me faire avoir la première fois, j'ai fermé l'onglet avant de récupérer mon lien de confirmation et pouf, game over. Pensez donc à copier ce dont vous avez besoin AVANT de fermer.
Dans la catégorie "je veux juste une inbox vite fait", j'ai aussi croisé pas mal de services qui font le job pour récupérer un lien de confirmation ou un code OTP en 10 secondes chrono.
TrashMail.de
par exemple, c'est du mail jetable basique mais efficace.
Byom.de
est marrant également parce que c'est un peu en mode "catch-all" où vous inventez n'importe quelle adresse, vous la balancez au site qui vous demande un email, puis seulement ensuite vous allez lire ce qui est arrivé. Et si vous trouvez que le "10 minutes mail" c'est trop court,
Muellmail.com
joue justement la carte "10 min, c'est pas assez" sans vous prendre la tête.
Ah, et pour les devs / QA qui aiment automatiser des tests de signup (oui, je vous vois 😄), y'a aussi
mail.tm
qui propose des boîtes temporaires avec mot de passe, plus une API, et des services comme
Temp-Mail
qui ont carrément une API officielle pour tester des workflows email en boucle. Pratique quand vous devez valider "inscription -> email -> clic -> compte OK" sans y passer votre vie.
Et puis y'a une autre catégorie qui m'intéresse de plus en plus : les gestionnaires d'alias. J'ai d'abord hésité entre SimpleLogin et addy.io, mais j'ai fini par choisir
Addy.io
(anciennement AnonAddy) parce que c'est open source sous licence AGPL-3.0 et que vous pouvez l'héberger vous-même si vous êtes parano. Le principe c'est qu'au lieu d'avoir un mail jetable, vous créez des alias illimités qui redirigent vers votre vraie boîte. Si un alias se fait spammer, vous le désactivez en un clic sans toucher au reste. Y'a une version gratuite et des abonnements entre 1 et 3$/mois (Lite à 1$/mois, Pro à 3$/mois). Par contre attention, si vous self-hostez, faut quand même gérer un serveur mail et ça c'est pas une mince affaire...
Et du coup, si vous voulez le même délire qu'addy.io mais avec une autre approche,
SimpleLogin
est une très bonne option aussi puisque c'est open source, auto-hébergeable, et le gros plus c'est que vous pouvez répondre / envoyer depuis vos alias (Et ça c'est trop bien quand faut valider un truc ou parler à un support sans exposer votre vraie adresse). Bref, c'est le genre d'outil qui passe mieux que les domaines jetables quand un site commence à sortir la sulfateuse anti-temp-mail.
Et si vous êtes déjà chez un fournisseur mail orienté privacy, y'a des alternatives "pas jetables mais ultra pratiques". Je pense à
Tuta
par exemple permet d'avoir des alias (et même du catch-all sur domaine perso selon les offres).
Migadu
aussi est très cool dans le genre "j'ai mon domaine, je veux créer plein d'adresses/alias sans payer par boîte", et ils annoncent être une boite suisse avec des datacenters en France. C'est pas du "mail jetable", mais pour garder le contrôle sur le long terme, c'est une approche qui se défend.
Et pour les plus motivés (ou les plus masochistes 😅), y'a la voie du "je self-host tout" avec des stacks comme
mailcow
,
Mailu
ou
docker-mailserver
. Mais je vous le dis cash patate, monter son propre serveur mail, c'est la porte ouverte aux joies de SPF/DKIM/DMARC, de la réputation d'IP, des mails qui finissent en spam "parce que lol", et des heures à se demander pourquoi Outlook vous boude. Donc oui c'est souverain de votre village de ploucs, oui c'est stylé, oui c'est gratuit si votre temps vaut tripette, mais c'est pas un petit dimanche tranquille.
Côté souveraineté européenne, tout ce que je viens de vous présenter peut aider à limiter l'exposition aux joies du Cloud Act... mais attention, faut regarder au cas par cas où c'est hébergé et qui opère le service. Dans tous les cas, gardez en tête que certains sites comme Amazon ou PayPal bloquent carrément les domaines de mails jetables connus. Dans ce cas, les alias (surtout si vous avez votre propre domaine) passent généralement mieux parce que ça ressemble à une adresse "normale" qui redirige vers votre vraie boîte.
Bref, pour le quotidien Yopmail fera bien le taf (le gars sûr !), mais si vous voulez envoyer des mails, éviter les blacklistages (c'est comme ça qu'on dit ??), ou garder le contrôle sur vos alias à long terme, regardez du côté de TempMail, SimpleLogin ou addy.io.
Et si vous aimez bricoler et souffrir, vous savez ce qu'il vous reste à faire... 😈
Merci à vous de suivre le flux Rss de www.sospc.name.
Si vous aimez utiliser les programmes de la Fondation Mozilla cet utilitaire est pour vous.
MozBackup permet de créer des sauvegardes des profils de :
Mozilla Firefox,
Mozilla Thunderbird,
Mozilla Sunbird,
Flock,
SeaMonkey,
Mozilla Suite,
Spicebird,
Songbird
et Netscape.
Vous pourrez ainsi sauvegarder et si besoin restaurer les signets, le courrier, les contacts, l'historique, les extensions, les mots de passe, le cache, etc.
Pour la petite histoire ce programme est né en 2003 et a été développé jusqu'en 2012.
Le 6 avril 2025 l'aventure a redémarré avec l'opus 1.5.1, vous avez pu télécharger le 8 mai la version alpha 1.6.
Et enfin la version 1.6.1 bêta portable le 7 juin dernier.
Bonne nouvelle la version 1.6.2 bêta est disponible !
Je vous ai préparé une archive avec la traduction française incluse. 😉
Entre l’émergence des IA génératives depuis 2022, la fragmentation des parcours des clients et l’évolution constante des algorithmes, les entreprises n’ont pas d’autre choix que de repenser complètement leur stratégie d’acquisition pour 2026. C’est justement dans ce contexte que l’agence CyberCité publie son neuvième numéro du magazine « More Traffic, More Business« . Intitulée « Du clic à […]
Quatre 9600X ont lâché en deux semaines sur des plateformes ASRock. Les symptômes sont identiques et les BIOS récents ne semblent pas y changer grand-chose.
ASRock Ryzen 5 9600X : séries de pannes et mêmes symptômes
Sur Reddit, quatre utilisateurs rapportent des Ryzen 5 9600X devenus inopérants sur cartes mères ASRock. Les systèmes postaient puis ont cessé de booter sans alerte, avec LED DRAM ou CPU figées et aucune amélioration après clear CMOS, permut’ de RAM ou d’alim.
Un cas est passé en RMA CPU après l’arrêt total du boot. Un autre mentionne deux 9600X morts consécutivement sur la même plateforme, le second avec BIOS v3.50.
Données communautaires : répartition par CPU et BIOS
Le megathread Reddit “CPU failures/deaths” de décembre place le Ryzen 5 9600X en troisième position : 183 rapports pour le Ryzen 7 9800X3D, 50 pour le Ryzen 7 9700X, 29 pour le Ryzen 5 9600X, puis 22 pour le Ryzen 9 9950X3D. Ces totaux n’intègrent pas les quatre signalements de janvier agrégés par Wccftech.
La répartition par BIOS au moment de la panne ne pointe pas un seul coupable : versions antérieures à 3.25/3.26 (103 cas, 30,6 %), 3.25/3.26 (75, 22,3 %), 3.30 (74, 22,0 %), 3.40 (48, 14,2 %), 3.50 (37, 11,0 %). Le dernier firmware n’élimine donc pas le risque.
Ces rapports restent déclaratifs et partiels, mais la tendance rejoint les incidents déjà observés autour des Ryzen 7 9800X3D sur cartes ASRock. Le constructeur publie de nouveaux BIOS et même des cartes AMD 800, sans prise de position publique spécifique sur ces cas.
Pour les utilisateurs AM5 concernés, la prudence impose un suivi étroit des versions BIOS, la désactivation de tout profil agressif côté mémoire/SoC, et une documentation précise des conditions de panne pour d’éventuels RMA. La visibilité croissante de ces incidents pourrait accélérer une réponse formelle d’ASRock ou un guidage AMD si une cause commune est confirmée.
Le marché des cartes graphiques traverse en 2026 une période de turbulences sans précédent. Entre la pénurie mondiale de mémoire GDDR provoquée par la demande explosive de l’IA, les hausses de prix annoncées par AMD (dès janvier) et NVIDIA (février), et la réduction drastique de production sur certains modèles RTX 50, choisir sa carte graphique n’a jamais été aussi stratégique.
L’arrivée de la série RTX 5000 de NVIDIA avec l’architecture Blackwell et de la gamme Radeon RX 9000 d’AMD basée sur RDNA 4 redéfinit la hiérarchie des performances. La RTX 5090 s’impose comme la nouvelle référence absolue avec 25% de performances supplémentaires face à la RTX 4090, tandis que la mémoire GDDR7 devient le nouveau standard sur le haut de gamme avec une bande passante 60% supérieure à la génération précédente.
Ce classement comparatif regroupe plus de 100 cartes graphiques NVIDIA GeForce, AMD Radeon et Intel Arc testées selon plusieurs critères : performances gaming (1080p, 1440p, 4K), ray tracing, intelligence artificielle (Stable Diffusion, LLM), rendu 3D (Blender, V-Ray) et efficacité énergétique. Que vous cherchiez une carte pour le gaming, la création de contenu ou l’IA, ce guide vous aidera à faire le bon choix dans un marché en pleine mutation.
Les nouvelles technologies de 2026 transforment l’expérience gaming et création :
DLSS 4.5, évolution de la DLSS4, apporte un modèle transformer de 2e génération et le Dynamic Multi Frame Generation jusqu’à 6x.
G-SYNC Pulsarrévolutionne l’affichage avec une clarté de mouvement perçue de plus de 1000 Hz, éliminant quasiment le motion blur.
FSR 4 Redstone d’AMD rattrape son retard sur l’upscaling avec des résultats enfin comparables au DLSS.
XeSS 3 d’Intel améliore significativement la qualité d’upscaling sur les cartes Arc Battlemage.
Multi-Frame Generation généralisé sur les trois constructeurs, démocratisant la fluidité extrême même sur configurations modestes.
Contexte marché 2026 : Les experts recommandent d’acheter rapidement si vous avez un besoin immédiat. Les prix devraient continuer d’augmenter jusqu’en 2027-2028 en raison de la pénurie de composants, avec des hausses pouvant atteindre 30% sur certains segments. La disponibilité des modèles milieu de gamme RTX 5070 Ti et 5060 Ti est particulièrement préoccupante.
Mise à jour importantes
Récapitulatif détaillé des mises à jour (cliquez pour afficher l’historique complet)
Mise à jour Juin 2025
Cette nouvelle version de notre comparatif intègre plusieurs évolutions majeures. Deux cartes graphiques récemment lancées, la GeForce RTX 5060 8 Go et la Radeon RX 9060 XT 16 Go, font désormais partie du classement. Nous avons également ajouté une section dédiée aux performances en Ray Tracing, absente de la version précédente, afin de mieux refléter les usages actuels dans les jeux récents. Enfin, les résultats liés à l’intelligence artificielle et à l’efficacité énergétique ont été entièrement révisés pour tenir compte des dernières données disponibles. De quoi offrir une vision plus complète et plus actuelle du paysage GPU en 2025.
Mise à jour Avril 2025
Les tests de la RTX 5060 Ti 16 Go ont été publiés le 16 avril 2025, suite à la levée de l’embargo. Désormais intégrée à notre comparatif, cette carte graphique se classe à la 31e position parmi l’ensemble des modèles disponibles sur le marché. Elle rivalise avec la RX 7700 XT d’AMD en rendu raster, tout en bénéficiant d’un net avantage grâce au DLSS 4 et à de meilleures performances en ray tracing.
Mise à jour Mars 2025
Le 5 mars 2025, AMD dévoile ses nouvelles cartes graphiques RX 9070 et 9070 XT. Ces deux modèles, issus de la gamme RX 9000 d’AMD, se distinguent par leur prix abordable et leurs performances prometteuses. Découvrez dès maintenant leur positionnement face à la concurrence dans le classement mis à jour.
Le 4 mars 2025, la GeForce RTX 5070 rejoint notre classement. Elle clôture la première vague des RTX 50 avec de la mémoire GDDR7, un cache L2 optimisé et des cœurs RT et Tensor conçus pour le DLSS 4. Vendue 649 €, elle promet des gains en 1440p et ray tracing, mais son rapport performances/prix reste discutable. Découvrez en détail ses performances dans notre test.
Mise à jour Février 2025
En février 2025, la seule nouveauté du segment semble être la GeForce RTX 5070 Ti 16G, lancée le 19/02/2025 dans sa version MSRP, suivie le 20/02/2025 par des modèles custom, dont la MSI GAMING TRIO OC PLUS que nous venons de tester. La RTX 5070 Ti 16G se situe à proximité trés proche de la RTX 4080 et la 7900 XTX !
Mise à jour : Janvier 2025
Les dernières évolutions incluent :
GeForce RTX 5080 : Lancée le 29/01/2025, elle se classe en troisième position avec seulement 10 % de performances en plus par rapport à la RTX 4080 Super en moyenne.
GeForce RTX 5090 : Nouvellement classée n°1, avec une avance notable de 25 % en 4K par rapport à la RTX 4090.
Intel ARC B580 et B570 : Premiers modèles de la série Battelmage, affichant des performances prometteuses dans le milieu de gamme.
Ces ajouts viennent enrichir notre guide pour refléter les dernières tendances et innovations du marché.
Mise à jour : Janvier 2024
Nous avons enrichi notre Classement des Cartes Graphiques 2025 avec l’ajout de deux modèles phares de de la série RTX 40 SUPER : la GeForce RTX 4080 SUPER 16 Go et la RTX 4070 Ti SUPER de 16 Go.
Classement des Cartes Graphiques 2026 : Performances Globale
Jetons un coup d’œil au classement des performances brutes relatives des 100 cartes graphiques NVIDIA GeForce, AMD Radeon et Intel Arc avec notre tableau comparateur de cartes graphiques.
La GeForce RTX 4090, autrefois en première position, se retrouve désormais en deuxième place, cédant sa couronne à la toute nouvelle RTX 5090, qui affiche une avance de 25 % dans les jeux en 4K (l’écart étant plus réduit en 1440p et 1080p).
Ce classement confirme la domination incontestée de la Nvidia GeForce RTX 5090. La Radeon RX 7900 XTX affiche désormais un écart de 45 % avec la nouvelle reine, un écart qui ne devrait pas se réduire avec l’arrivée de l’architecture RDNA 4. Selon les rumeurs, la 9070 XT, porte-étendard de cette nouvelle génération, serait à peine supérieure à une 7900 XT. Nvidia conserve son avantage avec 5 cartes en tête, et 7 cartes dans le top 10. Tandis que la Radeon RX 7900 XTX occupe la 6eme position, retogardée de la 4eme depuis les sorties des RTX 50.
La nouvelle Radeon RX 9070 XT se classe juste derrière la 5070 Ti et devant la 7900 XT. Elle pourrait bien s’imposer comme la nouvelle référence des joueurs. De son côté, sa petite sœur occupe la 13ᵉ place surpassant la GeForce RTX 5070, mais restant légèrement en retrait face à la GeForce RTX 4070 Ti Super.
Plus bas dans le classement, la GeForce RTX 5060 Ti 16 Go se maintient en 31ᵉ position avec un indice de puissance de 46 %. Elle se démarque par une bonne stabilité en 1080p et 1440p, surtout avec le DLSS 4 activé.
Juste derrière, la Radeon RX 9060 XT 16 Go occupe la 33ᵉ place avec 42 %, à égalité avec la RTX 3070. Elle brille en rasterisation, mais reste un cran en dessous sur les titres exploitant massivement le ray tracing.
Enfin, la RTX 5060 8 Go, classée 39ᵉ avec 39 %, propose une solution efficace pour le 1080p avec DLSS. Toutefois, ses 8 Go de VRAM peuvent constituer une limite sur les jeux récents en 1440p natif. Elle vise clairement les joueurs à la recherche du meilleur rapport performances/prix avec les technologies NVIDIA.
Classement des Cartes Graphiques 2026 – Performances Gaming
FPS Moyen
Les graphiques suivants vous montrent le classement des cartes graphiques sur la base des résultats moyens en FPS sur 25 jeux du moment incluant des jeux FPS et jeux AAA, afin de vous donner une idée des performances à attendre d’une carte graphique donnée en termes de frames par seconde.
Les diagrammes à barres ci-dessous vous permet facilement d’estimer votre propre résultat moyen attendu dans les 3 résolutions, 1080p, 1440p, et 2160p en réglages Ultra. Ces résultats vous donnent une idée générale des performances à attendre d’une carte graphique donnée. Cependant, il est important de noter que les performances réelles peuvent varier en fonction des jeux, des paramètres graphiques et des conditions de test.
FPS mimmum
Alors que le FPS moyen fournit une indication précieuse de l’expérience de jeu typique, le FPS mini révèle ce qui se passe dans les cas extrêmes, comme lors de batailles intenses ou d’autres situations exigeantes. Toutes les données présentées concernent les 1% de fréquences d’images les plus basses, également appelées 99e percentile.
Les graphs offrent une comparaison approfondie des performances à différentes résolutions, allant de 1920×1080 à 3840×2160 (4K), permettant aux utilisateurs de comprendre quelles cartes graphiques offrent les meilleures performances globales et comment elles se comportent face à des tâches graphiques de plus en plus gourmandes.
Performances Ray Tracing
Le Ray Tracing, ou lancer de rayons, est une technique de rendu avancée qui simule le comportement réel de la lumière pour produire des effets visuels plus réalistes : ombres dynamiques, réflexions précises, caustiques et éclairages indirects. Mais cette qualité visuelle a un coût : le Ray Tracing est l’une des charges les plus lourdes pour une carte graphique, surtout en haute résolution.
C’est pourquoi il représente un excellent indicateur des capacités d’un GPU à encaisser des traitements graphiques complexes, et permet de différencier les architectures les plus optimisées.
Classement GPU 2026 avec Ray Tracing
Le classement ci-dessous présente les performances relatives en pourcentage à trois résolutions (1080p, 1440p, 4K), la moyenne tournant autour des RX 7800 XT et RX 9060 XT, qui servent ici de point de comparaison à 100 %.
En tête du classement, la RTX 5090 survole les débats. À elle seule, elle délivre 333 % des performances de référence en 4K, laissant derrière la RTX 4090 (259 %) et la 5080 (217 %). Ces écarts confirment non seulement la montée en puissance de l’architecture Blackwell, mais aussi l’efficacité du DLSS 4 avec génération de trames, qui continue de faire la différence.
Côté AMD, la RX 9070 XT atteint 174 % en 4K, un score honorable mais encore loin de rivaliser avec les équivalents RTX. Même la RX 7900 XTX, malgré ses 24 Go de VRAM, reste sous la barre des 155 %. Le manque d’accélération dédiée et un FSR 3 encore moins mature que le DLSS laissent AMD à bonne distance.
Sur le milieu de gamme, les nouvelles venues apportent un éclairage intéressant :
La RTX 5060 Ti 16 Go affiche 105 % en 4K et reste stable en 1440p comme en 1080p. C’est un bon point d’entrée pour le Ray Tracing léger, à condition d’activer le DLSS.
La RTX 5060 Ti 8 Go est plus contrastée : 59 % en 4K, mais un solide 88 % en 1080p. Elle se défend bien pour les jeux actuels à basse résolution, mais montre vite ses limites en 1440p.
La RTX 5060 8 Go atteint 52 % en 4K, ce qui la réserve à un usage très modéré du Ray Tracing, ou à des jeux optimisés avec upscaling. En 1080p, elle monte à 76 %, ce qui reste jouable avec DLSS.
La RX 9060 XT 16 Go se stabilise autour de 99-100 % sur les trois définitions. Si elle ne brille pas, elle reste constante, mais n’apporte aucun gain réel face à la génération précédente. Son efficacité en Ray Tracing reste bridée sans FSR activé.
En bas de tableau, les modèles comme la RX 7600, la RTX 4060 ou l’Arc A770 affichent des scores insuffisants en 4K, voire même en 1440p. Sur ces cartes, le Ray Tracing reste un compromis — ou un luxe réservé à des jeux bien optimisés avec des préréglages réduits.
Qui sort vainqueur du duel entre la RX 9070 XT et la RTX 5070 Ti ? Ne cherche pas plus loin : notre article complet est enfin disponible !
Classement des Cartes Graphiques 2026 : Performances en Intelligence Artificielle AI
L’intelligence artificielle s’impose comme un critère central dans l’évaluation des cartes graphiques en 2026. Alors que les processeurs centraux (CPU) trouvent leurs limites face aux charges massivement parallèles, les GPU, avec leurs milliers de cœurs et leurs unités spécialisées (Tensor Cores, XMX, etc.), permettent d’accélérer considérablement l’inférence et l’entraînement de modèles IA comme Stable Diffusion ou les LLM légers.
Ce classement met en avant les performances des cartes graphiques pour l’IA, essentiel pour les utilisateurs cherchant à optimiser leurs systèmes pour le développement et l’exécution de solutions intelligentes.
Nvidia reste leader incontesté sur ce terrain. Sa nouvelle RTX 5090 domine les benchmarks IA, devant la 4090 et la 5080. Les RTX 50 sont désormais compatibles avec les principaux frameworks IA (PyTorch 2.2+, xformers, torch.compile), et offrent une prise en charge optimisée des modèles comme SDXL.
AMD, avec ses RX 9000, progresse peu dans ce domaine. Les performances restent en retrait en raison de l’absence d’accélération IA native (pas d’équivalent aux Tensor Cores), et d’un support limité sur PyTorch ou les outils comme Automatic1111.
Intel, avec ses Arc B580/B570, propose des performances modestes mais honorables, surtout en entrée de gamme, grâce au support natif du FP16, d’AV1 et de DirectML. Le constructeur reste un outsider à surveiller.
Classement des Cartes Graphiques 2025 : Performances en rendu 3D
En 2026, le choix d’une carte graphique est crucial pour le rendu 3D, notamment en modélisation, animation et effets visuels. Notre classement évalue les cartes selon leurs performances avec des logiciels professionnels comme 3ds Max, Blender et Cinema 4D. Blender, outil open source créé en 1994 et soutenu depuis 2019 par Epic Games, Ubisoft et NVIDIA, s’est imposé dans l’industrie.
Nvidia domine le secteur grâce à l’optimisation de ses GPU pour des tâches comme le ray tracing, laissant AMD en retrait.
Ce classement basé sur Blender confirme la domination écrasante de Nvidia dans le rendu 3D. La toute nouvelle RTX 5090 s’impose comme la référence absolue, avec 30 % d’avance sur la RTX 4090, et près de 40 % de mieux que la RTX 4080 SUPER. Elle illustre parfaitement les gains offerts par l’architecture Blackwell sur les workloads accélérés par CUDA et OptiX.
Les modèles RTX 4080 SUPER (92 %) et RTX 4070 Ti SUPER (73 %) suivent à distance respectable. Ils démontrent les optimisations continues de la génération Ada Lovelace, même avec une VRAM moindre que les modèles ultra haut de gamme.
Face à cela, l’AMD RX 7900 XTX, pourtant dotée de 24 Go de mémoire comme la 4090, n’atteint que 27 % des performances de la 5090. Une preuve que la quantité de VRAM ne suffit pas : l’optimisation logicielle, l’architecture GPU et la compatibilité avec Blender (OptiX, CUDA) restent déterminants. AMD reste présent, mais très loin derrière sur ces charges spécifiques.
Les cartes en dessous de 40 % (comme la RTX 4060 Ti ou la RX 7900 XT) deviennent vite limitées pour des scènes lourdes, surtout en cycles rendering. Elles conviendront pour des projets plus modestes ou avec des optimisations fortes (viewport, Eevee, etc.), mais ne sont pas idéales pour les workloads professionnels.
Classement des Cartes Graphiques 2026 : Efficacité Energétique
L’efficacité énergétique est devenue un critère incontournable pour évaluer les cartes graphiques, à une époque où la performance brute ne suffit plus : il faut aussi consommer moins. Le Classement 2026 met en lumière cet équilibre entre puissance et consommation, basé sur un test exigeant : Cyberpunk 2077, l’un des jeux les plus gourmands du moment.
En effet, si les performances font briller certaines cartes, il est intéressant de croiser ces chiffres avec l’efficacité énergétique. À ce jeu-là, la RTX 5080 16 Go s’impose comme la plus efficiente avec un indice de 121 %, combinant des performances élevées et une consommation bien maîtrisée.
Autre bonne surprise : la RX 9070 16 Go, qui atteint 114 % d’efficacité énergétique, prouvant qu’AMD a fait des progrès sur ce terrain, même si les performances brutes restent derrière.
La RTX 5070 Ti confirme sa place de choix dans le milieu de gamme : 110 % d’efficacité et près de 190 % de performance en Ray Tracing 4K. Un excellent compromis pour ceux qui veulent puissance et rendement.
En revanche, les modèles comme la RTX 3090 Ti (53 %) ou Arc A770 (54 %) montrent un rendement énergétique nettement en retrait. Même la RTX 5090, aussi puissante soit-elle, n’affiche “que” 95 % d’efficacité, preuve que le très haut de gamme continue d’exiger des compromis côté consommation.
Pour les joueurs attentifs à la facture énergétique ou aux températures en boîtier compact, ces écarts peuvent faire toute la différence — surtout sur le long terme.
Evolution des Performances de Cartes graphique sur 10 ans
Les cartes graphiques ont fait un bond spectaculaire ces dix dernières années, avec des hausses de performances qui profitent autant aux joueurs qu’aux créateurs de contenu.
Pour mieux visualiser cette progression, découvrez notre graphique interactif qui retrace l’évolution des GPU phares de Nvidia et AMD depuis 2014. D’un coup d’œil, il permet de suivre année après année les gains de puissance, génération après génération.
Survolez le graphique avec votre souris pour afficher les chiffres
L’évolution des performances de Nvidia et AMD de 2014 à 2026 met en lumière une croissance continue pour les deux marques, avec une avance constante pour Nvidia. Le constructeur a conservé un avantage net depuis 2014, mais c’est en 2020 que l’écart s’est le plus creusé, avec une progression marquée des performances, notamment grâce aux RTX 30.
En 2022, la RTX 4090 a établi une nouvelle référence avec une performance brute fixée à 100 %. Cette position a été conservée jusqu’en 2026, où la toute nouvelle RTX 5090 a pris le relais, avec un gain d’environ 25 %, marquant une nouvelle étape dans la domination de Nvidia.
AMD, de son côté, a atteint un sommet avec la RX 7900 XTX, estimée à environ 80 % de la performance de la RTX 4090. L’arrivée de la RX 9070 XT (RDNA 4) en 2026 ne change pas radicalement l’équilibre, la carte se plaçant entre la RTX 5070 Ti et la 7900 XT, confirmant que l’écart reste significatif sur le haut de gamme.
Cependant, AMD continue de se démarquer sur d’autres aspects. Sa stratégie de support logiciel prolongé permet d’améliorer les performances de ses cartes au fil du temps, prolongeant leur pertinence. En parallèle, ses prix souvent plus accessibles offrent un rapport qualité/prix attractif, notamment sur le milieu de gamme.
En résumé, Nvidia domine toujours le segment des performances pures avec ses GPU les plus récents, tandis qu’AMD consolide sa position grâce à une approche durable et économique, appréciée par les utilisateurs soucieux de rentabilité.
Et pendant que les deux géants poursuivent leur duel génération après génération, Intel continue d’avancer lentement mais sûrement, peaufinant ses Arc pour séduire les joueurs avec des cartes souvent compétitives sur le segment entrée/milieu de gamme. Encore loin des sommets en termes de puissance brute, Intel pourrait bien jouer un rôle plus important à l’avenir… si ses pilotes suivent.
Conseils pour choisir sa carte graphique
Comment choisir sa carte graphique : Nvidia Geforce ou AMD Radeon ?
La carte graphique est un composant essentiel de tout PC, qu’il soit destiné aux jeux, à la création de contenu ou à d’autres applications graphiques. Pour choisir la carte graphique qui vous convient, il est important de tenir compte de plusieurs facteurs, notamment :
L’usage que vous en ferez : si vous êtes un joueur, vous aurez besoin d’une carte puissante capable de faire tourner les jeux les plus récents à des framerates élevés. Si vous êtes un créateur de contenu, vous aurez besoin d’une carte qui offre de bonnes performances dans les applications de montage vidéo, de rendu 3D ou de graphismes 3D.
La résolution de votre écran : plus la résolution de votre écran est élevée, plus la carte graphique devra être puissante pour afficher des images nettes et fluides.
Les performances souhaitées : si vous souhaitez jouer à des jeux à 60 images par seconde, une carte graphique de milieu de gamme suffira. Si vous souhaitez jouer à des jeux à 144 images par seconde ou plus, vous aurez besoin d’une carte haut de gamme.
Le budget : les cartes graphiques haut de gamme peuvent être très coûteuses. Il est important de fixer un budget avant de commencer vos recherches.
La consommation électrique : les cartes graphiques récentes sont très énergivores. Il est important de vérifier la consommation électrique de la carte que vous souhaitez acheter pour vous assurer qu’elle est compatible avec votre alimentation.
Comparez les performances des différentes cartes graphiques avant de faire votre choix lisez notre comparatif, qui est là pour vous aider à faire votre choix.
Tenez compte de l’avenir : si vous souhaitez jouer aux jeux les plus récents pendant plusieurs années, il est préférable d’investir dans une carte graphique haut de gamme pour une meilleure durabilité.
N’oubliez pas les autres composants : pour tirer le meilleur parti de votre carte graphique, vous aurez également besoin d’un processeur adapté et d’une quantité suffisante de mémoire vive.
En respectant ces points clés et en vous aidant de notre Classement des Cartes Graphiques 2026, vous trouverez la perle rare répondant parfaitement à votre besoin et votre budget.
Votre avis compte pour nous ! Si vous avez des questions, des suggestions, ou souhaitez partager votre expérience avec les cartes graphiques, n’hésitez pas à laisser un commentaire ci-dessous. Nous apprécions vos retours et sommes impatients de lire vos impressions et discussions sur le sujet. Participez à la conversation !
De plus, nous vous invitons à consulter nos tests complets de cartes graphiques sur notre site. Suivez ce lien pour accéder directement à nos revues et bénéficier d’un aperçu complet des GPU testés.
Comment sont classées les cartes graphiques dans notre Classement?
Les cartes graphiques sont classées en fonction de leurs performances globales, de leurs performances en jeu, de leurs performances en intelligence artificielle (IA) et de leurs performances en rendu 3D.
Quelle est la carte graphique la mieux classée en 2026 ?
En 2026, la carte graphique la mieux classée dans le Classement des Cartes Graphiques est la GeForce RTX 5090 de Nvidia, qui occupe la première place en termes de performances globales. Elle est suivie par d’autres cartes haut de gamme, telles que les GeForce RTX 4090, RX 7900 XTX d’AMD et RTX 4080 Super.
Pourquoi est-il important de connaître le FPS minimum des cartes graphiques ?
Le FPS minimum, ou le 99e percentile, est important car il donne une indication de ce qui se passe dans les situations les plus exigeantes, comme lors de batailles intenses dans les jeux ou d’autres tâches graphiques complexes. Cela permet aux utilisateurs de s’assurer que leur carte graphique peut gérer ces situations sans problème.
Comment puis-je choisir la carte graphique qui me convient le mieux ?
Pour choisir la carte graphique qui vous convient le mieux, vous devez tenir compte de plusieurs facteurs, notamment l’usage que vous en ferez, la résolution de votre écran, les performances souhaitées, votre budget et la consommation électrique. Consultez notre Classement des Cartes Graphiques 2026 pour vous aider à prendre une décision éclairée en fonction de vos besoins et de votre budget.
Un ex-ingénieur de Google est inculpé pour espionnage économique sur des technologies IA clés ; la sécurité des accélérateurs maison de Mountain View se retrouve sur la sellette.
Google TPU au centre d’une enquête du DOJ
Le Department of Justice accuse l’ex-Googler Linwei Ding d’avoir volé jusqu’à 2 000 pages de documents confidentiels liés aux Tensor Processing Units (TPU) et à l’infrastructure IA de Google. L’enquête du FBI fait état d’informations dérobées couvrant l’architecture des puces, la connectivité externe, les systèmes GPU associés, les couches logicielles d’exécution/communication et l’orchestration de milliers de puces en supercalculateur.
Le DOJ estime que ces actes ont été commis au bénéfice de la République populaire de Chine. Google a collaboré avec le FBI et pointe un préjudice potentiel majeur sur une propriété intellectuelle développée sur plusieurs années et des milliards de dollars d’investissement.
Infrastructure TPU, SmartNIC et interconnexion à grande échelle
Les secrets industriels évoqués incluent également une SmartNIC maison, utilisée pour la communication haut débit au sein des supercalculateurs IA et des produits de cloud networking de Google. Ce maillon est critique pour soutenir la bande passante interne et la latence des grappes de TPUs.
Google exploite des architectures TPU pour limiter sa dépendance aux GPU AMD et NVIDIA. Le dernier modèle Gemini 3 a été entraîné et fonctionne exclusivement sur TPU. La société déploie le TPUv8ax « Sunfish » pour l’entraînement et le TPUv8x « Zebrafish » pour l’inférence à grande échelle. « Sunfish » est co-développé avec Broadcom, dont l’équipe custom gère design, mémoire, matériel d’accompagnement et packaging, afin de livrer un produit prêt à l’intégration dans les serveurs Google.
La valeur de l’ensemble ne tient pas qu’aux puces, mais à l’ingénierie d’interconnexion de dizaines de milliers de TPU, dimensionnée pour des runs d’entraînement massifs. C’est précisément ce tissu matériel-logiciel, difficile à reproduire, qui attire aujourd’hui les tentatives d’ingérence industrielle.
Au-delà du cas individuel, l’affaire illustre le basculement stratégique vers des accélérateurs propriétaires. En verrouillant l’entraînement et l’inférence de Gemini sur TPUv8, Google sécurise sa feuille de route et ses coûts, tout en exposant une surface d’attaque dont la valeur dépasse celle d’une simple puce isolée.