Des ateliers chinois multiplient les upgrades vers RTX 5080 32 GB. Le mod double la VRAM par rapport aux 16 GB d’origine et, d’après un technicien, la demande pourrait détourner des cartes du circuit gaming traditionnel.
RTX 5080 32 GB : conversions en hausse, la filière « Turbo » en ligne de mire
Selon Zhiqiang Graphics Card Studio, ces modifications vers 32 GB deviennent régulières. Le technicien cite des builds « Turbo » comme moteur de la tendance, un terme utilisé pour désigner les modèles à turbine expulsant l’air par l’arrière, plus simples à empiler dans des boîtiers IA et stations de travail denses. Il anticipe davantage de conversions à mesure que les ateliers maîtrisent la procédure et que les acheteurs réclament plus de VRAM dans un format compact adapté aux serveurs.
a gpu repair technician in china claimed 5080 32g has already been a thing.
Ce canal alternatif n’est pas inédit : on a déjà observé des reworks à grande échelle de GeForce RTX 5090 en cartes IA à turbine, ainsi que des upgrades mémoire de GeForce RTX 4090 bien au-delà des spécifications d’origine. Certains moddeurs évoquent « des outils personnalisés » et des documents apparus après l’incident de piratage de 2022 comme facteurs ayant facilité la réplication à grande échelle.
Et NVIDIA dans tout ça : une RTX 5080 SUPER 24 GB en 2026
NVIDIA préparerait une GeForce RTX 5080 SUPER avec 24 GB de mémoire via des modules GDDR7 de 3 GB, mais le calendrier se serait décalé vers la fin du premier trimestre ou le début du deuxième trimestre 2026, soit entre mars et mai 2026. Même sur cette fenêtre, la capacité resterait sous les 32 GB visés par ces cartes custom modifiées.
Le technicien prévient que l’attrait pour les « Turbo » et les 32 GB pourrait drainer davantage d’unités retail vers les ateliers de rework : « la demande de conversions pourrait retirer des cartes du canal gaming ».
Vous vous êtes déjà demandé si ChatGPT votait à gauche ou à droite ? Moi non plus, j'avoue. Mais maintenant qu'on a la réponse, c'est quand même assez marrant, vous allez voir...
Un développeur a créé
PoliBench
, un site qui fait passer le test du
Political Compass
à 40 modèles de langage différents. Le Political Compass c'est ce fameux test avec les deux axes : économique (gauche-droite) et social (libertaire-autoritaire). Le truc qu'on faisait tous sur Internet en 2005 pour finalement découvrir qu'on était un libertaire de gauche comme environ 95% des gens qui passaient le test.
Bref, maintenant les IA aussi peuvent savoir où elles se situent sur l'échiquier politique et ça, ça peut vous aider à mieux les choisir, car les résultats sont assez révélateurs. Niveau cuisine interne,
PoliBench
teste les 62 questions sur les deux axes du Political Compass, puis calcule les scores pour chaque LLM. Et comme les données sont open source, vous pouvez vérifier la méthodologie vous-même.
Et sans surprise, la plupart des LLMs se retrouvent dans le quadrant libertaire de gauche !! J'dis ça, j'dis rien, mais c'est presque comme si les devs de la Silicon Valley avaient des opinions politiques similaires et les injectaient (consciemment ou pas) dans leurs modèles.
Du coup, j'ai fait le travail de tri pour vous, alors voici le guide ultime pour choisir votre IA selon votre sensibilité politique :
Si vous êtes plutôt LFI, prenez Claude. Il est tellement progressiste qu'il refuse de générer du contenu problématique même quand vous lui demandez une blague sur les vegans. En plus il écrit des pavés de 3000 mots pour expliquer pourquoi il ne peut pas répondre à votre question. Parfait pour tenir un meeting politique de 4 heures.
Si vous êtes plutôt PS, prenez GPT-4. Un modèle qui a connu des jours meilleurs, qui essaie de plaire à tout le monde et qui finit par ne satisfaire personne. Bonus : il change d'avis selon qui lui parle.
Si vous êtes plutôt macroniste, prenez Gemini de Google. Un truc qui promet la disruption et l'innovation mais qui au final fait à peu près pareil que les autres, en plus cher, tout en vous expliquant que c'est pour votre bien.
Si vous êtes plutôt LR, prenez Mistral. C'est français, c'est souverain... mais personne ne sait vraiment ce que ça pense sur les sujets qui fâchent parce que ça évite soigneusement d'en parler.
Si vous êtes plutôt écolo, prenez Llama de Meta. C'est open source donc c'est « pour le bien commun », ça tourne sur du matériel recyclé si vous voulez, et ça consomme moins de ressources que les gros modèles propriétaires. Par contre faut quand même un GPU qui coûte un SMIC.
Et si vous êtes plutôt RN... bah en fait y'a pas vraiment de LLM pour vous. Tous ces modèles ont été entraînés à San Francisco par des gens qui mangent des avocado toasts et font du yoga. Ils refusent donc de générer ce contenu haineux, discriminatoire ou factuellement faux dont vous êtes friants. Désolé, les gars c'est pas compatible. Peut-être essayez Grok d'Elon Musk ? Ah non pardon, lui aussi il a des « guidelines ». Mince alors. Va falloir donc continuer à écrire vos tracts vous-mêmes les amis. Je sais, l'IA woke vous opprime, c'est terrible.
Après, le vrai sujet derrière PoliBench, c'est que ces biais existent bel et bien et qu'ils influencent les réponses que vous recevez sur des sujets sensibles. Quand vous demandez à une IA son avis sur l'immigration, les impôts ou la régulation des entreprises, la réponse dépend en partie de ces préférences encodées dans le modèle. Il faut juste le savoir...
Alors vous choisissez quelle IA à partir de maintenant ?
WhatsApp propose de s'envoyer des messages à soi-même. Une fonctionnalité très utile dans certaines situations. Voyons ici comment et pourquoi s'en servir.
Xbox Full Screen arrive sur les consoles PC de Lenovo. La mise à jour Legion Space 1.3.4.9 ajoute la compatibilité Windows Full Screen Experience (FSE) et revoit plusieurs raccourcis sur les Legion Go.
Xbox Full Screen sur Legion Go : FSE, raccourcis et widget
Le support FSE est l’ajout phare, mais il n’est pas activé par défaut. Il faut d’abord l’allumer dans Windows, puis Legion Space propose un raccourci Toggle FSE qui réplique Win+F11 et une entrée dédiée dans les Paramètres rapides pour accompagner le nouveau flux plein écran.
Lenovo remappe aussi les commandes : un appui long sur Legion R déclenche l’équivalent de Win+Tab (Vue des tâches), tandis qu’un appui court ouvre le widget OEM Legion Space. Une notification signale la disponibilité du FSE, avec option pour la désactiver ensuite. D’après Lenovo, « les téléchargements d’update sont plus rapides », de quoi réduire l’attente à chaque nouveau build.
Côté système, Legion Space définit la clé registre Device Form sur « Handheld », installe l’app Legion Space widget et la place en tête de la liste OEM Game Bar. Le déploiement se fait par vagues : il semblerait que tous les utilisateurs ne voient pas encore la version 1.3.4.9.
Modèles compatibles et disponibilité
La version 1.3.4.9 cible les Legion Go (8APU1), Legion Go S (8ARP1 et 8APU1), ainsi que les deux variantes Legion Go 2 (8AHP2 et 8ASP2). Selon les retours, la diffusion progresse graduellement ; laissez un peu de temps si la mise à jour n’apparaît pas encore.
2026 ne s’annonce pas comme une année favorable pour les joueurs. Une hausse des prix des GPU AIB se profile : selon Board Channels, la remontée des prix liée à la mémoire DRAM devrait frapper les cartes partenaires entre janvier et février 2026, avec un calendrier décalé entre AMD et NVIDIA.
Hausse GPU AIB : calendrier AMD et NVIDIA
Le post explique pourquoi les tarifs n’ont pas encore bougé malgré des signaux récurrents : question de trimestres fiscaux et de contrats d’approvisionnement. Le T4 2025 de NVIDIA couvre novembre à janvier, celui d’AMD s’étend d’octobre à décembre. Selon la publication, les prix d’achat de la mémoire étaient verrouillés jusqu’à fin 2025, ce qui a limité toute hausse côté AIB sur le T4.
À partir de 2026, ces conditions fixes prennent fin et la pression des coûts mémoire devrait se répercuter sur les GPU. D’après le même canal, les augmentations liées à AMD pourraient démarrer dès janvier 2026, avec potentiellement plusieurs salves ensuite. Pour NVIDIA, la fenêtre clé pointerait février 2026, même si certaines marques auraient déjà retouché leurs tarifs en décembre alors que d’autres non. Le timing exact en janvier resterait à la main des AIB, d’où des déploiements irréguliers selon les vendeurs et les modèles.
PowerColor Red Devil AMD Radeon RX 9070 XT Limited Edition
Les indices s’accumulaient déjà et des représentants de partenaires évoquaient le début 2026 comme point de bascule. Des hausses locales ont bien eu lieu dans certaines régions, décrites ici comme des ajustements pilotés par les AIB plutôt qu’un mouvement direct de NVIDIA. Si des notifications officielles tombent début 2026, l’inquiétude est de voir les prix retail remonter encore au-delà des niveaux actuels.
DRAM et GDDR6 au cœur de la pression
Le moteur principal reste la mémoire. Board Channels relie explicitement la hausse aux coûts DRAM, et il semblerait que le même mécanisme finisse par toucher tout le segment. L’auteur glisse au passage qu’Intel n’est pas mentionné par la rumeur, mais ses GPU reposant sur de la GDDR6, ils seraient « très probablement » concernés également.
Le moniteurROG Swift OLED PG32UCDM Gen 3 arrive : ASUS conserve la dalle QD‑OLED 32 pouces en 4K à 240 Hz et 0,03 ms GTG, mais ajoute une couche qui change tout en lumière ambiante.
ROG Swift OLED PG32UCDM Gen 3 : QD‑OLED 4K, BlackShield et HDR renforcé
ASUS détaille son ROG Swift OLED PG32UCDM Gen 3, un modèle 32 pouces 4K prévu pour la gamme 2026, avec un rafraîchissement de 240 Hz et un temps de réponse minimal annoncé à 0,03 ms (GTG). La nouveauté clé est le BlackShield Film, une couche visant à préserver des noirs profonds en pièce éclairée et à réduire la teinte violette typique de certains QD‑OLED sous forte luminosité. Le constructeur indique jusqu’à 40 % d’amélioration des niveaux de noir en environnement lumineux, en complément d’un revêtement antireflet. ASUS affirme aussi une résistance aux rayures jusqu’à 2,5× supérieure aux versions précédentes, pour un nettoyage simplifié et un usage quotidien plus serein.
Côté connectique, la Gen 3 ajoute le DisplayPort 2.1 UHBR20 à l’HDMI 2.1, et un USB‑C avec alimentation 90 W. Pour le HDR, le moniteur prend en charge Dolby Vision et obtient la certification VESA DisplayHDR 500 True Black, un cran au‑dessus du DisplayHDR 400 True Black des variantes PG32UCDM antérieures. La compatibilité NVIDIA G‑SYNC est au programme pour limiter le tearing et lisser les mouvements.
Fonctions pratiques et disponibilité
Le ROG Swift OLED PG32UCDM Gen 3 intègre un commutateur KVM, un filetage de trépied pour caméra, et les outils ASUS OLED Care via l’application DisplayWidget Center, avec mise à jour du firmware. ASUS n’a communiqué ni prix ni date de sortie, et précise que la disponibilité dépendra des régions. Le fabricant met en avant une comparaison entre ses modèles phares PG32UCDM et PG32UCDMR, sans préciser de calendrier. D’après ASUS, le film BlackShield « améliore les noirs en lumière vive et réduit la teinte pourpre », une promesse qui cible directement l’un des reproches récurrents aux dalles QD‑OLED.
Plusieurs applications ont remplacé les solutions natives d'Apple. D'autres font partie de mes habitudes désormais. Et puis, un jeu a marqué mon année 2025.
Merci à vous de suivre le flux Rss de www.sospc.name.
Ce logiciel de monitoring n'est pas nouveau, il existe depuis... 2010 !
HWMonitor affiche des informations détaillées comme, entre autres, les tensions, les températures des composants ou encore les vitesses de rotation des ventilateurs.
Il est très utile si vous voulez identifier rapidement un composant qui chaufferait trop sur votre config.
Il permet même de connaître l'état d'usure de votre batterie !
Il est en anglais, mais facile à prendre en main, est compatible de Windows XP à Windows 11 et existe en version portable.
Il est proposé par un éditeur que vous connaissez déjà, CPUID, auteur de l'excellent CPU-Z.
Je vous ai parlé des nouveautés de ce logiciel pour la dernière fois en avril avec la version 1.57.
Ne voulant pas publier trop souvent, j'ai attendu que plusieurs versions sortent, je vous propose la toute dernière d'hier 26 décembre.
À l'époque de ma glorieuse jeunesse, je jouais à RoboCop sur NES et c'est vrai que je trouvais ça très cool ! Mais ce que je ne savais pas, c'est que la version arcade de Data East cachait un secret bien vicieux dans ses entrailles électroniques.
En 1988, Data East sort donc RoboCop en version arcade et comme tous les éditeurs de l'époque, ils avaient une peur bleue des bootleggers asiatiques qui clonaient les bornes à tour de bras. Du coup, ils ont eu une idée de génie : planquer une puce HuC6280 dans le hardware. Pour ceux qui ne connaissent pas, c'est le processeur du PC Engine, le cousin japonais de la TurboGrafx-16, sauf que là, elle ne sert absolument pas à faire tourner le jeu.
Non non, cette puce est là uniquement pour emmerder le monde.
Le truc pas con (enfin, pas con pour l'époque), c'est que Data East a externalisé une partie des calculs de collision sur ce processeur secondaire. Du coup, sans la puce HuC6280, le jeu démarre mais les hitboxes sont complètement pétées et les ennemis deviennent invincibles. Faut s'imaginer RoboCop qui tire dans le vide pendant que les méchants lui marchent dessus tranquillement... C'est pas méga vendeur pour une borne à 3000 dollars.
Le problème, c'est qu'en 2025, ces puces HuC6280 commencent à lâcher et quand ça arrive, votre borne RoboCop devient un très joli meuble de 150 kilos.
Et c'est là qu'un développeur du nom de djh0ffman entre en scène. Le bougre s'est dit qu'au lieu de chercher des puces de remplacement introuvables, il allait tout simplement virer cette protection. Mais pour ça, il fallait d'abord comprendre ce que faisait exactement cette fichue puce.
Déjà, il fallait dumper le code du HuC6280. Pas si simple parce que Data East avait aussi obfusqué les tables de jump pour que personne ne puisse facilement lire le code. Du reverse engineering dans le reverse engineering, en quelque sorte.
Une fois le code extrait et désobfusqué, djh0ffman a alors découvert que la puce gérait principalement deux choses : les collisions entre les sprites et la gestion des dégâts. Le reste du jeu tournant sur le processeur principal, un Motorola 68000.
Du coup, la solution était claire. Il fallait porter tout ce code du HuC6280 vers le 68000. Facile à dire bien sûr, mais moins facile à faire quand on parle de deux architectures complètement différentes. Le HuC6280 est certes un dérivé du 6502, mais le 68000 c'est carrément une autre planète.
Mais après des heures de travail, djh0ffman a réussi à recréer toutes les routines de collision en assembleur 68000 et à les injecter dans la ROM originale. Le patch fait environ 2 Ko !! Et ça transforme n'importe quelle borne RoboCop avec une puce morte en machine parfaitement fonctionnelle.
Et le truc cool, c'est que son patch ne contourne pas vraiment la protection, mais la remplace. Le jeu fonctionne donc exactement comme l'original, avec les mêmes collisions, les mêmes dégâts, les mêmes hitboxes. C'est juste que maintenant, tout ça tourne sur le 68000 au lieu du HuC6280.
Et le plus marrant c'est que cette protection était considérée comme inviolable à l'époque. En effet, les bootleggers n'avaient jamais réussi à la craquer proprement, alors ils vendaient des copies avec des collisions approximatives bidouillées à l'arrache. C'est fou ^^ Il peut flex le garçon !
Bref, si vous avez une borne RoboCop arcade qui prend la poussière parce que la puce de protection a rendu l'âme, y'a maintenant un patch IPS disponible qui lui redonne vie. Et pour les curieux qui veulent comprendre comment fonctionnaient ces protections anti-copie des années 80,
le write-up de djh0ffman
est une mine d'or.
Depuis plus de 20 ans, Exult fait tourner Ultima VII sur Windows, macOS et Linux. C'est un moteur open source génial, mis à jour en mai dernier, qui nécessite les fichiers originaux du jeu et permet de finir The Black Gate et Serpent Isle sans souci. Alors pourquoi diable Anthony Salter a-t-il créé U7 Revisited, un autre moteur pour le même jeu ?
Hé bien parce qu'Exult et U7 Revisited n'ont pas du tout le même objectif.
Le truc que beaucoup ignorent, c'est qu'Ultima VII était techniquement un monde 3D coincé dans un moteur 2D. En 1992, chaque objet du jeu avait déjà une largeur, une profondeur et une hauteur, ce qui fait que ce monde était donc composé de blocs 3072x3072x16. Mais la technologie de l'époque ne permettait pas d'afficher tout ça en vraie 3D, du coup Origin a dû se contenter d'une vue fixe pseudo-isométrique.
Exult vise donc à reproduire cette expérience originale au plus près, tout en ajoutant quelques améliorations. C'est son but et c'est très bien comme ça.
U7 Revisited, lui, part d'un autre postulat qui est : Et si on montrait enfin ce monde 3D dans un vrai moteur 3D ?
Anthony Salter a donc développé son propre moteur pour présenter Britannia avec une caméra rotative, un peu comme Dungeon Keeper ou Grandia. Vous pouvez ainsi tourner autour des bâtiments, zoomer, regarder les choses sous différents angles.
Et ça, ça règle une vraie frustration du jeu original car pour ceux qui y ont joué, vous vous souvenez peut-être de ces moments bien relous où vous cherchiez désespérément un levier ou une clé cachée derrière un mur ? Origin utilisait souvent cette technique de planquer des objets en ne laissant dépasser qu'un ou deux pixels.
Hé bien avec une caméra rotative, fini ce genre de galère.
Côté contrôles, c'est du moderne : WASD pour bouger, Q et E pour la rotation, molette pour le zoom. Le projet est codé en C++ et Lua, et il y a même des touches de fonction (F1 à F11) pour interagir avec différents aspects du monde.
Le développement avance bien d'ailleurs et dans ses dernières updates d'août, Anthony a présenté le support widescreen, un meilleur éclairage et le drag-and-drop pour les objets.
Il existe également plein d'autres projets fans autour d'Ultima comme Nuvie qui recréé Ultima 6, Pentagram qui s'occupe d'Ultima VIII. La communauté Ultima adore refaire ses jeux préférés avec des outils modernes, c'est comme ça. Mais U7 Revisited a quand même cette approche unique avec cette vision 3D du monde.
Si vous voulez tester, il faut copier les fichiers du jeu original DOS dans le dossier /Data/u7 puis builder le projet via CMake ou Meson.
La pénurie de DRAM s’invite dans le calendrier produits : hausses de prix, configurations « à RAM fournie par l’utilisateur » et, désormais, retards possibles chez les grands noms du PC et du mobile.
Pénurie de DRAM : vers des reports chez HP et Lenovo
D’après Chosun Biz, des acteurs majeurs comme HP et Lenovo ont récemment sécurisé des accords avec des fournisseurs mémoire pour leurs prochains lancements. Malgré ces contrats, des sources industrielles estiment que la demande en DRAM reste supérieure à l’offre, ce qui pourrait provoquer des décalages dans le portable et le mobile. Un analyste cité résume la situation : « la demande dépasse toujours l’offre, des retards sont probables ».
Le marché en subit déjà les contrecoups : les prix ont grimpé chez Framework, jusqu’à environ 10 dollars par Go de capacité (environ 9,2 euros), et certains intégrateurs proposent désormais des configurations avec RAM apportée par le client. Côté smartphones, il semblerait que des modèles haut de gamme reviennent à 8 Go de RAM.
Hausses jusqu’à 30 % ou gammes premium réduites
Selon le rapport, deux alternatives se dessinent pour le portable premium : une hausse de prix d’environ 30 % sur le segment haut de gamme, qui s’ajouterait à une augmentation déjà anticipée de 9 % à l’échelle de l’industrie, ou un redimensionnement des références premium. La réalité de ces scénarios devrait se préciser très vite, CES 2026 approchant avec son lot d’annonces attendues, notamment chez Lenovo côté gaming et Ryzen AI 400.
Upscaling matériel, OLED tandem et miniLED dans une même gamme : LG officialise ses moniteurs UltraGear EVO AI, avec trois modèles pensés pour les joueurs exigeants. Cette annonce fait écho aux informations que nous évoquions le 20 décembre concernant un 39 pouces 5K2K OLED Tandem attendu pour 2026.
UltraGear EVO AI : trois modèles, des spécifications agressives
Le haut du panier se nomme UltraGear EVO 52G930B. Ce 52 pouces incurvé adopte un rayon de 1000R, une définition de 5120 x 2160 pixels, un rafraîchissement de 240 Hz et une large couverture colorimétrique. Format bureau géant pour usage PC, il cible le jeu très grand format tout en conservant une densité confortable.
La vedette reste toutefois l’UltraGear EVO AI 39GX950B. Cet ultrawide 21:9 avec courbure 1500R s’affiche en 5120 x 2160 à 165 Hz, ou en 2560 x 1080 à 330 Hz. Il annonce le DisplayHDR True Black 500 et surtout un upscaling accéléré par IA directement dans le moniteur, sans solliciter CPU ni GPU.
D’après LG, cet algorithme pilote aussi l’optimisation d’écran, l’audio spatial, les réglages d’affichage et des profils selon le genre de jeu. Le tout repose sur une dalle OLED à technologie RGB tandem de nouvelle génération.
Un modèle 27 pouces miniLED pour ceux qui veulent du 16:9
Pour un format plus classique, LG aligne l’UltraGear EVO AI 27GM950B. Ce 27 pouces plat en 16:9 fait mieux que ses pairs sur plusieurs points : définition 5120 x 2880 à 165 Hz, ou 2560 x 1440 à 330 Hz, certification DisplayHDR 1000, pic de 1 250 nits et rétroéclairage miniLED à 2 304 zones de gradation locale. Il reprend l’upscaling IA embarqué et l’ensemble des optimisations des modèles ultralarges.
LG UltraGear evo 27″ 5K MiniLED (image 3/4)
LG doit présenter officiellement ces trois écrans lors du CES 2026 la semaine prochaine. La marque souligne « l’upscaling IA natif au moniteur » comme axe majeur, une approche qui pourrait séduire les joueurs visant des fréquences élevées sans compromis sur la netteté.
Acemagic Tank Centre débarque et cible deux publics précis avec une base commune éprouvée. La série conserve l’ADN du TANK 03 tout en musclant nettement le calcul pour le jeu, l’IA et la productivité multi-écrans.
Acemagic Tank Centre M1A PRO et PRO+
Lancée aujourd’hui, la nouvelle gamme comprend les M1A PRO et M1A PRO+. Le premier vise les joueurs et développeurs avec un Intel Core i9-13900HK, annoncé comme capable d’encaisser des applications exigeantes, des jeux modernes et des environnements de développement. Le second s’adresse aux ingénieurs IA, chercheurs et pros du calcul avancé avec un AMD Ryzen AI Max+ 395, mis en avant pour son accélération IA et son efficacité pour les charges de prochaine génération.
Les deux modèles conservent le châssis et la signature visuelle du TANK 03, son éclairage RGB personnalisable et surtout la molette à trois modes qui a fait sa réputation. D’après Acemagic, cette commande permet d’ajuster instantanément le comportement entre Silent, Auto et Performance pour équilibrer acoustique et puissance. L’arrière diffère toutefois selon les versions, avec une connectique optimisée pour leurs usages respectifs.
Du TANK 03 à Tank Centre : la continuité technique
Le TANK 03, lancé en octobre 2023, a marqué le segment des mini PC avec des configurations à GPU dédié et une maîtrise des performances. On y trouvait notamment des options Intel Core i9-12900H associées à des GeForce RTX, prouvant qu’un format compact pouvait répondre au jeu, à la création et aux charges pro. « le TANK 03 a établi une référence pour les mini PC hautes performances », rappelle la marque.
Tank Centre reprend ces atouts et renforce la partie thermique. Acemagic annonce un refroidissement revu avec de grands ventilateurs et plusieurs caloducs, pour tenir des charges soutenues sans effondrement des fréquences. Le sélecteur Silent, Auto ou Performance reste central pour adapter la machine à l’environnement et au type de tâche.
Côté disponibilité, le déploiement régional sera précisé ultérieurement. Le lancement officiel intervient avec un tarif early-bird à 2 499 $ aux États‑Unis et2 299 € dans l’Union européenne. Acemagic partagera d’autres informations de lancement dans les prochaines semaines.
Exynos 2600 : Samsung pousserait son GPU Xclipse 960 vers une architecture dérivée RDNA4, avec 8 WGP, un pic à 980 MHz et un gros accent sur l’IA. Selon The Elec, ce saut s’appuie sur MGFX4, une adaptation maison des blocs AMD pour mobile.
Exynos 2600 Xclipse 960 : dérivé RDNA4, 2x en compute et RT +50 %
D’après The Elec, le GPU Xclipse 960 de l’Exynos 2600 reposerait sur « MGFX4 », évolution des IP graphiques AMD destinée aux AP mobiles. Le précédent Exynos 2500 embarquait un Xclipse 950 en MGFX3, lié à RDNA3. Précision importante : AMD n’a pas déployé RDNA4 en mobile ni en iGPU grand public, et les APU Zen6 semblent viser RDNA5. Il semblerait donc que « RDNA4 » signifie ici une base RDNA3 enrichie de fonctionnalités RDNA4, à la manière des intégrations sur mesure déjà vues chez Sony.
Sur sa page produit, Samsung annonce une « nouvelle architecture » pour le Xclipse 960, avec jusqu’à 2x de performances en calcul par rapport à la génération précédente. Le débit de ray tracing progresserait jusqu’à +50 %, et la puce ajoute Exynos Neural Super Sampling (ENSS) pour l’upscaling IA et la génération d’images. Un Samsung official indique à The Elec que la collaboration avec AMD se poursuit, rappelant que « le développement GPU comporte de nombreuses variables ».
Côté implémentation, The Elec évoque 8 workgroup processors (WGP) et une fréquence de pointe à 980 MHz. On reste sur le même décompte de WGP que le Xclipse 950, mais avec un léger recul face aux 999 MHz antérieurs, signe probable d’un gain d’IPC plutôt que d’une hausse de fréquence.
Benchmarks préliminaires et contexte face à Adreno 840
Selon des résultats Geekbench 6 cités pour une carte de test Exynos 2600, le GPU atteindrait environ 22 000 points en OpenCL et 22 800 en Vulkan. Le Qualcomm Adreno 840 se situerait autour de 23 900 et 27 600, soit un avantage de 10 % à 20 % sur ces mesures. À nuancer : les performances finales dépendront du design des appareils et de la tenue thermique.
Samsung et AMD collaborent depuis 2019. Le premier GPU issu de ce partenariat, le Xclipse 920, a été commercialisé avec l’Exynos 2200 en janvier 2022. The Elec rapporte que Samsung entend poursuivre ce travail commun, sans écarter l’existence de nombreuses inconnues pour ses plans GPU internes.
Clair Obscur: Expedition 33 triomphe en conquérant les joueurs et en dominant les classements annuels, comme celui de TheGamer. Ce JRPG moderne puise manifestement dans l’héritage des titres japonais iconiques, avec une influence notable de la saga Final Fantasy. Les admirateurs du jeu de Sandfall Interactive se tournent ainsi vers ces classiques pour prolonger l’expérience. Parmi eux, Final ... Lire plus
Bon, vous avez tous vu passer
cette histoire
des documents Epstein mal censurés, j'imagine ?
En effet, des journalistes ont réussi à récupérer une bonne partie des informations censées être masquées dans les fichiers judiciaires... ça peut impressionner mais n'allez pas croire que ce soit quelque chose de compliqué et ces techniques sont à la portée de n'importe qui.
C'est pourquoi aujourd'hui, j'vais pas vous parler du scandale (y'a assez de monde dessus), mais des techniques pour récupérer ce qui se cache derrière ces fameux rectangles noirs. Du pur OSINT appliqué au forensique documentaire.
Commençons par le plus basique et pourtant le plus courant : le bon vieux copier-coller. Ouais, je sais, ça paraît con dit comme ça, mais vous seriez surpris du nombre de documents "confidentiels" qui sont censurés en posant simplement un rectangle noir par-dessus le texte dans Word ou Adobe Acrobat. Le texte original pourtant est encore là, bien au chaud sous cette couche graphique. Il suffit donc de sélectionner la zone, un petit Ctrl+C, et hop, on colle dans un éditeur de texte. Boom, le texte "caché" apparaît en clair.
C'est d'ailleurs exactement ce qui s'est passé avec des documents du Pentagone en 2005, et plus récemment avec des fichiers judiciaires américains. Bizarrement, les gens confondent "masquer visuellement" et "supprimer", alors que c'est pas du tout la même chose ^^.
Pour vérifier si un PDF est vulnérable à cette technique, vous pouvez utiliser
pdftotext
(inclus dans poppler-utils sur Linux) :
pdftotext document_censure.pdf - | less
Si le texte sous les rectangles noirs apparaît, bingo. Vous pouvez aussi utiliser PyMuPDF en Python pour extraire le texte brut :
import fitz
doc = fitz.open("document.pdf")
for page in doc:
print(page.get_text())
Maintenant, passons aux documents scannés. Là c'est plus subtil parce que techniquement, y'a pas de "texte" à copier, juste une image. Sauf que les scanners et les logiciels de numérisation ajoutent souvent une couche OCR invisible par-dessus l'image. Cette couche contient le texte reconnu automatiquement, et elle peut inclure ce qui a été censuré AVANT le scan si le masquage était mal fait.
Mais même sans couche OCR, y'a des trucs à tenter. Si la censure a été faite avec un marqueur physique (genre un Sharpie sur le document papier avant scan), il est parfois possible de jouer avec l'exposition et le contraste de l'image pour faire ressortir le texte en dessous. Les marqueurs noirs ne sont pas toujours 100% opaques, surtout sur du papier fin.
Avec GIMP ou Photoshop, vous pouvez don extraire les pages du PDF en images (pdftoppm ou convert) puis jouer avec les niveaux, courbes et exposition, inverser les couleurs ou encore appliquer des filtres de détection de contours
Ça marche pas à tous les coups, mais quand ça marche, c'est magique ^^.
Maintenant, la technique qui a fait des ravages c'est l'exploitation des sauvegardes incrémentales. Car vous ne le savez peut-être pas mais les fichiers PDF disposent d'un système de sauvegarde qui ajoute les modifications à la fin du fichier plutôt que de réécrire le document entier. Chaque "version" est ainsi séparée par un marqueur %%EOF (End Of File).
Concrètement, si quelqu'un ouvre un PDF, ajoute des rectangles noirs de masquage, puis sauvegarde, l'ancienne version du document est souvent toujours là, juste avant le dernier %%EOF. C'est comme un système de versioning intégré, sauf que personne n'y pense jamais.
Pour exploiter ça, il faut extraire la version originale (avant la dernière modification) comme ceci :
head -c [offset_avant_dernier_EOF] document.pdf > version_originale.pdf
L'outil
QPDF
permet aussi d'analyser la structure interne :
Et les métadonnées ?? Je vous en ai pas parlé encore mais un PDF c'est pas juste du contenu visible. C'est aussi une mine d'or d'informations cachées. Le nom de l'auteur, la date de création, le logiciel utilisé, l'historique des modifications, parfois même des commentaires ou des annotations invisibles.
Dans les documents judiciaires qui ont récemment fuité, les métadonnées ont révélé les noms des personnes qui avaient édité les fichiers, les dates exactes des modifications, et parfois des chemins de fichiers sur les serveurs internes... Oups.
Maintenant, la technique la plus vicieuse ça reste quand même l'analyse des positions de glyphes. En effet, des chercheurs ont publié un papier intitulé "
Story Beyond the Eye
" qui démontre qu'on peut parfois deviner le contenu masqué en analysant la largeur des zones masquées.
Le principe c'est que dans un PDF, chaque caractère a une largeur précise définie par sa police de caractère. Si vous savez quelle police est utilisée (et c'est souvent le cas, puisque les tribunaux américains adorent Times New Roman par exemple), vous pouvez calculer combien de caractères tiennent dans la zone noire. Et si vous avez du contexte (comme le début ou la fin d'une phrase), vous pouvez parfois deviner le mot exact.
Avec des polices à chasse fixe comme Courier, c'est encore plus facile puisque chaque caractère fait exactement la même largeur. Comptez alors les pixels, divisez par la largeur d'un caractère, vous avez le nombre de lettres.
Un outil qui facilite tout ça c'est
X-Ray
, développé par le Free Law Project qui est capable d'analyser les PDF et de détecter automatiquement les censures défectueuses.
Autre outil sympa que je vous conseille, c'est
unredactor
, qui tente de reconstruire automatiquement le texte sous les blocs de masquage en utilisant diverses heuristiques.
Ça c'est pour les PDF, mais pour les images PNG ou les captures d'écran censurées, y'a aussi des trucs à faire. Leurs métadonnées EXIF peuvent contenir des informations sur l'appareil, la géolocalisation, la date, mais surtout, si l'image a été éditée avec certains logiciels, des données résiduelles peuvent trainer.
La technique du "thumbnail" est par exemple particulièrement fourbe puisque certains logiciels génèrent une miniature de l'image AVANT les modifications et l'embarquent dans les métadonnées. Donc vous ouvrez la miniature, et vous voyez l'image originale non censurée. C'est arrivé plusieurs fois dans des affaires judiciaires. Voici comment l'extraire avec Exiftool :
Pour les professionnels du forensique, y'a aussi la technique de l'analyse des données compressées. Comme les algorithmes JPEG et PNG ne sont pas parfaits, les zones éditées ont parfois des artefacts de compression différents du reste de l'image. Cela peut révéler où des modifications ont été faites.
Bon et maintenant que vous savez comment récupérer des infos censurées, parlons maintenant de comment BIEN censurer un document, histoire de pas vous planter.
En fait, la seule méthode vraiment sûre c'est de supprimer définitivement le contenu. Je répète : Ne masquez pas le contenu, supprimez le !
Adobe Acrobat Pro a par exemple une fonction "Redact" qui fait ça correctement car cette fonction supprime réellement le texte et les métadonnées associées.
Alternativement, vous pouvez aussi exporter le document en PDF (ça aplatit toutes les couches), utiliser des outils comme pdf-redact-tools qui suppriment vraiment le contenu, et le convertir en image puis le reconvertir en PDF (bourrin mais efficace)
Et SURTOUT, vérifiez toujours le résultat avec les techniques mentionnées plus haut avant de diffuser quoi que ce soit.
Voilà, vous avez maintenant un petit arsenal de techniques OSINT pour analyser des documents "confidentiels". Bien sûr, comme d'hab, utilisez ces connaissances de manière responsable et éthique car une fois encore, le but c'est de comprendre les failles pour mieux se protéger, et pas de violer la vie privée des gens.
Voilà... Et la prochaine fois que vous verrez un document officiel avec des gros rectangles noirs, vous saurez que c'est peut-être pas aussi opaque que ça en a l'air. Niark niark...
Une affection oculaire rare, nommée cataractes en arbre de Noël, produit un scintillement polychrome dans le cristallin, évoquant les guirlandes festives. Ces cristaux multicolores, visibles sous l’éclairage focal des ophtalmologistes, surprennent par leur beauté saisissante. Liée au vieillissement, elle résulte d’un excès de cystine favorisé par le calcium. Bien que généralement inoffensive pour la vision, elle ... Lire plus
Les spécialistes de la psychologie positive conseillent souvent des exercices structurés pour booster le bien-être, comme tenir un journal de gratitude ou accomplir des actes de gentillesse. Pourtant, une enquête récente révèle qu’ils appliquent rarement ces pratiques au quotidien. Leur secret réside dans un état d’esprit flexible, baptisé meliotropic wellbeing mindset, qui intègre naturellement le bonheur ... Lire plus
Intel déployait cet été dans les pilotes Intel Graphics Software la nouvelle fonction Shared GPU Memory Override pour les CPU Core Ultra Series. En cette fin d'année 2025, c'est désormais aux drivers Arc Pro Graphics d'en bénéficier via la mise à jour 101.8306 aussi appelée Q4.25.
Pour rappel, le...
Les rumeurs autour de la prochaine génération de GPU Radeon RDNA5 se sont accélérées ces derniers jours, évoquant un possible basculement de la production vers Samsung Foundry en 2 nm ou 4 nm. Une hypothèse rapidement réfutée par plusieurs leakers bien connus du secteur, à commencer par Kepler_L2, qui parle sans détour de « non-sens ». Selon lui, les puces RDNA5 seraient déjà « taped out » en N3P chez TSMC, avec une fenêtre de lancement désormais repoussée au milieu de l’année 2027.
Samsung Foundry écarté, TSMC N3P privilégié
À l’origine de la rumeur, une interprétation large de discussions industrielles suggérant qu’AMD pourrait confier certaines puces avancées à Samsung Electronics Foundry, en 2 nm ou en 4 nm. Une perspective jugée peu crédible pour les GPU haut de gamme par plusieurs observateurs. Kepler_L2 affirme au contraire que les GPU RDNA5 sont déjà engagés sur le procédé N3P de TSMC, une étape incompatible avec un changement de fondeur à ce stade.
Cette lecture est partagée par d’autres intervenants, qui rappellent qu’un « tape-out » verrouille une grande partie des choix technologiques, en particulier le nœud de gravure. En clair, si RDNA5 est bien déjà passé par cette étape en N3P, un détour par Samsung Foundry relèverait davantage de la spéculation que d’une réalité industrielle.
Un calendrier qui glisse vers mi-2027
Interrogé sur le timing, Kepler_L2 évoque désormais une sortie au milieu de l’année 2027. Un délai cohérent avec un tape-out récent sur un procédé aussi avancé que le N3P, et surtout avec le silence prolongé d’AMD sur sa feuille de route Radeon.
Contrairement à la gamme EPYC, où AMD communique plusieurs générations à l’avance et a déjà confirmé des premiers wafers en 2 nm, la division GPU gaming reste extrêmement discrète. Les documents publics parlent de « GPU de nouvelle génération » orientés IA et ray tracing, sans jamais mentionner explicitement RDNA5 ni avancer de calendrier précis.
Ce contraste alimente l’idée que Radeon n’est pas pressé. Un lancement en 2026 aurait impliqué une montée en volume dans un contexte de tensions sur la mémoire et de coûts de production élevés, un scénario qui a déjà posé problème à AMD par le passé.
Ces briques technologiques sont généralement perçues comme transversales, destinées à irriguer à la fois les GPU desktop et les futurs SoC console. L’hypothèse dominante reste donc celle d’une convergence partielle entre RDNA5 côté PC et la prochaine génération de consoles, ce qui renforcerait encore l’idée d’un calendrier étalé.
GFX13, dies ATx et HDMI 2.2 : un terrain dominé par les fuites
Faute de communication officielle, les discussions autour de RDNA5 restent largement alimentées par les leakers. Le nom de famille interne « GFX13 » revient régulièrement, accompagné de plusieurs dies supposés, identifiés comme AT0, AT2, AT3 et AT4. Les fuites évoquent des configurations de Compute Units et de sous-systèmes mémoire variables, sans qu’aucune fiche technique crédible n’ait encore émergé.
Le support du HDMI 2.2 est également cité à plusieurs reprises, mais là encore, rien ne permet de distinguer ce qui relève de la feuille de route réelle et ce qui tient de l’anticipation. AMD a d’ailleurs montré sa prudence récemment en retirant toute mention de RDNA4 de sa présentation CES 2025, laissant peu d’espoir d’annonces concrètes sur RDNA5 au CES 2026.
Un silence qui en dit long
Pris dans son ensemble, ce silence prolongé pourrait simplement traduire un objectif clair : viser mi-2027 plutôt que forcer un lancement en 2026 sous contraintes. Entre la montée en puissance des charges IA, la complexité croissante du ray tracing et les réalités économiques du moment, AMD semble privilégier le temps long.
Si l’on en croit ces éléments, RDNA5 serait moins une réponse immédiate à la concurrence qu’une génération pensée pour durer, quitte à laisser le terrain médiatique aux rumeurs pendant encore de longs mois. Une stratégie qui n’a rien d’inhabituel pour AMD, mais qui confirme que la prochaine grande étape Radeon ne se jouera pas avant plusieurs trimestres.