Si vous utilisez MongoDB, accrochez-vous bien parce que là, c'est du lourd. Une faille critique baptisée MongoBLEED vient den effet 'être découverte et elle touche à peu près toutes les versions de MongoDB sorties depuis 2017. Sept ans de versions vulnérables, c'est un chouette record, je trouve ^^.
Le problème avec cette CVE-2025-14847, c'est qu'elle exploite la compression zlib des messages. En gros, quand un attaquant envoie un message compressé mal formé avec des paramètres de longueur trafiqués, MongoDB se met à recracher des bouts de sa mémoire heap sans broncher. Et dans cette mémoire, on peut trouver des trucs sympa genre des mots de passe, des tokens d'authentification, des clés de chiffrement... Bref, le jackpot pour un attaquant.
Le pire dans tout ça c'est que y'a pas besoin d'être authentifié pour exploiter la faille. Si votre instance MongoDB est accessible depuis le réseau, n'importe qui peut s'y connecter et commencer à siphonner votre mémoire. C'est exactement le même genre de cauchemar que
Heartbleed
en 2014, d'où le petit surnom affectueux.
Du coup, qui est concerné ?
Hé bien à peu près tout le monde... Les versions 3.6.0 jusqu'à 8.0.16 sont touchées, ce qui représente selon les chercheurs de
Wiz
environ 42% des environnements cloud. Il y aurait donc plus de 87 000 instances MongoDB exposées sur Internet et le problème, c'est que depuis le 26 décembre 2025, des exploitations actives ont été détectées dans la nature. Joyeux Noël !!
La bonne nouvelle, c'est que le fix est simple. Soit vous mettez à jour vers une version patchée (8.2.3+, 8.0.17+, 7.0.28+, 6.0.27+, 5.0.32+ ou 4.4.30+), soit vous désactivez la compression zlib en attendant. Pour ça, c'est dans la config réseau de MongoDB, paramètre compressors qu'il faut virer le zlib.
Pour vérifier si vous êtes vulnérable, un petit nmap sur le port 27017 avec le script mongodb-info vous dira quelle version tourne. Vous pouvez aussi regarder les logs réseau pour détecter des connexions suspectes avec des messages compressés anormalement petits suivis de réponses anormalement grandes. C'est le signe qu'un petit malin est en train de vous pomper la mémoire.
Bref, si vous avez du MongoDB qui traîne quelque part, c'est le moment de faire un petit tour dans vos infras. Parce que là, c'est quand même d'une faille qui permet à n'importe qui d'aspirer vos données sensibles sans même avoir besoin d'un mot de passe.
Ubisoft en a fait les frais et ça pique !
Vous aussi vous avez un dossier « Notes » qui ressemble à un cimetière d'idées ? Des fichiers texte avec des noms genre « truc_important.txt » ou « a_voir_plus_tard.md » que vous n'avez jamais revus depuis 2019 ? Hé bien j'ai ce qu'il vous faut pour enfin donner un sens à tout ce bordel !
Blinko
c'est une app de prise de notes qui utilise l'IA pour vous aider à retrouver ce que vous avez noté, même quand vous avez complètement oublié les mots exacts que vous aviez utilisés. Le principe c'est du RAG (Retrieval-Augmented Generation), c'est-à-dire que l'IA va fouiller dans toutes vos notes et vous ressortir les infos pertinentes quand vous posez une question. Genre « c'était quoi ce truc que j'avais noté sur les serveurs NAS ? » et hop, l'IA vous retrouve tout.
Et le truc cool c'est que ça tourne 100% en local sur votre serveur. Pas de cloud américain de Donald, pas de données qui se baladent chez les affreux OpenAI ou Google... vos notes restent bien au chaud chez vous. Pour ceux qui comme moi sont un peu paranos avec leurs données perso, c'est exactement ce qu'il nous faut les amis !
L'interface est super clean avec deux modes de saisie. Y'a d'abord le mode « Blinko » pour les notes éphémères qui s'archivent automatiquement au bout d'un moment, genre une idée qui vous passe par la tête ou un truc à faire. Et y'a le mode « Note » pour les contenus permanents que vous voulez garder sur le long terme, avec du Markdown, des images, et tout ça. Du coup vous pouvez aussi bien capturer une pensée qui vous traverse que rédiger un article entier.
Côté installation, c'est du Docker avec un script qui fait tout pour vous. Une ligne de commande et c'est parti :
Le script va alors vous configurer tout le bazar avec PostgreSQL derrière (obligatoire pour la base de données). Y'a aussi Docker Compose si vous préférez personnaliser, tout est documenté sur le repo.
Une fois lancé, vous accédez à l'interface sur le port 1111 et vous pouvez commencer à balancer vos notes. Y'a même une démo en ligne sur
demo.blinko.space
(test / test) si vous voulez tester avant de vous lancer.
Le projet est open source sous licence GPL-3.0, c'est codé en TypeScript avec Next.js et comme je vous le disais, PostgreSQL derrière, donc c'est du solide. Et y'a même des apps natives pour macOS, Windows, Android et même Linux via Tauri si vous voulez un truc plus intégré que le web.
Bref, si vous cherchez une solution de prise de notes self-hosted avec de l'IA intégrée pour enfin retrouver ce que vous avez noté il y a 3 ans, Blinko c'est le top du top !
Vous avez déjà fait transcrire une interview ou un podcast par un service en ligne ? Vous savez, ces trucs qui vous demandent de créer un compte, de filer votre carte bleue, et d'accepter que vos fichiers audio soient envoyés sur des serveurs quelque part dans le cloud américain pour être analysés par des IA qu'on ne connaît pas. Le tout pour 100 balles par an si vous avez de la chance, et beaucoup plus si vous dépassez le quota ridicule de 20 heures par mois...
Hé bien y'a une alternative qui va vous plaire :
Scriberr
! C'est une app de transcription audio complètement open source et surtout, qui tourne 100% en local sur votre machine. Pas de cloud, pas de données qui se baladent, pas d'abonnement mais juste vous, avec votre serveur (ou votre laptop si vous avez un GPU correct), et vos fichiers audio qui restent bien au chaud chez vous.
Scriberr utilise des modèles de reconnaissance vocale de pointe comme NVIDIA Parakeet, Canary ou les fameux modèles Whisper. Du coup la qualité de transcription est vraiment au niveau des services payants, voire meilleure sur certains accents ou langues moins courantes. Et cerise sur le gâteau, vous avez l'alignement temporel au niveau du mot, ce qui veut dire que vous pouvez savoir exactement à quelle seconde chaque mot a été prononcé.
Mais le truc qui m'a vraiment tapé dans l’œil avec cet outil, c'est la détection automatique des locuteurs. Vous savez, cette fonctionnalité qu'on appelle "diarization" dans le jargon et qui permet d'identifier qui dit quoi dans une conversation. Comme ça, fini les transcriptions où tout le monde parle mais on ne sait pas qui c'est. Là, Scriberr vous découpe tout proprement avec des étiquettes pour chaque intervenant.
Et comme si ça suffisait pas, y'a aussi l'intégration avec Ollama ou n'importe quelle API compatible OpenAI. Du coup vous pouvez non seulement transcrire vos enregistrements, mais aussi leur poser des questions, générer des résumés, ou carrément avoir une conversation avec le contenu de vos transcriptions. Genre vous demandez "c'est quoi les points clés de cette réunion ?" et hop, l'IA vous fait un résumé. Pratique pour les feignasses comme moi qui détestent se retaper 2 heures de réunion pour retrouver une info.
Côté installation, c'est du Docker classique ou alors Homebrew si vous êtes sur Mac. Un petit
`brew tap rishikanthc/scriberr && brew install scriberr`
et c'est parti mon kiki. Pour Docker, y'a des images pour CPU et GPU (CUDA), et ça supporte toutes les générations de cartes NVIDIA depuis les GTX 1000 jusqu'aux RTX 50 series toutes récentes.
Le premier lancement peut prendre quelques minutes parce que ça télécharge les modèles de reconnaissance vocale, mais une fois que c'est fait, les relances suivantes sont quasi instantanées. Y'a même un Folder Watcher qui surveille un dossier et transcrit automatiquement tout ce qui arrive dedans, parfait si vous voulez brancher ça sur un workflow automatisé avec n8n ou autre.
Bref, si vous êtes podcaster, journaliste, chercheur, ou juste quelqu'un qui a régulièrement besoin de transcrire des trucs sans vouloir filer ses données à Google ou payer un abonnement, Scriberr c'est exactement ce qu'il vous faut. C'est du self-hosting comme on l'aime, c'est à dire open source, respectueux de la vie privée, et qui fait le taf sans chichi.
Vous utilisez Word pour bosser et j’imagine que vous avez vu passer le fameux Copilot de Microsoft à 30 balles par mois pour les pros ? Ouais, ça pique un peu le porte-monnaie surtout quand on a déjà nos propres clés API OpenAI ou Gemini qui traînent et sur lesquelles on claque un smic tous les mois.
Hé bien Word GPT Plus c'est justement un add-in open source qui intègre l'IA directement dans Microsoft Word, et qui vous permet d'utiliser vos propres clés API au lieu de payer un énième abonnement. Avec ça, vous pouvez générer du texte, traduire, résumer, reformuler... le tout sans quitter votre document.
Mais le truc vraiment cool, c'est le mode Agent. Là, l'IA a accès à plein d'outils qui lui permettent de manipuler directement votre document Word. Genre insérer du texte, formater des paragraphes, créer des tableaux, gérer les signets, faire des rechercher-remplacer... Vous lui dites "formate tous les titres de section en Heading 2" et hop, c'est fait. C'est pas juste un chatbot dans une sidebar, c'est carrément un assistant qui peut agir sur votre document.
Côté fournisseurs IA, vous avez le choix entre OpenAI (GPT-4, GPT-3.5, et même les modèles compatibles comme DeepSeek), Azure OpenAI si vous êtes en entreprise, Google Gemini, Groq pour les modèles Llama et Qwen, et même Ollama si vous voulez faire tourner vos LLM en local sans envoyer vos données quelque part. Et ça, c'est top pour ceux qui bossent sur des documents confidentiels.
Y'a aussi des Quick Actions bien pratiques genre traduction en plus de 40 langues, amélioration de texte, réécriture académique, résumé automatique, correction grammaticale... Bref, les classiques mais directement accessibles dans Word.
Pour l'installer, c'est hyper simple. Vous téléchargez le fichier manifest.xml depuis le repo GitHub, vous le mettez dans un dossier partagé sur votre machine, et vous l'ajoutez dans Word via Insertion > Mes compléments > Dossier partagé. Pas besoin de coder quoi que ce soit. Y'a aussi une option Docker pour ceux qui veulent l'héberger eux-mêmes ou le déployer sur un serveur.
Niveau vie privée, vos clés API et vos prompts perso sont stockés localement dans le navigateur intégré à l'add-in Word. Y'a pas de serveur intermédiaire qui récupère vos données, sauf si vous configurez vous-même un proxy. Vos documents restent ainsi bien au chaud chez vous.
Par contre, faut Word 2016 minimum, Word 2019, 2021 ou Microsoft 365 sur Windows. Et ça marche uniquement avec les fichiers .docx.
Bref, si vous voulez avoir ChatGPT ou Gemini directement dans Word sans vous ruiner avec un abonnement Copilot, c'est exactement ce qu'il vous faut. Et comme c'est open source sous licence MIT, vous pouvez auditer le code si vous êtes du genre méfiant.
Vous jouez à Rainbow Six Siege ? Hé bien félicitations, vous êtes maintenant virtuellement millionnaire ! Enfin... l'étiez, parce que tout ça va être annulé.
Rainbow Six Siege X, le jeu d'Ubisoft victime d'un hack massif
Ce week-end, Ubisoft s'est fait pirater comme des jambons et pas qu'un peu. Des hackers ont réussi à distribuer 2 milliards de R6 Credits à TOUS les joueurs du jeu. Au tarif Ubisoft (15 000 crédits pour 99,99 dollars), ça représente environ 13,33 millions de dollars de monnaie virtuelle offerte gracieusement. Sympa les pirates ^^
Mais attendez, c'est pas tout ! Les attaquants ont également débloqué absolument tous les cosmétiques du jeu pour tout le monde, y compris les skins réservés aux développeurs que personne n'était censé avoir. Et pour couronner le tout, ils se sont amusés avec le système de bannissement du jeu. Résultat, des milliers de joueurs se sont retrouvés bannis puis débannis au hasard, pendant que le fil d'actualité des bans affichait des messages satiriques visant Ubisoft et ses dirigeants.
Les messages de ban détournés par les hackers formaient des phrases trop "golri", arf arf... (
Source
)
Du coup, le streamer KingGeorge a immédiatement lancé l'alerte : "Ne vous connectez pas au jeu, ne dépensez pas de Renown, ne dépensez pas de Rainbow Credits". Sage conseil, parce que par le passé, Ubisoft a déjà banni des joueurs pour leurs propres erreurs. Pas cool.
Peu après le début du bordel, Ubisoft a donc coupé les serveurs et la marketplace pour tenter de contenir les dégâts. Les serveurs de Rainbow Six Siege sont toujours hors ligne au moment où j'écris ces lignes, sans ETA de retour. La bonne nouvelle, c'est qu'Ubisoft a confirmé qu'aucun joueur ne sera banni pour avoir dépensé les crédits reçus pendant l'incident, et qu'un rollback de toutes les transactions depuis 11h UTC est en cours.
Maintenant, le truc vraiment chaud c'est la méthode utilisée car selon le groupe de recherche en sécurité VX-Underground, plusieurs groupes de hackers auraient exploité Ubisoft en même temps. L'un d'eux aurait utilisé une faille MongoDB récemment découverte, baptisée MongoBleed (CVE-2025-14847). Cette vulnérabilité permet à n'importe qui de siphonner la mémoire des serveurs MongoDB exposés, récupérant au passage des credentials, des tokens d'authentification et des clés. Un PoC public circule depuis le 26 décembre et environ 87 000 instances MongoDB seraient vulnérables dans le monde (mettez à jour, hein !!).
Un autre groupe prétend avoir aussi utilisé cette faille pour se balader dans les dépôts Git internes d'Ubisoft et voler des archives de code source remontant jusqu'aux années 90. Ces affirmations restent non vérifiées pour l'instant, mais si c'est vrai, c'est du lourd...
Bref, si vous avez un compte Ubisoft, je vous conseille vivement de changer votre mot de passe et de retirer vos moyens de paiement enregistrés, au cas où. Et pour Rainbow Six Siege, patience, ça va revenir... probablement avec un rollback qui effacera tous ces beaux cadeaux empoisonnés.
En tête du marché des moniteurs OLEDavec 21,9 % de parts, ASUS ne compte pas ralentir la cadence. Le constructeur multiplie les teasers et vient de dévoiler sur X une nouvelle vidéo préparant le terrain pour un futur écran ROG OLED en 2026.
L’accent est mis sur une promesse claire : un affichage « zero fringing ». ASUS évoque explicitement l’adoption d’une structure de sous-pixels RGB stripe, dite linéaire, en opposition aux matrices Pentile encore largement utilisées sur les dalles OLED actuelles.
ASUS ROG OLED : le pari du RGB stripe au CES 2026
Le message diffusé par ASUS est sans ambiguïté sur l’intention : réduire les phénomènes de color fringing, ces franges colorées visibles autour des caractères et des éléments fins, particulièrement perceptibles en usage bureautique sur des écrans OLED Pentile. Cette communication s’inscrit dans le sillage des annonces récentes de LG Display, qui met en avant des dalles OLED PC reposant sur une véritable structure RGB stripe, réputée pour une meilleure restitution du texte.
LG Display a notamment évoqué une dalle 27 pouces 4K (3840 × 2160) à 240 Hz, conservant une organisation RGB linéaire des sous-pixels, tout en intégrant une fonction de Dynamic Frequency and Resolution (DFR). Ce mode permettrait de basculer entre un affichage UHD à 240 Hz et un mode FHD à 480 Hz, afin de privilégier soit la finesse d’image, soit la fréquence de rafraîchissement. Sur ce format, la densité annoncée atteint environ 160 pixels par pouce, un seuil élevé pour un écran OLED destiné à un usage PC rapproché.
À ce stade, ASUS ne communique ni référence produit, ni diagonale exacte, ni fiche technique détaillée. Toutefois, la proximité des éléments de langage laisse supposer que le constructeur pourrait s’appuyer sur un panneau aux caractéristiques proches de celles présentées par LG Display lors du prochain CES.
RGB stripe : un levier clé pour la lisibilité sur OLED PC
Selon LG Display, la structure RGB stripe améliore la netteté perçue du texte et limite les artefacts colorés, notamment dans les environnements Windows et les usages bureautiques prolongés. ASUS ROG reprend cette promesse avec l’expression « zero fringing », qu’il conviendra néanmoins de vérifier en conditions réelles, en l’absence de données techniques officielles et de mesures indépendantes.
La convergence des discours entre fabricant de dalles et marque gaming suggère toutefois une orientation claire du marché : proposer des écrans OLED PC plus polyvalents, capables de concilier haute définition, fréquences de rafraîchissement extrêmes et confort visuel sur le long terme.
Le CES 2026 se tiendra du 6 au 9 janvier à Las Vegas, et ASUS ROG a déjà confirmé une présence axée sur l’affichage, avec un espace presse dédié. C’est à cette occasion que ce moniteur OLED RGB stripe devrait, sauf surprise, être officiellement dévoilé.
Vous connaissez l'histoire de la NES ? Celle du petit robot R.O.B. qui a aidé à ressusciter l'industrie du jeu vidéo américaine en 1985 ? Hé bien la
Video Game History Foundation
vient de sortir un documentaire d'une heure qui raconte tout ce qu'on ne vous a jamais dit sur le lancement de cette console mythique. Et dedans, y'a des révélations qui font mal ^^.
Frank Cifaldi, le fondateur de la VGHF, a passé des années à fouiller cette histoire. Il a rencontré des gens qui étaient chez Nintendo à l'époque, il a déterré des documents que personne n'avait jamais vus, il a même manipulé des prototypes qui n'auraient jamais dû survivre. Et le résultat, c'est cette plongée incroyable dans les coulisses d'un des plus grands paris de l'histoire du gaming.
Alors remontons au printemps 1983... Nintendo négocie avec Atari, le géant de l'époque, pour leur refiler les droits de distribuer la Famicom dans le monde entier. Hé oui, en interne, Atari avait même donné un nom de code au projet : "3600". L'idée, c'était d'intégrer la technologie Nintendo dans un boîtier plastique Atari existant. Le deal était quasiment signé, et les deux boîtes s'étaient mises d'accord sur tout : Nintendo fabriquerait les composants, Atari les revendrait sous sa marque. Ils avaient même commencé à convertir des jeux arcade (Millipede, Joust et Stargate) pour le système.
Et puis tout s'est cassé la gueule au CES de 1983. Atari a vu Coleco montrer un prototype de Donkey Kong sur leur ordinateur Adam, et ils ont pété un câble. Ils pensaient que Nintendo les avait doublés en refilant les droits à un concurrent. En réalité, c'était juste un malentendu sur les licences
ColecoVision
, mais le mal était fait. Le président de Nintendo, Hiroshi Yamauchi, a tellement gueulé sur les représentants de Coleco sur le salon que tout le monde s'en souvient encore.
Ça a contribué à torpiller les négociations, et dans le contexte des turbulences internes chez Atari, le deal n'a jamais abouti. Atari, qui évaluait également le système MARIA de GCC en parallèle, s'est finalement concentré sur ce qui deviendra l'Atari 7800. Et Nintendo s'est retrouvé tout seul, obligé de se débrouiller.
Et c'est là que ça devient vraiment intéressant parce que Nintendo of America, c'était une petite boîte de rien du tout à l'époque. Quelques dizaines d'employés dont le boulot principal consistait à importer des bornes d'arcade japonaises. Ils n'avaient aucune idée de comment vendre une console de salon aux États-Unis.
Alors ils ont fait appel à Lance Barr, un designer industriel, pour repenser complètement la Famicom. Et le mec a créé un design qui ressemblait plus à une chaîne hi-fi haut de gamme qu'à une console de jeux. Le prototype s'appelait l'AVS (Advanced Video System). C'était un truc tout en finesse avec des manettes sans fil, un clavier, un magnétophone à cassettes, et une esthétique empilable façon chaîne hi-fi. Les photos de l'époque sont magnifiques, on croirait du design scandinave ^^.
Le prototype AVS de Nintendo, avec son design hi-fi et ses manettes sans fil (
Source
)
Sauf que personne n'en voulait. Nintendo a fait des tests consommateurs, et les gamins (et leurs parents) trouvaient le concept de programmation barbant. Ils aimaient bien l'idée des manettes sans fil et de l'empilement des boitiers, mais coder / modifier soi-même ses propres jeux en Basic ? Grosse flemme...
En plus, le marché américain était en plein crash. Les magasins croulaient sous les invendus de jeux Atari bradés, et personne ne voulait entendre parler d'une nouvelle console. Tous les détaillants que Nintendo rencontrait leur disaient la même chose : le jeu vidéo, c'est mort, c'était une mode passagère, passez votre chemin (tiens ça me rappelle quelque chose plus actuel... lol).
Alors Nintendo a tout viré. Plus de manettes sans fil, plus de clavier, plus de magnétophone. Ils ont gardé uniquement le robot R.O.B. comme cheval de Troie. L'idée, c'était de faire croire aux magasins de jouets qu'ils vendaient un robot high-tech, et pas une console de jeux.
Et ça a marché, les amis !!
Une armée de R.O.B., le robot qui a permis à Nintendo d'infiltrer les magasins de jouets (
Source
)
Puis en octobre 1985, Nintendo a lancé la NES dans la région de New York avec une garantie de rachat pour les détaillants : si ça ne se vendait pas, ils reprenaient tout. L'équipe a bossé comme des dingues depuis un entrepôt minable du New Jersey, infesté de rats et de serpents. Il y a même eu un ouragan pendant le lancement. Du grand n'importe quoi.
Le présentoir NES chez FAO Schwarz en 1986 (
Source
)
Mais le plus fou dans cette histoire, c'est le fameux chip CIC, le "lockout chip" qui empêchait de jouer à des jeux non autorisés par Nintendo. Et devinez d'où venait cette idée ? D'Atari eux-mêmes ! Lors des négociations de 1983, quelqu'un chez Atari avait demandé à Nintendo s'ils pouvaient créer un système technique pour bloquer les cartouches non officielles. Atari se plaignait des jeux pourris que n'importe qui pouvait sortir sur leurs consoles, et ils voulaient reprendre le contrôle.
Nintendo n'avait pas de solution à l'époque, mais ils ont retenu l'idée. Et selon les dépositions du procès Atari vs. Nintendo, le président Yamauchi aurait lui-même reconnu qu'après avoir entendu ce qu'Atari avait dit, Nintendo avait conclu qu'un système de sécurité devait être développé pour vendre des consoles aux États-Unis.
En gros, Atari aurait suggéré le concept qui allait se retourner contre eux. C'est le chip qui les empêchera plus tard de publier librement des jeux sur NES, conçu par Nintendo suite à leur demande initiale. Ironique non ? Et ce système de contrôle est ensuite devenu le modèle pour toutes les consoles qui ont suivi. Aujourd'hui, on trouve normal qu'on ne puisse pas sortir un jeu PlayStation sans l'accord de Sony, mais avant la NES, n'importe qui pouvait fabriquer des cartouches pour n'importe quelle console.
La VGHF a aussi récupéré les jeux qu'Atari avait commandés à Nintendo en 1983. Trois d'entre eux (Millipede, Joust et Stargate) sont d'ailleurs finalement sortis en 1987 via le HAL Laboratory avec un copyright "Atari 1983" sur l'écran titre. Tant mieux, ça aurait été dommage de ne pas pouvoir y jouer...
Bref, si vous avez une heure devant vous pendant les fêtes, foncez regarder ce documentaire. C'est de la recherche historique de première main, pas du réchauffé de Wikipedia. Et si vous voulez aller plus loin, la VGHF a aussi mis en ligne
un panel avec trois anciens de Nintendo
qui ont vécu le lancement de 1985. Des témoignages de première main qu'on ne retrouvera probablement jamais ailleurs...
Régulièrement, depuis la création de l'App Store en 2008, nous publions une petite sélection des applications gratuites sur iPhone et iPad accompagnée de promos.
Marques de luxe, finitions de haute qualité, produits faits à la main, etc. Voici une sélection de coques pour iPhone conçues avec soin, car, qui dit smartphone haut de gamme dit protection haut de gamme.
La nouvelle mise à jour 1.61 de HWMonitor passe presque inaperçue au premier regard. Pourtant, derrière cette révision logicielle se cache un indice particulièrement intéressant sur les prochaines générations de processeurs.
En élargissant sa prise en charge matérielle, l’outil de CPUID offre un aperçu très concret de ce que préparent AMD et Intel pour les mois à venir, notamment à l’approche de la période charnière 2025–2026. Comme souvent, ce type de mise à jour agit comme un révélateur discret, mais fiable, des architectures encore à venir.
Une mise à jour qui en dit long sur les processeurs à venir
Avec cette version 1.61, HWMonitor prend désormais en charge plusieurs processeurs encore absents du marché. Côté Intel, on retrouve les futurs Arrow Lake Refresh »Core Ultra 200K Plus’‘, avec la prise en charge des Core Ultra 9 290K Plus, Core Ultra 7 270K Plus et Core Ultra 5 250K Plus. Une confirmation implicite qu’Intel prépare bien une itération intermédiaire de sa gamme Arrow Lake, probablement destinée à corriger certaines limites observées sur la première génération, notamment en matière de performances gaming et de latence interne.
Arrow Lake Refresh »Core Ultra 200K Plus »
Cette intégration anticipée n’est pas anodine. CPUID a pour habitude d’ajouter le support matériel plusieurs mois avant les annonces officielles, ce qui laisse entendre que ces processeurs sont déjà bien avancés sur le plan du microcode et des identifiants matériels.
AMD avance ses pions avec Zen 5 X3D… et prépare déjà Zen 6
Du côté d’AMD, la mise à jour est tout aussi révélatrice. HWMonitor prend désormais en charge le Ryzen 5 7500X3D, un modèle Zen 4 à cache 3D pensé pour démocratiser la technologie X3D à un tarif plus accessible que nous avons déjà analysé à sa sortie le mois dernier. Une stratégie claire pour prolonger la durée de vie de l’AM5 tout en maintenant l’attrait du gaming chez AMD.
Mais l’information la plus intéressante concerne l’apparition du Ryzen 7 9850X3D, basé cette fois sur Zen 5. Celui-ci afficherait une fréquence boost supérieure de 400 MHz par rapport au 9800X3D, et sa sortie serait programmée pour le CES 2026. Une évolution qui confirme la volonté d’AMD de conserver une longueur d’avance sur les performances en jeu, là où le cache 3D reste un avantage décisif.
À noter toutefois l’absence du Ryzen 9 9950X3D dans la liste actuelle, suggérant soit un calendrier encore évolutif, soit une intégration progressive au fil des mises à jour.
Medusa Point : Zen 6 se montre déjà en coulisses
Autre point notable : la présence du support préliminaire des processeurs mobiles Medusa Point, basés sur l’architecture Zen 6. Bien que leur lancement soit encore lointain, attendu courant 2026, leur apparition dans HWMonitor montre que les bases logicielles sont déjà en place.
Ces puces mobiles devraient inaugurer une nouvelle étape dans l’efficacité énergétique d’AMD, avec une architecture pensée dès le départ pour les usages hybrides, l’IA locale et les plateformes mobiles hautes performances. Leur ajout précoce dans les outils de monitoring va de pair avec leur intégration récente dans GCC 16, signe que l’écosystème logiciel se prépare activement.
Après les récentes fuites sur la microarchitecture Zen 6 et l’élargissement du cœur de calcul, cette prise en charge logicielle vient ajouter une pièce supplémentaire au puzzle. Sans annonce officielle, l’écosystème commence clairement à se préparer à l’arrivée de la prochaine génération de processeurs.
Avis de la rédaction
En apparence anodine, la mise à jour 1.61 de HWMonitor agit comme un véritable révélateur de feuille de route. En intégrant à l’avance Arrow Lake Refresh chez Intel, les Ryzen X3D récents et surtout les premières références Zen 6 mobiles, CPUID confirme que les fondations logicielles des CPU de 2025–2026 sont déjà solidement en place.
Entre le rafraîchissement d’Arrow Lake côté Intel, la montée en puissance continue des Ryzen X3D et l’arrivée progressive de Zen 6 chez AMD, le marché des processeurs entre dans une phase charnière. Desktop, mobile, gaming et IA locale convergent vers des architectures plus larges, mieux instrumentées et pensées pour durer. Sans communication officielle, l’écosystème logiciel parle déjà. Et il laisse peu de doute sur une chose : 2026 ne sera pas une année de transition, mais un vrai point d’inflexion pour les CPU x86.
L’ANTGAMER ANT275PQ MAX en ligne de mire : un écran capable de grimper à 1080 Hz, mais seulement en 720p. HKC détaille désormais un double mode qui oppose 1440p à 540 Hz et 720p à 1080 Hz.
ANTGAMER ANT275PQ MAX : 1080 Hz en 720p, 540 Hz en QHD
D’après HKC, le ANTGAMER ANT275PQ MAX sera présenté au CES 2026 sous la marque ANTGAMER. Dans les documents de presse, il est décrit comme un écran LCD esports QHD intégrant une fonction double mode. La fiche signale un 27 pouces IPS en 2560 x 1440 avec technologie HMO (High Mobility Oxide), et prise en charge DisplayPort 2.1 UHBR20 pour viser des fréquences très élevées en QHD sans compression lourde.
Ce modèle avait émergé en août comme un 540 Hz en QHD. La nouveauté, c’est cette bascule : choisir le 1080 Hz abaisse la définition à 720p. HKC parle du « double-mode » qui permet cette option. Le tarif en Chine était affiché autour de 980 dollars, soit environ 895 euros au taux du jour.
Entre record de fréquence et réalité e-sport
Techniquement, l’ensemble intrigue et interroge les usages. Comme le rappelle la source, « vous pouvez vous vanter d’avoir le panneau le plus rapide », mais il semblerait que la compétition en 720p reste marginale. Reste un argument clair : à 540 Hz en 1440p via DP 2.1 UHBR20, l’écran vise les joueurs qui privilégient le taux de rafraîchissement sans sacrifier la définition QHD.
Alors que nous commençons à peine à apprivoiser Zen 5, une fuite d’ampleur vient déjà lever le voile sur la suite. Un document technique officiel d’AMD, destiné aux développeurs, détaille l’architecture Zen 6 et esquisse une évolution majeure : un moteur de calcul élargi à 8 slots, capable de redistribuer beaucoup plus d’instructions par cycle. De quoi redéfinir le niveau de performance attendu sur PC dans les années à venir, possiblement dès 2026.
AMD Zen 6 se dévoile en coulisses : une microarchitecture taillée pour le calcul massif
Une documentation technique officielle destinée aux développeurs, récemment repérée, offre un premier aperçu détaillé de la future microarchitecture. Derrière un titre austère et sans la moindre mention commerciale se cache pourtant un changement profond dans la façon dont les cœurs Zen traiteront les instructions.
Le document, référencé comme AMD Family 1Ah Model 50h–57h Processor Performance Monitoring Counters, décrit de nouveaux compteurs de performance internes. Leur existence permet, en creux, de reconstituer l’organisation du cœur Zen 6 et d’identifier plusieurs évolutions majeures, à commencer par un élargissement significatif du front-end.
Un cœur Zen 6 plus large et plus agressif
Le dispatch passe à 8 slots
La révélation la plus marquante concerne l’étage de dispatch. Zen 6 adopte une unité de distribution à 8 slots, contre 6 sur les générations Zen actuelles. Concrètement, cela signifie que le processeur pourra envoyer davantage d’instructions par cycle vers les unités d’exécution. Ce type d’évolution n’est jamais anodin : il implique une refonte en profondeur du pipeline, des buffers internes et de la gestion des dépendances.
Un dispatch plus large permet d’augmenter le débit d’instructions en conditions idéales, mais surtout de mieux exploiter les ressources lorsque le code présente suffisamment de parallélisme. Cette évolution fait écho à la refonte de l’interconnexion interne Sea-of-Wires, pensée pour réduire la latence et améliorer l’efficacité globale.
Une meilleure exploitation du parallélisme interne
Avec 8 slots, Zen 6 se rapproche d’architectures historiquement plus agressives sur le plan du front-end. L’objectif n’est pas uniquement d’augmenter les performances maximales, mais aussi de réduire les phases de sous-utilisation des unités d’exécution. Moins de bulles dans le pipeline, c’est un meilleur rendement énergétique et un gain de performances plus régulier, y compris hors benchmarks synthétiques.
SMT toujours de la partie, mais mieux instrumenté
Le multithreading simultané est maintenu
La documentation confirme également que Zen 6 conserve le SMT. AMD continue donc de faire confiance à cette approche pour améliorer l’occupation des ressources et les performances en multitâche. Rien d’étonnant à cela, mais le point intéressant se situe ailleurs : dans la finesse de l’observation.
Les nouveaux compteurs exposés permettent de suivre avec précision la manière dont les threads se partagent les ressources internes. Attentes dans le pipeline, conflits d’accès, saturation de certaines unités : tout devient mesurable. Cela donne aux développeurs des outils précieux pour comprendre où se situent les véritables goulots d’étranglement et adapter leurs optimisations à une architecture plus large et plus complexe.
Zen 6 change de dimension côté calcul
Le support explicite des instructions 512 bits
Autre élément clé du document : la prise en charge d’instructions 512 bits. AMD renforce clairement les capacités vectorielles et en calcul flottant de Zen 6. Cette évolution aligne davantage l’architecture sur les besoins modernes en calcul scientifique, traitement multimédia et charges professionnelles intensives.
IA, chiffrement et charges spécialisées en ligne de mire
La présence d’instructions comme VNNI pour l’IA, ainsi que les extensions AES et SHA pour le chiffrement et le hashing, montre une orientation très nette. Zen 6 n’est pas seulement pensé pour le desktop grand public, mais pour des usages où le CPU reste central malgré la montée en puissance des accélérateurs dédiés.
Une vision encore incomplète, mais déjà très parlante
À ce stade, aucun nom commercial, aucun calendrier et aucun benchmark ne figurent dans la documentation. Impossible donc de savoir quand Zen 6 arrivera sur le marché ou comment il sera décliné entre desktop, mobile et serveur. En revanche, les premières indications côté plateforme AM5 se veulent rassurantes.
Une évolution majeure dans la philosophie Zen
Avec Zen 6, AMD semble préparer un véritable changement de rythme. Front-end élargi, calcul vectoriel renforcé, instrumentation plus fine du SMT : tout indique une architecture pensée pour durer et pour encaisser les charges de travail des prochaines années, notamment dans l’IA et le calcul intensif.
Ce premier aperçu ne dit pas tout, mais il suffit déjà à comprendre une chose : Zen 6 ne sera pas une simple itération. C’est une montée en gamme structurelle, et probablement l’une des évolutions les plus ambitieuses de l’architecture Zen depuis ses débuts.
DDR5 RDIMM en très haute capacité, mais à prix qui fait grimacer : NEMIX liste un kit 4 To à 70 800 dollars, soit environ 65 000 € au cours actuel. Un tarif de l’ordre de 17,3 dollars par Go, bien au-dessus des quelque 10 dollars/Go de la DRAM grand public.
DDR5 RDIMM 4 To : 16×256 Go, 6400 MT/s, CAS 52
Le kit réunit 16 barrettes de 256 Go au format ECC RDIMM, cadencées à 6400 MT/s avec une latence CAS de 52. NEMIX, fournisseur américain travaillant avec de grands groupes et des agences gouvernementales, cible sans détour les hyperscalers et stations de travail au budget musclé. Contexte aggravant : la pénurie de DRAM gonfle les prix, et ces modules embarquent des technologies que l’on ne trouve pas sur de la DDR5 standard.
ADATA 8400 MRDIMM DDR5 Memory
Au-delà de l’ECC sur puce propre à la DDR5, ces RDIMM intègrent des circuits d’erreur dédiés hors-die, nécessaires pour une correction complète en environnement critique. La configuration 4Rx4 vise la régularité des performances, l’ensemble fonctionne à 1,1 V et profite du buffering enregistré avec ECC intégré. D’après la fiche, c’est précisément ce surcoût de silicium et de fonctions qui justifie un prix quasi doublé par rapport aux DIMM classiques. Comme le résume la source : « ces modules montrent pourquoi leur prix est bien plus élevé que les DIMM traditionnels », souligne TechPowerUp.
DDR5 RDIMM pour IA, bases en mémoire et virtualisation
Le positionnement ne laisse guère de doute : IA à grande échelle, bases de données in-memory en téraoctets, clusters de virtualisation hébergeant des centaines de conteneurs. Selon NEMIX, ce type de kit s’adresse aux environnements « mission-critical » où densité mémoire et intégrité des données priment. Les hyperscalers obtiendront probablement des remises volumes, et dans un déploiement massif, 70 800 dollars ne représentent qu’une fraction du coût d’infrastructure.
Comme si fondre n’était déjà pas assez problématique, le 12VHPWR semble désormais vouloir passer à l’étape supérieure. Odeur suspecte, puis flammes au connecteur : un propriétaire de RTX 5090 affirme que son câble 12VHPWR ne s’est pas contenté de chauffer, mais a littéralement pris feu. Le témoignage, publié sur Reddit, évoque une utilisation d’environ neuf mois avant l’incident, ajoutant une nouvelle couche d’inquiétude à un connecteur déjà largement surveillé par la communauté hardware.
Spoiler : l’alimentation en cause n’est ni un modèle haut de gamme ni une référence bien identifiée du marché. Il s’agirait d’une alimentation ATX 3.0 de marque inconnue, autrement dit une noname. Un détail loin d’être anodin lorsqu’on parle d’une RTX 5090 et d’un connecteur 12VHPWR déjà réputé pour ne pas pardonner la moindre approximation.
RTX 5090 : un connecteur 2VHPWR en cause, un feu déclaré
Le témoignage souligne un point de bascule par rapport aux cas classiques de surchauffe et de connecteurs ramollis : il s’agirait cette fois d’un départ de feu « dans la zone du connecteur », d’après l’auteur. Selon le post, le câble incriminé est un 12VHPWR fourni avec l’alimentation, utilisé exclusivement avec cette carte.
Le problème des câbles 12VHPWR a déjà été observé sur plusieurs générations, entre soucis d’ajustement et chaleur excessive. Ce signalement se démarque car il décrit un feu actif, et non un simple écran noir ou la découverte tardive d’un connecteur déformé. L’auteur dit avoir d’abord perçu une odeur étrange, puis aperçu des flammes au niveau de la prise.
Précautions immédiates avec les connecteurs 12VHPWR
De notre point de vue, la meilleure option reste l’utilisation d’une alimentation ATX 3.1 de qualité, issue d’un fabricant reconnu, plutôt que d’un modèle générique sans pedigree, a fortiori avec une GeForce RTX 5090. Le standard 12V-2×6 apporte en outre des améliorations concrètes sur la conception et la fiabilité des connecteurs, ce qui renforce la sécurité dans ce type de configuration très exigeante.
Merci à vous de suivre le flux Rss de www.sospc.name.
Nous avons l’habitude de prévisualiser nos fichiers avec l’explorateur Windows. Au travail je cherche beaucoup car j’ai une tonne de fichiers de toutes sortes.
Si par exemple vous double-cliquez sur un MP3 alors c’est votre lecteur média par défaut qui s’ouvrira, si c’est un PDF ce sera sûrement Adobe PDF qui s’ouvrira et il est « lourd » sur certains PC, etc. Personnellement je gagne du temps en prévisualisant tous mes fichiers, quels qu’ils soient.
C’est ce que je vous propose ici, un petit soft qui vous permet cette prévisualisation, que ce soit un MP3, une photo, une vidéo, un Gif, .doc, etc.
QuickLook supporte une palanquée de formats sans les ouvrir dans leurs applis respectives.
Cela me fait gagner du temps car j’ai vraiment beaucoup de docs en tous genres que je consulte tous les jours au boulot et nul besoin d’ouvrir Adobe ni Office pour cette visualisation, c’est vrai aussi que je peux être un peu bordélique ;-) idem pour la musique et mes vidéos.
***
Note de l'administrateur
Charly vous a proposé ce programme en version 3 au mois de décembre 2023, une version 4 étant désormais disponible je vous la propose.
Si vous avez toujours voulu essayer Emacs mais que la courbe d'apprentissage vous fait peur,
IDEmacs
est fait pour vous ! Ce projet transforme Emacs en clone de VSCode avec les mêmes raccourcis clavier, la même interface graphique et les mêmes fonctionnalités out-of-the-box, comme ça vous n'avez plus besoin de vous taper une configuration durant trois jours avant de pouvoir écrire une ligne de code !
Cool, hein ?
L'idée c'est donc de permettre aux développeurs habitués à des IDE modernes de passer à Emacs sans devoir réapprendre tous leurs réflexes. Les raccourcis clavier reprennent ceux de VSCode comme Ctrl+C pour copier, Ctrl+V pour coller, Ctrl+F pour chercher. C'est basique mais indispensable quand vous venez d'un autre éditeur.
Côté interface, IDEmacs intègre Treemacs pour avoir un explorateur de fichiers dans la sidebar comme sur VSCode. Y'a aussi Centaur Tabs pour les onglets, un thème Dark Plus qui ressemble à celui de Microsoft, et le support des curseurs multiples. Bref, visuellement vous êtes en terrain connu.
Du coup, c'est pour qui exactement ?
Hé bien le projet cible trois types d'utilisateurs : les développeurs qui veulent migrer vers Emacs depuis un autre IDE, les débutants en Lisp ou Scheme qui ont besoin d'Emacs pour bosser, et les non-programmeurs qui cherchent juste un éditeur de texte puissant sans se prendre la tête avec la config.
D'ailleurs, contrairement à la plupart des starter kits Emacs, IDEmacs ne cache pas les éléments graphiques par défaut. Les menus, barres d'outils et scrollbars sont visibles donc vous pouvez configurer le tout via l'interface graphique plutôt qu'en écrivant du Elisp à la main.
La config proposée inclut une vingtaine de packages tels que Vertico, Consult et Marginalia pour l'autocomplétion, Magit pour le contrôle de version, Sly et Geiser pour le développement Lisp et Scheme, plus des outils comme expand-region, multiple-cursors et smartparens pour l'édition avancée.
Pour installer IDEmacs, il vous faudra donc Emacs 29 ou plus récent, git, et optionnellement grep et locate. Clonez le repo puis lancez Emacs avec
emacs --init-directory=/path/to/IDEmacs/vscode .
Et hop, c'est prêt !
IDEmacs reste une porte d'entrée vers Emacs, et pas un remplacement définitif de VSCode mais l'idée avec ce truc, c'est de vous permettre de commencer à utiliser Emacs sans friction, puis de personnaliser au fur et à mesure que vous comprenez comment ça marche. Je vous assure que vous allez probablement vouloir modifier des trucs une fois que vous serez à l'aise.
Voilà, si vous avez toujours été curieux d'Emacs mais que vous n'avez jamais osé franchir le pas, c'est l'occaz !