En tête du marché des moniteurs OLEDavec 21,9 % de parts, ASUS ne compte pas ralentir la cadence. Le constructeur multiplie les teasers et vient de dévoiler sur X une nouvelle vidéo préparant le terrain pour un futur écran ROG OLED en 2026.
L’accent est mis sur une promesse claire : un affichage « zero fringing ». ASUS évoque explicitement l’adoption d’une structure de sous-pixels RGB stripe, dite linéaire, en opposition aux matrices Pentile encore largement utilisées sur les dalles OLED actuelles.
ASUS ROG OLED : le pari du RGB stripe au CES 2026
Le message diffusé par ASUS est sans ambiguïté sur l’intention : réduire les phénomènes de color fringing, ces franges colorées visibles autour des caractères et des éléments fins, particulièrement perceptibles en usage bureautique sur des écrans OLED Pentile. Cette communication s’inscrit dans le sillage des annonces récentes de LG Display, qui met en avant des dalles OLED PC reposant sur une véritable structure RGB stripe, réputée pour une meilleure restitution du texte.
LG Display a notamment évoqué une dalle 27 pouces 4K (3840 × 2160) à 240 Hz, conservant une organisation RGB linéaire des sous-pixels, tout en intégrant une fonction de Dynamic Frequency and Resolution (DFR). Ce mode permettrait de basculer entre un affichage UHD à 240 Hz et un mode FHD à 480 Hz, afin de privilégier soit la finesse d’image, soit la fréquence de rafraîchissement. Sur ce format, la densité annoncée atteint environ 160 pixels par pouce, un seuil élevé pour un écran OLED destiné à un usage PC rapproché.
À ce stade, ASUS ne communique ni référence produit, ni diagonale exacte, ni fiche technique détaillée. Toutefois, la proximité des éléments de langage laisse supposer que le constructeur pourrait s’appuyer sur un panneau aux caractéristiques proches de celles présentées par LG Display lors du prochain CES.
RGB stripe : un levier clé pour la lisibilité sur OLED PC
Selon LG Display, la structure RGB stripe améliore la netteté perçue du texte et limite les artefacts colorés, notamment dans les environnements Windows et les usages bureautiques prolongés. ASUS ROG reprend cette promesse avec l’expression « zero fringing », qu’il conviendra néanmoins de vérifier en conditions réelles, en l’absence de données techniques officielles et de mesures indépendantes.
La convergence des discours entre fabricant de dalles et marque gaming suggère toutefois une orientation claire du marché : proposer des écrans OLED PC plus polyvalents, capables de concilier haute définition, fréquences de rafraîchissement extrêmes et confort visuel sur le long terme.
Le CES 2026 se tiendra du 6 au 9 janvier à Las Vegas, et ASUS ROG a déjà confirmé une présence axée sur l’affichage, avec un espace presse dédié. C’est à cette occasion que ce moniteur OLED RGB stripe devrait, sauf surprise, être officiellement dévoilé.
Vous connaissez l'histoire de la NES ? Celle du petit robot R.O.B. qui a aidé à ressusciter l'industrie du jeu vidéo américaine en 1985 ? Hé bien la
Video Game History Foundation
vient de sortir un documentaire d'une heure qui raconte tout ce qu'on ne vous a jamais dit sur le lancement de cette console mythique. Et dedans, y'a des révélations qui font mal ^^.
Frank Cifaldi, le fondateur de la VGHF, a passé des années à fouiller cette histoire. Il a rencontré des gens qui étaient chez Nintendo à l'époque, il a déterré des documents que personne n'avait jamais vus, il a même manipulé des prototypes qui n'auraient jamais dû survivre. Et le résultat, c'est cette plongée incroyable dans les coulisses d'un des plus grands paris de l'histoire du gaming.
Alors remontons au printemps 1983... Nintendo négocie avec Atari, le géant de l'époque, pour leur refiler les droits de distribuer la Famicom dans le monde entier. Hé oui, en interne, Atari avait même donné un nom de code au projet : "3600". L'idée, c'était d'intégrer la technologie Nintendo dans un boîtier plastique Atari existant. Le deal était quasiment signé, et les deux boîtes s'étaient mises d'accord sur tout : Nintendo fabriquerait les composants, Atari les revendrait sous sa marque. Ils avaient même commencé à convertir des jeux arcade (Millipede, Joust et Stargate) pour le système.
Et puis tout s'est cassé la gueule au CES de 1983. Atari a vu Coleco montrer un prototype de Donkey Kong sur leur ordinateur Adam, et ils ont pété un câble. Ils pensaient que Nintendo les avait doublés en refilant les droits à un concurrent. En réalité, c'était juste un malentendu sur les licences
ColecoVision
, mais le mal était fait. Le président de Nintendo, Hiroshi Yamauchi, a tellement gueulé sur les représentants de Coleco sur le salon que tout le monde s'en souvient encore.
Ça a contribué à torpiller les négociations, et dans le contexte des turbulences internes chez Atari, le deal n'a jamais abouti. Atari, qui évaluait également le système MARIA de GCC en parallèle, s'est finalement concentré sur ce qui deviendra l'Atari 7800. Et Nintendo s'est retrouvé tout seul, obligé de se débrouiller.
Et c'est là que ça devient vraiment intéressant parce que Nintendo of America, c'était une petite boîte de rien du tout à l'époque. Quelques dizaines d'employés dont le boulot principal consistait à importer des bornes d'arcade japonaises. Ils n'avaient aucune idée de comment vendre une console de salon aux États-Unis.
Alors ils ont fait appel à Lance Barr, un designer industriel, pour repenser complètement la Famicom. Et le mec a créé un design qui ressemblait plus à une chaîne hi-fi haut de gamme qu'à une console de jeux. Le prototype s'appelait l'AVS (Advanced Video System). C'était un truc tout en finesse avec des manettes sans fil, un clavier, un magnétophone à cassettes, et une esthétique empilable façon chaîne hi-fi. Les photos de l'époque sont magnifiques, on croirait du design scandinave ^^.
Le prototype AVS de Nintendo, avec son design hi-fi et ses manettes sans fil (
Source
)
Sauf que personne n'en voulait. Nintendo a fait des tests consommateurs, et les gamins (et leurs parents) trouvaient le concept de programmation barbant. Ils aimaient bien l'idée des manettes sans fil et de l'empilement des boitiers, mais coder / modifier soi-même ses propres jeux en Basic ? Grosse flemme...
En plus, le marché américain était en plein crash. Les magasins croulaient sous les invendus de jeux Atari bradés, et personne ne voulait entendre parler d'une nouvelle console. Tous les détaillants que Nintendo rencontrait leur disaient la même chose : le jeu vidéo, c'est mort, c'était une mode passagère, passez votre chemin (tiens ça me rappelle quelque chose plus actuel... lol).
Alors Nintendo a tout viré. Plus de manettes sans fil, plus de clavier, plus de magnétophone. Ils ont gardé uniquement le robot R.O.B. comme cheval de Troie. L'idée, c'était de faire croire aux magasins de jouets qu'ils vendaient un robot high-tech, et pas une console de jeux.
Et ça a marché, les amis !!
Une armée de R.O.B., le robot qui a permis à Nintendo d'infiltrer les magasins de jouets (
Source
)
Puis en octobre 1985, Nintendo a lancé la NES dans la région de New York avec une garantie de rachat pour les détaillants : si ça ne se vendait pas, ils reprenaient tout. L'équipe a bossé comme des dingues depuis un entrepôt minable du New Jersey, infesté de rats et de serpents. Il y a même eu un ouragan pendant le lancement. Du grand n'importe quoi.
Le présentoir NES chez FAO Schwarz en 1986 (
Source
)
Mais le plus fou dans cette histoire, c'est le fameux chip CIC, le "lockout chip" qui empêchait de jouer à des jeux non autorisés par Nintendo. Et devinez d'où venait cette idée ? D'Atari eux-mêmes ! Lors des négociations de 1983, quelqu'un chez Atari avait demandé à Nintendo s'ils pouvaient créer un système technique pour bloquer les cartouches non officielles. Atari se plaignait des jeux pourris que n'importe qui pouvait sortir sur leurs consoles, et ils voulaient reprendre le contrôle.
Nintendo n'avait pas de solution à l'époque, mais ils ont retenu l'idée. Et selon les dépositions du procès Atari vs. Nintendo, le président Yamauchi aurait lui-même reconnu qu'après avoir entendu ce qu'Atari avait dit, Nintendo avait conclu qu'un système de sécurité devait être développé pour vendre des consoles aux États-Unis.
En gros, Atari aurait suggéré le concept qui allait se retourner contre eux. C'est le chip qui les empêchera plus tard de publier librement des jeux sur NES, conçu par Nintendo suite à leur demande initiale. Ironique non ? Et ce système de contrôle est ensuite devenu le modèle pour toutes les consoles qui ont suivi. Aujourd'hui, on trouve normal qu'on ne puisse pas sortir un jeu PlayStation sans l'accord de Sony, mais avant la NES, n'importe qui pouvait fabriquer des cartouches pour n'importe quelle console.
La VGHF a aussi récupéré les jeux qu'Atari avait commandés à Nintendo en 1983. Trois d'entre eux (Millipede, Joust et Stargate) sont d'ailleurs finalement sortis en 1987 via le HAL Laboratory avec un copyright "Atari 1983" sur l'écran titre. Tant mieux, ça aurait été dommage de ne pas pouvoir y jouer...
Bref, si vous avez une heure devant vous pendant les fêtes, foncez regarder ce documentaire. C'est de la recherche historique de première main, pas du réchauffé de Wikipedia. Et si vous voulez aller plus loin, la VGHF a aussi mis en ligne
un panel avec trois anciens de Nintendo
qui ont vécu le lancement de 1985. Des témoignages de première main qu'on ne retrouvera probablement jamais ailleurs...
Régulièrement, depuis la création de l'App Store en 2008, nous publions une petite sélection des applications gratuites sur iPhone et iPad accompagnée de promos.
Marques de luxe, finitions de haute qualité, produits faits à la main, etc. Voici une sélection de coques pour iPhone conçues avec soin, car, qui dit smartphone haut de gamme dit protection haut de gamme.
La nouvelle mise à jour 1.61 de HWMonitor passe presque inaperçue au premier regard. Pourtant, derrière cette révision logicielle se cache un indice particulièrement intéressant sur les prochaines générations de processeurs.
En élargissant sa prise en charge matérielle, l’outil de CPUID offre un aperçu très concret de ce que préparent AMD et Intel pour les mois à venir, notamment à l’approche de la période charnière 2025–2026. Comme souvent, ce type de mise à jour agit comme un révélateur discret, mais fiable, des architectures encore à venir.
Une mise à jour qui en dit long sur les processeurs à venir
Avec cette version 1.61, HWMonitor prend désormais en charge plusieurs processeurs encore absents du marché. Côté Intel, on retrouve les futurs Arrow Lake Refresh »Core Ultra 200K Plus’‘, avec la prise en charge des Core Ultra 9 290K Plus, Core Ultra 7 270K Plus et Core Ultra 5 250K Plus. Une confirmation implicite qu’Intel prépare bien une itération intermédiaire de sa gamme Arrow Lake, probablement destinée à corriger certaines limites observées sur la première génération, notamment en matière de performances gaming et de latence interne.
Arrow Lake Refresh »Core Ultra 200K Plus »
Cette intégration anticipée n’est pas anodine. CPUID a pour habitude d’ajouter le support matériel plusieurs mois avant les annonces officielles, ce qui laisse entendre que ces processeurs sont déjà bien avancés sur le plan du microcode et des identifiants matériels.
AMD avance ses pions avec Zen 5 X3D… et prépare déjà Zen 6
Du côté d’AMD, la mise à jour est tout aussi révélatrice. HWMonitor prend désormais en charge le Ryzen 5 7500X3D, un modèle Zen 4 à cache 3D pensé pour démocratiser la technologie X3D à un tarif plus accessible que nous avons déjà analysé à sa sortie le mois dernier. Une stratégie claire pour prolonger la durée de vie de l’AM5 tout en maintenant l’attrait du gaming chez AMD.
Mais l’information la plus intéressante concerne l’apparition du Ryzen 7 9850X3D, basé cette fois sur Zen 5. Celui-ci afficherait une fréquence boost supérieure de 400 MHz par rapport au 9800X3D, et sa sortie serait programmée pour le CES 2026. Une évolution qui confirme la volonté d’AMD de conserver une longueur d’avance sur les performances en jeu, là où le cache 3D reste un avantage décisif.
À noter toutefois l’absence du Ryzen 9 9950X3D dans la liste actuelle, suggérant soit un calendrier encore évolutif, soit une intégration progressive au fil des mises à jour.
Medusa Point : Zen 6 se montre déjà en coulisses
Autre point notable : la présence du support préliminaire des processeurs mobiles Medusa Point, basés sur l’architecture Zen 6. Bien que leur lancement soit encore lointain, attendu courant 2026, leur apparition dans HWMonitor montre que les bases logicielles sont déjà en place.
Ces puces mobiles devraient inaugurer une nouvelle étape dans l’efficacité énergétique d’AMD, avec une architecture pensée dès le départ pour les usages hybrides, l’IA locale et les plateformes mobiles hautes performances. Leur ajout précoce dans les outils de monitoring va de pair avec leur intégration récente dans GCC 16, signe que l’écosystème logiciel se prépare activement.
Après les récentes fuites sur la microarchitecture Zen 6 et l’élargissement du cœur de calcul, cette prise en charge logicielle vient ajouter une pièce supplémentaire au puzzle. Sans annonce officielle, l’écosystème commence clairement à se préparer à l’arrivée de la prochaine génération de processeurs.
Avis de la rédaction
En apparence anodine, la mise à jour 1.61 de HWMonitor agit comme un véritable révélateur de feuille de route. En intégrant à l’avance Arrow Lake Refresh chez Intel, les Ryzen X3D récents et surtout les premières références Zen 6 mobiles, CPUID confirme que les fondations logicielles des CPU de 2025–2026 sont déjà solidement en place.
Entre le rafraîchissement d’Arrow Lake côté Intel, la montée en puissance continue des Ryzen X3D et l’arrivée progressive de Zen 6 chez AMD, le marché des processeurs entre dans une phase charnière. Desktop, mobile, gaming et IA locale convergent vers des architectures plus larges, mieux instrumentées et pensées pour durer. Sans communication officielle, l’écosystème logiciel parle déjà. Et il laisse peu de doute sur une chose : 2026 ne sera pas une année de transition, mais un vrai point d’inflexion pour les CPU x86.
L’ANTGAMER ANT275PQ MAX en ligne de mire : un écran capable de grimper à 1080 Hz, mais seulement en 720p. HKC détaille désormais un double mode qui oppose 1440p à 540 Hz et 720p à 1080 Hz.
ANTGAMER ANT275PQ MAX : 1080 Hz en 720p, 540 Hz en QHD
D’après HKC, le ANTGAMER ANT275PQ MAX sera présenté au CES 2026 sous la marque ANTGAMER. Dans les documents de presse, il est décrit comme un écran LCD esports QHD intégrant une fonction double mode. La fiche signale un 27 pouces IPS en 2560 x 1440 avec technologie HMO (High Mobility Oxide), et prise en charge DisplayPort 2.1 UHBR20 pour viser des fréquences très élevées en QHD sans compression lourde.
Ce modèle avait émergé en août comme un 540 Hz en QHD. La nouveauté, c’est cette bascule : choisir le 1080 Hz abaisse la définition à 720p. HKC parle du « double-mode » qui permet cette option. Le tarif en Chine était affiché autour de 980 dollars, soit environ 895 euros au taux du jour.
Entre record de fréquence et réalité e-sport
Techniquement, l’ensemble intrigue et interroge les usages. Comme le rappelle la source, « vous pouvez vous vanter d’avoir le panneau le plus rapide », mais il semblerait que la compétition en 720p reste marginale. Reste un argument clair : à 540 Hz en 1440p via DP 2.1 UHBR20, l’écran vise les joueurs qui privilégient le taux de rafraîchissement sans sacrifier la définition QHD.
Alors que nous commençons à peine à apprivoiser Zen 5, une fuite d’ampleur vient déjà lever le voile sur la suite. Un document technique officiel d’AMD, destiné aux développeurs, détaille l’architecture Zen 6 et esquisse une évolution majeure : un moteur de calcul élargi à 8 slots, capable de redistribuer beaucoup plus d’instructions par cycle. De quoi redéfinir le niveau de performance attendu sur PC dans les années à venir, possiblement dès 2026.
AMD Zen 6 se dévoile en coulisses : une microarchitecture taillée pour le calcul massif
Une documentation technique officielle destinée aux développeurs, récemment repérée, offre un premier aperçu détaillé de la future microarchitecture. Derrière un titre austère et sans la moindre mention commerciale se cache pourtant un changement profond dans la façon dont les cœurs Zen traiteront les instructions.
Le document, référencé comme AMD Family 1Ah Model 50h–57h Processor Performance Monitoring Counters, décrit de nouveaux compteurs de performance internes. Leur existence permet, en creux, de reconstituer l’organisation du cœur Zen 6 et d’identifier plusieurs évolutions majeures, à commencer par un élargissement significatif du front-end.
Un cœur Zen 6 plus large et plus agressif
Le dispatch passe à 8 slots
La révélation la plus marquante concerne l’étage de dispatch. Zen 6 adopte une unité de distribution à 8 slots, contre 6 sur les générations Zen actuelles. Concrètement, cela signifie que le processeur pourra envoyer davantage d’instructions par cycle vers les unités d’exécution. Ce type d’évolution n’est jamais anodin : il implique une refonte en profondeur du pipeline, des buffers internes et de la gestion des dépendances.
Un dispatch plus large permet d’augmenter le débit d’instructions en conditions idéales, mais surtout de mieux exploiter les ressources lorsque le code présente suffisamment de parallélisme. Cette évolution fait écho à la refonte de l’interconnexion interne Sea-of-Wires, pensée pour réduire la latence et améliorer l’efficacité globale.
Une meilleure exploitation du parallélisme interne
Avec 8 slots, Zen 6 se rapproche d’architectures historiquement plus agressives sur le plan du front-end. L’objectif n’est pas uniquement d’augmenter les performances maximales, mais aussi de réduire les phases de sous-utilisation des unités d’exécution. Moins de bulles dans le pipeline, c’est un meilleur rendement énergétique et un gain de performances plus régulier, y compris hors benchmarks synthétiques.
SMT toujours de la partie, mais mieux instrumenté
Le multithreading simultané est maintenu
La documentation confirme également que Zen 6 conserve le SMT. AMD continue donc de faire confiance à cette approche pour améliorer l’occupation des ressources et les performances en multitâche. Rien d’étonnant à cela, mais le point intéressant se situe ailleurs : dans la finesse de l’observation.
Les nouveaux compteurs exposés permettent de suivre avec précision la manière dont les threads se partagent les ressources internes. Attentes dans le pipeline, conflits d’accès, saturation de certaines unités : tout devient mesurable. Cela donne aux développeurs des outils précieux pour comprendre où se situent les véritables goulots d’étranglement et adapter leurs optimisations à une architecture plus large et plus complexe.
Zen 6 change de dimension côté calcul
Le support explicite des instructions 512 bits
Autre élément clé du document : la prise en charge d’instructions 512 bits. AMD renforce clairement les capacités vectorielles et en calcul flottant de Zen 6. Cette évolution aligne davantage l’architecture sur les besoins modernes en calcul scientifique, traitement multimédia et charges professionnelles intensives.
IA, chiffrement et charges spécialisées en ligne de mire
La présence d’instructions comme VNNI pour l’IA, ainsi que les extensions AES et SHA pour le chiffrement et le hashing, montre une orientation très nette. Zen 6 n’est pas seulement pensé pour le desktop grand public, mais pour des usages où le CPU reste central malgré la montée en puissance des accélérateurs dédiés.
Une vision encore incomplète, mais déjà très parlante
À ce stade, aucun nom commercial, aucun calendrier et aucun benchmark ne figurent dans la documentation. Impossible donc de savoir quand Zen 6 arrivera sur le marché ou comment il sera décliné entre desktop, mobile et serveur. En revanche, les premières indications côté plateforme AM5 se veulent rassurantes.
Une évolution majeure dans la philosophie Zen
Avec Zen 6, AMD semble préparer un véritable changement de rythme. Front-end élargi, calcul vectoriel renforcé, instrumentation plus fine du SMT : tout indique une architecture pensée pour durer et pour encaisser les charges de travail des prochaines années, notamment dans l’IA et le calcul intensif.
Ce premier aperçu ne dit pas tout, mais il suffit déjà à comprendre une chose : Zen 6 ne sera pas une simple itération. C’est une montée en gamme structurelle, et probablement l’une des évolutions les plus ambitieuses de l’architecture Zen depuis ses débuts.
DDR5 RDIMM en très haute capacité, mais à prix qui fait grimacer : NEMIX liste un kit 4 To à 70 800 dollars, soit environ 65 000 € au cours actuel. Un tarif de l’ordre de 17,3 dollars par Go, bien au-dessus des quelque 10 dollars/Go de la DRAM grand public.
DDR5 RDIMM 4 To : 16×256 Go, 6400 MT/s, CAS 52
Le kit réunit 16 barrettes de 256 Go au format ECC RDIMM, cadencées à 6400 MT/s avec une latence CAS de 52. NEMIX, fournisseur américain travaillant avec de grands groupes et des agences gouvernementales, cible sans détour les hyperscalers et stations de travail au budget musclé. Contexte aggravant : la pénurie de DRAM gonfle les prix, et ces modules embarquent des technologies que l’on ne trouve pas sur de la DDR5 standard.
ADATA 8400 MRDIMM DDR5 Memory
Au-delà de l’ECC sur puce propre à la DDR5, ces RDIMM intègrent des circuits d’erreur dédiés hors-die, nécessaires pour une correction complète en environnement critique. La configuration 4Rx4 vise la régularité des performances, l’ensemble fonctionne à 1,1 V et profite du buffering enregistré avec ECC intégré. D’après la fiche, c’est précisément ce surcoût de silicium et de fonctions qui justifie un prix quasi doublé par rapport aux DIMM classiques. Comme le résume la source : « ces modules montrent pourquoi leur prix est bien plus élevé que les DIMM traditionnels », souligne TechPowerUp.
DDR5 RDIMM pour IA, bases en mémoire et virtualisation
Le positionnement ne laisse guère de doute : IA à grande échelle, bases de données in-memory en téraoctets, clusters de virtualisation hébergeant des centaines de conteneurs. Selon NEMIX, ce type de kit s’adresse aux environnements « mission-critical » où densité mémoire et intégrité des données priment. Les hyperscalers obtiendront probablement des remises volumes, et dans un déploiement massif, 70 800 dollars ne représentent qu’une fraction du coût d’infrastructure.
Comme si fondre n’était déjà pas assez problématique, le 12VHPWR semble désormais vouloir passer à l’étape supérieure. Odeur suspecte, puis flammes au connecteur : un propriétaire de RTX 5090 affirme que son câble 12VHPWR ne s’est pas contenté de chauffer, mais a littéralement pris feu. Le témoignage, publié sur Reddit, évoque une utilisation d’environ neuf mois avant l’incident, ajoutant une nouvelle couche d’inquiétude à un connecteur déjà largement surveillé par la communauté hardware.
Spoiler : l’alimentation en cause n’est ni un modèle haut de gamme ni une référence bien identifiée du marché. Il s’agirait d’une alimentation ATX 3.0 de marque inconnue, autrement dit une noname. Un détail loin d’être anodin lorsqu’on parle d’une RTX 5090 et d’un connecteur 12VHPWR déjà réputé pour ne pas pardonner la moindre approximation.
RTX 5090 : un connecteur 2VHPWR en cause, un feu déclaré
Le témoignage souligne un point de bascule par rapport aux cas classiques de surchauffe et de connecteurs ramollis : il s’agirait cette fois d’un départ de feu « dans la zone du connecteur », d’après l’auteur. Selon le post, le câble incriminé est un 12VHPWR fourni avec l’alimentation, utilisé exclusivement avec cette carte.
Le problème des câbles 12VHPWR a déjà été observé sur plusieurs générations, entre soucis d’ajustement et chaleur excessive. Ce signalement se démarque car il décrit un feu actif, et non un simple écran noir ou la découverte tardive d’un connecteur déformé. L’auteur dit avoir d’abord perçu une odeur étrange, puis aperçu des flammes au niveau de la prise.
Précautions immédiates avec les connecteurs 12VHPWR
De notre point de vue, la meilleure option reste l’utilisation d’une alimentation ATX 3.1 de qualité, issue d’un fabricant reconnu, plutôt que d’un modèle générique sans pedigree, a fortiori avec une GeForce RTX 5090. Le standard 12V-2×6 apporte en outre des améliorations concrètes sur la conception et la fiabilité des connecteurs, ce qui renforce la sécurité dans ce type de configuration très exigeante.
Merci à vous de suivre le flux Rss de www.sospc.name.
Nous avons l’habitude de prévisualiser nos fichiers avec l’explorateur Windows. Au travail je cherche beaucoup car j’ai une tonne de fichiers de toutes sortes.
Si par exemple vous double-cliquez sur un MP3 alors c’est votre lecteur média par défaut qui s’ouvrira, si c’est un PDF ce sera sûrement Adobe PDF qui s’ouvrira et il est « lourd » sur certains PC, etc. Personnellement je gagne du temps en prévisualisant tous mes fichiers, quels qu’ils soient.
C’est ce que je vous propose ici, un petit soft qui vous permet cette prévisualisation, que ce soit un MP3, une photo, une vidéo, un Gif, .doc, etc.
QuickLook supporte une palanquée de formats sans les ouvrir dans leurs applis respectives.
Cela me fait gagner du temps car j’ai vraiment beaucoup de docs en tous genres que je consulte tous les jours au boulot et nul besoin d’ouvrir Adobe ni Office pour cette visualisation, c’est vrai aussi que je peux être un peu bordélique ;-) idem pour la musique et mes vidéos.
***
Note de l'administrateur
Charly vous a proposé ce programme en version 3 au mois de décembre 2023, une version 4 étant désormais disponible je vous la propose.
Si vous avez toujours voulu essayer Emacs mais que la courbe d'apprentissage vous fait peur,
IDEmacs
est fait pour vous ! Ce projet transforme Emacs en clone de VSCode avec les mêmes raccourcis clavier, la même interface graphique et les mêmes fonctionnalités out-of-the-box, comme ça vous n'avez plus besoin de vous taper une configuration durant trois jours avant de pouvoir écrire une ligne de code !
Cool, hein ?
L'idée c'est donc de permettre aux développeurs habitués à des IDE modernes de passer à Emacs sans devoir réapprendre tous leurs réflexes. Les raccourcis clavier reprennent ceux de VSCode comme Ctrl+C pour copier, Ctrl+V pour coller, Ctrl+F pour chercher. C'est basique mais indispensable quand vous venez d'un autre éditeur.
Côté interface, IDEmacs intègre Treemacs pour avoir un explorateur de fichiers dans la sidebar comme sur VSCode. Y'a aussi Centaur Tabs pour les onglets, un thème Dark Plus qui ressemble à celui de Microsoft, et le support des curseurs multiples. Bref, visuellement vous êtes en terrain connu.
Du coup, c'est pour qui exactement ?
Hé bien le projet cible trois types d'utilisateurs : les développeurs qui veulent migrer vers Emacs depuis un autre IDE, les débutants en Lisp ou Scheme qui ont besoin d'Emacs pour bosser, et les non-programmeurs qui cherchent juste un éditeur de texte puissant sans se prendre la tête avec la config.
D'ailleurs, contrairement à la plupart des starter kits Emacs, IDEmacs ne cache pas les éléments graphiques par défaut. Les menus, barres d'outils et scrollbars sont visibles donc vous pouvez configurer le tout via l'interface graphique plutôt qu'en écrivant du Elisp à la main.
La config proposée inclut une vingtaine de packages tels que Vertico, Consult et Marginalia pour l'autocomplétion, Magit pour le contrôle de version, Sly et Geiser pour le développement Lisp et Scheme, plus des outils comme expand-region, multiple-cursors et smartparens pour l'édition avancée.
Pour installer IDEmacs, il vous faudra donc Emacs 29 ou plus récent, git, et optionnellement grep et locate. Clonez le repo puis lancez Emacs avec
emacs --init-directory=/path/to/IDEmacs/vscode .
Et hop, c'est prêt !
IDEmacs reste une porte d'entrée vers Emacs, et pas un remplacement définitif de VSCode mais l'idée avec ce truc, c'est de vous permettre de commencer à utiliser Emacs sans friction, puis de personnaliser au fur et à mesure que vous comprenez comment ça marche. Je vous assure que vous allez probablement vouloir modifier des trucs une fois que vous serez à l'aise.
Voilà, si vous avez toujours été curieux d'Emacs mais que vous n'avez jamais osé franchir le pas, c'est l'occaz !
Vous avez une vieille GTX 1060 qui tourne nickel sous Arch Linux ? C'est con, NVIDIA vient de vous mettre un beau coup de pied aux fesses car la boîte au caméléon vert a décidé d'abandonner le support des GPU Pascal (les GTX 10xx) dans son dernier driver 590 et ça crée un joyeux bordel, notamment sur Arch.
Le problème, c'est que quand vous faites une mise à jour système sur Arch avec une vieille carte Pascal ou Maxwell, le nouveau driver refuse de charger. Résultat, vous vous retrouvez éjecté vers la ligne de commande sans interface graphique. Sympa pour débugger quand y'a plus d'écran qui fonctionne...
Faut dire que le modèle "rolling release" d'Arch fait que les utilisateurs ont reçu ce driver incompatible automatiquement avec leur mise à jour. Ils n'ont pas eu le temps de dire ouf que leur système était déjà cassé. Et les GTX 1060 et 1050 Ti, c'est pas exactement des cartes de musée... Y'en a encore pas mal qui tournent sur Steam, et même si parmi leurs propriétaires, seule une poignée utilise Linux, et encore moins Arch, ça fait quand même du monde impacté.
Pour s'en sortir, y'a deux solutions. La première, c'est d'installer le driver legacy nvidia-580xx-dkms depuis l'AUR, qui est maintenu par l'équipe CachyOS. Le hic, c'est que ça crée des problèmes de dépendances avec Steam, donc faut aussi installer lib32-nvidia-580xx-utils pour que les jeux 32 bits fonctionnent. La deuxième option, c'est de basculer sur Nouveau, le driver open source fait par reverse engineering. Ça marche, mais avec les limitations que ça implique niveau performances et fonctionnalités.
Ce qui me rend dingue dans cette histoire, c'est que pendant des années, NVIDIA a refusé de fournir de la documentation pour ses GPU, forçant la communauté Linux à utiliser le reverse engineering pour Nouveau. Et depuis 2022, ils ont ouvert les modules kernel pour les architectures Turing et plus récentes, mais les parties user-space et le firmware restent propriétaires. Et surtout, aucune aide pour les vieilles cartes comme Pascal !! Du coup, maintenant que NVIDIA abandonne ces générations de cartes, c'est aux bénévoles de la communauté de maintenir les drivers legacy... Pas cool.
D'ailleurs,
l'annonce officielle d'Arch Linux
précise que les cartes Turing et plus récentes (RTX 20xx et GTX 1650+) vont automatiquement basculer vers les modules kernel open source, donc pas d'intervention manuelle pour eux. C'est uniquement les propriétaires de vieilles Pascal/Maxwell qui doivent se taper le boulot.
Bref, si vous avez une carte Pascal sous Arch, basculez sur nvidia-580xx-dkms avant votre prochain pacman -Syu. Dans sa grande bonté, NVIDIA a aussi promis des patchs de sécu jusqu'en 2028, mais bon, on a vu ce que valent leurs promesses côté Linux...
DRAM hors de prix, pénurie à l’horizon… et voilà que la mémoire dans les champignons devient soudain une piste crédible. On croyait le champignon cantonné à l’omelette ou à la forêt de Rambouillet, mais des chercheurs de l’Ohio State University viennent de lui trouver une nouvelle vocation. Du mycélium de shiitake et de champignon de Paris a été transformé en memristors organiques, capables de conserver une information électrique…Même le champignon de Paris a fait ses calculs : avec le prix de la DRAM, c’est plus rentable de bosser dans la RAM que de finir émincé dans une poêle.
Mémoire dans les champignons : le mycélium comme memristor
L’équipe a cultivé le mycélium, l’a déshydraté plusieurs jours, puis a fixé des électrodes avant d’appliquer une brumisation légère pour rétablir la conductivité. Objectif : faire circuler des formes d’onde et tensions variées pour observer une résistance à état dépendant de l’historique, signature d’un memristor. D’après les résultats, le comportement le plus cohérent apparaît autour de 1 volt. Les chercheurs ont aussi poussé l’expérience vers une approche type RAM, en atteignant près de 6 kHz avec environ 90 % d’exactitude.
Pas de miracle côté capacité : impossible de stocker des gigaoctets sans un champ de champignons. La rétention de type memristor ne suffit pas à elle seule. Il faut une densité exploitable, des interfaces, de la stabilité et une voie de mise à l’échelle vers de vrais modules. Comme le résume la source, « vous ne pouvez pas stocker des gigaoctets ainsi, sauf avec des hectares de champignons ».
Jusqu’où peut aller cette piste organique ?
Selon Hackaday et les journaux Plos, ce n’est pas un remède à la hausse des prix de la DRAM, mais un jalon intrigant pour une électronique bio-inspirée à très bas coût. Si les acteurs de l’IA cherchent des supports mémoire alternatifs, le mycélium pourrait servir de banc d’essai, à condition de régler la capacité, la reproductibilité et l’intégration matérielle.
Vous vous souvenez des disquettes 3,5 pouces ? Ces petits carrés en plastique qu'on utilisait pour stocker nos 1,44 Mo de données précieuses ? Hé bien à Taïwan, elles font leur grand retour... mais pas pour sauvegarder vos fichiers.
La société iPASS, qui gère un système de cartes de transport et de paiement sans contact dans le pays, vient de lancer une carte prépayée NFC en forme de disquette. Taille réelle, proportions parfaites, disponible en noir ou en jaune. C'est sorti pour Noël et les geeks du pays se sont jetés dessus.
Le truc qui m'a fait triper surtout, c'est l'avertissement officiel que la boîte a jugé nécessaire d'ajouter sur la fiche produit : "Ce produit a uniquement une fonction de carte et n'a pas de fonction disque 3,5mm, veuillez en prendre note avant l'achat". J'imagine qu'ils ont dû voir passer quelques retours de clients déçus qui tentaient de l'insérer dans leur vieux PC... Même si après, trouver un PC avec un lecteur de disquette en 2025, c'est déjà un exploit en soi.
Du coup cette carte permet de prendre le métro, le bus, le train, le taxi, de louer un vélo, et de payer dans les 7-Eleven, FamilyMart, McDonald's, Burger King et plein d'autres enseignes. Bref, c'est une vraie carte de paiement, juste avec un look de rêve pour les nostalgiques de l'ère DOS.
Et si vous pensez que c'est le gadget le plus absurde qu'ils ont sorti, détrompez-vous puisque iPASS propose aussi des cartes en forme de téléphone Motorola DynaTAC (le gros portable des années 80), de train miniature, de tong, et même de boule à neige Godzilla avec des LEDs. Sur le site PCHome24, y'a littéralement 838 designs différents de cartes iPASS. Les Taïwanais, ils font pas les choses à moitié.
Une carte standard coûte environ 100 NT$ (3 euros) sans crédit, mais les éditions collectors peuvent monter jusqu'à 1000 NT$ ou plus selon le délire. Voilà, si vous passez par Taïwan, c'est clairement le souvenir geek ultime à (me) ramener !
Et au moins, contrairement à une vraie disquette, celle-là ne risque pas de vous lâcher après 6 mois à cause d'un petit champ magnétique de passage.
Vous voyez ces photos stylées sur Instagram où le texte semble passer derrière la personne, comme si le gros "FASHION" ou "WORKOUT" était vraiment dans la scène ? C'est l'effet "text behind image" et c'est clairement le truc graphique qui fait super pro en ce moment.
Le problème c'est que pour obtenir ce rendu, faut normalement se taper Photoshop, maîtriser les calques, le détourage, les masques... Bref, perdre une demi-heure sur un truc qui devrait prendre 30 secondes. Et comme vous êtes des gens occupés (contrairement à moi qui passe ma vie à tester des outils), voici la solution.
C'est un site gratuit qui règle tout ça et qui s'appelle
Text Behind Image
. Vous uploadez votre photo (jusqu'à 10 Mo), l'IA détecte automatiquement le sujet (une personne, un objet, peu importe), vous tapez votre texte, et le site se débrouille pour le placer pile poil derrière. Ça prend quelques secondes de traitement, pas besoin de détourer quoi que ce soit vous-mêmes.
L'interface propose pas mal d'options de personnalisation... Vous pouvez choisir la police, jouer avec la taille, la couleur, l'opacité, la rotation, ajouter des contours... Et surtout, vous voyez le résultat en temps réel, donc vous pouvez repositionner le texte en glisser-déposer jusqu'à ce que ça rende nickel.
Et le top du top, c'est que c'est gratuit, sans limite, sans inscription, et vous téléchargez votre image en haute résolution sans filigrane. J'ai vérifié et y'a même pas de petit "Made with..." planqué dans un coin. C'est assez rare pour un outil en ligne de ce genre alors je tiens à vous le signaler !
Bon après si votre photo est ultra complexe avec 36 personnes et des éléments qui se chevauchent, l'IA va potentiellement galérer à détourer correctement, mais pour une photo classique avec un sujet bien visible sur un fond pas trop chargé, ça marche vraiment bien.
Bref, si vous faites du contenu pour les réseaux, des miniatures YouTube, ou même juste des visuels fun pour votre pote qui fait de la muscu, c'est le genre d'outil à bookmarker direct. En 30 secondes vous aurez un rendu qui vous aurait pris 20 minutes sur Photoshop.
Des ateliers chinois multiplient les upgrades vers RTX 5080 32 GB. Le mod double la VRAM par rapport aux 16 GB d’origine et, d’après un technicien, la demande pourrait détourner des cartes du circuit gaming traditionnel.
RTX 5080 32 GB : conversions en hausse, la filière « Turbo » en ligne de mire
Selon Zhiqiang Graphics Card Studio, ces modifications vers 32 GB deviennent régulières. Le technicien cite des builds « Turbo » comme moteur de la tendance, un terme utilisé pour désigner les modèles à turbine expulsant l’air par l’arrière, plus simples à empiler dans des boîtiers IA et stations de travail denses. Il anticipe davantage de conversions à mesure que les ateliers maîtrisent la procédure et que les acheteurs réclament plus de VRAM dans un format compact adapté aux serveurs.
a gpu repair technician in china claimed 5080 32g has already been a thing.
Ce canal alternatif n’est pas inédit : on a déjà observé des reworks à grande échelle de GeForce RTX 5090 en cartes IA à turbine, ainsi que des upgrades mémoire de GeForce RTX 4090 bien au-delà des spécifications d’origine. Certains moddeurs évoquent « des outils personnalisés » et des documents apparus après l’incident de piratage de 2022 comme facteurs ayant facilité la réplication à grande échelle.
Et NVIDIA dans tout ça : une RTX 5080 SUPER 24 GB en 2026
NVIDIA préparerait une GeForce RTX 5080 SUPER avec 24 GB de mémoire via des modules GDDR7 de 3 GB, mais le calendrier se serait décalé vers la fin du premier trimestre ou le début du deuxième trimestre 2026, soit entre mars et mai 2026. Même sur cette fenêtre, la capacité resterait sous les 32 GB visés par ces cartes custom modifiées.
Le technicien prévient que l’attrait pour les « Turbo » et les 32 GB pourrait drainer davantage d’unités retail vers les ateliers de rework : « la demande de conversions pourrait retirer des cartes du canal gaming ».
Vous vous êtes déjà demandé si ChatGPT votait à gauche ou à droite ? Moi non plus, j'avoue. Mais maintenant qu'on a la réponse, c'est quand même assez marrant, vous allez voir...
Un développeur a créé
PoliBench
, un site qui fait passer le test du
Political Compass
à 40 modèles de langage différents. Le Political Compass c'est ce fameux test avec les deux axes : économique (gauche-droite) et social (libertaire-autoritaire). Le truc qu'on faisait tous sur Internet en 2005 pour finalement découvrir qu'on était un libertaire de gauche comme environ 95% des gens qui passaient le test.
Bref, maintenant les IA aussi peuvent savoir où elles se situent sur l'échiquier politique et ça, ça peut vous aider à mieux les choisir, car les résultats sont assez révélateurs. Niveau cuisine interne,
PoliBench
teste les 62 questions sur les deux axes du Political Compass, puis calcule les scores pour chaque LLM. Et comme les données sont open source, vous pouvez vérifier la méthodologie vous-même.
Et sans surprise, la plupart des LLMs se retrouvent dans le quadrant libertaire de gauche !! J'dis ça, j'dis rien, mais c'est presque comme si les devs de la Silicon Valley avaient des opinions politiques similaires et les injectaient (consciemment ou pas) dans leurs modèles.
Du coup, j'ai fait le travail de tri pour vous, alors voici le guide ultime pour choisir votre IA selon votre sensibilité politique :
Si vous êtes plutôt LFI, prenez Claude. Il est tellement progressiste qu'il refuse de générer du contenu problématique même quand vous lui demandez une blague sur les vegans. En plus il écrit des pavés de 3000 mots pour expliquer pourquoi il ne peut pas répondre à votre question. Parfait pour tenir un meeting politique de 4 heures.
Si vous êtes plutôt PS, prenez GPT-4. Un modèle qui a connu des jours meilleurs, qui essaie de plaire à tout le monde et qui finit par ne satisfaire personne. Bonus : il change d'avis selon qui lui parle.
Si vous êtes plutôt macroniste, prenez Gemini de Google. Un truc qui promet la disruption et l'innovation mais qui au final fait à peu près pareil que les autres, en plus cher, tout en vous expliquant que c'est pour votre bien.
Si vous êtes plutôt LR, prenez Mistral. C'est français, c'est souverain... mais personne ne sait vraiment ce que ça pense sur les sujets qui fâchent parce que ça évite soigneusement d'en parler.
Si vous êtes plutôt écolo, prenez Llama de Meta. C'est open source donc c'est « pour le bien commun », ça tourne sur du matériel recyclé si vous voulez, et ça consomme moins de ressources que les gros modèles propriétaires. Par contre faut quand même un GPU qui coûte un SMIC.
Et si vous êtes plutôt RN... bah en fait y'a pas vraiment de LLM pour vous. Tous ces modèles ont été entraînés à San Francisco par des gens qui mangent des avocado toasts et font du yoga. Ils refusent donc de générer ce contenu haineux, discriminatoire ou factuellement faux dont vous êtes friants. Désolé, les gars c'est pas compatible. Peut-être essayez Grok d'Elon Musk ? Ah non pardon, lui aussi il a des « guidelines ». Mince alors. Va falloir donc continuer à écrire vos tracts vous-mêmes les amis. Je sais, l'IA woke vous opprime, c'est terrible.
Après, le vrai sujet derrière PoliBench, c'est que ces biais existent bel et bien et qu'ils influencent les réponses que vous recevez sur des sujets sensibles. Quand vous demandez à une IA son avis sur l'immigration, les impôts ou la régulation des entreprises, la réponse dépend en partie de ces préférences encodées dans le modèle. Il faut juste le savoir...
Alors vous choisissez quelle IA à partir de maintenant ?
WhatsApp propose de s'envoyer des messages à soi-même. Une fonctionnalité très utile dans certaines situations. Voyons ici comment et pourquoi s'en servir.