↩ Accueil

Vue normale

Ryzen AI 9 HX 370 fanless : Bedrock RAI300 modulaire et sans ventilateur pour l’edge

Par :Wael.K
21 janvier 2026 à 12:01

SolidRun lance le Bedrock RAI300, un PC industriel fanless basé sur l’AMD Ryzen AI 9 HX 370, pensé pour l’edge où l’on combine calcul x86 et accélération IA intégrée.

Ryzen AI 9 HX 370 fanless au cœur du Bedrock RAI300

Au menu, un CPU Zen 5 12 cœurs/24 threads avec boost jusqu’à 5,1 GHz, un iGPU Radeon 890M et un NPU XDNA 2 donné jusqu’à 50 TOPS. SolidRun annonce la prise en charge d’AMD ROCm 7.x sous Windows et Linux.

Diagramme explicatif refroidissement PC fanless, annotations techniques avec flèches de circulation d'air.

Le châssis fanless mise sur un TIM en métal liquide, des heatpipes empilés et une enveloppe qui évacue la chaleur via la structure. Températures d’utilisation annoncées de -40°C à 85°C.

Plateforme modulaire, I/O ajustables

Le Bedrock conserve une architecture modulaire avec cartes distinctes pour le compute, le réseau/I&O, le stockage/extension et l’alimentation. Deux configurations principales sont listées : l’une priorise les sorties d’affichage, l’autre l’Ethernet.

Stockage et extensions

Les emplacements M.2 NVMe peuvent être troqués contre des cartes d’extension comme des accélérateurs Hailo ou un modem cellulaire. Des options pro complètent l’ensemble : mémoire ECC, protection contre perte d’alimentation sur NVMe, SPI flash redondant pour le firmware.

Composants internes PC Ryzen, vue éclatée, fond blanc, détails matériels visibles.

Puissances configurables et usage ciblé

Le TDP du CPU est ajustable dans le BIOS de 8 W à 54 W selon la configuration et la marge thermique. SolidRun précise qu’il ne s’agit pas de machines grand public : la série Bedrock vise l’industriel et l’edge durcis.

La combinaison Zen 5 + XDNA 2 avec ROCm 7.x sur un châssis fanless large température élargit l’écosystème x86/IA côté edge, avec un intérêt clair pour les intégrateurs qui cherchent à standardiser des stacks IA sur Windows ou Linux sans GPU dédié et avec des contraintes thermiques strictes.

Source : VideoCardz

SSD : Kioxia annonce la fin du 1 To bon marché et une capacité NAND saturée

Par :Wael.K
21 janvier 2026 à 09:01

En visite à Séoul, Shunsuke Nakato, cadre dirigeant de Kioxia, a déclaré que « l’époque où l’on achetait 1 To de SSD à 7 000 yens (environ 45 €) » est révolue. Le groupe affirme que sa capacité NAND pour l’année est presque entièrement allouée.

Selon Nakato, la dynamique tirée par l’IA va perdurer au moins jusqu’à l’an prochain. La demande grimpe sur l’ensemble des produits de stockage, NAND incluse, avec un double effet rareté et hausse tarifaire. Les contrats en cours continuent toutefois d’encadrer les livraisons.

Capacité quasi saturée, contrats annuels et hausses de prix

Kioxia dit s’en tenir à ses engagements vis-à-vis de ses clients historiques, sans basculer sur des schémas « premier arrivé, premier servi » ni « au plus offrant ». L’entreprise privilégie des contrats annuels avec répartition de capacité convenue en amont.

Dans le même temps, la direction prévient que les conditions tarifaires évoluent avec le marché. Des relèvements de prix sont jugés inévitables, avec des cas de figure pouvant atteindre 30 % sur certaines références, en fonction du contexte et des volumes.

Contexte marché : IA, pénurie relative et fin du « plancher » 1 To

Le message de Kioxia reflète la tension actuelle : hyperscalers, centres de données et PC se disputent des wafers NAND alors que les investissements liés à l’IA s’accélèrent. Les baisses extrêmes observées fin de cycle en 2023–2024 ne sont plus d’actualité et le « plancher » à environ 43 € pour 1 To ne reviendra pas à court terme.

Pour les OEM comme pour le retail, la conséquence immédiate est une visibilité limitée sur les prix et les disponibilités au fil de l’année. La priorité donnée aux partenaires sous contrat devrait lisser les livraisons, mais elle laisse peu de marge au marché spot, où la volatilité reste élevée.

Cette phase de remontée s’inscrit dans un cycle classique mémoire/stockage, mais la traction IA accentue la vitesse de normalisation. Le point d’attention sera la cadence de ramp des capacités NAND en 2025 face aux besoins des serveurs d’IA et au mix de couches, qui conditionnera l’atterrissage des prix côté SSD grand public.

Source : ITHome

Pulsar X2 CrazyLight Blue Archive : trois éditions Abidos à 39 g et 8 kHz

Par :Wael.K
21 janvier 2026 à 08:55

Pulsar officialise une collaboration Blue Archive avec trois souris X2 CrazyLight (taille moyenne) aux couleurs d’Abidos : Hoshino Takanashi, Shirako Sunaokami et Nonomi Izayoi. La base technique reste celle de la X2 la plus légère de la marque, orientée claw/fingertip, avec un châssis symétrique de 39 g et un pack capteur/électronique haut de gamme.

Fiche technique et variantes

Chaque édition intègre le capteur maison XS-1 à 32 000 DPI, des commutateurs optiques annoncés pour 100 millions d’activations et un encodeur TTC Gold. La souris accepte un polling rate jusqu’à 8 kHz et un mode Turbo à 20 000 FPS de traitement, de quoi coller aux exigences des joueurs FPS compétitifs. Le bundle comprend un récepteur 8K avec socle LED de collection, déjà aperçu sur l’édition Pikachu.

Trois figurines et souris Pulsar X2 CrazyLight assorties avec Blue Archive.

Les trois déclinaisons reprennent l’esthétique des personnages d’Abidos sans modifier l’ergonomie ni les caractéristiques internes. On reste sur le format medium de la série X2 CrazyLight, pensé pour une prise en main rapide et sans surcharge côté masse.

Vue de dessus de trois souris Pulsar X2 CrazyLight avec motifs Blue Archive.

Prix et disponibilité

Le tarif est fixé à 149,95 $ (environ 137 €). La commercialisation débute sur la boutique Pulsar et via les canaux habituels selon les régions.

Le recours à un récepteur 8 kHz fourni d’office et à un châssis 39 g confirme la stratégie de Pulsar sur l’ultra-light performant, tout en capitalisant sur des collaborations à forte reconnaissance visuelle. Sur un marché où les éditions spéciales sont souvent cosmétiques, l’apport d’un dongle haut débit intégré évite l’écueil du collector au rabais et positionne ce partenariat sur un segment premium cohérent.

Source : ITHome

DeepCool CH260 « bois » : boîtier M-ATX aéré, USB‑C 10 Gb/s et AIO 360 mm

Par :Wael.K
21 janvier 2026 à 08:51

DeepCool lance une édition « bois » de son boîtier M-ATX CH260, proposée en noir à 399 ¥ (environ 52 €) et en blanc à 449 ¥ (environ 59 €). Cette variante reprend la base du CH260 dévoilé l’an dernier, avec une touche esthétique : un insert à effet bois intégré au panneau I/O latéral.

Design, I/O et compatibilité

Boîtier M-ATX DeepCool CH260 bois, vue latérale avant légèrement élevée

Le châssis mise sur une aération généreuse via de larges panneaux Mesh et trois filtres à poussière amovibles. La façade est magnétique et permet un habillage « pixel art » personnalisable. Le boîtier mesure 438 × 225 × 312,5 mm, accepte des cartes mères Mini-ITX et Micro-ATX, y compris des cartes mères Micro-ATX à connecteurs inversés.

Vue intérieure avant du boîtier DeepCool CH260 bois, montrant l'espace de montage

La connectique en façade comprend un USB-C 10 Gb/s, deux USB-A 5 Gb/s, ainsi que des jacks audio et micro séparés. À l’intérieur, on trouve 4 slots PCIe, un emplacement 3,5″ et un 2,5″. Les tolérances matérielles sont confortables : ventirad jusqu’à 174 mm, carte graphique jusqu’à 388 mm (413 mm sans ventilateurs en façade), alimentation ATX, et 29,6 mm dédiés au câblage derrière le plateau.

Ventilation et watercooling

Le CH260 autorise 2 ventilateurs de 120 mm en façade, 1 ventilateur de 120 mm à l’arrière ou un radiateur de 120 mm, et jusqu’à 3 × 120 mm ou 2 × 140 mm au sommet, avec prise en charge des radiateurs 120/240/360 mm. La configuration privilégie un flux d’air direct, l’ensemble Mesh et les filtres multipliés limitant l’encrassement dans le temps.

Cette édition « bois » cible les configurations M-ATX compactes qui veulent éviter l’esthétique gaming trop voyante sans sacrifier la ventilation ni la compatibilité GPU. À ce tarif, l’USB-C 10 Gb/s et la marge de 360 mm en watercooling donnent un avantage fonctionnel face aux boîtiers décoratifs souvent plus limités.

Source : ITHome

DeepSeek MODEL1 : indices d’un nouveau modèle distinct de V3.2 pour l’inférence

Par :Wael.K
21 janvier 2026 à 08:49

DeepSeek prépare visiblement un nouveau jalon côté modèles. À la date anniversaire de DeepSeek-R1, des commits GitHub ont introduit dans FlashMLA une série de références à un identifiant « MODEL1 » disséminé dans 28 sections sur 114 fichiers, apparaissant tantôt aux côtés, tantôt en distinction du « V32 » (DeepSeek-V3.2). L’actualité recoupe un bruit de couloir de début janvier selon lequel un « DeepSeek V4 » serait attendu autour du Nouvel An lunaire, avec un net accent sur les capacités de génération de code.

Des indices d’architecture distincte

Les extraits techniques pointent des écarts notables entre « MODEL1 » et « V32 » sur la gestion des caches KV, le traitement de la sparsité et la prise en charge du format FP8 côté décodage. Ce triptyque suggère un chantier ciblé sur l’empreinte mémoire et le débit effectif, avec un pipeline d’inférence potentiellement optimisé pour des séquences longues et des charges interactives intensives.

Ces choix s’alignent avec l’intégration de kernels FlashMLA de nouvelle génération, où le layout KV et la granularité de sparsité conditionnent fortement l’utilisation du cache et le taux d’occupation des unités de calcul. Le support FP8 en décodage laisse supposer une calibration fine entre précision et débit, un levier crucial pour soutenir des fenêtres contextuelles étendues et des graphes d’attention parcimonieux.

Ponts avec les travaux récents de l’équipe

Deux publications récentes signées par le groupe de recherche DeepSeek détaillent une méthode d’entraînement baptisée « mHC » autour de l’optimisation des connexions résiduelles, et un module mémoire inspiré du biologique, « Engram ». Sans confirmation officielle, l’hypothèse d’une convergence de ces pistes dans « MODEL1 » reste crédible au vu des cibles affichées: stabilité d’apprentissage, capacités de rappel et efficacité d’inférence.

L’ensemble dessine un modèle distinct de V3.2, moins comme une simple révision qu’une refonte de certains blocs critiques. Si le calendrier évoqué pour « V4 » autour de février se confirme, DeepSeek chercherait à capitaliser sur un couple entraînement-inférence resserré, où les gains de sparsité et de quantification allégée seraient immédiatement convertibles en débit et en coût par token.

Dans un marché où l’avantage bascule désormais sur le coût d’exploitation plus que sur les seuls scores synthétiques, la combinaison d’un KV cache repensé et d’un décodage FP8 peut déplacer la pression du côté des fournisseurs d’infrastructure. Si DeepSeek parvient à stabiliser ces optimisations à large échelle, l’impact pourrait être tangible pour les intégrateurs qui cherchent à pousser des assistants de code à forte contrainte de latence et de fenêtre contextuelle, en particulier sur des grappes hétérogènes.

Source : ITHome

OpenAI ajoute des publicités à ChatGPT, promet des réponses intactes et signalées

Par :Wael.K
21 janvier 2026 à 08:46

OpenAI confirme l’arrivée de publicités dans ChatGPT au cours des prochaines semaines, y compris dans la version gratuite et dans ChatGPT Go. La décision s’inscrit dans la recherche de financements pour sa feuille de route AGI, avec un message clair de Sarah Friar, directrice financière, qui promet de préserver l’intégrité des résultats générés par le modèle.

Publicités, mais pas au détriment des réponses

Sarah Friar explique que 95 % des utilisateurs de la plateforme sont sur l’offre gratuite, un socle que l’entreprise dit vouloir protéger. OpenAI affirme poser une règle simple : le modèle doit continuer à fournir « la meilleure réponse » possible, et l’identification des promotions sera explicite pour éviter toute confusion entre un résultat et un lien sponsorisé.

La dirigeante critique au passage l’opacité d’autres plateformes où l’on ne sait plus « si c’est un lien sponsorisé ou le meilleur résultat ». OpenAI promet d’éviter cette zone grise et de maintenir une couche d’usage sans publicité, sans détailler l’articulation exacte entre offres gratuites, Go et payantes.

Formats attendus et périmètre sensible

Friar évoque des formats « utiles » plutôt que du bannering à l’ancienne. Exemple donné : une requête de city break où un placement pour une location courte durée peut avoir de la valeur s’il est clairement signalé. OpenAI parle d’innovations « propres au médium » pour éviter d’importer des recettes publicitaires datées dans une interface conversationnelle.

Elle cite par ailleurs ChatGPT Health, présenté comme un module de conversation santé, pour rappeler qu’OpenAI ne l’entraîne pas sur les données des utilisateurs et qu’il restera hors du périmètre publicitaire. L’entreprise martèle l’enjeu de confiance, présentée comme non négociable même avec la montée en charge des annonceurs.

Ligne de crête entre monétisation et crédibilité

Le pari d’OpenAI est risqué mais rationnel : la publicité est la voie la plus rapide pour monétiser une base gratuite massive, à condition de maintenir une séparation étanche entre réponses du modèle et placements. L’arbitrage produit sera scruté de près par les utilisateurs experts, car le moindre glissement perçu vers des réponses « incitées » entamerait la valeur du service. Tout se jouera dans l’exécution signalétique, la transparence et la pertinence contextuelle des formats.

Source : ITHome

Samsung vise des base dies HBM en 2 nm pour doper l’IA au-delà de HBM4

Par :Wael.K
21 janvier 2026 à 08:42

Selon ZDNET Korea, Samsung Electronics prépare des « base dies » HBM personnalisés gravés en 4 nm jusqu’au 2 nm, présentés comme un prolongement de sa stratégie d’avantage de procédé au-delà de HBM4. L’objectif : déplacer davantage de logique au pied des piles HBM, dans le die de base, désormais fabriqué en technologie logique depuis HBM4, afin de contourner la limite de surface des puces monolithiques hautes performances (858 mm² de champ de réticule) et d’améliorer l’efficacité énergétique.

En miroir, TSMC prévoit d’introduire son N3P pour des base dies HBM custom, mais Samsung chercherait à pousser plus agressivement vers le 2 nm. Plus le procédé du base die est avancé, plus il peut héberger de circuits qui, jusqu’ici, restaient sur le XPU central (GPU, NPU ou accélérateur maison), avec à la clé une densité logique et une sobriété accrue à proximité immédiate de la mémoire.

Vers des HBM « actifs » plus ambitieux

Le recours à des base dies HBM en logique avancée ouvre la voie à des fonctions de prétraitement, de gestion de bande passante et de contrôle plus sophistiquées directement sous la pile mémoire. Couplé aux interconnexions multi-puces, ce déplacement de blocs réduit la pression sur le die principal et aide à franchir le plafond physique du réticule sans exploser les latences.

D’après des sources internes citées, l’initiative est pilotée par l’équipe Custom SoC récemment créée au sein de la division System LSI de Samsung. Le positionnement est clair : proposer un continuum de procédés (4 nm → 2 nm) pour adapter le contenu logique du base die aux besoins des clients AI haut de gamme, alors que la demande en HBM4/HBM4E grimpe et que les roadmaps XPU butent sur la taille de die et les budgets thermiques.

Contexte concurrentiel et implications

Dans ce segment, la fenêtre se joue sur trois axes: densité logique au pied des piles, maîtrise d’assemblage 2.5D/3D et intégration co-design mémoire/accélérateur. Un base die en 2 nm crédibilise l’intégration de blocs plus lourds sous HBM4, mais impose une supply chain mature en procédés logiques avancés et en empilement TSV. TSMC pousse N3P côté base die custom, ce qui pourrait suffire pour des intégrations ciblées, mais l’avance nominale de Samsung en nœud plus fin lui offre un angle d’attaque différenciant sur l’efficience et l’aire utile.

Si Samsung concrétise une offre 2 nm pour base die HBM, les concepteurs d’XPU pourraient rééquilibrer leur partition logique entre die principal et base die, avec des gains en bande passante utile et en consommation par opération. La clé sera la disponibilité industrielle et les rendements, car toute variabilité à ce niveau se répercute sur le coût total des piles HBM et sur la cadence des plateformes AI haut de gamme.

Source : ITHome

Marathon surprend avec des configs minimales très basses sur PC, sortie le 5 mars

Par :Wael.K
21 janvier 2026 à 08:40

Marathon abaisse la barre d’entrée sur PC. Le shooter extraction de Bungie arrive le 5 mars et affiche des exigences minimales étonnamment modestes, une bonne nouvelle pour les petites configs.

Marathon : des specs minimales qui datent presque d’une décennie

Après un long report et un retour au cahier des charges, le studio a confirmé la sortie au 5 mars. Sur Steam, la fiche mentionne en configuration minimale une NVIDIA GeForce GTX 1050 Ti 4 Go, une AMD Radeon RX 5500 XT ou une Intel Arc A580 avec ReBar activé, associée à 8 Go de RAM et un processeur Intel Core i5‑6600 ou AMD Ryzen 5 2600. Les prérequis recommandés montent à une GeForce RTX 2060 6 Go, une Radeon RX 5700 XT 8 Go ou une Arc A770 16 Go (toujours avec ReBar), plus un Core i5‑10400 ou un Ryzen 5 3500 et 16 Go de RAM.

Tableau des configurations système minimales et recommandées pour le jeu Marathon.

Aucune cible de framerate ou de définition n’est précisée. D’après les usages du secteur, on peut s’attendre à environ 60 fps en réglages faibles pour la configuration minimale. Bungie n’indique pas non plus si TPM 2.0 ou Secure Boot seront requis pour des raisons d’anti‑triche. La fiche laisse aussi entendre que les PC de poche type ASUS ROG Ally et autres iGPU proches devraient obtenir un rendu jouable en baissant légèrement la définition.

Spécifications détaillées et contexte de sortie

Le studio résume en creux un objectif clair : « barrière d’entrée impressionnante de faiblesse », d’après la présentation des specs sur Steam. Pour rappel, la fenêtre a été confirmée après des mois de silence, avec une nouvelle bande‑annonce de précommande montrant du gameplay. Les cartes Intel Arc listées exigent le Resizable BAR activé, un point à vérifier dans l’UEFI.

En l’état, la combinaison GTX 1050 Ti + 8 Go de RAM et Core i5‑6600 devrait suffire pour démarrer, tandis qu’une RTX 2060 et 16 Go viseront plus confort. Les joueurs sur RX 5700 XT ou Arc A770 devraient également être à l’aise, sous réserve d’optimisations pilotes au lancement.

Source : TechPowerUp

IA et emplois juniors : DeepMind et Anthropic anticipent un tournant en 2025

Par :Wael.K
21 janvier 2026 à 08:37

Les patrons de Google DeepMind et d’Anthropic avertissent d’un virage concret : l’IA commence à grignoter les postes d’entrée de gamme dans leurs propres organisations. À Davos, Demis Hassabis a évoqué une première inflexion tangible dès cette année, avec un ralentissement des recrutements sur les stages et les fonctions junior. Dario Amodei, chez Anthropic, maintient pour sa part sa projection d’une contraction majeure des emplois de début de carrière parmi les cols blancs, avec un risque de chômage à 20 %, sans révision de trajectoire à ce stade.

Des signaux internes qui se durcissent

Hassabis confirme une prudence accrue sur l’embauche d’entrants, symptôme souvent précoce d’un basculement de productivité. Amodei cite déjà des effets visibles dans le logiciel et la programmation, domaine où les outils d’IA générative compressent le temps d’exécution sur les tâches répétitives et la production de code standard. Chez Anthropic, la demande en effectifs pourrait se contracter sur certains postes juniors et même une partie des fonctions intermédiaires.

Les deux dirigeants insistent sur la dimension systémique de l’ajustement. Ils appellent à des réponses institutionnelles, en particulier via une gouvernance internationale et des dispositifs économiques d’amortissement pour éviter un choc social. Amodei précise que le risque clé tient au rythme de progression de l’IA : une croissance exponentielle pourrait dépasser la capacité d’adaptation collective en un à cinq ans.

Un cap pour l’industrie et les politiques RH

Dans la tech, le mouvement se traduira par une redéfinition des pipelines de formation et de mentoring. Moins de postes d’entrée mettra mécaniquement sous tension la montée en compétence, alors que la valeur se déplace vers la supervision d’agents, la garantie qualité, la sécurité et l’orchestration des modèles. À court terme, le principal indicateur à suivre reste le ratio productivité/embauches sur les tâches « boilerplate », notamment en développement, en data et en fonctions support.

L’enjeu pour les entreprises sera d’éviter un assèchement de la filière junior qui fragiliserait l’écosystème à moyen terme. Les politiques RH devront articuler gains d’efficacité et trajectoires de professionnalisation, quitte à réinventer les formats d’intégration et les contenus d’apprentissage, avec plus d’exigence sur la polyvalence et la vérification humaine du travail assisté par IA.

Source : ITHome

Seasonic PRIME TX-1600 décroche la première certification CQC niveau 5 retail

Par :Wael.K
21 janvier 2026 à 08:08

Seasonic annonce que son alimentation haut de gamme PRIME TX-1600 obtient la première certification d’efficacité énergétique « niveau 5 » délivrée par le China Quality Certification (CQC) à un bloc d’alimentation grand public. Ce palier, lié à une conversion culminant à plus de 95 %, s’accompagne d’exigences sur la constance de production et la fiabilité des composants clés.

Première « niveau 5 » CQC pour une alimentation retail

Le schéma du CQC segmente l’efficacité des alimentations intégrées en sept niveaux (1 à 7). Pour les produits retail, le niveau 5 constitue aujourd’hui l’échelon le plus élevé. Les tests portent sur l’efficacité de conversion, la cohérence entre lots et la robustesse des composants critiques, ce qui dépasse le simple rendement nominal et vise la tenue opérationnelle dans le temps.

Alimentation Seasonic PRIME TX-1600 avec boîte et certificat CQC visible

Positionnée au sommet du catalogue Seasonic, la PRIME TX-1600 affiche un rendement typique supérieur à 95 % et s’inscrit dans la catégorie des modèles « Titanium ». L’obtention du sésame CQC sur ce niveau donne une lecture supplémentaire de la qualité de fabrication et de la maîtrise des transitoires, critères que les intégrateurs surveillent au-delà des labels usuels.

Cap sur les stations de travail IA avec PRIME Enterprise

Seasonic prépare en parallèle la gamme PRIME Enterprise ciblant les stations de travail IA. Le constructeur annonce l’intégration d’un connecteur de protection intelligente OptiGuard, d’un système de double protection de puissance SDP et d’un dispositif de dissipation OptiSink pour optimiser le transfert thermique. Le discours insiste sur une meilleure gestion des variations de charge transitoires et sur l’EMC.

Dans un contexte où les cartes graphiques dédiées à l’IA et les configurations multi-GPU imposent des enveloppes et des crêtes de puissance difficiles, la recherche d’une meilleure immunité CEM et d’une réponse rapide aux surintensités transitoires devient un facteur différenciant. Si les promesses se confirment en test, Seasonic pourrait verrouiller le segment des alimentations haut de gamme pour postes IA, où la stabilité sous impulsions courtes et la tenue thermique priment sur le rendement seul.

Source : ITHome

Snapdragon X2 Elite : Qualcomm tease des PC de bureau compacts et passifs

Par :Wael.K
20 janvier 2026 à 23:42

Snapdragon X2 s’invite sur vos bureaux ! Qualcomm laisse entrevoir des PC de bureau compacts, loin du simple format portable attendu jusqu’ici.

Snapdragon X2 Elite vise le desktop, d’après un teaser de Qualcomm

Qualcomm a publié le 13 janvier sur sa chaîne YouTube un teaser présentant des « desktops nouvelle génération ». Le message est explicite : « next‑gen desktops are here. Snapdragon X Series processors build on the breakthroughs that reshaped laptops… », promet la marque, avec un accent sur la vitesse, l’IA et l’efficacité énergétique.

À 18 secondes, une formule maladroite s’affiche, « these flexible PCs bring what legacy desktops don’t », pendant que des utilisateurs tapent sur des claviers sans fil reliés à des boîtiers compacts et des moniteurs incurvés. Selon VideoCardz, la vidéo pourrait brouiller les pistes, Qualcomm n’ayant montré jusqu’ici, en présentiel, que des prototypes de mini PC à refroidissement passif.

Texte promotionnel pour PC Snapdragon X2 Elite sur fond rouge.

Le constructeur s’appuie sur l’élan de ses laptops Arm pour porter Snapdragon X2 Elite vers des formats desktop. Les images évoquent des boîtiers noirs ou argent métal, minimalistes, raccordés à des écrans de bureau.

Femme utilisant un PC compact sur un bureau en bois.

D’après TechPowerUp, les démonstrateurs les plus marquants remontent au Snapdragon Summit 2025 à Hawaï, avec des échantillons rouges en forme de « sous-verre » et de « palet de hockey ». La notion de « petit PC de bureau Windows » reste ouverte à interprétation, et il semblerait que Qualcomm et ses partenaires devront clarifier la feuille de route à l’approche de la commercialisation.

Base rouge d'un support de PC avec ports visibles.

Des promesses axées IA et Copilot+, mais un hardware encore flou

Le trailer met en avant trois points : Copilot+ pour accélérer les tâches créatives et productives, des designs « versatiles » adaptés à tous les environnements, et des expériences d’IA locales pour la confidentialité, les performances et la réactivité.

En filigrane, Snapdragon X2 Elite cherche à transposer au bureau ses gains d’efficacité énergétique issus du monde des laptops, avec la perspective de machines silencieuses et compactes. Reste que, d’après les précédentes démonstrations publiques, on parle surtout de mini PC passifs, pas de tours extensibles. Prudence donc sur l’ampleur du segment visé.

Source : TechPowerUp

Beelink SER10 : Ryzen AI 9 HX 470, NPU 55 TOPS et 10 GbE pour l’IA locale

Par :Wael.K
20 janvier 2026 à 23:18

Beelink lance sa série SER10, un mini PC axé sur l’inférence locale et la création accélérée par NPU. Au cœur, l’AMD Ryzen AI 9 HX 470 combine cœurs Zen 5 et Zen 5c, 12 cœurs/24 threads, 2,0 GHz de base et jusqu’à 5,2 GHz en boost. L’XDNA 2 embarqué annonce 55 TOPS pour les usages IA sur poste, dont le pilotage de modèles locaux et la génération de contenus.

La partie graphique s’appuie sur une Radeon 890M (RDNA 3.5), 16 unités de calcul à 3,1 GHz, positionnée pour accélérer le montage 4K, le rendu 3D léger et le jeu en 1080p/1440p selon profils. Le tout s’accompagne d’un saut côté réseau avec un port 10 Gigabit généralisé, en progression nette par rapport au 2,5 GbE de la précédente génération.

Deux variantes, deux approches de la mémoire

Le SER10 Pro embarque de la LPDDR5X soudée et se décline en quatre coloris (argent glacé, gris spatial, orange ambre, vert jade). Il intègre micro et haut-parleurs, avec un positionnement pensé pour l’assistant vocal et la visioconférence.

Le SER10 Max opte pour des slots DDR5, remplaçables par l’utilisateur. Plus sobre dans ses finitions (argent glacé, gris spatial), il vise la tenue des fréquences et la dissipation en espace contraint, avec un focus sur la constance des performances.

beelink ser10 series couleurs

Configurations et connectique

Les deux modèles sont proposés en 32 Go + 1 To et 64 Go + 1 To, avec SSD en standard. La connectique met en avant le port 10 Gigabit pour les workloads réseau, NAS et post-production en local, ainsi qu’une dotation moderne côté vidéo et USB attendue sur ce segment. Le NPU XDNA 2 à 55 TOPS cible explicitement les workflows IA de bureau sans cloud.

Dans un marché mini PC très compétitif, l’association Zen 5/Zen 5c, RDNA 3.5 et 10 GbE place le SER10 sur un créneau pertinent pour studios compacts, créateurs itinérants et PME qui internalisent l’inférence. Le choix entre LPDDR5X soudée et DDR5 remplaçable segmente proprement l’offre selon les priorités thermiques et de maintenance.

Note : un cas de white labeling assumé

Le SER10 est également commercialisé par Minisforum sous la même dénomination, avec des spécifications strictement identiques. Cette pratique de rebadging est courante dans l’industrie des mini PC chinois, où un même ODM fournit plusieurs marques concurrentes. Minisforum et Beelink puisent visiblement chez le même fabricant, se différenciant principalement sur le SAV, la distribution et le positionnement tarifaire selon les marchés. Pour l’acheteur final, cela signifie qu’il convient de comparer les prix et conditions de garantie entre les deux enseignes avant achat.

Source : ITHome

Intel recrute Eric Demers : un vétéran du GPU pour accélérer l’IA d’Intel

Par :Wael.K
20 janvier 2026 à 23:01

Intel recrute Eric Demers, un poids lourd du GPU, et vise clairement l’IA. L’ingénieur, fraîchement parti de Qualcomm après près de quatorze ans et un poste de senior vice president of engineering, a confirmé qu’il rejoindra le fondeur « la semaine prochaine » d’après un message LinkedIn privé cité par CRN.

Intel recrute Eric Demers pour muscler l’IA

Présentation d'Eric Demers lors du Fusion Developer Summit.

Annonce tombée vendredi 16 janvier : Demers a expliqué avoir multiplié les échanges en 2025 avec le CEO d’Intel, Lip-Bu Tan. Les contours exacts de son rôle ne sont pas publics, mais l’intéressé laisse un indice. Selon CRN, il s’attend à « diriger l’ingénierie GPU avec un focus IA ». Un signal fort alors que le groupe a présenté il y a quelques mois son accélérateur data center Crescent Island et que son successeur Jaguar Shores viserait un « design complete » d’ici le milieu de 2026.

Le parcours parle de lui‑même : Silicon Graphics (SGI), Matrox, puis le start‑up studio ArtX formé par d’anciens de SGI, racheté ensuite par ATI Technologies. Demers devient ensuite Corporate VP & CTO de la division graphique d’AMD, qu’il quitte début 2012, avant de rejoindre Qualcomm pour contribuer notamment aux GPU Adreno. L’un de ses derniers chantiers chez Qualcomm semble être la gamme Snapdragon X2 Series orientée PC Windows.

Vers le nouvel « AI Group » d’Intel

Feuille de route de l'exécution AI avec sections Deliver, Scale, et Expand.

D’après les observateurs du secteur, Demers pourrait devenir une figure clé du « AI Group » récemment formé chez Intel, entité indépendante qui chercherait à se positionner face aux géants du calcul accéléré, en particulier NVIDIA. Le timing colle avec l’agenda produit : Crescent Island déjà officialisé, Jaguar Shores attendu pour une finalisation de design mi‑2026.

Chez Qualcomm, Demers a passé près de quatorze ans, culminant au titre de senior vice president of engineering. Ce transfert intervient alors que l’écosystème GPU s’aligne sur des feuilles de route IA de plus en plus agressives côté data center et PC. Si Intel confirme ses ambitions, l’arrivée de Demers pourrait accélérer la convergence entre architecture GPU et charges IA au cœur de ses prochaines générations d’accélérateurs.

Source : TechPowerUp

HKC ANT253PQ-N : écran gaming 24,5″ 1440p à 300 Hz en co-branding Naraka

20 janvier 2026 à 21:13

HKC lance sous sa marque Ant Gaming un moniteur 24,5 pouces « ANT253PQ-N » en édition co-brandée avec le jeu « Naraka: Bladepoint ». L’écran gaming met en avant un duo rare sur ce format : 2560×1440 px et 300 Hz, avec un prix de lancement à 1799 ¥ (environ 230 € au taux du jour).

Écran gaming HKC ANT253PQ-N montrant un personnage de jeu vidéo asiatique.

Spécifications et dalles

La dalle Fast IPS de cet écran gaming annonce une luminance de 400 nits, un temps de réponse GtG de 1 ms et un contraste statique de 1000:1. La couverture colorimétrique est donnée à 99 % DCI-P3, avec gestion 10 bits via 8-bit + FRC. L’ensemble vise clairement l’e-sport compétitif en 1440p tout en conservant une restitution colorée décente pour la création légère.

Ports et fonctionnalités du moniteur HKC ANT253PQ-N mis en évidence.

La connectique comprend deux ports HDMI 2.1, un DisplayPort 1.4 et une sortie audio 3,5 mm. Le châssis adopte un habillage « Naraka: Bladepoint » et reste compatible VESA 100×100 mm. Le pied offre les réglages essentiels : hauteur, inclinaison et rotation.

Positionnement marché

Un 24,5 pouces 1440p à 300 Hz cible un segment précis : joueurs FPS qui privilégient la densité de pixels sans passer au 27 pouces. La présence de l’HDMI 2.1 élargit l’usage mixte PC/consoles, même si ces dernières ne tirent pas parti des 300 Hz. À ce tarif agressif en Chine, HKC pousse la concurrence sur les dalles rapides 2K, encore rares à cette diagonale.

Détails techniques en chinois du modèle HKC ANT253PQ-N.

Source : ITHome

BenQ RD280UG : moniteur 28 pouces 4K+ 120 Hz pensé pour les codeurs

20 janvier 2026 à 21:08

Un écran qui assume clairement sa cible : le BenQ RD280UG s’adresse aux développeurs qui enchaînent les sessions longues et veulent une lisibilité nette sans fatigue visuelle.

BenQ RD280UG : 28 pouces 4K+, 120 Hz et format 3:2 pour coder

Homme travaillant sur un moniteur BenQ RD280UG, affichant du code, sur un bureau sombre.

BenQ élargit sa série RD, présentée en 2024 comme la première gamme de moniteurs dédiée aux programmeurs, avec le BenQ RD280UG de 28 pouces en 4K+ à 120 Hz. Le constructeur met en avant une dalle Nano Matte pour limiter reflets et éblouissements, ainsi qu’un Coding Mode exclusif optimisé pour la lisibilité du texte selon le thème : de l’IDE : Dark Theme pour accentuer la lecture et la précision en débogage, Light Theme pour préserver la clarté en environnement clair, et Paper Color Mode pour un rendu doux proche du papier quand la fatigue s’installe.

D’après BenQ, le rafraîchissement à 120 Hz fluidifie le défilement et réduit le flou de mouvement, utile pour suivre des lignes de code sans effort. Le format 3:2 augmente l’espace vertical pour afficher davantage de code, tandis que le contraste annoncé de 2000:1 est épaulé par les technologies Enhanced Local Contrast et High Pixel Contrast pour un texte plus net, des ombres mieux définies et plus de détails. Au quotidien, ce 120 Hz profite aussi à la bureautique et au jeu occasionnel.

Côté connectique et ergonomie, le BenQ RD280UG propose un USB‑C avec jusqu’à 90 W de Power Delivery pour alimenter un portable tout en gérant l’affichage et les données via un seul câble. Le pied offre une rotation ±90° avec auto pivot pour alterner facilement entre portrait et paysage. On retrouve l’écosystème Eye‑care de BenQ avec Visual Optimizer, réglage automatique de la luminosité et de la température de couleur, et une certification TÜV Low Blue Light. Un KVM intégré permet de piloter deux machines avec un seul clavier et une seule souris.

Le moniteur ajoute l’éclairage d’ambiance MoonHalo pour équilibrer la luminosité de la pièce, ainsi qu’une protection en heures nocturnes via une gestion de luminosité minimale afin de réduire la fatigue oculaire. « Les programmeurs ont besoin d’écrans pensés pour de longues heures de concentration », rappelle BenQ, qui revendique plus de vingt ans d’expertise dans l’affichage.

Logiciels et raccourcis pour les IDE

Configuration multi-écran avec un moniteur BenQ RD280UG, portable, smartphone, et casque audio sur un bureau.

Le logiciel Display Pilot 2 est annoncé compatible macOS, Windows et Linux, avec un support Linux renforcé pour la communauté dev. Une touche de raccourci « Coding » dédiée donne accès instantané aux modes Coding, à la luminosité, au contraste et aux réglages Eye‑care, sans casser le flux de travail.

Le BenQ RD280UG est disponible en précommande sur BenQ.com et chez certains revendeurs au prix public conseillé de 759,99 dollars, soit environ 700 à 740 euros TTC selon le taux de change et les taxes locales.

Ports arrière du moniteur BenQ RD280UG, montrant HDMI, USB et entrée casque.

Source : TechPowerUp

Gamdias ATLAS M4 : moyen tour vitré, flux d’air vertical et hub ARGB intégré

Par :Wael.K
20 janvier 2026 à 21:00

Gamdias lance l’ATLAS M4, un boîtier moyen tour misant sur une vitrine intégrale et un flux d’air vertical naturel, annoncé à 99,9 $ (environ 92 €). Les panneaux en verre trempé plein format à l’avant et sur le côté exposent l’ensemble de la configuration, tandis qu’une entrée d’air par la base perforée et une extraction par le haut et l’arrière assurent une convection continue.

Conception et circulation d’air

Le châssis adopte une alimentation dissimulée, installée sur un panneau fixe à droite et en partie haute, afin de dégager la vue dans la chambre principale et simplifier l’agencement. Gamdias préinstalle quatre ventilateurs NOTUS M1 de 120 mm avec éclairage ARGB, pilotables via un hub 8 broches PWM/ARGB intégré pour centraliser vitesse et effets.

Vue arrière du boîtier Gamdias ATLAS M4 avec grilles de ventilation et panneau latéral
Boîtier Gamdias ATLAS M4 avec composants RGB visibles à travers le panneau en verre

Un système de ventilateurs ajustable en angle au plancher permet de diriger le flux précisément vers la carte graphique. Le principe « cheminée » est ici exploité sans artifice, avec prise d’air basse et extraction haute, pour une pression interne maîtrisée sans recourir à des éléments superflus.

Diagramme des supports de ventilateurs et radiateurs dans le boîtier Gamdias ATLAS M4

Compatibilité et intégration

Le boîtier est compatible avec les cartes mères à connecteurs au dos, ce qui aide à épurer le compartiment principal. Gamdias fournit une rallonge secteur pour un cheminement de l’alimentation par l’arrière, maintenant l’esthétique tout en garantissant l’accessibilité. Un support de carte graphique est livré d’origine pour sécuriser les modèles haut de gamme et limiter tout risque de fléchissement.

Ce positionnement relève une tendance claire des châssis orientés « build show » : invisibiliser l’alimentation, basculer le câblage derrière la carte mère et concentrer l’air frais vers le GPU. À ce tarif, l’intégration du hub PWM/ARGB et du support GPU ajoute un levier concurrentiel tangible face aux modèles vitrés plus basiques.

Source : ITHome

OpenAI « Sonata » : nouveaux sous-domaines laissent entrevoir un service audio/API

Par :Wael.K
20 janvier 2026 à 20:54

OpenAI teste un nouveau service ou produit interne baptisé « Sonata ». Plusieurs sous-domaines ont été créés mi-janvier, dont sonata.openai.com (16 janvier 2026) et sonata.api.openai.com (15 janvier 2026), signe d’une phase de préparation côté front public et côté API. Le choix du nom évoque la musique, sans en faire une preuve fonctionnelle.

Dans l’écosystème OpenAI, ce type d’hôte pointe en général vers des pages produits, des outils internes ou des webapps en test. L’apparition simultanée sur le domaine principal et sur l’API suggère une brique destinée à la fois à l’expérience utilisateur et aux intégrations développeurs, ou au minimum une surface d’essai cohérente entre les deux.

Périmètre fonctionnel pressenti

Le nom « Sonata » renvoie naturellement à la musique et à l’audio, mais rien ne permet d’affirmer que la fonctionnalité cible la génération musicale. OpenAI a récemment amélioré la recherche contextuelle dans l’historique des conversations de ChatGPT, avec un affichage des fils sources utilisés pour répondre, ainsi qu’une optimisation en cours de la dictée vocale pour tous les utilisateurs connectés. Le calendrier rapproche « Sonata » d’un cycle d’évolution audio/voix déjà visible, sans établir de lien direct.

SONATA

Sur le plan opérationnel, la présence d’un sous-domaine API dédié laisse deux options plausibles : un endpoint spécialisé (audio, musique, voix, lecture multimodale) ou un service transversal nécessitant un routage séparé. OpenAI segmente régulièrement ses services expérimentaux par sous-domaines pour limiter l’impact de déploiement et isoler la télémétrie.

Ce qui est confirmé côté ChatGPT

OpenAI indique que la recherche et la citation d’anciens échanges sont désormais plus précises lorsque la fonction de référence à l’historique est active. Les conversations utilisées pour construire une réponse sont listées comme sources et accessibles pour recontextualiser. En parallèle, la reconnaissance vocale est en cours d’optimisation pour l’ensemble des comptes connectés.

Si « Sonata » est bien lié à l’audio, l’empilement récent voix + citations d’historique pourrait préparer des usages où l’oral, la navigation contextuelle et la restitution multimodale convergent. À l’inverse, si « Sonata » ne vise pas l’audio, on resterait devant un nom de code opportunément musical sans incidence sémantique.

Le mouvement rappelle le mode opératoire habituel d’OpenAI : création de sous-domaines dédiés, tests en production contrôlée, puis élargissement progressif. Pour l’écosystème développeur, un endpoint « sonata.api » distinct faciliterait l’adoption sans perturber les intégrations existantes, notamment si des codecs, des latences ou des modèles spécifiques à l’audio exigent une pile réseau différenciée.

Source : ITHome

Eric Schmidt alerte l’Europe : sans IA open source et énergie, dépendance chinoise

Par :Wael.K
20 janvier 2026 à 20:50

À Davos, Eric Schmidt a prévenu que l’Europe devait financer des laboratoires d’IA open source et s’attaquer au coût de l’énergie, faute de quoi elle s’exposait à une dépendance rapide aux modèles chinois. L’ancien CEO de Google, devenu investisseur, estime que les acteurs américains convergent vers des solutions fermées, vendues sous licence, quand la Chine pousse des modèles à « poids ouverts », plus transparents et réutilisables.

Schmidt situe le point de bascule très clairement : sans investissements massifs dans des modèles européens, les entreprises du continent finiront par intégrer des modèles chinois. Il cite en miroir la trajectoire de Gemini chez Google ou de ChatGPT chez OpenAI, tous deux fermés, face à l’offensive chinoise sur l’ouverture des poids, qui facilite l’audit, l’adaptation et l’optimisation locale.

Énergie, data centers et réalisme industriel

Au-delà du financement logiciel, Schmidt insiste sur le talon d’Achille européen : des prix de l’électricité élevés et une capacité de data centers insuffisante pour entraîner des modèles et des agents plus puissants. Il rappelle s’être impliqué dans une société de data centers visant à absorber la demande énergétique colossale de l’IA, et s’inquiète lui-même de l’impact du boom américain de l’IA sur l’approvisionnement en électricité.

Le message est limpide pour l’écosystème local : sans arbitrer rapidement entre coûts énergétiques, nouveaux sites, connectivité et filières de calcul intensif, l’open source européen restera un vœu pieux. À court terme, cela rebat les cartes pour les fournisseurs d’infrastructures, de l’alimentation électrique aux systèmes de refroidissement des salles, et conditionne la capacité des acteurs européens à entraîner des modèles maison plutôt que d’assembler des briques venues d’ailleurs.

NAND 2026 : Samsung et SK Hynix réduisent les wafers, tension sur les prix SSD à venir

Par :Wael.K
20 janvier 2026 à 20:48

Selon des données Omdia relayées par ChosunBiz, Samsung Electronics et SK Hynix réduiront en 2026 leurs volumes de wafers dédiés au NAND, alors qu’ils représentent ensemble plus de 60 % des capacités mondiales. Ce choix resserre encore un marché déjà tendu et ouvre la voie à une pression haussière sur les prix.

Capacités en baisse chez les deux leaders

Samsung planifie 4,68 millions de wafers NAND en 2026, contre 4,90 millions en 2025. SK Hynix prévoit 1,70 million de wafers cette année, après 1,90 million en 2025. Ensemble, la capacité 2026 recule d’environ 6,2 % sur un an.

semiconductor wafer dram

Les deux groupes privilégient désormais la maximisation des marges sur le NAND, après une précédente phase de cycle marquée par des pertes sévères. Dans ce cadre, aucun signal d’un relèvement agressif de la production n’apparaît à court terme.

Une demande IA qui s’intensifie

La courbe de la demande reste ascendante côté infrastructures IA. D’après Citi, un rack basé sur les « Vera Rubin » de Nvidia nécessite 1 152 To de SSD, plus de dix fois le niveau d’un système « Grace Blackwell » de génération précédente. Les hyperscalers, comme les OEM de serveurs, tirent donc l’absorption de NAND de qualité datacenter.

Ce décalage entre offre disciplinée et besoins en forte hausse entretient un environnement de prix soutenus, avec un effet de cascade possible vers le client, notamment sur les SSD NVMe haut de gamme et les modules entreprise.

Si Samsung et SK Hynix maintiennent cette stratégie de rareté relative en 2026, la normalisation des stocks pourrait durer plus longtemps que prévu. L’équation favorise les acteurs capables d’augmenter l’empilement de couches, d’optimiser les rendements en 3D NAND et d’allouer finement les volumes entre datacenter et grand public, autant de leviers qui pèseront sur la hiérarchie des marges au cours des prochains trimestres.

Source : ITHome

Dock rétro Mac mini M5 : écran 5 pouces, Thunderbolt 5 et M.2 jusqu’à 8 To

Par :Wael.K
20 janvier 2026 à 15:50

Wokyis revisite le Mac mini avec une station d’accueil au design néo-rétro inspiré du Macintosh. Le boîtier intègre un écran IPS de 5 pouces en 1280 × 720, accueille un SSD M.2 et se décline en deux versions selon la connectique.

La première, équipée d’un port USB-C à 10 Gb/s, est annoncée à 169 dollars, soit environ 155 euros hors taxes. La seconde, plus ambitieuse, mise sur le Thunderbolt 5 à 80 Gb/s et grimpe à 339 dollars, autour de 310 euros hors taxes. Dans les deux cas, l’écran intégré fait partie de l’équipement de série, renforçant l’approche tout-en-un de cette station d’accueil pensée pour le Mac mini.

Station d'accueil 14-en-1 avec écran et détails des ports affichés, fond clair.

Côté stockage, un logement M.2 interne accepte les formats 2230, 2242, 2260 et 2280, avec une capacité annoncée jusqu’à 8 To. La connectique regroupe quatre USB‑A 10 Gb/s, un USB‑C 10 Gb/s, des lecteurs SD et microSD UHS‑II, une prise audio 3,5 mm et une entrée HDMI. La variante Thunderbolt 5 ajoute une sortie DisplayPort, donnée pour de l’8K à 60 Hz.

Docking station arrière affichant stockage jusqu'à 8TB et tailles compatibles, fond léger.

La compatibilité couvre les Mac mini M4 et M4 Pro, mais aussi les Mac mini M1 et M2, ainsi que d’autres ordinateurs Thunderbolt et USB4. D’après la fiche, les systèmes limités à Thunderbolt 2 ou à l’USB 3.x / USB 2.0 ne sont pas pris en charge. Wokyis souligne « une extension de stockage simple et des I/O supplémentaires », avec un design pensé pour se fondre sous le Mac mini.

Thunderbolt 5, écran 5 pouces et alternatives rétro

Le look inspiré des premiers Macintosh rappelle d’autres machines néo‑vintage du marché. AYANEO, par exemple, commercialise son mini PC AM01 dans un style similaire, avec option Ryzen 7 5800U, un système de refroidissement 35 W et la prise en charge M.2 2280. Un positionnement tarifaire qui, selon NotebookCheck, n’est « presque pas plus cher » que ce dock M4 rétro.

Mac mini rétro avec écran, petit modèle à gauche, sur bureau avec accessoires.

Pour les utilisateurs de Mac mini en quête d’une base tout‑en‑un, la M5 coche les cases : stockage interne jusqu’à 8 To, Hub USB 10 Gb/s, lecteur SD UHS‑II, écran d’appoint et, sur le modèle TB5, sortie DisplayPort 8K/60. Reste à arbitrer entre le ticket d’entrée de 169 $ et le haut de gamme à 339 $.

Source : VideoCardz

Step3-VL-10B : modèle multimodal 10B qui vise le niveau SOTA on-device

Par :Wael.K
20 janvier 2026 à 15:18

StepFun ouvre Step3-VL-10B, un modèle multimodal de 10 milliards de paramètres présenté comme capable de rivaliser avec des références dix à vingt fois plus lourdes. L’équipe publie deux déclinaisons, « Base » et « Thinking », avec dépôts sur HuggingFace et ModelScope, un site dédié et un papier arXiv. Le positionnement est clair : amener sur terminaux locaux des capacités jusque-là cantonnées au cloud, du comptage d’objets précis à l’OCR exigeant en passant par l’ancrage GUI.

Capacités annoncées et périmètre de tests

Graphique de performance des modèles Step3-VL-10B, GLM, Qwen, Gemini, Seed.

À paramètres équivalents, Step3-VL-10B revendique un niveau SOTA en perception visuelle, raisonnement logique, mathématiques de compétition et dialogue généraliste. StepFun affirme des performances au niveau, voire au-dessus, d’ouverts très larges comme GLM-4.6V 106B-A12B et Qwen3-VL-Thinking 235B-A22B, ainsi que de modèles fermés de premier plan tels que Gemini 2.5 Pro et Seed-1.5-VL. Les benchmarks cités incluent MMMU, MathVision, BLINK, CVBench, OmniSpatial, ViewSpatial et des évaluations en environnement de programmation réel.

Comparaison des scores Text-centrique des modèles IA modernes.

Sur le versant mathématique, l’équipe met en avant des scores quasi parfaits sur AIME 25/24, suggérant une rigueur de chaîne de pensée au niveau du premier peloton. En 2D/3D, les scénarios de topologie et de comptage fin sont donnés comme un point fort.

Tableau de performance 2D/3D des modèles avec BLINK et autres benchmarks.

Côté code, les tests sont annoncés en conditions dynamiques, avec un avantage mesuré sur plusieurs modèles multimodaux de référence. Des démonstrations publiques couvrent de la résolution de puzzles visuels au grounding d’interfaces graphiques.

Architecture, entraînement et modes de raisonnement

Step3-VL-10B adopte un préentraînement multimodal joint pleine largeur, sans gel de modules, sur un corpus présenté comme « 1,2 T » d’exemples de haute qualité. L’alignement profond des espaces sémantiques vision/texte sert de socle aux tâches de perception fine et au raisonnement cross-modality. Le modèle est ensuite poussé par un cycle de renforcement massif, avec plus de 1 400 itérations, l’équipe estimant que la courbe n’a pas atteint son plateau.

Deux paradigmes d’inférence coexistent. SeRe, pour un déroulé séquentiel, et PaCoRe, « raisonnement parallèle coordonné », qui étend dynamiquement la puissance de calcul à l’inférence, explore en parallèle plusieurs hypothèses perceptives et agrège les preuves. StepFun indique que PaCoRe domine SeRe en STEM, OCR & documents, grounding GUI, compréhension spatiale et code.

Tableau comparatif des scores STEM pour divers benchmarks.

Cas d’usage et disponibilité

Le constructeur cible explicitement l’agent côté terminal. Nourri par un préentraînement dédié GUI, le modèle sait identifier et actionner des éléments d’interface complexes, un passage clé pour automatiser des workflows locaux sur PC, smartphones et équipements embarqués. L’éditeur met en avant la descente en coût et en empreinte calcul comme un levier pour généraliser le raisonnement multimodal avancé hors cloud.

Les ressources sont disponibles via le site projet, arXiv et les hubs de modèles. L’invitation au fine-tuning communautaire s’applique aux deux variantes, « Base » et « Thinking ».

Si les métriques internes se confirment en évaluation indépendante, Step3-VL-10B illustre un mouvement de fond : l’investissement méthodologique (préentraînement joint, RL à grande échelle, inférence parallèle) compense une réduction d’échelle brute. Pour l’écosystème, le signal est double: pression à la baisse sur les coûts d’inférence et accélération des agents multimodaux on-device, notamment pour le grounding d’UI et l’analyse documentaire avancée.

Source : ITHome

Rainbow Six tactique au tour par tour : un spin-off top-down en préparation

Par :Wael.K
20 janvier 2026 à 10:42

Rainbow Six changerait de cadence : d’après une fuite relayée par Insider Gaming, Ubisoft travaillerait sur un jeu tactique au tour par tour en vue top-down, ancré dans l’univers Rainbow Six et pensé pour la génération de consoles actuelle.

Rainbow Six en mode tactique top-down

Le projet en serait encore à un stade précoce, avec un lancement estimé à au moins deux ans. Selon les sources citées, le gameplay évoquerait un « XCOM mis à jour » ou, par certains aspects structurels, Diablo 4, mais avec des cinématiques soignées et une caméra vue de dessus. Le titre viserait une sortie sur les consoles actuelles et, d’après la fuite, un port potentiel sur une éventuelle Nintendo Switch 2 serait à l’étude, un signal cohérent avec les propos récents de dirigeants et développeurs d’Ubisoft sur leur appétence pour la console portable.

Côté contenu, l’équipe viserait 25 à 30 heures de jeu. La boucle de gameplay resterait très proche de Rainbow Six Siege : prise de contrôle d’opérateurs en équipes de six, et objectifs de type otages, bombes, extraction et protection. La nature exacte des modes n’est pas tranchée publiquement, avec une incertitude entre PvP, PvE ou un mélange des deux, même si cette dernière option paraît la plus plausible. Insider Gaming rapporte que le jeu proposerait des cut-scenes cinématiques pour accompagner la progression.

Un spin-off de Siege en tour par tour

Les informations restent non officielles et doivent être prises avec précaution. Mais l’angle tactique au tour par tour, associé à des opérateurs familiers et à des objectifs signature de Siege, dessine un spin-off identifiable. Insider Gaming résume l’ambition par une comparaison marquante : « très proche de Diablo 4 ou d’une version mise à jour d’XCOM », avec un rendu plus cinématographique.

Source : TechPowerUp

NVIDIA N1 : les puces laptop Arm arrivent dès ce trimestre, N1X en Flagship

Par :Wael.K
20 janvier 2026 à 10:27

Les NVIDIA N1 débarquent enfin : d’après DigiTimes, la plateforme Windows on Arm de NVIDIA arrive dès ce trimestre avec les N1X, tandis que les N1 « réguliers » patienteraient jusqu’au deuxième trimestre 2025. De quoi placer NVIDIA face aux Snapdragon X2 Elite et X2 Plus.

NVIDIA N1 et N1X : calendrier, architecture et objectifs

La feuille de route évoquée indique un premier lancement N1X au cours du premier trimestre de l’année, suivi des N1 en T2 2025. Les puces reprendraient la philosophie du GB10 Superchip utilisé dans le DGX Spark comme base de conception. Au menu : un CPU Arm v9.2 à 20 cœurs, répartis en deux clusters de dix, avec 16 Mo de L3 partagée par cluster (soit 32 Mo au total) et un L2 privé par cœur.

Côté mémoire, NVIDIA opterait pour un sous-système unifié LPDDR5X-9400 sur bus 256 bits, jusqu’à 128 Go pris en charge pour environ 301 Go/s de bande passante brute. Il resterait toutefois à confirmer si une telle capacité sera proposée dans des laptops grand public. Le package viserait près de 140 W de TDP et intégrerait du PCIe 5.0 pour des SSD NVMe très rapides.

Détail de la puce NVIDIA avec circuit imprimé complexe

Les premières rumeurs tablaient sur une apparition autour du CES 2026, mais le tempo s’accélère. Selon DigiTimes, NVIDIA a « préparé la relève avant même le lancement N1 », avec une série N2 prévue en T3 2027.

N2 en ligne de mire : succession du GB10, puis les portables

D’après les mêmes sources, la gamme N2 arriverait environ un an après, d’abord comme SoC de remplacement du GB10 Superchip, avant de glisser vers les laptops. Un signal clair que NVIDIA verrouille sa trajectoire Windows on Arm et vise un rafraîchissement régulier du haut au bas du stack.

Source : TechPowerUp

Lenovo 27Q-10 PRO : moniteur QD‑OLED 26,5 pouces QHD 280 Hz avec KVM intégré

Par :Wael.K
20 janvier 2026 à 10:24

Lenovo lance en Chine le « 27Q-10 PRO », un moniteur QD‑OLED de 26,5 pouces en 2560 x 1440 à 280 Hz, annoncé à 2699 ¥ (environ 350 €). La dalle revendique un temps de réponse de 0,03 ms, une luminance de 250 nits, un contraste dynamique de 1 500 000:1 et une prise en charge native du 10 bits. La couverture annoncée atteint 99 % sRGB et 99 % DCI‑P3.

Personne jouant à un jeu sur un moniteur Lenovo Legion à son bureau

Caractéristiques et connectique

Lenovo Legion Pro montrant options de pivot sur fond de paysage rouge

Le pied autorise le réglage en hauteur, l’inclinaison et la rotation. Le châssis est compatible VESA 100 x 100 mm pour une fixation sur bras. Côté entrées, on trouve deux HDMI 2.1, un DisplayPort 1.4, trois USB‑A 3.2 Gen 1 avec fonction KVM et un port USB‑B en amont.

Vue latérale du moniteur Lenovo montrant la hauteur ajustable de 135 mm

Positionné sur le segment QHD à très haut taux de rafraîchissement, ce modèle QD‑OLED vise clairement le jeu compétitif sans renoncer à une couverture large des espaces colorimétriques grand public et cinéma. Les 280 Hz en 1440p, associés à une réactivité OLED, le placent face aux références QD‑OLED 27 pouces récentes; le ticket d’entrée en yuan suggère un positionnement agressif en Chine, à confirmer sur les marchés internationaux si une distribution hors Asie est prévue.

Source : ITHome

❌