↩ Accueil

Vue lecture

Dock rétro Mac mini M5 : écran 5 pouces, Thunderbolt 5 et M.2 jusqu’à 8 To

Wokyis revisite le Mac mini avec une station d’accueil au design néo-rétro inspiré du Macintosh. Le boîtier intègre un écran IPS de 5 pouces en 1280 × 720, accueille un SSD M.2 et se décline en deux versions selon la connectique.

La première, équipée d’un port USB-C à 10 Gb/s, est annoncée à 169 dollars, soit environ 155 euros hors taxes. La seconde, plus ambitieuse, mise sur le Thunderbolt 5 à 80 Gb/s et grimpe à 339 dollars, autour de 310 euros hors taxes. Dans les deux cas, l’écran intégré fait partie de l’équipement de série, renforçant l’approche tout-en-un de cette station d’accueil pensée pour le Mac mini.

Station d'accueil 14-en-1 avec écran et détails des ports affichés, fond clair.

Côté stockage, un logement M.2 interne accepte les formats 2230, 2242, 2260 et 2280, avec une capacité annoncée jusqu’à 8 To. La connectique regroupe quatre USB‑A 10 Gb/s, un USB‑C 10 Gb/s, des lecteurs SD et microSD UHS‑II, une prise audio 3,5 mm et une entrée HDMI. La variante Thunderbolt 5 ajoute une sortie DisplayPort, donnée pour de l’8K à 60 Hz.

Docking station arrière affichant stockage jusqu'à 8TB et tailles compatibles, fond léger.

La compatibilité couvre les Mac mini M4 et M4 Pro, mais aussi les Mac mini M1 et M2, ainsi que d’autres ordinateurs Thunderbolt et USB4. D’après la fiche, les systèmes limités à Thunderbolt 2 ou à l’USB 3.x / USB 2.0 ne sont pas pris en charge. Wokyis souligne « une extension de stockage simple et des I/O supplémentaires », avec un design pensé pour se fondre sous le Mac mini.

Thunderbolt 5, écran 5 pouces et alternatives rétro

Le look inspiré des premiers Macintosh rappelle d’autres machines néo‑vintage du marché. AYANEO, par exemple, commercialise son mini PC AM01 dans un style similaire, avec option Ryzen 7 5800U, un système de refroidissement 35 W et la prise en charge M.2 2280. Un positionnement tarifaire qui, selon NotebookCheck, n’est « presque pas plus cher » que ce dock M4 rétro.

Mac mini rétro avec écran, petit modèle à gauche, sur bureau avec accessoires.

Pour les utilisateurs de Mac mini en quête d’une base tout‑en‑un, la M5 coche les cases : stockage interne jusqu’à 8 To, Hub USB 10 Gb/s, lecteur SD UHS‑II, écran d’appoint et, sur le modèle TB5, sortie DisplayPort 8K/60. Reste à arbitrer entre le ticket d’entrée de 169 $ et le haut de gamme à 339 $.

Source : VideoCardz

  •  

Step3-VL-10B : modèle multimodal 10B qui vise le niveau SOTA on-device

StepFun ouvre Step3-VL-10B, un modèle multimodal de 10 milliards de paramètres présenté comme capable de rivaliser avec des références dix à vingt fois plus lourdes. L’équipe publie deux déclinaisons, « Base » et « Thinking », avec dépôts sur HuggingFace et ModelScope, un site dédié et un papier arXiv. Le positionnement est clair : amener sur terminaux locaux des capacités jusque-là cantonnées au cloud, du comptage d’objets précis à l’OCR exigeant en passant par l’ancrage GUI.

Capacités annoncées et périmètre de tests

Graphique de performance des modèles Step3-VL-10B, GLM, Qwen, Gemini, Seed.

À paramètres équivalents, Step3-VL-10B revendique un niveau SOTA en perception visuelle, raisonnement logique, mathématiques de compétition et dialogue généraliste. StepFun affirme des performances au niveau, voire au-dessus, d’ouverts très larges comme GLM-4.6V 106B-A12B et Qwen3-VL-Thinking 235B-A22B, ainsi que de modèles fermés de premier plan tels que Gemini 2.5 Pro et Seed-1.5-VL. Les benchmarks cités incluent MMMU, MathVision, BLINK, CVBench, OmniSpatial, ViewSpatial et des évaluations en environnement de programmation réel.

Comparaison des scores Text-centrique des modèles IA modernes.

Sur le versant mathématique, l’équipe met en avant des scores quasi parfaits sur AIME 25/24, suggérant une rigueur de chaîne de pensée au niveau du premier peloton. En 2D/3D, les scénarios de topologie et de comptage fin sont donnés comme un point fort.

Tableau de performance 2D/3D des modèles avec BLINK et autres benchmarks.

Côté code, les tests sont annoncés en conditions dynamiques, avec un avantage mesuré sur plusieurs modèles multimodaux de référence. Des démonstrations publiques couvrent de la résolution de puzzles visuels au grounding d’interfaces graphiques.

Architecture, entraînement et modes de raisonnement

Step3-VL-10B adopte un préentraînement multimodal joint pleine largeur, sans gel de modules, sur un corpus présenté comme « 1,2 T » d’exemples de haute qualité. L’alignement profond des espaces sémantiques vision/texte sert de socle aux tâches de perception fine et au raisonnement cross-modality. Le modèle est ensuite poussé par un cycle de renforcement massif, avec plus de 1 400 itérations, l’équipe estimant que la courbe n’a pas atteint son plateau.

Deux paradigmes d’inférence coexistent. SeRe, pour un déroulé séquentiel, et PaCoRe, « raisonnement parallèle coordonné », qui étend dynamiquement la puissance de calcul à l’inférence, explore en parallèle plusieurs hypothèses perceptives et agrège les preuves. StepFun indique que PaCoRe domine SeRe en STEM, OCR & documents, grounding GUI, compréhension spatiale et code.

Tableau comparatif des scores STEM pour divers benchmarks.

Cas d’usage et disponibilité

Le constructeur cible explicitement l’agent côté terminal. Nourri par un préentraînement dédié GUI, le modèle sait identifier et actionner des éléments d’interface complexes, un passage clé pour automatiser des workflows locaux sur PC, smartphones et équipements embarqués. L’éditeur met en avant la descente en coût et en empreinte calcul comme un levier pour généraliser le raisonnement multimodal avancé hors cloud.

Les ressources sont disponibles via le site projet, arXiv et les hubs de modèles. L’invitation au fine-tuning communautaire s’applique aux deux variantes, « Base » et « Thinking ».

Si les métriques internes se confirment en évaluation indépendante, Step3-VL-10B illustre un mouvement de fond : l’investissement méthodologique (préentraînement joint, RL à grande échelle, inférence parallèle) compense une réduction d’échelle brute. Pour l’écosystème, le signal est double: pression à la baisse sur les coûts d’inférence et accélération des agents multimodaux on-device, notamment pour le grounding d’UI et l’analyse documentaire avancée.

Source : ITHome

  •  

Rainbow Six tactique au tour par tour : un spin-off top-down en préparation

Rainbow Six changerait de cadence : d’après une fuite relayée par Insider Gaming, Ubisoft travaillerait sur un jeu tactique au tour par tour en vue top-down, ancré dans l’univers Rainbow Six et pensé pour la génération de consoles actuelle.

Rainbow Six en mode tactique top-down

Le projet en serait encore à un stade précoce, avec un lancement estimé à au moins deux ans. Selon les sources citées, le gameplay évoquerait un « XCOM mis à jour » ou, par certains aspects structurels, Diablo 4, mais avec des cinématiques soignées et une caméra vue de dessus. Le titre viserait une sortie sur les consoles actuelles et, d’après la fuite, un port potentiel sur une éventuelle Nintendo Switch 2 serait à l’étude, un signal cohérent avec les propos récents de dirigeants et développeurs d’Ubisoft sur leur appétence pour la console portable.

Côté contenu, l’équipe viserait 25 à 30 heures de jeu. La boucle de gameplay resterait très proche de Rainbow Six Siege : prise de contrôle d’opérateurs en équipes de six, et objectifs de type otages, bombes, extraction et protection. La nature exacte des modes n’est pas tranchée publiquement, avec une incertitude entre PvP, PvE ou un mélange des deux, même si cette dernière option paraît la plus plausible. Insider Gaming rapporte que le jeu proposerait des cut-scenes cinématiques pour accompagner la progression.

Un spin-off de Siege en tour par tour

Les informations restent non officielles et doivent être prises avec précaution. Mais l’angle tactique au tour par tour, associé à des opérateurs familiers et à des objectifs signature de Siege, dessine un spin-off identifiable. Insider Gaming résume l’ambition par une comparaison marquante : « très proche de Diablo 4 ou d’une version mise à jour d’XCOM », avec un rendu plus cinématographique.

Source : TechPowerUp

  •  

NVIDIA N1 : les puces laptop Arm arrivent dès ce trimestre, N1X en Flagship

Les NVIDIA N1 débarquent enfin : d’après DigiTimes, la plateforme Windows on Arm de NVIDIA arrive dès ce trimestre avec les N1X, tandis que les N1 « réguliers » patienteraient jusqu’au deuxième trimestre 2025. De quoi placer NVIDIA face aux Snapdragon X2 Elite et X2 Plus.

NVIDIA N1 et N1X : calendrier, architecture et objectifs

La feuille de route évoquée indique un premier lancement N1X au cours du premier trimestre de l’année, suivi des N1 en T2 2025. Les puces reprendraient la philosophie du GB10 Superchip utilisé dans le DGX Spark comme base de conception. Au menu : un CPU Arm v9.2 à 20 cœurs, répartis en deux clusters de dix, avec 16 Mo de L3 partagée par cluster (soit 32 Mo au total) et un L2 privé par cœur.

Côté mémoire, NVIDIA opterait pour un sous-système unifié LPDDR5X-9400 sur bus 256 bits, jusqu’à 128 Go pris en charge pour environ 301 Go/s de bande passante brute. Il resterait toutefois à confirmer si une telle capacité sera proposée dans des laptops grand public. Le package viserait près de 140 W de TDP et intégrerait du PCIe 5.0 pour des SSD NVMe très rapides.

Détail de la puce NVIDIA avec circuit imprimé complexe

Les premières rumeurs tablaient sur une apparition autour du CES 2026, mais le tempo s’accélère. Selon DigiTimes, NVIDIA a « préparé la relève avant même le lancement N1 », avec une série N2 prévue en T3 2027.

N2 en ligne de mire : succession du GB10, puis les portables

D’après les mêmes sources, la gamme N2 arriverait environ un an après, d’abord comme SoC de remplacement du GB10 Superchip, avant de glisser vers les laptops. Un signal clair que NVIDIA verrouille sa trajectoire Windows on Arm et vise un rafraîchissement régulier du haut au bas du stack.

Source : TechPowerUp

  •  

Lenovo 27Q-10 PRO : moniteur QD‑OLED 26,5 pouces QHD 280 Hz avec KVM intégré

Lenovo lance en Chine le « 27Q-10 PRO », un moniteur QD‑OLED de 26,5 pouces en 2560 x 1440 à 280 Hz, annoncé à 2699 ¥ (environ 350 €). La dalle revendique un temps de réponse de 0,03 ms, une luminance de 250 nits, un contraste dynamique de 1 500 000:1 et une prise en charge native du 10 bits. La couverture annoncée atteint 99 % sRGB et 99 % DCI‑P3.

Personne jouant à un jeu sur un moniteur Lenovo Legion à son bureau

Caractéristiques et connectique

Lenovo Legion Pro montrant options de pivot sur fond de paysage rouge

Le pied autorise le réglage en hauteur, l’inclinaison et la rotation. Le châssis est compatible VESA 100 x 100 mm pour une fixation sur bras. Côté entrées, on trouve deux HDMI 2.1, un DisplayPort 1.4, trois USB‑A 3.2 Gen 1 avec fonction KVM et un port USB‑B en amont.

Vue latérale du moniteur Lenovo montrant la hauteur ajustable de 135 mm

Positionné sur le segment QHD à très haut taux de rafraîchissement, ce modèle QD‑OLED vise clairement le jeu compétitif sans renoncer à une couverture large des espaces colorimétriques grand public et cinéma. Les 280 Hz en 1440p, associés à une réactivité OLED, le placent face aux références QD‑OLED 27 pouces récentes; le ticket d’entrée en yuan suggère un positionnement agressif en Chine, à confirmer sur les marchés internationaux si une distribution hors Asie est prévue.

Source : ITHome

  •  

Serveurs IA 2026 : ASIC en hausse, GPU sous 70% et marché en accélération

TrendForce anticipe une accélération nette du marché serveurs en 2026 : les livraisons mondiales de machines dédiées à l’IA progresseraient de 28,3% sur un an, tandis que l’ensemble du parc serveurs, incluant les plateformes généralistes, grimperait de 12,8%, une hausse plus marquée qu’en 2025. Le centre de gravité se déplace des charges d’entraînement vers l’inférence, ce qui ouvre de nouveaux volumes pour les serveurs classiques, parallèlement au démarrage d’un cycle de renouvellement.

Diagramme de la répartition des technologies de serveurs IA en 2023-2026 : GPU, FPGA, ASIC.

ASIC en montée, GPU sous 70%

Les cinq grands acteurs cloud — Google, AWS, Meta, Microsoft et Oracle — devraient augmenter leurs dépenses d’investissement d’environ 40% cette année, avec une part significative consacrée à des solutions ASIC maison. TrendForce estime que les serveurs IA à base d’ASIC atteindraient 27,8% des livraisons d’IA, au détriment des configurations GPU dont la part passerait sous les 70%.

La bascule vers l’inférence avantage les puces spécialisées en coût par requête et en efficacité énergétique, tout en déchargeant partiellement le marché des GPU d’entrée de gamme. Si cette trajectoire se confirme, l’écosystème matériel côté cloud va se fragmenter davantage entre ASIC propriétaires, GPU généralistes et accélérateurs alternatifs, avec des chaînes d’approvisionnement plus captives et une pression accrue sur les standards d’interconnexion.

Source : ITHome

  •  

SilverStone PS07 Retro : boîtier Micro-ATX , USB-C 20 Gb/s et baie 5,25″

Aprés les FLP02 et FLP03, SilverStone vient de lancer le PS07 Retro, une réédition du boîtier Micro-ATX qui avait marqué la gamme Precision. Cette version reprend l’ADN du modèle d’origine tout en modernisant la connectique avec un port USB-C 3.2 Gen 2×2 à 20 Gb/s en façade. Le PS07 Retro cible les configurations compactes exigeantes, tout en conservant des atouts devenus rares comme deux emplacements 5,25″.

SilverStone PS07 Retro : design remis au goût du jour

Boîtier SilverStone PS07 Retro, vue avant avec ports accessibles.

Le châssis adopte une finition ivoire proche de la série FLP. Le boîtier affiche 210 × 374 × 400 mm pour un volume de 31,4 L et propose quatre slots d’extension. En façade, on retrouve deux baies 5,25″, un port USB-C 20 Gb/s et un port USB-A 5 Gb/s.

Boîtier SilverStone PS07 Retro, porte ouverte montrant l'intérieur.

Châssis inversé, plateau amovible et accessoires

L’agencement interne adopte une carte mère inversée avec l’alimentation positionnée en haut à l’arrière. Les pans avant des panneaux latéraux sont ajourés pour améliorer le flux d’air. SilverStone intègre un plateau de carte mère amovible et un capot supérieur démontable pour faciliter le montage.

Intérieur du boîtier SilverStone PS07 Retro, compartiment pour composants.

Le boîtier est livré avec un patin de support en caoutchouc pour carte graphique ainsi qu’un support de ventirad. Une large découpe au dos du plateau simplifie l’installation des systèmes de refroidissement du processeur.

Avec son format 31,4 L, sa façade à double 5,25″ et sa connectique USB-C 20 Gb/s, le PS07 Retro vise les amateurs de Micro-ATX fonctionnel et pérenne, combinant ergonomie de montage et esthétique néo-rétro.

Source : ITHome

  •  

VXE Dragonfly R1S : souris gaming 55 g à 20 € avec tri-mode

VXE Dragonfly R1S à 18,99 dollars, 55 g et tri-mode : la nouvelle entrée de gamme frappe fort. Cette souris sans fil vise les petites et moyennes mains, avec un châssis symétrique et un positionnement très agressif (environ 17 à 20 euros selon le taux de change).

VXE Dragonfly R1S : tri-mode, 55 g, capteur Xhero AI

Filiale d’ATK Gear, VXE pousse plus loin sa série Dragonfly R1 avec la R1S, annoncée sur X. On retrouve la même silhouette allégée que les R1, mais avec un capteur Xhero AI, un MCU HiSilicon BS20, un taux de rafraîchissement porté à 1 kHz et des switchs mécaniques Huano Blue Shell White Dot. Le tout pour 55 g en sans-fil et une connectivité tri-mode : USB-C, NearLink (standard introduit par Huawei en 2024) et Bluetooth 5.2.

Publicité VXE Dragonfly R1S avec détails techniques et offres promotionnelles.

VXE promet jusqu’à 150 heures d’autonomie. Le gabarit vise la prise en main fingertip ou claw sur petites à moyennes mains : 120,6 × 64,1 × 37,6 mm, bosse arrière basse, clics principaux en pente douce, deux boutons latéraux personnalisables et flancs quasi verticaux. La forme rappelle fortement les Pulsar X2 ou l’Endgame Gear OP1 8k.

Coques mates sans revêtement, Windows requis pour la personnalisation

Tableau des spécifications techniques du VXE Dragonfly R1 Series.

Pour tenir le tarif public conseillé de 18,99 dollars, VXE coupe quelques options : coque mate sans coating susceptible de briller à l’usage, seulement deux coloris (noir, blanc) quand le reste de la gamme R1 propose davantage. Officiellement, la R1S devient le nouveau bas de gamme de la série, tout en restant personnalisable et remappable via le pilote maison, sous Windows uniquement.

D’après l’annonce, la marque résume l’idée en « version d’entrée accessible, même gabarit, composants rationalisés ». Le recul à 1 kHz par rapport aux R1 plus ambitieuses s’inscrit dans cette logique. À ce prix, la présence de NearLink aux côtés de l’USB-C et du Bluetooth 5.2 demeure notable.

Source : TechPowerUp

  •  

IA et empreinte eau d’ici 2050 : énergie et fabs concentrent 96 % de la hausse

Une nouvelle étude de Xylem, en partenariat avec le Global Water Intelligence, chiffre l’empreinte eau de l’IA à l’horizon 2050. Selon le rapport, l’essor des infrastructures nécessaires à l’IA ferait grimper la demande mondiale annuelle de 30 000 milliards de litres d’eau, soit environ les trois quarts de la capacité du réservoir des Trois-Gorges.

L’énergie et les fabs en première ligne

Le document estime que la consommation de l’ensemble de la chaîne de valeur de l’IA augmenterait de 129 % par rapport à aujourd’hui. La hausse proviendrait majoritairement de la production d’électricité (~54 %) et de la fabrication de semi-conducteurs (~42 %), les data centers ne pesant directement qu’environ 4 % dans l’incrément.

Le signal d’alerte est d’autant plus net que 40 % des centres de données existants sont implantés dans des zones déjà en stress hydrique. La croissance future des capacités est, elle aussi, attendue dans des bassins où l’accès à l’eau est contraint.

Arbitrages industriels et leviers techniques

Xylem plaide pour un recours accru aux technologies d’économie et de réutilisation de l’eau, ainsi qu’à la réduction des fuites sur les réseaux. L’objectif est d’éviter que l’eau ne devienne un plafond de verre pour l’innovation, en particulier dans les régions où se concentrent les fabs de pointe et les parcs de data centers.

Au-delà des data centers, les choix d’approvisionnement électrique et les procédés de fabrication des puces seront déterminants. Refroidissement plus frugal, boucles fermées et traitement sur site côté IT, optimisation des stations d’épuration industrielles et des tours de refroidissement côté énergie et semi, seront les axes les plus impactants.

La trajectoire esquissée pose un enjeu d’implantation et de mix technologique pour l’écosystème IA. Sans bascule vers des sites moins contraints et des procédés sobres en eau, le coût opérationnel et réglementaire pourrait s’envoler, pesant sur les calendriers d’expansion des capacités de calcul et de production de puces.

Source : ITHome

  •  

X ouvre le code de l’algorithme For You : architecture Transformer et cycle public

Elon Musk annonce l’ouverture du code de l’algorithme « For You » de X. Le système publié reflète la version de production actuelle et s’appuie sur une architecture de type Transformer, la même famille que le modèle Grok de xAI. Musk admet des limites et promet un processus d’amélioration en continu, visible en temps réel, revendiquant une transparence que ses concurrents n’offrent pas.

Diagramme du processus de l'algorithme For You détaillant les étapes de sélection des posts.

Ce que X publie concrètement

Le dépôt GitHub inclut le pipeline de recommandation « For You », mis à jour toutes les quatre semaines. Les contenus proposés combinent les posts des comptes suivis et des posts découverts sur la plateforme, avant un tri par un modèle basé sur Grok qui estime la probabilité d’actions utilisateur clés : like, réponse, repost, clic ou visionnage.

Plutôt qu’un score unique, le modèle prédit plusieurs comportements et agrège ces signaux pour un classement plus fin. L’apprentissage repose directement sur les comportements utilisateurs, avec une pondération des interactions visant à rapprocher l’affichage des intentions effectives.

Transparence et rythme de livraison

Le code est accessible à l’adresse suivante : github.com/xai-org/x-algorithm. X prévoit un cycle public de mises à jour mensuel, aligné sur la branche de production, avec l’ambition de réduire l’écart entre recherche, déploiement et publication.

Si l’ouverture ne garantit pas l’absence de biais ni la portabilité du modèle hors de l’écosystème X, elle offre une visibilité utile sur la mécanique de scoring multi-objectifs et la manière dont X arbitre engagement, pertinence et diversité. Pour l’industrie, c’est un signal stratégique : l’ère des recommandations opaques se fissure, et la pression monte sur les réseaux à large échelle pour documenter leurs choix algorithmiques, au moins partiellement.

Source : ITHome

  •  

Michael Burry alerte : bulle de l’IA et hyperscalers pris au piège capitalistique

Michael Burry remet une pièce dans la machine. Invité d’un podcast Substack face à Jack Clark (Anthropic) et à l’animateur Dwarkesh Patel, l’investisseur surnommé « le Big Short » estime que la bulle de l’IA gonfle à vue d’œil et que son éclatement entraînera une longue traversée du désert pour la tech. Sa cible principale : les hyperscalers comme Microsoft et Alphabet, accusés d’engloutir des montants colossaux dans des puces et des data centers qui deviendront rapidement obsolètes, pour des usages qui finiront banalisés, à commencer par les chatbots.

Pour illustrer l’effet d’imitation à coûts fixes, Burry ressort une vieille anecdote de Warren Buffett : dans les années 60, deux grands magasins se sont équipés d’escaliers mécaniques l’un après l’autre. Personne n’y a gagné en marge, personne n’a réduit ses coûts, tout le monde s’est retrouvé au même point d’équilibre. « C’est le destin de la plupart des déploiements IA : dès que quelqu’un se hisse sur la pointe des pieds, les autres suivent », résume-t-il.

Le diagnostic est tranchant : des milliers de milliards sont en train d’être brûlés dans des concepts sans voie claire vers l’économie réelle. Les entreprises ne capteront pas d’avantage compétitif durable si leurs concurrents accèdent aux mêmes capacités au même rythme. À la clé, prévient-il, un secteur qui embauche moins et un cycle dégradé plus long qu’attendu.

Reste l’angle mort que la plupart des acteurs refusent d’aborder publiquement : la contrainte capitalistique de l’IA générative est extrême et cumulative, entre accélérateurs à renouveler vite, capacités électriques, refroidissement et foncier. Si la demande finale se standardise sur des outils commoditisés, la compression des prix rencontrera des amortissements qui s’étalent mal. Le risque est moins celui d’une disparition de l’IA que d’une normalisation brutale des multiples, qui pourrait revaloriser les modèles intégrés, sobres en capital et adossés à des flux tangibles, aux dépens des paris d’infrastructure trop larges.

Source : ITHome

  •  

DeepCool GAMMAXX 400 Performance : ventirad 4 caloducs, double ventilo en option

DeepCool lance en Chine le « GAMMAXX 400 Performance », une mise à jour de son ventirad entrée de gamme, décliné en noir ou en blanc à 79 ¥ (environ 10 €), ainsi qu’en version « PLUS » à double ventilateur à 99 ¥ (environ 13 €). La série conserve l’architecture à quatre caloducs en simple tour, avec un bloc de 125 mm de large, 92 mm de profondeur et 150 mm de hauteur, et un top matriciel revu. Garantie un an.

DeepCool GAMMAXX 400 Performance : ventirad 4 caloducs, double ventilo en option

Ventilation et acoustique

La principale évolution vient du ventilateur à « anneau de canalisation » qui referme l’intervalle entre pales et cadre pour limiter les turbulences et accroître la pression traversante. Le rotor est annoncé à 500–2200 tr/min, pour un débit de 70,09 CFM et un niveau sonore inférieur à 29,22 dB(A). Le modèle PLUS ajoute un second ventilateur en push-pull.

Compatibilité et positionnement

Le montage couvre les sockets Intel LGA 1851/1700 et AMD AM5/AM4. Le constructeur suggère un usage avec des processeurs du segment Core Ultra 5 ou Ryzen 7/5/3, ce qui cadre avec la capacité thermique habituelle des tours 4 caloducs. À ce tarif, l’intérêt tient à la pression statique accrue et au double ventilateur optionnel pour des boîtiers denses ou des grilles maillées restrictives.

Sur un marché où les 120 mm « budget » se multiplient, l’itération de DeepCool cible clairement le rapport perf/prix en Asie, avec des chiffres acoustiques ambitieux et un format 150 mm compatible micro‑ATX. Reste à voir l’écart réel entre version simple et PLUS en charge prolongée, qui décidera de sa place face aux références établies dans cette tranche.

Source : ITHome

  •  

Conner revient avec un chargeur USB‑C 65 W intégrant un SSD portable 5 Gbit/s

Conner, ex-fabricant de disques durs des années 80-90 fondé par Finis Conner et absorbé par Seagate en 1996, réapparaît depuis 2021 comme marque d’accessoires de stockage. Au CES, l’entreprise a dévoilé un chargeur secteur USB-C intégrant un SSD portable, une approche deux-en-un pensée pour les voyageurs qui veulent simplifier la sauvegarde.

Chargeur USB-C Conner 65W branché sur un MacBook avec deux adaptateurs muraux.

Le bloc adopte un port USB‑C compatible USB 3.2 Gen 1 (5 Gbit/s) et Power Delivery 65 W. Quatre déclinaisons de capacité sont prévues : 128 Go, 256 Go, 512 Go et 1 To. L’idée est de greffer un espace de stockage directement à un accessoire déjà indispensable, avec des débits suffisants pour de la sauvegarde quotidienne ou des transferts ponctuels, sans ajouter un câble ou un boîtier de plus dans le sac.

Un écosystème d’accessoires orienté sauvegarde

Adaptateurs USB-C Conner de couleurs variées près d'un smartphone.

Sur son stand, Conner montrait aussi un SSD portable pour smartphone avec alimentation passthrough, un lecteur de cartes MicroSD en USB‑C et une clé de sauvegarde mobile. La logique est cohérente : privilégier la copie locale rapide depuis un téléphone ou un PC, sans dépendre du cloud, tout en conservant la charge des appareils.

Le compromis 5 Gbit/s limitera les pics de débit, mais reste pertinent pour un combo charge + backup. La vraie question se situera sur la dissipation thermique d’un chargeur 65 W abritant de la NAND, et sur la gestion des firmwares pour éviter toute déconnexion logique durant les pointes de charge. Si Conner convainc sur ces deux points, ce format pourrait s’installer dans les setups nomades où chaque prise et chaque port comptent.

Deux clés USB Conner UME3 à côté d'un ordinateur portable.

Source : ITHome

  •  

Hohem SSD-01 : pSSD 20 Gbit/s triple USB‑C pour créateurs mobiles exigeants

Hohem, connu pour ses stabilisateurs, a dévoilé au CES un périphérique inattendu : le SSD-01, un SSD externe qui combine stockage, relais d’alimentation et support de réception audio sans fil. Le constructeur revendique un « trois-en-un » destiné aux créateurs mobiles, avec une compatibilité large et une intégration matérielle soignée.

Un pSSD pensé pour la captation mobile

Le SSD-01 intègre trois ports USB‑C. Un connecteur rabattable assure la liaison directe avec un smartphone ou tout appareil compatible, tandis que les deux autres servent respectivement au passthrough d’alimentation et à l’accueil d’un récepteur de micro sans fil. L’idée : filmer, stocker et alimenter en continu, sans hub intermédiaire.

Le boîtier de 29 g adopte une coque en aluminium issue d’un microbillage, avec un format compact orienté terrain. Hohem propose des versions 1 To et 2 To. La liaison atteint 20 Gbit/s via USB 3.2 Gen 2×2, pour des débits annoncés de 2000 Mo/s en lecture et 1800 Mo/s en écriture, avec compatibilité multi‑OS. Côté alimentation, le passthrough grimpe à 65 W pour maintenir un smartphone ou un boîtier caméra en charge lors d’une prise longue.

Prix et positionnement

Le SSD-01 s’affiche à 219 $ (environ 201 €) en 1 To et 339 $ (environ 312 €) en 2 To. Un positionnement premium au regard des pSSD 20 Gbit/s classiques, compensé ici par l’intégration matérielle pour l’audio sans fil et la charge rapide, sans accessoires supplémentaires.

Ce produit vise clairement les vidéastes mobiles qui jonglent entre enregistreurs, émetteurs RF et banques d’alimentation. Si les performances réelles dépendront autant du contrôleur que de la dissipation, l’approche modulaire via USB‑C triple usage adresse une douleur concrète du terrain : simplifier une grappe d’accessoires en un bloc unique, avec un débit suffisant pour l’enregistrement 4K/60 et un flux d’alimentation stable.

Source : ITHome

  •  

PolarDB Lakebase : un lakehouse IA unifié avec recherche fusionnée en SQL

Alibaba Cloud a dévoilé lors de sa conférence développeurs 2026 de PolarDB une salve de capacités orientées IA, avec en tête un « AI data lakehouse » baptisé Lakebase. L’objectif est clair : unifier stockage et traitement de données multimodales et rapprocher les modèles directement du moteur de base pour exécuter recherche sémantique et inférence in-situ, sans sortir les données de leur domaine.

PolarDB Lakebase : un lakehouse IA unifié avec recherche fusionnée en SQL

Lakebase et l’intégration modèle-dans-la-base

Conçu pour une architecture « lac + base » unifiée, Lakebase promet une gestion cohérente des données structurées, semi-structurées et non structurées, avec des mécanismes de cache accélérant I/O et bande passante selon les cas d’usage. Alibaba Cloud met en avant une intégration entre moteur multimodal et « opérateurs de modèle » au sein de PolarDB, permettant d’orchestrer recherche sémantique et étapes d’inférence directement dans la base tout en conservant les garanties de confidentialité.

PolarDB Lakebase : un lakehouse IA unifié avec recherche fusionnée en SQL

L’éditeur combine KVCache, graphes et vecteurs pour construire des schémas de recherche conciliant mémoire court/long terme et empreinte calcul maîtrisée. L’ensemble s’inscrit dans quatre piliers d’un « AI-ready database » : data lakehouse multimodal, recherche fusionnée, services d’opérateurs de modèles et un back-end orienté développement d’agents.

Recherche fusionnée et services pour agents

La composante « recherche fusionnée » ancre la vectorisation et le plein-texte au cœur du SQL, pour marier compréhension sémantique et appariement par mots-clés, avec un gain annoncé sur la précision et la latence sur des requêtes complexes. Côté exécution, les services d’opérateurs de modèles ouvrent la voie à l’inférence en base, à une architecture « Agent-Ready » et à des mécanismes de mémoire adaptés aux besoins des agents.

Pour l’industrialisation, PolarDB propose un back-end clé en main destiné aux applications d’agents, s’appuyant sur un empaquetage type Supabase multi-tenant et serverless, afin d’accélérer les déploiements dans les verticaux.

PolarDB Lakebase : un lakehouse IA unifié avec recherche fusionnée en SQL

Alibaba Cloud revendique plus de 3 millions de cœurs déployés pour PolarDB, couvrant 86 zones de disponibilité dans le monde. Les fonctions cloud natives et Data+AI sont déjà en production sur des systèmes critiques dans la finance, l’automobile, l’administration, l’internet et les télécoms, auprès notamment d’une grande banque commerciale, Li Auto, XPeng, MiniMax, GoTo Group, Du Xiaoman et miHoYo. Si la promesse d’unir data lakehouse multimodal, opérateurs de modèle en base et recherche vectorielle/plein-texte dans SQL se confirme sur des charges mixtes en production, PolarDB se positionnera comme une alternative crédible aux offres lakehouse-IA occidentales, avec un avantage potentiel en cohérence opérationnelle et en coûts d’intégration.

Source : ITHome

  •  

IA de raisonnement : un « cerveau social » interne dope l’exactitude via SAE

Google décrit un phénomène intrigant observé dans des modèles de raisonnement comme DeepSeek-R1 et QwQ-32B : lors de la résolution de problèmes, le réseau « se scinde » en entités internes aux styles opposés — créatives, critiques, méticuleuses, prudentes — qui débattent entre elles. Plus la tâche est exigeante, plus ce dialogue interne s’intensifie, avec des pics notables sur GPQA (niveau graduate) et les déductions mathématiques complexes, tandis que les échanges se raréfient sur des exercices basiques de logique booléenne.

Graphiques colorés montrant des aspects du comportement conversationnel et de la complexité des problèmes.

Décodage d’un « cerveau social » appris sans consigne

Les chercheurs ont utilisé des sparse auto-encoders (SAE) pour instrumenter les couches internes pendant la génération de chaînes de pensée. Les activations neuronales, inexploitables en l’état, sont décomposées par la contrainte de parcimonie en facteurs interprétables liés à des actes de discours internes du modèle, du type « se poser une question », « changer de perspective », « vérifier une hypothèse ». En corrélant ces facteurs sur la durée, l’équipe isole des « entités logiques » auxquelles elle attribue des rôles comme « planificateur », « vérificateur » ou « exécuteur ».

Comparés à des modèles instructionnels classiques (DeepSeek-V3, Qwen-2.5-32B-IT), les modèles de raisonnement manifestent ces comportements dialogiques beaucoup plus fréquemment. Surtout, ces échanges émergent sans y être forcés : sous simple récompense à la bonne réponse via renforcement, le modèle apprend spontanément à raisonner « en conversation » plutôt qu’en monologue.

Diagrammes en toile d'araignée décrivant différents rôles et compétences professionnelles avec dessins d'avatars.

Des marqueurs discursifs qui dopent l’exactitude

En modulant les activations associées à certains marqueurs, l’équipe montre un lien causal avec la performance. Accentuer des tournants discursifs comme « oh ! » — signal d’étonnement ou de réévaluation — double l’exactitude sur le benchmark arithmétique Countdown, de 27,1 % à 54,8 %. La dynamique d’opinion interne ne serait donc pas un bruit, mais un mécanisme utile de recherche de solution.

Autre résultat robuste : un pré-affinage sur des données de dialogues multi-agents, suivi d’un entraînement au raisonnement, accélère nettement l’apprentissage. Sur Qwen-2.5-3B et Llama-3.2-3B, les modèles « dialogiques » surpassent les versions « monologues » de plus de 10 % en début de training, l’écart grimpant jusqu’à 22 % pour Llama-3.2-3B en fin de parcours.

Ces observations font écho à l’hypothèse du cerveau social en biologie évolutive : maîtriser l’interaction et la gestion de points de vue concurrents améliorerait la capacité à raisonner. Ici, l’IA optimise sa précision en simulant une pluralité d’interlocuteurs internes, chacun explorant un angle complémentaire avant consolidation.

Tweet exprimant la validation personnelle à travers des réflexions internes, en anglais et en chinois.

Au-delà de l’anecdote, la conclusion opérationnelle est claire pour l’écosystème modèle et tooling: intégrer des inducteurs dialogiques dans les boucles d’optimisation, instrumenter les représentations via SAE pour guider la RL, et capitaliser sur des jeux de données de débats multi-agents pourrait offrir des gains de performance concrets sur le raisonnement sans gonfler la taille des réseaux. On voit aussi poindre un axe de contrôle fin par « styles cognitifs » internes, prometteur pour des systèmes qui alternent exploration, critique et exécution selon la difficulté du problème.

Source : ITHome

  •  

Hisense E8S : Mini LED RVB « vrai BT.2020 », 4K 180 Hz et puce RISC‑V H7

Hisense a dévoilé en Chine la série E8S, des téléviseurs RGB‑Mini LED en 75, 85 et 100 pouces, proposés à 12 999 ¥ (environ 1 670 €), 17 999 ¥ (environ 2 315 €) et 24 999 ¥ (environ 3 215 €). Mise en vente immédiate ce soir à 20h, avec un châssis extra‑plat plaqué mur de 44 mm au plus fin et un dos totalement affleurant sans renflement.

Présentation sur scène du Hisense E8S avec caractéristiques techniques affichées en arrière-plan.

RGB‑Mini LED « vrai RVB », 4K 180 Hz et puce H7 RISC‑V

La E8S adopte un rétroéclairage Mini LED à diodes trichromes intégrant directement R, V et B, sans couche de phosphores ni film à boîtes quantiques. Hisense revendique une couverture 100 % BT.2020 et une consommation réduite de plus de 40 % face aux approches classiques. Le 100 pouces totalise 9 360 zones de gradation/couleur. La dalle « Obsidian Screen Pro » annonce un taux de réflexion de 1,8 % pour limiter les reflets.

Affiche promotionnelle du Hisense E8S avec prix et tailles d'écran disponibles.

Au cœur, la puce maison « Xinxin AI H7 » est présentée comme la première puce de traitement d’image bâtie sur architecture ouverte RISC‑V, avec NPU dédié. Elle pilote un algorithme propriétaire de co‑contrôle lumière‑couleur RGB, avec une granularité annoncée à 3 × 10 240 niveaux par zone et une précision de contrôle à 108 bits, afin de synchroniser en millisecondes les composantes rouge, verte et bleue et réduire traînées chromatiques et contamination de couleurs en mouvement.

Profil gaming assumé : dalle 4K à 180 Hz en natif, quatre ports HDMI 2.1 « pleine bande » à 48 Gbit/s et compatibilité FreeSync Premium Pro à 180 Hz. Côté audio, Hisense intègre un système 4.2.2 co‑développé avec Devialet, totalisant 10 transducteurs, 270 W en crête, un volume acoustique de 7,6 L et une extension dans le grave annoncée à 45 Hz.

Design et interface

Le châssis souligne une approche monolithique avec face avant à motif « respiration stellaire » servant d’ajourage acoustique, et dos texturé « matrice pellicule 24 i/s », le caisson de grave affichant un décor « tambour de victoire ». L’interface maison « Starry Desktop » met en avant un « Light & Shadow Control Hub » pour tests d’orientation colorimétrique via IA et 51 paramètres de micro‑réglage. Le centre multimédia propose rattachement NAS avec scraping global, génération quasi instantanée de murs d’affiches et lecture jusqu’à 160 Mb/s.

Téléviseur Hisense E8S affichant une image de girafes en paysage.

La bascule vers un Mini LED RVB véritable, sans filtre phosphore ni couche QD, remet en question l’équilibre habituel entre volume colorimétrique et rendement énergétique. Si la promesse BT.2020 intégral et le maillage de 9 360 zones au format 100 pouces se confirment en mesure, la E8S pourrait bousculer le segment haut de gamme LCD, en particulier sur les scènes HDR lumineuses où la précision chromatique des diodes trichromes et le contrôle fin par RISC‑V H7 peuvent marquer un écart face aux Mini LED à diodes blanches + QD.

Source : ITHome

  •  

Nvidia et AMD augmentent la GDDR6/GDDR7, MSRP inchangé: pression sur les AIC

Selon BenchLife, Nvidia a notifié ses partenaires AIC le 16 janvier d’une hausse générale des tarifs des mémoires GDDR6 et GDDR7 vendues en bundle avec les GPU, sans toucher au prix des puces graphiques elles‑mêmes. L’Industrial and Commercial Times (Taïwan) rapporte qu’AMD applique également une augmentation sur la mémoire, avec des hausses comprises entre 10 % et 15 % selon les spécifications, Nvidia se positionnant légèrement en dessous d’AMD sur les nouveaux tarifs.

MSRP inchangé, pression renvoyée aux AIC/AIB

Les deux médias convergent : ni Nvidia ni AMD ne modifient le MSRP/SEP des cartes graphiques. La variable d’ajustement passe donc chez les AIC/AIB, qui devront absorber la hausse de la GDDR. Les options évoquées vont de la réduction des volumes sur les modèles d’entrée de gamme vendus au prix public recommandé à un relèvement des prix transactionnels côté retail.

En amont du canal, plusieurs fabricants taïwanais auraient déjà augmenté leurs tarifs de sortie pour les cartes AMD la semaine dernière, tandis que MSI aurait initié un nouveau tour de hausse sur des GeForce RTX série 50. Aucun détail n’est donné sur l’étendue par référence, mais la tendance est tangible sur le channel.

Effets attendus sur le marché

Le découplage entre MSRP inchangé et coûts composants en hausse pousse mécaniquement à des écarts plus fréquents entre prix conseillés et prix réels en boutique. À court terme, on peut s’attendre à une moindre disponibilité sur les SKU sous contrainte de marge et à des ajustements plus rapides des prix de rue, notamment sur les nouvelles cartes GDDR7. Les intégrateurs qui maîtrisent mieux leurs achats mémoire et leurs cycles d’approvisionnement auront un avantage transitoire, mais la pression restera diffuse tant que la GDDR ne se détend pas.

Source : ITHome

  •  

xAI crée une task force de « talent engineers » pour accélérer ses recrutements IA

Elon Musk monte une « task force » dédiée au recrutement chez xAI. L’entreprise cherche une poignée de « talent engineers » capables d’identifier, d’approcher et de signer des profils d’exception, avec un rattachement direct à Musk et un mandat clair : accélérer l’embauche d’ingénieurs au meilleur niveau mondial.

Cette cellule est décrite comme un « petit groupe d’élite » chargé de concevoir des méthodes de sourcing non conventionnelles et de boucler des recrutements difficiles. Le portrait-robot mixe aisance technique et flair produit, avec un historique de lancements réussis, y compris précoces, et un profil d’« ingénieur pur jus » suffisamment social pour convaincre des pairs.

Le poste est basé à Palo Alto avec une rémunération annoncée entre 120 000 et 240 000 dollars par an, soit environ 110 000 à 220 000 €. La démarche intervient alors que la chasse aux talents en IA se tend davantage : Meta et Google multiplient les « acqui-hire » à coups de milliards, tandis que les géants n’hésitent plus à activer des incitations agressives. Sam Altman a ainsi évoqué des offres à 100 millions de dollars chez Meta pour attirer des employés d’OpenAI, un chiffre que Meta relativise en pointant des contre-offres supérieures côté OpenAI.

xAI recrute en pleine controverse autour de Grok

Malgré les critiques qui ciblent Grok, son chatbot maison, xAI poursuit son expansion. Début janvier, la société a levé 20 milliards de dollars, pour une valorisation supérieure à 230 milliards de dollars. Parallèlement, elle fait face à une réaction réglementaire et médiatique après la génération d’images sexualisées de personnes réelles sur X, avec des enquêtes en cours et une interdiction temporaire de Grok en Indonésie et en Malaisie.

Le procureur général de Californie examine les signalements de deepfakes impliquant des femmes et des mineurs. X a annoncé la semaine dernière l’interdiction pour Grok de produire des contenus sexualisant des personnes réelles. Au Royaume-Uni, le régulateur des médias suit également le dossier.

Course aux talents : engagement personnel des CEO

La personnalisation des approches est devenue la norme. Chez OpenAI, le chercheur en chef Mark Chen a rapporté en décembre que Mark Zuckerberg s’était directement impliqué jusqu’à livrer de la soupe à des ingénieurs ciblés pour les convaincre de rejoindre Meta. La « task force » de xAI formalise cette logique : moins de filtres RH, plus de contact direct, davantage d’outils sur mesure pour débloquer des profils rares.

Dans l’IA générative, la contrainte n’est pas tant l’accès aux GPU que la densité d’équipes capables d’itérer très vite entre recherche appliquée, produit et sécurité. En internalisant une équipe qui fonctionne comme un commando de closing, xAI signale qu’elle veut raccourcir les cycles d’embauche au moment où le marché sature, tout en imposant son rythme face aux stratégies d’acqui-hire des GAFAM.

Source : ITHome

  •  

Xpeng ET1 : premier humanoïde « automotive grade » prêt pour l’industrialisation 2026

He Xiaopeng annonce que la première unité du robot humanoïde ET1, développée selon des standards automobiles, est « tombée » en interne. Le patron de Xpeng évoque une journée entière de revue et de discussion avec ses équipes et parle d’un jalon clé vers une production de masse à grande échelle de robots humanoïdes à haut niveau de capacité dès cette année.

Publication sur le lancement du robot ET1 par XPeng avec texte chinois.

Le calendrier public donné début janvier par Xpeng reste ambitieux : « AI physique » en déploiement industriel et montée en volume en 2026, deuxième génération de VLA embarquée au premier trimestre 2026, démarrage opérationnel du Robotaxi la même année, ainsi qu’une production de série pour le robot humanoïde et la voiture volante.

ET1, cap industriel et continuité de roadmap

L’ET1 se distingue par une approche « automotive grade » rarement revendiquée côté robotique humanoïde. Cela implique des exigences de fiabilité, de validation et de sûreté de fonctionnement alignées sur l’automobile, avec des chaînes d’assemblage et de tests calibrées pour le volume. Le message de He Xiaopeng cadre avec la trajectoire annoncée par le groupe lors de la « 2026 Xiaopeng Global New Product Launch » et indique que les prototypes sortent du stade de laboratoire pour entrer dans un cycle préindustriel.

Si Xpeng parvient à transposer ses pratiques d’ingénierie véhicule à un humanoïde, l’écart se jouera sur la motorisation, l’encodeur, l’équilibrage énergétique et la sûreté logicielle en environnement non contraint, autrement plus variables que dans l’automobile. L’intérêt stratégique est évident pour un acteur qui prévoit en parallèle Robotaxi et véhicule volant : mutualisation des briques perception/planification, chaîne d’approvisionnement certifiée et capacité d’itération rapide à coût maîtrisé.

Source : ITHome

  •  

AULA étend sa garantie à 2 ans sur tout son catalogue, rétroactive dès aujourd’hui

AULA revoit sa politique d’après-vente : le fabricant de périphériques PC applique désormais une garantie de 2 ans sur l’ensemble de son catalogue, avec effet immédiat. Particularité notable, la marque précise que les commandes antérieures répondant aux critères et toujours dans une fenêtre de deux ans peuvent également bénéficier de ce nouveau cadre, sur simple présentation de la preuve d’achat.

La mesure couvre les claviers, souris, casques audio et autres accessoires commercialisés par AULA, sans distinction de gamme. L’entreprise ne détaille pas d’exclusions spécifiques ni de segmentation par canal de vente, un point qui restera à confirmer dans les conditions complètes publiées par les revendeurs tiers.

Ce réalignement place AULA sur un standard plus lisible pour les marchés internationaux, alors que plusieurs acteurs du segment gaming ont consolidé une garantie de deux ans, parfois assortie d’un service avancé sur les références phares. Le choix d’une rétroactivité limitée à deux ans protège aussi les achats récents, ce qui devrait réduire la friction côté SAV et fluidifier la gestion des retours.

Source : ITHome

  •  

Akasa H6L M2 : six caloducs top-flow pour SFF, jusqu’à 165 W en 77,6 mm

Akasa a dévoilé à Londres une nouvelle salve de ventirads top-flow compacts, six modèles regroupés dans la série H6L (S) à six caloducs, avec des hauteurs de 67,2 à 77,6 mm et des capacités annoncées de 150 à 165 W de TDP. Le positionnement vise clairement les configurations SFF où la contrainte en hauteur reste critique sans sacrifier la pression d’air ni la couverture des étages d’alimentation autour du socket.

Ensemble de systèmes de refroidissement CPU low-profile avec diverses options de design RGB.

VIPER H6L M2 en tête d’affiche

Fer de lance de la série, le VIPER H6L M2 embarque un ventilateur S-FLOW 120×25 mm. Akasa promet jusqu’à 130 % du flux d’air d’un 120 mm « classique » en mode éclairage, pour un régime maximal de 1 900 tr/min à 28,9 dB(A). Le dissipateur culmine à 76 mm et revendique un TDP de 165 W. Versions noir et blanc au programme.

Refroidisseurs Akasa H6L M2 avec éclairage RGB, un noir et un blanc.

SOHO et ALUCIA : éclairage ou sobriété

Le SOHO H6L M2 mise sur l’esthétique avec un ventilateur SOHO AR à palier HDB, 120 mm de diamètre pour 26,5 mm d’épaisseur. Hauteur totale 77,6 mm, TDP annoncé 160 W, déclinaisons noir et blanc. L’ALUCIA H6L M2 reprend l’architecture mais opte pour un ventilateur « light blue » sans éclairage en 26,6 mm d’épaisseur.

Plus bas, l’ALUCIA H6LS M2 déjà connu en 120×16 « light blue » gagne une version noire. À 67,2 mm de haut, il vise les châssis ultra-compacts tout en conservant une capacité de 150 W.

Compatibilité et bundle

Toute la gamme couvre les sockets Intel LGA 1851 / 1700 / 1200 / 115X et AMD AM5 / AM4. La pâte thermique fournie est une T5 ProGrade+ à base composite silicones + nano-diamant. Les variantes noir/blanc et RGB/non-RGB permettent de cibler aussi bien les builds sobres que les configurations orientées vitrine.

Refroidisseur Akasa noir avec ventilateur bleu et caloducs exposés.

Sur ce segment, Akasa pousse l’enveloppe thermique des top-flow compacts un cran plus haut. Si les chiffres devront être validés en charge soutenue sur AM5 et LGA 1851, l’association six caloducs + 120 mm épais dans moins de 78 mm de hauteur répond directement aux besoins des boîtiers SFF actuels, tout en apportant un flux vertical utile aux VRM.

Source : ITHome

  •  

Altair 8800 ressuscité : un kit de 1974 démarre enfin, fidèle à l’expérience d’époque

Le « musée informatique temporaire » ICM a remis en route un Altair 8800 produit en 1974 et jamais fonctionnel jusqu’ici. Resté en panne pendant 52 ans à la suite d’une tentative de montage inachevée par son propriétaire d’origine, l’exemplaire a exécuté son premier programme le 14 janvier 2026.

Feuille de code source devant un Altair 8800 Computer

Pris en charge par le technicien SDF, l’ordinateur a nécessité une correction du câblage et le remplacement de l’alimentation. Fidèle à l’expérience d’époque, aucune interface moderne n’a été ajoutée : pas d’écran ni de clavier, l’entrée se fait par les interrupteurs du panneau frontal, en binaire, et la sortie par les LED rouges.

La démonstration filmée culmine avec « Kill The Bit », un jeu écrit en 1975 par Dean McDaniel. Le joueur suit le déplacement d’un bit via les LED et doit basculer l’interrupteur au moment précis pour « éliminer » la position active. Un artefact ludique minimaliste qui résume l’Altair 8800 : une machine fondatrice, mais austère.

À l’époque, le kit Altair 8800 coûtait 439 $ (environ 402 € aujourd’hui après conversion simple), tandis que la version assemblée s’affichait à 621 $ (environ 569 €). Le propriétaire avait choisi le kit pour économiser, sans jamais parvenir à le terminer. Au cœur de la machine, le processeur Intel 8080 signé Federico Faggin, jalon majeur de la micro-informatique commerciale et ancêtre direct de nombreuses architectures ultérieures, dont le Zilog Z80 qu’il co-conçut ensuite.

Un réveil qui respecte le design originel

ICM a privilégié une remise en état conservatrice : correction des erreurs de montage, alimentation neuve, et exploitation du panneau d’interrupteurs comme interface unique. Cette approche garantit que le comportement temporel des bus et la lecture via LED restent conformes à l’expérience initiale, un point crucial pour documenter fidèlement l’interaction homme-machine des premiers micro-ordinateurs.

Au-delà du symbole, faire tourner un 8080 sur un châssis Altair d’origine rappelle le rôle catalyseur de cette plateforme sur l’écosystème naissant des cartes d’extension et des logiciels bas niveau. Réactiver une unité « vierge » éclaire aussi les contraintes réelles d’assemblage des kits des années 70, souvent sous-estimées quand on réécrit l’histoire a posteriori.

Source : ITHome

  •  

GLM-4.7-Flash : modèle mixed thinking 30B, 3B activés, SOTA open source

Zhipu AI a dévoilé le 20 janvier GLM-4.7-Flash, un modèle « mixed thinking » open source de 30 milliards de paramètres, avec 3 milliards de paramètres activés. Positionné comme un successeur direct de GLM-4.5-Flash, il vise un déploiement allégé sans sacrifier les performances, avec mise à disposition immédiate et appels gratuits via la plateforme BigModel.cn.

Graphiques comparatifs des performances de plusieurs modèles LLM, incluant GLM-4.7-Flash

Sur des benchmarks orientés raisonnement et programmation comme SWE-bench Verified et τ²-Bench, GLM-4.7-Flash revendique de meilleurs scores que gpt-oss-20b et Qwen3-30B-A3B-Thinking-2507, signant un SOTA open source dans sa classe de taille. En interne, Zhipu met en avant des gains nets sur des tâches front et back-end, tout en recommandant des usages génériques en chinois, traduction, longs contextes et jeu de rôle.

GLM-4.7-Flash remplace dès aujourd’hui GLM-4.5-Flash sur BigModel.cn. L’ancienne version restera accessible jusqu’au 30 janvier 2026 ; passé cette date, les requêtes seront automatiquement routées vers GLM-4.7-Flash. Les dépôts open source sont disponibles sur Hugging Face (zai-org/GLM-4.7-Flash) et ModelScope (ZhipuAI/GLM-4.7-Flash).

Ce qui change avec GLM-4.7-Flash

Le choix d’une architecture à 30B avec seulement 3B activés cible clairement l’inférence rapide et les coûts contenus, tout en restant compétitif sur des tâches complexes. Pour les intégrateurs, le passage automatique depuis GLM-4.5-Flash simplifie la transition, mais impose de valider en amont les comportements sur chaînes d’outils et prompts existants afin d’éviter les régressions silencieuses.

Au-delà de la course au SOTA, l’intérêt est pragmatique: un modèle pensée-rapide équilibré, gratuit à l’appel, open source, et adossé à un support industriel. Pour les équipes produisant du code ou des contenus en chinois avec des contextes longs, l’équation performance/latence/coût mérite un A/B test face aux 20–30B concurrents déjà en place.

Source : ITHome

  •  
❌