↩ Accueil

Vue normale

IA et empreinte eau d’ici 2050 : énergie et fabs concentrent 96 % de la hausse

Par :Wael.K
20 janvier 2026 à 08:17

Une nouvelle étude de Xylem, en partenariat avec le Global Water Intelligence, chiffre l’empreinte eau de l’IA à l’horizon 2050. Selon le rapport, l’essor des infrastructures nécessaires à l’IA ferait grimper la demande mondiale annuelle de 30 000 milliards de litres d’eau, soit environ les trois quarts de la capacité du réservoir des Trois-Gorges.

L’énergie et les fabs en première ligne

Le document estime que la consommation de l’ensemble de la chaîne de valeur de l’IA augmenterait de 129 % par rapport à aujourd’hui. La hausse proviendrait majoritairement de la production d’électricité (~54 %) et de la fabrication de semi-conducteurs (~42 %), les data centers ne pesant directement qu’environ 4 % dans l’incrément.

Le signal d’alerte est d’autant plus net que 40 % des centres de données existants sont implantés dans des zones déjà en stress hydrique. La croissance future des capacités est, elle aussi, attendue dans des bassins où l’accès à l’eau est contraint.

Arbitrages industriels et leviers techniques

Xylem plaide pour un recours accru aux technologies d’économie et de réutilisation de l’eau, ainsi qu’à la réduction des fuites sur les réseaux. L’objectif est d’éviter que l’eau ne devienne un plafond de verre pour l’innovation, en particulier dans les régions où se concentrent les fabs de pointe et les parcs de data centers.

Au-delà des data centers, les choix d’approvisionnement électrique et les procédés de fabrication des puces seront déterminants. Refroidissement plus frugal, boucles fermées et traitement sur site côté IT, optimisation des stations d’épuration industrielles et des tours de refroidissement côté énergie et semi, seront les axes les plus impactants.

La trajectoire esquissée pose un enjeu d’implantation et de mix technologique pour l’écosystème IA. Sans bascule vers des sites moins contraints et des procédés sobres en eau, le coût opérationnel et réglementaire pourrait s’envoler, pesant sur les calendriers d’expansion des capacités de calcul et de production de puces.

Source : ITHome

X ouvre le code de l’algorithme For You : architecture Transformer et cycle public

Par :Wael.K
20 janvier 2026 à 08:17

Elon Musk annonce l’ouverture du code de l’algorithme « For You » de X. Le système publié reflète la version de production actuelle et s’appuie sur une architecture de type Transformer, la même famille que le modèle Grok de xAI. Musk admet des limites et promet un processus d’amélioration en continu, visible en temps réel, revendiquant une transparence que ses concurrents n’offrent pas.

Diagramme du processus de l'algorithme For You détaillant les étapes de sélection des posts.

Ce que X publie concrètement

Le dépôt GitHub inclut le pipeline de recommandation « For You », mis à jour toutes les quatre semaines. Les contenus proposés combinent les posts des comptes suivis et des posts découverts sur la plateforme, avant un tri par un modèle basé sur Grok qui estime la probabilité d’actions utilisateur clés : like, réponse, repost, clic ou visionnage.

Plutôt qu’un score unique, le modèle prédit plusieurs comportements et agrège ces signaux pour un classement plus fin. L’apprentissage repose directement sur les comportements utilisateurs, avec une pondération des interactions visant à rapprocher l’affichage des intentions effectives.

Transparence et rythme de livraison

Le code est accessible à l’adresse suivante : github.com/xai-org/x-algorithm. X prévoit un cycle public de mises à jour mensuel, aligné sur la branche de production, avec l’ambition de réduire l’écart entre recherche, déploiement et publication.

Si l’ouverture ne garantit pas l’absence de biais ni la portabilité du modèle hors de l’écosystème X, elle offre une visibilité utile sur la mécanique de scoring multi-objectifs et la manière dont X arbitre engagement, pertinence et diversité. Pour l’industrie, c’est un signal stratégique : l’ère des recommandations opaques se fissure, et la pression monte sur les réseaux à large échelle pour documenter leurs choix algorithmiques, au moins partiellement.

Source : ITHome

Michael Burry alerte : bulle de l’IA et hyperscalers pris au piège capitalistique

Par :Wael.K
20 janvier 2026 à 08:16

Michael Burry remet une pièce dans la machine. Invité d’un podcast Substack face à Jack Clark (Anthropic) et à l’animateur Dwarkesh Patel, l’investisseur surnommé « le Big Short » estime que la bulle de l’IA gonfle à vue d’œil et que son éclatement entraînera une longue traversée du désert pour la tech. Sa cible principale : les hyperscalers comme Microsoft et Alphabet, accusés d’engloutir des montants colossaux dans des puces et des data centers qui deviendront rapidement obsolètes, pour des usages qui finiront banalisés, à commencer par les chatbots.

Pour illustrer l’effet d’imitation à coûts fixes, Burry ressort une vieille anecdote de Warren Buffett : dans les années 60, deux grands magasins se sont équipés d’escaliers mécaniques l’un après l’autre. Personne n’y a gagné en marge, personne n’a réduit ses coûts, tout le monde s’est retrouvé au même point d’équilibre. « C’est le destin de la plupart des déploiements IA : dès que quelqu’un se hisse sur la pointe des pieds, les autres suivent », résume-t-il.

Le diagnostic est tranchant : des milliers de milliards sont en train d’être brûlés dans des concepts sans voie claire vers l’économie réelle. Les entreprises ne capteront pas d’avantage compétitif durable si leurs concurrents accèdent aux mêmes capacités au même rythme. À la clé, prévient-il, un secteur qui embauche moins et un cycle dégradé plus long qu’attendu.

Reste l’angle mort que la plupart des acteurs refusent d’aborder publiquement : la contrainte capitalistique de l’IA générative est extrême et cumulative, entre accélérateurs à renouveler vite, capacités électriques, refroidissement et foncier. Si la demande finale se standardise sur des outils commoditisés, la compression des prix rencontrera des amortissements qui s’étalent mal. Le risque est moins celui d’une disparition de l’IA que d’une normalisation brutale des multiples, qui pourrait revaloriser les modèles intégrés, sobres en capital et adossés à des flux tangibles, aux dépens des paris d’infrastructure trop larges.

Source : ITHome

DeepCool GAMMAXX 400 Performance : ventirad 4 caloducs, double ventilo en option

Par :Wael.K
20 janvier 2026 à 08:09

DeepCool lance en Chine le « GAMMAXX 400 Performance », une mise à jour de son ventirad entrée de gamme, décliné en noir ou en blanc à 79 ¥ (environ 10 €), ainsi qu’en version « PLUS » à double ventilateur à 99 ¥ (environ 13 €). La série conserve l’architecture à quatre caloducs en simple tour, avec un bloc de 125 mm de large, 92 mm de profondeur et 150 mm de hauteur, et un top matriciel revu. Garantie un an.

DeepCool GAMMAXX 400 Performance : ventirad 4 caloducs, double ventilo en option

Ventilation et acoustique

La principale évolution vient du ventilateur à « anneau de canalisation » qui referme l’intervalle entre pales et cadre pour limiter les turbulences et accroître la pression traversante. Le rotor est annoncé à 500–2200 tr/min, pour un débit de 70,09 CFM et un niveau sonore inférieur à 29,22 dB(A). Le modèle PLUS ajoute un second ventilateur en push-pull.

Compatibilité et positionnement

Le montage couvre les sockets Intel LGA 1851/1700 et AMD AM5/AM4. Le constructeur suggère un usage avec des processeurs du segment Core Ultra 5 ou Ryzen 7/5/3, ce qui cadre avec la capacité thermique habituelle des tours 4 caloducs. À ce tarif, l’intérêt tient à la pression statique accrue et au double ventilateur optionnel pour des boîtiers denses ou des grilles maillées restrictives.

Sur un marché où les 120 mm « budget » se multiplient, l’itération de DeepCool cible clairement le rapport perf/prix en Asie, avec des chiffres acoustiques ambitieux et un format 150 mm compatible micro‑ATX. Reste à voir l’écart réel entre version simple et PLUS en charge prolongée, qui décidera de sa place face aux références établies dans cette tranche.

Source : ITHome

Conner revient avec un chargeur USB‑C 65 W intégrant un SSD portable 5 Gbit/s

Par :Wael.K
20 janvier 2026 à 08:08

Conner, ex-fabricant de disques durs des années 80-90 fondé par Finis Conner et absorbé par Seagate en 1996, réapparaît depuis 2021 comme marque d’accessoires de stockage. Au CES, l’entreprise a dévoilé un chargeur secteur USB-C intégrant un SSD portable, une approche deux-en-un pensée pour les voyageurs qui veulent simplifier la sauvegarde.

Chargeur USB-C Conner 65W branché sur un MacBook avec deux adaptateurs muraux.

Le bloc adopte un port USB‑C compatible USB 3.2 Gen 1 (5 Gbit/s) et Power Delivery 65 W. Quatre déclinaisons de capacité sont prévues : 128 Go, 256 Go, 512 Go et 1 To. L’idée est de greffer un espace de stockage directement à un accessoire déjà indispensable, avec des débits suffisants pour de la sauvegarde quotidienne ou des transferts ponctuels, sans ajouter un câble ou un boîtier de plus dans le sac.

Un écosystème d’accessoires orienté sauvegarde

Adaptateurs USB-C Conner de couleurs variées près d'un smartphone.

Sur son stand, Conner montrait aussi un SSD portable pour smartphone avec alimentation passthrough, un lecteur de cartes MicroSD en USB‑C et une clé de sauvegarde mobile. La logique est cohérente : privilégier la copie locale rapide depuis un téléphone ou un PC, sans dépendre du cloud, tout en conservant la charge des appareils.

Le compromis 5 Gbit/s limitera les pics de débit, mais reste pertinent pour un combo charge + backup. La vraie question se situera sur la dissipation thermique d’un chargeur 65 W abritant de la NAND, et sur la gestion des firmwares pour éviter toute déconnexion logique durant les pointes de charge. Si Conner convainc sur ces deux points, ce format pourrait s’installer dans les setups nomades où chaque prise et chaque port comptent.

Deux clés USB Conner UME3 à côté d'un ordinateur portable.

Source : ITHome

Hohem SSD-01 : pSSD 20 Gbit/s triple USB‑C pour créateurs mobiles exigeants

Par :Wael.K
20 janvier 2026 à 08:07

Hohem, connu pour ses stabilisateurs, a dévoilé au CES un périphérique inattendu : le SSD-01, un SSD externe qui combine stockage, relais d’alimentation et support de réception audio sans fil. Le constructeur revendique un « trois-en-un » destiné aux créateurs mobiles, avec une compatibilité large et une intégration matérielle soignée.

Un pSSD pensé pour la captation mobile

Le SSD-01 intègre trois ports USB‑C. Un connecteur rabattable assure la liaison directe avec un smartphone ou tout appareil compatible, tandis que les deux autres servent respectivement au passthrough d’alimentation et à l’accueil d’un récepteur de micro sans fil. L’idée : filmer, stocker et alimenter en continu, sans hub intermédiaire.

Le boîtier de 29 g adopte une coque en aluminium issue d’un microbillage, avec un format compact orienté terrain. Hohem propose des versions 1 To et 2 To. La liaison atteint 20 Gbit/s via USB 3.2 Gen 2×2, pour des débits annoncés de 2000 Mo/s en lecture et 1800 Mo/s en écriture, avec compatibilité multi‑OS. Côté alimentation, le passthrough grimpe à 65 W pour maintenir un smartphone ou un boîtier caméra en charge lors d’une prise longue.

Prix et positionnement

Le SSD-01 s’affiche à 219 $ (environ 201 €) en 1 To et 339 $ (environ 312 €) en 2 To. Un positionnement premium au regard des pSSD 20 Gbit/s classiques, compensé ici par l’intégration matérielle pour l’audio sans fil et la charge rapide, sans accessoires supplémentaires.

Ce produit vise clairement les vidéastes mobiles qui jonglent entre enregistreurs, émetteurs RF et banques d’alimentation. Si les performances réelles dépendront autant du contrôleur que de la dissipation, l’approche modulaire via USB‑C triple usage adresse une douleur concrète du terrain : simplifier une grappe d’accessoires en un bloc unique, avec un débit suffisant pour l’enregistrement 4K/60 et un flux d’alimentation stable.

Source : ITHome

PolarDB Lakebase : un lakehouse IA unifié avec recherche fusionnée en SQL

Par :Wael.K
20 janvier 2026 à 06:18

Alibaba Cloud a dévoilé lors de sa conférence développeurs 2026 de PolarDB une salve de capacités orientées IA, avec en tête un « AI data lakehouse » baptisé Lakebase. L’objectif est clair : unifier stockage et traitement de données multimodales et rapprocher les modèles directement du moteur de base pour exécuter recherche sémantique et inférence in-situ, sans sortir les données de leur domaine.

PolarDB Lakebase : un lakehouse IA unifié avec recherche fusionnée en SQL

Lakebase et l’intégration modèle-dans-la-base

Conçu pour une architecture « lac + base » unifiée, Lakebase promet une gestion cohérente des données structurées, semi-structurées et non structurées, avec des mécanismes de cache accélérant I/O et bande passante selon les cas d’usage. Alibaba Cloud met en avant une intégration entre moteur multimodal et « opérateurs de modèle » au sein de PolarDB, permettant d’orchestrer recherche sémantique et étapes d’inférence directement dans la base tout en conservant les garanties de confidentialité.

PolarDB Lakebase : un lakehouse IA unifié avec recherche fusionnée en SQL

L’éditeur combine KVCache, graphes et vecteurs pour construire des schémas de recherche conciliant mémoire court/long terme et empreinte calcul maîtrisée. L’ensemble s’inscrit dans quatre piliers d’un « AI-ready database » : data lakehouse multimodal, recherche fusionnée, services d’opérateurs de modèles et un back-end orienté développement d’agents.

Recherche fusionnée et services pour agents

La composante « recherche fusionnée » ancre la vectorisation et le plein-texte au cœur du SQL, pour marier compréhension sémantique et appariement par mots-clés, avec un gain annoncé sur la précision et la latence sur des requêtes complexes. Côté exécution, les services d’opérateurs de modèles ouvrent la voie à l’inférence en base, à une architecture « Agent-Ready » et à des mécanismes de mémoire adaptés aux besoins des agents.

Pour l’industrialisation, PolarDB propose un back-end clé en main destiné aux applications d’agents, s’appuyant sur un empaquetage type Supabase multi-tenant et serverless, afin d’accélérer les déploiements dans les verticaux.

PolarDB Lakebase : un lakehouse IA unifié avec recherche fusionnée en SQL

Alibaba Cloud revendique plus de 3 millions de cœurs déployés pour PolarDB, couvrant 86 zones de disponibilité dans le monde. Les fonctions cloud natives et Data+AI sont déjà en production sur des systèmes critiques dans la finance, l’automobile, l’administration, l’internet et les télécoms, auprès notamment d’une grande banque commerciale, Li Auto, XPeng, MiniMax, GoTo Group, Du Xiaoman et miHoYo. Si la promesse d’unir data lakehouse multimodal, opérateurs de modèle en base et recherche vectorielle/plein-texte dans SQL se confirme sur des charges mixtes en production, PolarDB se positionnera comme une alternative crédible aux offres lakehouse-IA occidentales, avec un avantage potentiel en cohérence opérationnelle et en coûts d’intégration.

Source : ITHome

IA de raisonnement : un « cerveau social » interne dope l’exactitude via SAE

Par :Wael.K
20 janvier 2026 à 06:17

Google décrit un phénomène intrigant observé dans des modèles de raisonnement comme DeepSeek-R1 et QwQ-32B : lors de la résolution de problèmes, le réseau « se scinde » en entités internes aux styles opposés — créatives, critiques, méticuleuses, prudentes — qui débattent entre elles. Plus la tâche est exigeante, plus ce dialogue interne s’intensifie, avec des pics notables sur GPQA (niveau graduate) et les déductions mathématiques complexes, tandis que les échanges se raréfient sur des exercices basiques de logique booléenne.

Graphiques colorés montrant des aspects du comportement conversationnel et de la complexité des problèmes.

Décodage d’un « cerveau social » appris sans consigne

Les chercheurs ont utilisé des sparse auto-encoders (SAE) pour instrumenter les couches internes pendant la génération de chaînes de pensée. Les activations neuronales, inexploitables en l’état, sont décomposées par la contrainte de parcimonie en facteurs interprétables liés à des actes de discours internes du modèle, du type « se poser une question », « changer de perspective », « vérifier une hypothèse ». En corrélant ces facteurs sur la durée, l’équipe isole des « entités logiques » auxquelles elle attribue des rôles comme « planificateur », « vérificateur » ou « exécuteur ».

Comparés à des modèles instructionnels classiques (DeepSeek-V3, Qwen-2.5-32B-IT), les modèles de raisonnement manifestent ces comportements dialogiques beaucoup plus fréquemment. Surtout, ces échanges émergent sans y être forcés : sous simple récompense à la bonne réponse via renforcement, le modèle apprend spontanément à raisonner « en conversation » plutôt qu’en monologue.

Diagrammes en toile d'araignée décrivant différents rôles et compétences professionnelles avec dessins d'avatars.

Des marqueurs discursifs qui dopent l’exactitude

En modulant les activations associées à certains marqueurs, l’équipe montre un lien causal avec la performance. Accentuer des tournants discursifs comme « oh ! » — signal d’étonnement ou de réévaluation — double l’exactitude sur le benchmark arithmétique Countdown, de 27,1 % à 54,8 %. La dynamique d’opinion interne ne serait donc pas un bruit, mais un mécanisme utile de recherche de solution.

Autre résultat robuste : un pré-affinage sur des données de dialogues multi-agents, suivi d’un entraînement au raisonnement, accélère nettement l’apprentissage. Sur Qwen-2.5-3B et Llama-3.2-3B, les modèles « dialogiques » surpassent les versions « monologues » de plus de 10 % en début de training, l’écart grimpant jusqu’à 22 % pour Llama-3.2-3B en fin de parcours.

Ces observations font écho à l’hypothèse du cerveau social en biologie évolutive : maîtriser l’interaction et la gestion de points de vue concurrents améliorerait la capacité à raisonner. Ici, l’IA optimise sa précision en simulant une pluralité d’interlocuteurs internes, chacun explorant un angle complémentaire avant consolidation.

Tweet exprimant la validation personnelle à travers des réflexions internes, en anglais et en chinois.

Au-delà de l’anecdote, la conclusion opérationnelle est claire pour l’écosystème modèle et tooling: intégrer des inducteurs dialogiques dans les boucles d’optimisation, instrumenter les représentations via SAE pour guider la RL, et capitaliser sur des jeux de données de débats multi-agents pourrait offrir des gains de performance concrets sur le raisonnement sans gonfler la taille des réseaux. On voit aussi poindre un axe de contrôle fin par « styles cognitifs » internes, prometteur pour des systèmes qui alternent exploration, critique et exécution selon la difficulté du problème.

Source : ITHome

Hisense E8S : Mini LED RVB « vrai BT.2020 », 4K 180 Hz et puce RISC‑V H7

Par :Wael.K
20 janvier 2026 à 06:16

Hisense a dévoilé en Chine la série E8S, des téléviseurs RGB‑Mini LED en 75, 85 et 100 pouces, proposés à 12 999 ¥ (environ 1 670 €), 17 999 ¥ (environ 2 315 €) et 24 999 ¥ (environ 3 215 €). Mise en vente immédiate ce soir à 20h, avec un châssis extra‑plat plaqué mur de 44 mm au plus fin et un dos totalement affleurant sans renflement.

Présentation sur scène du Hisense E8S avec caractéristiques techniques affichées en arrière-plan.

RGB‑Mini LED « vrai RVB », 4K 180 Hz et puce H7 RISC‑V

La E8S adopte un rétroéclairage Mini LED à diodes trichromes intégrant directement R, V et B, sans couche de phosphores ni film à boîtes quantiques. Hisense revendique une couverture 100 % BT.2020 et une consommation réduite de plus de 40 % face aux approches classiques. Le 100 pouces totalise 9 360 zones de gradation/couleur. La dalle « Obsidian Screen Pro » annonce un taux de réflexion de 1,8 % pour limiter les reflets.

Affiche promotionnelle du Hisense E8S avec prix et tailles d'écran disponibles.

Au cœur, la puce maison « Xinxin AI H7 » est présentée comme la première puce de traitement d’image bâtie sur architecture ouverte RISC‑V, avec NPU dédié. Elle pilote un algorithme propriétaire de co‑contrôle lumière‑couleur RGB, avec une granularité annoncée à 3 × 10 240 niveaux par zone et une précision de contrôle à 108 bits, afin de synchroniser en millisecondes les composantes rouge, verte et bleue et réduire traînées chromatiques et contamination de couleurs en mouvement.

Profil gaming assumé : dalle 4K à 180 Hz en natif, quatre ports HDMI 2.1 « pleine bande » à 48 Gbit/s et compatibilité FreeSync Premium Pro à 180 Hz. Côté audio, Hisense intègre un système 4.2.2 co‑développé avec Devialet, totalisant 10 transducteurs, 270 W en crête, un volume acoustique de 7,6 L et une extension dans le grave annoncée à 45 Hz.

Design et interface

Le châssis souligne une approche monolithique avec face avant à motif « respiration stellaire » servant d’ajourage acoustique, et dos texturé « matrice pellicule 24 i/s », le caisson de grave affichant un décor « tambour de victoire ». L’interface maison « Starry Desktop » met en avant un « Light & Shadow Control Hub » pour tests d’orientation colorimétrique via IA et 51 paramètres de micro‑réglage. Le centre multimédia propose rattachement NAS avec scraping global, génération quasi instantanée de murs d’affiches et lecture jusqu’à 160 Mb/s.

Téléviseur Hisense E8S affichant une image de girafes en paysage.

La bascule vers un Mini LED RVB véritable, sans filtre phosphore ni couche QD, remet en question l’équilibre habituel entre volume colorimétrique et rendement énergétique. Si la promesse BT.2020 intégral et le maillage de 9 360 zones au format 100 pouces se confirment en mesure, la E8S pourrait bousculer le segment haut de gamme LCD, en particulier sur les scènes HDR lumineuses où la précision chromatique des diodes trichromes et le contrôle fin par RISC‑V H7 peuvent marquer un écart face aux Mini LED à diodes blanches + QD.

Source : ITHome

Nvidia et AMD augmentent la GDDR6/GDDR7, MSRP inchangé: pression sur les AIC

Par :Wael.K
20 janvier 2026 à 06:08

Selon BenchLife, Nvidia a notifié ses partenaires AIC le 16 janvier d’une hausse générale des tarifs des mémoires GDDR6 et GDDR7 vendues en bundle avec les GPU, sans toucher au prix des puces graphiques elles‑mêmes. L’Industrial and Commercial Times (Taïwan) rapporte qu’AMD applique également une augmentation sur la mémoire, avec des hausses comprises entre 10 % et 15 % selon les spécifications, Nvidia se positionnant légèrement en dessous d’AMD sur les nouveaux tarifs.

MSRP inchangé, pression renvoyée aux AIC/AIB

Les deux médias convergent : ni Nvidia ni AMD ne modifient le MSRP/SEP des cartes graphiques. La variable d’ajustement passe donc chez les AIC/AIB, qui devront absorber la hausse de la GDDR. Les options évoquées vont de la réduction des volumes sur les modèles d’entrée de gamme vendus au prix public recommandé à un relèvement des prix transactionnels côté retail.

En amont du canal, plusieurs fabricants taïwanais auraient déjà augmenté leurs tarifs de sortie pour les cartes AMD la semaine dernière, tandis que MSI aurait initié un nouveau tour de hausse sur des GeForce RTX série 50. Aucun détail n’est donné sur l’étendue par référence, mais la tendance est tangible sur le channel.

Effets attendus sur le marché

Le découplage entre MSRP inchangé et coûts composants en hausse pousse mécaniquement à des écarts plus fréquents entre prix conseillés et prix réels en boutique. À court terme, on peut s’attendre à une moindre disponibilité sur les SKU sous contrainte de marge et à des ajustements plus rapides des prix de rue, notamment sur les nouvelles cartes GDDR7. Les intégrateurs qui maîtrisent mieux leurs achats mémoire et leurs cycles d’approvisionnement auront un avantage transitoire, mais la pression restera diffuse tant que la GDDR ne se détend pas.

Source : ITHome

xAI crée une task force de « talent engineers » pour accélérer ses recrutements IA

Par :Wael.K
20 janvier 2026 à 04:17

Elon Musk monte une « task force » dédiée au recrutement chez xAI. L’entreprise cherche une poignée de « talent engineers » capables d’identifier, d’approcher et de signer des profils d’exception, avec un rattachement direct à Musk et un mandat clair : accélérer l’embauche d’ingénieurs au meilleur niveau mondial.

Cette cellule est décrite comme un « petit groupe d’élite » chargé de concevoir des méthodes de sourcing non conventionnelles et de boucler des recrutements difficiles. Le portrait-robot mixe aisance technique et flair produit, avec un historique de lancements réussis, y compris précoces, et un profil d’« ingénieur pur jus » suffisamment social pour convaincre des pairs.

Le poste est basé à Palo Alto avec une rémunération annoncée entre 120 000 et 240 000 dollars par an, soit environ 110 000 à 220 000 €. La démarche intervient alors que la chasse aux talents en IA se tend davantage : Meta et Google multiplient les « acqui-hire » à coups de milliards, tandis que les géants n’hésitent plus à activer des incitations agressives. Sam Altman a ainsi évoqué des offres à 100 millions de dollars chez Meta pour attirer des employés d’OpenAI, un chiffre que Meta relativise en pointant des contre-offres supérieures côté OpenAI.

xAI recrute en pleine controverse autour de Grok

Malgré les critiques qui ciblent Grok, son chatbot maison, xAI poursuit son expansion. Début janvier, la société a levé 20 milliards de dollars, pour une valorisation supérieure à 230 milliards de dollars. Parallèlement, elle fait face à une réaction réglementaire et médiatique après la génération d’images sexualisées de personnes réelles sur X, avec des enquêtes en cours et une interdiction temporaire de Grok en Indonésie et en Malaisie.

Le procureur général de Californie examine les signalements de deepfakes impliquant des femmes et des mineurs. X a annoncé la semaine dernière l’interdiction pour Grok de produire des contenus sexualisant des personnes réelles. Au Royaume-Uni, le régulateur des médias suit également le dossier.

Course aux talents : engagement personnel des CEO

La personnalisation des approches est devenue la norme. Chez OpenAI, le chercheur en chef Mark Chen a rapporté en décembre que Mark Zuckerberg s’était directement impliqué jusqu’à livrer de la soupe à des ingénieurs ciblés pour les convaincre de rejoindre Meta. La « task force » de xAI formalise cette logique : moins de filtres RH, plus de contact direct, davantage d’outils sur mesure pour débloquer des profils rares.

Dans l’IA générative, la contrainte n’est pas tant l’accès aux GPU que la densité d’équipes capables d’itérer très vite entre recherche appliquée, produit et sécurité. En internalisant une équipe qui fonctionne comme un commando de closing, xAI signale qu’elle veut raccourcir les cycles d’embauche au moment où le marché sature, tout en imposant son rythme face aux stratégies d’acqui-hire des GAFAM.

Source : ITHome

Xpeng ET1 : premier humanoïde « automotive grade » prêt pour l’industrialisation 2026

Par :Wael.K
20 janvier 2026 à 04:16

He Xiaopeng annonce que la première unité du robot humanoïde ET1, développée selon des standards automobiles, est « tombée » en interne. Le patron de Xpeng évoque une journée entière de revue et de discussion avec ses équipes et parle d’un jalon clé vers une production de masse à grande échelle de robots humanoïdes à haut niveau de capacité dès cette année.

Publication sur le lancement du robot ET1 par XPeng avec texte chinois.

Le calendrier public donné début janvier par Xpeng reste ambitieux : « AI physique » en déploiement industriel et montée en volume en 2026, deuxième génération de VLA embarquée au premier trimestre 2026, démarrage opérationnel du Robotaxi la même année, ainsi qu’une production de série pour le robot humanoïde et la voiture volante.

ET1, cap industriel et continuité de roadmap

L’ET1 se distingue par une approche « automotive grade » rarement revendiquée côté robotique humanoïde. Cela implique des exigences de fiabilité, de validation et de sûreté de fonctionnement alignées sur l’automobile, avec des chaînes d’assemblage et de tests calibrées pour le volume. Le message de He Xiaopeng cadre avec la trajectoire annoncée par le groupe lors de la « 2026 Xiaopeng Global New Product Launch » et indique que les prototypes sortent du stade de laboratoire pour entrer dans un cycle préindustriel.

Si Xpeng parvient à transposer ses pratiques d’ingénierie véhicule à un humanoïde, l’écart se jouera sur la motorisation, l’encodeur, l’équilibrage énergétique et la sûreté logicielle en environnement non contraint, autrement plus variables que dans l’automobile. L’intérêt stratégique est évident pour un acteur qui prévoit en parallèle Robotaxi et véhicule volant : mutualisation des briques perception/planification, chaîne d’approvisionnement certifiée et capacité d’itération rapide à coût maîtrisé.

Source : ITHome

AULA étend sa garantie à 2 ans sur tout son catalogue, rétroactive dès aujourd’hui

Par :Wael.K
20 janvier 2026 à 04:09

AULA revoit sa politique d’après-vente : le fabricant de périphériques PC applique désormais une garantie de 2 ans sur l’ensemble de son catalogue, avec effet immédiat. Particularité notable, la marque précise que les commandes antérieures répondant aux critères et toujours dans une fenêtre de deux ans peuvent également bénéficier de ce nouveau cadre, sur simple présentation de la preuve d’achat.

La mesure couvre les claviers, souris, casques audio et autres accessoires commercialisés par AULA, sans distinction de gamme. L’entreprise ne détaille pas d’exclusions spécifiques ni de segmentation par canal de vente, un point qui restera à confirmer dans les conditions complètes publiées par les revendeurs tiers.

Ce réalignement place AULA sur un standard plus lisible pour les marchés internationaux, alors que plusieurs acteurs du segment gaming ont consolidé une garantie de deux ans, parfois assortie d’un service avancé sur les références phares. Le choix d’une rétroactivité limitée à deux ans protège aussi les achats récents, ce qui devrait réduire la friction côté SAV et fluidifier la gestion des retours.

Source : ITHome

Akasa H6L M2 : six caloducs top-flow pour SFF, jusqu’à 165 W en 77,6 mm

Par :Wael.K
20 janvier 2026 à 04:08

Akasa a dévoilé à Londres une nouvelle salve de ventirads top-flow compacts, six modèles regroupés dans la série H6L (S) à six caloducs, avec des hauteurs de 67,2 à 77,6 mm et des capacités annoncées de 150 à 165 W de TDP. Le positionnement vise clairement les configurations SFF où la contrainte en hauteur reste critique sans sacrifier la pression d’air ni la couverture des étages d’alimentation autour du socket.

Ensemble de systèmes de refroidissement CPU low-profile avec diverses options de design RGB.

VIPER H6L M2 en tête d’affiche

Fer de lance de la série, le VIPER H6L M2 embarque un ventilateur S-FLOW 120×25 mm. Akasa promet jusqu’à 130 % du flux d’air d’un 120 mm « classique » en mode éclairage, pour un régime maximal de 1 900 tr/min à 28,9 dB(A). Le dissipateur culmine à 76 mm et revendique un TDP de 165 W. Versions noir et blanc au programme.

Refroidisseurs Akasa H6L M2 avec éclairage RGB, un noir et un blanc.

SOHO et ALUCIA : éclairage ou sobriété

Le SOHO H6L M2 mise sur l’esthétique avec un ventilateur SOHO AR à palier HDB, 120 mm de diamètre pour 26,5 mm d’épaisseur. Hauteur totale 77,6 mm, TDP annoncé 160 W, déclinaisons noir et blanc. L’ALUCIA H6L M2 reprend l’architecture mais opte pour un ventilateur « light blue » sans éclairage en 26,6 mm d’épaisseur.

Plus bas, l’ALUCIA H6LS M2 déjà connu en 120×16 « light blue » gagne une version noire. À 67,2 mm de haut, il vise les châssis ultra-compacts tout en conservant une capacité de 150 W.

Compatibilité et bundle

Toute la gamme couvre les sockets Intel LGA 1851 / 1700 / 1200 / 115X et AMD AM5 / AM4. La pâte thermique fournie est une T5 ProGrade+ à base composite silicones + nano-diamant. Les variantes noir/blanc et RGB/non-RGB permettent de cibler aussi bien les builds sobres que les configurations orientées vitrine.

Refroidisseur Akasa noir avec ventilateur bleu et caloducs exposés.

Sur ce segment, Akasa pousse l’enveloppe thermique des top-flow compacts un cran plus haut. Si les chiffres devront être validés en charge soutenue sur AM5 et LGA 1851, l’association six caloducs + 120 mm épais dans moins de 78 mm de hauteur répond directement aux besoins des boîtiers SFF actuels, tout en apportant un flux vertical utile aux VRM.

Source : ITHome

Altair 8800 ressuscité : un kit de 1974 démarre enfin, fidèle à l’expérience d’époque

Par :Wael.K
20 janvier 2026 à 04:08

Le « musée informatique temporaire » ICM a remis en route un Altair 8800 produit en 1974 et jamais fonctionnel jusqu’ici. Resté en panne pendant 52 ans à la suite d’une tentative de montage inachevée par son propriétaire d’origine, l’exemplaire a exécuté son premier programme le 14 janvier 2026.

Feuille de code source devant un Altair 8800 Computer

Pris en charge par le technicien SDF, l’ordinateur a nécessité une correction du câblage et le remplacement de l’alimentation. Fidèle à l’expérience d’époque, aucune interface moderne n’a été ajoutée : pas d’écran ni de clavier, l’entrée se fait par les interrupteurs du panneau frontal, en binaire, et la sortie par les LED rouges.

La démonstration filmée culmine avec « Kill The Bit », un jeu écrit en 1975 par Dean McDaniel. Le joueur suit le déplacement d’un bit via les LED et doit basculer l’interrupteur au moment précis pour « éliminer » la position active. Un artefact ludique minimaliste qui résume l’Altair 8800 : une machine fondatrice, mais austère.

À l’époque, le kit Altair 8800 coûtait 439 $ (environ 402 € aujourd’hui après conversion simple), tandis que la version assemblée s’affichait à 621 $ (environ 569 €). Le propriétaire avait choisi le kit pour économiser, sans jamais parvenir à le terminer. Au cœur de la machine, le processeur Intel 8080 signé Federico Faggin, jalon majeur de la micro-informatique commerciale et ancêtre direct de nombreuses architectures ultérieures, dont le Zilog Z80 qu’il co-conçut ensuite.

Un réveil qui respecte le design originel

ICM a privilégié une remise en état conservatrice : correction des erreurs de montage, alimentation neuve, et exploitation du panneau d’interrupteurs comme interface unique. Cette approche garantit que le comportement temporel des bus et la lecture via LED restent conformes à l’expérience initiale, un point crucial pour documenter fidèlement l’interaction homme-machine des premiers micro-ordinateurs.

Au-delà du symbole, faire tourner un 8080 sur un châssis Altair d’origine rappelle le rôle catalyseur de cette plateforme sur l’écosystème naissant des cartes d’extension et des logiciels bas niveau. Réactiver une unité « vierge » éclaire aussi les contraintes réelles d’assemblage des kits des années 70, souvent sous-estimées quand on réécrit l’histoire a posteriori.

Source : ITHome

GLM-4.7-Flash : modèle mixed thinking 30B, 3B activés, SOTA open source

Par :Wael.K
20 janvier 2026 à 03:19

Zhipu AI a dévoilé le 20 janvier GLM-4.7-Flash, un modèle « mixed thinking » open source de 30 milliards de paramètres, avec 3 milliards de paramètres activés. Positionné comme un successeur direct de GLM-4.5-Flash, il vise un déploiement allégé sans sacrifier les performances, avec mise à disposition immédiate et appels gratuits via la plateforme BigModel.cn.

Graphiques comparatifs des performances de plusieurs modèles LLM, incluant GLM-4.7-Flash

Sur des benchmarks orientés raisonnement et programmation comme SWE-bench Verified et τ²-Bench, GLM-4.7-Flash revendique de meilleurs scores que gpt-oss-20b et Qwen3-30B-A3B-Thinking-2507, signant un SOTA open source dans sa classe de taille. En interne, Zhipu met en avant des gains nets sur des tâches front et back-end, tout en recommandant des usages génériques en chinois, traduction, longs contextes et jeu de rôle.

GLM-4.7-Flash remplace dès aujourd’hui GLM-4.5-Flash sur BigModel.cn. L’ancienne version restera accessible jusqu’au 30 janvier 2026 ; passé cette date, les requêtes seront automatiquement routées vers GLM-4.7-Flash. Les dépôts open source sont disponibles sur Hugging Face (zai-org/GLM-4.7-Flash) et ModelScope (ZhipuAI/GLM-4.7-Flash).

Ce qui change avec GLM-4.7-Flash

Le choix d’une architecture à 30B avec seulement 3B activés cible clairement l’inférence rapide et les coûts contenus, tout en restant compétitif sur des tâches complexes. Pour les intégrateurs, le passage automatique depuis GLM-4.5-Flash simplifie la transition, mais impose de valider en amont les comportements sur chaînes d’outils et prompts existants afin d’éviter les régressions silencieuses.

Au-delà de la course au SOTA, l’intérêt est pragmatique: un modèle pensée-rapide équilibré, gratuit à l’appel, open source, et adossé à un support industriel. Pour les équipes produisant du code ou des contenus en chinois avec des contextes longs, l’équation performance/latence/coût mérite un A/B test face aux 20–30B concurrents déjà en place.

Source : ITHome

Humanoïde Columbia : synchro labiale apprise par vision, sans phonèmes

Par :Wael.K
20 janvier 2026 à 03:19

À l’université Columbia, le Creative Machines Lab présente un humanoïde capable de synchroniser ses lèvres avec une précision rarement vue, en se contentant d’apprendre par la vision. Sans règles explicites par phonème, le système aligne mouvements faciaux et audio pour la parole et le chant, avec un réalisme qui s’attaque frontalement au « malaise » des expressions robotiques.

Le visage repose sur une peau synthétique souple tendue sur 26 micromoteurs. Les chercheurs ont d’abord mené une phase d’« auto-exploration » devant un miroir : des milliers d’expressions aléatoires ont permis d’établir la cartographie entre commandes moteurs et configurations faciales. Sur cette base, l’algorithme a ingéré des heures de vidéos YouTube de personnes parlant et chantant pour relier statistiquement timbre, dynamique de la voix et cinématique des lèvres.

Le modèle de « conversion visuo-motrice » produit ensuite, à partir de l’audio, des signaux moteurs synchronisés sans passer par un pipeline de phonèmes scriptés. Résultat : une synchro labiale crédible sur plusieurs langues, assez robuste pour interpréter des titres d’un album interne baptisé « Hello World ». Les limites actuelles se voient surtout sur les plosives comme « B » et les consonnes arrondies type « W ».

Pour Hod Lipson, directeur du laboratoire, la dimension faciale a été sous-investie par rapport à la locomotion, à la préhension ou à la mobilité. Or, dans l’éducation, le soin et l’assistance, la lisibilité émotionnelle du visage pèse autant que l’adresse des membres. Le chercheur estime que des interactions répétées amélioreront encore la fidélité des micro-mouvements et l’acceptabilité sociale, point clé à l’heure où la production d’humanoïdes s’accélère.

Le responsable du projet, Yuhang Hu, voit un couplage naturel avec des IA conversationnelles du type ChatGPT ou Gemini, capables d’injecter du contexte et de la prosodie dans les nuances faciales. À mesure que les modèles apprendront des dialogues longs, ces expressions deviendront plus situées, renforçant l’illusion d’une compréhension réciproque. L’équipe reconnaît cependant des enjeux psychologiques et éthiques sensibles, appelant à une progression graduelle.

Ce que cela change pour la robotique humanoïde

En remplaçant les règles phonétiques par l’apprentissage direct audio→moteurs, la filière esquive des pipelines lourds et spécifiques aux langues. À la clé, une portabilité accrue, un réalisme supérieur et un calibrage plus simple sur de nouveaux visages mécaniques. Si la communauté parvient à généraliser ce type de cartographie visuo-motrice et à fiabiliser les cas difficiles (plosives, arrondissements, coarticulation rapide), la face deviendra un module aussi industrialisable que les mains ou les jambes, avec un impact direct sur l’adoption grand public.

Source : ITHome

MSI MEG X870E GODLIKE MAX : design dévoilé, proche de la X EDITION limitée

Par :Wael.K
20 janvier 2026 à 02:22

MSI a dévoilé l’apparence de la MEG X870E GODLIKE MAX dans une vidéo dédiée à la série MEG X870E MAX publiée le 18 janvier. Ce modèle s’ajoute aux variantes enregistrées mi-2025 auprès de l’EEC, aux côtés de l’édition X EDITION, une série limitée marquant les dix ans de la « GODLIKE » déjà commercialisée.

Trois modèles de cartes mères MSI MEG, incluant GODLIKE MAX, avec fond lumineux

À l’œil, la GODLIKE MAX reprend l’architecture et les lignes de la X EDITION, avec un habillage massif typique de la gamme et l’écosystème d’écrans et de capots qui couvrent largement le PCB. La X EDITION conserve toutefois des éléments cosmétiques plus appuyés, avec un thème limité plus démonstratif.

Positionnement et différences visibles

Le châssis, les carénages et la signature visuelle restent très proches entre MAX et X EDITION, suggérant une base commune sur cette carte mère haut de gamme pour processeurs AMD. La MAX abandonne les artifices de la série anniversaire au profit d’un habillage plus sobre, sans que la vidéo ne mette en évidence de changement de design structurel notable.

Compte tenu de l’enregistrement EEC mentionnant simultanément les déclinaisons X EDITION et MAX, MSI segmente essentiellement par le traitement esthétique et l’édition limitée, la GODLIKE restant positionnée comme vitrine technique de la plateforme X870E.

Source : ITHome

Phanteks G370AC : boîtier E‑ATX/SSI‑EEB sobre, flux d’air et 7 slots au menu

Par :Wael.K
20 janvier 2026 à 02:22

Phanteks lance en Chine un boîtier E-ATX discret orienté bureautique et petit serveur. Référencé « G370AC » sur JD.com, il est affiché à 399 ¥ (environ 52 €) et mise sur un châssis sobre à maille métallique haute perméabilité en façade, sans fioritures.

Boîtier Phanteks G370AC E-ATX/SSI-EEB avec composants internes visibles et logo Phanteks.

Ce mid-tower mesure 465 x 220 x 476 mm. Le panneau supérieur regroupe un USB‑A 3.0, un USB‑C et une prise audio 3,5 mm. La compatibilité couvre les cartes mères E‑ATX et SSI‑EEB, avec 7 slots d’extension. Les limites annoncées sont classiques: ventirad jusqu’à 160 mm, alimentation jusqu’à 200 mm, carte graphique jusqu’à 400 mm ou 375 mm avec ventilateurs frontaux installés.

L’espace de stockage prévoit au choix 2 emplacements 3,5 pouces, ou 1 baie 3,5 pouces plus 2 emplacements 2,5 pouces. Le boîtier accepte jusqu’à 7 ventilateurs: trois 120 mm sur la façade, trois 120 mm sur la partie supérieure du compartiment alimentation avec support d’un radiateur de 360 mm, et un 120 mm à l’arrière.

Positionnement et conception

Gros plan des ports supérieurs du boîtier Phanteks avec Type-C et USB 3.0.

Le G370AC vise des configurations de travail ou serveurs légers qui exigent un flux d’air correct et une compatibilité SSI‑EEB rarement proposée à ce niveau de prix. La façade grillagée favorise l’admission d’air, tandis que la distribution interne reste simple, centrée sur l’essentiel et sans artifice esthétique inutile.

Connectique et refroidissement

Le strict nécessaire côté I/O avec USB‑C en façade et un jeu d’emplacements ventilateurs suffisant pour des charges soutenues. Le support d’un radiateur 360 mm au‑dessus du compartiment alimentation est atypique pour ce segment et ouvre la porte à un watercooling frontal + extraction arrière, ou à un montage full air à sept 120 mm.

Schéma comparatif des tailles de cartes mères compatibles avec le Phanteks G370AC.

À moins de 60 € convertis, proposer E‑ATX + SSI‑EEB, 7 slots et un flux d’air potentiellement élevé crée un point d’entrée agressif pour des plateformes HEDT d’occasion ou des nœuds de lab domestiques. Resteront à vérifier la rigidité du châssis, la qualité des filtres et la facilité de câblage, déterminantes pour séduire au‑delà du seul prix.

Source : ITHome

Microsoft Copilot teste Real Talk et un générateur vidéo courte sur Android

Par :Wael.K
20 janvier 2026 à 01:12

Microsoft teste « Real Talk » dans Copilot et active, en parallèle, un premier générateur de vidéo courte. L’initiative vise clairement à réagir à la poussée de Gemini et à la traction persistante de ChatGPT, alors que Copilot ne pèse qu’environ 1 % de part de marché côté web selon SimilarWeb. Le déploiement est mondial et ouvert aux testeurs, sans barrière payante apparente pour la partie vidéo.

Fenêtre de chat Microsoft Copilot affichant une conversation sur Real Talk et AI

Real Talk: profondeur et style, avec une posture moins « corporate »

Real Talk ajuste les réponses selon deux axes internes, « profondeur » et « style d’écriture ». Copilot sélectionne automatiquement une granularité de réponse (standard, compressée, etc.) et un ton (par exemple plus « casual ») en s’appuyant sur l’historique de la conversation. Microsoft promet une transparence accrue sur le raisonnement et une interaction plus incarnée, loin de la rigidité perçue des assistants classiques.

Écran de Microsoft Copilot analysant des sujets liés à l'importance de l'IA

Dans les essais relayés, le bot n’hésite plus à contredire une requête jugée absurde, à exprimer une curiosité réelle, ni à proposer des angles alternatifs plutôt que de feindre l’enthousiasme. L’objectif est d’animer l’échange, avec des réponses moins formatées et une dynamique plus proche d’un dialogue humain que d’un support client verrouillé.

Un bouton « Create a video » sur Android, jusqu’à 8 s avec audio

Sur l’app Copilot Android, un interrupteur « Create a video » apparaît chez certains testeurs. Les clips générés montent jusqu’à 8 secondes, audio inclus. Impossible de confirmer à ce stade si Microsoft s’appuie sur un modèle maison ou sur Sora d’OpenAI. Point notable, la fonction semble accessible avec une offre Microsoft 365 basique, sans surcoût identifié.

Si le modèle reste non divulgué, l’intégration dans Copilot et l’absence de paywall en phase de test laissent penser à une itération rapide côté produit, avec une priorité donnée à l’usage réel avant le branding technologique. Le cadrage à 8 secondes rappelle une stratégie de montée en charge prudente, habituelle sur les modules vidéo génératifs.

Options de personnalisation

Pour Microsoft, Real Talk attaque un point de friction récurrent des assistants IA: le ton policé et interchangeable. En assumant une réponse plus tranchée et en exposant mieux la mécanique de génération, Copilot cherche un différenciateur tangible face à Gemini et ChatGPT. Le module vidéo, même limité, ajoute un marqueur fonctionnel concret sur mobile. La question clé sera la capacité à convertir cette expérimentation en rétention, alors que la concurrence verrouille déjà des usages quotidiens.

Source : ITHome

OpenAI prépare un appareil IA grand public pour 2026 avec Jony Ive

Par :Wael.K
20 janvier 2026 à 01:12

OpenAI prépare son premier appareil grand public pour le second semestre 2026. À Davos, Chris Lehane, en charge des politiques publiques, a assuré que le projet suit son calendrier. Le dispositif, développé avec Jony Ive, viserait à refonder l’interface homme‑machine plutôt qu’à s’ajouter à la pile de gadgets existants.

Sam Altman et l’ex‑chef du design d’Apple avaient confirmé au printemps dernier un effort matériel au long cours. Selon des échos concordants, un premier prototype circule déjà en interne et les performances auraient convaincu la direction. La production est évoquée « d’ici deux ans », ce qui recoupe l’objectif de mise sur le marché fin 2026.

Bloomberg signalait à l’automne un recrutement agressif d’ingénieurs issus des équipes hardware d’Apple. Le positionnement du produit reste volontairement flou, mais le duo Altman‑Ive décrit une expérience épurée, pensée pour réduire le bruit informationnel des terminaux actuels. L’ambition affichée est de substituer à l’« agitation » des interfaces mobiles une interaction guidée par l’assistant, centrée sur les tâches importantes.

Fenêtre de lancement et périmètre

Aucune indication sur la forme finale du matériel ni sur son nom. Ni écran, ni PC de bureau, ni « mini PC » n’ont été évoqués explicitement. OpenAI parle d’un appareil conçu autour de l’IA, sans détails sur la pile silicium, la connectique, ni l’intégration logicielle avec les écosystèmes mobiles existants.

Si l’échéance 2H26 tient, OpenAI devra stabiliser à la fois une plateforme logicielle temps réel et une supply chain hardware, avec des arbitrages classiques entre conception sur mesure et composants catalogues. Le profil d’Ive laisse penser à un travail fort sur l’ergonomie et les interactions, tandis que le timing fera face aux feuilles de route ARM et aux cycles modem/BT/Wi‑Fi 7 du marché.

L’entrée d’OpenAI dans le matériel créerait une pression latente sur les assistants vocaux historiques et sur les interfaces des smartphones, même sans viser le volume d’un iPhone. Si l’objet tient la promesse d’une interaction moins frictionnelle, l’impact se jouera autant dans le design d’usage que dans l’empilage de modèles, avec des effets possibles sur les fabricants OEM cherchant des différenciations IA au‑delà du marketing.

Source : ITHome

Honor Watch GS 5 : dépistage « anti-mort subite » et 23 jours d’autonomie

Par :Wael.K
20 janvier 2026 à 01:11

Honor commercialise en Chine la Watch GS 5 à 699 ¥ (environ 90 €), avec deux promesses fortes pour une montre à ce prix : un module de dépistage « anti-mort subite » adossé à un programme de recherche clinique, et jusqu’à 23 jours d’autonomie en usage Bluetooth. Le produit est disponible sur JD.com.

Montre Honor Watch GS 5 avec bracelet beige et cadran doré, vue de face.

Santé cardiaque et suivi avancé

La GS 5 est présentée comme le seul wearable du marché participant à une étude de dépistage de la mort subite. Elle analyse la « force de décélération » du rythme cardiaque pour estimer la capacité du nerf vague à réguler la fréquence, avec détection de risques cardiovasculaires potentiels et recommandations de gestion. Les cas considérés à haut risque bénéficient d’un suivi téléphonique par une équipe médicale partenaire.

Infographie montrant les fonctions de santé et design mince de la Honor Watch GS 5.

Honor intègre par ailleurs son programme de recherche sur la santé cardiaque, avec des alertes de risque pour fibrillation auriculaire suspectée, extrasystoles, apnées du sommeil et irrégularités du rythme. La montre suit en continu la fréquence cardiaque, la SpO₂, le stress et des indicateurs HRV nocturnes. Un modèle d’évaluation du risque cardio-cérébrovasculaire, développé avec l’équipe du professeur Gu Dongfeng pour la population chinoise, s’appuie sur des modèles biomédicaux reconnus pour générer un score et des conseils personnalisés.

Design, endurance et fonctions connectées

Le boîtier s’en tient à 9,9 mm d’épaisseur et 26 g, avec une lunette en aluminium et un bracelet en cuir. L’autonomie annoncée repose sur une batterie silicium‑carbone de 495 mAh issue d’un empilement interne optimisé : 23 jours en Bluetooth, et 9 jours avec l’écran always‑on activé. L’écran atteint 1 500 nits, la montre embarque un GNSS indépendant, une certification 5ATM + IP68, le NFC, les appels Bluetooth et la lecture de musique hors ligne.

Côté « assistant » embarqué, l’IA de poignet YOYO pousse des rappels de vols et trains, des notifications logistiques (taxis, colis, repas) et des informations contextuelles directement au lever de poignet. La proposition logicielle reste ancrée dans l’écosystème Honor, sans dépendance au smartphone pour le positionnement.

Infographie des fonctionnalités d'étanchéité et d'écran extérieur lumineux de la Honor Watch GS 5.

En combinant capteurs cardiaques, protocole de recherche clinique et autonomie étirée, Honor installe une montre entrée/milieu de gamme au positionnement inhabituel. La crédibilité de la partie dépistage reposera toutefois sur la publication et la reproductibilité du protocole, mais l’angle « nerf vague/HRV + suivi médical » crée un différenciateur tangible sur un segment saturé.

Source : ITHome

Galaxy Book6 Pro Panther Lake : Samsung confirme une forte hausse des prix en Corée

Par :Wael.K
20 janvier 2026 à 00:14

Samsung a officiellement communiqué en Corée les tarifs et configurations de sa nouvelle gamme Galaxy Book6, dévoilée au CES 2026.

Les prix concernent exclusivement des versions haut de gamme standardisées en 32 Go de RAM et 1 To de SSD, marquant une nette montée en gamme par rapport aux générations précédentes.

Le Galaxy Book6 Pro signe les débuts de Samsung avec Panther Lake

Le Galaxy Book6 Pro inaugure la plateforme Panther Lake avec un processeur Intel Core Ultra X7 (Series 3) et un iGPU Intel Arc, sans carte graphique dédiée. Il est décliné en deux formats :

  • 14 pouces à 3 410 000 KRW (environ 1990 € HT)
  • 16 pouces à 3 510 000 KRW (environ 2059 € HT)

Ces tarifs contrastent fortement avec ceux des Galaxy Book4 et Book5 Pro, lancés entre 1,7 et 2,9 millions de wons selon les configurations.

Galaxy Book6 Pro Geekbench leak kv
source : notebookcheck.biz

L’écart dépasse les 20 %, traduisant un repositionnement clair vers le segment premium, justifié par l’augmentation des configurations de base et le passage à la nouvelle génération de processeurs Intel.

Tableau comparatif spécifications Galaxy Book 6 Ultra et Pro, fond blanc faible contraste

Galaxy Book6 Ultra : Uniquement en 16 pouces

Le Galaxy Book6 Ultra, exclusivement en 16 pouces, vise quant à lui les usages créatifs et productifs avancés. Il associe un Intel Core Ultra 7 (Series 3) à des GPU NVIDIA Laptop :
• RTX 5060 à 4 630 000 KRW ( environ 2700 € HT)
• RTX 5070 à 4 930 000 KRW (environ 2875 € HT)

csm Galaxy Book6 Ultra
source : notebookcheck.biz

Le surcoût entre les deux GPU reste limité, ce qui suggère une différenciation davantage liée aux contraintes thermiques et au châssis qu’à une segmentation purement performancielle. La mise en vente en Corée est prévue le 27 janvier à 9h.

Galaxy Book6 : des prix premium

Convertis à titre indicatif, les prix placent le Galaxy Book6 Pro autour de 2 350–2 450 € TTC, et le Book6 Ultra entre 2 900 et 3 200 € TTC selon la configuration GPU. Ces niveaux tarifaires positionnent clairement la gamme face aux ultrabooks créatifs premium, qu’ils soient sous Windows RTX Studio ou sur plateformes ARM et Apple.

Avec cette génération Book6, Samsung acte une montée en gamme assumée : configurations musclées dès l’entrée, bascule vers Intel Core Ultra Series 3, et segmentation claire entre mobilité CPU/IA légère pour les Pro et création graphique avancée pour l’Ultra. Les prix européens et américains ne sont pas encore officialisés, mais les tarifs coréens donnent une base solide pour anticiper la grille internationale.

Source: Samsung

PC Copilot+ vs MacBook Air M4 : promesses de performance, méthodes absentes

Par :Wael.K
19 janvier 2026 à 23:36

Microsoft affirme que les PC « Copilot+ » les plus haut de gamme surpassent le MacBook Air M4 en vitesse, tout en promettant des gains massifs face aux portables Windows d’il y a cinq ans. Derrière l’étiquette « Plus », la firme renvoie autant à des blocs matériel plus musclés qu’à l’intégration d’IA dans Windows 11, sans définir précisément ce qui qualifie un PC pour ce label.

Dans une documentation marketing repérée par WindowsLatest et datée de décembre 2025, Microsoft parle d’un score supérieur au MacBook Air M4 en Cinebench 2024 multicœur, et d’un facteur x5 face à un « PC moyen » de 2019–2020. Les tests internes auraient été menés entre juin et septembre 2025, mais les références exactes des machines, leurs configurations et les conditions d’exécution ne sont pas divulguées.

Texte comparatif sur la productivité des PC Copilot+ par rapport au MacBook Air.

Le constructeur met aussi en avant un écart de 3,7x sur des tâches d’IA par rapport aux premiers PC Windows 11 « AI », essentiellement grâce à une NPU passant d’environ 15 TOPS à près de 40 TOPS. Là encore, l’ordre de grandeur est cohérent avec l’évolution des NPU intégrées, mais l’absence de protocole public limite la portée de la comparaison.

Des promesses de performances, peu de transparence

Microsoft cite Cinebench 2024 multicœur pour appuyer l’avance présumée sur le MacBook Air M4, sans préciser le modèle exact de « Copilot+ » testé, ni les paramètres (mode d’alimentation, durée de charge soutenue, température ambiante, version des pilotes). Le parallèle élude des aspects déterminants en usage réel, comme l’efficacité énergétique, la constance des fréquences sous charge prolongée et la qualité de l’optimisation logicielle.

Sur l’autonomie, la marque revendique jusqu’à 19 heures en navigation web, 27 heures en lecture vidéo locale et 22 heures en streaming, avec des gains pouvant atteindre 4,4x selon les scénarios face à d’anciens portables. Sans méthodologie ni outils de mesure publiés, ces chiffres restent difficiles à extrapoler d’un modèle à l’autre.

Une touche Copilot mise en avant, un positionnement flou

Le bouton Copilot devient l’argument central côté expérience: accès direct aux fonctions d’IA, promesse d’un multitâche plus fluide via la NPU, de la synthèse de textes à la préparation d’e-mails et à la planification. Le message est limpide: l’ergonomie et la réactivité assistées par la NPU seraient au cœur de cette génération, plus que la seule montée en fréquence des processeurs.

Touche personnalisée d'un clavier avec logo coloré et flèches de remappage.

Reste que beaucoup d’affirmations comparent des Copilot+ récents à du matériel 2020–2021, ou s’appuient sur des benchs non documentés. Oui, ces machines seront plus rapides et plus efficientes: c’est le cycle normal des CPU, GPU et SSD. Ce que recouvre « Plus » en tant que catégorie produit demeure en revanche largement marketing, faute de critères publics et vérifiables.

Si Microsoft veut installer « Copilot+ » comme une classe à part, il lui faudra standardiser les seuils techniques, notamment NPU, profils d’alimentation, exigences de pilotes, et publier des méthodologies de test opposables. À défaut, la comparaison avec le MacBook Air M4 restera un signal commercial plus qu’un constat reproductible, et la différenciation se jouera, comme souvent, sur l’autonomie réelle, la tenue en charge et la qualité des optimisations logicielles sur des cas d’usage concrets.

Source : ITHome

❌