↩ Accueil

Vue normale

AULA étend sa garantie à 2 ans sur tout son catalogue, rétroactive dès aujourd’hui

Par :Wael.K
20 janvier 2026 à 04:09

AULA revoit sa politique d’après-vente : le fabricant de périphériques PC applique désormais une garantie de 2 ans sur l’ensemble de son catalogue, avec effet immédiat. Particularité notable, la marque précise que les commandes antérieures répondant aux critères et toujours dans une fenêtre de deux ans peuvent également bénéficier de ce nouveau cadre, sur simple présentation de la preuve d’achat.

La mesure couvre les claviers, souris, casques audio et autres accessoires commercialisés par AULA, sans distinction de gamme. L’entreprise ne détaille pas d’exclusions spécifiques ni de segmentation par canal de vente, un point qui restera à confirmer dans les conditions complètes publiées par les revendeurs tiers.

Ce réalignement place AULA sur un standard plus lisible pour les marchés internationaux, alors que plusieurs acteurs du segment gaming ont consolidé une garantie de deux ans, parfois assortie d’un service avancé sur les références phares. Le choix d’une rétroactivité limitée à deux ans protège aussi les achats récents, ce qui devrait réduire la friction côté SAV et fluidifier la gestion des retours.

Source : ITHome

Akasa H6L M2 : six caloducs top-flow pour SFF, jusqu’à 165 W en 77,6 mm

Par :Wael.K
20 janvier 2026 à 04:08

Akasa a dévoilé à Londres une nouvelle salve de ventirads top-flow compacts, six modèles regroupés dans la série H6L (S) à six caloducs, avec des hauteurs de 67,2 à 77,6 mm et des capacités annoncées de 150 à 165 W de TDP. Le positionnement vise clairement les configurations SFF où la contrainte en hauteur reste critique sans sacrifier la pression d’air ni la couverture des étages d’alimentation autour du socket.

Ensemble de systèmes de refroidissement CPU low-profile avec diverses options de design RGB.

VIPER H6L M2 en tête d’affiche

Fer de lance de la série, le VIPER H6L M2 embarque un ventilateur S-FLOW 120×25 mm. Akasa promet jusqu’à 130 % du flux d’air d’un 120 mm « classique » en mode éclairage, pour un régime maximal de 1 900 tr/min à 28,9 dB(A). Le dissipateur culmine à 76 mm et revendique un TDP de 165 W. Versions noir et blanc au programme.

Refroidisseurs Akasa H6L M2 avec éclairage RGB, un noir et un blanc.

SOHO et ALUCIA : éclairage ou sobriété

Le SOHO H6L M2 mise sur l’esthétique avec un ventilateur SOHO AR à palier HDB, 120 mm de diamètre pour 26,5 mm d’épaisseur. Hauteur totale 77,6 mm, TDP annoncé 160 W, déclinaisons noir et blanc. L’ALUCIA H6L M2 reprend l’architecture mais opte pour un ventilateur « light blue » sans éclairage en 26,6 mm d’épaisseur.

Plus bas, l’ALUCIA H6LS M2 déjà connu en 120×16 « light blue » gagne une version noire. À 67,2 mm de haut, il vise les châssis ultra-compacts tout en conservant une capacité de 150 W.

Compatibilité et bundle

Toute la gamme couvre les sockets Intel LGA 1851 / 1700 / 1200 / 115X et AMD AM5 / AM4. La pâte thermique fournie est une T5 ProGrade+ à base composite silicones + nano-diamant. Les variantes noir/blanc et RGB/non-RGB permettent de cibler aussi bien les builds sobres que les configurations orientées vitrine.

Refroidisseur Akasa noir avec ventilateur bleu et caloducs exposés.

Sur ce segment, Akasa pousse l’enveloppe thermique des top-flow compacts un cran plus haut. Si les chiffres devront être validés en charge soutenue sur AM5 et LGA 1851, l’association six caloducs + 120 mm épais dans moins de 78 mm de hauteur répond directement aux besoins des boîtiers SFF actuels, tout en apportant un flux vertical utile aux VRM.

Source : ITHome

Altair 8800 ressuscité : un kit de 1974 démarre enfin, fidèle à l’expérience d’époque

Par :Wael.K
20 janvier 2026 à 04:08

Le « musée informatique temporaire » ICM a remis en route un Altair 8800 produit en 1974 et jamais fonctionnel jusqu’ici. Resté en panne pendant 52 ans à la suite d’une tentative de montage inachevée par son propriétaire d’origine, l’exemplaire a exécuté son premier programme le 14 janvier 2026.

Feuille de code source devant un Altair 8800 Computer

Pris en charge par le technicien SDF, l’ordinateur a nécessité une correction du câblage et le remplacement de l’alimentation. Fidèle à l’expérience d’époque, aucune interface moderne n’a été ajoutée : pas d’écran ni de clavier, l’entrée se fait par les interrupteurs du panneau frontal, en binaire, et la sortie par les LED rouges.

La démonstration filmée culmine avec « Kill The Bit », un jeu écrit en 1975 par Dean McDaniel. Le joueur suit le déplacement d’un bit via les LED et doit basculer l’interrupteur au moment précis pour « éliminer » la position active. Un artefact ludique minimaliste qui résume l’Altair 8800 : une machine fondatrice, mais austère.

À l’époque, le kit Altair 8800 coûtait 439 $ (environ 402 € aujourd’hui après conversion simple), tandis que la version assemblée s’affichait à 621 $ (environ 569 €). Le propriétaire avait choisi le kit pour économiser, sans jamais parvenir à le terminer. Au cœur de la machine, le processeur Intel 8080 signé Federico Faggin, jalon majeur de la micro-informatique commerciale et ancêtre direct de nombreuses architectures ultérieures, dont le Zilog Z80 qu’il co-conçut ensuite.

Un réveil qui respecte le design originel

ICM a privilégié une remise en état conservatrice : correction des erreurs de montage, alimentation neuve, et exploitation du panneau d’interrupteurs comme interface unique. Cette approche garantit que le comportement temporel des bus et la lecture via LED restent conformes à l’expérience initiale, un point crucial pour documenter fidèlement l’interaction homme-machine des premiers micro-ordinateurs.

Au-delà du symbole, faire tourner un 8080 sur un châssis Altair d’origine rappelle le rôle catalyseur de cette plateforme sur l’écosystème naissant des cartes d’extension et des logiciels bas niveau. Réactiver une unité « vierge » éclaire aussi les contraintes réelles d’assemblage des kits des années 70, souvent sous-estimées quand on réécrit l’histoire a posteriori.

Source : ITHome

Madison Keys gets Australian Open title defence off to jittery start

20 janvier 2026 à 03:58
  • American beats Ukraine’s Oleksandra Oliynykova 7-6 (8), 6-1

  • Last year’s winner recovers after losing first four games

A nervy Madison Keys got the defence of her Australian Open crown off to a stuttering start, losing the first four games before rallying to stay in the title hunt.

The American ninth seed was a bundle of nerves on Rod Laver Arena, but calmed down to clinch a 7-6 (8), 6-1 win over Ukraine’s Oleksandra Oliynykova.

Continue reading...

© Photograph: Lukas Coch/AAP

© Photograph: Lukas Coch/AAP

© Photograph: Lukas Coch/AAP

En Turquie, Ankara au bord de la panne sèche d’eau courante

20 janvier 2026 à 03:30
Le niveau des barrages affiche 1,12 % de taux de remplissage en raison des sécheresses. L’Etat de Recep Tayyip Erdogan nie toute responsabilité et accuse la mairie d’opposition d’incompétence.

© ADEM ALTAN/AFP

Des habitants font la queue pour obtenir de l’eau lors d’une pénurie dans le quartier d’Araplar, dans le district de Mamaklar, à Ankara, le 8 janvier 2026.

GLM-4.7-Flash : modèle mixed thinking 30B, 3B activés, SOTA open source

Par :Wael.K
20 janvier 2026 à 03:19

Zhipu AI a dévoilé le 20 janvier GLM-4.7-Flash, un modèle « mixed thinking » open source de 30 milliards de paramètres, avec 3 milliards de paramètres activés. Positionné comme un successeur direct de GLM-4.5-Flash, il vise un déploiement allégé sans sacrifier les performances, avec mise à disposition immédiate et appels gratuits via la plateforme BigModel.cn.

Graphiques comparatifs des performances de plusieurs modèles LLM, incluant GLM-4.7-Flash

Sur des benchmarks orientés raisonnement et programmation comme SWE-bench Verified et τ²-Bench, GLM-4.7-Flash revendique de meilleurs scores que gpt-oss-20b et Qwen3-30B-A3B-Thinking-2507, signant un SOTA open source dans sa classe de taille. En interne, Zhipu met en avant des gains nets sur des tâches front et back-end, tout en recommandant des usages génériques en chinois, traduction, longs contextes et jeu de rôle.

GLM-4.7-Flash remplace dès aujourd’hui GLM-4.5-Flash sur BigModel.cn. L’ancienne version restera accessible jusqu’au 30 janvier 2026 ; passé cette date, les requêtes seront automatiquement routées vers GLM-4.7-Flash. Les dépôts open source sont disponibles sur Hugging Face (zai-org/GLM-4.7-Flash) et ModelScope (ZhipuAI/GLM-4.7-Flash).

Ce qui change avec GLM-4.7-Flash

Le choix d’une architecture à 30B avec seulement 3B activés cible clairement l’inférence rapide et les coûts contenus, tout en restant compétitif sur des tâches complexes. Pour les intégrateurs, le passage automatique depuis GLM-4.5-Flash simplifie la transition, mais impose de valider en amont les comportements sur chaînes d’outils et prompts existants afin d’éviter les régressions silencieuses.

Au-delà de la course au SOTA, l’intérêt est pragmatique: un modèle pensée-rapide équilibré, gratuit à l’appel, open source, et adossé à un support industriel. Pour les équipes produisant du code ou des contenus en chinois avec des contextes longs, l’équation performance/latence/coût mérite un A/B test face aux 20–30B concurrents déjà en place.

Source : ITHome

Humanoïde Columbia : synchro labiale apprise par vision, sans phonèmes

Par :Wael.K
20 janvier 2026 à 03:19

À l’université Columbia, le Creative Machines Lab présente un humanoïde capable de synchroniser ses lèvres avec une précision rarement vue, en se contentant d’apprendre par la vision. Sans règles explicites par phonème, le système aligne mouvements faciaux et audio pour la parole et le chant, avec un réalisme qui s’attaque frontalement au « malaise » des expressions robotiques.

Le visage repose sur une peau synthétique souple tendue sur 26 micromoteurs. Les chercheurs ont d’abord mené une phase d’« auto-exploration » devant un miroir : des milliers d’expressions aléatoires ont permis d’établir la cartographie entre commandes moteurs et configurations faciales. Sur cette base, l’algorithme a ingéré des heures de vidéos YouTube de personnes parlant et chantant pour relier statistiquement timbre, dynamique de la voix et cinématique des lèvres.

Le modèle de « conversion visuo-motrice » produit ensuite, à partir de l’audio, des signaux moteurs synchronisés sans passer par un pipeline de phonèmes scriptés. Résultat : une synchro labiale crédible sur plusieurs langues, assez robuste pour interpréter des titres d’un album interne baptisé « Hello World ». Les limites actuelles se voient surtout sur les plosives comme « B » et les consonnes arrondies type « W ».

Pour Hod Lipson, directeur du laboratoire, la dimension faciale a été sous-investie par rapport à la locomotion, à la préhension ou à la mobilité. Or, dans l’éducation, le soin et l’assistance, la lisibilité émotionnelle du visage pèse autant que l’adresse des membres. Le chercheur estime que des interactions répétées amélioreront encore la fidélité des micro-mouvements et l’acceptabilité sociale, point clé à l’heure où la production d’humanoïdes s’accélère.

Le responsable du projet, Yuhang Hu, voit un couplage naturel avec des IA conversationnelles du type ChatGPT ou Gemini, capables d’injecter du contexte et de la prosodie dans les nuances faciales. À mesure que les modèles apprendront des dialogues longs, ces expressions deviendront plus situées, renforçant l’illusion d’une compréhension réciproque. L’équipe reconnaît cependant des enjeux psychologiques et éthiques sensibles, appelant à une progression graduelle.

Ce que cela change pour la robotique humanoïde

En remplaçant les règles phonétiques par l’apprentissage direct audio→moteurs, la filière esquive des pipelines lourds et spécifiques aux langues. À la clé, une portabilité accrue, un réalisme supérieur et un calibrage plus simple sur de nouveaux visages mécaniques. Si la communauté parvient à généraliser ce type de cartographie visuo-motrice et à fiabiliser les cas difficiles (plosives, arrondissements, coarticulation rapide), la face deviendra un module aussi industrialisable que les mains ou les jambes, avec un impact direct sur l’adoption grand public.

Source : ITHome

❌