Le soutien des Etats-Unis est indispensable à la défense européenne selon Mark Rutte, le secrétaire général de l’OTAN

© NICOLAS TUCAT/AFP

© NICOLAS TUCAT/AFP

© NICOLAS TUCAT/AFP
Un article signé GOODTECH.info
Vous développez pour macOS et vous en avez marre du TabView standard de SwiftUI qui manque cruellement de flexibilité ? Bonsplit vient de débarquer, et c’est exactement ce qui manquait à l’écosystème Swift. Ce qu’on aime ? C’est un projet […]
L’article Bonsplit : la bibliothèque SwiftUI open source qui offre enfin des onglets et panneaux dignes de macOS est apparu en premier sur Goodtech.

© STEPHANE DE SAKUTIN / AFP
Un iGPU qui refuse de vieillir, et une montée en gamme réservée aux élites. La feuille de route officieuse d’AMD dessine un paysage où la majorité des laptops resterait figée sur la même génération graphique.
Une diapositive partagée sur Weibo par Golden Pig Upgrade, réputé pour ses fuites fiables, indique qu’AMD conserverait l’iGPU RDNA 3.5 jusqu’en 2029. Ce n’est pas une roadmap officielle, mais le signal est fort: l’iGPU des Ryzen AI 300 et 400 resterait la norme pour des années.

Concrètement, la grande majorité des portables bureautiques et machines milieu de gamme verrait peu ou pas d’évolution graphique, malgré le rythme annuel des raffinements chez la concurrence. Le progrès se déplacerait côté CPU, avec Zen 6 présenté comme l’attraction majeure des laptops mainstream.
Les véritables nouveautés architecturales basculeraient sur des SKU premium. Les variantes « Medusa Halo » dotées de tuiles GPU séparées adopteraient RDNA 5, tandis que les puces « Medusa Point » standard resteraient en RDNA 3.5. L’unique levier possible pour doper l’iGPU courant serait d’augmenter le nombre de CU via un die plus grand ou un process plus dense, hypothèse jugée peu probable si RDNA 5 est gardé pour le segment Halo.
Le lancement des dGPU RDNA 4 a donné le ton : présence limitée au desktop, pas de variantes mobiles ni d’intégration APU, et une stratégie cantonnée au milieu de gamme sans concurrent haut de gamme. Prolonger RDNA 3.5 sur près d’un demi‑décennie accroîtrait l’écart technologique si les rivaux itèrent plus vite.
Si ce scénario se confirme, AMD prendrait un pari industriel clair : réserver l’innovation graphique aux produits phares à forte marge, tout en capitalisant sur l’endurance de RDNA 3.5 pour le volume. À court terme, les utilisateurs de laptops mainstream devraient attendre Zen 6 pour un saut notable, tandis que le jeu en iGPU restera stable, sauf rare hausse de CU.
Source : TechPowerUp


Le chroniqueur tech du Washington Post, Geoffrey A. Fowler, a mis à l’épreuve ChatGPT Health avec dix ans de données issues de son Apple Watch, soit 29 millions de pas et 6 millions de mesures de fréquence cardiaque. Le système l’a catégorisé « F » en santé cardiaque, déclenchant une alerte qui s’est révélée infondée après avis médical.
Le cœur du faux diagnostic tient à l’interprétation de la VO2 max. ChatGPT Health l’a traitée comme une valeur clinique absolue alors qu’Apple la présente explicitement comme une estimation utile au suivi de tendance, pas au triage médical. Sur cette base bancale, l’outil a émis un jugement négatif qui ne résiste pas à un examen clinique standard.

L’IA a aussi pris pour un signal physiologique une rupture de série provoquée par un changement de génération d’Apple Watch. Le passage à un nouveau capteur a modifié la ligne de base de la fréquence cardiaque au repos, mais l’algorithme l’a assimilé à une dégradation de l’état de santé, ignorant l’effet matériel d’un hardware révisé.

Au-delà de la lecture erronée des données, la sortie de ChatGPT Health s’est montrée instable. À question identique, Fowler a reçu des évaluations oscillant de « F » à « B ». Le système a en outre « oublié » à plusieurs reprises des informations de base comme l’âge ou le sexe, et a ignoré des résultats sanguins récents pourtant fournis dans le fil de discussion.

Pris ensemble, ces comportements traduisent un modèle qui ne gère ni la qualité hétérogène des capteurs grand public ni la persistance contextuelle indispensable à l’analyse santé. Ils posent la question de l’aptitude d’un assistant généraliste à exploiter des métriques portées par des montres connectées, où chaque révision de capteur et chaque changement de portabilité peut altérer la série.

Au-delà du cas individuel, l’épisode illustre un écueil structurel: sans calibrage par appareil, sans gestion des ruptures liées au passage à un nouveau capteur et sans hiérarchie explicite entre estimation grand public et biomarqueur clinique, un moteur conversationnel générera des alertes contradictoires et anxiogènes. Tant que ces briques ne sont pas standardisées — détection de drift matériel, métadonnées de capteur, protocole d’incertitude — la valeur ajoutée restera limitée au conseil hygiène plutôt qu’au triage.
Source : ITHome
« DeepSeek-V3 est construit sur notre architecture. » La phrase d’Arthur Mensch, CEO et cofondateur de Mistral, a déclenché un tir de barrage. Dans un entretien récent sur la dynamique de l’open source en Chine, le dirigeant a décrit Mixtral comme le premier « sparse Mixture-of-Experts » maison publié début 2024 et affirmé que DeepSeek-V3 et ses itérations s’appuyaient sur la même architecture, rendue reproductible par Mistral.
La chronologie et la technique compliquent toutefois ce récit. Les deux papiers fondateurs sont apparus à trois jours d’intervalle sur arXiv (Mixtral: 2401.04088 ; DeepSeek: 2401.06066), tous deux axés sur les SMoE avec activation clairsemée pour réduire le coût de calcul et améliorer les performances.

Mais les objectifs divergent : Mixtral procède d’une approche d’ingénierie visant à montrer qu’un socle solide + un MoE éprouvé peut dépasser des denses plus grands, quand DeepSeek revendique une refonte de l’architecture pour traiter deux angles morts du MoE classique, la surcharge de compétence des experts et les redondances d’apprentissage.
Les deux utilisent un routage Top-K façon GShard. Mixtral conserve une granularité standard : chaque expert est un bloc FFN complet, tous considérés à parité, sélectionnés dynamiquement par le routeur. La distribution des connaissances y reste relativement plate, mêlant généraliste et spécifique au sein des mêmes experts.

DeepSeek introduit une segmentation fine des experts, découpant de « gros » experts en unités plus petites à paramètres constants, pour des combinaisons plus flexibles et un apprentissage plus ciblé. S’y ajoutent des « experts partagés », toujours activés et exclus du routage, qui encapsulent les compétences générales, pendant que les experts soumis au Top-K se spécialisent. Résultat : un découplage explicite des connaissances générales et spécifiques, absent du design Mixtral.
Autre point qui alimente la controverse : la publication « Mixtral of Experts » ne détaille ni données, ni hyperparamètres, ni tokens d’entraînement, ni ablations. À l’inverse, la communauté a relevé fin 2025 que Mistral 3 Large reprenait le schéma architectural popularisé par DeepSeek-V3, renversant de fait l’argument d’antériorité suggéré par Arthur Mensch.
Sur le fond, l’affirmation d’un « même type d’architecture » tient pour le cadre SMoE/Top-K. Sur les choix structurants, elle s’effrite. L’impact industriel penche aujourd’hui du côté de DeepSeek, dont les contributions sur le MoE clairsemé et la MLA ont marqué l’écosystème, quand Mistral a surtout installé Mixtral comme référence opérationnelle et catalyseur de l’adoption. Au-delà du bruit, le différentiel d’influence technique s’est déplacé, et la bataille d’image autour de l’antériorité reflète la tension entre itération d’ingénierie et réagencement algorithmique.

Dans un marché où la performance/coût sur GPU devient l’axe cardinal, la granularité des experts, le rôle d’experts partagés et la discipline de routage ne sont pas des détails : ils conditionnent l’efficacité d’entraînement, la stabilité et l’utilisation mémoire. La prochaine salve se jouera moins dans les déclarations que dans les courbes de perplexité, la qualité des ablations et les gains visibles en production, alors que DeepSeek prépare déjà une nouvelle fenêtre de tir.
Source : ITHome
Selon The Sun, Roberto Moreno, ex-sélectionneur intérimaire de l’Espagne, a été remercié par le FK Sotchi après une série noire et une gestion jugée déconnectée, marquée par un recours obsessionnel à ChatGPT pour des décisions sportives et logistiques. Arrivé l’été dernier, l’Espagnol de 48 ans a quitté le club en septembre après sept matches et un seul point, avec en prime une relégation du club de l’élite russe vers la deuxième division.
Andrey Orlov, ex-directeur sportif de Sotchi, décrit un staff sidéré. Pour un déplacement à Khabarovsk, Moreno aurait calé l’intégralité du voyage sur un plan généré par ChatGPT, imposant un réveil à 5 h, un entraînement à 7 h deux jours avant le match et jusqu’à 28 heures sans sommeil pour l’effectif. « J’ai tout paramétré dans ChatGPT », lui aurait-il expliqué, malgré les protestations et l’incompréhension des joueurs.
Le technicien aurait également marginalisé les séances sur coups de pied arrêtés et persisté dans une approche très axée sur la possession, sans efficacité dans la zone de vérité. En fin de cycle, Orlov évoque un vestiaire fracturé, des cadres russes exaspérés, des étrangers dubitatifs et un manque d’empathie ressenti envers adjoints et joueurs.
Sur le marché des attaquants, l’été dernier, le club aurait soumis à ChatGPT des données Wyscout de plusieurs profils, dont Georgi Meleshin, Ivan Sergeïevitch Pisarsski et Ilya Shchuranachev. L’outil aurait recommandé Shchuranachev, finalement recruté, mais resté muet en dix rencontres. « En outil d’appoint, pourquoi pas. En boussole principale, non », tranche Orlov, pointant une dépendance qui a parasité les choix sportifs.
Moreno avait assuré l’intérim de la Roja sur trois matches avant de succéder officiellement à Luis Enrique en juin 2019, lorsque ce dernier s’était retiré pour raisons familiales. À Sotchi, sa méthode s’est heurtée au terrain, au rythme des voyages en Russie et à une réalité statistique impitoyable.
L’épisode illustre les limites d’une externalisation de la décision sportive vers des modèles conversationnels, surtout lorsqu’ils pilotent la charge de travail, la gestion du sommeil et l’évaluation des profils à partir de jeux de données partiels. Dans un environnement de haute performance, l’IA a sa place comme couche d’aide — pas comme substitut au jugement tactique, à la préparation physique et à la lecture humaine du groupe.
Source : ITHome
Un article signé GOODTECH.info
Mecha Systems vient de réussir un carton monumental sur Kickstarter. Lancée le 24 janvier 2026, la campagne de financement du Mecha Comet – cet ordinateur portable Linux modulaire et open source dont on vous parlait en mars 2025 – a […]
L’article Le Mecha Comet explose son objectif Kickstarter : 403 000 € en quelques heures pour ce mini-PC Linux modulaire est apparu en premier sur Goodtech.
Un rendez-vous PlayStation début février 2026 se précise, et l’agenda des sorties de Sony pourrait s’y réorganiser. Les spéculations s’emballent déjà autour des gros dossiers first-party et de quelques revenants.
Le leaker bien connu NateTheHate2 évoque sur X un State of Play en première moitié de février 2026, avec une date ciblée au 12 février 2026. Aucune liste de titres n’accompagne son indication, mais la perspective suffit à déclencher le jeu des pronostics.
Autre bruit récurrent : un Horizon MMO, déjà entrevu via des fuites précédentes, que certains imaginent faire surface lors de ce format. Sans confirmation côté Sony, le timing coïnciderait avec une montée en charge de la communication sur l’alignement 2026.
Sony a déjà officialisé plusieurs sorties attendues en 2026: Marvel’s Wolverine, Dune: Awakening, Onimusha: Way of the Sword et Saros, ce dernier étant déjà disponible en précommande. Des segments de gameplay ou des vitrines dédiées sont probables si l’événement est maintenu à cette période.
À surveiller aussi: Marvel Tōkon: Fighting Souls, jeu de combat 4v4 dont une nouvelle démonstration s’insérerait bien dans un State of Play. Côté tiers, une autre rumeur circule: Rockstar travaillerait sur une version next‑gen de Red Dead Redemption 2. Si elle existe, une apparition en février donnerait un signal fort au parc PS5 en 2026.
Caler un State of Play mi‑février sécuriserait un tempo marketing avant l’intersaison des salons et donnerait de l’air aux précommandes à moyen terme, notamment pour Wolverine et Dune: Awakening. Si Rockstar confirme RDR2 next‑gen, Sony capterait un pic d’attention sur PS5, utile pour étirer le cycle et densifier la fenêtre 2026.
Source : TechPowerUp
Week-end sous stéroïdes pour un petit studio: plus de 100 000 copies écoulées en trois jours, et une remise agressive pour entretenir la traction.
Disponible en accès anticipé, LORT signe un départ spectaculaire avec 100 000 unités vendues « en un peu plus de 3 jours » selon le studio Big Distraction. Le jeu est proposé avec une remise de 34% jusqu’au 3 février, à moins de 10 € TTC, ce qui a clairement aidé l’élan initial.

Le studio remercie les joueurs ayant wish-listé, testé la démo et relayé le projet, et promet de continuer à bâtir le jeu avec la communauté. Un trailer de lancement accompagne la sortie.
Big Distraction revendique des playtests de « centaines d’heures », mais reconnaît l’inévitable lot de bugs au lancement. L’équipe suit de près Steam Discussions, les avis et Discord pour prioriser les correctifs « ASAP ».

Le ticket d’entrée sous 10 USD, combiné à une remise limitée dans le temps, installe une fenêtre d’adoption favorable. Le studio promet « du LORT plus neuf, meilleur, plus bizarre » via des updates à venir, avec un ton volontairement décalé qui nourrit l’identité du jeu.

Entre « Legendary loot drops », « one-hit brick kills » et les « squawks » de Lawrence Fishbird, la proposition assume une fantaisie arcade assumée qui peut soutenir le bouche-à-oreille. En accès anticipé, la cadence de patches et la lisibilité de la roadmap seront déterminantes pour transformer l’élan des 100 000 premiers acheteurs en socle durable.
Si Big Distraction maintient le tempo de corrections et capitalise sur la promo jusqu’au 3 février, LORT peut s’installer dans la durée sur Steam grâce à une base engagée, à condition de sécuriser la stabilité et d’enrichir le contenu sans diluer son ton singulier.
Source : TechPowerUp
Un changement de cap contrôlé, et un clin d’œil assumé au renommage avorté. Le prochain jeu narratif de DigixArt prend rendez-vous un peu plus tard, mais fixe une date claire.
DigixArt, le studio derrière Road 96, et l’éditeur THQ Nordic confirment la sortie de Tides of Tomorrow le 22 avril 2026 sur PC, PlayStation 5 et Xbox Series X|S. Le jeu conserve son titre initial malgré une parenthèse taquine autour de « Tides of the Day After Tomorrow ».

Le lancement se fera en numérique et en édition physique dans les principaux territoires. En attendant, une démo jouable est disponible sur Steam, accompagnée d’une série de présentations de personnages.
Deux vidéos mettent l’univers en place, dont une rencontre avec Nahe, qui introduit une narration façonnée par vos décisions et celles des Tidewalkers passés. Le ton reste celui d’un récit interactif axé conséquences et héritage des choix.

La démo Steam offre un aperçu du rythme narratif et des embranchements. Les vidéos hébergées via YouTube-nocookie permettent de jauger la direction artistique et la mise en scène sans divulgâcher l’intrigue.

DigixArt et THQ Nordic misent sur une montée en température progressive jusqu’au 22 avril 2026, avec une communication focalisée sur le casting et les mécaniques de choix. Le maintien d’une version physique confirme l’ambition d’une présence retail au-delà du PC.
Pour un studio reconnu pour la souplesse de sa narration, ce léger décalage laisse le temps de verrouiller rythme, lisibilité des embranchements et polish. S’il tient ses promesses, Tides of Tomorrow a la place pour s’installer dans le segment des aventures narratives premium sur current-gen.
Source : TechPowerUp


Le sang fait office de munitions, et chaque tir vous rapproche du game over. Blumhouse mise sur une tension à l’ancienne, où la survie redevient une gestion froide des ressources.
Sortie le 10 février 2026 au prix de 17,99 € . Développé par Vermila Studios et publié par Blumhouse Games, le titre arrive sur Steam, PlayStation et Xbox, avec une démo jouable disponible sur Steam.

Le studio ancre son action-horreur à la première personne sur l’île maudite de Tormentosa, dans une Hispania qui déforme l’Espagne. Le protagoniste, Gabriel, sacrifie sa santé pour alimenter ses armes, un équilibre salué par les previews pour remettre le « survival » au cœur du survival horror.
Bestiaire et décors s’inspirent de statues religieuses réelles trouvées en Espagne, twistées en fanatismes et monstruosités. L’objectif reste clair: explorer, dévoiler les secrets de l’île, et survivre à des affrontements où chaque goutte compte.

Blumhouse pousse son label jeux avec une proposition tarifaire agressive (17,99 $) et un positionnement frontal sur l’horreur « ressource-centrée ». Les previews globales pointent la mécanique « sang = arme et lifeline » comme pivot du gameplay.
Le trailer est disponible, d’autres vidéos doivent suivre avant lancement. Wishlist ouverte sur Steam, PlayStation et Xbox; la démo Steam permet déjà de jauger la discipline imposée par le système de saignée.

Le contraste entre iconographie sacrée et violence du trade-off vital rappelle une approche plus européenne de l’horreur, loin du power fantasy. Si l’équilibrage tient sur la durée, le ticket d’entrée contenu et l’angle esthétique pourraient en faire un outsider crédible du calendrier.
Source : TechPowerUp
Trois fois plus rapide que Trainium v3 en FP4, au-dessus de TPU v7 en FP8: la nouvelle puce IA de Microsoft vise l’inférence à grande échelle et la facture cloud.
Gravée en 3 nm chez TSMC, Maia 200 aligne plus de 140 milliards de transistors, des Tensor Cores natifs FP8/FP4 et un sous-système mémoire repensé: 216 GB de HBM3e à 7 TB/s et 272 MB de SRAM on‑chip. Le SoC cible 750 W de TDP avec plus de 10 petaFLOPS en FP4 et plus de 5 petaFLOPS en FP8.
Microsoft annonce 30% de performance par dollar en mieux vs sa génération actuelle et revendique « le plus performant » des siliciums propriétaires de hyperscaler. L’accélérateur nourrit les plus gros modèles d’aujourd’hui et anticipe des tailles supérieures.

La mémoire s’articule autour de types de données étroits, d’un DMA spécialisé, d’une SRAM intégrée et d’un NoC dédié au débit, pour maximiser le throughput de tokens. Côté comparaison, Microsoft évoque un ratio 3× la perf FP4 d’Amazon Trainium de 3e génération et une perf FP8 au‑dessus de la 7e génération de TPU de Google.
Maia 200 s’intègre à Azure et arrive avec un SDK en préversion: intégration PyTorch, compilateur Triton, librairie de kernels optimisés et un langage bas niveau pour un contrôle fin. Objectif: portage facile entre accélérateurs hétérogènes, sans sacrifier les optimisations ciblées.

Les déploiements démarrent en région US Central (près de Des Moines, Iowa), puis US West 3 (Phoenix, Arizona), d’autres régions suivront. Les workloads ciblés incluent les modèles GPT‑5.2 d’OpenAI pour Foundry et Microsoft 365 Copilot, ainsi que les pipelines de données synthétiques et le RL du groupe Superintelligence.
Le système introduit un réseau scale‑up à deux niveaux basé sur Ethernet standard: couche de transport maison, NIC intégrée, bande passante bidirectionnelle dédiée de 2,8 TB/s par accélérateur. Les opérations collectives sont annoncées prévisibles jusqu’à 6 144 accélérateurs.
Dans chaque tray, quatre Maia sont reliés en direct sans switch pour garder le trafic à haut débit local. Le protocole de transport Maia s’étend intra‑rack et inter‑rack avec peu de sauts, simplifiant le dev et réduisant la capacité perdue. L’approche vise un meilleur TCO et une consommation contenue à l’échelle du cloud.

Microsoft a simulé tôt les charges LLM pour co‑optimiser silicium, réseau et logiciel, avec un passage au rack deux fois plus rapide que sur des programmes comparables. Les modèles tournaient quelques jours après l’arrivée des premiers packages, aidés par une intégration native au plan de contrôle Azure, une télémétrie complète et un refroidissement liquide à boucle fermée de seconde génération.
Si Microsoft tient ses promesses de perf/$ et d’échelle sur Ethernet, Maia 200 pourrait bousculer la prime aux fabrics propriétaires dans l’inférence dense, tout en renforçant l’avantage coût/latence d’Azure sur les services Copilot et les pipelines de données synthétiques. Reste à voir l’élasticité réelle à 6 144 accélérateurs sur des charges mixtes et la cadence de déploiement par région.
Source : TechPowerUp
Cap sur 2026 avec une salve de showcases maison qui promet des annonces et des teasing sur tous les univers Blizzard. L’éditeur fête 35 ans et prépare déjà le terrain pour BlizzCon 2026.
Blizzard ouvre l’année avec des spotlights menés par les développeurs, diffusés en direct et à la demande. Le studio renvoie vers un guide dédié pour « marquer les calendriers » et suivre chaque présentation au fil des prochaines semaines.

Objectif assumé : montrer ce qui arrive pour chaque monde maison. World of Warcraft, Diablo, Hearthstone et Overwatch sont cités, avec la promesse d’annonces, d’aperçus et de « teases » coordonnés, plutôt que des mises à jour isolées.
Cette séquence sert de rampe vers BlizzCon 2026, explicitement « à l’horizon ». Blizzard ancre l’opération dans ses 35 ans de communauté et de craft, avec une mise en avant des équipes créatives et des joueurs qui « donnent vie » aux licences.

Au cœur du dispositif, « Blizzard: The Next Chapter » expose environ 400 artefacts physiques retraçant moments, sorties et souvenirs depuis les débuts jusqu’à aujourd’hui, et au-delà. Une vidéo dédiée accompagne l’annonce.
Le message est clair : le prochain chapitre s’écrit en continuité avec ces mondes, et les prochaines semaines donneront le ton de ce qui vient pour chaque jeu.

Ce séquencement en showcases développeurs, avant un retour en force sur scène, suggère une stratégie de communication plus cadencée, au long cours, pour réengager les communautés de WoW, Diablo, Hearthstone et Overwatch sans attendre le rendez-vous annuel.

Source : TechPowerUp
![]()
Photo par ma moitié. Ma meilleure moitié, pas moi !
Miami, à coté du Convention Center et de la 17ème rue (au 530 de celle-ci) : Dawn of Digital.
J'adore ce qu'ils ont réalisé, exposer la beauté intérieur du premier Macintosh.
La perfection...


© Kent Nishimura for The New York Times