SpaceX a déposé auprès de la FCC une demande hors norme: l’autorisation d’un tir groupé pouvant aller jusqu’à un million de satellites pour constituer un réseau de « centres de données en orbite ». L’entreprise promet une constellation dotée d’une capacité de calcul inédite, destinée à l’inférence de modèles d’IA avancés et à des applications cloud à grande échelle.
Dans un dossier de huit pages, SpaceX décrit un « système de centre de données orbital » composé de satellites répartis en coquilles d’orbite resserrées, chaque coquille étant limitée à une épaisseur de 50 km afin de maintenir des marges de sécurité avec les autres systèmes. Les engins seraient alimentés par énergie solaire, sur des altitudes comprises entre 500 et 2 000 km, couvrant des inclinaisons de 30° et des plans en orbite héliosynchrone.
Le groupe affirme que déplacer la capacité de calcul en orbite offrirait une voie plus efficace face à l’explosion de la demande en IA, alors que le coût énergétique des data centers terrestres ne cesse d’augmenter. La cadence de lancement s’appuierait sur Starship pour multiplier les missions et gonfler rapidement le volume en orbite.
SpaceX ne détaille ni la masse unitaire ni l’architecture des plateformes, se contentant d’indiquer l’existence de variantes matérielles optimisées par coquille d’orbite. L’ambition chiffrée reste volontairement théorique à ce stade; interpellé sur le volume « un million de satellites », Elon Musk a répondu qu’il « commencerait petit avant d’augmenter l’échelle ».
Un data center au-dessus des nuages
L’idée d’un calcul en orbite contourne plusieurs goulets d’étranglement: foncier, refroidissement, raccordement électrique haute capacité et raccords fibre longue distance. Reste le coût de lancement par kilogramme, la gestion thermique sous ensoleillement variable, la fiabilité de calculateurs durcis et la question du backhaul: renvoyer vers le sol les résultats d’inférence à des latences et débits compatibles avec des usages temps réel.
La stratification en coquilles étroites suggère une architecture segmentée: nœuds de calcul, relais inter-satellites et passerelles sol. Le recours à l’orbite héliosynchrone peut stabiliser l’irradiance et donc les bilans énergétiques, au prix d’un maillage plus complexe pour la couverture globale. L’équation spectre-radio, débris orbitaux et coordination internationale restera décisive devant la FCC et l’UIT.
Si SpaceX parvient à industrialiser des « serveurs orbitaux » en volumes Starlink, l’effet d’échelle pourrait bouleverser la chaîne de valeur du cloud d’inférence, avec une pression directe sur le coût TCO par requête et une redistribution des cartes entre opérateurs spatiaux, fournisseurs GPU/ASIC et hyperscalers. À court terme, la demande sert surtout de marqueur stratégique: SpaceX prépare le terrain réglementaire et jauge l’appétit du régulateur pour une mégaconstellation non plus de connectivité, mais de calcul.
Le stockage externe a longtemps été synonyme de compromis : soit compact mais lent, soit rapide mais encombrant. Avec le MSI DATAMAG 40Gbps, la donne change. Ce SSD portable de nouvelle génération exploite l’interface USB4 40Gbps pour délivrer des performances qui rivalisent avec certains SSD internes, le tout dans un format de poche pesant seulement 85 grammes.
MSI ne s’est pas contenté de miser sur la vitesse. Le constructeur a intégré un système magnétique compatible MagSafe qui permet de fixer le SSD à l’arrière d’un iPhone, d’un iPad, ou sur n’importe quelle surface métallique grâce aux anneaux adhésifs fournis. Un positionnement clair : séduire les créateurs de contenu mobile qui jonglent entre smartphones, tablettes et ordinateurs portables.
Sous le capot, on trouve le contrôleur Phison PS2251-21 (U21), premier contrôleur natif USB4 du marché, associé à de la mémoire 3D NAND. MSI annonce 4000 MB/s en lecture séquentielle et 3600 MB/s en écriture pour la version 2TB testée ici. Des chiffres qui placent ce DATAMAG au niveau des Samsung T9, Crucial X10 et autres Corsair EX400U.
Le châssis en alliage d’aluminium ne sert pas que l’esthétique : il joue un double rôle de protection et de dissipateur thermique passif. MSI promet des températures maîtrisées même lors de transferts prolongés, un point crucial pour éviter le throttling.
Côté durabilité, MSI affiche 1500 TBW (Terabytes Written) pour la version 2TB, soit l’équivalent de 750 Go écrits par jour pendant 5 ans. Une endurance couverte par une garantie constructeur de 5 ans, un gage de confiance bienvenu sur ce segment premium.
Mais à 229,99€ sur la boutique MSI, ce DATAMAG justifie-t-il son prix face à une concurrence féroce ? Les performances USB4 tiennent-elles leurs promesses ? Le système magnétique est-il un gadget ou un vrai plus ? Et surtout, quid de la compatibilité avec les smartphones qui, pour la plupart, plafonnent encore à l’USB 3.0 voire 2.0 ?
Nous avons testé ce MSI DATAMAG 40Gbps 2TB dans toutes les configurations possibles pour vous dire si ce SSD externe mérite sa place dans votre sac. Spoiler : les résultats sont impressionnants, mais avec quelques nuances à connaître.
Spécifications techniques : ce que propose le MSI DATAMAG 40Gbps 2TB
Caractéristique
Spécification
Modèle
DATAMAG 40Gbps
Capacité testée
2TB (également disponible en 1TB et 4TB)
Contrôleur
Phison PS2251-21 (U21)
Mémoire Flash
3D NAND
Interface
USB4 40Gbps (Type-C)
Lecture séquentielle
Jusqu’à 4000 MB/s
Écriture séquentielle
Jusqu’à 3600 MB/s (1TB: 3500 MB/s)
Compatibilité
PC / Mac / iPhone / iPad / Android / Consoles de jeu
Températures de fonctionnement
0°C – 70°C
Températures de stockage
-40°C – 85°C
Endurance (TBW)
1500 TBW (2TB) / 750 TBW (1TB) / 3000 TBW (4TB)
Garantie
5 ans ou TBW maximum atteint
Dimensions
66 x 66 x 13 mm
Poids
85g
Système de fixation
Magnétique compatible MagSafe
Accessoires inclus
2 anneaux métalliques (noir/blanc) 2 câbles USB-C (long et court) Adaptateur USB-C vers USB-A
Prix
229,99€ (2TB sur boutique MSI)
Points clés :
Contrôleur Phison PS2251-21 : premier contrôleur natif USB4 du marché
Compatibilité universelle : rétrocompatible USB 3.2/3.0/2.0 et Thunderbolt 4/3
Endurance élevée : 1500 TBW pour 5 ans de garantie
Unboxing : contenu de la boîte et premiers contacts
Le packaging du MSI DATAMAG 40Gbps adopte un design épuré, dans une boîte blanche sobre qui tranche avec les boîtes gaming habituelles de MSI. L’approche est clairement grand public, visant les créateurs de contenu et professionnels nomades plutôt que les gamers.
Contenu du bundle
À l’ouverture, on découvre un bundle complet et réfléchi :
Le SSD DATAMAG 40Gbps dans son châssis aluminium
2 câbles USB-C vers USB-C : un long (environ 30cm) et un court (environ 15cm)
1 adaptateur USB-C vers USB-A pour compatibilité avec anciens ports
2 anneaux magnétiques adhésifs (un noir, un blanc) pour surfaces non-MagSafe
Documentation et guide de démarrage rapide
MSI fournit des câbles certifiés 40Gbps, indispensables pour exploiter pleinement les performances. Utiliser un câble USB-C standard briderait les vitesses aux capacités de ce câble (généralement 5 ou 10 Gbps).
DATAMAG 40G : deux câbles certifiés 40Gbps
Les anneaux magnétiques adhésifs sont une excellente idée : ils permettent de transformer n’importe quel smartphone, tablette ou laptop en surface compatible MagSafe.
La finition des accessoires est irréprochable, à la hauteur du positionnement premium du produit.
Design et conception : quand l’aluminium rencontre le magnétisme
Un format ultra-compact qui tient dans la poche
Le MSI DATAMAG 40Gbps reprend le design octogonal caractéristique de son prédécesseur, le DATAMAG 20Gbps. Les dimensions annoncées sont de 66 x 66 x 13 mm, mais les mesures au pied à coulisse révèlent des dimensions légèrement inférieures : environ 65,3 x 65,3 x 12,3 mm.
Ce format ultra-compact, combiné aux 85 grammes sur la balance, fait du DATAMAG un compagnon de poche idéal. Pour contextualiser : c’est plus petit et plus léger qu’un iPhone 16 Pro, et cela se glisse aisément dans une poche de pantalon ou un compartiment de sac. Un petit trou d’accroche est également présent sur un coin, permettant de fixer le SSD à un porte-clés, un mousqueton ou une dragonne. Pratique pour ne jamais le perdre.
Châssis aluminium : esthétique et fonctionnel
Le boîtier en alliage d’aluminium affiche une finition polie sur la face supérieure, où le logo MSI est gravé de manière sobre. Cette finition gunmetal clair (légèrement plus claire que sur le DATAMAG 20Gbps) confère un aspect premium immédiat.
Mais ce châssis métallique ne sert pas que l’esthétique : il joue un rôle crucial de dissipateur thermique passif. Les côtés inférieurs présentent des extrusions striées qui augmentent la surface d’échange thermique. Un point essentiel sur un SSD capable de soutenir 3600 MB/s en écriture continue. Le port USB-C est situé sur la tranche inférieure, accompagné d’une petite LED d’état qui indique l’activité de transfert. Simple et efficace.
Système magnétique : du pratique au quotidien
La face inférieure intègre un anneau magnétique puissant compatible avec le système MagSafe d’Apple et équivalents (Google Pixel avec coque magnétique, etc.). Un joint en caoutchouc entoure l’anneau pour éviter les rayures sur les surfaces métalliques et les smartphones.
La force de maintien est impressionnante : le DATAMAG adhère fermement à un téléphone (avec ou sans coque MagSafe officielle) et reste en place même lors de manipulations. L’accroche est tout aussi solide.
Le système fonctionne également à merveille sur surfaces métalliques : tour PC, MacBook, tableau blanc magnétique, etc. Aucun risque de chute ou de décrochage intempestif.
Petit bémol : même avec le câble court, l’ensemble reste assez encombrant en usage mobile. Un câble en L plus court aurait permis une connexion plus discrète sur smartphone. Mais MSI a probablement voulu éviter des courbures trop prononcées qui auraient pu endommager le câble à long terme.
Le contrôleur Phison PS2251-21 : premier natif USB4 du marché
Architecture du contrôleur U21
Le cœur technique du DATAMAG 40Gbps repose sur le contrôleur Phison PS2251-21 (nom de code U21), premier contrôleur NAND flash natif USB4 du marché. Phison, géant taïwanais des contrôleurs SSD, a conçu ce modèle spécifiquement pour les SSD portables haute performance.
Caractéristiques clés du PS2251-21 :
Interface native USB4 40Gbps (rétrocompatible USB 3.2/3.0/2.0)
Débits théoriques : jusqu’à 4000 MB/s en lecture, 3600+ MB/s en écriture
Capacités supportées : jusqu’à 32 TB
Support mémoire : TLC et QLC NAND, jusqu’à 4 canaux / 16 chip enables (CE)
Consommation réduite : architecture optimisée pour l’efficacité énergétique
Gestion thermique avancée : throttling intelligent pour éviter la surchauffe
Cache et gestion des écritures soutenues
Le contrôleur Phison PS2251-21 adopte une architecture DRAM-less : il ne dispose pas de mémoire cache DRAM dédiée. À la place, Phison s’appuie sur un cache pseudo-SLC dynamique implémenté directement dans la mémoire NAND, dont la taille varie en fonction de la capacité du SSD et de l’espace libre disponible.
Sur un modèle de 2 To, ce cache SLC de taille variable contribue à préserver la constance des performances lors de transferts prolongés. Une fois ce cache sollicité, le contrôleur ajuste son fonctionnement afin d’éviter des variations marquées de débit.
Mémoire 3D NAND : TLC probable
MSI ne précise pas le fournisseur exact de la mémoire 3D NAND utilisée. Les sources internationales évoquent soit de la Micron 3D TLC, soit de la Kioxia NAND, similaires à ce qu’utilise Corsair dans son EX400U (qui embarque également le même PS2251-21).
La présence de TLC NAND (Triple-Level Cell) est quasi-certaine sur ce segment : c’est le meilleur compromis performance/endurance/coût pour du stockage externe premium. La QLC serait trop lente en écriture soutenue pour tenir les 3600 MB/s annoncés.
USB4 vs Thunderbolt : compatibilité et nuances
Le DATAMAG 40Gbps fonctionne parfaitement sur les ports USB4 (AMD) et Thunderbolt 4/3 (Intel/Apple). Cependant, il existe des nuances technologiques entre ces deux standards qui peuvent légèrement impacter les performances réelles.
USB4 40Gbps : standard ouvert, bande passante jusqu’à 40 Gbps (5000 MB/s théoriques) Thunderbolt 4 : standard propriétaire Intel, même bande passante mais avec overhead protocole différent
En pratique, les tests montrent que les performances sur Thunderbolt 4 peuvent être légèrement inférieures (quelques centaines de MB/s) par rapport à USB4 natif, sans que cela soit réellement perceptible à l’usage.
Rétrocompatibilité : du 40 Gbps au 480 Mbps
Le PS2251-21 gère la rétrocompatibilité avec tous les standards USB antérieurs :
USB 3.2 Gen 1 / USB 3.0 (5 Gbps) : environ 400-500 MB/s
USB 2.0 (480 Mbps) : environ 40 MB/s (oui, c’est dramatiquement lent)
Cette rétrocompatibilité est essentielle : la majorité des smartphones actuels, y compris les iPhone 16/17 standard, sont limités à l’USB 2.0 ou 3.0. Seuls les modèles Pro/Pro Max récents atteignent l’USB 3.1 (10 Gbps).
Débits réels du MSI DATAMAG 40 Gbps selon l’interface
Sur une interface USB4 40 Gbps, le DATAMAG atteint des débits proches de 4 000 MB/s en lecture et dépasse 3 500 MB/s en écriture, confirmant son positionnement haut de gamme.
À mesure que la bande passante diminue, les performances chutent de façon strictement proportionnelle, avec un plafond d’environ 950 MB/s en USB 3.2 Gen 2 et autour de 400 MB/s en USB 3.0. En USB 2.0, le SSD reste fonctionnel, mais se limite à quelques dizaines de mégaoctets par seconde.
Températures
Sous charge prolongée, le DATAMAG 40 Gbps maintient des températures maîtrisées grâce à son châssis en aluminium, qui joue pleinement son rôle de dissipateur passif. Lors de transferts continus sur interface USB4, la température du boîtier augmente progressivement, mais reste dans une plage basse, inférieure à 35 °C.
En pratique, le SSD conserve des performances stables sur la durée, y compris lors de copies volumineuses, confirmant que la dissipation thermique a été correctement dimensionnée pour un produit de cette catégorie.
Compatibilité et débits réels selon l’interface USB
Le MSI DATAMAG 40 Gbps fonctionne sans difficulté sur les ports USB4 des plateformes AMD comme sur les interfaces Thunderbolt 3 et 4 des systèmes Intel et Apple. Sur le papier, ces standards partagent une bande passante maximale identique de 40 Gbps, mais leurs implémentations diffèrent légèrement, notamment au niveau de l’encapsulation protocolaire.
En pratique, cela peut se traduire par un léger écart de performances mesurées. Les débits observés sur Thunderbolt 4 sont parfois inférieurs de quelques centaines de mégaoctets par seconde par rapport à un port USB4 natif, sans que cela ait un impact notable à l’usage. Le DATAMAG reste dans tous les cas capable d’exploiter pleinement une interface 40 Gbps lorsqu’elle est disponible.
Le contrôleur PS2251-21 assure par ailleurs une rétrocompatibilité complète avec les générations USB antérieures. Le SSD adapte automatiquement ses performances à l’interface hôte, depuis l’USB4 jusqu’à l’USB 2.0, garantissant un fonctionnement universel, au prix d’un bridage proportionnel à la bande passante disponible.
Cette compatibilité descendante, indispensable en pratique, met toutefois en évidence un écart croissant entre le potentiel du SSD et les interfaces réellement présentes sur les appareils mobiles.
Usage mobile : promesse matérielle et limites réelles
Par son format compact et sa fixation magnétique, le DATAMAG 40 Gbps adopte clairement les codes d’un SSD pensé pour un usage mobile, notamment en association avec un smartphone. La réalité matérielle des ports USB embarqués impose cependant des limites nettes.
En 2026, aucun smartphone ne prend en charge l’USB4. Les modèles les plus courants restent cantonnés à l’USB 2.0 ou à l’USB 3.0, tandis que les appareils haut de gamme plafonnent à 10 Gbps. Dans ces conditions, le DATAMAG ne peut exprimer qu’une fraction de son potentiel, avec des débits réels compris entre 40 MB/s et environ 950 MB/s selon l’appareil.
Ce décalage ne rend pas le produit inutile sur mobile, mais il en redéfinit clairement le cadre d’utilisation. Le principal cas d’usage pertinent reste l’enregistrement vidéo ProRes sur les iPhone récents compatibles, qui imposent un stockage externe pour les flux les plus exigeants.
Dans ce scénario précis, le DATAMAG prend tout son sens. Fixé à l’arrière du smartphone, il permet de filmer en ProRes 4K 60 i/s ou en 4K 120 i/s en Log sans contrainte de capacité. Avec sa version 4 To, il peut stocker plus de deux heures de rushs haute qualité, répondant aux besoins concrets des créateurs mobiles, malgré les limites inhérentes aux interfaces actuelles.
Où le DATAMAG 40Gbps excelle vraiment
C’est sur PC, Mac et tablettes haut de gamme que le DATAMAG déploie son plein potentiel :
Laptops récents : ports USB4 sur MacBook Pro M3/M4, Dell XPS, MSI Creator, etc.
Desktops : cartes mères AMD X870/B850 et Intel Z890 avec USB4
iPad Pro : modèles avec Thunderbolt 4 (2021 et suivants)
Surface Pro : tablettes Microsoft avec Thunderbolt 4
Sur ces machines, le DATAMAG rivalise avec un SSD interne NVMe PCIe Gen3, transformant le workflow créatif : montage vidéo 4K/8K en direct depuis le SSD externe, sauvegarde ultra-rapide de projets, transfert de librairies photos volumineuses, etc.
Conclusion
Test MSI DATAMAG 40Gbps 2TO : le stockage externe qui défie les SSD internes
Conclusion
Avec le DATAMAG 40 Gbps, MSI livre un SSD externe qui assume pleinement son positionnement nouvelle génération. Les performances offertes par l’interface USB4 sont bien au rendez-vous, avec des débits qui rivalisent avec ceux de certains SSD NVMe internes, à condition bien sûr de disposer d’un environnement matériel adapté. Sur PC, Mac et tablettes haut de gamme, le DATAMAG s’intègre naturellement dans des workflows exigeants, sans devenir un goulot d’étranglement.
Le constructeur ne s’est toutefois pas contenté d’une démonstration de force sur le plan des performances. Le format compact, le châssis en aluminium efficace thermiquement, la fixation magnétique bien pensée et l’endurance annoncée élevée témoignent d’un produit conçu pour un usage réel, mobile et intensif. La compatibilité ProRes sur iPhone, bien que contrainte par les limites des interfaces actuelles des smartphones, constitue un cas d’usage pertinent pour les créateurs qui savent exactement ce qu’ils achètent.
Face à la concurrence directe, le DATAMAG 40G ne cherche pas à surenchérir artificiellement. Il propose des performances équivalentes, une communication technique plus transparente et une garantie longue durée, le tout à un tarif nettement plus agressif. À 229,99 € en version 2 To, il s’impose comme l’une des propositions les plus cohérentes du segment USB4 40 Gbps.
En définitive, le MSI DATAMAG 40 Gbps n’est pas un SSD universel au sens où il donnerait le meilleur de lui-même sur n’importe quel appareil. En revanche, pour les utilisateurs équipés d’USB4 ou de Thunderbolt 4, à la recherche d’un stockage externe rapide, compact et fiable, il constitue un choix particulièrement solide et rationnel.
Lancé depuis moins d’une semaine, le shooter PvP de Wildlight ajuste déjà la mire. Nouveau format 5v5 en test, patch de perfs et carte inédite au menu.
Highguard 5v5 en test, avec respawns revus
Wildlight Entertainment active une file d’attente expérimentale 5v5, jouable le week-end suivant la mise à jour. Chaque joueur dispose de quatre vies supplémentaires et les temps de réapparition sont légèrement allongés. Le 3v3 reste disponible, mais le studio prévient d’un impact probable sur les performances en 5v5.
Objectif affiché : densifier l’action sur une carte vaste dont la combinaison avec le loot rendait les parties trop statiques en 3v3. Le changement de format vise à réduire les temps morts sans diluer la pression tactique liée à la collecte.
Correctifs de performance et options d’affichage
Le patch améliore l’animation, la gestion des projectiles et les temps de soumission des draws, sur console et PC. Le framerate global doit progresser, avec des gains variables selon le matériel. Un toggle de motion blur arrive sur PC et consoles, et un réglage des matériaux anisotropiques est ajouté sur consoles.
Wildlight cherche ainsi à corriger les reproches du lancement, marqué par des soucis de rythme et de stabilité, tout en gardant une marge de manœuvre pour itérer sur l’optimisation du moteur en situation 5v5.
Soul Well rejoint les rotations de cartes
La mise à jour du 30 janvier intègre Soul Well, une base décrite comme un « sombre reliquat d’un âge perdu ». Le complexe comprend deux générateurs, un donjon arrière, une forteresse souterraine et un autel central offrant un point haut pour la défense. La carte est ajoutée à toutes les rotations de jeu.
Si l’essai 5v5 confirme une montée d’intensité tout en restant jouable côté performance, Highguard pourrait stabiliser sa proposition PvP à court terme. La combinaison des optimisations techniques et d’une topologie de carte plus lisible sur les lignes de tir va dans le bon sens pour réduire l’inertie observée au lancement.
En l’espace de quelques heures, l’assistant open source Clawdbot a changé de nom deux fois. Rebaptisé d’abord « Moltbot », le projet adopte finalement « OpenClaw », une appellation plus lisible et, surtout, moins risquée juridiquement face à Anthropic, dont le modèle Claude est jugé trop proche phonétiquement.
Selon Wccftech, la pression proviendrait directement d’Anthropic, soucieuse d’éviter toute confusion de marque avec Claude. Le repositionnement suit la même logique : OpenClaw se présente désormais comme un assistant personnel open source, pensé comme un « employé numérique » capable d’agir de manière proactive.
Un assistant proactif, orienté automatisation
Contrairement aux chatbots réactifs, OpenClaw met en avant une automatisation active : nettoyage de la boîte mail, réservations, gestion d’agenda et tâches courantes sans sollicitation explicite. L’outil capitalise sur une mémoire persistante, en enregistrant l’historique complet des échanges pour rappeler finement les préférences de l’utilisateur.
Techniquement, OpenClaw se positionne comme une couche d’orchestration. L’utilisateur héberge localement un « control plane » indépendant du modèle sur un Mac mini ou un VPS, puis le relie à des LLM tiers comme Claude ou ChatGPT. Cette architecture vise à conserver fichiers et journaux en local, pour une empreinte de confidentialité plus stricte.
Architecture et implications
L’approche « modèle-agnostique » protège l’utilisateur d’un lock-in et autorise des bascules rapides entre fournisseurs. En contrepartie, l’orchestration locale implique un minimum d’administration système et une surveillance des coûts API, un point sensible si l’assistant exécute de multiples routines en arrière-plan.
Le timing de la double transition de marque illustre une tension croissante entre communautés open source et détenteurs de marques des grands modèles. Si OpenClaw tient ses promesses d’automatisation et de confidentialité, il pourrait accélérer l’adoption d’agents personnels auto-opérants côté poste client, tout en rééquilibrant la dépendance aux plateformes cloud.
Dernier tour de piste pour la version Switch 1 d’Apex Legends, avec une extinction programmée le 4 août 2026. Les joueurs ont encore une saison complète pour clore le chapitre.
Apex Legends : calendrier et conditions de fin de service sur Switch 1
EA et Respawn mettront fin au support de la Nintendo Switch 1 le 4 août 2026. La Saison 29 constituera la dernière mise à jour du jeu sur cette plateforme portable lancée en 2021 pour Apex Legends.
Jusqu’à l’arrêt des serveurs Switch 1, toutes les fonctionnalités restent actives, y compris l’achat et la dépense de monnaie premium. Les contenus et correctifs seront alignés sur les autres plateformes jusqu’à la date de coupure.
Progression, objets et transition vers Switch 2
La progression, les objets in‑game et les soldes de monnaie premium restent liés au compte joueur. Le même compte sera accessible sur la version Nintendo Switch 2, disponible depuis août 2025.
Un transfert de progression vers une autre plateforme est possible via le hub Cross Progression, à l’exception de la monnaie premium. Cette restriction ne change pas.
Le maintien des mises à jour jusqu’au 4 août 2026 laisse une fenêtre claire pour migrer vers Switch 2 ou une autre plateforme, sans perte de cosmétiques ni de statistiques, et en conservant l’écosystème de matchmaking multi‑plateformes.
Interrogé par CNBC, Tim Cook a assuré que le partenariat d’Apple avec Google ne modifie pas la doctrine maison sur la vie privée. Le patron d’Apple rappelle que l’architecture d’Apple Intelligence reste inchangée, articulée autour du traitement sur l’appareil et du Private Cloud Compute, le tout sous les règles de confidentialité actuelles.
Google en « coach », Apple en « titulaire »
D’après les éléments partagés, Apple s’appuie sur les ressources techniques de Google sans substitution directe côté produit. Le modèle Gemini de Google, dans sa variante à 1,2 billion de paramètres, servirait à entraîner et renforcer les Apple Foundation Models, sans être exposé à l’utilisateur final.
Concrètement, Apple conserve la main sur l’inférence visible dans les interactions: sauf changement d’architecture majeur, ce sont bien les modèles Apple qui pilotent Apple Intelligence sur l’appareil et via Private Cloud Compute. Le rôle de Google se cantonne à l’outillage d’entraînement et à l’apport de capacités de fond.
Feuille de route Siri
La nouvelle version de Siri est attendue avec iOS 26.4. Elle doit se rapprocher des LLM actuels en termes de compréhension, tout en conservant les garde-fous habituels côté confidentialité et sécurité.
Apple prévoit d’annoncer une étape supplémentaire lors de la WWDC 2026: davantage de mémoire conversationnelle et une meilleure prise en compte de la prosodie et du ton de l’utilisateur. Siri ne deviendra pas pour autant une « Siri App » indépendante, Apple privilégiant l’intégration système.
Ce cadrage confirme une stratégie duale: tirer parti de modèles externes pour accélérer l’entraînement, tout en verrouillant l’exécution et l’expérience utilisateur avec des modèles propriétaires et une architecture privacy-first. Dans un marché où l’accès à la puissance d’entraînement se concentre, ce compromis permet à Apple d’itérer plus vite sans diluer son contrôle sur la pile technique et la protection des données.
Un boîtier lancé en 2015 continue de recevoir des mises à jour régulières. La direction de NVIDIA assure prolonger le support de SHIELD TV sur les prochaines années.
NVIDIA SHIELD TV : support prolongé confirmé
Dans un échange avec Ars Technica, Andrew Bell, senior VP hardware engineering chez NVIDIA, réaffirme qu’il n’est pas question d’abandonner SHIELD TV. Il rappelle une ligne directrice fixée dès l’origine, validée par Jensen Huang, visant un support long terme.
Près de dix ans après le lancement de 2015, les mises à jour se poursuivent. Bell souligne sa frustration face aux cycles de support limités des smartphones et tablettes, et positionne SHIELD TV à contre-courant sur la durée.
Matériel inchangé, ventes stables
NVIDIA continue de produire la version 2019, équipée d’un Tegra X1+, 3 Go de RAM et 16 Go de stockage. Les ventes seraient restées constantes sur la décennie, à un niveau comparable à la semaine de lancement.
Une console envisagée, puis écartée
En interne, l’idée d’une console maison a existé, portée par des ingénieurs séduits par le challenge. NVIDIA a finalement renoncé, jugeant l’assemblage CPU, OS, catalogue de jeux et interface trop complexe au-delà du GPU.
À l’origine, SHIELD était pensé par et pour les équipes, en alternative hautes performances hors Apple. Après des prototypes jugés convaincants, Jensen Huang a poussé une commercialisation grand public.
Cette stratégie de support étendu verrouille un segment Android TV premium à faible rotation, où la valeur perçue repose sur la stabilité logicielle et l’upkeep. Tant que le Tegra X1+ reste suffisant pour l’interface, le streaming et les usages annexes, NVIDIA n’a aucun intérêt à précipiter un refresh matériel.
Un texte tapé, un monde jouable qui répond en temps réel. Le prototypage grimpe d’un cran et bouscule les workflows classiques.
Genie 3 : du prompt à l’environnement contrôlable
Google DeepMind présente Genie 3 comme un modèle de monde généraliste : description textuelle, génération d’un environnement photoréaliste, contrôle en temps réel. Production annoncée en 720p à environ 20 à 24 fps, avec persistance des détails lors des allers-retours dans la scène.
La session accepte des « événements promptables » : modifier la météo, faire apparaître des objets, altérer la scène sans recharger. Techniquement, l’exécution actuelle ressemble à un flux vidéo distant, proche d’un GeForce NOW, à ceci près que les images sont générées par IA et non par un GPU CUDA.
Impacts pour les créateurs et limites immédiates
Côté production, l’intérêt est la vitesse. Passer de l’éditeur à la description textuelle peut réduire le prototypage à quelques minutes. Le contenu utilisateur bascule du placement d’assets vers la définition d’espaces et de règles, et les mods s’apparentent davantage à une réécriture de monde qu’à un simple swap de textures.
Pour l’instant, Genie 3 reste une expérimentation. L’accès dépend du déploiement Google (incluant Google AI Ultra aux États‑Unis), la plupart des joueurs se contenteront de clips avant d’y toucher. La comparaison avec l’idée d’un rendu 100 % pixels IA sur GeForce locales reste théorique : le hardware grand public actuel n’est pas calibré pour ça.
Contenus générés, clones et questions de dataset
Depuis l’ouverture de l’expérience, des mondes et même des clones de jeux Nintendo ont émergé. Il est improbable que Google laisse perdurer ces usages et les équipes juridiques de Nintendo devraient réagir. Cela alimente les soupçons sur l’exposition du modèle à des données issues de jeux Nintendo.
Le marché a réagi sans attendre, avec des chutes marquées pour plusieurs éditeurs cotés. À ce stade, Genie n’est pas une plateforme de jeu, mais un prototype destiné à infuser des outils et fonctionnalités dans des pipelines existants.
Dans l’immédiat, Genie 3 ressemble davantage à un banc d’essai d’interaction et de diffusion qu’à un outil de production. La contrainte des 60 secondes et les aléas de cohérence limitent l’usage au prototypage express et au proof-of-concept. Si Google parvient à stabiliser la latence et à exposer des hooks techniques vers des moteurs tiers, l’approche pourrait s’institutionnaliser côté préprod, en particulier pour générer des variantes testables à bas coût avant un passage en asset pipeline traditionnel.
Un rafraîchissement matériel se précise pour l’accessoire de streaming de Sony, avec un impact direct sur l’offre portable de la marque. Les rumeurs évoquent aussi un véritable PS handheld autonome doté d’un GPU RDNA 5.
PlayStation Portal OLED en 2026
Leaker KeplerL2 avance un modèle PlayStation Portal mis à jour en 2026, qui remplacerait l’écran LCD actuel par une dalle OLED. Le positionnement resterait orienté Remote Play, loin d’un usage autonome type console portable classique.
Le calendrier est le seul élément ferme cité par la fuite. Sony n’a rien confirmé à ce stade, ni AMD.
Un handheld autonome Sony en RDNA 5
La même source évoque un portable autonome parfois décrit comme un compagnon de la future PlayStation 6, équipé de la prochaine architecture graphique RDNA 5 d’AMD. Il ne s’agirait donc pas d’un iGPU RDNA 3.5/4 de type Strix Halo.
Les ressources de calcul seraient inférieures à 40 Compute Units. Des rapports mentionnent une fourchette de 16 à 20 CU, sans spécification exacte connue.
Si ces éléments se confirment, Sony chercherait à clarifier sa ligne : Portal pour le streaming pur, et un second appareil pour l’exécution locale avec une marge d’évolution graphique notable. L’usage d’un GPU RDNA 5 placerait le produit face aux consoles portables gaming et aux consoles x86 récentes, avec des arbitrages thermiques et d’autonomie déterminants
Cinq mois après le lancement de Borderlands 4, le mode photo promis débarque enfin. En prime, Gearbox déroule une mise à jour lourde et une roadmap 2026 bien remplie.
Borderlands 4 : mode photo et correctifs clés
La mise à jour du 29 janvier de Borderlands 4 ajoute un mode photo complet : repositionnement caméra, FoV et DoF ajustables, filtres visuels, et retouches de scène (heure de la journée, ajout/retrait des personnages joueurs, invocations et PNJ, affichage des dégâts activable/désactivable).
Le patch corrige le suivi de quêtes et défis pour une progression mieux communiquée. Il revoit aussi en profondeur la compétence d’action Zero-Point de Harlowe : bénéfices de l’ancien augment Inertia intégrés à la base, dégâts de slam accrus, hausse des chances et dégâts d’effets de statut sur Inertia. Amon et Vex reçoivent des ajustements légers pour plus de dégâts dans certains cas et un comportement plus prévisible.
Le niveau de butin dédié progresse en Ultimate Vault Hunter, avec l’objectif d’homogénéiser le ressenti loot/endgame.
Roadmap 2026 de Borderlands 4 : contenus payants et mises à jour majeures
Q1 2026 : Bounty Pack 2 (DLC payant), une mise à jour majeure gratuite introduisant la rareté nacrée, puis un DLC payant Story Pack 1.
Q2 2026 : deux mises à jour majeures gratuites suivies du Bounty Pack 3 (payant). Q3 2026 : deux Bounty Pack payants additionnels, puis un DLC majeur payant clôturant le trimestre avec Story Pack 3.
La feuille de route promet en continu : améliorations de performances, équilibrages, correctifs, cross-save, événements supplémentaires et progression partagée entre sauvegardes.
Le virage vers des mises à jour structurées, avec rareté nacrée et Story Packs étagés, vise à consolider l’endgame et stabiliser l’économie du loot sur la durée. L’arrivée tardive du mode photo coche une case communautaire, mais l’essentiel se jouera sur la cadence de déploiement et la tenue des promesses de performance et d’équilibrage.
Un simple visuel de soldes a suffi à rallumer la polémique. Chez GOG, le bandeau du Nouvel An est confirmé comme 100 % IA, et la communauté s’enflamme.
GOG et l’art généré par IA au cœur des critiques
Liam Dawe (GamingOnLinux) a pointé sur Reddit l’origine du visuel, rapidement suspecté d’être généré par IA. Les réactions oscillent entre rejet et indifférence, avec des rappels que ce ne serait pas une première pour GOG.
Sur le forum GOG, un employé impliqué dans le pôle marketing confirme que l’illustration est entièrement générée par IA. Il précise ne pas en être l’auteur et ne commente pas l’usage interne des outils. Il exprime toutefois son opposition personnelle, regrettant qu’il y a environ cinq ans « tout ce qu’on voyait avait demandé du temps », une valeur qu’il juge diluée aujourd’hui.
Un débat déjà latent chez GOG
Plusieurs utilisateurs rappellent que GOG a déjà utilisé des visuels IA et qu’une récente offre d’emploi pour développer la version Linux de GOG Galaxy mentionnait explicitement des compétences en outils IA. La division interne transparaît, en écho à une enquête sectorielle où des professionnels admettent utiliser l’IA tout en la jugeant néfaste au jeu vidéo.
La friction ne porte pas sur la technique, mais sur la légitimité éditoriale et artistique des visuels marketing. Pour une plateforme historiquement attachée au DRM-free et à l’image « pro-développeurs », l’acceptabilité de l’IA dans la communication reste un point sensible auprès des communautés PC.
Des GPU hors support reçoivent tout de même des correctifs critiques, et cela change la donne en matière d’exposition aux vulnérabilités. Les possesseurs de cartes Maxwell, Pascal et Volta ont intérêt à appliquer cette mise à jour sans attendre.
Driver NVIDIA 582.28 focalisé sécurité
NVIDIA diffuse le GeForce Security Update Driver 582.28 WHQL pour les GPU GeForce basés sur Maxwell, Pascal et Volta, désormais en dehors du cycle Game Ready. Le pilote ne modifie ni les performances ni les fonctionnalités ; il corrige exclusivement des vulnérabilités à haute sévérité touchant la pile du pilote d’affichage sous Windows et Linux, ainsi que le logiciel vGPU.
Selon le bulletin de sécurité « NVIDIA GPU Display Driver – January 2026 », les impacts potentiels incluent exécution de code, élévation de privilèges, altération de données, déni de service et fuite d’informations. Une faille de sévérité moyenne dans le pilote HD Audio est également corrigée, pouvant provoquer un déni de service.
Aucun correctif jeu ni bug général n’est listé au-delà de la sécurité. NVIDIA signale toutefois deux problèmes connus : légère distorsion de texte dans Counter-Strike 2 en dessous de la résolution native, et scintillement ponctuel dans Like a Dragon: Infinite Wealth selon certaines configurations.
Produits pris en charge
Ce pilote vise les utilisateurs qui maintiennent des configurations plus anciennes ; l’installation est recommandée pour réduire la surface d’attaque. Téléchargement : NVIDIA GeForce 582.28 WHQL via le hub de pilotes.
NVIDIA TITAN Series : NVIDIA TITAN V, NVIDIA TITAN Xp, NVIDIA TITAN X (Pascal), GeForce GTX TITAN X.
Sur un parc encore significatif de Maxwell, Pascal et Volta, la politique de correctifs de sécurité prolongés limite le risque opérationnel sans rallonger artificiellement le support fonctionnel. Pour les environnements mixtes Windows/Linux et les usages vGPU, l’application rapide du 582.28 consolide la posture de sécurité tout en évitant des régressions de performance.
Une carte graphique crache de la fumée, caméra allumée, PC encore sous tension. La scène pointe une zone sensible : l’alimentation du GPU.
MSI GeForce RTX 4090 Gaming Trio et 16 broches
Une vidéo publiée sur X par la streameuse Jessick montre un panache de fumée près du connecteur d’alimentation d’une carte identifiable comme une MSI GeForce RTX 4090 Gaming Trio. Le câblage visible n’évoque pas un câble natif 16 broches du PSU ; un câble blanc, probablement un adaptateur, est branché.
La série MSI GeForce RTX 4090 Gaming Trio utilise un unique connecteur 16 broches et annonce 450 W de board power, avec une alimentation recommandée de 850 W. Il s’agit de l’implémentation antérieure à la révision NVIDIA 12V-2×6.
Le 12VHPWR a déjà été associé à des cas de surchauffe et de fusion, souvent liés à des insertions incomplètes ou à une contrainte du câble au niveau du connecteur. NVIDIA indiquait en 2022 enquêter sur des incidents de connecteurs brûlés ou fondus, et des tests indépendants ont confirmé qu’une connexion lâche génère très vite une chaleur excessive.
En cas de fumée, la réponse correcte reste immédiate : extinction du système, arrêt de l’alimentation, débranchement, aération, puis inspection du GPU, de l’adaptateur et des câbles PSU avant toute remise sous tension. Une demande de prise en charge SAV ou RMA doit être envisagée, même si l’acceptation d’une carte âgée de trois ans par MSI reste incertaine selon les politiques locales.
L’incident rappelle l’intérêt de privilégier un câble 16 broches natif du bloc plutôt qu’un adaptateur, de contrôler l’enfichage jusqu’au déclic franc, et d’éviter toute courbure serrée près du connecteur. Les variantes révisées 12V-2×6 visent justement à réduire ces marges d’erreur mécaniques et thermiques.
Un RMA banal se transforme en upgrade inattendue. Un utilisateur a vu son Ryzen 9 7950X3D échangé contre un Ryzen 9 9950X3D, confirmé en amont par l’OPN dans l’email d’AMD.
RMA AMD : de l’« équivalent » au surclassement
Le cas, rapporté par le Redditor « Space_swag », s’aligne sur les règles de garantie AMD : réparation, remplacement par un modèle identique ou à performances « équivalentes », ou remboursement si nécessaire. AMD précise aussi que des unités reconditionnées peuvent être expédiées.
Ici, le courriel de confirmation listait le nouvel OPN avant l’expédition, évitant la surprise à la réception. Pour l’utilisateur, le passage de 7950X3D à Ryzen 9 9950X3D constitue un gain net attendu sur le plan des performances tout en conservant l’atout du 3D V-Cache.
Précédent contrasté : 5800X3D remplacé par 5950X
Le « remplacement équivalent » ne couvre pas toujours le critère principal de l’acheteur. Un autre utilisateur Reddit évoque un 5800X3D reçu en 5950X : plus de cœurs, mais sans 3D V-Cache. AMD ne l’aurait pas consulté avant l’envoi du non‑X3D, une substitution discutable pour les usages sensibles à la latence cache en jeu.
Dans ce contexte, l’échange 7950X3D vers 9950X3D coche les cases essentielles pour les profils gaming et créatifs hybrides : maintien du X3D et update générationnelle potentielle, plutôt que simple équivalence nominale.
12 cœurs par CCD et 48 Mo de L3 arrivent dans les rumeurs, pour une hausse de surface annoncée d’environ 7 %. Cela pourrait rebattre la hiérarchie des SKU desktop et server chez AMD.
hausse des cœurs, cache élargi pour le CCD Zen 6
Un lot de chiffres partagé par @HXL évoque un passage de 8 à 12 cœurs par CCD et de 32 Mo à 48 Mo de L3 partagé. L’augmentation atteint 50 % sur les deux métriques, avec un die area en hausse d’environ 5 mm², soit ~7 % par rapport au chiffre Zen 5 cité dans la même liste.
En contexte, les Ryzen 9000 (Zen 5) exploitent le procédé TSMC N4 pour les cœurs CPU, et des SKU comme le Ryzen 7 9700X conservent 32 Mo de L3. La couverture précédente situait le CCD Zen 5 autour de 70,6 mm², proche de Zen 4.
Source : https://fr.wikipedia.org/wiki/Zen_5
Viser une taille similaire pour Zen 6 favoriserait coûts et rendements sur des puces chiplet desktop et serveur. Un CCD plus dense en cœurs pourrait aussi modifier le binning entre modèles à un ou deux CCD selon fréquences, enveloppes de puissance et comportements de cache.
Zen 6 : Intégration AM5 et feuille de route produits
L’intégration sur AM5 ne poserait pas de problème d’emprise, l’emplacement étant déjà dimensionné pour accueillir les CCD Zen 6. Côté marketing, la série desktop visée reste le prochain Ryzen 10000, nom de code officieux Olympic Ridge, tandis que le mobile viserait Medusa Point.
AMD n’a pas confirmé les spécifications du CCD Zen 6, ni la taille du cache, ni la surface. Ces éléments restent des rumeurs à ce stade.
Si cette densification par CCD se confirme, AMD disposerait d’un levier clair pour accroître la compétitivité des SKU à un seul CCD sur le segment mainstream, tout en optimisant les déclinaisons serveur par un meilleur ratio cœurs/cache/surface. L’équilibre fin entre fréquences et TDP déterminera toutefois l’avantage réel en applicatif et en jeu.
Avec le COUGARMX230 RGB, la marque propose un boîtier PC orienté performance thermique, conçu pour maximiser l’admission d’air tout en offrant une expérience d’assemblage simple et moderne. Ce châssis mid-tower mise sur un flux d’air à fort volume, une conception interne intelligente et des fonctionnalités pratiques, afin de répondre aux exigences des configurations gaming actuelles.
Un panneau avant en maille métal intégré pour un airflow constant
Le COUGAR MX230 RGB adopte un panneau avant entièrement métallique en maille fine, faisant également office de filtre à poussière. Grâce à un mécanisme robuste à fixation par encliquetage, l’entretien est rapide et sans outil, tout en garantissant une filtration efficace et durable. Cette conception favorise une admission d’air directe et constante vers les composants internes, essentielle pour les systèmes à forte dissipation thermique.
Refroidissement préinstallé et chemin d’air vertical innovant
Le COUGAR MX230 RGB est livré avec trois ventilateurs ARGB de 120 mm à l’avant et un ventilateur ARGB de 120 mm à l’arrière, assurant un flux d’air équilibré dès la sortie de boîte. Sa particularité réside dans le carénage d’alimentation poreux capable d’accueillir trois ventilateurs supplémentaires de 120 mm. Cette configuration crée une véritable colonne thermique verticale, injectant de l’air frais directement vers la carte graphique et la zone centrale de la carte mère, un avantage rare dans ce segment.
Agencement interne optimisé pour le flux d’air et le câblage
L’alimentation est positionnée de manière décalée sur la droite du châssis, libérant l’espace central et améliorant la circulation de l’air depuis les zones d’admission latérales et inférieures. L’espace entre la carte mère et le carénage d’alimentation facilite le passage des câbles et évite toute obstruction du flux d’air, garantissant une ventilation plus efficace et une installation plus propre.
Compatibilité étendue et refroidissement haut de gamme
Le COUGAR MX230 RGB prend en charge les cartes mères Mini-ITX, Micro-ATX, ATX et E-ATX, ainsi que des cartes graphiques jusqu’à 400 mm et un ventirad de 170 mm. Il peut accueillir jusqu’à dix ventilateurs et supporte l’installation d’un refroidissement liquide AIO de 360 mm sur le dessus, offrant une marge thermique confortable pour les processeurs et GPU haut de gamme.
Connectique moderne et stockage flexible
Côté connectivité, le COUGAR MX230 RGB dispose d’un port USB 3.2 Gen 2×1 Type-C à 10 Gbps ainsi que de deux ports USB 3.0 Type-A, assurant une compatibilité complète avec les périphériques récents. Le stockage n’est pas en reste, avec la possibilité d’installer deux disques durs 3,5 pouces ou une combinaison HDD 3,5 pouces et SSD 2,5 pouces selon les besoins.
Alibaba Qwen présente « DeepPlanning », un nouveau benchmark pour agents qui évalue la capacité des modèles à planifier des tâches complexes de bout en bout, avec des contraintes réelles et une exigence de cohérence sur la durée. Contrairement aux jeux de raisonnement classiques, le jeu d’épreuves impose une optimisation globale et une tenue stricte des contraintes tout au long du plan.
Un benchmark centré sur la planification réelle
DeepPlanning met l’accent sur des scénarios à forte contrainte: itinéraires multi-jours au niveau minute, limites fermes de temps et de budget, et cas d’achats avec combinaisons dynamiques de produits, empilement de coupons et calcul de seuils de remise pour atteindre le coût total minimal. Les objectifs doivent rester satisfaits du début à la fin, pas seulement à une étape intermédiaire.
Selon les premiers résultats communiqués, des modèles de pointe comme GPT-5.2, Claude 4.5, Gemini et Qwen 3 gardent des angles morts en optimisation globale et en cohérence longue durée. La marche reste notable avant d’atteindre une autonomie décisionnelle complète sur des tâches d’agent exigeant des arbitrages continus.
Disponibilité open source
Le jeu de données est disponible en open source sur Hugging Face et ModelScope pour évaluation et reproduction:
La mise à disposition sur deux plateformes facilite la comparaison croisée et l’intégration dans des pipelines d’entraînement ou de test d’agents, y compris pour des boucles de planification-révision et des systèmes orientés contraintes.
Ce type de benchmark va pousser les laboratoires à traiter la planification comme un problème d’ingénierie des contraintes et de contrôle à horizon long, au-delà du simple raisonnement local. S’il est adopté largement, il pourrait accélérer l’émergence de piles logicielles agentiques plus robustes, capables de mixer optimisation globale, vérification post-planification et garanties de faisabilité.
Google ouvre la préversion de Project Genie à un cercle restreint d’utilisateurs américains. Le modèle génère des « mondes jouables » à partir de simples prompts texte ou d’images, avec la possibilité de définir la perspective (première ou troisième personne), les déplacements et des attributs de personnage. Les créations peuvent être modifiées à la volée en changeant le style artistique ou les paramètres de gameplay, puis exportées sous forme de vidéo de prévisualisation partageable.
Le prototype n’est pas exempt de limites. Google prévient que la fidélité visuelle peut fluctuer, que l’adhérence aux prompts n’est pas garantie, que des latences d’interaction sont possibles et que les sessions de jeu sont pour l’instant plafonnées à 60 secondes. Le service est réservé aux abonnés Google AI Ultra aux États-Unis, facturé 250 $/mois, soit environ 230 € au taux actuel. Des extraits circulent déjà sur les réseaux, certains intégrant des personnages protégés par le droit d’auteur.
Génération, remix et contraintes d’usage
Au-delà de la création ex nihilo, Project Genie permet un « remix » des mondes existants en réinjectant un prompt pour reconfigurer l’esthétique ou l’avatar. Le flux d’édition reste textuel ou visuel, sans outillage de level design traditionnel. La sortie en vidéo suggère un rendu serveur avec streaming interactif minimal, cohérent avec les remarques sur la latence et la courte durée de session.
Le ticket d’entrée élevé et la régionalisation limitent pour l’instant l’impact marché, mais le positionnement est clair: démontrer une boucle prompt-to-play et tester la tolérance des créateurs à des systèmes non déterministes. En creux, Google s’expose aux mêmes écueils que Microsoft lorsqu’il a montré une version de Quake II pilotée par IA, accueillie fraîchement par la communauté, notamment sur la qualité d’interaction et la valeur ludique au-delà de la prouesse technique.
Ce que cela dit de la chaîne de production
Si la génération tient la charge, l’outillage de « remix » pourrait s’inviter plus vite dans les pipelines que la création intégrale: itérer sur un style, un set de mécaniques ou un layout à partir d’un canevas généré, avant passage dans des moteurs établis. La question du licensing reste toutefois ouverte, à la fois pour les inputs utilisateurs et pour les sorties qui reproduisent des IP existantes, un point que l’on voit déjà émerger dans les vidéos partagées.
Dans l’immédiat, Project Genie ressemble davantage à un banc d’essai d’interaction et de diffusion qu’à un outil de production. La contrainte des 60 secondes et les aléas de cohérence limitent l’usage au prototypage express et au proof-of-concept. Si Google parvient à stabiliser la latence et à exposer des hooks techniques vers des moteurs tiers, l’approche pourrait s’institutionnaliser côté préprod, en particulier pour générer des variantes testables à bas coût avant un passage en asset pipeline traditionnel.
Multicœur en hausse, iGPU en retrait. Les premiers scores du Core Ultra 7 356H brossent un tableau contrasté pour Panther Lake en mobile.
Intel Core Ultra 7 356H : premier signal de performances
Le Core Ultra 7 356H aligne 16 cœurs (4 P-cores, 12 E-cores). Des résultats non vérifiés publiés par @realVictor_M indiquent 2 013 points en single-core et 20 721 points en multicœur sur Cinebench R23. Côté GPU, l’iGPU Intel Graphics 4 Xe3 atteindrait 2 110 points dans 3DMark Steel Nomad Light.
Face au Core Ultra 7 255H (2 P-cores de plus, 2 E-cores de moins), le 356H prend l’avantage en multicœur, le 255H tournant en moyenne à 18 679 points sur R23. En simple cœur, statu quo : ~2 060 points pour le 255H contre 2 013 points pour le 356H. En graphics, recul net : l’Arc 140V du 255H affiche 3 279 à 3 532 points sur Steel Nomad Light (DX12/Vulkan), bien au-dessus des 2 110 points supposés du 356H.
Panther Lake face aux Ryzen AI 400
Les Panther Lake H arrivent sous embargo imminent, tandis que les Ryzen AI 400 (Gorgon Point) d’AMD débarquent déjà en machines commerciales. Les premiers tests publics de ces APUs montrent une prestation solide face aux puces Intel actuelles, ce qui place le 356H dans une position d’équilibre délicat si l’iGPU final reste en retrait.
Architecture CPU en progrès, graphique à surveiller
Le gain multicœur du 356H confirme une réallocation des ressources en faveur des E-cores, efficace en charges parallèles. L’abandon d’un plus grand nombre d’unités Xe côté iGPU pèse toutefois sur la partie graphique. En PC portable, cela pourrait repositionner l’offre Intel vers des machines orientées CPU-first ou systématiquement couplées à un dGPU.
Selon le dernier rapport « State of the Game Industry 2026 » de la GDC, cité par PC Gamer, la défiance envers l’IA générative s’installe dans les studios. 52 % des professionnels interrogés jugent désormais son impact négatif sur l’industrie, contre 30 % l’an dernier et 18 % en 2024. À l’inverse, seuls 7 % estiment que l’IA générative est bénéfique, en recul par rapport aux 13 % de l’an passé.
Un fossé net entre les métiers créatifs et le management
L’enquête, menée auprès de plus de 2 300 professionnels du jeu vidéo, montre une adoption hétérogène selon les fonctions. Les équipes art, design, narration et programmation demeurent les plus rétives. Les usages les plus assidus se concentrent côté business et management : 58 % des profils « business » déclarent utiliser des outils d’IA au quotidien, 47 % des dirigeants, contre 29 % parmi les employés de terrain.
Dans l’ensemble, 33 % des développeurs disent recourir à l’IA générative dans leur travail, un niveau quasi stable par rapport à 2021 (31 %). Le décalage se joue surtout au niveau des studios : 52 % des répondants indiquent que leur entreprise utilise déjà l’IA générative dans la production.
Des usages cadrés, rarement tournés vers le joueur
Les cas d’usage restent principalement en amont et en support : recherche d’idées et exploration créative (81 %), tâches bureautiques (47 %), assistance au code (47 %) et prototypage (35 %). Seuls 5 % disent l’employer pour des fonctionnalités directement exposées aux joueurs. Le contenu généré destiné au produit final demeure donc l’exception.
La fracture culturelle ressort clairement dans les verbatims anonymisés du rapport : certains parlent de « panique morale », d’autres dénoncent une technologie « bâtie sur le vol et la copie », ou admettent l’utiliser « pour éviter de perdre [leur] emploi ». La GDC note que « plus les professionnels en apprennent sur l’IA générative, moins ils l’apprécient ». Quelques voix affirment travailler à des plateformes visant à automatiser massivement la création, au risque d’un choc social pour les métiers de production.
Le contraste entre un management qui pousse l’outillage et des équipes créatives qui en redoutent les effets traduit une industrialisation déjà engagée mais cantonnée à l’outillage interne. Tant que les questions de droits, de traçabilité des datasets et de contrôle qualité ne seront pas réglées, l’IA générative restera un accélérateur back-office plutôt qu’un levier produit visible, avec un risque de fracture durable entre décisionnaires et créatifs.
Un produit classique de l’époque des micro-ordinateurs revient avec une mécanique modernisée. Les amoureux de l’arcade à domicile retrouvent enfin le feeling d’origine, sans les faiblesses du matériel d’époque.
THEQUICKSHOT II modernisé
Retro Games Ltd., en partenariat avec PLAION REPLAI, commercialise dès aujourd’hui THEQUICKSHOT II, recréation fidèle du joystick iconique des années 80. L’objectif est clair : sensations d’origine, fiabilité et réactivité actuelles.
La structure interne passe au tout microswitch, avec points de clic marqués sur chaque direction et sur les boutons de tir. Le contrôle huit directions est franc, sans zone morte ni imprécision, pour des jeux arcade exigeants.
Le stick embarque huit boutons d’action et de fonction pour une ergonomie proche d’une manette, ainsi qu’un commutateur d’auto-fire, caractéristique historique, désormais recalibrée. Les ventouses stabilisent l’ensemble pour un usage à une main, et le câble de 1,8 m s’intègre facilement dans un setup moderne.
Compatibilité et design fidèle
La silhouette, la prise en main et l’assise respectent le dessin de l’original QuickShot II. Le produit s’accorde naturellement avec les systèmes actuels orientés rétro comme THEC64, THEA500 et The Spectrum, tout en restant compatible avec la plupart des jeux et ordinateurs populaires.
Le prix public conseillé est de 34,99 €, disponible sur www.plaionreplai.com. À ce niveau tarifaire, la proposition s’adresse autant aux collectionneurs qu’aux joueurs cherchant un périphérique robuste et immédiatement exploitable.
Le retour de ce form factor, avec un cœur 100 % microswitch et un auto-fire modernisé, comble un vide entre les rééditions purement décoratives et les sticks arcade modernes plus encombrants. Sur le segment rétro plug-and-play, l’équilibre entre fidélité et fonctionnalité actuelle est pertinent.
Trimestre record et cap franchi sur les volumes d’appareils actifs. L’équation iPhone + Services s’affiche en pleine accélération.
Résultats Apple T1 2026
Apple boucle son premier trimestre fiscal 2026 (clos le 27 décembre 2025) avec 143,8 milliards de dollars de revenus, en hausse de 16 % sur un an. Le bénéfice dilué par action atteint 2,84 dollars, soit +19 %.
Tim Cook souligne un trimestre iPhone « meilleur de son histoire » avec des records dans chaque zone géographique. Les Services signent aussi un plus haut historique, en progression de 14 %.
Le parc installé dépasse 2,5 milliards d’appareils actifs, indicateur clé de rétention et de monétisation. Côté cash, près de 54 milliards de flux opérationnels ont été générés sur le trimestre.
Kevan Parekh, CFO, mentionne un niveau de marge permettant d’établir un record d’EPS et un retour de presque 32 milliards de dollars aux actionnaires. Le conseil d’administration déclare un dividende de 0,26 dollar par action, payable le 12 février 2026 aux actionnaires enregistrés au 9 février 2026.
Conférence et diffusion
La conférence des résultats T1 2026 sera diffusée en direct le 29 janvier 2026 à 14 h PT sur apple.com/investor/earnings-call, avec un replay disponible environ deux semaines.
Pour l’écosystème hardware, le pic iPhone et la traction des Services confirment la capacité d’Apple à lisser la cyclicité via la base installée. L’ampleur des flux de trésorerie laisse de la marge pour investir dans le silicium maison et l’infrastructure IA, tout en maintenant un programme de retour aux actionnaires soutenu.
Un échange public a dérapé : l’équipe FFmpeg a épinglé un patch AMD qualifié d’“AI slop”, puis fermé la PR visant le support HIP sous Windows. Conséquence immédiate : rappel à l’ordre sur les standards de commit et recentrage sur la voie Vulkan.
FFmpeg critique un patch AMD et ferme la PR HIP
Le compte officiel X/Twitter de FFmpeg a relayé l’insatisfaction de développeurs face à une proposition AMD ajoutant la prise en charge de l’AMD HIP SDK sous Windows. HIP est la couche de calcul GPU d’AMD, dérivée de ROCm, destinée ici à porter une partie des workflows sur l’OS de Microsoft.
Dans le fil de revue, les mainteneurs ont pointé des éléments perçus comme issus d’un LLM, tant dans le patch que dans le message de commit. Ils ont rejeté l’inclusion d’instructions d’installation et de configuration pour l’utilisateur final, jusqu’à mentionner l’outil pacman, hors périmètre d’un message de commit centré sur le quoi/pourquoi.
Le développeur AMD a défendu une documentation “longue” issue d’expériences de build et de références plus anciennes. Il a ensuite allégé le message, sans apaiser totalement la discussion. La PR a finalement été close sur un motif de direction technique.
Vulkan privilégié pour un chemin GPU neutre
FFmpeg investit depuis des mois dans des chemins GPU neutres via Vulkan, y compris sur le décodage vidéo multiplateforme et multi-constructeurs. Ce cap limite la dépendance à des SDK propriétaires, facilite la maintenance et simplifie le support cross-vendor.
La passe d’armes autour d’AMD HIP confirme cette priorité : alignement sur des API communes et réduction du coût d’intégration de solutions spécifiques. Pour AMD, l’enjeu sera de démontrer une valeur technique mesurable au-delà de la seule activation HIP sous Windows, ou de contribuer au pipeline Vulkan existant avec des optimisations concrètes.
Le gouvernement britannique a demandé à Google d’ajuster son moteur de recherche pour permettre aux éditeurs et sites web d’exclure leurs contenus des « AI Overviews » et de l’entraînement de modèles d’IA distincts, sans impact négatif sur le classement des résultats classiques. Cette requête intervient sur fond d’enquête concurrentielle en cours et d’un déséquilibre croissant du trafic au profit des réponses générées par IA.
Pression réglementaire et enjeux de marché
Le régulateur britannique de la concurrence (CMA) a conféré à Google, en octobre dernier, le statut d’entreprise à « position de marché stratégique » sur la recherche générale, ouvrant la voie à des remèdes ciblés. Avec plus de 90 % de parts de marché au Royaume-Uni, Google exploite ses crawlers pour alimenter les « AI Overviews » et des modes IA intégrés, ainsi que des produits distincts comme Gemini.
La montée en puissance des résumés générés par IA a réduit significativement le taux de clic vers les éditeurs et les sites d’actualité. La CMA souhaite un mécanisme d’opt-out pour l’IA qui ne dégrade pas le référencement organique, afin de rééquilibrer la distribution de trafic. Le régulateur demande aussi plus de transparence et d’équité dans le ranking, et des parcours simplifiés pour choisir d’autres moteurs.
Ce que Google devrait changer
L’exécutif britannique cible deux points: la possibilité pour les éditeurs d’exclure leurs contenus des « AI Overviews » et de l’entraînement de modèles indépendants, et l’assurance que cet opt-out n’affecte pas la visibilité dans les liens bleus. En parallèle, une clarification des signaux de classement est réclamée pour limiter les effets d’intégration verticale entre la recherche et les services IA maison.
Pour Google, la marge de manœuvre passe par des contrôles robots.txt et des balises plus explicites côté IA, ou un opt-out centralisé, avec un engagement public à dissocier cet opt-out des signaux de qualité de recherche. Toute modification devra aussi préserver l’intégrité des résultats et limiter les risques d’abus de cloaking.
Si Londres impose un opt-out IA neutre pour le SEO, l’effet d’entraînement pourrait s’étendre à l’UE et aux États-Unis, où les mêmes tensions entre « réponses synthétiques » et trafic éditeur s’intensifient. Un standard d’exclusion IA, robuste et vérifiable, ferait jurisprudence sur la manière dont les grands moteurs exploitent le web ouvert pour leurs produits génératifs, sans tarir la source de contenus qui les alimente.