Déjà en vente ? Des petits chanceux ont reçu un Ryzen 7 9850X3D avant sa sortie



Le télescope spatial James Webb a capturé une image infrarouge à très haute résolution de la nébuleuse de l'Hélice, située à 650 années-lumière. Un cliché révèle des détails sans précédent sur la manière dont une étoile semblable au Soleil recycle sa matière en fin de vie.

Une nouvelle fuite secoue le marché des cartes graphiques. NVIDIA aurait discrètement mis fin à un programme interne destiné à maintenir une partie des GPU vendus au prix public conseillé. Une décision qui, si elle se confirme, pourrait marquer un tournant brutal pour les joueurs, déjà confrontés à des tarifs historiquement élevés sur les dernières […]
L’article NVIDIA met fin à un programme secret de soutien des prix : les GPU gaming risquent d’exploser encore est apparu en premier sur HardwareCooking.
![]()

L’alimentation est définitivement l’élément le plus important dans une configuration. En effet avec une alimentation de qualité, on s’assure que tous nos composants soient bien alimentés, mais aussi protégés en cas de court-circuit. C’est pour cela qu’il ne faut pas la sous-estimer. Aujourd’hui la Cuisine du Hardware vous propose un bon plan sur l’alimentation be […]
L’article Bon plan : l’alimentation be quiet! Pure Power 13 M 1000W à 135,95 euros est apparu en premier sur HardwareCooking.
La course à l’intelligence artificielle laisse derrière elle une traînée de poussière juridique. NVIDIA fait désormais face à une plainte déposée devant un tribunal fédéral californien, accusée d’avoir utilisé plusieurs centaines de téraoctets de livres piratés pour entraîner ses modèles d’intelligence artificielle. Une affaire explosive, mais loin d’être isolée, qui illustre les zones grises dans […]
L’article NVIDIA attaquée en justice pour avoir entraîné ses IA avec 500 To de livres piratés est apparu en premier sur HardwareCooking.
![]()
![]()
Si vous bidouillez un peu avec des modèles CoreML sur votre Mac Silicon, vous savez que c'est vite la croix et la misère comme je dis souvent... Car dès qu'il s'agit de tester un truc rapide, faut ouvrir Xcode, pisser du Swift, ou se battre avec des scripts Python... Bref, l'usine à gaz juste pour vérifier une prédiction vite fait.
Hé bien bonne nouvelle les amis, un petit outil en ligne de commande vient de sortir pour nous éviter de trop galérer.
Ça s'appelle coreml-cli et comme son nom l'indique, c'est une interface pour inspecter et lancer vos modèles depuis le terminal. L'objectif c'est de pouvoir manipuler vos fichiers .mlmodel sans jamais avoir besoin de lancer l'IDE d'Apple.
Si vous êtes chaud bouillant, ça s'installe hyper facilement via Homebrew :
brew tap schappim/coreml-cli
brew install coreml-cli
Et une fois que c'est là, vous pouvez TOUT faire. Genre vous voulez voir ce qu'il y a dans un modèle ? Hop, un petit coreml inspect MobileNetV2.mlmodel et vous avez toute la structure, les entrées et les sorties qui s'affichent.
Et pour lancer des prédictions, c'est également très simple plus simple. Par exemple, avec le modèle MobileNet qui détecte les objets présents dans une image, vous lui donnez une image, et avec l'option --json, il vous sort le résultat proprement.
coreml predict MobileNetV2.mlmodel --input photo.jpg --json
Et pour ceux qui veulent automatiser des traitements, le mode "batch" permet de traiter tout un dossier d'images d'un coup. C'est quand même plus rapide que de le faire à la main un par un, comme le ferait un ingé de Perpignan nourri aux graines de chia.
Le développeur a même intégré un outil de benchmark pour mesurer la latence. Ça vous permet de lancer des tests sur le CPU, le GPU ou le fameux Neural Engine d'Apple pour comparer les perfs. C'est le top pour optimiser vos apps avant de les déployer.
Du coup, si vous bossez avec de l'IA locale sur Mac, un peu comme ce qu'on a déjà testé par le passé avec MocoLlamma ou sur de gros clusters Mac Studio comme ce furieux, ce petit binaire risque de vite devenir indispensable dans vos scripts CI/CD.
Amusez-vous bien !

Sam Altman a annoncé sur X le lancement d’un « mois Codex » chez OpenAI, avec une première salve de produits attendue la semaine prochaine. Codex ne se limite plus à un simple API de complétion : l’éditeur le positionne comme un véritable environnement d’ingénierie logicielle, combinant modèles, outils et enchaînements de tâches sous la forme d’un agent logiciel opérationnel.
OpenAI prévient que les nouveaux modèles Codex atteignent pour la première fois le niveau « High » de risque cybersécurité dans son Preparedness Framework, juste en dessous du palier « Critical ». En clair, les capacités franchissent le seuil où l’IA peut lever des verrous techniques existants côté attaque, de l’assistance à la création d’outils d’offensive à l’automatisation d’opérations de bout en bout, jusqu’à la découverte et l’exploitation autonome de vulnérabilités jugées exploitables.

Le risque systémique est explicite : un déséquilibre du rapport attaque/défense, avec une hausse du volume et de l’ampleur des intrusions. OpenAI dit adopter un déploiement par étapes : d’abord des restrictions strictes d’usage pour réduire l’abus criminel, puis un recentrage sur « l’accélération de la défense », en s’appuyant sur l’IA pour identifier et corriger plus vite les failles côté utilisateurs et équipes produit.

Altman assume une philosophie de publication contrôlée : ne pas sortir les modèles ne serait « pas une solution » alors que des versions plus puissantes émergeront inévitablement. L’objectif affiché est d’augmenter dès maintenant le niveau de sécurité logiciel chez les développeurs et entreprises, tout en calibrant les capacités exposées pour limiter l’industrialisation d’attaques.
En parallèle de l’annonce sur X, OpenAI a détaillé sur son site la logique interne de Codex CLI, un agent local multiplateforme. Le cœur est un « Agent Loop » chargé d’orchestrer les interactions entre l’utilisateur, le modèle et les outils : transformation des instructions en tokens, raisonnement, appels d’outils (y compris opérations fichiers), puis synthèse d’une réponse exécutable.
Cette boucle vise à fiabiliser des séquences d’actions répétables et auditable, un point clé pour contenir les dérives tout en conservant la vitesse d’itération promise par l’IA. L’approche outille surtout l’exécution locale, ce qui peut faciliter l’intégration dans des pipelines CI/CD et des environnements de développement verrouillés.

Si OpenAI parvient à livrer un gain net côté défense avant que les capacités d’attaque ne se diffusent, l’impact pourrait être tangible sur les cadences de remédiation, la priorisation des correctifs et la qualité des bases de code. Le point d’équilibre dépendra toutefois des seuils de restriction retenus, de la transparence des journaux d’actions de l’agent et de l’adoption réelle dans les chaînes outillées des grands éditeurs.
Source : ITHome

Des acheteurs rapportent que la boutique ZOTAC a annulé des commandes de GeForce RTX 50 passées lors d’un drop récent, avant de remettre en vente les mêmes cartes à des tarifs plus élevés. Les emails évoquent une « erreur système », suivie d’une indisponibilité temporaire du store. Un enchaînement qui intervient dans un contexte de pénurie déjà marquée sur les RTX 5090, et qui relance le débat autour des prix « MSRP » et de la gestion des stocks lors des lancements très tendus.
Cet épisode intervient alors que plusieurs sources évoquent un net ralentissement de l’approvisionnement des RTX 50, NVIDIA priorisant désormais massivement ses capacités de production vers l’IA, au détriment du marché gaming.
La page de politique de ZOTAC indique qu’une commande peut être annulée sous 1 jour ouvré si elle n’a pas été expédiée. Elle précise aussi que ZOTAC USA peut ajuster annonces et prix, et décline toute responsabilité en cas d’erreur d’affichage. C’est leur droit, mais l’impact réputationnel est évident quand on vous demande soudain de payer plusieurs centaines de dollars de plus.

Selon le fil Reddit à l’origine du signalement, les RTX 5090 étaient listées à 2 299, 2 399 et 2 449 $ avant relistage, et la RTX 5080 serait passée de 999 $ à 1 249 $. À titre indicatif, cela représente environ 2 120 à 2 260 € pour les RTX 5090, et 930 à 1 145 € pour la RTX 5080 selon le taux de change courant, hors taxes et frais.
La pression sur les RTX 5090 est déjà palpable. Des rapports récents évoquent une rareté chez les grands retailers US, avec des listings tiers souvent entre 3 500 et 4 500 $. ZOTAC est d’autant plus pointé du doigt que ses modèles étaient présentés comme « MSRP » mais, d’après Der8auer, cela ne serait plus garanti.
Depuis la parution de ces informations, l’accès au site ZOTAC a été compliqué. Annoncé en maintenance plus de 24 heures, le store bloque en réalité le trafic non-US.
Si la demande reste supérieure à l’offre sur la RTX 5090, la fenêtre pour des prix « MSRP » se referme. Les annulations suivies d’un relistage plus cher n’aident ni la confiance des acheteurs ni la lisibilité du lancement, et renforcent le rôle des revendeurs tiers dans la formation de prix déjà déconnectés du marché de masse.
Source : VideoCardz
Nos confrères de chez overclocking.com ont testé la carte mère Gigabyte X870E AERO Wood Edition. Dans le cadre de notre format SFX (Synthèse Factuelle Express), voici les éléments clés à retenir sur cette nouvelle carte mère.
Cette Gigabyte X870E AERO Wood Edition se distingue immédiatement par un parti pris esthétique audacieux : l’intégration de véritables inserts en bois (noyer) sur ses dissipateurs thermiques. Ce design « Wood Edition » rompt avec les codes habituels du gaming. L’objectif est peut-être de plus s’adresser aux créateurs de contenu et aux amateurs de configurations épurées. Construite autour du chipset haut de gamme AMD X870E, elle est conçue pour accueillir tous les processeurs Ryzen 9000.
Techniquement, elle repose sur un PCB à 8 couches de haute qualité et dispose d’un système d’alimentation robuste avec 16+2+2 phases de 110A, garantissant une stabilité exemplaire même sous de lourdes charges de travail applicatif. La connectivité est à la pointe de l’actualité avec le support natif de l’USB4, offrant des débits allant jusqu’à 40 Gbps, ainsi que le Wi-Fi 7 pour une liaison sans fil ultra-rapide. On retrouve également un port LAN 2.5 GbE. Côté stockage, elle propose quatre emplacements M.2, dont trois sont compatibles avec la norme PCIe 5.0, permettant d’atteindre des vitesses de transfert stratosphériques. L’ergonomie n’est pas en reste avec le système « EZ-Latch » qui facilite grandement le montage et le démontage de la carte graphique et des SSD M.2 sans avoir besoin d’outils complexes, une attention particulière portée au confort de l’utilisateur final.
| Caractéristiques | Détail |
|---|---|
| Chipset | AMD X870E |
| Socket | AM5 (Ryzen 7000, 8000, 9000) |
| Étages d’alimentation | 16+2+2 phases (110A) |
| Mémoire | 4x DDR5 (jusqu’à 8000 MT/s en OC) |
| Stockage | 3x M.2 PCIe 5.0 + 1x M.2 PCIe 4.0 |
| Réseau | Wi-Fi 7 + Ethernet 2.5 GbE |
| USB | 2x USB4 (Type-C), multiples USB 3.2 |
| Format | ATX |
L’un des avantages majeurs soulignés lors des tests est l’efficacité thermique du système de refroidissement. Malgré l’aspect décoratif du bois, les dissipateurs en aluminium situés en dessous gèrent parfaitement la chaleur des VRM et des SSD NVMe PCIe 5.0, qui ont tendance à chauffer énormément. Par exemple, lors de rendus vidéo prolongés, les températures restent contenues, évitant tout phénomène de throttling. Un autre point fort réside dans la richesse de la connectivité arrière, particulièrement les deux ports USB4 qui permettent de chaîner des périphériques de stockage externes haute performance ou des écrans haute résolution. Cependant, tout n’est pas parfait. Le principal inconvénient reste le positionnement tarifaire très élevé, justifié en partie par l’exclusivité du design « Wood ». De plus, bien que la carte soit excellente en applicatif, certains puristes regretteront l’absence de certains boutons physiques directement sur le PCB pour l’overclocking extrême, comme un bouton de « Safe Boot » dédié, même si le public visé ici est celui des créateurs. Enfin, l’esthétique bois est très clivante : elle s’intègre magnifiquement dans un boîtier comme le Fractal North, mais peut paraître totalement hors sujet dans un boîtier RGB plus traditionnel, limitant ainsi les choix de composants périphériques pour garder une harmonie visuelle cohérente.

En conclusion, la Gigabyte X870E AERO Wood Edition est une pièce d’exception qui réussit le pari de marier excellentes performances et élégance. Elle ne se contente pas d’être « belle », elle offre des performances de premier ordre grâce au chipset X870E et une gestion de l’énergie capable de dompter les processeurs les plus gourmands d’AMD. Elle vise clairement un public qui recherchent une machine puissante mais capable de s’intégrer dans un environnement de travail soigné et moderne. Si vous possédez déjà une carte mère X670E performante, le passage à la X870E n’est pas forcément indispensable, sauf pour le support natif de l’USB4 et du Wi-Fi 7. En revanche, pour une nouvelle configuration haut de gamme centrée sur les Ryzen 9000, elle est hautement recommandable, à condition d’avoir le budget nécessaire et l’envie de construire un PC au look unique. C’est un produit « coup de cœur » qui ne sacrifie rien à la technique, une rareté sur le marché actuel souvent saturé par l’esthétique 100% plastique et LED.
Vous pouvez retrouver plus de détails sur cette carte mère ici avec les tests complets et les détails de son bios par exemple.
SFX : Carte mère Gigabyte X870E AERO WOOD Edition a lire sur Vonguru.
Comme vous avez pu le constater, l’émulsion du CES s’est vite dissipée pour laisser place à un désert béant d’actualité faute de nouveauté sur le marché des composants PC fixes. Cela se ressent forcément sur les produits testés sur cette période post-salon, avec pour unique excentricité une machine...
Jamais un tel phénomène n'avait été observé avec une telle ampleur. Un jet de gaz colossal, propulsé par un trou noir, est en train de remodeler en profondeur sa galaxie hôte
Alors que le QD-OLED mat s’est imposé comme le standard des écrans gaming haut de gamme, Gigabyte prend une direction inattendue. Le constructeur lance discrètement le GO27Q24G, un moniteur OLED 27 pouces 1440p à 240 Hz qui fait un pari audacieux : abandonner le mat au profit d’un écran WOLED glossy. Une décision qui relance un débat que l’industrie croyait tranché.
En effet, Gigabyte a mis en ligne sans grande communication un nouveau moniteur de jeu, le GO27Q24G. Sur le papier, il ressemble fortement au GO27Q24 lancé fin 2025 : dalle OLED 27 pouces, définition QHD et fréquence de 240 Hz. Mais une différence clé change profondément son positionnement.
Là où le modèle précédent utilisait un panneau QD-OLED à traitement mat, ce nouveau GO27Q24G adopte une dalle WOLED MLA+ avec finition RealBlack Glossy. Un choix qui rompt avec la tendance actuelle, alors que la plupart des fabricants privilégient encore le mat pour limiter les reflets, parfois au détriment du contraste perçu.

Avec cette surface brillante, Gigabyte cherche clairement à maximiser les forces intrinsèques de l’OLED. Les noirs gagnent en profondeur, les transitions sombres paraissent plus nettes et l’image retrouve une clarté souvent atténuée par les traitements mats. En contrepartie, la gestion des reflets devient un paramètre à surveiller, notamment dans les environnements lumineux.
La luminosité est justement l’un des arguments centraux du GO27Q24G. En usage SDR, l’écran atteint 275 nits en plein écran, tandis que le HDR peut grimper jusqu’à 1 300 nits sur de petites zones. Gigabyte introduit pour l’occasion un mode baptisé HyperNits, conçu pour pousser encore plus loin les pics lumineux. Deux niveaux sont proposés, avec un gain annoncé de 20 à 30 %, selon l’éclairage ambiant, sans écrêtage des hautes lumières.

Sur le plan technique, la fiche reste solide et cohérente avec le segment visé. La dalle affiche une résolution de 2 560 x 1 440 pixels à 240 Hz, avec un temps de réponse de 0,03 ms. Le moniteur ne propose pas de mode dual-resolution, mais il prend en charge à la fois G-Sync et FreeSync, et bénéficie de la certification DisplayHDR True Black 400. La couverture colorimétrique annoncée atteint 99 % du DCI-P3.

La connectique se montre classique mais complète, avec deux ports HDMI 2.1, un DisplayPort 1.4, un port USB-C capable de fournir jusqu’à 15 W, ainsi qu’une sortie casque. Le pied fourni est entièrement réglable, sans compromis apparent sur l’ergonomie.
La mention d’une dalle WOLED MLA+ ne relève pas uniquement du discours marketing. Cette technologie de micro-lentilles vise à améliorer l’efficacité lumineuse de l’OLED en augmentant les pics HDR sans solliciter excessivement les pixels, ce qui peut contribuer à limiter l’agressivité de l’ABL et la montée en température. En pratique, ces bénéfices restent étroitement dépendants du contenu affiché et ne font pas disparaître les contraintes structurelles de l’OLED, en particulier sur les grandes zones lumineuses.
À ce stade, Gigabyte n’a communiqué ni le prix ni la date de disponibilité du GO27Q24G. Ce silence entretient l’impression d’un lancement volontairement discret, presque expérimental. Reste une question centrale : ce retour assumé vers une surface glossy sur un écran OLED gaming haut de gamme relève-t-il d’un pari de niche, ou annonce-t-il un basculement plus large du marché face aux limites perçues du QD-OLED mat ?
Une nouvelle entrée « gfx1310 » a fait son apparition dans le dépôt LLVM, confirmant l’amorçage du support pour un GPU AMD de la famille GFX13, autrement dit RDNA 5, et identifié comme une carte graphique dédiée. Ce type d’atterrissage dans l’infrastructure du compilateur précède habituellement les phases de validation interne des pilotes et l’écosystème toolchain, et marque un jalon concret côté logiciel.
Le libellé « gfx1310 » s’inscrit dans la nomenclature AMD où GFX10, 11 et 12 correspondent respectivement à RDNA, RDNA 2 et RDNA 3/3.5. GFX13 est donc le premier indicateur opérationnel d’une bascule RDNA 5 dans les chaînes de compilation. Le code repéré suggère une cible dGPU et non une intégration iGPU, ce qui oriente vers les futures cartes grand public et professionnelles dédiées.
Des fuites antérieures évoquaient des puces RDNA 5/« UDNA » avec jusqu’à 96 unités de calcul et un bus mémoire jusqu’à 512 bits. Ces paramètres n’apparaissent pas dans LLVM et doivent rester considérés comme non confirmés. En revanche, la présence dans LLVM implique que les identifiants matériels et certaines caractéristiques ISA commencent à être figés pour la chaîne de compilation.

L’ajout d’un nouveau target dans LLVM ouvre la voie à l’alignement des pilotes open source (Mesa/ROCm) et aux optimisations spécifiques de l’ISA RDNA 5 côté shader et compute. Les développeurs peuvent commencer à câbler les chemins de compilation, à intégrer les premiers passes d’optimisation et à préparer le support dans les piles graphiques et GPGPU.
Le rythme habituel veut que ces commits précèdent de plusieurs mois toute annonce produit. À ce stade, aucune donnée chiffrée issue du dépôt ne valide les configurations mémoire ou le nombre de cœurs, mais le positionnement « dGPU » laisse augurer un die dédié et non une déclinaison APU.
Si AMD verrouille effectivement un bus 512 bits sur au moins une référence RDNA 5, l’écosystème compiler/pilotes devra intégrer des chemins spécifiques de gestion de bande passante et de hiérarchies de cache, avec des impacts directs sur le scheduling et la coalescence mémoire. C’est typiquement ce que ces premiers commits LLVM permettent d’anticiper côté toolchain, bien avant les benchmarks publics.
Source : ITHome
![]()
La mission Artémis II autour de la Lune est un voyage d'environ dix jours, avec quatre astronautes à bord de la capsule Orion. La Nasa a détaillé les grandes étapes de cette odyssée.

![]()
Gmail est un service de courrier électronique extrêmement répandu, y compris en France. Pourtant, il existe des webmails alternatifs, dont certains sont européens, qui n'ont pas à rougir. Envie de sauter le pas ? Voilà deux solutions à considérer.
Alors qu’Intel s’apprête à lancer ses Core Ultra Series 3 « Panther Lake » la semaine prochaine, AMD ne compte pas se laisser faire. Selon des informations exclusives dévoilées par HKEPC, le fondeur rouge prépare en secret une salve de 6 nouveaux processeurs Ryzen AI MAX 400, nom de code « Gorgon Halo« , qui viennent directement refroidir l’offensive bleue.
Face aux Panther Lake qui promettent des gains d’efficacité énergétique majeurs, AMD a choisi la stratégie de la montée en fréquence. Les Gorgon Halo ne sont ni plus ni moins qu’un refresh des Ryzen AI MAX 300 « Strix Halo », mais dopés aux hormones.
Le flagship Ryzen AI MAX+ 495 grimpe ainsi à 5,2 GHz en boost (+100 MHz vs Strix Halo), tandis que son iGPU Radeon 8060S atteint 3,0 GHz (+100 MHz également). Un coup de boost bienvenu qui devrait permettre à AMD de rester compétitif face aux nouvelles architectures Intel.
Mais AMD ne s’arrête pas là : les Gorgon Halo embarquent désormais de la mémoire LPDDR5X-8533, contre LPDDR5X-8000 sur la génération précédente. Un gain de bande passante de 6,6% qui profitera autant au CPU qu’au GPU intégré.
La fuite révèle l’intégralité de la gamme que AMD compte déployer :
| SKU | Architecture | CPU Cores | Max Clock | Cache | GPU Cores | TDP |
|---|---|---|---|---|---|---|
| Ryzen AI Max+ 495 | Zen 5 / RDNA 3.5 | 16 / 32 | 5.2 GHz | 80 MB | 40 CUs (Radeon 8060S) | 45-120W |
| Ryzen AI Max+ 492 | Zen 5 / RDNA 3.5 | 12 / 24 | 5.0 GHz | 76 MB | 40 CUs (Radeon 8060S) | 45-120W |
| Ryzen AI Max 490 | Zen 5 / RDNA 3.5 | 12 / 24 | 5.0 GHz | 76 MB | 32 CUs (Radeon 8050S) | 45-120W |
| Ryzen AI Max 485 | Zen 5 / RDNA 3.5 | 8 / 16 | 5.0 GHz | 40 MB | 32 CUs (Radeon 8050S) | 45-120W |
| Ryzen AI Max+ 488 | Zen 5 / RDNA 3.5 | 8 / 16 | 5.0 GHz | 40 MB | 40 CUs (Radeon 8060S) | 45-120W |
| Ryzen AI Max 480 | Zen 5 / RDNA 3.5 | 6 / 12 | 5.0 GHz | 22 MB | 16 CUs (Radeon 8040S) | 45-120W |
Cette fuite intervient à un moment stratégique : Intel lance ses Panther Lake dans une semaine, et AMD ne veut clairement pas laisser le champ libre à son rival. Les Ryzen AI MAX ciblent le même segment : les ultraportables premium capables de faire tourner des jeux AAA et des charges de travail IA lourdes.

Avec jusqu’à 40 compute units sur l’iGPU (Radeon 8060S), AMD dispose d’un sérieux avantage graphique face aux solutions intégrées d’Intel. Le NPU devrait également monter entre 55 et 60 TOPS, suffisant pour faire tourner les modèles d’IA locaux qui deviennent la norme en 2026.
Le TDP reste fixé à 55W en configuration standard, mais peut être ajusté entre 45W (pour l’autonomie) et 120W (pour la performance brute) selon les besoins.
Contrairement à ce qu’on pourrait penser, AMD ne semble pas pressé de lancer ses Gorgon Halo. La marque aurait prévu une sortie fin 2026 ou début 2027 selon la source.
Pourquoi ce timing ? Probablement pour écouler les stocks de Strix Halo (qui viennent de recevoir deux nouvelles références) et surtout pour éviter une cannibalisation avec les Ryzen AI 400 « Gorgon Point », qui eux vont directement tacler Panther Lake dans les semaines qui viennent.
Cette fuite confirme qu’AMD n’a pas dit son dernier mot face à Intel. Les Gorgon Halo ne révolutionnent rien, mais apportent le boost de performance nécessaire pour maintenir la pression sur la concurrence. Avec des fréquences rehaussées, de la RAM plus rapide et des iGPU toujours aussi costauds, AMD s’assure de rester dans la course jusqu’en 2027-2028.
Pour aller plus loin : Retrouvez toutes les spécifications détaillées dans notre dossier complet sur les AMD Ryzen AI MAX 400 Gorgon Point.