↩ Accueil

Vue lecture

GPT-5.2 visé : citations Grokipedia fragilisent l’usage pro et la traçabilité

OpenAI présente GPT-5.2 comme son modèle « le plus avancé pour le travail professionnel ». Une série de tests conduite par le Guardian met pourtant en cause sa fiabilité sur des sujets sensibles, pointant des réponses s’appuyant sur Grokipedia, l’encyclopédie en ligne de xAI déjà critiquée pour ses sources problématiques.

Le quotidien britannique a constaté que ChatGPT citait Grokipedia lorsqu’il répondait à des questions liées à l’Iran, notamment autour d’allégations sur des liens entre le gouvernement et MTN Iran, ainsi que sur des points touchant l’historien Richard Evans, expert lors du procès en diffamation impliquant le négationniste David Irving. En revanche, sur d’autres terrains inflammables comme un supposé biais médiatique en faveur de Donald Trump, l’outil n’aurait pas fait appel à Grokipedia.

Lancé en décembre, GPT-5.2 cible les usages pros, de la production de feuilles de calcul à la gestion de tâches complexes. Grokipedia, antérieure au modèle, a déjà suscité des critiques pour avoir agrégé des références issues de forums néonazis. Des travaux universitaires américains ont également relevé des citations « douteuses » et des sources « problématiques » dans cette encyclopédie générée par IA.

Interrogé, OpenAI explique que GPT-5.2 interroge « des sources et points de vue publiquement accessibles variés » tout en appliquant des filtres de sécurité destinés à réduire l’exposition à des contenus à risque. La formulation reste prudente et ne précise ni le poids accordé à chaque source ni les critères d’exclusion dynamiques.

Contexte et portée des tests

Le constat du Guardian ne vaut pas audit exhaustif du graphe de connaissances de GPT-5.2, mais souligne un angle mort : sur des sujets polarisés, les citations peuvent basculer vers un référentiel controversé sans signalisation claire. Le fait que Grokipedia ne soit pas invoquée de manière systématique renforce l’idée d’une pondération contextuelle, difficile à prédire.

Le différentiel de comportement selon le thème pose une question de gouvernance des sources, au-delà des garde-fous de sécurité. Dans un cadre professionnel, où traçabilité et conformité documentaire priment, l’absence d’explicitation des priorités de citation devient un point de friction.

Implications pour les usages pros

Pour des workflows qui exigent une chaîne de sources vérifiables, l’appel potentiel à une encyclopédie contestée affaiblit la valeur probante des sorties, même si celles-ci restent factuellement correctes. Les entreprises devront durcir les politiques d’attribution, imposer des listes blanches de référentiels et exiger la restitution des citations primaires plutôt que des méta-sources.

L’enjeu dépasse le filtrage des contenus à risque : il s’agit de hiérarchiser des corpus reconnus, de préférence à des agrégateurs dont la gouvernance éditoriale est mouvante. Sans granularité de contrôle côté modèle, le besoin se reporte sur l’orchestration applicative et l’audit humain des réponses sensibles.

À court terme, cette controverse rappelle que les modèles « généralistes » restent fragiles dès qu’ils mêlent assistance à la rédaction et autorité documentaire. Le marché ira vers des piles hybrides combinant LLM, moteurs de RAG verrouillés sur des sources certifiées et politiques d’archivage des citations, faute de quoi la promesse « pro » se heurte à des exigences de conformité que la seule modération automatisée ne couvre pas.

Source : ITHome

  •  

Atlas de Boston Dynamics vise l’usine: cadence stable, déploiement dès 2028

Au CES, les humanoïdes ont défilé. Puis Atlas est monté sur scène et la catégorie a changé d’échelle. Conçu par Boston Dynamics, désormais détenu à 80 % par Hyundai, ce robot de 1,5 m (2,3 m bras tendus) cible clairement l’industrie, loin du gadget dansant. Capable de se déplacer avec assurance, de manipuler des pièces fines et, au besoin, d’enchaîner des gestes complexes, Atlas s’inscrit comme le futur bras polyvalent des ateliers où l’automatisation classique cale encore.

Atlas de Boston Dynamics vise l'usine: cadence stable, déploiement dès 2028

Cadence industrielle, pas de « coup de mou »

Hyundai prévoit un démarrage en production au RMAC, son centre d’applications dédié, avec des déploiements dans plusieurs usines du groupe à partir de 2028 et un objectif de 30 000 unités à l’horizon 2030. Le message est limpide : la stabilité prime sur la vitesse. Là où un opérateur humain baisse de régime au fil de la journée, le robot maintient une cadence constante, sans supervision lourde.

Atlas de Boston Dynamics vise l'usine: cadence stable, déploiement dès 2028

Le démonstrateur sur le stand Hyundai à Las Vegas illustrait cette logique. Atlas transférait des composants d’auto entre bacs sans se déplacer, en pivotant le torse et les membres grâce à 56 degrés de liberté. Ses préhenseurs, assez précis pour saisir des objets fragiles, s’accompagnent d’une autonomie pensée pour le terrain : fonctionnement en extérieur, dock de changement de batterie que le robot rejoint seul, architecture modulaire avec bras, jambes et mains remplaçables en quelques minutes par du personnel formé.

Pourquoi un humanoïde, et pourquoi maintenant

Boston Dynamics assume l’option biped pour une raison prosaïque : l’essentiel du parc industriel occidental fonctionne dans des bâtiments de plus de 30 ans, conçus pour des humains. Automatiser sans refaire l’usine impose un gabarit et une cinématique compatibles avec l’existant. Atlas complète un portfolio déjà orienté métier, du chien Spot aux solutions de logistique type Stretch, mais vise le multi-tâches grâce aux progrès de l’IA, notamment sur les modèles de comportement développés avec DeepMind.

À court terme, l’effort porte sur l’intelligence motrice – course, saut, danse ne sont pas qu’un show, ce sont des marges de manœuvre cinématiques pour absorber les aléas des postes. La brique « comportement » suit, avec l’ajout d’outillages et de gestes métier comme le soudage ou la construction légère. L’ambition reste pragmatique : résoudre les tâches que les robots fixes n’attrapent pas, sans restructurer la ligne.

Une course à plusieurs, des positions déjà prises

La concurrence s’aligne : Tesla pousse Optimus, Figure AI, Agility Robotics ou Apptronik avancent leur copie, et en Chine, Zoomlion déploie déjà des humanoïdes en usines. Boston Dynamics oppose une chaîne d’industrialisation existante, financée et outillée par Hyundai, avec support terrain, intégration, maintenance et logistique. Reste la question des coûts : pour beaucoup d’ateliers, l’humain demeure aujourd’hui plus économique.

Le discours social s’ajuste en conséquence. BD parie sur la montée de postes d’« opérateur robot » plutôt que sur une substitution brute à court terme. Et pour le domicile, la réponse est claire : pas avant une décennie. Le ticket d’entrée, les exigences de sécurité et l’imprévisibilité d’un intérieur rendent le marché grand public inopportun. Le calendrier interne place les déploiements industriels massifs entre 2028 et 2030, puis un éventuel virage vers le foyer cinq ans plus tard.

Atlas de Boston Dynamics vise l'usine: cadence stable, déploiement dès 2028

Si Hyundai tient la rampe industrielle et si l’IA comportementale tient ses promesses, Atlas pourrait signer la bascule de l’automatisation vers les « zones grises » de l’usine, celles que l’on a laissées humaines faute de ROI et de flexibilité. Le vrai enjeu n’est pas de remplacer un poste isolé, mais de rendre reconfigurable et résiliente une production brune sans CAPEX massif. C’est là que l’humanoïde, plus qu’un format, devient une interface universelle avec l’existant.

Source : ITHome

  •  

Benchmark APEX-Agents : les IA de bureau plafonnent à 24 % de précision

Selon une étude relayée par Digital Trends et menée par Mercor, les grands modèles d’IA peinent à exécuter des tâches de bureau réalistes : aucun ne dépasse 25 % de précision sur le nouveau benchmark APEX-Agents. Ce protocole ne teste ni poésie ni équations, mais des workflows concrets de juristes, consultants et banquiers, avec des séquences multi‑étapes faisant appel à plusieurs sources d’information.

Le meilleur score revient à Gemini 3 Flash (24,0 %), suivi de GPT‑5.2 (23,0 %). Derrière, Claude Opus 4.5 et Gemini 3 Pro affichent 18,4 %, GPT‑5 18,3 %, Grok 4 15,2 %, puis un net décrochage pour GPT‑OSS‑120B (4,7 %) et Kimi K2 Thinking (4,0 %). Ces résultats confirment la difficulté des modèles à tenir une chaîne d’actions fiable lorsqu’il faut enchaîner consultation d’agendas, historiques de messagerie, PDF et feuilles de calcul.

Benchmark APEX-Agents : les IA de bureau plafonnent à 24 % de précision

Contexte et limites du protocole

Mercor attribue l’échec récurrent à la gestion du contexte et au passage d’une source à l’autre, où les modèles confondent, mélangent ou abandonnent des étapes critiques. Dans un environnement de bureau, cette fragilité les cantonne au rôle d’« assistant stagiaire » peu fiable plutôt qu’à celui d’opérateur autonome. La méthodologie APEX-Agents se distingue en imposant une coordination d’outils et de supports hétérogènes, un point névralgique des usages réels que les benchmarks classiques éludent encore trop souvent.

Progrès rapides mais insuffisants

Mercor souligne néanmoins une progression marquée : des tests comparables plafonnaient à 5–10 % il y a un an, contre 24 % aujourd’hui pour le meilleur modèle. L’accélération est nette, sans pour autant valider une substitution proche des travailleurs du savoir tant que la gestion multi‑tâches et les bascules de contexte resteront instables. Pour les déploiements en production, la fiabilisation passera autant par l’orchestration outil‑par‑outil et la vérification systématique que par de nouveaux entraînements focalisés sur l’exécution et la mémoire de travail.

Source : ITHome

  •  

Intel Arc Pro B70 et B65 Battlemage: 32 Xe2, jusqu’à 32 Go GDDR6, lancement imminent

Intel muscle ses cartes pro avant même de parler gaming. Les Arc Pro B65 et B70 s’annoncent avec 32 Go de GDDR6, mais la variante grand public reste au frigo.

Intel Arc Pro B70/B65 Battlemage: cap sur le pro

C’est confirmé, Intel délaisse les joueurs et vise les pros avec BMG-G31. Les Arc Pro B70 et Arc Pro B65 arrivent en Q1 de cette année, avec une fenêtre probable en février ou mars. Les deux cartes s’appuient sur le die BMG-G31 destiné au haut de gamme, priorisé pour la visualisation professionnelle et les workloads IA locaux.

L’Arc Pro B70 aligne 32 cœurs Xe2 et 32 Go de GDDR6 sur bus 256-bit, soit 4 096 cœurs FP32 dans sa configuration complète. C’est le double du nombre de cœurs de l’Arc Pro B60, et le double de sa capacité mémoire sur la version mono-GPU.

Tableau des versions Intel Arc Pro B65 et B70 avec détails de lancement

L’Arc Pro B65 coupe le BMG-G31 à 20 cœurs Xe2 pour 2 560 FP32, une configuration identique à l’Arc Pro B60 côté compute, mais avec 32 Go de GDDR6 fournis d’emblée, soit +8 Go par rapport au B60. De quoi viser les stations de travail et le développement LLM local avec un ratio capacité/prix agressif face au duo AMD/NVIDIA.

Photo illustrée d'une puce intel ARC Pro

Gaming en pause: B770 repoussé

Les partenaires cartes ont reçu des dies BMG-G31 pour tests et designs custom, mais uniquement pour les SKU Pro. Aucun échantillon gaming n’a été expédié: le lancement de la grande Arc B770 est retardé, sans fenêtre proche annoncée.

Positionnement et implications

En concentrant ses volumes BMG-G31 sur le pro-viz, Intel Arc Pro s’ouvre un boulevard: beaucoup de VRAM (32 Go GDDR6) et une offre compute lisible pour les studios et l’IA locale. Le revers est clair pour les joueurs: sans B770 à court terme, le segment gaming haut de gamme reste figé, tandis que le marché pro pourrait voir Intel grignoter des parts par la mémoire et le TCO, en attendant des drivers et outils qui scellent la bascule.

Source : TechPowerUp

  •  

Intel Arc B390 : l’iGPU qui dépasse le Radeon 890M et frôle une RTX 4050 basse conso

Intel n’avance plus à petits pas sur les iGPU, il impose désormais le tempo. Avec l’Arc B390, la firme affiche un écart de performances qui ne se discute plus vraiment face au Radeon 890M d’AMD, et ce dans des enveloppes de puissance réalistes pour le mobile. Les mesures indépendantes convergent : à 25 W comme à des limites plus élevées, l’iGPU Xe3 d’Intel s’installe nettement en tête, au point de brouiller la frontière avec certaines solutions graphiques dédiées basse consommation.

Face à la Radeon 8060S des Ryezn AI MAX+, il n’y a en revanche pas de débat possible. Mais Intel l’assume pleinement et l’a même revendiqué sans détour : la firme n’a jamais cherché à concevoir un iGPU géant, et n’en a toujours pas l’intention. Sa stratégie reste centrée sur un équilibre strict entre performances graphiques, enveloppe énergétique et intégration globale, quitte à laisser le très haut de gamme iGPU à AMD.

Derrière les chiffres, c’est surtout la cohérence du comportement énergétique et la maturité de la plateforme Core Ultra qui interrogent la stratégie graphique d’AMD sur le segment grand public mobile, alors que Panther Lake ne fait que poser les premières pierres de la génération Xe3.

Arc B390: Intel creuse l’écart en iGPU

Sur un Core Ultra X9 388H avec LPDDR5X-9600, ComputerBase mesure en Full HD un Arc B390 nettement devant le Radeon 890M, à 25 W comme à des plafonds plus élevés. À 24/25 W, l’écart atteint +63% en moyenne pour Intel. Le site note aussi peu de différence entre secteur et batterie dans ses tests orientés jeu.

Graphique comparaison performance CPUs AMD Ryzen et Intel Core fond blanc

Notebookcheck place l’Arc B390 au niveau de certaines configurations basse conso de la GeForce RTX 4050 Laptop, selon les jeux et limites de puissance. Le B390 distance les Arc 140T/140V et reste devant le 890M, tandis que les iGPU Strix Halo d’AMD demeurent plus rapides mais à des budgets énergétiques bien supérieurs.

Diagramme évaluation performances ordinateurs portables divers fond blanc

Échelle de puissance et comportement

Graphique performance FPS Cyberpunk 2077 fond noir contrasté

The Phawx montre une montée en performance régulière de 10 W à 35 W, avec des victoires sur l’iGPU du Ryzen AI 9 HX 370 à puissance équivalente, y compris sur les minima d’images. Au-delà de 20 W, la courbe se stabilise de manière prévisible. Hardware Canucks confirme des tendances similaires.

Benchmark FPS Steam Deck Cyberpunk 2077 fond noir
Benchmark performance jeu Cyberpunk 2077 avec divers appareils fond noir

Gamme, feuille de route et contexte AMD

Le tableau concerne le haut de gamme iGPU: Arc B390. En dessous, l’Arc B370 et des variantes Intel Graphics (4 ou 2 cœurs Xe3) chuteront nettement en jeu. Panther Lake inaugure Xe3, avec un Xe3P attendu l’an prochain aux côtés de Nova Lake, présenté comme l’implémentation complète.

Côté AMD, la feuille de route maintient le mainstream mobile sur RDNA 3.5, tandis que les mises à jour iGPU RDNA5 viseraient surtout le haut de gamme. En volume, la majorité resterait donc sur une base graphique plus ancienne, ce qui laisse de la marge à Intel sur ce segment.

Source : VideoCardz

  •  

Serveur AI Grace-Blackwell de Giga Computing en DLC : densité 2U sans refonte

Giga Computing, filiale de Gigabyte, lance le serveur AI XN24-VC0-LA61 en watercooling direct, bâti sur la plateforme Nvidia GB200 NVL4. Format 2U, double processeur, architecture hétérogène CPU + GPU, il vise les nœuds cœur d’infrastructures AI à haute densité sans imposer un déploiement rack complet.

Architecture Grace + Blackwell, refroidie en DLC

Vue interne du serveur AI Grace-Blackwell Giga Computing, montrant la carte NVIDIA GB200 NVL4

Le châssis intègre deux CPU Nvidia Grace (ARM) et quatre GPU Nvidia Blackwell, avec watercooling direct sur les composants critiques. Chaque Grace est associé à 480 Go de LPDDR5X ECC, tandis que les GPU montent jusqu’à 186 Go de HBM3E par carte. La conception modulaire permet d’augmenter la densité de calcul Blackwell sans refonte d’allée froide/chaude.

Côté réseau, le serveur s’aligne sur les fabrics Nvidia actuelles : Quantum-X800 en InfiniBand jusqu’à 800 Gb/s par port, ou Spectrum-X en Ethernet jusqu’à 400 Gb/s. L’objectif est clair : réduire la latence inter-nœuds tout en maintenant des débits soutenus pour l’entraînement distribué et l’inférence à grande échelle.

Arrière du serveur AI avec emplacements PCIe, ports OSFP et alimentation redondante

Stockage PCIe Gen5 et DPU en option

Jusqu’à 12 emplacements NVMe PCIe 5.0 sont disponibles pour le stockage local haute performance. Des DPU Nvidia BlueField peuvent être ajoutés pour le déchargement réseau/sécurité et l’isolement des flux, utile en multi-tenant ou pour la télémetry à large échelle. L’alimentation redondante certifiée 80 Plus Titanium sécurise la continuité en pleine charge.

Le positionnement est sans ambiguïté : offrir une brique compacte 2U capable de délivrer des perfs Blackwell en environnement data center existant, avec une enveloppe thermique maîtrisée grâce au DLC. Dans la course aux clusters AI hautement maillés, cet assemblage Grace + Blackwell + X800/Spectrum-X coche les cases d’échelle, d’efficacité énergétique et de débit est-ouest, tout en réduisant la dette d’intégration côté thermique.

Source : ITHome

  •  

Intel Core Ultra 300 : pas de rival Strix Halo prévu, Tom Petersen tacle l’efficacité iGPU d’AMD

Intel ne compte pas suivre AMD sur la voie des iGPU surdimensionnés. Face à Strix Halo, la réponse du fondeur est nette : ce n’est pas une direction qu’il juge pertinente.

Interrogé par Club386, Tom Petersen, fellow chez Intel et figure clé du pôle graphique, écarte explicitement l’idée d’un équivalent maison à Strix Halo. Selon lui, ce segment serait mieux servi par un GPU dédié compact que par un iGPU surdimensionné intégré au processeur.

Derrière cette déclaration se dessine une rupture stratégique assumée entre deux visions opposées du futur graphique en mobilité.

Pourquoi Intel refuse de suivre AMD

Intel ne remet pas en cause l’intérêt technique de Strix Halo. La plateforme Ryzen AI Max+ démontre qu’un iGPU peut atteindre des niveaux de performances jusque-là réservés à des GPU dédiés d’entrée de gamme. Mais pour Intel, le problème n’est pas technologique, il est structurel.

Un iGPU géant implique une surface de silicium importante, des coûts de production plus élevés et une pression thermique difficile à maîtriser dans des formats mobiles. À mesure que la taille du GPU intégré augmente, l’équilibre entre consommation, rendement et flexibilité se dégrade.

Tom Petersen l’exprime sans détour : dès lors que l’on sort du périmètre du graphique intégré classique, le GPU dédié redevient plus pertinent. Pour Intel, cette frontière ne doit pas être brouillée.

Les progrès récents des iGPU Intel changent la donne

Cette position serait difficile à défendre si les iGPU Intel restaient en retrait. Or, la génération Core Ultra récente marque un vrai tournant. Les graphiques intégrés Arc ont progressé de manière visible, offrant désormais une expérience correcte en jeu occasionnel et des performances solides pour les usages quotidiens.

Intel estime avoir atteint son objectif : proposer un iGPU suffisamment performant pour couvrir la majorité des usages, sans exploser les budgets énergétiques. Aller au-delà ne relèverait plus de l’iGPU, mais d’un autre produit.

Dans cette logique, Strix Halo apparaît moins comme un modèle à suivre que comme une exception volontairement extrême.

Strix Halo, une approche radicalement différente

Du côté d’AMD, la démarche est inverse. Strix Halo assume une approche brute : multiplier les unités de calcul, augmenter la surface GPU et viser des performances maximales, quitte à s’éloigner des standards habituels du graphique intégré.

Ce positionnement n’est pas pensé avant tout pour le gaming classique. AMD vise surtout les stations de travail mobiles, la création de contenu et certaines charges de calcul GPU, dans des machines où l’ajout d’un GPU dédié n’est pas toujours souhaitable.

Dans ce contexte, l’iGPU géant devient un compromis assumé plutôt qu’un non-sens technique.

Performance par watt, l’argument central d’Intel

Intel insiste sur un point clé : la performance par watt. Selon Tom Petersen, les solutions de type Strix Halo ne seraient pas compétitives sur ce terrain, un critère pourtant décisif en mobilité et dans les ultraportables premium.

Un GPU intégré de grande taille consomme davantage, chauffe plus et limite les marges d’optimisation thermique. À l’inverse, un GPU dédié compact peut être activé uniquement lorsque nécessaire, tout en laissant l’iGPU gérer les tâches légères.

Cette approche modulaire correspond davantage à la vision d’Intel, qui préfère multiplier les options plutôt que de tout concentrer dans un seul bloc de silicium.

Intel prépare la suite côté GPU dédiés

Refuser Strix Halo ne signifie pas abandonner le graphique. Intel continue d’investir lourdement dans ses GPU dédiés Arc, avec une attention particulière portée à l’efficacité énergétique et à l’intégration.

Les prochaines générations Battlemage doivent justement incarner cette stratégie : proposer des GPU dédiés plus compacts, capables de compléter efficacement un iGPU moderne, sans les compromis d’un iGPU géant intégré au CPU.

Pour Intel, l’avenir du graphique passe par une séparation claire des rôles, pas par leur fusion extrême.

Deux visions, un même objectif

AMD et Intel poursuivent finalement le même but : offrir plus de performances graphiques dans des machines toujours plus compactes. Mais leurs chemins divergent radicalement.

AMD pousse le concept d’iGPU jusqu’à ses limites. Intel préfère renforcer l’efficacité globale et s’appuyer sur des GPU dédiés lorsque la puissance devient critique.

Le marché décidera laquelle de ces visions s’imposera. Une chose est certaine : face à Strix Halo, Intel ne se justifie pas. Il tranche.

Si Intel refuse la surenchère « APU géant », le marché pourrait se scinder: d’un côté des laptops IA-first avec iGPU massifs à prix premium, de l’autre des plateformes plus équilibrées où un iGPU gaming « suffisant » s’adosse à des dGPU d’entrée de gamme. Le point dur restera l’efficacité: si AMD convertit les 2 560 SP du 8060S en gains réels par watt, l’équation tarif/performances pourrait rebattre les cartes en 2026.

Source : Club386 via VideoCardz

  •  

Intel Core Ultra 300 Panther Lake : premiers tests, CPU hybride et iGPU Xe3 en progrès

Intel Core Ultra 300 débarque enfin en test, et les premiers laptops confirment un cap : CPU hybride plus musclé, iGPU Xe3 en nette hausse et accélération IA sur plateforme client Intel 18A.

Intel Core Ultra 300 Panther Lake : la nouvelle vague mobile

Contrairement aux attentes initiales, la couverture ne se limite pas à une seule puce. La famille Panther Lake englobe plusieurs références Core Ultra X9, X7, Ultra 7 et Ultra 5, positionnées comme la Série 3 mobile d’Intel. Au cœur de l’offre, un design hybride avec un accent renforcé sur le GPU intégré et l’IA embarquée. Les configurations les plus hautes grimpent jusqu’à 16 cœurs CPU, répartis entre performances, efficience et ultra-basse consommation.

Côté graphique, les modèles supérieurs adoptent des iGPU Xe3 estampillés Intel Arc B-series. Le palier Arc B390 aligne jusqu’à 12 Xe-cores, le changement le plus stratégique aux yeux des testeurs. D’après la source, « il s’agit de la mise à niveau la plus importante » pour cette génération, avec des gains attendus sur l’affichage, les moteurs médias et le jeu en mobilité.

Intel Panther Lake : les premiers tests

  • ASCII – How does the PC equipped with the top-of-the-line Core Ultra X9 388H processor in the Core Ultra Series 3 perform?
  • Club386 – Intel Core Ultra Series 3 review: outstanding battery life and a great iGPU
  • ComputerBase – Core Ultra X9 388H review: Intel Panther Lake with Arc B390 is a graphics beast
  • ETA PRIME – Intel Panther Lake Is Here! Hands On With Their Most Powerful iGPU!
  • HardwareLuxx – ASUS Zenbook Duo (2026) in the test
  • Hot Hardware – Intel Core Ultra X9 388H Review: Panther Lake Tests Strong
  • NotebookcheckReviews – Intels Panther Lake X9 – delivered as promised! Asus Zenbook Duo 2026 review
  • Mark Linsangan – Asus Zenbook Duo 2026 – Intel Panther Lake is AMAZING!
  • PCMAG – First Tests: Intel’s ‘Panther Lake’ Flagship Chip for Laptops Is a Graphics Revelation | Lab Report
  • PC Watch – Twice as impressive as the previous generation! The new “Core Ultra X9 388H” redefines the concept of laptops
  • PC World – Intel’s Panther Lake points to a future where integrated graphics doesn’t suck
  • TechTablets – ASUS Zenbook DUO Review With NEW Intel Core Ultra X9 388
  • Tech Spurt – Dual-Screen Powerhouse! | ASUS Zenbook Duo (2026) laptop with Intel Core Ultra Series 3
  • The Phawx –  Intel Panther Lake is AMAZING – Asus Zenbook Duo 2026 Review
  • The Verge – Asus Zenbook Duo (2026) review: twice as nice — for a price
  • Wccftech – ASUS Zenbook Duo “Intel Core Ultra X9 388H” Laptop Review: Review In Progress
  • WIRED – Intel’s Panther Lake Chip Is Its Biggest Win in Year

Jeu portable et architecture commune

Intel prépare en parallèle une variante orientée consoles portables, la Core G3 series, basée sur la même architecture. Selon les informations partagées, ce dérivé vise à capitaliser sur les progrès du GPU Xe3 et le bloc IA local pour des usages ludiques et créatifs sur batterie.

Reste désormais à confronter ces premières observations aux prochains tests approfondis : performances CPU multi-clusters, montée en puissance de l’iGPU Arc B-series, efficacité sous Intel 18A et comportement en IA embarquée.

Source : VideoCardz

  •  

Gamers vs IA - Des jeux annulés sur de simples suppositions... mais lol

Alors ça, c'est une news qui m'énerve un peu ! Parce que oui, écouter sa communauté c'est bien, sauf que ça veut pas dire qu'elle a toujours raison.

En ce moment, y'a une vague de joueurs en colère qui forcent des studios de jeux vidéos à annuler des projets ou à prendre leurs distances avec tout ce qui touche de près ou de loin à l'IA générative. Et du coup, des jeux se font dézinguer avant même d'avoir prouvé quoi que ce soit.

Prenez Postal: Bullet Paradise. Le trailer sort, des joueurs crient à l'IA dans les graphismes, et hop, l'éditeur Running With Scissors annule tout . Le studio Goonswarm Games ferme boutique. Pouf, tout ça pour des soupçons ! Ils ont admis après coup que du matos promo contenait peut-être de l'IA, mais le jeu lui-même ? Nop, y'avait pas d'IA. C'est con hein ?

Y'a aussi Clair Obscur: Expedition 33 , le RPG de Sandfall Interactive qui a raflé le Game of the Year aux The Game Awards 2025 (avec 9 prix sur 12 nominations !). Sauf que les Indie Game Awards lui ont retiré ses deux prix parce que le studio avait utilisé de l'IA comme placeholders pendant le dev. Le directeur Guillaume Broche a pourtant été clair : tout dans le jeu final est fait par des humains. Hé bien ça n'a pas suffi !

Et même Larian, les papas de Baldur's Gate 3, se sont pris un shitstorm quand Swen Vincke a confirmé que le studio utilisait l'IA générative pour le concept art et l'exploration d'idées sur le prochain Divinity. Il a dû faire marche arrière après que des ex-employés ont révélé que certains devs étaient contre cette décision en interne. Tout ça pour du concept art qui n'aurait même pas été dans le jeu final !

Perso, je comprends pas que ce soit un débat. Un bon jeu, c'est quoi ? C'est un gameplay qui tient la route, une histoire qui accroche, des mécaniques bien foutues. Pas le fait qu'un humain ait dessiné chaque pixel à la main.

Y'a des tas d'humains qui produisent de la merde tous les jours. Pourquoi ce serait automatiquement meilleur qu'une IA bien pilotée par des gens qui savent ce qu'ils veulent ? Une IA toute seule, ça fait du slop générique. Mais une IA guidée par des créatifs avec une vision ? Ça peut aller plus vite, réduire les coûts, et même permettre d'explorer des trucs qu'on n'aurait jamais tentés autrement.

Les studios qui cèdent à la pression et annulent des projets juste pour prouver qu'ils ont embauché des artistes, je suis pas sûr que ça donne de meilleurs jeux au final. Ça donne juste des jeux qui ont coûté plus cher à produire !

Bref, à la fin il restera que les bons jeux. IA ou pas. Au chiotte le slop IA, et aux chiottes les Angry Gamers qui tuent des projets sur des suppositions à la con !

Source

  •  

Telnetd - Une faille vieille de 11 ans est un accès root

Telnet, ça vous dit quelque chose ?

C'est ce vieux protocole réseau non chiffré que nos arrières-arrières-arrières-grands-parents utilisaient pour se connecter à des serveurs distants. C'est un truc que vous pensiez peut-être enterré depuis belle lurette... Hé bien figurez-vous qu'une faille critique vieille de 11 ANS vient d'être découverte dans le serveur telnetd de GNU InetUtils. Et le pire c'est que des hackers l'exploitent déjà activement.

ARGH !

La vulnérabilité en question, baptisée CVE-2026-24061 , permet de contourner complètement l'authentification et d'obtenir un accès root. Sans putain de mot de passe (!!!!).

Bon ok, faut quand même que le service telnetd soit actif et exposé, mais après c'est open bar les amis ! En gros, le serveur telnetd passe la variable d'environnement USER directement à la commande login sans la nettoyer. Du coup, un attaquant n'a qu'à définir USER sur -f root et utiliser **telnet -a** pour se retrouver connecté en root.

C'est moche.

Concrètement, ça touche toutes les versions de GNU InetUtils de la 1.9.3 jusqu'à la 2.7. Ça touche donc des distributions Linux, de vieux routeurs, des capteurs industriels...etc. Après, les machines exposées sur Internet avec Telnet actif c'est quand même assez rare, donc faut pas non plus paniquer.

Cependant, les attaquants n'ont pas attendu. La société GreyNoise a documenté des exploitations actives entre le 21 et le 22 janvier, soit très rapidement après la divulgation du 20 janvier. Ils ont ainsi observé 18 adresses IP différentes lancer une soixantaine de sessions Telnet, avec 83% des tentatives ciblant directement le compte root. Du travail de pros. }}

Heureusement, un correctif existe \o/ : GNU InetUtils 2.8 colmate la brèche mais combien de ces vieux équipements IoT ou industriels vont vraiment être mis à jour ? On connaît tous la chanson par cœur !

Mais bon, si vous avez des machines exposées avec telnetd actif, vous avez trois options : mettre à jour vers la version 2.8, désactiver complètement le service telnetd, ou bloquer le port TCP 23 au niveau du firewall. Perso, je vous conseille carrément de virer Telnet et de passer à SSH si c'est pas déjà fait. En 2026, y'a vraiment plus aucune excuse pour utiliser un protocole qui n'est pas chiffré.

Bref, encore une vieille faille qui traînait depuis 2015 et qui refait surface au pire moment.

Merci à Arfy pour l'info !

[Source]( https://www.bleepingcomputer.com/news/security/hackers-exploit-critical-telnetd-auth-bypass-flaw-to-get-root

  •  

Epic Pen 3.12.172.0

Dessinez virtuellement sur votre écran, au-dessus de votre Bureau ou de n'importe quelle application...
  •  

CalendarTask 3.26.265.8458

Logiciel gratuit et en français permettant d'afficher en transparence sur votre Bureau d'ordinateur un véritable calendrier et de le synchroniser avec vos autres appareils...
  •  

Eqonomize! 1.5.12

Logiciel pour suivre au quotidien vos finances personnelles...
  •  

TikTok aux États-Unis : Xavier Niel entre au capital de la nouvelle entité

TikTok aux États-Unis : Xavier Niel entre au capital de la nouvelle entitéAprès plusieurs années de tensions politiques et réglementaires, TikTok a trouvé une issue pour maintenir ses activités aux États-Unis. L’application, utilisée par plus de 200 millions d’américains, devait répondre aux exigences de Washington en matière de sécurité nationale et de protection des données. C’est pour cette raison que ByteDance, sa maison-mère chinoise, avait annoncé la […]
  •  

Robots chez Tesla : Elon Musk fixe enfin une date pour Optimus

Robots chez Tesla : Elon Musk fixe enfin une date pour OptimusDepuis plusieurs années, Elon Musk nourrit l’ambition de faire du robot humanoïde un objet du quotidien. Présent pour la première fois au Forum économique mondial de Davos, le patron de Tesla a remis Optimus au centre du jeu, en détaillant un calendrier de commercialisation et une vision très large de son rôle futur. Une commercialisation […]
  •  

L’IA progresse dans les entreprises françaises, mais son potentiel reste largement sous exploité

L'IA progresse dans les entreprises françaises, mais son potentiel reste largement sous exploitéSi l’IA est encore perçue comme un outil d’expérimentation, si bien que 95% des projets échouaient selon le MIT l’an dernier, elle devient désormais un levier structurant pour les grandes entreprises françaises. En effet, la dernière édition de l’étude Trends of AI, menée par Les EnthousIAstes et KPMG auprès de 356 décideurs, dresse un panorama […]
  •  
❌