↩ Accueil

Vue lecture

Quand Blizzard écrase le rêve de fans qui voulaient refaire WoW en Unreal Engine 5

Sale nouvelle pour les fans de World of Warcraft classic. J'sais pas si vous vous souvenez de Turtle WoW, ce serveur privé qui permettait de jouer à WoW vanilla sans abonnement et avec du contenu inédit, mais cet ambitieux projet vient de passer à la trappe. Malheureusement, Turtle WoW 2.0, ce remake complet en Unreal Engine 5, est officiellement DÉCÉDÉ !

Et pourtant, ce projet faisait rêver les fans. C'était World of Warcraft Classic avec des graphismes de qualité et le trailer sorti en septembre avait explosé les compteurs avec 200 000 vues sur YouTube. Le lancement était prévu pour décembre, bref, tout semblait sur les rails.

Mais c'était sans compter sur les affreux avocats de Blizzard qui ont attaqué Turtle WoW en justice. Et pas qu'un peu puisque les accusations font mal : violation de copyright, contournement des protections anti-piratage, et carrément du RICO (la loi anti-mafia américaine !). Blizzard accuse le serveur privé d'être une "entreprise criminelle internationale" qui profite des dons des joueurs tout en utilisant leurs assets sans autorisation.

Sur les forums de la communauté, plusieurs joueurs expliquent que Blizzard aurait envoyé des mises en demeure à toutes les entreprises qui collaboraient avec Turtle WoW. Difficile donc de poursuivre ce projet ambitieux quand un géant de l'industrie du jeux vidéo vous tombe dessus avec ses armées d'avocats à petits bras.

Et le truc "marrant" (quel hasard, dites donc...) c'est que Blizzard prépare justement son propre "Classic+". En gros, il vont faire exactement ce que Turtle WoW proposait gratuitement depuis des années, avec des races inédites comme les Gobelins ou les Hauts-Elfes, et du contenu tiré de Warcraft 3 mais en full payant pour les pigeons, euh pardon les joueurs qui souhaiteraient encore se faire essorer un petit peu.

Alors bien sûr, je comprends la position de Blizzard sur le papier car c'est leur propriété intellectuelle, leur jeu, leurs assets et légalement, ils sont dans leur droit. Mais voir une communauté de passionnés se faire écraser comme un moustique avec toutes ces accusations alors qu'elle ne faisait qu'entretenir la flamme d'un jeu que Blizzard avait abandonné durant des années, c'est moche je trouve.

Je ne suis pas sûr que l'image de Blizzard en sorte grandie car Turtle WoW avait quand même réussi à rassembler 44 000 joueurs en simultané à son pic, avec une communauté de près de 500 000 joueurs actifs. C'est pas rien, surtout sur un jeu sorti il y a 20 ans... c'est beau, non ?

Alors pour le moment, le serveur privé continue de tourner même si le domaine a migré de turtle-wow.org vers turtlecraft.gg. Après combien de temps avant que Blizzard n'obtienne sa fermeture définitive ? On verra bien... En tout cas, le procès suit son cours...

Voilà, c'est la fin d'un rêve pour ceux qui espéraient voir Azeroth renaître en Unreal Engine 5. Ça ne restera donc qu'une démo technique impressionnante qui ne verra jamais le jour, et surtout un rappel douloureux que face aux géants de l'industrie qui ne jurent que par le pognon, les projets les plus beaux portés par les fans n'ont pas de valeur à leurs yeux.

Source

  •  

Test : MSI MPG A1250GS PCIE5, l’efficacité ATX 3.1 compacte

  Aujourd’hui dans la Cuisine du Hardware, nous passons en test un bloc d’alimentation musclé fournissant 1250W. Voici le bloc MSI MPG A1250GS PCIE5 disposant des dernières normes ATX 3.1 et PCIe 5.1 avec une certification 80 PLUS Gold. Voyons en détail ce que propose cette alimentation qui vise le cœur du marché des configurations […]

L’article Test : MSI MPG A1250GS PCIE5, l’efficacité ATX 3.1 compacte est apparu en premier sur HardwareCooking.

  •  

Hackberry Pi CM5 - Construisez votre propre cyberdeck de pentester

Vous connaissez les cyberdecks ?

Non ?? Pourtant, je vous en ai parlé déjà. Ce sont des petits ordis portables custom qu'on voit par exemple dans les films cyberpunk, où genre, le mec sort son bouzin de sa poche et hop, il peut hacker le monde entier. HACK THE PLANET !! Oué Oué !

Et bien tenez-vous bien car le Hackberry Pi CM5 9900 , c'est exactement ça, mais en vrai !

Le Hackberry Pi c'est donc un projet DIY qui transforme un Raspberry Pi Compute Module 5 en plateforme de hacking portable, ce qui est parfait pour les pentesters, les gens de l'infosec, ou simplement les geeks qui veulent un Linux puissant dans un format ultra-compact.

Le châssis mesure 143,5 x 91,8 x 17,6 mm pour 306 grammes et vous avez une coque en aluminium sur le devant et le dos, avec une partie centrale imprimée en 3D. À l'intérieur, un écran tactile 720x720, un vrai clavier physique style BlackBerry 9900, et un Raspberry Pi CM5 avec un quad-core Cortex-A76 qui tourne à 2,4 GHz.

L'écran est carré, ce qui est un format assez inhabituel mais plutôt pratique quand vous bossez en terminal. Le clavier, c'est celui du BlackBerry 9900, donc un vrai clavier physique avec des touches qui cliquent, et si vous avez déjà tapé sur un clavier tactile pendant 3 heures d'affilée, vous comprendrez pourquoi c'est cool.

Côté connectique, vous avez aussi 2 ports USB 3.0, un HDMI pleine taille, un slot M.2 2242 pour un SSD NVME, un lecteur microSD, une batterie de 5 000 mAh, et même des enceintes stéréo intégrées. La batterie vous donnera environ 5 heures en veille et 3 ou 4 heures en utilisation active. Et une recharge complète se fera en 3 heures via USB-C.

Donc plutôt que d'utiliser votre ordi principal pour vos tests de sécu, vous pouvez monter un environnement dédié sur ce petit deck. Vous flashez Kali Linux sur le SSD NVME, vous ajoutez quelques dongles WiFi style ALFA Network AWUS036ACM, peut-être un adapteur Bluetooth, un hub USB, et hop, vous avez une plateforme de pentesting portable.

Le truc cool, c'est surtout que le projet est modulaire donc vous pouvez par exemple modifier l'antenne WiFi.. Les fichiers STL sont également dispo en ligne, donc si vous avez une imprimante 3D, vous pouvez vous imprimer un support d'antenne custom. Certains ont même ajouté des radios logicielles (SDR) pour jouer avec les fréquences radio.

Ensuite, l'installation est assez simple. Vous commencez par insérer le module CM5 dans son slot dédié, vous ajoutez le SSD NVME, vous imprimez éventuellement votre support d'antenne custom, vous flashez Raspbian sur une carte microSD pour le boot initial, puis vous installez Kali Linux sur le NVME, et vous configurez les options de boot pour démarrer directement depuis le SSD.

Si vous avez capté tout ce qui est écrit ci-dessus, ce sera simple oui. Sinon, faudra lire un peu de doc ^^.

Le système supporte aussi plusieurs OS : Kali pour le pentesting, Pi OS par défaut, Ubuntu, LineageOS (Android), Manjaro, TwisterOS, ou même ParrotOS. Et vous pouvez basculer entre les environnements selon ce que vous voulez faire.

Maintenant niveau prix, comptez environ 300-350 dollars pour le setup complet. Le châssis Hackberry Pi CM5 9900 coûte 168 dollars, le module Raspberry Pi CM5 Lite avec 16 Go de RAM tourne à 132 dollars, vous ajoutez un SSD NVME de 256 Go, la batterie 5 000 mAh avec charge MagSafe, et quelques accessoires.

C'est dispo chez plusieurs revendeurs : Elecrow, Carbon Computers, Tindie, ou même Etsy mais le module CM5 par contre, faudra le sourcer séparément, genre chez Pishop.us.

Ce projet a été développé par ZitaoTech, c'est open source, donc toute la communauté peut contribuer, améliorer les designs, partager des configs, etc et y'a d'ailleurs déjà pas mal de mods qui circulent, notamment des antennes externes pour améliorer la portée WiFi pendant les tests de pénétration.

Comme ça, si vous êtes dans la sécu offensive, c'est quand même pratique d'avoir un device dédié qui ne risque pas de foutre en l'air votre config perso si un test part en vrille. Vous isolez vos outils, vos payloads, vos exploits sur un système séparé, et si ça plante, bah vous rebootez le deck, c'est tout.

Et puis franchement, c'est plutôt classe je trouve de sortir un truc comme ça de sa poche. Ça donne l'impression que vous êtes en mission, comme dans les films... vous dégainez votre petit cyberdeck avec son clavier BlackBerry, vous vous branchez sur un port Ethernet, et hop, vous lancez vos scans. Ça a plus de gueule je trouve qu'un laptop Dell sous Windows avec un autocollant Mr. Robot ^^.

A découvrir ici !

  •  

GTA Tokyo : pourquoi Rockstar a renoncé à l’aventure hors USA selon un ex-directeur

GTA Tokyo a vraiment été envisagé. Selon l’ex-directeur technique de Rockstar, Obbe Vermeij, le studio a sérieusement étudié un épisode au Japon, avant de refermer la piste internationale à mesure que la franchise grossissait.

GTA Tokyo, le projet qui a failli exister

D’après une interview récente publiée par GamesHub, Obbe Vermeij indique que Rockstar a considéré une déclinaison baptisée GTA Tokyo durant sa période au studio, entre 1995 et 2009. Le développement aurait été confié à un studio au Japon, chargé de l’histoire et des assets, tandis que le moteur et le code de base auraient été fournis par Rockstar.

Tokyo était la piste la plus avancée. Vermeij cite aussi des réflexions autour de Rio de Janeiro, Moscou et Istanbul. Mais l’éditeur a fini par privilégier les États-Unis, notamment pour la familiarité culturelle et la lisibilité globale de ses décors. À propos de cette frilosité, l’ex-cadre résume : « Quand des milliards de dollars sont en jeu, on refait ce qu’on sait », selon lui.

Pourquoi Rockstar n’a pas quitté l’Amérique

Vermeij estime qu’un GTA international devient de moins en moins probable à mesure que la série grandit. L’enjeu financier pousse à réduire les risques, quitte à revisiter d’anciennes villes plutôt que de sortir des États-Unis. Le prochain épisode, Grand Theft Auto VI, reste d’ailleurs ancré sur le sol américain, sauf nouveau report après celui évoqué pour novembre 2026.

Il semblerait que le pari d’un GTA Tokyo se soit heurté à un calcul simple : la culture US s’impose partout, même en jeu vidéo, et garantit une base commune aux joueurs. Pour Vermeij, il est plus probable de revoir des villes déjà connues que de s’aventurer hors Amérique.

Source : TechPowerUp

  •  

Intel Core Ultra 200K Plus : Le plan secret pour briser le verrou d’Arrow Lake en 2026 ?

L’architecture Arrow Lake a impressionné par son efficacité, mais a déçu les joueurs à cause d’une latence interne trop élevée. Pour 2026, Intel préparerait une riposte baptisée Core Ultra 200K Plus. Au programme : une révision chirurgicale des interconnexions pour libérer enfin le potentiel des « Tiles ».

Lors du lancement des Core Ultra 200S, un constat a frappé la communauté hardware : malgré des fréquences élevées et une RAM ultra-rapide Cudimm, les performances en jeu stagnaient. Le coupable ? La latence de communication entre la dalle de calcul (Compute Tile) et le contrôleur mémoire situé sur une autre dalle (SoC Tile).

La fin du goulot d’étranglement « Foveros » ?

Selon les informations qui circulent et notre propre analyse, le gain de performances attendu de la gamme Core Ultra 200K Plus (Refresh) ne reposerait pas uniquement sur une hausse des fréquences, mais surtout sur une optimisation des interconnexions Die-to-Die.

Arrow Lake Ultra 200S Chiplet

Intel pourrait introduire une révision de sa technologie d’empilement 3D Foveros. En augmentant la bande passante de la « Fabric » (le bus qui relie les dalles entre elles), Intel réduirait le temps de trajet des données. Ce changement, bien que discret, permettrait aux cœurs de recevoir les informations plus rapidement, annulant ainsi le « malus » du design en chiplets par rapport aux anciennes puces monolithiques.

Arrow Lake DieShot 3

Des gains massifs là où ça faisait mal

Cette amélioration de l’infrastructure interne, couplée à un nouveau microcode plus agressif sur le Ring Bus, permettrait des bonds de performances spectaculaires :

  • +10% à +15% de performances globales.
  • Jusqu’à +30% dans les jeux « e-sport » (Valorant, CS2, LoL), extrêmement sensibles aux micro-délais de communication interne.

Intel Core Ultra 200K Plus : Trois nouveaux fleurons en approche

Intel conserve le socket LGA 1851 et la compatibilité avec les cartes mères série 800, mais bousculerait la hiérarchie avec trois modèles « K » optimisés. Le Core Ultra 9 290K Plus proposerait une configuration à 8 P-cores et 16 E-cores, avec des fréquences très élevées et une latence minimale. Le Core Ultra 7 270K Plus passerait lui aussi à 16 cœurs E, contre 12 auparavant, tandis que le Core Ultra 5 250K Plus grimperait à 12 cœurs E au lieu de 8.

Arrow Lake vs Arrow Lake Refresh
VideoCardz.com Ultra 9 290K Plus🆕 Ultra 9 285K Ultra 7 270K Plus🆕 Ultra 7 265K Ultra 5 250K Plus🆕 Ultra 5 245K
Cœurs (P+E) 8P+16E 8P+16E 8P+16E 8P+12E 6P+12E 6P+8E
TVB 5,8 GHz 5,7 GHz
Turbo Boost Max 5,6 GHz 5,6 GHz 5,5 GHz 5,5 GHz
Turbo P-Core 5,6 GHz 5,5 GHz 5,4 GHz 5,4 GHz 5,3 GHz 5,2 GHz
Turbo E-Core 4,8 GHz 4,6 GHz 4,7 GHz 4,6 GHz 4,7 GHz 4,6 GHz
Base P-Core 3,7 GHz 3,7 GHz 3,7 GHz 3,9 GHz 4,2 GHz 4,2 GHz
Base E-Core 3,2 GHz 3,2 GHz 3,2 GHz 3,3 GHz 3,5 GHz 3,6 GHz
Support mémoire DDR5-7200 DDR5-6400 DDR5-7200 DDR5-6400 DDR5-7200 DDR5-6400
Puissance de base 125 W 125 W 125 W 125 W 125 W 125 W
Puissance turbo max 250 W 250 W 250 W 250 W 159 W 159 W

Lire aussi : Arrow Lake Refresh : Core Ultra 290K/270K/250K Plus en fuite, les specs

Plus qu’un Refresh, une correction matérielle

Au-delà de la puissance brute, Intel agrandirait légèrement le Die pour muscler le NPU (Neural Processing Unit). L’objectif est clair : dépasser les 40 TOPS pour valider le label « Copilot+ PC » de Microsoft et s’imposer sur le terrain de l’IA locale, tout en corrigeant les erreurs de jeunesse d’Arrow Lake.

Le rendez-vous serait fixé au premier trimestre 2026. Si ces optimisations au niveau des Tiles se confirment, Intel pourrait enfin transformer son essai technologique en un succès total, tant pour les créateurs que pour les gamers les plus exigeants.

FAQ : Tout savoir sur le Core Ultra 200 Plus (Arrow Lake Refresh)

Le Core Ultra 200 Plus règle-t-il enfin les problèmes de performance en jeu ?

Oui, c’est l’objectif principal de ce Refresh. Contrairement à la première génération qui souffrait d’une latence élevée entre ses différentes « Tiles » (dalles de silicium), la série Plus optimiserait l’interconnexion Foveros et le Ring Bus. Ces ajustements matériels visent à réduire les temps d’attente internes, offrant une fluidité bien supérieure dans les titres e-sport et les jeux CPU-vores.

Faudra-t-il changer de carte mère (Socket LGA 1851) ?

Bonne nouvelle : Non. Les nouveaux processeurs Core Ultra 200S Plus sont totalement compatibles avec les cartes mères actuelles équipées du socket LGA 1851 (chipsets Z890, B860). Une simple mise à jour du BIOS suffira pour installer ces nouveaux modèles.

Pourquoi Intel mise-t-il autant sur le NPU dans cette version ?

Le NPU (l’unité dédiée à l’IA) passe à une nouvelle architecture capable de dépasser les 40 TOPS. C’est un point crucial car cela permet enfin aux PC de bureau d’accéder nativement aux fonctionnalités Copilot+ PC de Windows sans dépendre uniquement de la carte graphique. C’est un pari sur l’avenir des logiciels dopés à l’IA.

Quelle est la différence entre le Core Ultra 200S actuel et la version Plus ?

Le changement est double :
Architectural : Une révision des bus de données internes pour réduire la latence.
Quantitatif : Une augmentation du nombre de cœurs d’efficacité (E-cores) sur les modèles i5 et i7, et des fréquences Turbo revues à la hausse pour dépasser les 5,8 GHz sur le flagship.

  •  

Support GPU vertical PCIe 5.0 Cooler Master : kit modulable et câble 165 mm

Un Support GPU vertical PCIe 5.0 en vue chez Cooler Master : le nouveau kit fait sauter la limite de l’ancienne version PCIe 4.0 ARGB, avec un riser x16 de 165 mm taillé pour les RTX 50 Blackwell et une installation sans outil.

Support GPU vertical PCIe 5.0 : nouveau kit en Chine

Conçu pour le montage vertical dans des boîtiers standards, le kit vise les configurations ATX et mATX, avec compatibilité E-ATX listée sur la fiche technique. Cooler Master promet une approche modulaire : la partie du support se retire pour passer d’ATX à mATX, et l’ensemble se monte sans tournevis. Le câble riser fourni est un modèle PCIe 5.0 x16 de 165 mm, dimension clé pour garder la bande passante des GPU récents.

Support GPU vertical Cooler Master PCIe 5.0 modulable avec câble 165 mm, vue latérale du kit d'installation fixé à un boîtier

L’ajustement est soigné : translation latérale jusqu’à 65 mm et déport avant/arrière jusqu’à 30 mm pour centrer la carte face à la vitre ou optimiser la prise d’air. D’après la fiche, la compatibilité couvre des cartes jusqu’à 49 cm de long et des boîtiers offrant au moins quatre slots PCI. Le support accepte des GPU jusqu’à 3 slots d’épaisseur et impose une hauteur de ventirad CPU maximale de 190 mm.

Modulaire, outil‑free, déclinaisons noir et blanc

Support GPU vertical Cooler Master PCIe 5.0 modulable avec câble 165 mm fixé à une carte graphique, vue rapprochée du design

Cooler Master souligne une installation « sans tournevis requis » et des réglages fins gauche‑droite comme avant‑arrière. Le kit est proposé en noir et en blanc au même tarif. Il est listé sur JD.com à 499 RMB, soit environ 70 € à titre indicatif.

Source : VideoCardz

  •  

Intel Foveros 3D et EMIB-T : jusqu’à 16 dies et 24 HBM5 dans un seul package

Intel Foveros s’attaque au mur du réticule : Intel affiche un package 12 fois plus grand que les 830 mm², capable de réunir 16 compute dies et 24 modules HBM5. Selon une courte démonstration de sa division Foundry, le groupe agrège ses interconnexions Foveros 3D et EMIB-T et s’appuie sur ses nœuds 18A et 14A pour franchir l’échelle classique des monolithes.

Intel Foveros 3D et EMIB-T : 16 dies, 24 HBM5, 12× la taille de réticule

Le schéma retenu superpose des base dies en 18A-PT, dotés d’un backside power delivery pour doper la densité logique et la fiabilité. Ces dies de base intègrent des structures SRAM proches de l’architecture Clearwater Forest et servent de socle à des tuiles de calcul gravées en 14A/14A-E, qui combinent transistors RibbonFET de seconde génération et PowerDirect.

Schéma Intel Foveros 3D et EMIB-T montrant empaquetage multi-dies, 16 dies possibles et 24 HBM5 intégrés

La liaison verticale s’effectue via Foveros Direct 3D et son hybrid bonding à pas ultrafin, tandis que EMIB-T ajoute des TSV pour des liens chiplet à très large bande passante. D’après Intel, l’ensemble supporte toutes les normes HBM, dont HBM4, HBM5 et leurs successeurs.

Nœuds 18A, 18A-P/18A-PT et 14A : cap sur la production et des clients externes

Schéma Intel Foveros 3D et EMIB-T montrant 16 dies et 24 HBM5 dans un seul package, interconnexion die-to-die, empilement 3D, architecture chiplet

Intel aligne ses procédés 18A, y compris 18A-P et 18A-PT, ainsi que 14A pour la production de masse et l’accueil de clients tiers. La firme évoque des packages semblables à ceux de l’ex-Ponte Vecchio pour ses accélérateurs « Jaguar Shores ». À mesure que ses capacités de packaging s’étendent, il semblerait que des partenaires voient en Intel un concurrent sérieux des CoWoS de TSMC. Dans la vidéo, Intel résume l’ambition : « 12× la taille de réticule, 16 compute dies et 24 HBM5 ».

Schéma Intel Foveros 3D et EMIB-T montrant empilement de dies, interconnexions EMIB et 24 modules HBM5 dans un package

La feuille de route ne s’arrête pas là. Intel vise, avec Foveros-B et des régulateurs de tension intégrés (IVR), des GPU à 5 000 W d’ici 2027. Un design extrême, mais cohérent avec la montée en puissance des accélérateurs IA et la densification des interconnexions.

Source : TechPowerUp

  •  

Intel 18A : NVIDIA a testé le nœud mais n’a pas retenu Intel Foundry

Intel 18A refait parler de lui : d’après Reuters, NVIDIA a évalué le procédé mais n’a pas enclenché de production de masse. Le fondeur californien « a récemment testé » le nœud 18A, puis a cessé d’avancer, selon deux sources citées, NVIDIA n’ayant pas répondu aux demandes de commentaire. Rien d’inhabituel pour un client majeur qui compare les alternatives à TSMC avant d’allouer des volumes.

Intel 18A, un nœud surtout interne en attendant 18A-P et 18A-PT

Pour l’heure, Intel 18A sert surtout les produits internes d’Intel. Les variantes 18A-P et 18A-PT visent, elles, des clients externes et doivent rester au catalogue d’Intel Foundry sur le long terme. En parallèle, le nœud 14A prend de l’ampleur en interne chez Intel Foundry, avec un développement actif ciblant 2027. Les partenaires potentiels évaluent déjà si la technologie répondra à leurs besoins, et les premiers retours clients publiés ailleurs décrivent un progrès solide et « véritablement compétitif ».

intel 18a

Partenariat Intel–NVIDIA en 2026, mais pas forcément côté fonderie

À partir de 2026, l’accord noué mi-septembre entre Intel et NVIDIA doit commencer à se matérialiser par l’intégration de GPU RTX au sein de SoC x86 Intel. Il n’est pas clair que cet accord implique des services de fonderie côté NVIDIA : pour l’instant, l’accent est mis sur la livraison produit. Quand Intel publiera le PDK 14A 0.5, on devrait voir remonter davantage d’avis des prospects. Tous les regards se portent sur le lancement du 14A en 2027, aux côtés des variantes 18A-P et 18A-PT pour des applications plus spécialisées.

Source : TechPowerUp

  •  

TLD vous souhaite de bonnes fêtes

Comme chaque année, TousLesDrivers.com souhaite à tous ses lecteurs, qu'ils soient fidèles ou occasionnels, un joyeux Noël 2025 et de bonnes fêtes de fin d'année ! A demain sur TLD pour vos téléchargements de pilotes par milliers....

  •  

Quand les robots humanoïdes se font pirater en 1 minute via Bluetooth

Vous vous souvenez de ces robots chiens et humanoïdes Unitree qu'on voit partout sur les réseaux depuis quelques mois ? Hé bien des chercheurs en sécurité viennent de découvrir qu'on pouvait les pirater en moins d'une minute, sans même avoir besoin d'un accès internet. Et le pire, c'est que la faille est tellement débile qu'elle en devient presque comique.

Lors de la conférence GEEKCon à Shanghai, l'équipe de DARKNAVY a fait une démonstration qui fait froid dans le dos. L'expert Ku Shipei a pris le contrôle d'un robot humanoïde Unitree G1 (quand même 100 000 yuans, soit environ 14 000 balles) en utilisant uniquement des commandes vocales et une connexion Bluetooth. Après environ une minute de manipulation, l'indicateur lumineux sur la tête du robot est passé du bleu au rouge, il a alors cessé de répondre à son contrôleur officiel, puis sous les ordres de Ku, il s'est précipité vers un journaliste en balançant son poing.

Sympa l'ambiance.

En fait, le problème vient de la façon dont ces robots gèrent leur configuration Wi-Fi via Bluetooth Low Energy (BLE). Quand vous configurez le réseau sur un robot Unitree, il utilise le BLE pour recevoir le nom du réseau et le mot de passe, sauf que ce canal ne filtre absolument pas ce que vous lui envoyez. Vous pouvez donc injecter des commandes directement dans les champs SSID ou mot de passe avec le pattern « ;$(cmd);# », et hop, exécution de code en tant que root.

Et le truc encore plus dingue, c'est que tous les robots Unitree partagent la même clé AES codée en dur pour chiffrer les paquets de contrôle BLE, donc si vous avez cracké un G1, vous avez cracké tous les G1, H1, Go2 et B2 de la planète. Et là vous allez me dire : Et la sécurité du handshake ? Hé bien elle vérifie juste si la chaîne contient « unitree » comme secret. Bravo les gars ^^.

Du coup, la vulnérabilité devient wormable, c'est à dire qu'un robot infecté peut scanner les autres robots Unitree à portée Bluetooth et les compromettre automatiquement à son tour, créant ainsi un botnet de robots qui se propage sans intervention humaine. Imaginez ça dans un entrepôt avec 50 robots !! Le bordel que ça serait...

Moi ce qui m'inquiète avec ces robots, c'est l'architecture d'exfiltration de données car le G1 est équipé de caméras Intel RealSense D435i, de 4 microphones et de systèmes de positionnement qui peuvent capturer des réunions confidentielles, photographier des documents sensibles ou cartographier des locaux sécurisés. Et tout ça peut être streamé vers des serveurs externes sans que vous le sachiez surtout que la télémétrie est transmise en continu vers des serveurs en Chine... Vous voyez le tableau.

En avril 2025 déjà, des chercheurs avaient trouvé une backdoor non documentée dans le robot chien Go1 qui permettait un contrôle à distance via un tunnel réseau et l'accès aux caméras, donc c'est pas vraiment une surprise que les modèles plus récents aient des problèmes similaires, hein ?

J'imagine que certains d'entre vous bidouillent des robots avec Raspberry Pi ou Arduino, alors si vous voulez pas finir avec un robot qui part en freestyle, y'a quelques trucs à faire. Déjà, pour la config Wi-Fi via BLE, ne passez jamais le SSID et le mot de passe en clair mais utilisez un protocole de dérivation de clé comme ECDH pour établir un secret partagé. Et surtout validez et sanitisez toutes les entrées utilisateur avant de les balancer dans un shell.

Et puis changez les clés par défaut, car ça paraît con mais c'est le problème numéro un. Générez des clés uniques par appareil au premier boot ou lors de l'appairage. Vous pouvez stocker ça dans l'EEPROM de l'Arduino ou dans un fichier protégé sur le Pi.

Pensez aussi à isoler vos robots sur un réseau dédié... Si vous utilisez un Pi, créez un VLAN séparé et bloquez tout trafic sortant non autorisé avec iptables. Comme ça, même si un robot est compromis, il ne pourra pas exfiltrer de données ni attaquer d'autres machines.

Ah et désactivez aussi le Bluetooth quand vous n'en avez pas besoin ! Sur un Pi, ajoutez « dtoverlay=disable-bt » dans /boot/config.txt et sur Arduino, c'est encore plus simple, si vous utilisez pas le BLE, ne l'incluez pas dans votre projet.

Bref, ces robots sont de vrais chevaux de Troie ambulants. Ils ont des capteurs, des caméras, des micros, et maintenant ils peuvent être compromis par n'importe qui à portée de Bluetooth... Donc si vous bossez sur des projets robotiques, prenez le temps de sécuriser vos communications sans fil avant de vous retrouver avec un robot qui décide de vous tuer !! Et bookmarkez ce lien car c'est là où je mets toutes mes meilleures news robotiques !

Et si vous êtes encore en train de lire mes articles à cette heure-ci, je vous souhaite un excellent Noël !

Source

  •  

Comment les IA se nourrissent de livres piratés ?

Bibliotik ça vous parle ou pas ? C'est un tracker torrent privé ultra-discret comme il y en a tant d'autres, où les fans de lecture vont chopper leurs ePubs.

Hé bien figurez-vous que Meta, Bloomberg, et toute une brochette de géants de la tech ont fait exactement pareil pour entraîner leurs IA. Sauf qu'eux, c'était pas pour lire du Stephen King au lit, mais pour aspirer 195 000 livres d'un coup et les transformer en "données d'entraînement".

Le dataset s'appelle Books3, et c'est un peu le Napster des LLMs. Créé en 2020 par un chercheur IA nommé Shawn Presser, ce jeu de données de 37 Go compressés contient des bouquins scrapés directement depuis la bibliothèque pirate Bibliotik. L'idée de Presser était plutôt noble à la base puisqu'il voulait démocratiser l'accès aux données d'entraînement pour que les petits labos puissent rivaliser avec OpenAI et leurs mystérieux datasets "Books1" et "Books2" dont personne ne connaît le contenu.

Sauf que Books3 a fini par être intégré dans The Pile , un gros dataset de 825 Go créé par EleutherAI, et là ça a pris des proportions industrielles... Meta l'a utilisé pour entraîner LLaMA, Bloomberg pour BloombergGPT, et des dizaines d'autres projets. Le problème, c'est que ça contient des livres protégés par le copyright tels que des romans de Sarah Silverman, de George R.R. Martin, et même le bouquin de John Carreyrou sur Theranos, "Bad Blood". D'ailleurs Carreyrou vient de porter plainte avec d'autres auteurs contre six géants de l'IA dont Anthropic, Google, OpenAI, Meta, xAI et Perplexity.

Et comme vous vous en doutez, la défense de toutes ces entreprises c'est le fameux "fair use" des américains. En gros, ils disent que transformer des livres en vecteurs mathématiques pour qu'une IA apprenne à écrire, c'est pas du vol, c'est de l'apprentissage. Un peu comme quand vous lisez 500 bouquins et que ça influence votre style d'écriture. Sauf que vous, vous payez vos livres et vous avez un cerveau biologique alors que ces IA, elles, aspirent tout le web sans demander la permission à personne.

Et en juin dernier, deux juges californiens ont, sans surprise, tranché en faveur d'Anthropic et Meta sur certains points. Ils ont considéré que l'utilisation de livres protégés pour entraîner des modèles comme Claude ou Llama 2 pouvait constituer un usage "spectaculairement transformatif" donc légal. Par contre, télécharger les bouquins depuis des sites pirates, ça reste illégal... Bref, vous pouvez utiliser le butin, mais pas le voler vous-même...

De son côté, le sénateur américain Hawley n'a pas mâché ses mots en parlant du "plus grand vol de propriété intellectuelle de l'histoire américaine" et quand on voit que les auteurs ont touché environ 3000 dollars chacun dans le règlement de 1,5 milliard de dollars proposé par Anthropic alors que ces boîtes génèrent des milliards de revenus, je peux comprendre l'énervement.

Mais le pire, c'est qu'il existe des datasets alternatifs 100% légaux, ouverts, et utilisables sans risquer un procès !! J'ai par exemple découvert Common Corpus , et je kiffe le concept. C'est un projet coordonné par Pleias, une startup française, avec le soutien de HuggingFace, du Ministère de la Culture et de l'AI Alliance et ce dataset contient 500 milliards de mots, dont 180 milliards en anglais et 110 milliards en français.

Mais alors d'où viennent ces données légales ?

Hé bien du domaine public uniquement. Ce sont des millions de journaux américains qui ont été numérisés via le projet Chronicling America, des collections de patrimoine culturel, des monographies historiques...etc. Et tout a été vérifié pour s'assurer que les droits d'auteur sont bien expirés.. Donc dedans, y'a pas de livres piratés, ce qui veut dire pas de procès potentiels...etc.

Y'a aussi le dataset Dolma avec ses 3 trillions de tokens créé par l'Allen AI Institute, ou encore RedPajama qui atteint les 30 trillions de tokens, et ces projets sont open source avec tout le processus de construction documenté donc vous pouvez les auditer, les refaire, et les vérifier, contrairement aux datasets proprio où on vous dit "faites-nous confiance, on a rien fait de mal, hihihi".

Mais même si tout ces trucs open source ont l'air cool, le problème, c'est que personne (ou presque) ne les utilise parce que les vieux livres du domaine public, ça parle comme Molière ou Victor Hugo. Le vocabulaire est archaïque, les tournures de phrases sont datées... on dirait une discussion sur l'oreiller du couple Macron. Et vous l'aurez compris, un LLM entraîné là-dessus va avoir tendance à vous pondre du texte qui sent la naphtaline, alors que les livres modernes piratés, quand à eux, c'est du langage contemporain, des dialogues naturels, des références actuelles...etc.

C'est donc ça le dilemme... Choisir entre éthique ou performance. Les chercheurs de Mozilla et EleutherAI ont publié en janvier 2025 un papier sur les bonnes pratiques pour créer des datasets ouverts , et ils admettent eux-mêmes que c'est compliqué car les métadonnées sont pourries, la numérisation coûte une blinde, et il faut des compétences juridiques ET techniques pour faire les choses proprement.

Un autre paradoxe encore plus cruel c'est que les projets qui documentent proprement leurs sources deviennent des cibles faciles pour les procès. C'est comme ça que le groupe anti-piratage danois Rights Alliance a fait supprimer Books3 via des notices DMCA, forçant EleutherAI à nettoyer The Pile alors que pendant ce temps, OpenAI reste discret sur ses données d'entraînement et évite ainsi les ennuis. Faire les choses bien, ça vous expose alors que faire les choses en douce pour entrainer votre IA, ça passe tranquillou (même si ça n'immunise pas totalement contre les procès non plus, faut pas déconner).

Et de plus en plus de sites partout sur la toile, changent petit à petit leurs conditions d'utilisation pour interdire le scraping par les IA... Autant dire que le web ouvert se referme petit à petit, ce qui rend encore plus galère de construire des datasets éthiques...

Bref, on est dans une situation où les géants aspirent tout sans vergogne, et où les petits qui essaient de faire les choses proprement galèrent... Sans parler des auteurs qui se retrouvent à quémander 3000 balles pour des œuvres qui valent bien plus. Common Corpus et tous ces autres projets ouverts prouvent, certes, qu'on peut entraîner des IA sans piller le travail des autres, mais ça demande énormément plus d'efforts et ça donne des résultats incroyablement moins sexy...

Voilà, au final, la vraie question n'est donc pas technique, mais politique. Est-ce qu'on doit accepter qu'une machine qui lit pour transformer un livre en vecteur, c'est OK parce que grâce à ce petit sacrifice, on peut profiter d'IA (open source de préférence) de folie ? Ou est ce qu'on se dit que lire c'est du vol quand c'est une machine qui lit ? Et dans ce cas, on accepte d'avoir des IA qui cause comme Balzac... ?

Source

  •  

Le retour à la nature efface l’anxiété acquise chez les souris de laboratoire

Une expérience fascinante menée par des chercheurs américains vient de révéler un phénomène surprenant concernant le comportement anxieux des rongeurs de recherche. Quarante-quatre souris habituées aux cages stériles ont été libérées dans un vaste enclos extérieur où elles purent creuser, grimper et explorer diverses sensations. Résultat : après seulement sept jours passés dans cet environnement ... Lire plus

L'article Le retour à la nature efface l’anxiété acquise chez les souris de laboratoire est apparu en premier sur Fredzone.
  •  

Des supercalculateurs dévoilent les secrets des régions proches des trous noirs

Les abords immédiats des trous noirs représentent des espaces où règne un chaos apparent. La matière y est engloutie dans l’oubli cosmique tandis que des radiations éblouissantes s’échappent depuis les confins de l’obscurité absolue. Ces zones frontalières demeurent intrinsèquement instables, sujettes à des éruptions soudaines, des jets puissants et diverses manifestations énergétiques. Prédire avec précision ... Lire plus

L'article Des supercalculateurs dévoilent les secrets des régions proches des trous noirs est apparu en premier sur Fredzone.
  •  

Une planète de lave vieille de milliards d’années remet en question nos connaissances astronomiques

Un monde rocheux recouvert d’océans de magma et enveloppé dans une épaisse couche de roche vaporisée vient de révéler aux scientifiques une caractéristique extraordinaire. TOI-561 b représente potentiellement la preuve la plus solide jamais obtenue qu’une exoplanète rocheuse située hors de notre système solaire possède bel et bien une atmosphère. Les chercheurs de Carnegie Science ... Lire plus

L'article Une planète de lave vieille de milliards d’années remet en question nos connaissances astronomiques est apparu en premier sur Fredzone.
  •  

Amazon frappe fort avec une réduction massive sur le smartphone phare de Google

Les amateurs de technologie mobile viennent de recevoir une excellente nouvelle : Amazon propose actuellement des rabais remarquables sur l’intégralité de la gamme Pixel 10. Si le modèle de base à 449 dollars ne correspond pas tout à fait à vos attentes, la version Pro affichée à 649 dollars mérite assurément votre attention. Ce tarif ... Lire plus

L'article Amazon frappe fort avec une réduction massive sur le smartphone phare de Google est apparu en premier sur Fredzone.
  •