Intel Foveros s’attaque au mur du réticule : Intel affiche un package 12 fois plus grand que les 830 mm², capable de réunir 16 compute dies et 24 modules HBM5. Selon une courte démonstration de sa division Foundry, le groupe agrège ses interconnexions Foveros 3D et EMIB-T et s’appuie sur ses nœuds 18A et 14A pour franchir l’échelle classique des monolithes.
Intel Foveros 3D et EMIB-T : 16 dies, 24 HBM5, 12× la taille de réticule
Le schéma retenu superpose des base dies en 18A-PT, dotés d’un backside power delivery pour doper la densité logique et la fiabilité. Ces dies de base intègrent des structures SRAM proches de l’architecture Clearwater Forest et servent de socle à des tuiles de calcul gravées en 14A/14A-E, qui combinent transistors RibbonFET de seconde génération et PowerDirect.
La liaison verticale s’effectue via Foveros Direct 3D et son hybrid bonding à pas ultrafin, tandis que EMIB-T ajoute des TSV pour des liens chiplet à très large bande passante. D’après Intel, l’ensemble supporte toutes les normes HBM, dont HBM4, HBM5 et leurs successeurs.
Nœuds 18A, 18A-P/18A-PT et 14A : cap sur la production et des clients externes
Intel aligne ses procédés 18A, y compris 18A-P et 18A-PT, ainsi que 14A pour la production de masse et l’accueil de clients tiers. La firme évoque des packages semblables à ceux de l’ex-Ponte Vecchio pour ses accélérateurs « Jaguar Shores ». À mesure que ses capacités de packaging s’étendent, il semblerait que des partenaires voient en Intel un concurrent sérieux des CoWoS de TSMC. Dans la vidéo, Intel résume l’ambition : « 12× la taille de réticule, 16 compute dies et 24 HBM5 ».
La feuille de route ne s’arrête pas là. Intel vise, avec Foveros-B et des régulateurs de tension intégrés (IVR), des GPU à 5 000 W d’ici 2027. Un design extrême, mais cohérent avec la montée en puissance des accélérateurs IA et la densification des interconnexions.
Vous vous souvenez de ces
robots chiens et humanoïdes Unitree
qu'on voit partout sur les réseaux depuis quelques mois ? Hé bien des chercheurs en sécurité viennent de découvrir qu'on pouvait les pirater en moins d'une minute, sans même avoir besoin d'un accès internet. Et le pire, c'est que la faille est tellement débile qu'elle en devient presque comique.
Lors de la conférence GEEKCon à Shanghai, l'équipe de DARKNAVY a fait une démonstration qui fait froid dans le dos. L'expert Ku Shipei a pris le contrôle d'un robot humanoïde Unitree G1 (quand même 100 000 yuans, soit environ 14 000 balles) en utilisant uniquement des commandes vocales et une connexion Bluetooth. Après environ une minute de manipulation, l'indicateur lumineux sur la tête du robot est passé du bleu au rouge, il a alors cessé de répondre à son contrôleur officiel, puis sous les ordres de Ku, il s'est précipité vers un journaliste en balançant son poing.
Sympa l'ambiance.
En fait, le problème vient de la façon dont ces robots gèrent leur configuration Wi-Fi via Bluetooth Low Energy (BLE). Quand vous configurez le réseau sur un robot Unitree, il utilise le BLE pour recevoir le nom du réseau et le mot de passe, sauf que ce canal ne filtre absolument pas ce que vous lui envoyez. Vous pouvez donc injecter des commandes directement dans les champs SSID ou mot de passe avec le pattern « ;$(cmd);# », et hop, exécution de code en tant que root.
Et le truc encore plus dingue, c'est que tous les robots Unitree partagent la même clé AES codée en dur pour chiffrer les paquets de contrôle BLE, donc si vous avez cracké un G1, vous avez cracké tous les G1, H1, Go2 et B2 de la planète. Et là vous allez me dire : Et la sécurité du handshake ? Hé bien elle vérifie juste si la chaîne contient « unitree » comme secret. Bravo les gars ^^.
Du coup, la vulnérabilité devient wormable, c'est à dire qu'un robot infecté peut scanner les autres robots Unitree à portée Bluetooth et les compromettre automatiquement à son tour, créant ainsi un botnet de robots qui se propage sans intervention humaine. Imaginez ça dans un entrepôt avec 50 robots !! Le bordel que ça serait...
Moi ce qui m'inquiète avec ces robots, c'est l'architecture d'exfiltration de données car le G1 est équipé de caméras Intel RealSense D435i, de 4 microphones et de systèmes de positionnement qui peuvent capturer des réunions confidentielles, photographier des documents sensibles ou cartographier des locaux sécurisés. Et tout ça peut être streamé vers des serveurs externes sans que vous le sachiez surtout que la télémétrie est transmise en continu vers des serveurs en Chine... Vous voyez le tableau.
En avril 2025 déjà, des chercheurs avaient trouvé une backdoor non documentée dans le
robot chien Go1
qui permettait un contrôle à distance via un tunnel réseau et l'accès aux caméras, donc c'est pas vraiment une surprise que les modèles plus récents aient des problèmes similaires, hein ?
J'imagine que certains d'entre vous bidouillent des robots avec Raspberry Pi ou Arduino, alors si vous voulez pas finir avec un robot qui part en freestyle, y'a quelques trucs à faire. Déjà, pour la config Wi-Fi via BLE, ne passez jamais le SSID et le mot de passe en clair mais utilisez un protocole de dérivation de clé comme ECDH pour établir un secret partagé. Et surtout validez et sanitisez toutes les entrées utilisateur avant de les balancer dans un shell.
Et puis changez les clés par défaut, car ça paraît con mais c'est le problème numéro un. Générez des clés uniques par appareil au premier boot ou lors de l'appairage. Vous pouvez stocker ça dans l'EEPROM de l'Arduino ou dans un fichier protégé sur le Pi.
Pensez aussi à isoler vos robots sur un réseau dédié... Si vous utilisez un Pi, créez un VLAN séparé et bloquez tout trafic sortant non autorisé avec iptables. Comme ça, même si un robot est compromis, il ne pourra pas exfiltrer de données ni attaquer d'autres machines.
Ah et désactivez aussi le Bluetooth quand vous n'en avez pas besoin ! Sur un Pi, ajoutez « dtoverlay=disable-bt » dans /boot/config.txt et sur Arduino, c'est encore plus simple, si vous utilisez pas le BLE, ne l'incluez pas dans votre projet.
Bref, ces robots sont de vrais chevaux de Troie ambulants. Ils ont des capteurs, des caméras, des micros, et maintenant ils peuvent être compromis par n'importe qui à portée de Bluetooth... Donc si vous bossez sur des projets robotiques, prenez le temps de sécuriser vos communications sans fil avant de vous retrouver avec un robot qui décide de vous tuer !! Et
bookmarkez ce lien
car c'est là où je mets toutes mes meilleures news robotiques !
Et si vous êtes encore en train de lire mes articles à cette heure-ci, je vous souhaite un excellent Noël !
Bibliotik ça vous parle ou pas ? C'est un tracker torrent privé ultra-discret comme il y en a tant d'autres, où les fans de lecture vont chopper leurs ePubs.
Hé bien figurez-vous que Meta, Bloomberg, et toute une brochette de géants de la tech ont fait exactement pareil pour entraîner leurs IA. Sauf qu'eux, c'était pas pour lire du Stephen King au lit, mais pour aspirer 195 000 livres d'un coup et les transformer en "données d'entraînement".
Le dataset s'appelle Books3, et c'est un peu le Napster des LLMs. Créé en 2020 par un chercheur IA nommé Shawn Presser, ce jeu de données de 37 Go compressés contient des bouquins scrapés directement depuis la bibliothèque pirate Bibliotik. L'idée de Presser était plutôt noble à la base puisqu'il voulait démocratiser l'accès aux données d'entraînement pour que les petits labos puissent rivaliser avec OpenAI et leurs mystérieux datasets "Books1" et "Books2" dont personne ne connaît le contenu.
Sauf que Books3 a fini par être intégré dans
The Pile
, un gros dataset de 825 Go créé par EleutherAI, et là ça a pris des proportions industrielles... Meta l'a utilisé pour entraîner LLaMA, Bloomberg pour BloombergGPT, et des dizaines d'autres projets. Le problème, c'est que ça contient des livres protégés par le copyright tels que des romans de Sarah Silverman, de George R.R. Martin, et même le bouquin de John Carreyrou sur Theranos, "Bad Blood". D'ailleurs Carreyrou vient de porter plainte avec d'autres auteurs contre six géants de l'IA dont Anthropic, Google, OpenAI, Meta, xAI et Perplexity.
Et comme vous vous en doutez, la défense de toutes ces entreprises c'est le fameux "fair use" des américains. En gros, ils disent que transformer des livres en vecteurs mathématiques pour qu'une IA apprenne à écrire, c'est pas du vol, c'est de l'apprentissage. Un peu comme quand vous lisez 500 bouquins et que ça influence votre style d'écriture. Sauf que vous, vous payez vos livres et vous avez un cerveau biologique alors que ces IA, elles, aspirent tout le web sans demander la permission à personne.
Et en juin dernier, deux juges californiens ont, sans surprise, tranché en faveur d'Anthropic et Meta sur certains points. Ils ont considéré que l'utilisation de livres protégés pour entraîner des modèles comme Claude ou Llama 2 pouvait constituer un usage "spectaculairement transformatif" donc légal. Par contre, télécharger les bouquins depuis des sites pirates, ça reste illégal... Bref, vous pouvez utiliser le butin, mais pas le voler vous-même...
De son côté, le sénateur américain Hawley n'a pas mâché ses mots en parlant du "plus grand vol de propriété intellectuelle de l'histoire américaine" et quand on voit que les auteurs ont touché environ 3000 dollars chacun dans le règlement de 1,5 milliard de dollars proposé par Anthropic alors que ces boîtes génèrent des milliards de revenus, je peux comprendre l'énervement.
Mais le pire, c'est qu'il existe des datasets alternatifs 100% légaux, ouverts, et utilisables sans risquer un procès !! J'ai par exemple découvert
Common Corpus
, et je kiffe le concept. C'est un projet coordonné par Pleias, une startup française, avec le soutien de HuggingFace, du Ministère de la Culture et de l'AI Alliance et ce dataset contient 500 milliards de mots, dont 180 milliards en anglais et 110 milliards en français.
Mais alors d'où viennent ces données légales ?
Hé bien du domaine public uniquement. Ce sont des millions de journaux américains qui ont été numérisés via le projet Chronicling America, des collections de patrimoine culturel, des monographies historiques...etc. Et tout a été vérifié pour s'assurer que les droits d'auteur sont bien expirés.. Donc dedans, y'a pas de livres piratés, ce qui veut dire pas de procès potentiels...etc.
Y'a aussi le dataset
Dolma
avec ses 3 trillions de tokens créé par l'Allen AI Institute, ou encore
RedPajama
qui atteint les 30 trillions de tokens, et ces projets sont open source avec tout le processus de construction documenté donc vous pouvez les auditer, les refaire, et les vérifier, contrairement aux datasets proprio où on vous dit "faites-nous confiance, on a rien fait de mal, hihihi".
Mais même si tout ces trucs open source ont l'air cool, le problème, c'est que personne (ou presque) ne les utilise parce que les vieux livres du domaine public, ça parle comme Molière ou Victor Hugo. Le vocabulaire est archaïque, les tournures de phrases sont datées... on dirait une discussion sur l'oreiller du couple Macron. Et vous l'aurez compris, un LLM entraîné là-dessus va avoir tendance à vous pondre du texte qui sent la naphtaline, alors que les livres modernes piratés, quand à eux, c'est du langage contemporain, des dialogues naturels, des références actuelles...etc.
C'est donc ça le dilemme... Choisir entre éthique ou performance. Les chercheurs de Mozilla et EleutherAI ont publié en janvier 2025
un papier sur les bonnes pratiques pour créer des datasets ouverts
, et ils admettent eux-mêmes que c'est compliqué car les métadonnées sont pourries, la numérisation coûte une blinde, et il faut des compétences juridiques ET techniques pour faire les choses proprement.
Un autre paradoxe encore plus cruel c'est que les projets qui documentent proprement leurs sources deviennent des cibles faciles pour les procès. C'est comme ça que le groupe anti-piratage danois Rights Alliance a fait supprimer Books3 via des notices DMCA, forçant EleutherAI à nettoyer The Pile alors que pendant ce temps, OpenAI reste discret sur ses données d'entraînement et évite ainsi les ennuis. Faire les choses bien, ça vous expose alors que faire les choses en douce pour entrainer votre IA, ça passe tranquillou (même si ça n'immunise pas totalement contre les procès non plus, faut pas déconner).
Et de plus en plus de sites partout sur la toile, changent petit à petit leurs conditions d'utilisation pour interdire le scraping par les IA... Autant dire que le web ouvert se referme petit à petit, ce qui rend encore plus galère de construire des datasets éthiques...
Bref, on est dans une situation où les géants aspirent tout sans vergogne, et où les petits qui essaient de faire les choses proprement galèrent... Sans parler des auteurs qui se retrouvent à quémander 3000 balles pour des œuvres qui valent bien plus. Common Corpus et tous ces autres projets ouverts prouvent, certes, qu'on peut entraîner des IA sans piller le travail des autres, mais ça demande énormément plus d'efforts et ça donne des résultats incroyablement moins sexy...
Voilà, au final, la vraie question n'est donc pas technique, mais politique. Est-ce qu'on doit accepter qu'une machine qui lit pour transformer un livre en vecteur, c'est OK parce que grâce à ce petit sacrifice, on peut profiter d'IA (open source de préférence) de folie ? Ou est ce qu'on se dit que lire c'est du vol quand c'est une machine qui lit ? Et dans ce cas, on accepte d'avoir des IA qui cause comme Balzac... ?
Intel 18A refait parler de lui : d’après Reuters, NVIDIA a évalué le procédé mais n’a pas enclenché de production de masse. Le fondeur californien « a récemment testé » le nœud 18A, puis a cessé d’avancer, selon deux sources citées, NVIDIA n’ayant pas répondu aux demandes de commentaire. Rien d’inhabituel pour un client majeur qui compare les alternatives à TSMC avant d’allouer des volumes.
Intel 18A, un nœud surtout interne en attendant 18A-P et 18A-PT
Pour l’heure, Intel 18A sert surtout les produits internes d’Intel. Les variantes 18A-P et 18A-PT visent, elles, des clients externes et doivent rester au catalogue d’Intel Foundry sur le long terme. En parallèle, le nœud 14A prend de l’ampleur en interne chez Intel Foundry, avec un développement actif ciblant 2027. Les partenaires potentiels évaluent déjà si la technologie répondra à leurs besoins, et les premiers retours clients publiés ailleurs décrivent un progrès solide et « véritablement compétitif ».
Partenariat Intel–NVIDIA en 2026, mais pas forcément côté fonderie
À partir de 2026, l’accord noué mi-septembre entre Intel et NVIDIA doit commencer à se matérialiser par l’intégration de GPU RTX au sein de SoC x86 Intel. Il n’est pas clair que cet accord implique des services de fonderie côté NVIDIA : pour l’instant, l’accent est mis sur la livraison produit. Quand Intel publiera le PDK 14A 0.5, on devrait voir remonter davantage d’avis des prospects. Tous les regards se portent sur le lancement du 14A en 2027, aux côtés des variantes 18A-P et 18A-PT pour des applications plus spécialisées.
Comme chaque année, TousLesDrivers.com souhaite à tous ses lecteurs, qu'ils soient fidèles ou occasionnels, un joyeux Noël 2025 et de bonnes fêtes de fin d'année !
A demain sur TLD pour vos téléchargements de pilotes par milliers....
Une expérience fascinante menée par des chercheurs américains vient de révéler un phénomène surprenant concernant le comportement anxieux des rongeurs de recherche. Quarante-quatre souris habituées aux cages stériles ont été libérées dans un vaste enclos extérieur où elles purent creuser, grimper et explorer diverses sensations. Résultat : après seulement sept jours passés dans cet environnement ... Lire plus
Les abords immédiats des trous noirs représentent des espaces où règne un chaos apparent. La matière y est engloutie dans l’oubli cosmique tandis que des radiations éblouissantes s’échappent depuis les confins de l’obscurité absolue. Ces zones frontalières demeurent intrinsèquement instables, sujettes à des éruptions soudaines, des jets puissants et diverses manifestations énergétiques. Prédire avec précision ... Lire plus
Un monde rocheux recouvert d’océans de magma et enveloppé dans une épaisse couche de roche vaporisée vient de révéler aux scientifiques une caractéristique extraordinaire. TOI-561 b représente potentiellement la preuve la plus solide jamais obtenue qu’une exoplanète rocheuse située hors de notre système solaire possède bel et bien une atmosphère. Les chercheurs de Carnegie Science ... Lire plus
Les amateurs de technologie mobile viennent de recevoir une excellente nouvelle : Amazon propose actuellement des rabais remarquables sur l’intégralité de la gamme Pixel 10. Si le modèle de base à 449 dollars ne correspond pas tout à fait à vos attentes, la version Pro affichée à 649 dollars mérite assurément votre attention. Ce tarif ... Lire plus
Les spéculations autour des futurs smartphones d’Apple s’intensifient à l’approche de 2026. Une nouvelle rumeur vient bousculer les habitudes bien établies de la firme de Cupertino concernant le déploiement de sa gamme iPhone. Selon des informations récentes, le modèle standard de la dix-huitième génération ne verrait pas le jour durant l’automne 2026 comme on pourrait ... Lire plus
Le secteur des cryptomonnaies vient d’enregistrer son année la plus catastrophique en matière de cybercriminalité. Les données compilées par plusieurs firmes spécialisées dans la surveillance blockchain révèlent un montant faramineux : 2,7 milliards de dollars en actifs numériques ont été subtilisés par des pirates informatiques au cours des douze derniers mois. Un chiffre qui pulvérise ... Lire plus
L’administration Trump vient de franchir un nouveau cap dans sa politique protectionniste en matière technologique. Dès cette semaine, aucun modèle de drone produit à l’étranger ne pourra être commercialisé sur le territoire américain. Cette décision radicale s’inscrit dans une stratégie visant à protéger les intérêts nationaux face aux menaces présumées venues de l’extérieur. Les propriétaires ... Lire plus
Searchlight Pictures accélère la sortie de Ready or Not 2: Here I Come, l’un des suites horrifiques les plus attendus de026, passant du 10 avril au 27 mars. Réalisé par Radio Silence (Matt Bettinelli-Olpin et Tyler Gillett), ce projet ramène Samara Weaving en Grace, traquée par de nouvelles familles puissantes dans un jeu mortel pactisé avec ... Lire plus
World Trigger, manga shonen acclamé de Daisuke Ashihara pour son univers riche et son intrigue addictive, surprend par un reboot de sa première saison au lieu d’une saison 4 attendue depuis 2022. Malgré ses hiatus dus à la santé de l’auteur – dont un de deux ans avant passage mensuel à Jump SQ en 2018 –, l’œuvre ... Lire plus
Gege Akutami, créateur de Jujutsu Kaisen, lève le voile sur les origines de son sequel manga surprise, Jujutsu Kaisen Modulo, lors de Jump Festa 2026. Bien que le manga principal ait clos son arc narratif l’an passé, l’anime poursuit son adaptation et des romans dérivés s’ajoutent au lore. Ce court spin-off, dessiné par Yuji Iwasaki, bouleverse l’univers ... Lire plus
Call of Duty pourrait enfin débarquer sur Switch 2. Selon Jez Corden (Windows Central), le premier portage serait « presque terminé » et attendu « dans quelques mois », ce qui pointerait vers 2026 pour la console de Nintendo.
Call of Duty sur Switch 2 : un portage en voie d’achèvement
Microsoft martèle depuis des mois sa volonté d’en finir avec les exclusivités, promettant des lancements multiplateformes day one. Dans les faits, rien n’a encore abouti pour Call of Duty. D’après Jez Corden, éditeur chez Windows Central et insider réputé, le premier épisode destiné à la Switch 2 serait toutefois « presque terminé » et prévu « dans quelques mois ». Le calendrier évoqué suggère une sortie en 2026.
Reste une inconnue majeure : la forme que prendra ce Call of Duty sur Switch 2. Aucune mention de la console de Nintendo n’apparaît dans la communication de Call of Duty Black Ops 7, alimentant l’idée qu’il ne s’agirait pas d’un portage 1:1. Les contraintes matérielles et de stockage de la Switch 2 sont régulièrement pointées, même si Ubisoft a montré qu’il était possible d’y faire tourner des AAA de manière convaincante, d’après des démonstrations antérieures.
Il semblerait que le projet Switch 2 pour Call of Duty soit aligné avec de précédentes rumeurs signalant des postes ouverts liés à ce développement. Faute d’annonce officielle, deux pistes demeurent crédibles : une adaptation proche de Black Ops 7, soutenue par des optimisations ciblées, ou une version spécifique, plus légère, pensée pour la console hybride. Dans tous les cas, l’absence de visibilité marketing autour de Switch 2 côté Activision continue d’entretenir le doute.
Cyberpunk 2 refait parler de lui : Igor Sarzyński, directeur créatif, démonte la théorie des ascenseurs utilisés comme écrans de chargement et justifie le passage à Unreal Engine 5.
Cyberpunk 2 : pas de chargement caché dans les ascenseurs
Sur Bluesky, Igor Sarzyński a coupé court aux spéculations autour de Cyberpunk 2077. Selon lui, « les ascenseurs dans Cyberpunk ne sont pas des écrans de chargement habilement dissimulés », une affirmation qu’il appuie en soulignant l’incohérence de l’argument : pourquoi cacher un chargement pour monter vers une petite pièce alors que le jeu permet de traverser toute la ville et d’entrer dans des intérieurs massifs sans aucune coupure ? Il crédite cette fluidité au moteur maison de CD Projekt Red, le REDengine, qu’il qualifie de « miracle ».
Unreal Engine 5 pour la suite, malgré les critiques de performances
Le cadre défend pourtant le choix d’Unreal Engine 5 pour Cyberpunk 2, expliquant : « on veut faire des jeux, pas des moteurs ». D’après les informations publiques, Cyberpunk 2 et The Witcher 4 seront tous deux développés sur UE5, malgré les plaintes récurrentes sur les performances des jeux UE5. Il semblerait que CD Projekt Red privilégie la concentration des ressources sur la production et le design, plutôt que sur l’entretien d’un moteur propriétaire. La phase de préproduction de Cyberpunk 2 aurait été franchie, selon des éléments relayés récemment.
Intel Fab 52 prend l’ascendant aux États‑Unis : plus de 40 000 wafers par mois en 18A, quand TSMC Arizona plafonne à environ 20 000 wafers mensuels sur N5/N4. D’après CNBC, la cadence d’Intel atteint 10 000 wafers par semaine.
Intel Fab 52 : capacité 18A et cadence au plus haut
La visite de CNBC dans l’usine d’Arizona met en lumière une production en 18A, le procédé le plus avancé d’Intel, avec réseau d’alimentation au dos et transistors gate‑all‑around. Selon le reportage, « environ 10 000 wafers par semaine » sortent de Fab 52, soit plus de 40 000 par mois. Intel Foundry revendique aussi une emprise immobilière et une capacité supérieures à celles du campus de TSMC en Arizona.
Face à cela, TSMC Fab 21 Phase 1 en Arizona tourne à environ 20 000 wafers par mois sur N5 et N4 (classe 5 nm). Le fondeur taïwanais prévoit d’étendre Fab 21 et d’introduire des nœuds plus avancés, mais l’essentiel de ces avancées restera concentré à Taïwan, laissant la production américaine avec quelques générations de retard.
Équipements EUV et rendement : une montée en régime pour 2025
Fab 52 intègre au moins un ASML NXE:3800E Low‑NA, doté d’un éclairage amélioré, de nouveaux handlers et de stages plus rapides, pour un débit de 220 wafers/heure. Trois scanners NXE:3600D complètent l’ensemble, chacun à 160 wafers/heure. Au total, les opérations d’Intel en Arizona doivent accueillir au moins 15 scanners EUV.
Intel admet toutefois des rendements inférieurs à ceux de TSMC : à design comparable, moins de silicium exploitable par wafer aujourd’hui. Le prochain processeur « Panther Lake » ouvre la voie sur 18A, avec des yields qui progressent d’environ 7 % par mois. Intel compte principalement réserver 18A à ses propres produits, avec un nombre limité de clients externes pour le moment.
A l’approche de Noël, La Poste s’est retrouvée confrontée à une attaque informatique d’une grande ampleur, perturbant une partie de ses services numériques et ceux de sa filiale bancaire. Depuis lundi, le groupe La Poste est victime d’une attaque DDoS, une technique qui vise à saturer des serveurs par un afflux massif de requêtes afin […]
Depuis plusieurs mois, les relations entre l’Union européenne et les États-Unis se tendent autour de la régulation des grandes plateformes numériques. Bruxelles revendique un cadre juridique strict pour encadrer les géants du web, tandis que Washington y voit une remise en cause directe de ses champions technologiques et, plus largement, de sa conception de la […]