↩ Accueil

Vue lecture

DMA : Apple râle, peste, s’adapte et crée de nouvelles commissions

Commission contre commissions
DMA : Apple râle, peste, s’adapte et crée de nouvelles commissions

La détestation d’Apple pour le Digital Markets Act européen est connue. Elle a monté d’un cran récemment dans une interview donnée par l’un des responsables de l’entreprise au Figaro. Parallèlement, la firme en donne toute la dimension dans ses nouvelles mesures annoncées pour se conformer au règlement honni.

Apple n’aime pas le DMA. L’entreprise s’est expliquée plusieurs fois à ce sujet, notamment au travers d’un livre blanc dans lequel elle décrivait toutes ses raisons d’en vouloir à la loi européenne. Face aux efforts réclamés sur l’interopérabilité et l’ouverture aux boutiques tierces, Apple vilipendait le DMA qui, selon elle, allait entrainer une baisse drastique de la sécurité sur les iPhone en Europe. La société allait jusqu’à dire que ces appareils seraient moins bien protégés que ceux dans le reste du monde, même s’ils restaient les smartphones les plus sécurisés du marché.

Dans une interview au Figaro donnée il y a quelques jours, le responsable du marketing Greg Joswiak a précisé une nouvelle fois sa position.

Apple fustige des « impacts ahurissants »

Greg Joswiak dénonce ainsi « une attaque injuste » qui aurait « des impacts ahurissants » sur les utilisateurs européens. On retrouve la diatribe bien connue de l’entreprise dans ce domaine : le DMA représenterait « une menace absolument terrible pour la sécurité et la vie privée » de ses clients en Europe.

Le responsable du marketing critique en particulier trois points. D’abord, les demandes faites sur l’interopérabilité ne peuvent provoquer qu’une catastrophe. « Nous serions contraints de partager notre propriété intellectuelle et nos innovations à nos concurrents avant même qu’elles n’atteignent les premiers clients européens », assure Greg Joswiak. En outre, des fonctions arriveraient en retard sur le Vieux continent pour cette même raison. Clin d’œil à Apple Intelligence ou encore à des fonctions qui se font toujours attendre, comme Recopie de l’iPhone sur macOS.

Ensuite, la Commission européenne en voudrait personnellement à Apple. La société estime que le DMA a été militarisé pour s’en prendre à elle et lui soutirer de l’argent, via des amendes de centaines de millions d’euros. Position dont la Maison-Blanche s’est depuis fait largement écho. « Apple est la seule entreprise concernée par ces décisions. Nous ne sommes même pas leader du marché en Europe. Les constructeurs chinois progressent rapidement sur le continent et en termes de système d’exploitation, Android est loin devant iOS en Europe », déplore le responsable.

La Commission n’aurait pas assez réfléchi

Enfin, Joswiak répète ce qu’Apple a déjà dit devant les demandes d’ouverture : « Ces décisions vont nous obliger à exposer beaucoup d’informations sensibles des utilisateurs à des tiers, informations auxquelles Apple n’a même pas accès aujourd’hui ».

Toujours selon le responsable, fin mai, la société en était à 150 demandes d’interopérabilité, dont 15 provenant de Meta. Apple fustige ces demandes, qui ne seraient là que pour pouvoir accéder à un nombre accru de données personnelles. Greg Joswiak ne critique pas les intentions de la Commission, qu’il juge « bonnes », mais les « implications de cette décision », que l’instance européenne n’aurait pas prises en compte.

Le choix d’Apple de laisser parler l’un de ses responsables à un média français n’est pas un hasard. Comme l’indique d’ailleurs le Figaro, l’entreprise s’est lancée dans une « bataille de l’opinion publique ».

Nouvelle salve de mesures…

L’entreprise est en tout cas décidée à ne pas se laisser faire et ne cèdera pas le moindre morceau de terrain sans abattre toutes ses cartes. Pour preuve, les nouvelles mesures proposées pour mettre en phase son App Store avec le DMA et encadrer les mesures de steering, décidément au centre de toutes les attentions. Le steering, que l’on peut traduire par « orientation » ou « pilotage », permet pour mémoire aux éditeurs d’applications tierces de rediriger les utilisateurs vers des contenus payants, en proposant notamment des promotions qui ne peuvent pas apparaitre sur l’App Store.

Sur le plan des « bonnes nouvelles », Apple procède à plusieurs simplifications. Dans iOS 18.6 et 26, l’installation des boutiques tierces sera ainsi facilitée, n’obligeant plus à faire plusieurs allers-retours dans les paramètres pour donner des autorisations. On pourra se contenter d’une seule autorisation, suivie d’une authentification, pour l’ensemble de la procédure.

Apple autorise également les éditeurs tiers à attirer leurs utilisateurs vers d’autres sources d’abonnements. Traduction, si un service bénéficie d’un tarif plus intéressant en dehors de l’App Store – par exemple une période promotionnelle – un éditeur pourra prévenir via un lien cliquable. Ce lien pourra renvoyer vers une page web, mais également vers une autre application, voire une boutique tierce.

Autre simplification, celle des applications installées depuis le web. Comme l’indiquent nos confrères d’iGen, cette capacité existe bien en effet, mais elle ne semble pas avoir été exploitée jusqu’à présent. La simplification interviendra surtout pour les autres applications d’un même éditeur une fois que la première aura été installée. Pour cette dernière, il y aura quand même plusieurs autorisations à donner dans les Réglages de l’appareil.

… et de commissions

Comme indiqué, il n’est cependant pas question pour Apple de lâcher simplement du lest. La société dégaine ainsi non pas une, mais trois nouvelles commissions qui s’appliqueront ou pas selon le contexte.

D’abord, la firme explique qu’il faudra s’acquitter d’une commission de 2 % au nom des frais d’acquisition initiale. Cette dernière recouvre l’idée que ces achats sont permis grâce à l’App Store, sans lequel rien de tout ça ne serait possible. Cette commission ne s’applique que pendant les six mois qui suivent l’installation de l’application.

À cette petite commission s’ajoutent les frais de service de l’App Store, qui vont de 5 à 13 % selon les cas. Ces frais s’appliquent durant les douze mois suivant l’installation de l’application. Ils reflètent, selon l’entreprise, « les services et capacités permanents qu’Apple fournit aux développeurs, notamment la distribution et la gestion des applications, la confiance et la sécurité de l’App Store, la redécouverte, le réengagement et les outils et services promotionnels, les informations sur les applications, et bien plus encore ».

Quant à la dernière, il s’agit de la Core Technology Commission, qui vient remplacer la Core Technology Fee et son fonctionnement très particulier. La nouvelle CTC permet à Apple de ponctionner 5 % sur toutes les ventes de biens et services numériques réalisées à travers des liens externes. Les CTC et CTF vont cohabiter un temps, mais les deux régimes seront fusionnés d’ici l’année prochaine. 

  •  

Stop Killing Games : la mobilisation entre dans sa dernière ligne droite

Le Crou ne mourra jamais
Stop Killing Games : la mobilisation entre dans sa dernière ligne droite

Lancé en avril 2024, le mouvement Stop Killing Games conteste que les éditeurs puissent interrompre les services associés à un jeu vidéo, détruisant virtuellement ce dernier pour les consommateurs en ayant acquis une copie. Depuis quelques jours, il connait un regain d’attention, autour d’une pétition qui doit recueillir plus de 400 000 signatures d’ici au 31 juillet pour que la Commission européenne soit saisie du sujet.

Les courbes, compilées sur un site satellite du projet « Stop Killing Games », montrent une soudaine accélération du nombre de signatures recueillies dans tous les pays européens. L’initiative connait en effet depuis quelques jours un sursaut d’intérêt, motivé par une échéance proche.

Car c’est le 31 juillet 2025 que clôturera la pétition qui doit faire du sujet une initiative citoyenne européenne, c’est-à-dire un sujet porté à l’attention de la Commission européenne pour peu qu’il atteigne un seuil symbolique : un million de signatures.

Un mouvement né dans le sillage de la fermeture de The Crew

Au fait, de quoi parle-t-on déjà ? Stop Killing Games a émergé en avril 2024, dans la foulée d’une annonce qui n’a sans doute pas échappé à certains lecteurs de Next : la fermeture, par Ubisoft, des serveurs dédiés au jeu de course The Crew, sorti dix ans plus tôt. Fixée au 31 mars 2024, elle rend le titre inexploitable même s’il a été acheté plein tarif sur un support physique, au grand dam de certains joueurs.

Dans le lot figure un certain Ross Scott, qui s’est forgé une petite notoriété sur YouTube avec Freeman’s Mind, une série machinima réalisée avec le moteur d’Half-Life, doublée d’une seconde saison tournée dans Half-Life 2.

Ulcéré par la décision d’Ubisoft, Ross Scott prend le mors aux dents, et annonce le lancement d’un mouvement de lutte contre les éditeurs qui détruisent leurs jeux au détriment de ceux qui en possèdent une copie.

La démarche s’incarne au travers d’un site d’information dédié, par l’intermédiaire duquel Ross Scott veut recenser et surtout fédérer les différentes actions entreprises par des consommateurs européens contre le phénomène, à l’échelle de leurs différents pays.

Mobilisation européenne

En France, Stop Killing Games indique par exemple avoir déposé plainte auprès de la DGCCRF, affirme que « le problème a été escaladé au plus haut niveau de l’agence », et serait en attente d’une décision. Le mouvement encourage par ailleurs les joueurs français à se manifester auprès de l’UFC-Que Choisir, dans le but de motiver l’association de consommateurs à déclencher une action en justice.

Le 31 juillet dernier, Scott Ross annonce le lancement d’une nouvelle action, à l’échelle du continent cette fois, avec l’ouverture d’une pétition sur le site dédié aux initiatives citoyennes européennes.

« C’est l’option la plus puissante à notre disposition, mais elle nécessite un nombre massif de signatures de citoyens des pays de l’UE pour être adoptée. Si nous pouvons atteindre le seuil de signature, il y a de très fortes chances que l’UE adopte une nouvelle loi qui protégera à la fois les droits des consommateurs de conserver les jeux vidéo qu’ils ont achetés et avancera massivement les efforts de préservation », avance le mouvement. L’objectif fixé par Bruxelles pour la prise en compte est fixé à 1 million de signatures, émanant de citoyens d’au moins sept États membres.

« Cette initiative demande d’imposer aux éditeurs qui vendent ou accordent des licences pour des jeux vidéo (ou des fonctionnalités et ressources connexes vendues pour des jeux vidéo qu’ils exploitent) aux consommateurs de l’Union européenne l’obligation de laisser ces jeux vidéo dans un état fonctionnel (jouable) », indique le texte de la pétition. « Plus précisément, l’initiative vise à empêcher le blocage à distance des jeux vidéo par les éditeurs et à fournir ensuite des moyens raisonnables de faire en sorte que ces jeux continuent à fonctionner sans la participation de l’éditeur. »

La campagne connait un démarrage rapide, mais le rythme fléchit après quelques semaines. Alors que le seuil des 400 000 signatures est atteint dès le 19 décembre 2024, le compteur n’est qu’à 456 000 en date du 23 juin. Ce qui conduit Ross Scott à reprendre la parole pour une vidéo de la dernière chance, titrée : « la fin de Stop Killing Games ». Il y revient sur le déroulé de l’opération, les forces et les faiblesses du mouvement, mais aussi sur ses chances de succès, qui dépendent désormais d’un sursaut de mobilisation.

Le chant du cygne ?

L’appel semble avoir été entendu : depuis le 23 juin, des médias et des créateurs de contenus sur YouTube relaient l’information, et la courbe des signatures se redresse de façon visible. La pétition devrait selon toute attente franchir la barre des 600 000 signataires vendredi. Reste à voir si l’engouement sera suffisamment pérenne pour que le mouvement parvienne à atteindre le million.

Le volume de signatures connait un net regain depuis le 23 juin

« Si un album est acheté en forme de CD, il serait complétement inacceptable qu’il soit rendu illisible une fois que le label de musique ferme ses serveurs, ou que le label décide de ne plus le distribuer, ou que le label fait faillite, ou que le label décide de publier une version remastérisée de l’album », plaide Denis, lecteur de Next, dans un e-mail d’alerte envoyé à la rédaction.

« Un nombre croissant de jeux vidéo sont vendus effectivement comme des biens, sans date d’expiration indiquée, mais conçus pour être complètement injouables dès que le support de l’éditeur cesse. Cette pratique est une forme d’obsolescence programmée et est non seulement préjudiciable aux clients, mais rend la préservation pratiquement impossible. De plus, la légalité de cette pratique est largement non testée dans de nombreux pays », argue pour sa part le site du mouvement.

  •  

En France, le recours aux logiciels espion par les services a « bondi » de +136 % en 5 ans

Law GIC Tech
En France, le recours aux logiciels espion par les services a « bondi » de +136 % en 5 ans

24 308 personnes ont été surveillées au moyen de 98 883 techniques de renseignement mises en œuvre à la demande des services français en 2024. Si leur nombre reste relativement constant, le recours aux techniques les plus intrusives, à commencer par les logiciels espion, a « bondi » de + 136 %. La Commission de contrôle des techniques de renseignement estime que ses effectifs ne permettent pas, en l’état, de « sécuriser de façon satisfaisante le fonctionnement de la commission ».

La Commission nationale de contrôle des techniques de renseignement (CNCTR) souligne dans le communiqué associé à la publication de son rapport annuel 2024 qu’elle « atteint les limites de sa capacité ».

Créée en 2015 suite à l’adoption de la loi Renseignement, en remplacement de la Commission nationale de contrôle des interceptions de sécurité (CNCIS), elle ne dispose en effet que d’une équipe de 22 agents, dont un administrateur réseaux et un « effectif très limité » de 14 « chargés de mission » (2/3 de juristes, 1/3 de profils techniques), contre 11 en 2021.

Leur rôle principal est d’instruire les demandes de mise en œuvre des techniques de renseignement et de conduire les contrôles a posteriori. D’une moyenne d’âge de 39 ans, ils sont soit des agents publics détachés ou mis à disposition (magistrats judiciaires et administratifs, commissaire de police, officier de gendarmerie, ingénieur en chef de l’armement, inspecteur des douanes), soit des agents contractuels, ingénieurs notamment.

Or, la CNCTR a enregistré, en 2024, 98 883 demandes de techniques de renseignement portant sur 24 308 personnes surveillées, organisé 157 réunions collégiales et effectué 123 contrôles a posteriori dans les services de renseignement.

Cette « augmentation constante » de son volume d’activité, et le renforcement de ses missions au gré des modifications législatives et réglementaires intervenues dans le domaine du renseignement « placent ses effectifs et ses moyens sous tension » :

« Alors que dans le cadre de la loi de finances pour 2025, aucune création de poste n’a été prévue et que ses crédits de fonctionnement ont de nouveau été diminués, la CNCTR souligne la tension croissante entre l’évolution des modalités d’exercice de ses missions (hausse du nombre de demandes, augmentation du volume de données recueillies, complexité accrue du contrôle…) et les moyens dont elle dispose. Cette tension concerne également les fonctions de management et de support dont les effectifs ne permettent pas, en l’état, de sécuriser de façon entièrement satisfaisante le fonctionnement de la commission. »

Dotée d’un budget de 3,4 millions d’euros, la CNCTR demande dès lors un renforcement des effectifs, à raison de deux temps pleins supplémentaires en 2026, puis un par an jusqu’en 2030, d’après Libération.

La surveillance des activistes a diminué de 22 % depuis 2020

Dans son rapport annuel, la CNCTR relève que « le constat le plus marquant » au sujet de l’année 2024 est qu’elle « n’a pas été l’occasion d’une explosion du recours aux techniques de renseignement », malgré l’accumulation d’événements d’intérêt : élections européennes puis législatives, parcours de la flamme puis Jeux olympiques et paralympiques, révoltes et état d’urgence en Nouvelle-Calédonie, troubles violents en Martinique et en Guadeloupe.

Le nombre de demandes d’emploi de techniques de renseignement a en effet connu « une hausse modérée de 3 % », passant d’un peu moins de 95 000 en 2023 à un peu moins de 99 000 en 2024. Après avoir augmenté de près de 15 % en 2023, le nombre de personnes surveillées « est demeuré constant », passant de 24 209 à 24 308 en 2024, soit + 10,7 % depuis 2020, traduisant « une légère augmentation du nombre moyen de techniques sollicitées pour chaque personne surveillée ».

Une « stabilisation » du nombre de personnes surveillées qui serait, « principalement », à mettre en lien avec le recentrage d’une partie de l’activité des services sur l’objectif de prévention du terrorisme et des ingérences étrangères dans le contexte de l’organisation des Jeux olympiques et paralympiques.

Le nombre de personnes surveillées au titre de la prévention du terrorisme (29,9 % du total) est ainsi en progression de 4,3 % depuis 2023, mais en baisse de 17,3 % depuis 2020. Celles qui le sont au titre de la prévention de la criminalité et de la délinquance organisées (27,8 % du total) sont en recul de 4,2 % sur un an, mais en progression de 34,7 % depuis 2020.

Par ailleurs, la prévention des diverses formes d’activisme violent (finalités mentionnées au 5° de l’article L. 811 - 3 du Code de la sécurité intérieure), « domaine où l’enjeu de protection de la vie privée se double d’un enjeu de protection des libertés d’expression, d’opinion, d’association ou encore de manifestation », et qui représente 10,4 % du nombre total de personnes surveillées en 2024, « atteint son plus bas niveau depuis 2018 » et « connaît pour la troisième année de suite une légère diminution », en baisse de - 21,9 % depuis 2020.

Au-delà du nombre de personnes surveillées, le nombre de demandes par finalité montre que le terrorisme est passé de 46,3 % en 2020 à 39,3 % en 2024, la prévention des ingérences étrangères de 16,5 à 20,1 %, la criminalité organisée de 14,4 à 16,1 %, la prévention des diverses formes d’activisme violent de 14,2 à 11,4 % (et ce, relève la CNCTR, malgré les émeutes en Nouvelle-Calédonie et aux Antilles, ou encore la contestation des JO, de l’autoroute A69 et des projets de « bassines »), quand la protection des intérêts économiques, industriels et scientifiques majeurs de la France progressaient de 5 à 8,9 %.

+ 136 % de « recueils de données informatiques » (logiciels espion) depuis 2020

La CNCTR note par ailleurs une progression de + 4,2 % sur un an (mais de + 24,3 % depuis 2020), de l’ensemble des techniques de renseignement, dont + 12,5 % du nombre de demandes d’identification d’abonnés ou recensement de numéros d’abonnement, de + 24,9 % des accès aux factures détaillées, mais une chute de - 55,5 % des demandes d’accès aux données de connexion en temps réel.

Le rapport relève également une progression de + 29,2 % des « balisages » et localisations de personnes ou objets (2 065) depuis 2020, de + 18 % des géolocalisations en temps réel (9 909), et de + 11,1 % des « interceptions de sécurité » (14 316), du nom donné aux écoutes téléphoniques effectuées par le Groupement interministériel de contrôle (GIC), l’organisme centralisant les techniques de renseignement mises en œuvre pour le compte des services.

Le nombre de recueils de données de connexion par IMSI catcher (616) a quant à lui explosé de + 98,1 %, les introductions dans des lieux privés (4 508) de 123,1 %, les captations de paroles et d’images dans un lieu privé (3 912) de + 150,1 %, et les recueils de données informatiques (RDI) via des logiciels espion (5 715) de + 136,4 % depuis 2020, mais également de + 27,2 % par rapport à 2023, après une augmentation de 5,5 % en 2023 et de 13,4 % en 2022.

La CNCTR voit dans ce « glissement déjà constaté au cours des années précédentes vers les techniques les plus intrusives » une « tendance bien installée », « notamment pour pallier les limites des interceptions de sécurité », le recours au RDI permettant de « surmonter les difficultés liées à l’usage toujours plus important de canaux chiffrés pour communiquer ».

Autorisée par la loi du 30 juillet 2021 relative à la prévention d’actes de terrorisme et au renseignement, dite loi PATR, une première demande d’interceptions de correspondances émises ou reçues par la voie satellitaire a en outre été demandée et validée en 2024.

La CNCTR a par ailleurs estimé que la proposition du gouvernement de fixer un contingent de 20 autorisations simultanées était justifiée et adaptée à la poursuite de l’expérimentation de cette nouvelle technique de renseignement, que la loi visant à sortir la France du piège du narcotrafic a prolongé jusqu’au 31 décembre 2028.

Le nombre d’avis rendus en matière de surveillance des communications électroniques internationales (3 942) est quant à lui en baisse de 8,7 % depuis 2020. La CNCTR rappelle que les six services de renseignement du « premier cercle » (DGSE, DGSI, DNRED, DRM, DRSD et Tracfin) peuvent y recourir, et que plusieurs catégories d’autorisation sont prévues, selon l’objet et le périmètre de la surveillance envisagée. Il peut ainsi s’agir de surveiller les communications émises ou reçues au sein d’une zone géographique, par une organisation, par un groupe de personnes ou par une seule personne.

La CNCTR relève par ailleurs que le nombre de demandes de renseignements complémentaires qu’elle adresse aux services afin de leur faire part de ses attentes et de sa compréhension du cadre légal, passés de 2 797 en 2023 à 3 307 en 2024 (soit + 18,2 %), ne s’est pas, pour autant, traduit par une hausse équivalente du nombre d’avis rendus, passés de 94 902 à 98 883 (+ 4,2 %) ni du nombre d’avis défavorables, passés de 775 à 803 (+ 3,6 %).

Elle relève cela dit que, parmi ces derniers, le nombre d’avis défavorables en matière d’accès aux données techniques de connexion a baissé de 6,5 %, quand celui en réponse à des demandes de techniques de renseignement a, lui, augmenté de 9,3 %.

Comme nous le relevions dans un précédent article, la CNCTR a également autorisé un sixième algorithme en 2024, mais l’un des cinq précédemment validés a cessé d’être utilisé, sans que l’on sache combien surveillent des métadonnées téléphoniques ou Internet.

Le « caractère récurrent, voire structurel » de certaines anomalies relevées depuis 10 ans

Évoquant « des modalités d’accès aux données encore imparfaites », la CNCTR constate que « l’année 2024 a confirmé que l’accès de la commission aux données brutes et aux résultats d’exploitation, dans des conditions et des formats qui lui permettent de réaliser un contrôle efficace et efficient, qu’il s’agisse d’un accès, depuis ses locaux, ou, depuis les locaux des services, demeurait très aléatoire », notamment pour ce qui est des données portant sur le « recueil de données informatiques » des logiciels espion :

« Ainsi, dans un service, une erreur dans l’attribution des droits informatiques aux agents de la commission a empêché l’accès aux données issues des RDI pendant plusieurs mois. Dans un autre service, l’obsolescence du matériel informatique mis à disposition de la commission a rendu très aléatoire l’ouverture des fichiers issus de RDI, ne permettant que rarement au contrôle d’aboutir. Dans le courant de l’été 2024, le service a procédé au changement de l’ensemble des postes informatiques dédiés au contrôle de la commission. »

« Si à chaque fois, les services concernés ont fait le nécessaire, une fois l’origine des difficultés identifiées, pour les résoudre, ce constat constitue un sujet de vigilance pour la commission », pour qui « l’efficacité, et par voie de conséquence, la crédibilité de son contrôle, ne sont pas structurellement acquises ».

S’agissant du contrôle des mesures de surveillance internationale, la commission exprime sa satisfaction de bénéficier, depuis le début de l’année 2024, d’une salle dédiée au contrôle des six services susceptibles d’y avoir recours, mais regrette de ne pas encore disposer des mêmes outils que ceux utilisés par les agents desdits services.

Si le nombre des anomalies constatées en 2024 est « équivalent aux années précédentes », la CNCTR rappelle que son activité de contrôle a posteriori « ne peut se faire, par hypothèse, que par échantillonnage, et ne porte, en pratique, que sur une très faible proportion de l’ensemble des données issues des techniques de renseignement mises en œuvre » :

« Pour autant, la quasi-totalité des contrôles de données en surveillance dite domestique ou internationale donne lieu au constat d’anomalies persistantes, dont la gravité est variable, ce qui conduit la commission, après dix années d’exercice de son activité de contrôle a posteriori, à considérer que le nombre des anomalies effectivement constatées ne peut refléter que très partiellement la réalité. »

Si toutes les irrégularités constatées ont été notifiées aux services concernés, qui ont procédé aux suppressions et correctifs demandés, la CNCTR relève plusieurs cas de figure « habituels » d’anomalies :

  • certaines restrictions relatives aux modalités de mise en œuvre des techniques, que la commission mentionne pourtant expressément dans ses avis, ne sont pas respectées, alors qu’elles visent pourtant à limiter la gravité de l’atteinte portée à la vie privée de la personne surveillée ou de tiers ;
  • des données ont été recueillies alors que l’autorisation de mise en œuvre était arrivée à échéance ;
  • des anomalies tenant au dépassement de l’objet de la surveillance « ont de nouveau été constatées », alors que la personne surveillée n’est pas ou plus présente dans le lieu spécifiquement visé dans l’autorisation ;
  • des « carences récurrentes » dans l’établissement et la transmission des relevés de mise en œuvre, appelés « fiches de traçabilité » ont là aussi et « de nouveau » été notées en 2024, ce qui limite la capacité de la CNCTR à préparer efficacement les contrôles a posteriori, « mais surtout à détecter les éventuelles anomalies et, le cas échéant, à instruire de façon éclairée les demandes de renouvellement des techniques concernées ».

La CNCTR déplore en outre la « persistance » et le « caractère récurrent, voire structurel » de certaines anomalies relevées en matière de conservation et d’exploitation des données, qu’elle a « régulièrement évoqué » dans ses rapports d’activité, et qu’elle déplorait déjà dansles mêmes termes l’an passé.

Il s’agit « en premier lieu » de cas de dépassement de la durée légale de conservation des données collectées, « irrégularités » qui, « plus nombreuses qu’en 2023 », ont concerné des données provenant, « en majorité », des techniques les plus intrusives, en l’occurrence de captation de paroles et de recueil de données informatiques, et qui ont « principalement » été rencontrés au sein d’un service du premier cercle :

« Dans la majorité des cas, les irrégularités étaient dues à une défaillance du script d’effacement automatique des données mis en place par le service, ayant conduit à une conservation trop longue des données brutes recueillies. Les échanges avec le service concerné ont permis d’identifier la difficulté et l’ont conduit à procéder aux développements informatiques destinés à résoudre le problème qui était à l’origine d’irrégularités récurrentes. Les données ont par ailleurs immédiatement été détruites par ce service. »

La CNCTR rapporte, enfin, la « nécessité juridique » de donner un cadre légal aux échanges de renseignement entre les services français et leurs homologues étrangers, comme le souligne Vincent Mazauric dans son introduction :

« Il convient de souligner ici une nouvelle fois que la France ne connaît pas d’encadrement légal des échanges d’information entre services nationaux et étrangers. Ceci est, de manière certaine, contraire à la jurisprudence internationale. Dans un monde de menace globale, de tels échanges sont légitimes et indispensables. Leur donner un statut légal ne l’est pas moins ; les droits et libertés ne peuvent pas être garantis sur un flanc seulement. »

  •  

Microsoft lance sa Windows Resiliency Initiative et tue son écran bleu

Black is the new blue
Microsoft lance sa Windows Resiliency Initiative et tue son écran bleu

Toujours dans le sillage de la panne mondiale CrowdStrike, Microsoft a lancé sa Windows Resiliency Initiative pour réunir les acteurs concernés et établir un plan général. La coopération est de mise et des décisions ont été prises. Il y aura notamment des conséquences pour les solutions antivirus. Au passage, l’écran bleu classique disparait au profit d’un écran noir, plus sobre.

La panne mondiale CrowdStrike a eu de multiples conséquences. Microsoft a tenu plusieurs grandes réunions avec tous les acteurs impliqués. Rapidement, le problème de la résilience a été au cœur des discussions, sur la manière dont l’architecture de Windows pouvait évoluer pour se pencher – enfin – sur des points de friction connus depuis longtemps, dont la toute-puissance des antivirus et autres logiciels de sécurité.

Dès novembre 2024, il n’était plus question que de sécurité et de résilience, de reprise sur incidents et de questions liées. Microsoft communiquait déjà abondamment sur sa Secure Future Initiative, qui plaçait la sécurité en priorité absolue. Au point que pour Satya Nadella, CEO de Microsoft, il valait mieux retarder une fonction ou ne pas la publier plutôt que d’affecter la sécurité.

La Windows Resiliency Initiative (ou WRI) est en quelque sorte un surensemble. Elle a pour objectif d’aider les entreprises à mieux prévenir, gérer et se remettre des incidents de sécurité ainsi que des problèmes de fiabilité.

BSOD à l'aéroport de Washington-Dulles en raison d'une mise à jour du logiciel de CrowdStrike le 19 juillet 2024.
Un aéroport pendant la panne CrowdStrike (cc-by-sa-2.0 reivax)

Les antivirus ? Oust

À travers sa Microsoft Virus Initiative 3.0 (que d’initiatives décidément), la firme veut insuffler un changement très concret : repousser les antivirus et les solutions de sécurité en espace utilisateur. Des exigences strictes vont être imposées, qui vont empêcher les éditeurs concernés de placer des composants en espace noyau.

Qu’est-ce que ce changement signifie ? Si vous avez suivi les détails de l’affaire CrowdStrike, vous savez que l’erreur initiale est partie d’un petit rien : un simple fichier de définition, contenant les informations sur de nouveaux logiciels malveillants. Mais cette erreur a été interprétée par le module qui, lui, résidait dans l’espace noyau de Windows. Depuis cette zone, qui lui procurait des droits bien supérieurs, le composant a alors entrainé des plantages en série. Ce n’est pas pour rien non plus qu’une bonne partie des écrans bleus est engendrée par les pilotes ayant un pied dans cet espace noyau.

L’espace utilisateur, au contraire, a moins de droits et est étroitement surveillé. Les éditeurs antivirus comme Bitdefender, ESET ou encore CrowdStrike lui-même ne vont-ils pas se fâcher ? Si l’on en croit le billet de blog de Microsoft, ce serait même l’inverse : tous les éditeurs se réjouissent des évolutions annoncées. Tous disent avoir participé à la validation technique de la MVI 3.0.

On ne sait cependant pas quelles modifications précises Microsoft a apporté au code de Windows, mais il est évident qu’un tel changement nécessite une vaste opération d’ingénierie. On ne sait pas encore non plus quand ce changement sera répercuté sur le système d’exploitation.

Le BSOD est mort, vive le BSOD

Puisque l’on parle d’écrans bleus, sachez que cette « institution » va disparaitre. Il va être remplacé par une version plus sobre, à fond noir, avec une simple phrase : « Votre appareil a rencontré un problème et va redémarrer ».

Le nouveau BSOD. Crédits : Microsoft

En dessous, on trouve un pourcentage, représentant comme aujourd’hui le vidage de la mémoire dans un fichier dump, à des fins d’analyse si besoin. En bas, on trouvera la référence de l’erreur ayant entrainé le plantage, ainsi que le composant responsable. Dans l’exemple donné par Microsoft, il s’agit a priori d’un pilote.

Ce nouvel écran (que l’on pourra toujours appeler BSOD, avec le B de Black) sera déployé à la fin de l’été.

D’autres changements intéressants

La QMR (Quick Machine Recovery) est un autre gros morceau. Microsoft indique qu’en cas de redémarrages inattendus consécutifs, « les appareils peuvent rester bloqués dans l’environnement de récupération Windows (Windows RE), ce qui a un impact sur la productivité et oblige souvent les équipes informatiques à passer beaucoup de temps à dépanner et à restaurer les appareils concernés ».

Quick Machine Recovery. Crédits : Microsoft

Solution ? Déployer à grande échelle une réponse spécifique via Windows RE. Cela revient à l’automatiser pour restaurer par exemple la capacité de redémarrage. Dans le cas de la panne CrowdStrike, le mécanisme aurait certainement fait gagner du temps. Sur la page consacrée à QMR, on peut lire que la recherche de solution peut être automatisée (et connectée aux serveurs de Microsoft) ou récupérée depuis le cloud, qui peut être celui de l’entreprise. On peut donc garder la main sur ce type de déploiement.

Pour le reste, la WRI rassemble des travaux existants et en ajoutent d’autres. La fonction Hotpatching, qui permet l’application de correctifs de sécurité sans redémarrage, va être plus largement proposée et s’appliquer à tous les PC équipés de Windows 11 Enterprise. Le Connected Cache doit optimiser l’utilisation de bande passante lors du déploiement des mises à jour au sein d’une entreprise. Microsoft évoque également son service Windows 365 Reserve, que nous évoquions il y a peu.

On note que ces annonces s’adressent avant tout au monde professionnel, surtout aux entreprises ayant de grands parcs. La panne CrowdStrike a fait frémir il y a un an, provoquant un électrochoc dans une partie de l’industrie.

  •  

Reddit envisage de vérifier ses utilisateurs avec l’outil de scan d’iris de Sam Altman

Sam Altman des deux côtés de la bataille
Reddit envisage de vérifier ses utilisateurs avec l’outil de scan d’iris de Sam Altman

Alors que pendant les dernières années Reddit a parié sur l’IA générative, son co-fondateur Steve Huffman affirme vouloir sanctuariser le réseau social comme « clairement humain ». Et pour cela, il est prêt à utiliser le service de vérification biométrique World ID d’une startup co-créée par Sam Altman, le CEO d’OpenAI.

Reddit a du mal à se positionner depuis la vague de l’IA générative amorcée par l’arrivée de ChatGPT fin 2022. Source importante d’entrainement des grands modèles de langage (LLM) depuis le début, elle tâtonne entre l’opportunité d’appuyer son modèle économique sur cette vague et le danger de disparaitre, emportée par le tsunami des contenus générés par IA et de leur piètre qualité.

Surtout que les publicitaires y ont vu une opportunité pour apparaitre dans les résultats des IA génératives. Ainsi, le réseau social voit dans l’outil de vérification d’identité de World ID un moyen de se débarrasser des bots. Ironiquement, cette entreprise, créée autour d’un système biométrique qui scanne l’iris de ses utilisateurs, a été fondée par le CEO actuel de l’entreprise d’IA générative OpenAI, Sam Altman.

Reddit veut rester « clairement humain »

« Là où le reste de l’internet semble être alimenté, écrit ou résumé par l’intelligence artificielle, Reddit est clairement humain », affirme le CEO de la plateforme, Steve Huffman, au Financial Times : « c’est l’endroit où l’on va quand on veut entendre les gens, leurs expériences, leurs points de vue, leurs recommandations. Reddit est synonyme de communautés, de curation humaine, de conversation et d’authenticité ».

En effet, le réseau social a un problème avec le contenu généré par IA. Comme nous le racontions l’année dernière, de nombreuses entreprises essayent d’insérer de la publicité sur Reddit via des messages générés par IA. Des entreprises se sont même spécialisées dans la vente de publications de messages sur la plateforme.

Une lutte contre les messages générés par IA toujours d’actualité

La lutte engagée l’année dernière contre ce genre de publicité clandestine n’a pas atteint son but. En effet, le Financial Times rapporte que de nombreux responsables rencontrés lors du festival de la publicité à Cannes lui rapportent que les marques veulent se créer des comptes professionnels sur la plateforme, poster de nombreux commentaires, et ainsi augmenter la probabilité que leurs publicités apparaissent dans les réponses des chatbots.

En avril, Reddit a aussi envoyé une demande juridique à des chercheurs qui avaient lancé secrètement une expérimentation. Un avocat de Reddit a qualifié celle-ci d’ « inappropriée et hautement contraire à l’éthique ». En effet, ils ont créé plusieurs robots dont les profils étaient celui d’une personne ayant subi des agressions sexuelles, d’un conseiller en traumatologie ou encore d’un homme noir opposé à Black Lives Matter.

Une vérification par le scan de l’iris fourni par une entreprise de Sam Altman

En réaction, Steve Huffman assure que Reddit met en place un plan de vérifications strictes pour assurer les utilisateurs de la plateforme que seuls des humains puissent publier des messages sur ses canaux. Pour ça, Reddit envisage donc d’utiliser le scan de l’iris de ses utilisateurs pour s’assurer de leur humanité, un projet révélé par Semafor ce vendredi 20 juin.

Et ce scan de l’iris devrait se faire via le système de World ID, qui se présente comme une « une preuve anonyme d’humanité pour l’ère de l’IA ». Ironiquement, World ID est un service de World, une startup financée par Sam Altman et dont le but semble s’inspirer de celui de l’ « everything app » qu’Elon Musk espère atteindre avec X.

Au Financial Times, Steve Huffman déplore que ça soit « une course aux armements » depuis longtemps et une « bataille sans fin » dans laquelle est lancée Reddit depuis longtemps et dont l’IA n’est qu’une nouvelle étape.

Il relativise aussi le sujet en expliquant que le problème n’est pas nouveau : « Depuis 20 ans, nous luttons contre les personnes qui veulent être populaires sur Reddit », explique-t-il au Financial Times :

« Nous sommes très bien indexés dans les moteurs de recherche. Si vous voulez apparaître dans les moteurs de recherche, vous essayez d’être bien placé sur Reddit, et maintenant concernant les LLM, c’est pareil. Si vous voulez figurer dans les LLM, vous pouvez le faire par le biais de Reddit. »

  •  

Qualité de services mobiles : entre autocongratulation et recadrage d’Orange

Messageries instantanées, disparition différée
Qualité de services mobiles : entre autocongratulation et recadrage d’Orange

L’observatoire de la qualité des réseaux mobiles 2024 est en ligne… avec plusieurs mois de retard. En cause, des inquiétudes du régulateur sur la fiabilité des données. Huit mesures d’Orange ont d’ailleurs été « neutralisées ».

Hier, l’Arcep a mis en ligne son observatoire sur la qualité des services mobiles en France métropolitaine. Les données sont issues de sa campagne annuelle, avec plus d’un million de mesures. Comme à chaque nouvelle version de cet observatoire, les opérateurs passent en mode « l’école des fans », en se votant des compliments à grand renfort de communiqués.

Les opérateurs sont 625 fois 1ᵉʳ ou 2ᵉ ex æquo

Premier tombé dans notre boite aux lettres virtuelle, celui de l’opérateur à la marque rouge ouvre le bal : « SFR poursuit sa progression et se place 2ᵉ meilleur réseau mobile selon l’Arcep. SFR est ainsi 1ᵉʳ ou 2ᵉ ex æquo sur 230 des 258 critères de la campagne de mesures, soit 89 % des critères », affirme l’opérateur. C’était 65 % il y a trois ans.

Free était le deuxième à communiquer : « l’Arcep confirme ce jour l’excellente qualité des services mobiles de Free au T2 2024 […] Free se classe à la 1ʳᵉ ou 2ᵉ place ex æquo sur plus de la moitié des indicateurs, soit 147 indicateurs sur 258 au total ».

Quelques minutes plus tard, Bouygues Telecom déboule à son tour : « Bouygues Telecom affirme sa position de meilleur réseau mobile en zones denses sur le total des indicateurs mesurés dans l’enquête annuelle de qualité de service de l’Arcep 2024 ». Pas un mot sur les zones moins denses et rurales, ni sur le nombre de fois où il est numéro 1.

Orange ferme la marche : « Pour la 14ᵉ fois, l’enquête de l’Arcep reconnait le savoir-faire des équipes Orange et confirme que les clients Orange bénéficient de la meilleure qualité de réseau mobile, sur tout le territoire ». Orange affirme au passage rester « leader sur la voix opérateur, les SMS, la data et arrive 1ᵉʳ ou 1ᵉʳ ex aequo sur 248 des 258 des critères mesurés ».

Si on fait le compte des quatre opérateurs (enfin trois puisque Bouygues Telecom ne revendique rien à ce niveau-là), on arrive donc à 625 (230 + 147+248) fois où les opérateurs revendiquent être 1er ou 2eme ex aequo. Avec 258 indicateurs (Free, Orange et SFR sont d’accord sur ce chiffre) et quatre concurrents en lice, cela donne 1 032 places au total.

Dans plus de 60 % des cas, les opérateurs sont donc à la première ou seconde place ex æquo. Cela laisse peu de champ pour les troisièmes et quatrièmes places. Un bel hommage à l’école des fans… Mais cette campagne de mesure n’avait pour autant rien d’un long fleuve tranquille.

L’Arcep « neutralise » 8 indicateurs d’Orange

Le cas d’Orange mérite en effet qu‘on s’y attarde quelques minutes. L’opérateur annonce prendre note « de la décision de l’Arcep de neutraliser huit indicateurs relatifs à la qualité des appels voix réalisés avec une application de messagerie instantanée (voix OTT) ». Une neutralisation pour Orange seulement, pas les trois autres comme en atteste le graphique ci-dessous.

C’est la deuxième année uniquement que cet indicateur est publié, pour rappel. Sur l’observatoire de 2023 – l’Arcep y a d’ailleurs ajouté un encadré précisant les soucis avec les mesures –, le classement pour les appels en qualité parfaite (maintenus pendant deux minutes, sans perturbation audible) faisait état d’écarts importants : « 92% de taux de succès pour Orange, 86% pour SFR, et 82% pour Bouygues Telecom. Free est en retrait sur cet indicateur toutes zones et tous usages avec 54% de succès ». Free s’améliore en 2024, mais reste à la traine.

La cause de l’absence d’Orange en 2024 ? « Une optimisation des réglages du réseau pour fournir la meilleure expérience client », selon Orange. Le régulateur des télécoms « a considéré que le déploiement de ces réglages réseaux était de nature à affecter la comparabilité entre opérateurs et a donc souhaité retirer ces mesures pour la campagne 2024 ».

L’Arcep confirme : « l’activation par Orange sur son réseau d’un paramétrage spécifique de mise en veille pour les terminaux utilisés lors des campagnes de 2023 et 2024 a été de nature à affecter la représentativité des mesures ». D’où aussi la présence d’un message d’alerte pour la campagne 2023.

La Discontinuous Reception de la discorde

Une décision de l’Arcep revient sur les dessous techniques de cette affaire. En décembre, l’Autorité prévenait que « des analyses complémentaires s’avér[aient] nécessaires afin de s’assurer que les résultats des mesures soient représentatifs de l’expérience utilisateur », sans plus de détails. Traditionnellement mis en ligne en fin d’année, l’observatoire était décalé sine die.

Le gendarme a interrogé les opérateurs et leur a notamment demandé « des journaux détaillés (logs) ainsi que les conditions exactes d’activation » de certains mécanismes afin de vérifier l’ensemble des paramètres avant de prendre sa décision.

Le cœur du problème se trouve au niveau d’un « ajustement spécifique d’un paramètre de gestion de la mise en veille des terminaux (activation et gestion du mode veille DRX – Discontinuous Reception) appliqué aux terminaux T1, T2 et T3 utilisés lors des enquêtes Arcep 2023 et 2024 ». Un ajustement par type de terminal donc, qui ne concerne pas tous les smartphones.

Or, « les éléments recueillis dans le cadre de l’enquête administrative ont montré que les terminaux concernés (T1, T2 et T3) ont bénéficié d’un ajustement spécifique du mode de mise en veille DRX, visant à régler un problème de latence dans les premiers instants d’une communication audio VoIP OTT via des applications comme WhatsApp ».

En conclusion, « l’activation de ce paramétrage pourrait en conséquence avoir une incidence sur la comparabilité entre opérateurs et la représentativité de l’expérience utilisateur pour ce service ». La représentativité étant un des piliers de l’observatoire, le gendarme a pris des mesures.

Pas de problème selon le régulateur pour les performances Internet dont les tests reposent « sur des échanges de données continus » qui « rendent très improbable l’entrée en mode veille des terminaux mobiles activant le DRX ».

Pour la campagne de mesure 2025, un cadre de contrôle renforcé a été mis en place : « les opérateurs ont été invités à transmettre à l’Autorité au préalable les informations relatives à la configuration de leur réseau ».

Il n’y a pas de bonnes ou de mauvaises situations

Terminons enfin avec quelques mots sur l’observatoire en lui-même.

Sur les appels sans coupure (maintenus pendant deux minutes), « Orange affiche à l’échelle nationale 96% de succès devant Bouygues Telecom (94%), SFR et Free Mobile (92%) ». Sur la réception des SMS en moins de 10 secondes, tous les opérateurs sont entre 94 et 96 %. Tout va bien pour les quatre opérateurs.

Sur les axes de transports, « la qualité des services reste élevée sur les axes routiers. Elle est en revanche toujours à un niveau moyen dans les TGV, dans les trains des réseaux Intercités et dans les TER ». Orange tire largement son épingle du jeu dans le taux de communications réussies et maintenues dans les TGV, et conserve une avance confortable dans les TER.

Tous les détails sont dans le PDF de l’observatoire.

  •  

☕️ Digiposte, le coffre-fort numérique de la Poste, a été touché par une longue panne

« 10 h de coupure de service pour un coffre fort numérique, c’est un peu inquiétant », grince un internaute. Digiposte, le coffre-fort numérique de la Poste, utilisé par de nombreuses entreprises (d’Amazon France à la SNCF) pour la distribution et le stockage des bulletins de salaire et autres documents RH, a en effet été victime d’un long dysfonctionnement, jeudi 26 juin.

« Suite à un incident technique à 10h00, l’accès à #Digiposte via le web & mobile est momentanément indisponible. Nous vous prions de bien vouloir nous excuser pour la gêne occasionnée », annonce dans la matinée le compte X de Digiposte. Moins d’une heure plus tard, il signale la résolution de l’incident, et le rétablissement des accès Web et mobile au service.

🟡Suite à un incident technique à 10h00, l'accès à #Digiposte via le web & mobile est momentanément indisponible. Nous vous prions de bien vouloir nous excuser pour la gêne occasionnée.

— Digiposte (@digiposte) June 26, 2025

Problème : si l’interface client est bien de retour, les documents stockés par les utilisateurs restent inaccessibles, ce qui conduit l’entreprise à publier un nouveau message d’alerte en début d’après-midi. « Nous sommes vraiment désolés, mais l’incident de ce matin n’est pas encore totalement résolu. Certains utilisateurs ne peuvent pour l’instant ni consulter, ni télécharger leurs documents. Nous vous prions de bien vouloir nous excuser une nouvelle fois pour la gêne occasionnée ».

C’est finalement vendredi matin, vers 9 heures, que Digiposte annonce la résolution finale de l’incident, sans en commenter la cause, ou la durée. Le graphique des signalements répertoriés sur le site totalbug montre en effet que le service semble n’avoir été rétabli qu’aux alentours de 22 heures, jeudi soir. Contactée par nos soins, l’entreprise n’a pour l’instant pas réagi.

  •  

noyb accuse Bumble de partager des données avec OpenAI sans consentement

Céder n’est pas consentir
noyb accuse Bumble de partager des données avec OpenAI sans consentement

L’application de rencontre Bumble a introduit une fonctionnalité appelée « brise-glace » (ou icebreaker) proposant des messages générés par IA en partenariat avec OpenAI. Problème pour noyb et l’utilisatrice qu’elle accompagne dans cette plainte, Bumble affiche un pop-up d’acceptation de cette fonctionnalité tant qu’elle n’est pas validée.

noyb, l’association de Max Schrems qui lutte pour la protection de la vie privée, a annoncé dans un communiqué ce jeudi 26 juin avoir déposé plainte auprès de la DPA (l’autorité de protection des données autrichienne) contre Bumble pour diverses violations du RGPD via sa fonctionnalité « Icebreaker ».

Bumble a été créée par Whitney Wolfe Herd, co-fondatrice de Tinder, entreprise qu’elle a quitté en 2014 en l’attaquant en parallèle pour discrimination et harcèlement sexuel.

Comme la plupart des entreprises du secteur du numérique, Bumble a cherché une manière d’introduire de l’IA dans son service. Fin 2023, l’entreprise ajoute une fonctionnalité nommée « Icebreaker » à la section « Bumble For Friends ».

Celle-ci, pensée pour les rencontres amicales, propose aux utilisateurs de l’application des messages pré-formatés pour les accompagner dans leurs discussions. Mais pour casser la glace entre ses utilisateurs, Bumble a signé un partenariat avec OpenAI.

Un dark pattern obligeant à accepter

Pour ça, explique noyb dans sa plainte [PDF], Bumble indique que les données du profil de l’utilisateur sont analysées par l’intelligence artificielle d’OpenAI, qui crée ensuite un message basé sur les données des deux protagonistes de la conversation.

Pour informer ses utilisateurs, Bumble affiche une pop-up dont le texte est : « L’IA brise la glace. Nous utilisons l’IA pour vous aider à démarrer la conversation. Cela vous permet de poser des questions qui correspondent aux informations du profil de nos membres », accompagné d’un bouton « Okay » et d’un lien vers une FAQ.

Pop-up de présentation de la fonction « Ice breaker » en allemand présent dans la plainte de noyb

Cette FAQ est qualifiée de « minimaliste » par l’association. Selon elle, son texte explique ce qu’est l’IA, que les données du profil sont utilisées par OpenAI pour créer des prompts. En fermant la FAQ, le pop-up réapparait. De même, il réapparait régulièrement à l’ouverture de l’appli et tant que l’utilisateur n’a pas cliqué sur le bouton « OK », mais n’est utilisable par un utilisateur dans une conversation que si les deux ont cliqué sur OK.

Consentement ou intérêt légitime ?

La fonctionnalité fournie par OpenAI ne tourne pas sur les serveurs de Bumble mais sur ceux de l’entreprise d’IA générative. Il faut donc que Bumble transmette ces données à OpenAI. Or, pour noyb, cette simple pop-up ne permet pas de recueillir le consentement des utilisateurs. C’est le principal reproche de la plainte de l’association contre l’entreprise : elle ne recueillerait pas le consentement qui lui est indispensable pour transmettre ces données à OpenAI.

Du côté de Bumble, l’entreprise a répondu à l’utilisatrice accompagnée par noyb qu’elle a « un intérêt légal à transmettre les données des utilisateurs à OpenAI afin de mettre la fonction Icebreaker à la disposition des utilisateurs ». Dans sa plainte, noyb suppose que l’entreprise veut dire par là qu’elle considère qu’elle a un intérêt légitime, au sens de l’article 6 du RGPD, pour transmettre ces données.

Dans la plainte, noyb soulève d’autres problèmes de compatibilité de Bumble avec le RGPD : le manque de transparence, le transfert de données sensibles à OpenAI sans base légale ainsi que le manque d’information sur les destinataires des données.

« Bumble impose ses fonctionnalités d’IA à des millions d’utilisateurs européens sans jamais leur demander leur consentement. Au lieu de cela, leurs données personnelles sont envoyées à OpenAI et introduites dans les systèmes d’IA de l’entreprise », résume Lisa Steinfeld, l’une des avocates de noyb.

Elle ajoute que « le fait que Bumble propose à ses utilisateurs de dire “Ok” aux IA Icebreakers est trompeur. Cela crée un faux sentiment de contrôle sur vos propres données. En réalité, Bumble prétend avoir un soi-disant intérêt légitime à utiliser vos données sans aucun consentement ».

  •  

☕️ Google lance Offerwall, une alternative au paywall pour les éditeurs de sites

Google vient de déployer au sein de sa plateforme d’outils publicitaires une nouvelle brique baptisée Offerwall. Une fois implémentée, cette dernière permet aux éditeurs de sites d’échanger l’accès à un contenu contre une action proposée via un écran intermédiaire : regarder une publicité, effectuer un paiement via le service spécialisé partenaire Supertab, créer un compte sur le site ou sélectionner des centres d’intérêt qui serviront à affiner le ciblage des réclames affichées lors de la navigation.

« Les éditeurs peuvent même ajouter leurs propres options, comme une inscription à la newsletter. Ces options permettent aux utilisateurs de choisir comment accéder à leurs sites et contribuent à garantir qu’un contenu varié reste accessible à tous », commente Peentoo Patel, directeur de Google Ad Manager.

Offerwall se positionne comme une alternative aux solutions spécialisées de paywall

Offerwall, qui aurait déjà été testé auprès d’un millier d’éditeurs, propose également une brique basée sur l’IA et capable, selon Google, d’optimiser l’affichage des différentes options pour augmenter l’engagement des utilisateurs et les revenus associés. « Bien qu’Offerwall soit disponible pour les éditeurs de toutes tailles, il est particulièrement avantageux pour les petites entreprises qui ne disposent peut-être pas des ressources ou de l’infrastructure nécessaires pour mettre en place des sources de revenus variées », estime Peentoo Patel.

Déjà présent chez la plupart des éditeurs de médias au travers de ses outils publicitaires, Google étend ainsi son rayon d’action, avec une solution capable de participer à une stratégie de contenus payants, qui viendra de ce fait concurrencer des startups spécialisées dans la conversion d’audience comme Zuora ou les français de Poool.

  •  

Comment l’étau s’est resserré autour d’Intelbroker et des admins de BreachForums

Broken broker
Comment l’étau s’est resserré autour d’Intelbroker et des admins de BreachForums

Après Intelbroker, arrêté en février en France, quatre administrateurs présumés du célèbre site BreachForums, dédié à la vente de données personnelles, ont été interpellées lundi. La plainte, déposée à cette occasion par la justice américaine, lève le voile sur la façon dont les autorités ont réussi à remonter la piste de ces pirates. Ironie du sort, les coulisses racontent aussi comment Intelbroker, adepte d’imagerie nazie et de musique électronique, a été retrouvé grâce à des données personnelles mal camouflées…

Sa fermeture et la saisie de ses serveurs par le FBI, en mai 2024, sonnait comme une victoire symbolique mais, comme souvent dans le monde du piratage, BreachForums renaissait rapidement de ses cendres, sous la houlette d’une nouvelle équipe, mais cette dernière n’aura finalement pas tenu très longtemps.

Le parquet judiciaire de Paris a en effet annoncé mercredi l’interpellation de quatre personnes suspectées d’avoir orchestré les activités illicites de BreachForums, revenu sous une forme identique, mais hébergé sur une autre infrastructure et accessible via un nouveau nom de domaine.

Quatre administrateurs présumés interpellés

Bon nombre des vols de données chroniquées dans l’actualité ces dernières années ont donné lieu à des annonces publiées sur BreachForums qui, pour Laure Beccuau, procureure de Paris, « constituait le premier lieu d’échange et revente de données informatiques volées et d’accès frauduleux dans des systèmes d’information ».

« Les interpellations de cette semaine ont visé les personnes suspectées d’être les administrateurs principaux du site, et permettent d’espérer sa fermeture durable. Les éléments informatiques saisis seront exploités et sont susceptibles de faire progresser significativement de nombreuses enquêtes en cours », veut croire la procureure dans un communiqué (PDF).

Elle précise que les investigations se poursuivent sous la direction du juge d’instruction, et que ces arrestations ont été réalisées avec le concours du FBI et du département de la Justice américain. Ces quatre arrestations, déclenchées à la suite d’une enquête préliminaire ouverte en août 2024 au motif que plusieurs des administrateurs du site étaient de nationalité française, sonnent-elles le glas de BreachForums ?

Le Parquet de Paris indique que ces quatre personnes opéraient « sous le nom collectif de « Shinyhunters » ». Ce pseudo, issu de la série Pokemon, renvoie à un groupe de hackers déjà associé à plusieurs piratages d’ampleur (dont le Français Sébastien Raoult, arrêté en 2022 et condamné aux États-Unis), sans qu’on sache si un lien formel a été établi.

Sur la piste d’Intelbroker

Ces quatre nouvelles arrestations font suite à l’interpellation, là aussi en France, d’une autre personnalité de premier plan de la scène cyber, IntelBroker, suspecté d’avoir lui aussi été impliqué dans l’administration de BreachForums. Il en était à tout le moins l’un des membres actifs. Un temps identifié comme modérateur avant que son profil ne passe au statut « God » désignant les administrateurs, il y arborait le portrait d’un soldat nazi en guise d’avatar.

Les goûts musicaux d’Intelbroker, affichés publiquement sur le forum, ont participé à l’enquête

Ce jeune homme britannique, qui pendant un temps a laissé entendre qu’il était d’origine serbe et a longtemps revendiqué une forme de proximité avec la Russie, apparait en effet comme un pirate prolifique. Sur BreachForums et d’autres plateformes, il a notamment revendiqué des intrusions et des vols de données réussis au sein de nombreuses entreprises ou institutions parmi lesquelles Cisco, AMD, HPE, Home Depot et même Europol.

Ces quatre nouvelles arrestations permettent à la justice américaine de sortir du bois, et de publiquement inculper Intelbroker. Le département de la Justice a ainsi publié mercredi la plainte (PDF) et l’acte d’accusation (PDF) qui visent Intelbroker, ou plutôt Kai West, puisque tel est le nom avancé dans ces documents.

Le FBI ne s’étend pas à ce sujet, mais fournit une capture d’écran montrant que le tout premier critère de recrutement pour pouvoir figurer dans son groupe était d’ « être blanc et raciste », suivi par le fait de détester les forces de l’ordre et les agents infiltrés (« glowies »), et d’avoir une bonne sécurité opérationnelle (OPSEC), au vu des risques associés au fait de collecter et partager des fuites de données.

Fraude, conspiration en bande organisée et vol de données

Les différents chefs d’accusation dressent un tableau chargé, avec des activités dont l’impact est évalué par le FBI à au moins 25 millions de dollars de préjudice pour les entreprises basées aux États-Unis et visées par Intelbroker entre 2023 et 2025.

La plainte retient notamment que le pirate a directement proposé à la vente des données volées à 41 reprises, et qu’il aurait organisé 117 fois la diffusion gratuite de bases de données volées. « West et ses co-conspirateurs ont cherché à réunir au moins 2 millions de dollars en vendant ces données volées », estime le FBI.

Pour ce faire, les autorités ont logiquement épluché l’ensemble de ses messages publics sur BreachForums,. Elles tiennent une comptabilité précise de toutes les annonces de mise en vente, mais aussi des commentaires qui montrent que l’intéressé occupe une position privilégiée dans l’organigramme du forum. Elles s’attachent par ailleurs à signaler tous les éléments qui suggèrent qu’Intelbroker n’intervenait pas seul en la matière, pour soutenir la circonstance aggravante d’actes en bande organisée.

Les auteurs du volet états-unien de l’enquête illustrent par ailleurs comment Intelbroker se faisait payer pour ses services, qu’il s’agisse de vente de données ou de mise à disposition d’outils de piratage.

Achats sous couverture

Jusqu’à la transaction de trop ? À partir de mars 2023, un agent « sous couverture » du FBI entre en contact avec Intelbroker et engage des transactions pour vérifier que les données vendues par ce dernier sont bien issues de bases de données volées. Les échanges, à cette occasion, se font en monero (XMR), une cryptomonnaie axée sur la vie privée et la décentralisation, plus difficile à tracer que les cryptoactifs les plus courants.

En parallèle, un autre agent du FBI réussit à obtenir d’Intelbroker une transaction réalisée cette fois en bitcoin. L’opération mène à un portefeuille intermédiaire, que les enquêteurs parviennent ensuite à rattacher à un autre portefeuille, créé cette fois sur une place de marchés baptisée Ramp.

Comme beaucoup d’exchanges ayant pignon sur rue, la société éditrice, basée en Pologne et présente au Royaume-Uni, impose à ses clients une vérification d’identité dans une logique de KYC (« Know your customer »). Pour le portefeuille en question, elle dispose d’un permis de conduire britannique, grâce auquel le FBI et le DoJ identifieront un autre wallet, créé sur Coinbase cette fois, lequel donnera accès à des adresses e-mail et d’autres informations personnelles, dont l’un des pseudonymes d’Intelbroker, Kyle Northern.

C’est alors que l’étau se resserre, avec un recoupement entre, par exemple, les messages publics sur BreachForums et l’activité du compte YouTube du suspect. La plainte expose par exemple comment Kai West a écouté douze fois de suite Darkside de CHCML SØUP au moment même où Intelbroker publiait un lien vers le morceau sur le forum.

Dans sa plainte, le procureur du South District de New York réclame que Kai West soit transféré aux États-Unis et déféré devant sa juridiction. Il est accusé de conspiration en vue de commettre des intrusions informatiques (passible d’une peine maximale de cinq ans de prison), de conspiration en vue de commettre une fraude électronique (passible d’une peine maximale de 20 ans de prison), d’accès à un ordinateur protégé en vue d’obtenir des informations (passible d’une peine maximale de cinq ans de prison) et de fraude électronique (là encore passible d’une peine maximale de 20 ans de prison). Le ministère précise cela dit que ces peines maximales potentielles ne sont fournies ici qu’à titre d’information, « car toute condamnation du défendeur sera déterminée par un juge ».

  •  

☕️ Le réseau mobile d’Orange de retour après une longue panne

Hier soir, peu après 20 h, le compte Orange France sur X annonçait des « ralentissements sur le réseau mobile ». Les précisions de la cause étaient on ne peut plus vagues : « un problème technique ».

Les retours des clients sont également nombreux, et commencent un peu avant 19 h selon Downdetector. Ils parlent de « ralentissements », mais également de services totalement inaccessibles pour certains.

Ce matin, à 7h30, nouvelle communication pour un quasi-retour à la normale : « Fin des perturbations pour nos clients en France. Pour les clients en déplacement à l’étranger, les services restent perturbés ».

Cette panne intervient quelques jours seulement après une panne géante de SFR, impactant jusqu’à son cœur de réseau. Les causes exactes n’ont pas (encore ?) été dévoilées par SFR, ni par Orange pour l’instant.

  •  

☕️ Quand tout à coup, le PNG « devient » compatible HDR, animations et EXIF

Comme repéré par nos confrères de MacG, une troisième version du standard PNG pour les images a été publiée par le W3C le 24 juin. Une surprise, car la dernière mouture datait d’il y a 22 ans.

Pourquoi cette révision ? Pour normaliser des capacités que le format Portable Network Graphics possède déjà depuis un moment, et que l’on trouve d’ailleurs dans divers endroits depuis des années. Les animations APNG (Animated PNG) sont ainsi utilisées depuis longtemps par Apple pour les autocollants dans iMessage. Le constructeur supporte ce format depuis iOS 8 et Yosemite, sortis il y a presque 11 ans.

La nouvelle version prend également en charge le HDR et ses espaces colorimétriques étendus. Ce support ne touche d’ailleurs pratiquement pas à la taille des fichiers, car les métadonnées liées à ces informations sont enregistrées dans une zone de 4 octets seulement. Enfin, puisque l’on parle de métadonnées, le PNG supporte désormais (officiellement) les données EXIF. Ce sont elles qui permettent de retrouver la position géographique du cliché à sa création, l’appareil utilisé, son orientation, etc.

Comme indiqué, ces capacités existaient toutes déjà depuis plus ou moins longtemps et étaient déjà utilisées. La publication du W3C est surtout là pour mettre les choses au propre, pour un format dont le succès a été assuré par sa capacité à compresser les données sans perte. Il est très présent notamment dans les outils de captures d’écran.

Schéma de la transformation d’une image de référence en image PNG
  •  

Comment WhatsApp propose des résumés IA sans pouvoir lire les conversations

Quelle débauche
Comment WhatsApp propose des résumés IA sans pouvoir lire les conversations

Dans un billet de blog publié hier soir, WhatsApp a annoncé l’arrivée des résumés pour les messages dans l’application. La fonction, qui se veut optionnelle, n’est pour l’instant disponible qu’en anglais aux États-Unis. Surtout, elle s’appuie sur une nouvelle architecture destinée à préserver la confidentialité des conversations. WhatsApp le jure, personne d’autre ne lira ces résumés.

L’annonce de WhatsApp sur les résumés est tout sauf anodine. Bien que la fonction soit un grand classique désormais des IA génératives, son arrivée dans l’application se fait au même moment où les publicités s’apprêtent à débarquer. Or, dans le cadre d’une application qui a toujours joué la sobriété – au point d’être souvent jugée austère face à des concurrents comme Telegram – tous ces changements ne passent pas inaperçus.

L’arrivée des résumés signale une intensification de l’offensive Meta AI dans WhatsApp. Mais elle soulève surtout une question évidente : qu’en est-il de la promesse de WhatsApp sur le chiffrement de bout en bout des contenus ? Si l’IA intervient, et puisqu’elle ne le fait pas localement, cela signifie-t-il que les contenus des échanges sont envoyés à des serveurs pour y être moulinés par les bons soins de Meta, qui peut donc lire les messages ?

Private Processing : de grosses ambitions

L’annonce de WhatsApp est directement liée à une architecture présentée initialement le 29 avril et qui a fait l’objet d’un livre blanc le 10 juin (PDF) : Private Processing et la notion Trusted Execution Environment (TEE). Il s’agit ni plus ni moins que de la très officielle réponse de Meta à Apple et son Private Cloud Compute, cette infrastructure conçue pour traiter les requêtes IA sans renoncer à la vie privée. Si les approches diffèrent sur plusieurs points, le constat général est le même : c’est complexe.

Pour WhatsApp, les objectifs sont clairs. L’utilisation de Meta AI, traitement privé ou non, doit être optionnelle. De plus, tout ce qui touche au traitement privé doit être transparent. Enfin, la confidentialité avancée des discussions doit aussi empêcher l’invocation de Meta AI pour traiter des messages dans les groupes. WhatsApp assure que « des chercheurs en sécurité indépendants seront en mesure de vérifier en permanence » son architecture et son intégrité.

C’est donc la réponse de Meta à la grande question : comment appliquer les traitements d’IA génératifs sur des serveurs sans compromettre la confidentialité des échanges ?

Attention les yeux

Le livre blanc de Meta identifie quatre grands piliers. Le premier est matériel et est constitué par les TEE, dans l’objectif de créer des enclaves se voulant totalement isolées des infrastructures classiques.

Du côté matériel, Meta indique se servir de processeurs EPYC d’AMD pour leur technologie SEV-SNP (Secure Encrypted Virtualization-Secure Nested Paging). Cette dernière permet le chiffrement intégral de la mémoire de la machine virtuelle où s’exécute le traitement. SEV-SNP empêche également l’hyperviseur d’inspecter ou de modifier le contenu de la machine virtuelle.

Ces CPU sont accompagnés (sans surprise) de GPU NVIDIA, plus précisément l’architecture Hopper, pour son mode Confidential Computing. Les communications entre le GPU et le pilote graphique au sein de la machine virtuelle sont ainsi chiffrées via un tunnel sécurisé utilisant le protocole SPDM. Ce mode permet également les attestations (nous allons y revenir).

Attestation et confiance

Dans son livre blanc, Meta explique que tout un mécanisme doit être mis en place pour s’assurer que les requêtes de l’utilisateur sont bien envoyées vers ces boites noires, et que celles-ci sont capables de s’identifier comme telles, afin que les traitements puissent avoir lieu.

À partir de la page 11 de son livre blanc, Meta explique ainsi se servir du protocole RA-TLS (Remote attestation over TLS). Il permet de vérifier l’authenticité et l’intégrité de la connexion d’un appareil avec l’un des TEE. Sans trop plonger dans les détails (l’architecture est particulièrement complexe), il faut retenir qu’au démarrage, le matériel calcule une empreinte cryptographique de chaque composant logiciel chargé, comme le firmware, le noyau du système d’exploitation, les conteneurs applicatifs, etc.

Quand un appareil veut se connecter à un TEE, celui-ci génère un certificat TLS spécifique à cette connexion. Il contient un rapport d’attestation signé par une clé privée et stockée dans le processeur AMD (VCEK). Ce rapport contient toutes les empreintes cryptographiques citées précédemment ainsi qu’un nonce (numéro à usage unique) fourni par le client.

Côté client, l’application WhatsApp vérifie l’authenticité du rapport. Cette étape doit répondre à trois questions : la signature du rapport provient-elle d’un processeur AMD ? Les empreintes logicielles correspondent-elles aux versions utilisées par Meta ? Toutes les politiques de sécurité sont-elles respectées ? De nombreux éléments sont contrôlés, comme la clé racine AMD, la version du firmware, etc. Tout échec sur un élément entraine celui de toute la procédure et aucune donnée n’est envoyée.

Cloudflare et Fastly entrent en piste

Pour que cette attestation fonctionne, il faut qu’une source puisse établir ce qu’est la « bonne » partie logicielle à laquelle on tente de se connecter. Meta indique ne pas pouvoir être la seule source et a donc choisi Cloudflare comme « gardien ».

Cloudflare est ainsi chargée de maintenir un journal public, en lecture seule et infalsifiable. Dans ce journal, Meta inscrit les empreintes cryptographiques de chaque composant logiciel qu’elle utilise. Quand la société ajoute par exemple une machine virtuelle, son empreinte est envoyée à Cloudflare, qui la consigne dans le journal et y ajoute sa propre signature cryptographique pour attester de la modification.

C’est ce journal qui sert de point de repère quand le client cherche à vérifier l’authenticité du TEE. L’application WhatsApp cherche ainsi dans le journal si les empreintes qu’on lui présente y figurent bien. Ce fonctionnement doit empêcher qu’une version compromise soit secrètement installée, puisque sans la signature de Cloudflare, les clients WhatsApp ne s’y connecteront pas.

Une autre entreprise participe à la machinerie. Fastly s’occupe en effet des relais tiers par lesquels les requêtes vont être acheminées vers Meta. Il n’y a pas de connexion directe, afin que Meta ne puisse pas voir les IP. Fastly voit bien l’adresse, mais pas le contenu des requêtes. Chez Meta, la passerelle voit les données, mais pas l’adresse IP du client : elle ne voit que celle de Fastly. L’ensemble se sert d’OHTTP (Oblivious HTTP).

Un autre mécanisme est utilisé pour renforcer la sécurité : ACS (Anonymous Credentials Service). Dans l’idée de pouvoir authentifier un utilisateur sans l’identifier directement, un jeton ACS lui est attribué. Ce jeton va constituer la preuve qu’il est un utilisateur légitime de WhatsApp, sans rien dire d’autre de l’identité. Il est ensuite validé par la passerelle de Meta et constitue un sésame vers le traitement.

Et ensuite ? Une session sécurisée est établie entre le client et le TEE sélectionné. La requête est envoyée sous une forme chiffrée, grâce à une clé éphémère connue uniquement du TEE, et seul ce dernier peut déchiffrer la requête. La réponse, elle, est renvoyée à l’aide d’une autre clé. Meta assure ne jamais pouvoir accéder aux informations.

Une transparence louable, mais…

Le livre blanc de Meta est doublement intéressant. D’abord parce que l’entreprise se révèle très transparente sur ses choix techniques. Nous avons résumé ici le cœur du dispositif, mais le document contient d’autres détails. On remarque d’ailleurs que jamais les documents de Meta ne sont aussi détaillés que quand ils concernent les choix techniques adoptés pour WhatsApp, comme lorsqu’il a fallu proposer une architecture de connexion aux messageries tierces, pour s’adapter au DMA.

Ensuite, parce que ces explications détaillées sont là pour convaincre que l’approche garantit l’utilisation de l’IA tout en préservant la confidentialité. Et pour montrer patte blanche, les fonctions de résumé sont pour l’instant optionnelles. Il faut se rendre en effet dans les réglages de l’application pour activer les résumés, qui ne fonctionnent pas sans Private Processing.

Mais on ne peut s’empêcher de se demander, comme dans le cas d’Apple d’ailleurs : cette débauche de moyens doit-elle déboucher sur quelque chose de tangible ? Même si dans le cas d’Apple on peut se douter que des fonctions payantes finiront bien par arriver pour rentabiliser ces investissements massifs, la question est plus prégnante pour WhatsApp.

Meta a mis en place une architecture complète pour ce qui n’est pour l’instant qu’une simple fonction de résumé. Cela signifie-t-il que d’autres capacités vont arriver par la suite ? Un bouquet payant sera-t-il proposé ? Ou au contraire, Meta choisira-t-elle d’explorer plus avant la piste des publicités ? Après tout, WhatsApp jurait ses grands dieux depuis le départ que jamais elles n’entreraient dans son application, toutes les pistes restent donc ouvertes.

Reste la question de la confiance. Le système de Meta est complexe et implique de faire confiance à l’implémentation de tous ces composants par l’entreprise. La problématique est la même que chez Apple et va au-delà de la simple image de marque. Meta, en tout cas, ne semble pas douter de son infrastructure d’attestation : « Pour contourner cette méthode d’attestation, il faudrait une collusion avec nos fournisseurs de matériel, ce qui est hors de portée ».

Le géant semble cependant assez sûr de son coup pour inviter officiellement les chercheurs indépendants à se pencher sur son infrastructure. Le programme de chasse aux bugs (bug bounty) a également été étendu à Private Processing.

  •  

Copyright : les entreprises d’IA gagnent plusieurs manches judiciaires, mais pas toutes

Copyright : les entreprises d’IA gagnent plusieurs manches judiciaires, mais pas toutes

Dans leurs procès respectifs, Meta et Anthropic ont vu leurs arguments validés sur plusieurs points importants contre des auteurs de livres qui les accusaient d’avoir enfreint leurs droits en utilisant leurs œuvres pour entrainer leurs modèles. Mais ces décisions ne figent pas de jurisprudence globale : dans les deux cas, les juges ont laissé des angles d’attaque possibles, dont notamment l’utilisation des bibliothèques clandestines pour accéder aux œuvres.

Coup sur coup, deux juges étasuniens ont rendu leur décision dans deux affaires opposant des entreprises d’IA génératives et des auteurs de livres sur des enjeux de violation de Copyright. Et coup sur coup, ils ont tranché en grande partie en faveur de ces entreprises.

Le droit d’entrainer sur des livres achetés et scannés

Lundi 23 juin, le juge du district nord de Californie William Alsup a rendu sa décision [PDF] sur le cas opposant Anthropic à l’autrice Andrea Bartz et les auteurs Charles Graeber et Kirk Wallace Johnson. Dans celle-ci, il affirme notamment qu’Anthropic avait le droit d’entrainer ses modèles sur les livres de ces auteurs qu’elle avait achetés en version papier puis scannés, considérant que « l’utilisation pour l’entrainement est incluse dans le fair use [usage raisonnable accepté par le droit étasunien] ». C’était l’argument principal de l’entreprise. Celle-ci considérait que l’entrainement permet de « transformer » l’œuvre sans s’y substituer. La jurisprudence du fair use prévoit notamment que dans ce cas, l’usage de l’œuvre est licite. Comme le souligne Wired, le juge a même commenté cette décision en affirmant que « la technologie en question était l’une des plus transformatrices que beaucoup d’entre nous verrons au cours de notre vie ».

Interrogé par nos confrères, l’avocat Chris Mammen du cabinet étasunien Womble Bond Dickinson affirme que cette décision sur le caractère transformateur de l’entrainement s’applique « même en cas de mémorisation importante ». Selon lui, le juge « a notamment rejeté l’argument selon lequel ce que font les humains lorsqu’ils lisent et mémorisent est différent de ce que font les ordinateurs lorsqu’ils entrainent un LLM ».

Par contre, le juge William Alsup n’avalise pas l’utilisation de bibliothèques clandestines par les entreprises d’IA pour collecter les livres numériques. « Anthropic a téléchargé plus de sept millions de copies pirates de livres, n’a rien payé et a conservé ces copies pirates dans sa bibliothèque même après avoir décidé qu’elle ne les utiliserait pas pour entraîner son IA (du tout ou plus jamais) », décrit-il, « les auteurs soutiennent qu’Anthropic aurait dû payer pour ces copies piratées ». Ici, William Alsup se dit en accord avec les auteurs des livres. Et il annonce dans ses conclusions : « Nous aurons un procès sur les copies pirates utilisées pour créer la bibliothèque centrale d’Anthropic et les dommages qui en découlent ».

Une concurrence déloyale non prouvée

Deux jours plus tard, dans le même district, le juge Vince Chhaabria rendait lui aussi sa décision [PDF] concernant l’affaire opposant Meta notamment à une douzaine d’auteurs dont celui de science-fiction Richard Kadrey. Celui-ci visait justement l’utilisation de bibliothèque clandestine par Meta pour entrainer ses modèles Llama. « La Cour n’a d’autre choix que d’accorder [son] jugement à Meta sur l’allégation des plaignants selon laquelle l’entreprise a violé la loi sur le copyright en entrainant ses modèles à l’aide de leurs livres », écrit-il.

Mais il ajoute que sa décision « confirme seulement que ces plaignants ont avancé les mauvais arguments et n’ont pas réussi à constituer un dossier à l’appui des bons arguments ». Notamment, ce juge fait remarquer qu’ « en ce qui concerne l’argument potentiellement gagnant, à savoir que Meta a copié leurs œuvres pour créer un produit qui inondera probablement le marché avec des œuvres similaires, entraînant une dilution du marché, les plaignants accordent à peine une attention particulière à cette question et ne présentent aucune preuve de la manière dont les résultats actuels ou attendus des modèles de Meta dilueraient le marché de leurs propres œuvres ».

Dans sa décision, le juge Chhaabria a aussi commenté celle de son collègue, expliquant que « le juge Alsup s’est fortement concentré sur la nature transformatrice de l’IA générative tout en balayant les préoccupations concernant le préjudice qu’elle peut infliger au marché des œuvres sur lesquelles elle est entraînée ».

Commentant la position du juge Alsup, selon laquelle « il ne s’agit pas du type de déplacement concurrentiel ou créatif qui relève de la loi sur le copyright », le juge Chhaabria affirme que « en ce qui concerne les effets sur le marché, l’utilisation de livres pour apprendre aux enfants à écrire n’est pas du tout comparable à l’utilisation de livres pour créer un produit qu’un seul individu pourrait utiliser pour générer d’innombrables œuvres concurrentes avec une fraction minuscule du temps et de la créativité que cela nécessiterait autrement. Cette analogie inopportune ne permet pas d’écarter le facteur le plus important de l’analyse du fair use ».

Le débat sur le fair use pour entrainer les IA est donc loin encore d’être refermé.

  •  

☕️ Fin du partage de compte : Disney+ lance la formule Abonné supplémentaire en France

Comme Netflix, Disney+ fait désormais payer le partage de compte à ses abonnés français. Le service de vidéos en ligne considère désormais que les connexions qui s’effectuent hors foyer justifient la souscription d’une option dédiée. Baptisée Abonné supplémentaire, celle-ci est facturée 4,99 euros par mois dans le cas d’un abonnement Disney+ Standard avec publicité et 5,99 euros par mois avec les formules Disney+ Standard et Disney+ Premium.

La page d’explication dédiée aux tarifs résume les modalités de la nouvelle option Abonné supplémentaire

« Vous ne pouvez ajouter qu’un Abonné supplémentaire par abonnement Disney+. L’Abonné supplémentaire doit avoir au moins 18 ans et vivre dans le même pays / la même zone géographique que le titulaire du compte. Il ne doit pas posséder d’abonnement Disney+ actif ou résilié », précise par ailleurs le service.

À l’instar de ses concurrents, Disney+ prévoit un système de vérification du compte lorsque le titulaire tente de se connecter depuis un appareil qui ne semble pas pouvoir être directement rattaché au foyer de souscription, à l’occasion d’un déplacement ou de vacances par exemple. « Si le message « Cette TV ne semble pas faire partie du foyer pour ce compte » apparaît, vous pouvez sélectionner JE SUIS EN VOYAGE. Si vous êtes en voyage pour une période prolongée, par exemple pour des vacances d’hiver ou d’été, vous pouvez choisir de mettre à jour votre foyer ».

Si la France a bénéficié de quelques mois de souplesse supplémentaires, le déploiement de cette option Abonné supplémentaire a pour mémoire débuté à l’automne dernier.

  •  

☕️ Vers une nouvelle législation européenne sur l’espace pour remplacer les droits nationaux

La Commission européenne a annoncé ce mercredi 25 juin avoir proposé une nouvelle législation qui couvrirait le secteur spatial. L’idée est de refonder cette partie du droit car « les règles européennes en matière d’espace sont actuellement fragmentées, avec de nombreuses approches nationales différentes », selon le communiqué de la commission. « Ce patchwork freine l’innovation, réduit la part de marché européenne et engendre des coûts supplémentaires », ajoute-t-elle.

Cette nouvelle législation harmoniserait donc le droit des pays de l’UE sur trois domaines : la sécurité dans l’espace, la résilience et l’environnement.

Espace et pollution : illustration parodiant une scène du film E.T avec un camion poubelle

Sur la sécurité, la commission met en avant le problème de la congestion des orbites, avec 11 000 satellites déjà dans l’espace et 50 000 autres à venir d’ici 10 ans. Mais aussi le problème des débris : « plus de 128 millions de débris circulent déjà dans l’espace, augmentant fortement le risque de collision », souligne-t-elle.

Quand la Commission parle de résilience, c’est pour évoquer l’augmentation des menaces cyber et des interférences électroniques qui ciblent les satellites mais aussi les stations terrestres et les liens de communications entre eux. « La législation européenne sur l’espace exigera donc de tous les opérateurs spatiaux qu’ils procèdent à des évaluations approfondies des risques tout au long du cycle de vie d’un satellite, en appliquant des règles de cybersécurité et de signalement des incidents adaptées au secteur spatial », affirme la commission.

Enfin, elle veut mettre en place des règles communes concernant la mesure des conséquences de cette industrie sur l’environnement. « Ces règles garantiront la cohérence des données vérifiées et encourageront l’innovation dans des domaines tels que l’entretien dans l’espace pour prolonger la durée de vie des satellites et réduire les débris », assure-t-elle.

« Le leadership de l’Europe dans l’espace doit être ancré dans la souveraineté, la sécurité et la prévoyance stratégique. Avec la loi européenne sur l’espace, nous prenons une mesure audacieuse pour garantir la résilience de notre infrastructure spatiale, renforcer notre écosystème d’innovation et assurer notre autonomie en matière de technologies essentielles pour les générations à venir », estime Henna Virkkunen, vice-présidente de la Commission européenne à la Souveraineté technologique, à la Sécurité et à la Démocratie.

  •  

PC Cloud : Windows 365 va provisionner des applications et permettre des « PC de réserve »

Configurations vaporeuses
PC Cloud : Windows 365 va provisionner des applications et permettre des « PC de réserve »

Le service Windows 365 permet de configurer des environnements de travail complets. Microsoft teste actuellement deux apports : le provisionnement d’applications et la fonction Reserve.

Windows 365 autorise la création d’environnements Windows complets, accessibles sous forme de machines virtuelles. Quand un tel environnement est provisionné, il peut être finement paramétré, par exemple avec une liste spécifique de logiciels et de réglages.

On peut y accéder depuis n’importe quel appareil et la gestion des machines virtuelles est centralisée. Attention à ne pas confondre le service avec l’offre Microsoft 365, anciennement Office 365, qui est un abonnement donnant accès à la suite bureautique. « Office » a peut-être été jugé trop simple, l’éditeur préférant les noms plus complexes.

L’offre Windows 365 est encore assez jeune, et on pouvait se douter que certaines fonctions importantes arriveraient par la suite. C’est le cas du provisionnement d’applications.

Provisionner des applications plutôt que des systèmes complets

Dans un récent billet, Microsoft a indiqué que des tests étaient en cours sur une nouvelle manière d’accéder à ses applications. Ainsi, plutôt que de provisionner le système complet, Windows 365 sera capable de ne streamer que l’application demandée.

L’entreprise estime que cette solution sera idéale pour les travailleurs saisonniers ou à distance, en ne fournissant l’accès qu’aux seules applications LOB (line-of-business), c’est-à-dire en lien direct avec le secteur d’activité. La grande différence avec l’offre de base, comme on s’en doute, est qu’une application peut être streamée depuis un PC Cloud, sans avoir à provisionner un PC Cloud par personne.

Selon Microsoft, la fonction permettra aux administrateurs de rationaliser la fourniture d’applications, de ne fournir que ce qui est strictement nécessaire, de simplifier la gestion et d’accélérer la migration de l’infrastructure de bureaux virtuels (VDI) vers le cloud, du moins pour les clients intéressés par cette perspective.

La fonction est pour l’instant disponible en préversion. Les entreprises souhaitant participer aux tests doivent s’enregistrer sur un formulaire.

Reserve, des PC Cloud de secours

Windows 365 Reserve est une autre fonction en préparation. Il s’agit d’une offre autonome, détachée des autres services, qui se propose de fournir un PC Cloud de secours quand la machine physique principale n’est pas disponible : panne, vol et autres problèmes matériels ou logiciels.

Ces sessions en nuage de secours peuvent être préconfigurées avec des applications et réglages spécifiques. On ne parle pas d’une « copie de sauvegarde » de la machine physique, mais d’un environnement prêt à prendre le relai en cas de problème, afin que l’activité puisse se poursuivre. Ce PC de réserve fonctionne comme n’importe quelle machine virtuelle Windows 365. Les applications Microsoft 365 y sont préchargées et ils héritent des politiques de sécurité mises en place dans Intune.

On ne connait pas le tarif de l’offre. Toutefois, Microsoft indique que ces PC de secours pourront être utilisés pendant un maximum de 10 jours par an. En outre, l’entreprise explique que les autres expériences Windows 365 ne sont pas nécessaires pour exploiter la nouvelle fonction. Il faut en revanche avoir trois licences : Windows E3, Intune et AADP1.

Comme pour le provisionnement d’applications, les entreprises intéressées peuvent s’inscrire via un formulaire pour participer aux tests. Elles s’engagent à réaliser certains scénarios et à fournir des retours d’expérience. La préversion sera « bientôt disponible et durera jusqu’à 12 semaines ».

  •  

Disponible, le Fairphone 6 se modernise et vise une grande durabilité

Leçon n°6
Disponible, le Fairphone 6 se modernise et vise une grande durabilité

Le nouveau Fairphone vient d’être révélé. Disponible dès maintenant une version unique vendue 599 euros, le nouveau smartphone se modernise allègrement. Plus puissant et faisant un gros effort sur l’écran, le Fairphone 6 se veut particulièrement durable et obtient au passage la meilleure note sur la toute nouvelle étiquette énergie.

Le nouveau Fairphone ne change pas la recette qui a fait son succès. On reste sur une conception très modulaire (qui n’a pas toujours que des avantages), une construction respectueuse de l’environnement et une durabilité qui surpasse même en théorie les meilleures annonces dans ce domaine, notamment chez Google et Samsung.

Une base matérielle plus moderne

On commence par l’écran, légèrement plus petit que celui du Fairphone 5, passant de 6,46 à 6,31 pouces. En revanche, sa technologie est nettement plus récente. Il s’agit d’une dalle OLED LPTO dont la fréquence peut osciller entre 10 et 120 Hz selon les besoins. Un rafraîchissement variable qui aide l’autonomie du téléphone. Sa définition est de 1 116 x 2 484 pixels, soit une densité de 431 ppp (pixels par pouce). Elle est recouverte d’une couche de protection Glorilla Glass 7i.

Au cœur de l’appareil, on trouve un Snapdragon 7 s Gen 3. Une solide puce de milieu de gamme (4x Cortex-A720 et 4x Cortex-A520) épaulée par 8 Go de mémoire (LPDDR5). Côté stockage, on a droit à 256 Go, un port microSD permettant d’ajouter jusqu’à 2 To. La connectivité est assurée par du Wi-Fi 6E, du Bluetooth 5.4 et du NFC. On retrouve bien sûr le classique port USB-C, mais pas de prise jack 3,5 mm.

Parmi les autres prestations techniques, signalons un capteur d’empreintes digitales placé dans le bouton d’alimentation, sur la tranche droite. La partie photo est alimentée par trois capteurs : un grand-angle principal de 50 mégapixels (Sony Lytia 700C) avec ouverture f/1,88, un ultra grand-angle de 13 mégapixels avec ouverture f/2,2 et une caméra frontale de 32 mégapixels (Samsung KD1 32 MP).

Côté batterie, le Fairphone 6 fait mieux que son prédécesseur, avec 4 415 mAh, contre 4 200 mAh sur le Fairphone 5. Force de ces smartphones, la batterie peut se changer soi-même via sept vis amovibles. L’autonomie estimée en usage courant est de 53 heures, avec une recharge acceptant 30 W et permettant de remonter à 50 % en 20 min. Attention cependant, le chargeur n’est pas fourni, comme souvent maintenant.

Le Fairphone 6 affiche des dimensions de 156,5 x 73,3 x 9,6 mm pour un poids de 193 g.

Logiciel, durabilité et prix

Le Fairphone 6 est accompagné d’Android 15 en version stock, donc sans surcouche et applications tierces. Il n’y a surtout qu’une modification : Fairphone Moments. Il s’agit d’un mode spécifique que l’on peut activer pour entrer en « détox numérique ». Via un bouton sur la tranche de l’appareil, on le fait basculer dans une interface minimaliste ne permettant que d’accéder aux fonctions de base : téléphone, messages, appareil photo, musique et notes. On peut affecter une application spécifique à chaque catégorie et créer des profils pour modifier leur fonctionnement selon le contexte (soirée tranquille, concentration, voyage, etc.).

La durabilité de l’appareil s’exprime de plusieurs manières. Le Fairphone 6 peut fièrement afficher la note maximale sur la nouvelle étiquette énergie en Europe : A. Il l’obtient aussi dans deux autres catégories : résistance aux chocs et réparabilité. Rappelons que pour obtenir A en résistance aux chocs, il faut que l’appareil reste parfaitement fonctionnel après avoir résisté à au moins 270 chutes d’une hauteur d’un mètre.

Pour le reste, l’appareil résiste à un minimum de 1 000 cycles de charge tout en préservant un état d’au moins 80 %, et il affiche une garantie IP55. Celle-ci, représentant la résistance aux poussières et à l’eau (Le Fairphone 6 n’est ainsi protégé que contre des jets d’eau, pas une immersion), est clairement en dessous de ce que l’on peut trouver sur des iPhone et Pixel, certifiés pour la plupart IP68. C’est le prix à payer pour la modularité de l’appareil, puisque le boitier n’est pas scellé. Fairphone affirme que la part de matériaux recyclés dépasse les 50 %.

Autre dimension importante de la durabilité : l’entretien logiciel. Le Fairphone 6 frappe fort, car il garantit huit ans de mises à jour d’Android, dont sept évolutions majeures. Il fait donc mieux sur le papier que les derniers Pixel de Google ou Galaxy S de Samsung, fournis avec sept ans de mises à jour. Le Fairphone 6 est donc très largement dans les clés du nouveau règlement européen dans ce domaine, qui réclame un minimum de cinq ans.

Le nouveau Fairphone ne s’encombre pas de détails : il n’est disponible qu’en une seule version, avec ses 8 Go de mémoire et 256 Go de stockage. Le prix est de 599 euros et on peut le choisir en trois couleurs : Cloud White, Forest Green et Horizon Black, toutes avec une finition mate. Le téléphone est déjà disponible et sa livraison est annoncée comme prenant entre 2 et 5 jours.

Murena, qui propose des variantes maison du Fairphone avec son système /e/OS, vend déjà un Fairphone 6 adapté par ses soins sur son site. Le prix est de 649 euros.

  •  

☕️ Pour ses 20 ans, Google Earth permet de se promener dans le temps

Il y a 20 ans, Google Earth était lancé auprès du grand public. Pour fêter cet anniversaire, l’entreprise ajoute ses données historiques dans Street View, pour explorer différentes zones du globe à différentes époques.

C’est la poursuite d’un travail au long cours sur les visions temporelles. Les données historiques avaient été déployées pour la première fois en septembre 2024 dans les versions web et mobile de Google Earth – mais n’était pas accessibles depuis StreetView.

L’aventure Google Earth a commencé en 2001, avec le lancement d’Earth Viewer par la société KeyHole, dans laquelle avait investi le fonds de la CIA, In-Q-Tel. Keyhole a été rachetée par Google en 2004, le produit a été rebaptisé, puis rendu disponible au public quelques mois plus tard.

Google indique avoir enregistré plusieurs centaines de millions d’utilisateurs dès les premières semaines, et dépassé le milliard en 2011.

  •  

Dans son procès contre Epic, Apple veut changer de juge

Spill the tea
Dans son procès contre Epic, Apple veut changer de juge

Apple a subi un revers majeur début mai dans son combat contre Epic. Selon une ordonnance du tribunal, la société n’a plus le droit de facturer le moindre frais sur les paiements réalisés en dehors de l’App Store, quand on se sert d’un lien externe dans une application. Apple assure être restée dans les limites de la loi, critique vertement la décision et demande désormais à changer de juge.

Toute l’histoire porte sur les pratiques anti-steering, comme en Europe. Le steering, que l’on peut traduire par « orientation » ou « pilotage », permet aux éditeurs d’applications tierces de rediriger les utilisateurs vers des contenus payants, en proposant notamment des promotions qui ne peuvent pas apparaitre sur l’App Store. Apple n’aime pas le concept, et pour cause : sa commission de 30 % s’applique aussi à l’ensemble des contenus in-app, c’est-à-dire achetés depuis une application.

Ces pratiques avaient été dénoncées par Epic par une opération coup de poing, qui avait abouti au bannissement du jeu Fortnite il y a cinq ans. Le jeu n’est revenu que très récemment sur la boutique. Les deux entreprises s’affrontaient depuis au tribunal. Début mai, après de nombreux échecs, Epic a remporté une victoire éclatante : Apple n’a plus le droit de facturer le moindre centime sur les achats réalisés ailleurs que sur l’App Store et ne peut plus bloquer les éditeurs qui souhaitent mettre des liens.

Apple avait très rapidement annoncé son intention de faire appel. Bien que ce ne soit pas encore l’heure d’une révision, la société veut faire tomber l’ordonnance de la juge Yvonne Gonzalez Rogers, particulièrement en colère contre Apple lors du verdict.

L’ordonnance n’aurait aucune base légale

Apple a remis le 23 juin un document (PDF) à la cour d’appel, dans lequel l’entreprise présente sa défense. Le document, de plusieurs dizaines de pages, présente une série d’arguments tentant de prouver que l’ordonnance de la juge Gonzalez Rogers ne tient pas.

L’un des points les plus importants, abordé dès la page 3, concerne la notion d’outrage civil, prononcé par la juge. Selon Apple, l’outrage ne peut être invoqué que pour forcer une personne (morale ou physique) à faire appliquer une ordonnance précédente, pas pour punir. Or, si l’on en croit l’entreprise, l’outrage civil décrété par la juge aurait été utilisé pour punir. Et si l’outrage ne tient pas, alors la décision qui l’accompagne – laisser une liberté totale au steering – ne tient pas non plus.

Pour Apple, la décision du tribunal va jusqu’à violer l’Unfair Competition Law de la Californie, que l’entreprise dit parfaitement respecter. Elle va plus loin, en affirmant que cette décision « équivaut à une prise de possession en violation de la Constitution des États-Unis ». Avec en ligne de mire, l’obligation de ne plus appliquer la moindre commission sur toute une partie des transactions.

Ce point irrite particulièrement la société de Cupertino : « Il y a un grand fossé entre le fait de constater que la commission de 27 % d’Apple est trop élevée et le fait de déclarer qu’Apple n’est plus autorisée à prélever la moindre commission ». Apple dit comprendre la décision initiale et sous-entend qu’elle serait prête à discuter d’un nouveau montant, mais que l’interdiction totale est une punition violant la loi sur la concurrence.

L’argument de la sécurité

Apple réclame donc plusieurs changements de taille : annuler la dernière injonction pour récupérer ses commissions sur les achats externes, pouvoir rétablir ses règles sur le steering et annuler le constat d’outrage civil.

Pour l’entreprise, c’est avant tout une question de sécurité. La société dit craindre une explosion des pratiques trompeuses, voire malveillantes si les liens intégrés dans les applications ne sont pas contrôlés. L’argument de la sécurité est régulièrement cité par l’entreprise, notamment dans ses critiques – toujours très vertes – de la législation européenne, en particulier le DMA. Apple n’avait ainsi pas hésité à déclarer que l’iPhone européen serait moins sécurisé que les autres à cause de l’ouverture aux boutiques tierces, tout en affirmant que même ainsi, il resterait le plus sécurisé des smartphones du marché.

Pour preuve, un porte-parole a déclaré au site Law360 : « Apple a passé des décennies à gagner la confiance des utilisateurs dans la sécurité, la confidentialité et la technologie innovante qu’offre l’App Store, et nous sommes profondément préoccupés par le fait que cette injonction empêche maintenant Apple de continuer à protéger nos utilisateurs de manière importante. (…) Nous faisons appel de cette ordonnance pour nous assurer que l’App Store reste une opportunité incroyable pour les développeurs et une expérience sûre et fiable pour tout le monde »

Apple veut changer de juge

L’entreprise réclame également à changer de juge. Sans le dire clairement, elle estime que la juge Yvonne Gonzalez Rogers a une dent contre elle. Si la procédure en appel devait aboutir, l’affaire serait en effet renvoyée au tribunal de district dont elle est issue, ce qui signifie en théorie revenir à la même juge qui a géré le dossier en première instance.

Mais si la cour devait estimer qu’un renvoi est nécessaire, « elle devrait attribuer l’affaire à un autre juge de district », déclare Apple page 72.

« Le renvoi est approprié lorsque « l’on peut raisonnablement s’attendre à ce que le juge initial éprouve, lors du renvoi, des difficultés substantielles à faire abstraction des opinions ou conclusions qu’il a précédemment exprimées » ou lorsque « le renvoi est souhaitable pour préserver l’apparence de la justice ». Les deux circonstances sont réunies en l’espèce. »

Et Apple d’expliquer que la juge Gonzalez Rogers aura probablement « des difficultés substantielles à faire abstraction » de la procédure antérieure. L’entreprise dit ne pas remettre « en cause les motivations du tribunal de première instance ». Mais cette affaire présenterait « une combinaison inhabituelle de circonstances exceptionnelles ». Le renvoi devant un autre juge serait « justifié afin de préserver l’apparence de la justice ».

  •  

☕️ Google réserve 195 hectares pour un datacenter près de Châteauroux

Le conseil communautaire de la métropole de Châteauroux (Indre) a voté mardi soir la vente d’une parcelle de 195 hectares, située dans la zone d’activités d’Ozans, à Tricolore Computing, une filiale de Google. L’opération, qui prévoit un montant d’acquisition de 58,5 millions d’euros, viserait à permettre l’implantation d’un « campus de centres de données, en lien avec l’essor de l’intelligence artificielle », indique la métropole.

Le site concerné appartient à la ZAC d’Ozans, à l’est de Châteauroux, sur la commune d’Etrechet, dont l’aménagement progressif doit, selon la collectivité, aboutir sur une surface totale de l’ordre de 500 hectares. Les infrastructures de Google en occuperaient donc une part significative. Surtout, il fait partie des 55 « sites clés en main » identifiés par le gouvernement l’an dernier dans le cadre du plan France 2030, ce qui ouvre théoriquement la voie à des procédures administratives et des autorisations environnementales accélérées.

À ce stade, il n’est toutefois pas certain que le projet aille à son terme. « Il s’agit d’un compromis qui doit être signé dans un délai d’un an », indique Gil Avérous, maire de Châteauroux (ex-LR) et président de la métropole, selon qui la délibération votée mardi permet de « sécuriser la parcelle car ils doivent maintenant faire des études plus coûteuses pour ce projet ».

Le conseil communautaire a par ailleurs voté mardi une autre délibération relative à un « programme de renforcement du réseau électrique à 400 000 volts entre Eguzon et Marmagne », avec une ligne dont les capacités profiteraient au site d’Ozans.

« Une ligne à 400 000 volts existe déjà entre Eguzon et Marmagne. Grâce à des travaux menés en 2021 et 2022, sa capacité de transit d’électricité est passé de 1 400 MW à 2 200 MW. Aujourd’hui, il est nécessaire de renforcer cet axe électrique pour répondre aux besoins régionaux et nationaux, en créant une ligne à 400 000 volts, qui portera la capacité de transit à 7 600 MW », précise RTE.

S’il voit le jour, ce datacenter serait la première grande infrastructure détenue et opérée en propre par Google en France, qui se contentait jusqu’ici de colocation.

La ZAC d’Ozans se situe à l’est de la ville – crédit Châteauroux métropole
  •  

☕️ #LIDD Faites défiler 35 ans d’évolution des câbles sous-marins

L’ingénieur logiciel Kevin McDonald propose sur son site personnel une carte interactive de l’évolution de « la croissance du réseau de câbles sous-marins et de la capacité mondiale de peering d’Internet au fil du temps ». Elle indique aussi la position des principaux points d’échange Internet (IXP), via PeeringDB.

Vous pouvez faire défiler les années automatiquement, avancer année par année, avoir une vue globale ou resserrée sur certaines parties du globe, etc. En cliquant sur la petite icône avec les trois barres verticales, vous avez des détails sur les km de fibre et le nombre de câbles.

Un billet de blog est associé à la mise en ligne de cette nouvelle édition de cette carte : « Au début de l’année 2025, le réseau comptait 599 câbles, couvrant une distance stupéfiante de 1 602 092 kilomètres ».

Un autre site répertorie pour rappel l’ensemble des fibres sous marines, avec les différents ports d’attaches : Submarine Cable Map de TeleGeography.

  •  

☕️ ChatGPT triple son audience en France, X en perte de vitesse

Entré directement en 36ᵉ place des sites les plus visités de France au mois d’avril 2025, OpenAI ChatGPT continue sa progression pour atteindre la 34ᵉ place en mai grâce au succès de son robot conversationnel ChatGPT.

Selon les données publiées chaque mois par Médiamétrie, la plateforme a attiré 18,3 millions de visiteurs uniques dans le mois et 4,2 millions par jour.

Un succès d’autant plus important, relève Le Figaro, qu’il traduit un triplement de son audience depuis mai 2024.

Au passage, OpenAI passe devant plusieurs marques bien implantées, dont Vinted (18,05 millions de visiteurs uniques mensuels), Marmiton (17,98 millions), LinkedIn (16,4 millions) ou X (15,5 millions), renvoyé à la 49ᵉ place sur les 50 marques les plus visitées dans le mois. En un an, l’audience mensuelle du réseau social a chuté de 20 %.

Pour les autres réseaux sociaux, l’audience est relativement stable : Facebook atteint les 50,5 millions de visiteurs uniques, Instagram 41,5 millions, SnapChat 25,8 millions et TikTok 23 millions.

  •  

Les datacenters d’IA sont aussi un enjeu de souveraineté

SouverainetAI
Les datacenters d’IA sont aussi un enjeu de souveraineté

Projet Stargate, multiples annonces d’implantations de data centers pour l’IA en France, l’année 2025 marque la volonté des décideurs économiques comme politiques d’accélérer l’installation d’énormes data centers à travers le monde consacrés à l’IA, que ça soit pour de l’entrainement ou de l’inférence. Des chercheurs constatent déjà des disparités importantes à travers le monde.

On l’a vu en février dernier à l’occasion du « Sommet pour l’action sur l’IA », la France veut accélérer l’installation de datacenters sur son territoire. Elle suit notamment le mouvement lancé par le projet américain « Stargate » qui s’appuie sur des centaines de milliards de dollars d’investissement. Les nations qui ont déjà investi dans l’IA projettent d’y investir encore plus massivement. Mais l’accès à ces infrastructures est déjà très inégal, constatent des chercheurs d’Oxford dont le New York Times a repéré les travaux.

La chercheuse Zoe Jay Hawkins et ses collègues ont mis en ligne sur la plateforme de preprints SSRN vendredi 20 juin un article (non relu par des pairs et pas encore accepté par une revue scientifique) qui fait le recensement des offres privées dans le monde de « régions de cloud » (des datacenters proches et interconnectés) accessibles au public.

Ce sont les infrastructures utilisées lorsqu’une entreprise achète un service de calculs dédiés à l’IA. Elle peut notamment choisir en fonction des puces utilisées, mais aussi de la région où se situent les data centers qu’elle va utiliser. Ces infrastructures peuvent être optimisées soit pour l’entrainement de modèles, soit pour leur inférence.

En faisant ce travail de recensement, ils ont voulu réfléchir sur la souveraineté des uns et des autres concernant la puissance de calculs pour l’IA. Ils précisent que cette notion de « souveraineté de calcul » peut s’aborder sous plusieurs niveaux : la juridiction qui couvre les data centers, les entreprises qui les possèdent et celles qui fournissent les puces.

Analyse de la répartition des neuf entreprises les plus importantes du secteur

Pour les États-Unis, la Chine et l’Europe, ils ont analysé la répartition des « régions de cloud » des trois plus importantes entreprises locales (recensement fait en novembre 2024).

Ces neuf entreprises ont mis en place 132 « régions de cloud » à travers le monde : 22 sont situées en Chine, 26 aux États-Unis et 27 en Europe.

Ces neuf géants mondiaux ont un rayonnement international (surtout les américains), mais n’assurent qu’un service minimum en Afrique et en Amérique du Sud.

Deux « régions de cloud » au Brésil (une pour l’entrainement, une pour l’inférence) et quatre en Afrique du Sud (deux pour l’entrainement, deux pour l’inférence), qui est le seul pays de son continent à en héberger.

Les chercheurs ont détaillé dans leur article pour chaque pays la répartition de ces trois puissances. Sans surprise, les entreprises étasuniennes dominent.

Les puces : le monopole NVIDIA pas près d’être ébranlé

Enfin, sur les puces, le constat est encore plus radical. Ce n’est d’ailleurs pas nouveau, comme nous l’expliquions dans notre antisèche sur la guerre froide des semi-conducteurs (USA vs Asie vs Europe). Les chercheurs rappellent que NVIDIA, entreprise étasunienne, domine 80 à 95 % du marché.

Ils font cependant remarquer que « certains fournisseurs chinois de cloud hyperscale ont introduit leurs propres modèles de puces d’accélération de l’IA en interne ». La Chine est pour rappel sous embargo américain concernant certaines puces, notamment les haut de gamme de NVIDIA. Le pays développe donc des alternatives en parallèle d’un marché noir.

Mais ça ne suffit pas pour faire bouger les lignes concernant ces « régions de cloud ». Ainsi, « sur les 132 régions […], seules six proposent des accélérateurs Huawei Ascend, dont trois régions en Chine et trois régions en France, à Singapour et aux Émirats arabes unis ».

Au final, 95,5 % de « régions de cloud » sont équipées avec des puces appartenant à des entreprises étasuniennes.

Enfin, dans leur analyse, les chercheurs font un tableau des pours et des contres le fait d’héberger ce genre de régions sur son territoire :

Notons dans les pours, par exemple, une faible latence et une bande passante efficace. Ils soulignent aussi la capacité à avoir un contrôle juridique sur les données. Ces régions pousseraient aussi le secteur privé à investir dans des énergies renouvelables.

Par contre, on peut aussi souligner une consommation importante de ressources de terrains, en énergie et en eau qui rentre en conflit direct avec la consommation domestique. Ils soulignent aussi que, si l’infrastructure est détenue par une entreprise étrangère, la dépendance du pays à cette infrastructure peut être utilisée comme une arme.

  •  

☕️ Windows 10 : Microsoft « offre » un an de mises à jour supplémentaires

On le sait, Windows 10 n’aura plus de support technique le 14 octobre prochain. Après cette date, les failles de sécurité découvertes n’obtiendront plus de correctifs. Une situation dangereuse pour des centaines de millions de PC dans le monde et qui pose la question du renouvellement ou du passage à un autre système. Du côté de la sphère logiciel libre, Linux est bien sûr largement mis en avant.

Pourtant, Microsoft vient de dévoiler dans un billet qu’il existe une solution : il va être possible d’étendre le support d’un an. On apprend ainsi qu’un assistant sera bientôt disponible pour informer de trois possibilités pour s’enrôler dans le programme ESU (Extended Security Update), débloquant ainsi des correctifs jusqu’en octobre 2026.

L’assistant permettra de choisir entre trois voies :

  • Se servir de Sauvegarde Windows pour synchroniser ses paramètres dans le cloud « sans frais supplémentaires »
  • Dépenser 1 000 points Microsoft Rewards
  • Payer 30 dollars (ou probablement euros)

En dehors du paiement, les solutions proposées sont donc des conditions. La première est de se servir de OneDrive pour y sauvegarder ses paramètres, ce qui est de loin la solution la plus simple. À condition que l’utilisateur ait un compte Microsoft et l’ait lié à sa session Windows. Les réglages liés à la synchronisation des réglages se trouvent alors dans Paramètres > Comptes > Sauvegarde Windows.

L’autre est plus étrange. Les points Rewards peuvent s’acquérir à travers diverses activités, y compris de petits jeux comme des quiz. Objectif, bien sûr, favoriser l’utilisation des applications et services de Microsoft.

Quant à la dernière solution, Microsoft en avait déjà parlé. Le tarif de 30 dollars est indicatif, Microsoft précisant que le prix peut changer localement. En clair, le tarif en France n’est pas finalisé, mais on peut s’attendre à 30 euros. Pour rappel, les entreprises peuvent souscrire un abonnement pour étendre le support de Windows 10 sur un maximum de trois ans. L’opération coute cher : 61 dollars par ordinateur et par an la première année, le tarif augmentant chaque année.

L’assistant permettant de choisir entre ces solutions est actuellement en test chez les utilisateurs inscrits au programme Windows Insiders. Il devrait être disponible sur les PC concernés durant l’été, sans précisions. Toutes les configurations incompatibles avec Windows 11 devraient le recevoir, en théorie.

Si le déblocage de plusieurs solutions doit être souligné, la manière dont s’y prend Microsoft est pour le moins étrange. « Nous savons que passer à un nouveau PC prend du temps, et nous sommes là pour vous accompagner à chaque étape », déclare ainsi l’entreprise. Mais quitte à fournir un an supplémentaire de support à Windows 10, mieux aurait valu l’octroyer sans conditions. De nombreuses personnes n’ont pas la moindre idée de ce que cela implique ou de ce qu’il faut faire, et il n’est pas certain que l’assistant les aide à choisir, surtout s’il faut expliquer une synchronisation de paramètres ou s’il faut gagner des points pour avoir droit à des sparadraps numériques.

  •  

Un assistant IA sécurisé et souverain pour aider la Justice ?

Dis Siri, quel est l'article de loi qui...
Un assistant IA sécurisé et souverain pour aider la Justice ?

Un rapport sur « l’intelligence artificielle (IA) au service de la justice » vient d’être remis au garde des sceaux. Aperçu de ses conclusions.

Créer un « assistant IA sécurisé et souverain » à destination des acteurs de la Justice, intégrant, à terme, des fonctions de recherche, synthèse, rédaction et retranscription. Telle est la première des douze recommandations formulée dans le rapport sur « l’intelligence artificielle (IA) au service de la justice » tout juste remis au garde des Sceaux Gérald Darmanin.

Confiée le 10 février à un groupe de travail présidé par Haffide Boulakras, directeur adjoint de l’École nationale de la magistrature, la mission à l’origine de ce rapport propose une « approche résolument pragmatique et opérationnelle », pour permettre à l’institution judiciaire de « tirer pleinement parti, sans délai » de l’IA.

Dès l’introduction, le document rédigé grâce au travail de la vingtaine d’experts du groupe de travail (parmi lesquels la vice-procureure au parquet national antiterroriste Aude Groualle, l’inspecteur général de la Justice Yannick Menneceur, ou encore le chef du Lab Data Justice du ministère de la Justice Haï-Ha Trinh-Vu), le rapport évacue la question « galvaudée » de la justice prédictive, « sur laquelle il n’apparaît pas pertinent que le ministère s’engage à ce jour si ce n’est pour en démontrer les limites et en combattre les éventuels effets néfastes ». Il se concentre plutôt sur des manières d’améliorer « rapidement l’efficacité du travail des agents et la qualité du service rendu aux usagers ».

Pour ce faire, le document suit trois orientations essentielles : démocratiser l’usage de l’IA auprès des acteurs de la Justice en l’intégrant à leurs outils de travail, le faire en veillant à la souveraineté technologique, c’est-à-dire en assurant « la maitrise effective des dispositifs déployés », et accompagner les professionnels.

Trois temps de déploiement

En pratique, le groupe de travail propose une feuille de route en trois temps : mise à disposition progressive d’outils comme l’assistant IA – ce qui nécessite aussi l’acquisition de licences d’outils spécifiques au champ juridique – : le renforcement de la formation des agents en 2026 et 2027, puis, à partir de 2027, le projet de faire de l’IA « un véritable pilier du service public de la Justice ».

Pour assurer la bonne gouvernance des différents projets énoncés, le groupe de travail propose la création d’un Observatoire de l’IA auprès du ministère de la Justice. Celui-ci piloterait l’intégration de l’IA dans les processus de travail autant qu’il assurerait le « suivi éthique des usages, leur impact sur les métiers », voire assurerait la veille scientifique à même d’actualiser les outils et la compréhension des effets de l’IA dans la Justice.

Chacune de ces étapes demanderait des investissements précis, principalement pour assurer l’hébergement des LLM en open source sur un serveur SecNumCloud et pour l’achat de licences dans un premier temps ; pour améliorer les outils d’IA déployés et les multiplier en fonction des besoins, mais aussi pour créer une équipe interne dédiée à l’IA dans un deuxième temps ; et enfin pour renforcer et agrandir le centre de données interne au ministère de la Justice.

Avec 4 équivalents temps plein (ETP), le rapport estime que l’équipe IA existant actuellement au sein du ministère est sous-dimensionnée.

Douze cas d’usages prioritaires

Pour ce qui est du champ d’application des technologies d’IA dans la justice française, le groupe de travail indique avoir listé soixante cas d’usages différents au gré de ses consultations d’acteurs de terrain et d’administration central.

« Malgré la diversité des acteurs sondés, des besoins convergents ont émergé exprimant notamment des besoins d’appui aux tâches d’analyse, de synthèse, de recherche, de retranscription et de traduction – des tâches répétitives et chronophages susceptibles de ralentir le traitement des affaires dans les tribunaux et l’avancement des dossiers au sein des administrations centrales. » 60 % des cas énoncés consistent par ailleurs en des besoins plus spécifiquement liés à certains métiers.

Dans le lot, les auteurs du rapport ont dégagé douze cas prioritaires, parmi lesquels l’interprétariat instantané fonctionnant hors connexion, des outils d’analyse et de recherche documentaire avancée aussi bien pour les juridictions civiles que pénales, des outils d’aide à la rédaction et à la synthèse contextualisée, ou encore d’autres d’orientation des procédures ou courriers au sein des juridictions.

Extrait du rapport « L’intelligence artificielle (IA) au service de la justice »
  •  

Tesla France condamné pour de nombreuses pratiques commerciales trompeuses

La conduite autonome quantique, c’est nouveau !
Tesla France condamné pour de nombreuses pratiques commerciales trompeuses

Dans un communiqué, la Répression des fraudes (DGCCRF) explique avoir mené une enquête en 2023 et 2024, à la suite de signalements déposés par les utilisateurs sur SignalConso : « L’enquête sur la société Tesla France a mis en évidence plusieurs manquements et infractions préjudiciables au consommateur et contraires à la loi ».

Six manquements, quatre mois et 50 000 euros par jour de retard

Six points sont mis en avant :

  • contrats de vente sans date ou délai ni lieu de livraison et ne mentionnant pas le paiement à crédit ;
  • paiements exigés avant la fin du délai de rétractation (pour les achats à crédit) ;
  • absence de récépissé valant reçu en cas de paiement partiel au comptant ;
  • pratiques commerciales trompeuses sur : capacité de conduite entièrement autonome, disponibilité de certaines options et offres de reprise des véhicules ;
  • défaut de remboursement dans les délais en cas de rétractation ;
  • absence d’information préalable sur les modalités de livraison et notamment son lieu ;

Le fabricant de voitures a maintenant quatre mois pour se mettre en conformité avec la réglementation. Passé ce délai, et « compte tenu de la gravité particulière de la pratique, la mesure d’injonction visant la cessation de la pratique commerciale trompeuse sur l’option de capacité de conduite entièrement autonome de certains véhicules Tesla est assortie d’une astreinte de 50 000 euros par jour de retard ». 1,5 million d’euros par mois, la mesure a de quoi être dissuasive.

La Répression des fraudes ne donne aucune précision supplémentaire sur ce qu’elle attend de Tesla pour mettre fin à ses pratiques commerciales trompeuses sur les options. Notamment ce qu’il en serait pour les anciens clients si Tesla décidait par exemple de retirer son option de Capacité de conduite entièrement autonome.

Capacité de conduite entièrement autonome : retour en 2016

Le cas de l’option de Capacité de conduite entièrement autonome mérite qu’on s‘y attarde un peu. Elle a été lancée il y a presque 10 ans, en 2016, et coutait près de 9 000 euros à l’époque, à condition d’y souscrire lors de la commande de la voiture (sans pouvoir en profiter et sans savoir quand elle serait déployée). Il était aussi possible d’y souscrire par la suite, mais la facture grimpait alors de plus de 2 000 euros.

Cette option n’a jamais été totalement déployée en France, malgré les promesses répétées d’Elon Musk. En 2020, il affirmait même que l’« autonomie de niveau 5 » devait arriver dans le courant de l’année.

Lors d’une audition récente au Sénat, Luc Julia (co-créateur de Siri) revenait justement sur la voiture autonome niveau cinq (capable de rouler sans aucune intervention humaine, en toute circonstance et sur toutes les routes). Il douchait les espoirs : « Alors là, je vais vous calmer tout de suite sur la voiture autonome niveau cinq. Monsieur Musk […] nous promet la voiture autonome niveau cinq depuis 2014, on est en 2025 […] Cette voiture-là, elle n’existe pas et elle n’existera jamais ».

La Capacité de conduite entièrement autonome ne rend pas le véhicule autonome

Actuellement, le site de Tesla précise que les fonctionnalités de la « Capacité de conduite entièrement autonome » exigent « une vigilance active de la part du conducteur et ne rendent pas le véhicule autonome ». Une capacité autonome qui ne rend donc pas le véhicule autonome… mais elle en aurait les « capacités » ? Pas facile à suivre.

Le fabricant précise aussi que, « lorsque vous utilisez l’Autopilot [le système de base, sur lequel viennent s’ajouter des options payantes Autopilot amélioré et la Capacité de conduite entièrement autonome, ndlr], vous devez impérativement rester vigilant, garder les mains sur le volant en permanence et garder le contrôle de votre véhicule ».

Actuellement, sur les Tesla, l’Autopilot Standard est inclus par défaut. Sur une Model 3, l’Autopilot amélioré est à 3 800 euros avec des « fonctions d’assistance à la conduite de la voie d’insertion jusqu’à la sortie d’autoroute, de changement de voie et de dépassement » et le Parking auto, selon le configurateur de Tesla.

La Capacité de conduite entièrement autonome ajoute le contrôle des feux de signalisation et des panneaux Stop. « De plus, les prochaines mises à jour permettront à votre véhicule de se rendre presque n’importe où en toute autonomie, avec une intervention minimale de la part du conducteur (en fonction du développement et de l’approbation réglementaire) ».

Il y a deux ans, Tesla avait écopé d’une amende de 2 millions d’euros en Corée du Sud pour des publicités jugées trompeuses. En cause, la distance parcourable, la vitesse de rechargement des batteries, les économies supposées sur le carburant et le manque d’information sur sa politique d’annulation d’achat.

  •  

☕️ IA et conflits d’intérêts : Cédric O soutenu par la HATVP

Ce mardi 24 juin, Cash Investigation se penche sur les liens entre politiques et business, s’arrêtant notamment sur un cas lié à l’écosystème technologique français et européen : celui de Cédric O.

Hasard des programmations relevé par Le Monde, la diffusion de l’enquête se fait cinq jours à peine après une audience censée se dérouler suite à la plainte pour diffamation déposée par l’ex-secrétaire d’État au numérique contre le président du Syndical national de l’édition phonographique Bertrand Burgalat.

Ce dernier avait accusé Cédric O de « prise illégale d’intérêts » sur BFM Business, le 13 mars 2024 (l’audience, elle, a été repoussée au 26 janvier 2026).

IA Act

Après avoir quitté le gouvernement en mai 2022, Cedric O était devenu cofondateur et actionnaire de Mistral AI en avril 2023, endossant le rôle de conseiller en affaires publiques jusqu’au mois de février 2024.

Son rôle dans les négociations autour de l’AI Act, au niveau européen, avait soulevé de nombreuses questions.

Après les accusations de conflits d’intérêts, la Haute Autorité pour la transparence de la vie publique (HATVP) avait mené un « contrôle », pour finalement juger ses conditions respectées. Dans son enquête, Cash Investigation souligne que l’autorité n’a jamais été notifiée de la participation de Cedric O à Mistral AI dans la mesure où celui-ci a créé une société de conseil.

Auprès de France 2, l’ex-président de la HATVP souligne que Cedric O n’avait que l’interdiction de réaliser des « démarches », par lui-même, avec les pouvoirs publics, ce qui n’empêchait pas ceux-ci de le contacter.

  •  

☕️ Firefox 140 ESR sait endormir manuellement les onglets

Nouvelle version ESR pour Firefox. Particulièrement importantes, ces versions bénéficient d’un support allongé de 42 semaines en moyenne. Elles ont la préférence d’un certain nombre de distributions Linux, dont Debian, et des entreprises faisant le choix de Firefox. Pendant toute la durée du support, la version reçoit les correctifs de sécurité et de bugs, sans toucher au socle fonctionnel.

Firefox 140 prend ainsi la place de la version 128. Pour les systèmes faisant la mise à jour sur une base ESR, cela représente donc douze versions du navigateur et un cumul important de nouveautés. Citons des optimisations sur HTTP/3, l’arrivée d’une gestion complète des profils, le groupement des onglets ou encore la disposition verticale pour ces derniers.

En revanche, si vous utilisez l’actuelle version classique 139, les apports ne seront pas extraordinaires. L’apport le plus significatif est la fonction Décharger l’onglet. D’un clic droit, on peut intimer l’ordre au navigateur d’endormir un onglet ou un groupe d’onglets, via le menu contextuel. Les ressources sont alors déchargées et les onglets ne consomment plus rien. Dommage, on aurait aimé que Firefox récupère au passage une fonction très pratique de Vivaldi : mettre en hibernation tous les onglets en arrière-plan.

Parmi les autres nouveautés, citons une option « Tout sélectionner » sur Android, le support des moteurs personnalisés dans les paramètres de recherche, ou encore une fonction permettant de garder plus ou moins d’onglets verticaux épinglés à l’écran. Côté développeurs, on note surtout la prise en charge des raccourcis clavier aria, des API CookieStore et Custom Highlight, des Service Workers en navigation privée, ou encore des styles d’agent utilisateur (UA) uniformes pour les éléments <h1> sur toutes les plateformes.

Enfin, Firefox 140 colmate treize failles de sécurité, dont deux classées comme critiques.

  •  

Un conducteur de train gravement électrisé à cause d’un… câble Ethernet

25 000 volts : le PoE de l’extrême
Un conducteur de train gravement électrisé à cause d’un… câble Ethernet

En 2024, des essais qui s’enlisent et un câble Ethernet oublié dans la cabine ont provoqué l’électrisation d’un agent. Cette affaire est l’occasion de rappeler que prudence est mère de sureté.

Cette histoire pourrait presque prêter à sourire si elle ne s’était pas soldé par un blessé grave en juillet 2024. Soyez rassuré : il va bien désormais : « Sa convalescence a duré quelques mois. Il a repris le travail, dans un premier temps à temps partiel, puis à temps complet à partir de janvier 2025 ».

Cette histoire, mise en lumière par Pierre Beyssac sur X, est racontée par le BEA-TT ou Bureau d’enquêtes sur les accidents de transport terrestre, dans un long rapport technique de 66 pages. Il retrace « l’électrisation d’un agent en cabine de conduite lors d’une circulation de train d’essai survenue le 22 juillet 2024 à Zillisheim (68) ».

L’incident s’est déroulé lors d’une campagne d’essais pour vérifier que la nouvelle locomotive TRAXX MS 3 d’Alstom était bien compatible avec le réseau français. Plantons le décor : la température extérieure était de 25 °C, le taux d’humidité de 60 %, le ciel était ensoleillé et très peu nuageux.

À la recherche d’une solution pour piloter à distance un pantographe

L’exposé sommaire des faits est le suivant : « Alors que le train d’essai circule à la vitesse de 100 km/h à hauteur de Zillisheim avec huit personnes à son bord, un câble Ethernet mal fixé se détache à l’extérieur et touche une pièce sous haute-tension en toiture. Il provoque alors un arc électrique en cabine causant des blessures graves à un membre de l’équipage ». Mais comment en est-on arrivé là ?

Les essais du 22 juillet 2024 étaient émaillés de plusieurs soucis, qui sont au moins en partie le résultat de l’accident. Pour commencer, « en raison d’une difficulté à mettre en place la configuration en unité double prévue (deux pantographes), l’essai a finalement eu lieu en unité simple (un pantographe) », avec deux locomotives attachées ensemble. Un pantographe est un bras articulé qui relie la locomotive aux caténaires, les câbles dans lesquels circule le courant.

Lors des tests, le chef d’essai a demandé à l’ingénieur d’Alstom « que soit testé avant le départ, le pilotage d’un pantographe d’une locomotive depuis l’autre ». Problème, l’ingénieur « vérifie et constate qu’il n’est pas possible de piloter le pantographe d’une locomotive depuis l’autre locomotive ». La première partie du test se transforme en essai simple.

Une idée : installer un câble Ethernet entre les deux cabines

Après un premier voyage, l’ingénieur d’Alstom propose une autre solution : « piloter le pantographe d’une locomotive depuis l’autre via le passage d’un câble Ethernet entre les deux cabines », une solution déjà utilisée durant d’autres essais, selon l’ingénieur. Une tentative est lancée en passant par les fenêtres des locomotives, ajoute l’ingénieur de mesure pantographe de DB Systemtechnik.

Problème, le « câble Ethernet disponible est trop court » et aucun câble suffisamment grand n’est disponible à ce moment-là. Le chef d’essai décide donc de revenir à une configuration avec un pantographe et de continuer les essais.

À ce moment-là, l’ingénieur de DB Systemtechnik « branche l’extrémité extérieure du câble Ethernet dans un connecteur disposé sur le coupleur des deux locomotives, sans aucune autre fixation, et de manière provisoire le temps de la manœuvre ». De l’autre côté, le câble est simplement laissé libre à environ 30 cm du sol. « Personne ne se préoccupe du câble Ethernet resté dans l’état de sa tentative de pose », indique le rapport.

Un grésillement, un coup de pied, une forte décharge électrique

Vient ensuite le point de vue du chauffeur, ou plutôt du dirigeant qualifié du service de conduite (DQSC). Dans sa cabine se trouvent de nombreux câbles électriques installés pour les besoins de l’essai : caméra, interphone, capteurs en tout genre, alimentation, ordinateurs… et donc un câble Ethernet, vestige d’une tentative de connecter les locomotives.

Le câble, qui pend par la fenêtre, est alors proche de sa jambe gauche quand il se met à grésiller : « Il souhaite le repousser vers l’arrière pour ne pas être dérangé à l’approche du point de mesure. Comme celui-ci grésille, il n’ose pas le toucher pour le repousser de la main. Il se lève contourne le fauteuil en se tenant à celui-ci, et, se disant qu’il ne s’agit que d’un câble basse tension de 12 V, il repousse le câble vers l’arrière avec son pied droit ».

Il est alors instantanément projeté dans la cabine. « A posteriori, il attribue son éjection à une contraction réflexe de ses muscles du fait d’une forte décharge électrique reçue. Il ne perd pas conscience mais ses vêtements prennent feu, principalement sa chaussure droite et son tee-shirt à manches longues ». Le rapport précise par exemple qu’une « flammèche sort de la semelle d’une des chaussures de sécurité ».

Le câble Ethernet touche le pantographe à 25 000 volts

Plus en détail dans le déroulement des faits, 15 seconde avant l’accident, « le câble Ethernet s’est détaché de son branchement à l’extérieur. Volant, il s’approche du pantographe n° 4 produisant de premiers effets électriques (grésillements et dégagement de chaleur) ». Lorsque le conducteur touche le câble avec son pied, « une explosion se produit à l’extérieur à l’avant en toiture, sur la gauche du pantographe n° 4. Elle dégage une fumée épaisse ».

Pendant la totalité du trajet, le pantographe n° 4 était baissé, donc pas en liaison directe avec la caténaire. « Toutefois, il était au potentiel de 25 kV par la ligne de toiture qui relie électriquement tous les pantographes, sur cette locomotive ». Pour le rapport d’enquête, les traces retrouvées « attestent que c’est un contact avec ce pantographe qui a alimenté le câble Ethernet en haute tension ».

Des incidents, la qualité de préparation se détériore nettement

Le BEA-TT a « recensé de nombreux aléas significatifs qui ont impacté le déroulement de la campagne d’essais […] L’acquis de la qualité de préparation des opérations se détériore nettement, voire est aboli ».

Dans sa conclusion, le Bureau d’enquêtes sur les accidents de transport terrestre explique que « la coopération [entre les équipes pendant le test, ndlr], d’abord ressource de résolution de problème, finit par induire une forme de cercle vicieux amenant à élaborer des solutions successives de plus en plus dans l’urgence, qui éloignent progressivement du cadre sécurisé pré-établi ».

Et pour ce qui est de l’oubli du câble qui a provoqué l’accident, le rapport dénonce « l’impréparation de la configuration de circulation d’essai en unité double en l’absence d’un deuxième conducteur. L’analyse met globalement en lumière des lacunes dans la gestion des modifications dans le déroulement des essais ».

  •  

Les IA agentiques parlent entre elles, la Linux Foundation joue les entremetteurs

Vont-elles se rendre idiotes entre elles ?
Les IA agentiques parlent entre elles, la Linux Foundation joue les entremetteurs

Deux mois après son annonce, Google passe le relai du développement du protocole Agent2Agent à la Linux Foundation afin de permettre au protocole, déjà largement adopté, de se développer de manière neutre.

Cette semaine, la Linux Foundation a annoncé la récupération du projet Agent2Agent (A2A). Il s’agit pour rappel d’un « protocole ouvert créé par Google pour la communication et la collaboration sécurisées d’agent à agent ». Il avait été annoncé en avril lors de la conférence Cloud Next. C’était le théâtre d’annonces tous azimuts sur l’intelligence artificielle (oui, jusqu’à l’overdose…).

Agent2Agent passe de Google à la Linux Foundation

Ce protocole était déjà ouvert, sous licence Apache 2.0, et développé avec une cinquantaine de partenaires. Nous pouvons citer Atlassian, Box, MongoDB, PayPal, Salesforce, SAP et McKinsey. Microsoft s’est rapidement joint à l’aventure… sans citer Google dans son annonce : « nous nous engageons à faire progresser les protocoles ouverts tels qu’Agent2Agent (A2A), bientôt disponible sur Azure AI Foundry et Copilot Studio […] l’interopérabilité n’est plus facultative », expliquait la société. Avec l’arrivée aussi d’Amazon Web Services, les trois géants du Net ont de quoi donner du poids à cette initiative.

Aujourd’hui, Google explique que « le projet sera hébergé par la Linux Foundation », avec le transfert du « protocole Agent2Agent (A2A), des SDK qui l’accompagnent et des outils de développement ». Le géant du Net en profite pour affirmer que plus de 100 entreprises prennent désormais en charge ce protocole, soit deux fois plus qu’au lancement.

La Linux Foundation aussi y va aussi de son billet de blog, rappelant que le protocole « A2A permet aux développeurs de créer des agents qui interagissent de manière transparente […] A2A permet aux agents autonomes de se découvrir les uns les autres, d’échanger des informations en toute sécurité et de collaborer entre les systèmes ».

En trois mois : Neutralité, collaboration et gouvernance

Pour Jim Zemlin, directeur exécutif de la Linux Foundation, le placement du protocole A2A dans le giron de Linux Foundation « garantit la neutralité, la collaboration et la gouvernance à long terme ». Sur le GitHub du projet, un nouveau document décrit la gouvernance du comité technique. Elle est composée de sept sièges : Google, Microsoft, Cisco, Amazon Web Services, Salesforce, ServiceNow et SAP.

D’un point de vue technique, les communications entre agents se font via JSON-RPC 2.0, avec le détail des capacités de chaque agent d’intelligence artificielle et les informations de connexions ; un peu comme une carte de visite doublée d’un manuel d’utilisation. La dernière version du protocole est actuellement la 0.2.2.

L’IA agentique parle à l’IA agentique

Nous avons déjà longuement détaillé ce qu’était l’IA agentique, c’est-à-dire l’IA avec des agents capables de « résoudre de manière autonome des problèmes complexes en plusieurs étapes », explique NVIDIA. Cette définition semble globalement admise, mais il existe encore des points d’achoppement sur la question de la supervision humaine, qui peut être nécessaire… ou pas.

L’A2A permet donc de mettre en relation des agents d’IA entre eux. Google détaille sur cette page le fonctionnement d’un échange entre deux agents IA :

« Le client A2A effectue d’abord une découverte sur toutes les fiches d’agent de serveur A2A accessibles et utilise ses informations pour créer un client de connexion.
Le client A2A envoie des tâches au serveur A2A si nécessaire. Si l’URL du destinataire de la notification push est configurée sur le client A2A, le serveur A2A peut également publier l’état de la progression de la tâche sur le point de terminaison destinataire.
Une fois la tâche terminée, le serveur A2A envoie l’artefact de réponse au client A2A
 ».

Les possibilités sont nombreuses. On pourrait par exemple imaginer deux agents IA qui négocient entre eux des tarifs de ventes. D’un côté l’agent IA du fournisseur, de l’autre celui du client. C’est valable pour plusieurs pans du commerce, notamment le fret.

Bien d’autres usages vont certainement émerger dans les semaines et mois à venir.

  •  

Appel à la grève chez Free contre la réduction du télétravail

Free, mais pas trop non plus
Appel à la grève chez Free contre la réduction du télétravail

Deux des syndicats des salariés de Free appellent à la grève à compter du 1ᵉʳ juillet en réaction à la mise à jour de la charte qui encadre le télétravail au sein des équipes de l’opérateur. Ils dénoncent une réduction drastique, imposée unilatéralement. La direction estime quant à elle nécessaire d’ajuster les curseurs au nom de la cohésion et de l’agilité des équipes.

Six mois après la mobilisation des centres d’appel, la problématique de la réduction du télétravail gagne du terrain au sein des équipes de Free en France. Deux organisations syndicales, FO et Printemps écologique, ont en effet annoncé vendredi le dépôt d’un préavis de grève au 1ᵉʳ juillet, concernant les salariés de plusieurs entités du groupe Iliad :  Free Réseau, Free SAS, Réseau Optique de France, Free Mobile, Assunet, Iliad SA, Freebox et Trax.

De 8 à 6 jours de télétravail par mois

« Le mouvement s’annonce particulièrement suivi : pour la première fois, les équipes techniques de Freebox, R&D, audiovisuel, développement et support technique se mobilisent ensemble pour faire entendre leur voix », indique un porte-parole des salariés à Next, estimant par ailleurs que la CGT devrait « rejoindre la mobilisation ».

La principale pomme de discorde concerne le télétravail : la nouvelle charte déployée par l’entreprise prévoit en effet le passage, pour les salariés concernés, de huit à six jours de travail à distance par mois. Pour les deux syndicats qui appellent à la grève, cette charte est « imposée unilatéralement et jugée régressive pour les droits des salariés ».

Surtout, elle s’accompagnerait de contraintes perçues comme excessives, comme un « plafond arbitraire » fixé à deux vendredis télétravaillés par mois, l’absence de garantie du maintien du télétravail dans le temps, la suspension possible sans préavis, ou une indemnité dont le montant reste fixé à 0,5 euro par jour télétravaillé.

Un réajustement nécessaire selon la direction

Contactée par Next, la direction de l’opérateur confirme la mise en place de cette charte, et qualifie de nécessaire ce « réajustement de [son] organisation du travail », tout en en limitant la portée, puisque le télétravail ne concernerait que 15 % des près de 12 000 collaborateurs du groupe.

« La collaboration, la proximité, la spontanéité des échanges et la rapidité de prise de décision font partie de notre ADN, justifie l’entreprise. Trouver le bon équilibre entre le télétravail et les temps de présence sur site est essentiel pour faire vivre cette cohésion et cette agilité. »

L’opérateur affirme par ailleurs avoir respecté l’obligation de consultation des partenaires sociaux, et met en avant quelques adaptations favorables à certains cas particuliers : « RQTH, proche aidant, salariés habitant à+ 75 min de leur lieu de travail, femmes enceintes, et pour la 1ère fois en France d’après nous : collaboratrices atteintes d’endométriose ».

« Même pour les femmes enceintes, les personnes handicapées ou en situation médicale particulière, le nombre de jours reste plafonné (8 à 10 jours/mois), sous réserve d’un double accord manager + médecin du travail », rétorquent les organisations syndicales.

Un dialogue complexe

« Le projet vise davantage à encadrer, restreindre et surveiller le télétravail qu’à le promouvoir. Il impose des conditions rétrogrades, annule les accords existants, et place les salariés dans une précarité organisationnelle sans contrepartie », résume encore un argumentaire qui circule en interne.

D’après nos informations, un premier appel à la grève avait d’abord été envisagé pour le 5 juin, mais le dépôt du préavis a finalement été décalé, en partie parce que la journée était déjà occupée, sur le volet social, par une mobilisation intersyndicale tournée vers l’abrogation de la réforme des retraites. La finalisation des négociations annuelles obligatoires (NAO) ainsi que des nouvelles modalités de la démarche de Gestion des emplois et des parcours professionnels en entreprise (GEPP) pourraient également avoir joué un rôle dans ce calendrier.

Si les centres d’appel, qui s’étaient mobilisés en décembre dernier contre la suppression du télétravail, que l’entreprise justifiait à l’époque par une problématique de cybersécurité, ne semblent pas concernés au premier chef par ce préavis de grève, la situation y est également tendue. « Avec l’arrivée de l’IA développée en interne, on négocie dans les centres d’appel un accord GEPP avec un article sur la mobilité interne ou externe, qui devrait conduire cette année 300 personnes au départ », nous expliquait fin mai un porte-parole du syndicat FO Communication.

Quelle sera l’ampleur de la mobilisation le 1ᵉʳ juillet ? « Si l’appel à la grève devait être suivi, il n’y aurait
aucun impact pour nos abonnés
 », veut rassurer la direction de l’opérateur.

  •  

☕️ Lyon abandonne Microsoft office pour renforcer sa « souveraineté numérique »

La Ville de Lyon va progressivement remplacer la suite Microsoft par des logiciels bureautiques libres, dont « Only Office pour la bureautique, ainsi que Linux et PostgreSQL pour les systèmes et bases de données ».

Le but : « ne plus être dépendante des solutions logicielles états-uniennes et acquérir une véritable souveraineté numérique », indique-t-elle dans un communiqué.

Elle s’appuiera aussi sur la suite libre et interopérable Territoire Numérique Ouvert, développée avec la SITIV (le Syndicat Intercommunal des Technologies de l’Information pour les Villes) et la Métropole de Lyon. 


Cette suite est déjà utilisée par « plusieurs milliers d’agents issus de 9 collectivités », déclare la Ville de Lyon. 


Par cette décision, la ville rejoint un mouvement lancé dans d’autres villes d’Europe. Les deux plus grandes villes danoises, Copenhague et Aarhus, ont ainsi chacune annoncé début juin tourner le dos à Windows et Microsoft Office.

  •  

☕️ Bouygues Telecom se lance aussi dans la 5G+… du bout des lèvres

En septembre dernier, Free était le premier à lancer la 5G+, le nom commercial de la 5G SA ou StandAlone. Cette technologie utilise pour rappel un cœur de réseau en 5G, contrairement à la 5G classique actuelle qui utilise un cœur de réseau 4G (pour les appels notamment).

La réponse est rapidement arrivée chez Orange, avec une 5G Box pour commencer, puis sur les forfaits mobiles. SFR aussi propose des options dans sa branche Business. Récemment, Free et Orange ont annoncé que la 5G+ était disponible sur les iPhone 15 et 16, en plus d’une palanquée de smartphones Android déjà compatibles.

5G

C’est maintenant au tour de Bouygues Telecom d’entrer dans la danse, mais par la petite porte. L’opérateur propose la 5G+ sans surcoût, mais pour un seul forfait : « L’option 5G+ est incluse sans frais ! Il suffit juste que vous ayez un forfait Bouygues Telecom 300 Go pour en bénéficier ». Forfait à 59,99 euros par mois tout de même.

Les avantages mis en avant sont toujours les mêmes avec la 5G SA : « navigation sur Internet et l’utilisation des applications mobiles est plus fluide et plus rapide, en particulier grâce à une latence extrêmement faible, idéale pour optimiser vos usages comme le gaming ».

La liste des terminaux compatibles est sans surprise : les iPhone 15 et 16, des Samsung Galaxy S21 à S25, des Galaxy A, les Xiaomi 14 et 14T Pro, etc. « En cas d’acquisition ou de changement de forfait mobile, vous n’avez rien à faire la 5G+ est automatiquement activée. Pour votre forfait mobile actuel, l’option 5G+ incluse est à activer dans votre application mobile », explique l’opérateur. Tous les détails se trouvent par ici.

À voir maintenant combien de temps Bouygues Telecom va rester sur sa 5G+ réservée aux seuls clients avec un forfait de 300 Go.

  •  

Pour se lancer (vraiment) dans l’IA, Apple songerait à racheter Perplexity

Rendez-vous à la prochaine gare
Pour se lancer (vraiment) dans l’IA, Apple songerait à racheter Perplexity

Ces derniers jours, plusieurs articles ont fait état de discussions au sein d’Apple au sujet de Perplexity. Le géant américain, clairement en retard dans le domaine de l’IA, réfléchirait à un rachat. L’opération aurait du sens, mais les projets d’Apple seraient suspendus à une décision de justice pour Google. Explications.

Apple est en retard sur l’IA générative. Le bouquet annoncé à la WWDC 2024 était peut-être ambitieux sur l’instant, mais sa réalisation et son exécution ont laissé à désirer. Les premières fonctions ne sont arrivées qu’à l’automne suivant, et même en avril pour l’Europe. Et depuis que les services sont disponibles, on ne peut pas dire qu’ils brillent par leur efficacité.

Cette situation comporte trois gros problèmes. D’une part, la perception d’une entreprise habituée à être vue comme l’un des ténors de l’innovation et de la maitrise technologique. Apple a raté le train de l’IA et court pour le rattraper. Ensuite, l’IA générative est un gouffre et Apple a voulu s’en équiper à sa façon, en créant son Private Cloud Compute censé préserver la confidentialité des données. Résultat : les milliards de dollars sortent et rien ne rentre, car l’entreprise n’est pas en position de facturer quoi que ce soit.

Enfin, la promesse d’un Siri conversationnel et beaucoup plus intelligent s’est retournée contre l’entreprise. Les capacités présentées n’ont pas été diffusées et Apple écope d’un recours collectif aux États-Unis. Séduits par cette promesse en effet, des clients ont acheté les derniers équipements, pensant obtenir rapidement cet assistant. Et preuve qu’il n’est pas pour tout de suite, Apple n’a fait que très peu d’annonces sur l’IA à sa dernière WWDC, il y a quelques semaines.

Le cas Perplexity

Selon le souvent bien informé Mark Gurman, pour Bloomberg, plusieurs responsables d’Apple discuteraient intensément d’un possible rachat de Perplexity, ou d’un éventuel partenariat privilégié. Gurman cite plusieurs sources proches du dossier ayant tenu à rester anonymes.

Le dossier serait suivi de près par Adrian Perica, responsable des fusions et acquisitions, Eddy Cue, à la tête des services, et les principales têtes pensantes de la division IA. Les discussions n’en seraient qu’au début et pourraient donc ne pas déboucher sur une offre, mais le dossier est sur la table. Selon Bloomberg toujours, les responsables de deux entreprises se sont rencontrés à plusieurs reprises durant les derniers mois.

Si Apple ne formulait pas d’offre, elle pourrait être quand même intéressée par un partenariat privilégié. Problème : Samsung est déjà sur le coup. Une approche plus en douceur qui l’emmènerait donc à un affrontement avec la société coréenne, sa principale concurrente sur le marché des smartphones.

Pourquoi Perplexity ?

De toutes les entreprises existant actuellement dans le monde bouillonnant de l’IA générative, pourquoi Apple se pencherait-elle sur Perplexity ? Plusieurs raisons.

D’une part, Google est sous le coup actuellement d’une plainte pour abus de position dominante. Comme on l’a vu, de nombreux aspects sont examinés, y compris les accords financiers noués par Google avec d’autres entreprises pour établir son moteur de recherche par défaut. C’est le cas avec Mozilla notamment, le partenariat ayant un rôle crucial sur les finances de la fondation, comme elle l’a elle-même expliqué dans un message ambivalent. C’est aussi le cas avec Apple, à qui Google verse 20 milliards de dollars par an. Si le procès devait aboutir à la rupture de ces accords, il y aurait un gros manque à gagner pour Apple, mais il y aurait également une opportunité.

D’autre part, Perplexity travaille justement sur l’utilisation de l’IA comme accès à l’information. Elle se fait une spécialité de l’inclusion des informations fraiches, là où les modèles classiques ne prennent en charge les données que jusqu’à une date limite, pour laisser le temps à l’entrainement de se faire. Un partenariat pourrait faire entrer cette technologie dans Siri, afin que l’assistant serve de porte d’accès sur les produits Apple. Un rachat permettrait la récupération des équipes et de leur expertise, la main-basse sur la technologie et une possibilité de rattraper le train.

Enfin, Perplexity est une société « accessible ». Avec sa récente valorisation à 14 milliards de dollars, cela en ferait de très loin la plus grosse acquisition d’Apple, la précédente étant celle de Beats, pour 3 milliards de dollars. Mais la pomme est assise sur un épais matelas de cash et peut donc se le permettre. La question est cependant de savoir si Perplexity est intéressée par une telle offre. Rien n’en est moins sûr, car l’entreprise a déjà rejeté les avances de Meta, qui a fini par investir dans Scale AI. Les grands du secteur que sont OpenAI et Anthropic sont inabordables.

Apple dans la panade

Le problème, pour Apple, tient comme souvent de la perception. Le rachat lui permettrait probablement de compléter plus rapidement son offre que ce que l’entreprise parviendrait à faire par elle-même. La récupération d’une expertise et d’un savoir-faire permet de combler rapidement des retards, voire de prendre la tête. Apple a une carte à jouer dans l’approche de cette technologie, même si ses premiers essais en matière d’IA sont loin d’être convaincants, comme on l’a vu avec les résumés de notifications.

Mais c’est aussi la preuve indirecte qu’Apple est en retard. Ses premiers services sont passables, et le train de l’IA avance à très grande vitesse. La firme était donc attendue de pied ferme sur ce terrain à la WWDC. Peine perdue : les annonces étaient surtout liées à une généralisation de ce qui existait déjà. Rien de technique, sur les modèles utilisés, sur leur précision ou sur une quelconque amélioration.

Un rachat de Perplexity pourrait faire d’une pierre plusieurs coups. D’abord parer au plus urgent : rattraper le retard en IA. Ensuite, alimenter la nouvelle version de Siri avec un service spécialisé dans le conversationnel. Puis itérer avec la technologie rachetée, jusqu’à devenir potentiellement synonyme d’accès simplifié à l’information, avec à la clé un nouvel argument commercial. Enfin, et en bonus, couper l’herbe sous le pied de la concurrence, en particulier Samsung.

Et qu’en pense Perplexity ? Interrogée par Bloomberg sur le sujet, la société a simplement répondu qu’il n’était pas surprenant que les principaux constructeurs veuillent fournir « la meilleure recherche et l’IA la plus précise à leurs utilisateurs ». « C’est cela Perplexity », a ajouté l’entreprise, manifestement fière.

L’IA générative au-delà du produit grand public

Apple a donné récemment un autre aperçu de sa considération pour l’IA générative. L’ingénieur Johny Srouji, vice-président des technologies matérielles, était ainsi en Belgique en mars pour recevoir un prix de l’IMEC, l’Institut de microélectronique et composants, situé à Louvain. Le responsable avait notamment dirigé le développement du premier SoC d’Apple, la puce A4.

L’intervention avait donné lieu à la publication d’un communiqué le 18 mars, dans lequel l’IA est à peine abordée. Cependant, Reuters a obtenu récemment un enregistrement complet de son discours. Selon ces propos rapportés, Apple aurait ainsi appris que l’utilisation des outils les plus modernes possible était vitale pour avancer dans la conception des puces. Y compris pour les logiciels de conception assistée par ordinateur pour l’électronique (EDA).

« Les entreprises d’EDA jouent un rôle essentiel dans la prise en charge de la complexité de la conception des puces. Les techniques d’IA générative ont un fort potentiel pour obtenir plus de travail de conception en moins de temps, ce qui peut représenter un énorme gain de productivité », aurait ainsi déclaré Johny Srouji.

L’ingénieur pointe en outre une autre leçon apprise par Apple : faire un pari risqué et s’y tenir. Selon lui, le passage du Mac aux puces Apple Silicon était un tel pari, car « il n’y avait aucun plan de secours ». « Alors nous nous sommes lancés à fond, y compris dans un effort logiciel monumental », a ajouté l’ingénieur. Pour l’IA générative, il faudra au moins la même motivation, car la technologie rebat les cartes.

  •  

Deezer affirme être capable de détecter et étiqueter la musique générée par IA

Long Live
Deezer affirme être capable de détecter et étiqueter la musique générée par IA

Deezer a annoncé vendredi le lancement de son outil de détection et d’étiquetage automatique des contenus musicaux produits à 100% par des modèles d’intelligence artificielle générative. La plateforme revendique une première mondiale, qualifiée d’indispensable pour lutter contre le phénomène des streams frauduleux.

« Certains morceaux de cet album peuvent avoir été créés à l’aide de l’intelligence artificielle », indiquent désormais certaines fiches Deezer. Le service a en effet annoncé, vendredi 20 juin, la mise en service d’un outil d’étiquetage des morceaux générés par IA sur sa plateforme d’écoute de musique en ligne.

Pour ce faire, il exploite une technologie de détection automatisée, développée par ses soins, qui aurait donné lieu au dépôt de deux brevets, et aurait surtout permis à Deezer de mesurer l’explosion de la publication de musique générée par IA.

En avril dernier, la société affirmait ainsi que « 18% des nouvelles musiques publiées chaque jour sur sa plateforme sont entièrement générés par intelligence artificielle ». Elle évoquait alors un volume doublé en seulement trois mois.

0,5% des écoutes, mais 70% de fraude

Beaucoup de morceaux, mais peu d’écoutes : la musique générée par IA ne représenterait que 0,5% des streams de la plateforme. Elle servirait cependant un autre phénomène : celui des écoutes frauduleuses, c’est-à-dire des comportements d’internautes simulés sur la plateforme, utilisés pour gonfler artificiellement l’audience et donc les revenus de certains artistes. « Aujourd’hui, jusqu’à 70 % des écoutes de titres entièrement générés par IA sont considérées comme frauduleuses », affirme Deezer, sans détailler les modalités de ce calcul.

En réponse, la plateforme s’est donc lancée dans le développement d’un algorithme de détection « capable d’identifier la musique 100 % générée par les modèles génératifs les plus avancés – comme Suno ou Udio – avec la possibilité d’ajouter de nouveaux outils, à condition de disposer des données nécessaires ».

Deezer affirme ainsi être capable de détecter, directement dans le signal audio, des marqueurs associés à l’outil qui a servi à la génération, du moins s’il s’agit de Suno ou Udio, considérés comme les leaders du marché. « Quand les algorithmes d’IA génèrent de la nouvelle chanson, ils ont des espèces de petits bruits qui les identifient, propres à eux (…) qu’on va pouvoir retrouver. Ce n’est pas audible à l’oreille mais c’est visible dans le signal audio », décrit auprès de l’AFP Alexis Lanternier, directeur général de Deezer. L’outil serait, d’après lui, « fiable à 98% ».

« Concrètement, tu sauras enfin si ce que tu écoutes a été créé par un humain… ou pas », présente encore Deezer sur l’une des pages de son forum. La plateforme précise que les morceaux générés par IA ne seront plus mis en avant dans ses listes de lecture éditorialisées ou dans les recommandations algorithmiques.

Comment gérer ces productions générées par IA ?

Pourquoi ne pas purement et simplement les supprimer ? « Ou même encore mieux, pourquoi ne pas les bloquer à l’entrée en les soumettant à ce test de détection avant publication, afin d’éviter qu’ils envahissent inutilement la plateforme ? », s’interroge un utilisateur. En dehors des cas de plagiat ou de violation des droits d’auteur, la question n’est pas triviale : quid des faux positifs, ou des morceaux qui ne seraient que partiellement générés par IA ?

À défaut d’un blocage a priori, Deezer a déjà montré qu’il était possible de faire le ménage : en avril 2024, la société avait indiqué avoir supprimé sur six mois quelque 26 millions de titres (l’équivalent de 13% de son catalogue), « dont du contenu non artistique, des bruits et des doublons », grâce à ses outils de détection automatisés.

Certains des 20 albums publiés en huit mois par cet artiste sont étiquetés « contenu généré par IA »

Jusqu’où les outils automatisés de Deezer se montreront-ils efficaces, surtout si de nouveaux modèles de génération de musique font leur apparition ? Dans le domaine du texte ou de l’image, les modèles de détection sont souvent pointés du doigt pour leur piètre efficacité, et nos propres travaux sur la prolifération des sites d’actualité générés par IA concluent à la nécessité d’une analyse manuelle.

La plateforme française n’est pas la seule à étudier cette approche automatisée. YouTube a ainsi annoncé en septembre dernier qu’il travaillait à la détection des éléments visuels ou sonores générés par IA au sein de sa technologie de lutte contre les infractions au droit d’auteur, Content ID.

Au-delà de l’efficacité technique, Deezer adopte surtout une posture de contrôle et d’encadrement des pratiques liées à l’IA, là où son grand rival Spotify est soupçonné d’avoir, au contraire, volontairement diffusé des morceaux créés par de faux artistes au sein de certaines listes de lecture thématisées.

  •  

Transphobie : ces désinformateurs français qui s’appuient sur des réseaux internationaux

Multiculturalisme transphobe
Transphobie : ces désinformateurs français qui s’appuient sur des réseaux internationaux

Le succès de la thèse selon laquelle Brigitte Macron serait une femme trans dans les réseaux trumpistes illustre l’internationalisation de la production et de la diffusion des thèses transphobes.

Brigitte Macron, femme trans ? Fréquemment relayée lors des élections présidentielles de 2022, cette fausse information est reprise aux États-Unis au point d’avoir été véhiculée par des proches de Donald Trump. Une trajectoire qui s’explique par la mécanique désormais récurrente de réseaux de désinformation proches des extrêmes-droites mondiales, prompts à faire circuler et à adapter leurs discours d’un pays à l’autre.

Dans les fausses informations visant la première dame, cela dit, France Info détaille comment deux Français ont particulièrement œuvré à leur diffusion outre-Atlantique : Xavier Poussard, un diplômé d’histoire travaillant régulièrement pour la lettre d’extrême-droite Faits & Documents, et Aurélien Poirson-Atlan, mieux connu sur Twitter/X sous le pseudonyme sulfureux de Zoe Sagan.

Avec succès, puisqu’en février 2025, l’influenceuse ultraconservatrice Candace Owens (5,7 millions d’abonnés sur Instagram, 6,9 millions sur X) présentait l’ouvrage Becoming Brigitte (« Devenir Brigitte »). Écrit par Xavier Poussard, qui ne rentre plus en France depuis son signalement pour « appel à la haine en raison de la race ou de la religion », en 2021, l’ouvrage développe la thèse selon laquelle l’épouse du président de la République française serait née homme sur 332 pages. Sa reprise par une figure centrale de l’alt-right états-unienne a donné au récit complotiste une nouvelle ampleur.

La transphobie, vecteur récurrent de désinformation

Pour comprendre le succès de cette fausse théorie, il faut souligner que les femmes exposées publiquement, notamment par leur carrière ou leur proximité avec le monde politique, sont aussi particulièrement visées par des campagnes de violences numériques. Selon les cas, celles-ci s’appuient sur des insultes, des rumeurs, des appels à la violence, ou les trois à la fois.

Dans ce cadre, les récits transphobes sont par ailleurs récurrents. Michelle Obama a subi ce type de théories alors que son époux occupait les plus hautes fonctions des États-Unis, de même que Kamala Harris, alors qu’elle candidatait à la présidentielle américaine en 2024, ou encore Kate Middleton, dont la vie est actuellement décortiquée sur TikTok pour tenter de prouver qu’elle n’est pas née femme. Les milieux complotistes parlent de « transvestigation », ou investigation autour d’une supposée transidentité, dans une illustration parfaite de ces logiques de mobilisation collective que décrit la chercheuse Stéphanie Lamy.

Outre celles exposées dans le milieu politique, nombreuses sont les personnalités du sport, de la culture et d’ailleurs à être visées par ce type de théories mêlant transphobie, misogynie et, régulièrement, racisme. La chanteuse Aya Nakamura a été visée par le même type de propos alors qu’elle représentait la France lors de la Cérémonie d’ouverture des Jeux Olympiques, de même que la boxeuse Imane Khelif, visée par une campagne de cyberharcèlement mondialisée alors qu’elle concourait aux JO.

Comme le détaille le journaliste spécialisé Elie Hervé ou XYMedia, les attaques contre les droits des personnes trans sont utilisées par la droite et l’extrême-droite partout sur la planète pour créer de nouvelles peurs. En cela, elles ressemblent aux précédentes vagues de discours anti-LGBTQ, comme celles poussées par La Manif pour tous au début des années 2010. En 2023, l’Observatoire européen des médias numériques relevait par ailleurs que la désinformation LGBTQ était l’une des plus « présentes et constantes dans l’Union européenne ».

Des collaborations transfrontalières

Ce que la désinformation visant Brigitte Macron illustre aussi, c’est la collaboration transfrontalière entre fabricants et diffuseurs de désinformation transphobes. Auprès de France Info, Xavier Poussard explique par exemple que la réception de la cérémonie d’ouverture des Jeux Olympiques, et notamment le tableau incluant un défilé de drag queens, a fait office de déclencheur dans sa collaboration avec des conservateurs états-uniens.

La viralité du récit complotiste a notamment été poussée par un autre proche du président des États-Unis : le général Michael Flynn, qui avait promu le récit QAnon par le passé. À leurs propos véhiculés via les réseaux sociaux sont bientôt venus s’ajouter des reprises dans les émissions des principaux podcasteurs politiques locaux, dont ceux de l’ancien journaliste de Fox News Tucker Carlson et ceux du podcasteur le plus écouté au monde Joe Rogan.

Si cette affaire se démarque par son rayonnement, tant du côté des personnalités visées que des auditoires atteints (Joe Rogan compte plus de 15 millions d’abonnés sur X et 20 millions sur YouTube), elle n’est, encore une fois, que le révélateur d’une tendance plus large à l’internationalisation des thèses transphobes.

Comme le souligne un rapport du Centre for Feminist Foreign Policy auquel Next a eu accès en avant-première, à la sortie de leur ouvrage Transmania, les militantes anti-trans françaises Marguerite Stern et Dora Moutot ont par exemple reçu les soutiens de l’écrivaine britannique Julie Mindel (plus de 130 000 abonnés sur X) et du journaliste Freddie Sayers, à la tête du média UnHerd. Ce dernier a été placé sur la liste noire de l’ONG britannique Global Disinformation Index pour sa propension à véhiculer des thèses transphobes. Visée par des cyberviolences, Dora Moutot a été soutenue par l’autrice et activiste transphobe J.K Rowling.

  •  

Frais d’activation et de résiliation : la grande valse des opérateurs

Une valse dont votre portefeuille est le héros !
Frais d’activation et de résiliation : la grande valse des opérateurs

Historiquement, les opérateurs ont l’habitude de facturer des frais de mises en service et de résiliation sur le fixe. Sur le mobile, c’est généralement l’activation de la carte SIM seule qui est payante. Les choses bougent depuis quelques semaines/mois. Next fait le point sur la situation.

Fin avril, Bouygues Telecom inaugurait une « première » en France (dont les clients se seraient bien passés) : des frais de résiliation de 5 euros sur les forfaits mobile. Rapidement, Free lui a répondu avec une offre de remboursement de 10 euros au maximum, « quelle que soit l’offre mobile souscrite ».

Free et SFR remboursent les frais de résiliation sur le mobile

SFR a pris plus de temps, mais a fini par réagir lui aussi. Pour les nouveaux clients RED et SFR, la marque au carré rouge annonce que si « vous avez résilié votre abonnement chez votre précédent opérateur mobile depuis moins de 60 jours, SFR vous rembourse jusqu’à 5 € sur les frais de résiliation et de rupture d’engagement de votre ancien contrat ».

Il ne reste donc qu’Orange à ne pas les rembourser. C’est aussi le cas de Bouygues Telecom, mais cela n’aurait actuellement aucun sens puisque c’est le seul à appliquer des frais de résiliation.… pour le moment ? Comme nous allons le voir avec le fixe, les situations peuvent rapidement évoluer dans un sens, comme dans l’autre.

Sur le fixe, en effet, c’est le contraire qui est en train de se produire. Historiquement, les opérateurs facturent à leurs clients des frais lors de la mise en service de la ligne – sauf chez Orange –, puis des frais au moment de la résiliation. Les premiers sont actuellement offerts chez les quatre opérateurs nationaux, tandis que les seconds sont en hausse.

Les quatre opérateurs nationaux se proposent pour rappel de rembourser les frais de résiliation lors d’un nouvel abonnement, dans la limite de 50 à 150 euros. Si vous passez de Free ou SFR à Bouygues Telecom, il vous restera par exemple 9 euros à payer de votre poche sur les frais de résiliation.

Bouygues rembourse les frais de mise en service… et se mélange les pinceaux

Attaquons avec Bouygues Telecom. Le fournisseur d’accès propose depuis quelques jours une promotion : « Frais de mise en service 48 euros offerts ». L’encart publicitaire indique que l’offre est valable du 18 au 30 juin 2025, pour « toutes les Bbox ».

Par contre, dans les mentions légales, il est précisé que l’offre est « valable à partir du 17/02/2025 pour toute première souscription aux offres Bbox fibre Bouygues Telecom (hors B&YOU Pure Fibre, Bbox Série Spéciale pour clients B&YOU, 4G box et 5G box) […] 48 € remboursés sur demande par virement dans un délai de 8 semaines maximum ».

La date du 17 février est étrange puisque, le 29 mai, les frais de mise en service n’étaient pas offerts, comme en atteste la page sur WebArchive. Une mise à jour un peu précipitée du site ? Possible, d’autant que l’offre Pure Fibre est bien concernée, comme on peut le voir sur la page de l’offre et le coupon. Ce dernier précise lui aussi que cette promotion n’est valable que du 18 au 30 juin 2025. Les mentions légales du site semblent donc à côté de la plaque.

Fin mars, Bouygues Telecom a pour rappel augmenté ses frais de résiliation, qui sont passés de 59 à 69 euros. Ce n’est pas le seul, Free et SFR aussi ont revu ces frais à la hausse.

Orange ajoute des frais de mise en service… puis les « offre »

Orange est de son côté passé du côté obscur de la force en avril 2025, en ajoutant des frais de mise en service de 49 euros sur ses Livebox et de 39 euros chez Sosh pour La Boîte. Il n’y en avait pas auparavant, contrairement à ses trois concurrents.

Depuis quelques jours, Orange a encore retourné sa veste avec une « exclu web : 49 euros de frais de mise en service offerts ». L’offre est récente, car ce n’était pas le cas le 14 juin, selon Web Archive. Même chose chez Sosh : « Exclu Web : 39 euros de frais de mise en service offerts ».

Dans les deux cas, l’opérateur facture toujours 50 euros de frais de résiliation.

Free prolonge la fin des frais de mise en service,

Free a de son côté offert les frais de mise en service à partir du 5 juin, mais de manière temporaire. La promotion, qui était présentée avec une date de fin (12 juin 2025) est donc pérennisée depuis vendredi dernier.

L’opérateur affiche désormais sur son site : « frais de mise en service 49 euros offerts sur demande en conservant votre numéro ». Cette « offre est valable au 20/06/2025 pour toute nouvelle souscription à une offre Freebox (hors Box 5G), avec conservation du numéro de téléphone lors de la souscription ».

En novembre dernier, Free a pour rappel augmenté ses frais de résiliation qui sont passés de 49 à 59 euros sur les nouveaux forfaits. Les anciens clients ont aussi droit à cette hausse à partir d’avril.

SFR offre les frais de mise en service depuis plusieurs mois

Chez SFR comme chez Free et Bouygues Telecom, les frais de mises en service étaient historiquement présents. Ils sont dorénavant offerts depuis mi-mars, mais le mouvement a été suivi quelques jours plus tard d’une hausse des frais de résiliation. Ils sont ainsi passés de 49 à 59 euros.

RED by SFR est l’expert des remises permanentes sur les frais de mises en service, offerts depuis des années. C’est également le cas de l’option avec des « appels illimités vers les fixes (100 pays)+ les mobiles de France », offerte depuis très longtemps (au lieu de 5 euros par mois, en théorie).

Les frais de résiliation sont là aussi de 59 euros.

Le point de la situation chez les quatre FAI

Au final, on retrouve donc les frais de mise en service offert en ce moment chez les quatre opérateurs, alors qu’ils étaient payants il y a encore peu de temps… mais ils pourraient aussi redevenir payants dans les prochains jours chez certains, sauf prolongations.

Les frais de résiliation ont pendant ce temps-là pris 10 euros chez Bouygues Telecom, Free et SFR. Là-dessus par contre, nous n’avons quasiment aucune chance de voir les opérateurs faire machine arrière et revenir aux anciens tarifs.

Voici pour finir un rapide comparatif des frais de mise en service, de résiliation et du remboursement des frais de résiliation en cas de migration chez les quatre principaux fournisseurs d’accès. Nous avons également ajouté le prix de la carte SIM (et de son activation), avec le montant des frais de résiliation chez Bouygues Telecom.

Bouygues Telecom :

  • Fixe :
    • Frais de mise en service offerts (48 euros sinon)
    • Frais de résiliation de 69 euros
    • Jusqu’à 50 euros remboursés sur vos frais de résiliation
  • Mobile :
    • 1 euro activation de la carte SIM
    • Frais de résiliation de 5 euros

Free :

  • Fixe :
    • Frais de mise en service offerts « sur demande » (49 euros sinon)
    • Frais de résiliation de 59 euros
    • Jusqu’à 100 euros remboursés sur vos frais de résiliation
  • Mobile :
    • 10 euros activation de la carte SIM
    • Jusqu’à 10 euros remboursés sur vos frais de résiliation

Orange :

  • Fixe :
    • Frais de mise en service offerts en « Exclu web » (49 euros sinon Livebox, 39 euros Sosh)
    • Frais de résiliation de 50 euros
    • Jusqu’à 100 euros remboursés sur vos frais de résiliation
  • Mobile :
    • 10 euros activation de la carte SIM

SFR :

  • Fixe :
    • Frais de mise en service offerts (49 euros sinon)
    • Frais de résiliation de 59 euros
    • Jusqu’à 100 euros remboursés sur vos frais de résiliation
  • Mobile :
    • 10 euros activation de la carte SIM
    • Jusqu’à 5 euros remboursés sur vos frais de résiliation
  •  

☕️ Intel délègue son marketing à Accenture et à l’IA

Les plans de licenciements se précisent encore chez Intel. Après une coupe programmée de 15 à 20 % des salariés d’Intel Foundry, la semaine dernière, l’entreprise a cette fois-ci indiqué à ses employés du département marketing qu’une partie de leurs emplois seraient externalisés auprès de la société de conseil Accenture.

Dans une note obtenue par the Oregonian, Intel considère qu’en recourant à des outils d’intelligence artificielle, Accenture parviendra mieux que ses propres équipes à faire le lien avec sa clientèle.

« Bien que nous nous attendions à ce que cette décision réduise naturellement nos coûts, nous devons aussi changer notre modèle de mise sur le marché pour être plus réactifs aux attentes des clients », écrit Intel aux équipes du marketing. « Nous avons reçu des retours selon lesquels notre prise de décision est trop lente, nos programmes trop complexes et nos concurrents plus rapides. »

L’entreprise considère que les technologies recourant à l’IA permettront à Accenture de l’aider à « aller plus vite, simplifier nos processus et mettre en place les meilleures pratiques, le tout en maîtrisant nos dépenses ».

Intel n’a pas rendu public le nombre d’employés qui devraient être licenciés dans ce département.

Outre répondre à ses propres problématiques de rétablissement économique après plusieurs années de difficultés, Intel rejoint ici un chœur grandissant d’entreprises technologiques qui indiquent réduire leur masse salariale ou prévoir de le faire en réaction à l’expansion des technologies d’IA.

  •  

☕️ Modifications tarifaires : l’UFC-Que Choisir obtient un accord avec Canal+

L’action de groupe lancée en avril 2021 par l’association de consommateurs UFC-Que Choisir débouche sur un accord à l’amiable. Le groupe audiovisuel consent à indemniser de façon forfaitaire les clients abonnés à l’époque des faits reprochés, avec une enveloppe individuelle comprise entre 20 et 75 euros.

« L’UFC-Que Choisir et Canal+ se félicitent de cet accord qui aboutit à une solution effective satisfaisante, plus rapide qu’une décision judiciaire, étant entendu que la teneur de cet accord a été validée par le juge dans le cadre de la procédure de l’action de groupe, garantissant ainsi que l’intérêt des consommateurs concernés a été préservé », se félicite l’association dans un communiqué.

Les clients ou ex-clients Canal+ éligibles sont invités à manifester leur accord auprès de Canal+ pour percevoir cette indemnisation. Ceux qui sont toujours abonnés ou qui ont résilié avec une date de prise d’effet comprise entre le 30 mai 2020 et le 30 mai 2025 devraient recevoir un formulaire, à remplir pour acceptation, de la part de Canal+. Les clients dont l’abonnement s’est terminé avant le 31 mai 2020 devront quant à eux contacter directement le groupe par courrier, précise l’UFC-Que Choisir.

Des billets de cinquante euros.

« Pour les consommateurs encore abonnés actifs, ce dédommagement prendra la forme d’un avoir appliqué, dans les meilleurs délais, et à hauteur du montant de l’indemnité due, sur l’une de leurs prochaines factures », indique encore l’association. Les clients résiliés devraient quant à eux recevoir leur indemnité sous forme de chèque.

Les faits reprochés remontent à fin 2017, quand Canal+ a intégré de nouvelles chaînes à son offre, et procédé à une augmentation du prix de l’abonnement. La pratique avait été attaquée au pénal, entraînant une condamnation du groupe audiovisuel par le tribunal judiciaire de Nanterre, prononcée en juillet 2020 après négociation d’une reconnaissance préalable de culpabilité. L’UFC-Que Choisir a ensuite relancé une procédure visant à obtenir une indemnisation, au motif que « la chaîne a refusé de prendre l’initiative de rembourser l’ensemble de ses abonnés ».

  •