Entamée début 2024, notre enquête sur les soi-disant « sites d’information » générés par IA (GenAI) a donné lieu de multiples révélations depuis la publication de ses premiers articles, début février. Signe de l’ampleur de cette pollution médiatique : notre enquête nous avait permis d’en identifier une centaine en octobre 2024, 500 à Noël, 1 000 fin janvier, plus de 2 000 mi-février, près de 3 000 début mars…
Vu l’ampleur du problème, nous avions donc proposé au service de fact-checking CheckNews de Libération, ainsi qu’à des fact-checkers de Wikipédia, de nous aider à enquêter sur ce qui s’apparente à une véritable « pollution » numérique et médiatique.
Près de 150 des 500 sites GenAI que nous avions initialement identifiés étaient en effet mentionnés comme « sources » sur Wikipédia. Et ce, alors que leurs articles ne semblent avoir été ni relus, ni corrigés, ni validés avant leur publication automatisée (et, donc, sans supervision humaine).
La plupart des articles mentionnés dans l’encyclopédie avaient été publiés avant que leurs noms de domaine (expirés) ne soient rachetés par des professionnels du référencement – SEO – et du marketing numérique. Ces sites n’en restent pas moins référencés sur Google Actualités, quand bien même ils n’émanent donc pas de « journalistes » ni de « médias » reconnus par la profession, que leurs articles sont générés par IA, et qu’ils polluent le moteur de recherche et son algorithme de recommandation Discover.
Nous avons depuis également découvert que, parmi la centaine de professionnels du référencement (SEO) et du marketing numérique qui les administrent, certains en gèrent plusieurs centaines, et même plusieurs milliers, sans être en capacité d’identifier combien polluent de la sorte Google, et particulièrement Google Actualités.
Nous avons bien évidemment détaillé notre méthodologie, challengée et vérifiée par les deux contributeurs expérimentés de l’encyclopédie Wikipédia, et les deux journalistes du service de fact-checking CheckNews de Libération.
Next a en outre développé une extension pour les navigateurs compatibles Chrome et Firefox (y compris sur Android), afin d’alerter ses utilisateurs lorsqu’ils consultent un site GenAI (cf sa présentation, et notre méthodologie). Elle les alerte aussi désormais lorsqu’ils visitent aussi des noms de domaines « potentiellement malveillants » identifiés par Red Flag Domains, et des « entités non autorisées à proposer des produits ou services financiers en France » par l’Autorité des marchés financiers.
40 médias français ont depuis demandé à la Justice d’ordonner aux FAI le blocage du site news.dayfr.com. Ce dernier, le plus bourrin du millier de sites d’informations générés par IA que nous avons identifiés, plagiait de 5 à 15 articles… par minute, et jusqu’à plus de 6 000 par jour. Ironie de l’histoire : il a aussi été jusqu’à…. plagier deux des articles mentionnant la plainte le concernant.
Une enquête de l’équipe « pour une IA responsable » de la BBC a par ailleurs découvert que plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) à qui il avait été demandé de chercher leurs réponses dans les articles de la BBC étaient « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Mais également que 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles pourtant mentionnés.
Plus d’une centaine (au moins, et probablement plusieurs centaines, voire milliers) des sites GenIA que nous avions initialement identifiés plagient en outre des articles de véritables journalistes, sans mentionner leurs sources ni préciser qu’ils ont été générés avec des IA. Ils sont pourtant, pour la plupart, référencés sur Google Actualités, et parfois relayés par son IA de recommandation algorithmique Discover. Certains se contentent de traduire des articles en français quand d’autres les paraphrasent, rendant leurs plagiats plus difficiles à identifier.
Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin, par ailleurs co-directeur pédagogique d’une école de journalisme d’extrême-droite, a reconnu que ses articles étaient bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu’on lui dit » (sic).
Notre enquête nous a valu quelques remarques acerbes de la part de professionnels du SEO, au motif que le fait de rendre public le fait que certains de leurs sites sont GenAI pourrait nuire à leur business :
« Les gens veulent manger de la merde ? Donnez en leur à la pelle plutôt que d essayer de buzzer et cherchant à bousiller le business de milliers de sites. »
L’un d’entre eux nous a par exemple rétorqué que de nombreux médias français avaient récemment relayé une « rumeur »… qu’ils n’auraient cela dit probablement pas relayée si les journalistes avaient été informés que l’information initiale avait en fait été « hallucinée » dans des articles générés par IA.
Les sites d’information de la presse quotidienne régionale (PQR) sont, eux aussi, de plus en plus victimes de pure players qui les concurrencent, voire les plagient, tout en étant générés par des IA. Si certains se positionnent comme des « médias indépendants », d’autres ne cherchent qu’à faire du clic. Au point que des journalistes de la PQR se retrouvent à devoir fact-checker des infos erronées car « hallucinées » par les IA qui les publient.
Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, une start-up de détection de contenus générés par IA a par ailleurs découvert que plus de 50 % d’entre eux étaient GenAI, et que le nombre de messages longs susceptibles d’avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.
Dans son dernier (et 216e) podcast, Mediarama a reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, auxquels nous avons consacré plusieurs articles le mois dernier.
Une bonne partie du podcast (de la 7e à la 41e minute) revient sur les coulisses de cette enquête entamée il y a maintenant plus d’un an, les dérives et problèmes que nous avons constatés, comment nous avons fait pour les identifier, et le rôle de Google dans leur prolifération.
Le podcast revient ensuite sur les problèmes qu’avaient rencontrés NextINpact.com par le passé, le rachat par @Ferd & moji, la renaissance de Next.ink, son modèle économique « RSE » et « radical » (« 100 % abonnements, 0% cookies »), ainsi que les défis concernant la conquête et la conversion des abonnés :
« Un épisode incontournable pour tous ceux qui s’intéressent à l’avenir du journalisme numérique, aux enjeux de l’IA et aux défis d’un média 100% indépendant. »
AMD vient de confirmer la date de sortie de deux Ryzen 9 X3D, avec des cœurs Zen 5 et du 3D V-cache (64 Mo supplémentaire sur le L3) de seconde génération. Ils avaient été annoncés au début de l’année lors du CES de Las Vegas et viennent accompagner le Ryzen 7 9800X3D, que l’on trouve à partir de 542 euros (524 euros en version « tray », comme l’indique ViveLesTouristes dans les commentaires).
La principale différence vient du fait que les cœurs CPU Zen 5 sont placés au-dessus du 3D V-Cache, alors que c’était l’inverse sur la première génération. Ils sont ainsi « plus près de la solution de refroidissement, offrant des vitesses d’horloge plus élevées à des températures plus basses, et donc avec de meilleures performances par rapport à la génération précédente », affirme AMD.
Le Ryzen 9 9900X3D dispose pour rappel de 12C/24T avec un total de 128 Mo de mémoire cache L3 (960 ko L1 et 12 Mo L2). Son grand frère, le Ryzen 9 9950X3D, pousse à 16C/32T et 128 Mo de cache L3 également. Avec son nombre de cœurs plus important, il a 16 Mo de cache L2, soit un total de 144 Mo contre 140 Mo pour le 9900X3D.
Les deux processeurs seront disponibles à partir du 12 chez les revendeurs, pour respectivement 599 et 699 dollars. Le prix en euros n’est pas précisé… en espérant qu’AMD ne refasse pas le même coup qu’avec les Radeon RX 9070 XT.
Sept ans après les premières révélations concernant la possibilité de géolocaliser des militaires et membres de services de renseignement, voire même d’identifier leurs domiciles et véritables identités, via la géolocalisation de leurs téléphones portables, une nouvelle enquête vient remettre le couvert.
Des journalistes de « L’Œil du 20 heures » de France Télévisions et de Franceinfo racontent s’être fait passer pour une entreprise de marketing fictive auprès d’un « data broker » états-unien. Ce dernier leur a expliqué disposer de données émanant de 25 millions de téléphones portables en France, et être en capacité de leur fournir « plus d’un milliard de points GPS au mètre et à la minute près, à travers tout le pays » pour seulement quelques milliers d’euros par mois :
« Cela vous coûterait entre 7 500 et 10 000 dollars par mois d’avoir ces données, c’est le prix en ce moment pour les données françaises. Vous êtes une petite boîte, donc on vous fait un bon prix. »
« Nous respectons la législation européenne, plein d’entreprises utilisent nos données pour des campagnes d’affichage dans la rue, ou de la publicité ciblée », ajoutait le broker, sans pour autant préciser d’où provenaient les données.
15 minutes seulement après être entrés en contact avec l’un de ses concurrents, ils se voyaient proposer un échantillon commercial gratuit constitué de plusieurs centaines de fichiers, couvrant une période de deux semaines en janvier 2025.
Les données, émanant de 11,7 millions de téléphones et totalisant plus d’un milliard de coordonnées GPS, sont a priori anonymes, et uniquement reliées aux identifiants publicitaires associés aux téléphones.
Traquer des convoyeurs de fonds ou membres de la DGSE jusqu’à leurs domiciles
Les journalistes ont cela dit pu identifier 400 téléphones bornant au siège de France Télévisions, suivre en particulier les déplacements de l’une de ses employés, mais aussi et surtout ceux de convoyeurs de fonds de la Brink’s, jusqu’à leurs domiciles.
Contactée, la société de sécurité explique que leurs téléphones professionnels « ne sont pas traçables », qu’il est impossible d’y télécharger une application, et qu’il leur est pourtant demandé d’éteindre leurs téléphones personnels au travail.
Les données ont également permis aux journalistes d’identifier 366 téléphones géolocalisés à l’Élysée, 440 au ministère des Affaires étrangères, et des centaines d’autres dans d’autres ministères, centrales nucléaires et bases militaires, notamment.
Plus inquiétant : ils en ont même identifié 749 au Fort de Noisy, une emprise de la DGSE à Romainville, en Seine-Saint-Denis (les points laissent cela dit supposer qu’un certain nombre émanerait de personnes identifiées aux abords immédiats du Fort, sans forcément y être entrés, la géolocalisation n’étant pas précise au mètre près), et « 37 téléphones qui bornent régulièrement dans l’enceinte » du centre parachutiste d’entraînement spécialisé (CPES) du Service Action de la DGSE à Cercottes, dans le Loiret :
« Des trajets entre le fort de Noisy et Cercottes permettent de conclure qu’il s’agit de membres de la DGSE. S’il est impossible de connaître leur fonction exacte, il est aisé d’en apprendre beaucoup sur ces personnes. On peut ainsi savoir où elles font leurs courses, mais aussi où elles passent leurs soirées. »
Ils auraient également réussi à identifier les domiciles de plusieurs personnes travaillant pour le service de renseignement, ou encore à « retrouver des identités probables de personnes passant leurs journées au camp de Cercottes », et même à remonter jusqu’à des comptes de réseaux sociaux.
Un problème dûment identifié depuis (au moins) 7 ans
Contactée, la DGSE « ne fera pas de commentaire sur la manière dont on appréhende l’existence de ces données », précisant cela dit qu’il s’agit « de choses qui sont effectivement connues ».
Le fait de pouvoir identifier des militaires et employés de services de renseignement à partir des données de géolocalisation de leurs téléphones portables est connu depuis au moins 2018, après qu’un OSINTeur a identifié sur le réseau social de sportifs Strava des forces spéciales en Irak et en Syrie, et l’auteur de ces lignes des agents de la DGSE (et de la DGSI, aussi).
Quand j'ai trouvé un joggeur se géolocalisant au QG de la DGSE, j'ai demandé à un ancien ce qu'il risquait: "cher, sauf s'ils sont plusieurs: dur d'en sanctionner un et pas les autres". Au final, j'en ai trouvé plus de 25 (à la DGSI aussi)… dont le n°2 :https://t.co/SuPMgjlaNF
Next avait également raconté comment nous avions, dans la foulée, été en mesure de géolocaliser et d’identifier des centaines d’agents de service de renseignement états-uniens, britanniques et israéliens, pendant quatre ans, sans que leurs services de contre-espionnage respectifs ne s’en aperçoivent.
Ce n’est qu’après avoir été dénoncé au Mossad par un OSINTeur israélien que notre compte Strava fut finalement coupé. Fin 2024, Le Monde avait de son côté raconté dans ses « StravaLeaks » comment le réseau social de sportifs lui avait permis d’identifier et suivre les déplacements de gardes du corps des présidents français, russes et états-uniens.
L’ADvertising INTelligence (ADINT), nouvel or noir des services de renseignement
Nicolas Lerner, directeur général de la sécurité extérieure (DGSE), avait de son côté opportunément pointé du doigt les problèmes, encore plus grands, que semblaient lui poser l’ADINT (pour ADvertising INTelligence), du nom donné à la collecte de données publicitaires, potentiellement encore plus intrusives.
Faisant suite à d’autres investigations de ce type effectuées aux USA, en Norvège, aux Pays-Bas et en Suisse, BR, le service public audiovisuel de la Bavière) et le média indépendant netzpolitik.org avaient eux aussi révélé, dans toute une série d’articles, qu’il était possible de géolocaliser des personnes à l’intérieur de bâtiments de l’armée et des services de renseignement allemands, mais également dans les installations américaines sensibles en Allemagne, où les États-Unis maintiennent une force d’au moins 35 000 soldats.
Intelligence Online relève pour sa part, en réaction aux « TrackingFiles », que « l’achat de données publicitaires et de géolocalisation via des brokers spécialisés est, depuis un certain temps déjà, utilisé par la plupart des services de renseignement pour leur propre collecte » :
« La pratique a déjà ses acronymes, signe de son institutionnalisation dans les communautés du renseignement : les Commercially Available Information (CAI) et le Commercially Sourced Intelligence (CSINT) du point de vue des services, l’ADINT (Advertising Intelligence) du point de vue des opérateurs commerciaux. »
Une pratique répandue qui rend d’autant plus étonnant le fait que, sept ans après les premières révélations au sujet de Strava, des dizaines voire centaines d’agents de la DGSE continuent de se géolocaliser à l’intérieur des emprises du service de renseignement. Signe que les bases de l’OPSEC (pour « OPerations SECurity », Sécurité opérationnelle en français), à savoir le fait de se protéger des risques autres que ceux relatifs à la cybersécurité, semblent encore être ignorées.
Il leur suffirait pourtant, tout simplement, de ne pas laisser la géolocalisation activée par défaut sur leurs téléphones, et de ne la réactiver qu’en cas de nécessité, et uniquement en dehors des emprises militaires. L’Œil du 20 heures précise qu’il est aussi possible de réinitialiser l’identifiant publicitaire associé à son téléphone et qui permet de suivre ses déplacements et utilisations.
Donald Trump a signé jeudi le décret ordonnant la création, sous trente jours, d’une réserve stratégique américaine de bitcoin, alimentée par les saisies de cryptomonnaies réalisées par les autorités états-uniennes. L’achat de bitcoin sur le marché n’est cependant pas à l’ordre du jour.
Cette fois, c’est officiel. « Les États-Unis ont pour politique de créer une réserve stratégique de bitcoins », stipule un décret présidentiel daté du 6 mars. Le document révèle que le gouvernement de Donald Trump prévoit la création d’une entité dédiée à la gestion de cette réserve. Avant même son installation officielle, les administrations états-uniennes se voient enjointes à lui faire parvenir, sous trente jours maximum, les bitcoins dont elles pourraient disposer.
Des bitcoins issus des saisies
« Ce décret souligne l’engagement du président Trump à faire des États-Unis la « capitale mondiale de la crypto » », s’est réjoui David Sacks, qui conseille principalement le président sur tous les aspects liés à l’IA et aux cryptomonnaies.
La raison de cet attentisme tient probablement à la façon dont le décret prévoit que soit capitalisée cette réserve. Dans un premier temps, elle se limitera en effet au recueil des bitcoins confisqués dans le cadre d’une procédure pénale ou civile, ou utilisés pour le règlement d’une sanction pécuniaire prononcée par une institution états-unienne.
Une stratégie de conservation à long terme
D’après David Sacks, ces actifs, encore en cours d’audit, devraient représenter environ 200 000 bitcoins, soit environ 18 milliards de dollars au cours actuel, qui « ne coûteront pas un centime au contribuable ».
Le « tsar des crypto » affirme par ailleurs que le gouvernement appliquera une stratégie de conservation à long terme. « Les ventes prématurées de bitcoins ont déjà coûté aux contribuables américains plus de 17 milliards de dollars en perte de valeur. Le gouvernement fédéral va désormais disposer d’une stratégie pour maximiser la valeur de ses avoirs », promet-il.
Le décret présidentiel confirme cette doctrine, indiquant que les bitcoins du gouvernement « ne seront pas vendus », mais « conservés en tant qu’actifs de réserve ».
Un « buy and hold »… sans le « buy »
S’il est prévu de conserver les bitcoins (hold), il n’est en revanche à ce stade pas prévu d’en acheter. « Le gouvernement n’acquerra pas d’actifs supplémentaires », indique David Sacks. La porte n’est toutefois pas totalement fermée.
« Le secrétaire au Trésor et le secrétaire au Commerce élaboreront des stratégies pour acquérir des bitcoins gouvernementaux supplémentaires, à condition que ces stratégies soient neutres sur le plan budgétaire et n’imposent pas de coûts supplémentaires aux contribuables américains », expose en effet le décret présidentiel, qui précise qu’une nouvelle action, exécutive ou législative, sera requise avant tout achat sur le marché.
Quid des autres cryptomonnaies ?
Alors que Trump évoquait en début de semaine une réserve stratégique composée de cryptomonnaies telles que Ripple (XRP), Solana (SOL) et Cardano (ADA), le texte officiel se concentre sur le seul bitcoin. Il est tout de même précisé que le ministère du Trésor a vocation à élaborer à un portefeuille dédié à la gestion des autres cryptoactifs que pourraient détenir les administrations états-unienne, mais c’est bien le bitcoin qui constitue, pour l’instant, le cœur du projet.
Avec une double justification : son caractère limité, puisque le protocole associé prévoit que seuls 21 millions de bitcoins soient mis en circulation, et sa sécurité intrinsèque. « Étant donné l’offre fixe de bitcoin, il y a un avantage stratégique à être parmi les premières nations à créer une réserve stratégique de bitcoins », estime la Maison Blanche.
L’annonce initiale de Trump avait suscité de nombreuses critiques, y compris dans son propre camp, qui se focalisaient principalement sur l’achat de cryptoactifs sur les marchés. Elles semblent avoir été entendues.
Des priorités prioritaires depuis déjà des années…
Pour les trois années à venir, la DGCCRF veut se renforcer autour de quatre grands axes. On y retrouve évidemment des incontournables comme les questions de consommation durable, mais aussi des sujets d’actualités avec les jeunes et les influenceurs. Deux dossiers de fonds qui « trainent » depuis des années et qui concerne quotidiennement les consommateurs sont aussi mis en avant : les dark patterns et le démarchage téléphonique.
Une présentation avant d’entrer dans le vif du sujet. La Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF pour les intimes), est une administration du ministère de l’Économie, elle n’est donc pas indépendante, contrairement à d’autres comme l’Arcom, l’Arcep, la CADA, etc.
Préparer l’avenir, avec des actions concrètes
En une phrase, sa mission est d’« enquêter pour protéger les consommateurs et les entreprises ». La protection des consommateurs passe aussi bien par la sécurité (produits non alimentaires) que les intérêts économiques. La DGCCRF doit aussi « veiller au bon fonctionnement concurrentiel des marchés » et « lutter contre les fraudes économiques ».
Elle vient de dévoiler un nouveau plan stratégique pour les années 2025 à 2028. « Plus qu’une feuille de route, ce nouveau plan stratégique porte une vision coconstruite avec les équipes et parties prenantes, qui fixe un cap ambitieux, dans un contexte marqué par des attentes sociétales de plus en plus exigeantes », explique la DGCCRF dans son discours introductif. Son plan doit lui permettre de « préparer l’avenir, avec des actions concrètes ».
La DGCCRF veut « maximiser l’impact » de ses actions
Pour les trois années à venir, quatre grands axes stratégiques sont mis en avant. Le premier doit « maximiser l’impact » de ses actions. Cela passera notamment par une meilleure exploitation des données remontées via la plateforme Signalconso qui permet aux consommateurs de signaler un problème avec une entreprise.
Autre point : « Enrichir nos pratiques d’enquête et de contrôle et renforcer les suites ». La répression des fraudes ne veut pas simplement taper du poing sur la table, elle veut visiblement rester dissuasive afin de « faire cesser rapidement les pratiques les plus dommageables ».
Sur le volet répressif, la DGCCRF veut ainsi « mobiliser davantage la réquisition numérique, développer les sanctions administratives pour certains manquements et de réprimer plus fortement les fraudes les plus préjudiciables pour l’économie ».
Consommation durable et information environnementale
On passe maintenant au deuxième axe : « Accompagner les transformations de l’économie et de la société ». La « consommation durable, désirable et équitable ». La DGCCRF veut développer son expertise et ses capacités d’enquêtes. Elle souhaite également encourager l’écoconception, tout en « veillant à la loyauté de l’information environnementale ».
Cette semaine pour rappel, 33 revendeurs se sont engagés autour d’une charte pour réduire l’impact environnemental de l’e-commerce, avec la Fevad. Les grands noms du moment l’ont signés, mais il y a quelques absents notables comme le groupe LDLC et les chinois tels qu’Alibaba, Temu et Shein pour ne citer qu’eux.
La Direction générale entend aussi s’intéresser aux nouvelles pratiques, rappelant que les consommateurs ont des pratiques diverses : « les jeunes par exemple tiennent davantage compte des avis des influenceurs pour acheter un produit ou un service ».
La DGCCRF dispose pour rappel depuis début 2023 d’un nouvel outil : le « name and shame » sur les injonctions, et pas seulement sur les sanctions administratives. Elle s’en est servie à plusieurs reprises (ici et là par exemple).
En 2024, elle publiait un triste bilan : sur 310 influenceurs contrôlés, la répression des fraudes avait délivré pas moins de 151 avertissements, injonctions et suites pénales. Le bilan 2023 n’était pas des plus glorieux non plus.
Dans un autre registre, la DGCCRF entend « prendre en compte les spécificités des territoires ultras marins en mettant en place un plan annuel spécifique, visant à mieux protéger les consommateurs et notamment les plus vulnérables ».
« Viser la même protection sur internet qu’en magasin »
Autre gros morceau de ce deuxième axe : l’ecommerce. la DGCCRF commence par un état des lieux : « plus de la moitié des signalements des consommateurs sur notre plateforme dédiée, signal.conso.gouv.fr, concerne des achats sur internet ». Il faut dire que les achats sur Internet ont le vent en poupe : « Au cours des douze derniers mois, ce sont 70,1 % des Français de plus de quinze ans qui ont effectué un achat sur internet », précise la Direction générale des entreprises.
La répression des fraudes rappelle que plusieurs textes européens ont été adoptés ces dernières années (DSA, DMA, RSGP, RIA…), mais aussi que « le numérique ne cesse jamais d’évoluer et d’innover » et qu’il faut donc constamment s’adapter et « proposer de nouveaux leviers d’action si nécessaire ».
La répression des fraudes veut « promouvoir un e-commerce de confiance » en renforçant par exemple les campagnes de prévention des arnaques et en valorisant les pratiques vertueuses.
Détection automatique des dark patterns
Rémi Stefanini, délégué à la transition numérique à la DGCCRF, apporte des précisions : « Nous renforcerons la lutte contre les dark patterns, ces interfaces web manipulatoires, en organisant une revue systématique des principales plateformes ». Avec le Pôle d’Expertise de la Régulation Numérique (PEReN), la DGCCRF va essayer de développer « un outil de détection automatique ».
Cela ne surprendra pas grand monde, mais une étude des CNIL a monté que les dark patterns étaient partout sur Internet. C’était la conclusion d’une enquête du GPEN, réseau d’organismes agissant pour la protection de la vie privée au sein de pays membres de l’OCDE, suite au « ratissage » de plus de 1 000 sites et applications mobiles.
Dark patterns : un « un sujet prioritaire » depuis… 2023
Dans un rapport de juin 2023, le ministère de la transformation expliquait qu’une étude de la Commission Européenne avait « identifié des dark patterns sur 97 % des 75 sites les plus populaires dans l’UE ». Déjà à l’époque (il y a près de deux ans), il était précisé que « l’identification et l’instruction de ces dark patterns [étaient] devenues un sujet prioritaire pour les autorités de protection des consommateurs, en France et dans le monde ». Espérons que le plan stratégique se donne vraiment les moyens d’agir.
C’était l’occasion de rappeler que les dark patterns ne concernent pas que le design des formulaires d’acceptations qui poussent à des actions forcées. Le mécanisme de conception trompeur le plus utilisé est l’« utilisation d’un langage complexe et déroutant dans les politiques sur la vie privée ».
La DGCCRF donne quelques exemples de dark patterns courants sur les sites de vente en ligne : « Compte à rebours ou messages d’urgence, demandes multiples de confirmations de vos choix, choix présélectionnés, abonnement caché, entrave au désabonnement, panier rempli à votre insu ». En juin dernier, l’UFC-Que Choisir montait au créneau contre les dark patterns des sites d’e-commerce.
Renforcer la lutte contre le démarchage téléphonique
Le délégué affirme aussi que la répression des fraudes va renforcer sa « lutte contre le démarchage téléphonique, en automatisant par exemple la détection des numéros de téléphone les plus signalés afin de faciliter les enquêtes ». Nous avons déjà publié plusieurs guides sur le sujet :
Le troisième axe pour les années 2025 à 2028 est de « mener une stratégie d’ouverture et de coopération forte ». Il s’agit pour la DGCCRF de « peser aux niveaux européen et international », de renforcer les partenariats institutionnels et de « renforcer la confiance des consommateurs et des entreprises ».
Le quatrième et dernier axe vise à renforcer la dynamique de réseau et les compétences de la DGCCRF. Elle veut ainsi attirer de nouveaux talents et « tirer pleinement parti du numérique » pour mener ses actions.
Les contenus des sites du réseau désinformation prorusse « Portal Kombat » se retrouvent dans les données utilisées par les différents chatbots des entreprises d’IA générative, alerte Newsguard.
En testant 10 des principaux chatbots d’entreprises d’IA générative, l’entreprise américaine NewsGuard a confirmé qu’ils répercutent parfois la désinformation russe propagée par le réseau de sites « Portal Kombat » débusqué l’année dernière par Viginum.
ChatGPT-4o d’Open AI, Smart Assistant de You.com, Grok de xAI, Pi de Inflection, Le Chat de Mistral, Copilot de Microsoft, Meta AI, Claude d’Anthropic, Gemini de Google et Perplexity. Tous ont répété certaines désinformations publiées sur le réseau Portal Kombat, explique Newsguard. Elle précise que ce n’est pas toujours le cas, mais qu’ils ont propagé « les récits faux de désinformation russe dans 33,55 % des cas, ont fourni une non-réponse dans 18,22 % des cas et ont fourni une réfutation des faits dans 48,22 % des cas ».
Ces désinformations viendraient, au moins en partie, de l’écosystème « Pravda », une sous-partie du réseau Portal Kombat visant particulièrement l’Europe et dont parlait déjà Viginum.
Dans un rapport publié le 28 février dernier [PDF], l’association American Sunlight Project (ASP) se posait des questions sur son utilisation : ASP « estime que le public cible le plus probable du réseau Pravda n’est pas constitué d’utilisateurs humains, mais d’utilisateurs automatisés ».
ASP précisait ces doutes : « le réseau n’est pas convivial pour les utilisateurs humains ; les sites du réseau ne disposent d’aucune fonction de recherche, leur formatage est médiocre et le défilement n’est pas fiable, entre autres problèmes de convivialité ».
Elle observait que « le réseau et le modèle d’exploitation de l’information sur lequel il repose mettent l’accent sur la production de masse et la reproduction de récits adaptés à de nombreuses plateformes (sites, comptes de médias sociaux, etc.) susceptibles d’attirer des entités telles que les robots d’indexation des moteurs de recherche et les algorithmes de scraping utilisés pour entrainer des LLM ». L’association nomme cette tactique « LLM grooming » ou « manipulation des LLM ».
ASP a analysé la fréquence d’un échantillon de ces sites et estime la masse de publication de l’écosystème Pravda « à 20 273 articles par 48 heures, soit plus de 3,6 millions d’articles par an ».
« Plus un ensemble de récits pro-russes est important, plus il a de chances d’être intégré dans un LLM », faisait remarquer ASP. « Le réseau Pravda se compose d’un très grand nombre de pages web hébergées sur des URL uniques qui reprennent toutes, souvent mot pour mot, le même contenu […]. En résumé, le flux de sources combiné et l’empreinte numérique de ce réseau sont énormes ».
« Les risques à long terme – politiques, sociaux et technologiques – associés à la manipulation des LLM par ce réseau sont élevés », estimait l’association.
Selon Newsguard, « le réseau Pravda ne produit pas de contenu original. Il fonctionne plutôt comme une machine à blanchir la propagande du Kremlin, en agrégeant le contenu de médias d’État russes, d’influenceurs pro-Kremlin et d’agences et fonctionnaires gouvernementaux par le biais d’un ensemble plus large de sites semblant indépendants ».
L’entreprise explique avoir testé les 10 chatbots cité plus haut avec un échantillon de 15 récits faux diffusés par le réseau Pravda. Newsguard a utilisé son cadre créé pour repérer les sites d’information non-fiable générée par IA.
« Chaque récit faux a été testé à l’aide de trois styles de requêtes différents – “Innocent”, “Orienté” et “Acteur Malveillant” – qui reflètent la façon dont les utilisateurs interagissent avec les modèles d’IA générative pour l’actualité et les informations. Cela a donné lieu à 450 réponses au total (45 réponses par chatbot) », explique l’entreprise.
Elle précise ne pas révéler publiquement les résultats pour chaque modèle « en raison de la nature systémique du problème ».
Sur ces 450 réponses, 56 comprenaient des liens directs vers des articles diffusant des fausses informations publiées par l’écosystème Pravda. En tout, 92 liens pointaient vers des articles du réseau, deux modèles diffusant la majorité avec 27 liens chacun :
Selon Newsguard, tous les chatbots ont diffusé de fausses informations en réponse à des requêtes sur des récits faux provenant du réseau Pravda, mais certains beaucoup plus que d’autres :
Peu de fois, ces chatbots refusent de répondre lorsque Newsguard s’appuie sur le réseau Pravda pour leur poser des questions :
Les chatbots réfutent peu souvent la désinformation propagée par cet écosystème :
Newsguard explique que l’ancien policier américain, théoricien du complot et agent d’influence russe John Mark Dougan a exposé cette stratégie lors d’une table ronde organisée à Moscou le 27 janvier 2025 : « Plus ces informations sont diversifiées, plus elles ont un effet d’amplification. Non seulement cela affecte l’amplification, mais cela affecte aussi l’IA future […] en poussant ces récits russes du point de vue russe, nous pouvons réellement changer l’IA mondiale ». Il concluait « ce n’est pas un outil dont il faut avoir peur, c’est un outil dont il faut tirer parti ».
« Parce que c'est la monnaie qui dirige le monde »
De réseaux sociaux en émissions de radio, de plus en plus de voix s’élèvent pour appeler à un effort de réduction de la présence des technologies américaines dans notre quotidien. Mais est-ce seulement possible ? Et si oui, dans quelle mesure ? J’ai (virtuellement) tenté l’exercice, et il n’a rien d’une sinécure.
« Peut-on boycotter l’Amérique ? », s’interrogeaient mardi soir les participants à l’émission Le téléphone sonne sur France Inter. À première vue, la question semble un peu caricaturale, mais elle ne s’est probablement jamais posée en des termes aussi concrets.
Moyen de pression
Donald Trump fait en effet de l’extraterritorialité américaine (à comprendre comme la façon dont les États-Unis souhaitent faire appliquer leurs lois nationales, et donc leur politique, à l’étranger) l’un des principes fondateurs de son nouveau mandat. L’actualité récente montre qu’il est décidé à en faire non pas un simple moyen de pression, mais un véritable levier de coercition, qui s’incarne de façon très immédiate avec la mise en place d’une nouvelle salve de droits de douane prohibitifs.
Le premier discours de son nouveau mandat, mardi, devant le Congrès américain, a confirmé les accents belliqueux de Donald Trump. Il s’est dit prêt à accepter que l’économie américaine tangue un peu dans la mesure où les conflits commerciaux se concluront par une victoire. « Les droits de douane vont rendre les États-Unis de nouveau riches et grands. Cela va se produire et même plutôt rapidement. Il y aura quelques perturbations, mais nous sommes d’accord avec ça ».
Et la technique ne se limite pas aux droits de douane. Sur tous les sujets conflictuels – et ils sont nombreux – Trump brandit soit la menace d’une rupture des négociations, soit des mesures de rétorsion drastiques. De quoi faire planer, dans l’univers du numérique, le risque d’une absence d’accord entre l’Europe et les États-Unis si le cadre actuel du Digital Privacy Framework venait à être invalidé.
Bref. Face à un interlocuteur qui tend de plus en plus à se positionner comme un adversaire, il devient tentant, voire séduisant, d’opposer à son tour une contre-mesure. En frappant bien sûr là où ça fait mal… c’est-à-dire au porte-monnaie. D’où cette idée de « boycotter l’Amérique ». Ou, pour en rester à l’univers de prédilection de Next, d’évincer de son quotidien les produits, logiciels et services émanant de grandes entreprises américaines. Un appel que lancent aussi certains consommateurs américains face aux actions du DOGE piloté par Elon Musk.
L’hypothèse rappelle à certains les incitations à abandonner Kaspersky, entreprise de sécurité informatique russe, formulées au lendemain de l’invasion de l’Ukraine. Elle en incite d’autres à appeler très directement au rejet des services numériques états-uniens. « Bientôt, notre dépendance à leurs services numériques va être utilisée contre nous, pour nous tordre le bras dans des négociations, redoute ainsi le consultant Louis Derrac, selon qui il est franchement temps de se réveiller (…), et de boycotter les services en question « le plus vite possible, à toutes les échelles (individuelle, collective, politique) possibles ».
Couper le cordon : plus facile à dire qu’à faire
Voilà qui nous amène à mon défi du jour, volontairement jusqu’au-boutiste : évaluer si, et comment, je peux évacuer, purement et simplement, la tech US de mon quotidien. À commencer par l’environnement dans lequel je passe le plus clair de mes journées : mon bureau.
Bureau d’un homo numericus diurnarius, France, circa 2025
Premier constat : à part les dessins d’enfants et le panneau de chêne qui compose le bureau, il n’y a pas grand-chose de français, voire d’européen dans ce bureau. Même la casquette et la déco font référence à des sociétés ou des produits américains !
Mais restons-en à la partie informatique des choses. La souris et le casque viennent de chez Logitech, société très présente aux États-Unis, mais dont le siège est en Suisse. On peut donc a priori les garder, ouf ! Pour le clavier, ça s’annonce plus compliqué : il a bien été assemblé en France, mais son boîtier est signé WASD, une petite boîte californienne. Tant pis pour les interrupteurs amoureusement lubrifiés, il va falloir ressortir un vieux tromblon siglé du logo d’un distributeur français qui dort dans le garage.
Au niveau du PC fixe, l’écran (marque taïwanaise) et le boîtier PC (suédois) passent le repêchage, tout comme la carte-mère, la mémoire vive et l’alimentation, qui émanent tous trois de marques asiatiques. Banco également pour le ventirad, de l’Autrichien Noctua.
Les choses se compliquent en revanche quand on arrive au cœur du réacteur : le CPU vient de chez AMD, la carte graphique de chez NVIDIA, et pour ces deux-là, je ne vois pas vraiment comment couper les ponts avec les poids lourds de Wall Street. En x86, je n’ai en effet d’autre choix que de me tourner vers Intel ou AMD. Il y a bien quelques CPU x86 tiers, notamment en Chine où une entreprise comme Zhaoxin, fondée sur les cendres de VIA, s’efforce de développer des processeurs de bureau avec des résultats de plus en plus convaincants, mais ces derniers ne me sont pas accessibles.
L’autre solution serait de me tourner vers un ordinateur basé sur une puce ARM, en prenant soin d’éviter Apple ou Qualcomm, du fait de leur nationalité. ARM est une société britannique, détenue par un groupe japonais, et sa propriété intellectuelle est exploitée par des fabricants tels que Samsung ou Huawei, qui conçoivent et fabriquent leurs propres puces. On murmure même depuis près d’un an que HiSilicon, la filiale de Huawei dédiée aux semi-conducteurs, planche sur la conception d’un processeur ARM pensé pour les machines de bureau, de façon à concurrencer le Snapdragon X de Qualcomm.
Ça n’est pas encore vraiment gagné, mais je pourrais donc théoriquement tirer un trait sur les composants vendus par des sociétés américaines en remplaçant mon PC fixe par une mini-machine ou une tablette équipée d’un SoC venu d’Asie.
À première vue, le changement ne m’enchante pas… d’autant qu’il ne répondrait finalement que partiellement au problème de départ. Refuser d’acheter un composant fourni par une marque américaine ne signifie en effet pas que je coupe tout pont avec les États-Unis.
Ma carte-mère ou mon alimentation, taïwanaises dans les deux cas, regorgent en effet de composants et d’éléments de propriété intellectuelle qui ramènent indirectement une partie de la valeur de mon achat aux États-Unis.
Acheter mieux, ou acheter moins
Il en va d’ailleurs de même pour mon smartphone, mon écran de PC, ma TV ou ma voiture dotée de fonctions connectées : je peux bien sûr opter pour un appareil de marque européenne ou asiatique, en veillant à ce que les composants les plus visibles soient également non-américains, mais sans garantie d’éviction totale. Je sais en revanche que je dois tirer une croix sur les consoles de jeu : Xbox, PS5 ou Switch, toutes reposent sur du hardware d’origine américaine. Tant mieux, ce sera l’occasion de passer plus de temps à lire, de préférence sur une liseuse Kobo (société canadienne, propriété d’un groupe japonais).
À ce stade, l’exercice n’est pas vraiment probant, mais on peut le rendre plus productif en posant différemment les données du problème. Si je souhaite boycotter les grandes sociétés américaines, ça n’est pas par rejet de leurs produits, mais plutôt par volonté de ne pas soutenir leur modèle économique dans le contexte géopolitique actuel.
Or pour ce faire, j’ai plusieurs leviers, faciles d’emploi, à ma disposition. Je peux commencer par conserver mon matériel actuel tant qu’il fonctionne. Et quand il faudra le faire évoluer, soit par envie, soit par besoin, je peux choisir de passer par des circuits de distribution qui limitent la valeur remontée aux entreprises américaines.
Il n’est pas tout à fait juste de penser qu’acheter un produit reconditionné élimine la fabrication d’un produit neuf. Il découle souvent d’un remplacement. Mais, à tout le moins, je limite ma contribution directe au circuit commercial qui remonte outre-Atlantique. Dans les deux cas, je participe a priori à réduire l’empreinte environnementale du numérique, ce qui ne peut pas faire de mal.
Logiciel : hors du libre, point de salut ?
Après la couche physique, remontons d’un cran. Ma machine fixe tourne sous Windows, mon ordinateur portable utilise macOS, pour l’instant c’est un fiasco complet. Pour trouver une alternative, je dois donc me tourner vers l’univers GNU/Linux, mais ce dernier soulève aussi son lot de questions.
La Linux Foundation ne risque pas d’être qualifiée de big tech au sens boursier du terme, puisqu’elle prend la forme d’un consortium à but non lucratif – même s’il est arrivé que sa gouvernance soit critiquée. Son action de soutien à Linux et au logiciel libre revêt également sans conteste une envergure mondiale. Elle est cependant basée à San Francisco, aux États-Unis, et dirigée par un Américain. Linus Torvalds lui-même, né en Finlande, cumule depuis 2010 les nationalités finlandaise et états-unienne…
Le logiciel libre transcende-t-il les frontières ? Il n’est pas exempt de considérations géopolitiques, comme en témoigne la création d’une antenne européenne de la Linux Foundation à Bruxelles en 2022, ou la récente pétition encourageant la création d’un EU-Linux pensé pour les administrations publiques européennes.
Ces actions visent cependant à consacrer le libre et renforcer ses positions face au logiciel propriétaire, sans (a priori) servir de visée pro-américaine. Du point de vue du particulier qui cherche à s’équiper en technos non-américaines, une distribution Linux semble le meilleur des choix possibles, si ce n’est le seul. Et puisqu’il n’y a pas de cantonnement géographique (et que Mandriva a disparu), je peux par exemple essayer de privilégier un projet initié par des Européens, voire des Français, comme Linux Mint.
La question va se poser dans des termes assez similaires pour les logiciels du quotidien. En tant que journaliste exerçant exclusivement sur le Web, mes besoins en la matière sont relativement simples : le navigateur concentre la majorité des usages, accompagné d’un traitement de texte et d’une petite panoplie d’utilitaires connexes, dédiés par exemple au code ou à la retouche d’images.
Si je veux bien choisir, il faut cependant que je tienne compte des intrications potentielles. Puis-je par exemple continuer à utiliser Firefox, édité par une fondation de droit américain dont le financement dépend principalement de Google ? En face, j’ai deux types d’alternatives. Soit un navigateur basé sur Chromium et son moteur de rendu Blink (Opera, Brave, Vivaldi…), soit un client faisant appel à WebKit.
Bien que les deux projets soient open source, la marque WebKit appartient toujours à Apple, alors que Chromium semble prendre le chemin d’une gouvernance de plus en plus indépendante de Google. À ce niveau, je peux donc a priori m’autoriser quelques latitudes, par exemple du côté de Vivaldi (norvégien) ou d’Opera (norvégien à capitaux chinois) pour jouer la carte européenne.
Au fait, c’est bien beau de penser boulot, mais comment je fais pour jouer à Factorio avec tout ça ? Le jeu a été développé à Prague, donc il ne devrait pas y avoir de problème… à ceci près que je l’ai acheté sur Steam. Et Steam, c’est Valve Corporation, une boîte on ne peut plus américaine. Je me prépare donc à tirer un trait sur les dizaines de jeux auquel j’accède via Steam depuis plus de vingt ans. Au passage, je désinstalle l’Epic Store et le client édité par EA. Heureusement, je peux encore acheter des jeux sur Gog.com, puisque la boutique appartient au Polonais CD Projekt. Je pourrais d’ailleurs y racheter Factorio, mais j’ai beau adorer le jeu, je ne suis pas sûr d’être prêt à le payer deux fois. Vivement le prochain The Witcher tiens !
Une histoire de balance commerciale
Après avoir appliqué la même méthodologie pour le choix de ma suite bureautique ou de mes autres utilitaires arrive le gros morceau : les usages en ligne et la dépendance aux services numériques américains. Ces derniers sont capitaux, à deux égards. D’abord, parce qu’ils représentent l’essentiel de ma consommation du numérique au cours d’une journée lambda. Ensuite, parce qu’ils constituent le nerf de la guerre dans la bataille que Donald Trump envisage de livrer à l’Europe.
Pour en comprendre la teneur, il faut regarder plus en détail la nature des échanges commerciaux entre les États-Unis et l’Europe. En 2023, ils représentent un total de 1 600 milliards d’euros, qui se répartissent entre biens et services.
Sur le volet des biens, la balance commerciale de l’Europe est excédentaire : le Vieux continent exporte 503 milliards d’euros de marchandises vers les États-Unis, et en importe 347 milliards d’euros.
La situation s’inverse quand on regarde les services : l’Union européenne exporte l’équivalent de 319 milliards d’euros vers les États-Unis, alors que ces derniers génèrent 427 milliards d’euros à partir du marché européen. Le pays de Donald Trump profite donc d’un excédent de l’ordre de 109 milliards d’euros sur l’année auquel participent, par exemple, les recettes publicitaires générées par les grands noms américains de la tech.
Les services en ligne : le nerf de la guerre
La bonne nouvelle, c’est qu’en matière de services en ligne, le terrain est déjà particulièrement bien balisé. D’abord, parce que de nombreux acteurs français ou européens s’efforcent de construire des alternatives à l’offre américaine. Ensuite, parce que beaucoup s’alarmaient déjà des dérives des géants du Net bien avant le premier mandat de Donald Trump, ce qui a conduit à des initiatives de recensement très complètes.
On pourra par exemple consulter le site European Alternatives, sur lequel un Autrichien, Constantin Graf, référence et présente, classés par catégorie, environ 150 services en ligne européens. En France, l’association Framasoft édite et héberge également de nombreux services pensés comme des alternatives aux outils les plus populaires des géants du Net, dans le cadre de son initiative Dégooglisons Internet.
Le site European Alternatives référence de nombreux services européens
Se départir complètement des technologies américaines reste toutefois difficile, notamment pour la recherche en ligne. S’il existe bien des moteurs de recherche européens, la plupart d’entre eux exploitent soit l’index de Bing (Microsoft), soit celui de Google. Il y a bien un projet allemand, Good, qui exploite l’index de Brave (une société américaine, certes, mais qui ne tire pas profit des données personnelles), mais l’accès est payant, à partir de 2 euros par mois ou 19 euros par an. Ce n’est pas bloquant, mais quelque peu dissuasif.
Le salut pourrait venir du projet European Search Perspective, porté par Qwant et Ecosia, puisque ces derniers ont annoncé, fin 2024, leur alliance en vue de développer un index de recherche européen. Mais combien de temps leur faudra-t-il, et quelle sera la qualité de cet index ? « Peut-être qu’on n’atteindra jamais le niveau des plus grosses entreprise étrangères, ou peut-être que oui, dans tous les cas on pense que l’on peut proposer une alternative crédible, pertinente, européenne. Collectivement, c’est faisable. Et pas-à-pas, ça peut marcher », veut croire le community manager de Qwant.
Côté réseaux sociaux, le tour devrait être rapide : exit les X, Bluesky, LinkedIn, Facebook, Reddit, Discord et autres Instagram, qui arborent tous la bannière étoilée. Il y a bien un Français : BeReal, mais indépendamment des accusations de dark patterns sur le consentement lié aux données personnelles dont il fait l’objet, il ne me sera pas d’une grande utilité pour ma veille quotidienne. Idem pour TikTok… Il ne va me rester en définitive que le réseau décentralisé Mastodon, dont la future gouvernance devrait confirmer l’ancrage européen.
Pour ce qui est de la messagerie instantanée, je dois logiquement abandonner WhatsApp, ce qui va contrarier mes relations sociales. Je suis également censé délaisser Signal, puisque la fondation qui l’édite est américaine. Telegram, dont le siège social est à Dubaï, constitue une alternative, tout comme les clients asiatiques de type Line ou WeChat. Autant la jouer chauvin, et sélectionner la messagerie française sécurisée Olvid ou celle de Treebal, portée par une startup bretonne, mais je vais devoir consentir un sacré effort d’évangélisation pour entraîner tous mes contacts à migrer avec moi.
Coup de pot, la rédaction de Next ne passe pas par Slack pour ses échanges quotidiens, mais par Mattermost. Le logiciel est développé par une société commerciale américaine, mais le projet est open source et notre instance est auto-hébergée. Disons que ça passe ?
En parlant de messagerie… pour mon mail perso, c’est relativement facile, même si ça va faire drôle : je cesse d’utiliser mon @gmail.com, et je bascule vers un service européen, chez Proton ou chez Infomaniak par exemple. Il va par contre falloir que je fasse un peu de lobbying en interne pour ma boîte professionnelle : quand je regarde autour de moi, les usages se concentrent le plus souvent soit autour de Microsoft Exchange, soit de la suite Google. Des hébergeurs comme OVHcloud, Ikoula et d’autres proposent pourtant des solutions tierces, basées par exemple sur la version open source de Zimbra.
La musique ne devrait pas poser de problème, puisque j’utilise déjà le service français Deezer. En matière de vidéo, il va falloir trouver de nouvelles habitudes, mais je peux arrêter Netflix, Twitch et YouTube, et regarder plus régulièrement les séries, films et émissions proposés via les applications de chaînes de TV européennes. Pour ce qui est des achats en ligne, l’offre européenne est pléthorique, et j’ai déjà pris l’habitude de privilégier LDLC ou Cdiscount à Amazon, ça devrait être facile.
Minute, papillon ! Acheter en France, OK, mais puis-je payer français ? Un tri s’impose dans mon portefeuille, mais j’ai bien une carte qui exploite le réseau CB, et pas uniquement du Visa ou du Mastercard.
Rien à voir, mais tant que j’y pense, il faut que je pense à désinstaller l’application Waze de mon téléphone. Je suppose que je vais la remplacer par Coyote, mais il faut que je regarde dans quelle mesure je peux le paramétrer pour qu’elle n’exploite pas le GPS américain, mais les données de la constellation européenne Galileo !
Intrication (non quantique)
Une fois ce ménage fait, puis-je vraiment affirmer que j’ai évincé les technos américaines de mon quotidien ? Rien n’est moins sûr. Les serveurs qui hébergent les sites sur lesquels je surfe exploitent des composants d’origine états-unienne, tout comme les équipements réseau qui acheminent le trafic lié à mon surf sur Internet. Et bon nombre des services ou sites bien français que je consomme sont hébergés sur Azure (Microsoft) ou AWS (Amazon)…
On peut même pousser le raisonnement un peu plus loin, puisque l’interdépendance entre les États-Unis et l’Europe n’est pas que technologique : elle est aussi financière. Mes chouchous français ou européens comptent ainsi souvent des investisseurs américains à leur capital. En dépit de ses origines suisses, ma souris rémunère ainsi indirectement les grands gestionnaires d’actifs américains qui sont présents au capital de Logitech. Avant son entrée en bourse, OVHcloud allait chercher des fonds auprès d’acteurs américains. Les levées de fonds de Mistral AI sont principalement le fait d’investisseurs états-uniens, etc.
Peut-être devrais-je raisonner en termes de « scopes », comme dans un bilan carbone ? Et décider, par exemple, que mon boycott s’arrête à mes contributions directes à l’économie américaine.
Il faudrait aussi éviter de tomber de Charybde en Scylla, en sélectionnant des alternatives qui pourraient se révéler plus nocives que les entreprises que je cherche à éliminer de mon quotidien. Après tout, la politique chinoise me pose aussi quelques petits problèmes moraux…
Pour bien faire, j’aurais donc besoin d’intégrer un critère éthique en parallèle de la provenance géographique. Et ne serait-ce finalement pas ça, le nerf de la guerre ?
C’est l’avis défendu par Chris Wiegman, un ingénieur et développeur américain, réputé notamment pour ses travaux autour de WordPress. Il ne croit pas à l’efficacité du boycott contre les « big techs », mais n’appelle pas pour autant à continuer de consommer leurs services sans réfléchir. « N’oubliez pas que vos 5, 10 ou 100 dollars par mois n’auront aucun impact sur les Google et Apple de ce monde. Utilisez plutôt vos convictions et vos boycotts pour éduquer ceux qui vous entourent, afin que nous puissions tous collectivement passer à des actions et à des réglementations qui construiront une tech dont nous pourrons être fiers », écrivait-il en 2022.
La réflexion s’impose d’autant plus que le boycott prend généralement une dimension temporaire : si l’on cesse d’acheter ou de consommer américain en réaction aux déclarations de Donald Trump, c’est a priori pour lui envoyer un signal, ce qui sous-entend qu’une volte-face est possible. « La réussite d’un boycott repose en grande partie sur trois facteurs-clés : la mobilisation des consommateurs, la disponibilité d’alternatives crédibles et la durée de l’action », rappelle à ce sujet la Tribune, en faisant référence aux travaux universitaires de Marinette Amirault-Thébault.
L’ampleur de la tâche m’a un peu découragé, je ne boycotterai pas la tech américaine aujourd’hui, mais je soupèserai différemment mes prochains choix d’équipements. Peut-être de façon plus responsable…
Nouvelle mouture pour le client e-mail de Mozilla, qui se dote d’un nouveau panneau Apparence dans les paramètres de l’application. On y trouve les options liées à l’organisation des messages en fils, au tri par défaut et à l’ordre chronologique (le plus récent tout en haut ou l’inverse).
Malgré l’utilisation d’une version française, cette partie est toujours en anglais. Dommage également de ne pas en avoir profité, quitte à être dans un panneau Apparence, pour y placer tout ce qui touche aux thèmes, ou au moins un raccourci. En revanche, l’équipe de développement a ajouté la possibilité d’appliquer les changements à l’ensemble des dossiers ou à un dossier spécifique et ses sous-dossiers.
Thunderbird 136 présente également une adaptation automatique des courriers en thème sombre, si ce dernier est utilisé. Cette bascule s’accompagne d’un bouton situé en haut à droite du panneau de lecture, pour revenir au fond blanc en cas de besoin.
Outre la correction de nombreux bugs, la nouvelle mouture apporte quelques changements interne, dont une amélioration des performances pour les personnes ayant de nombreux dossiers lors du redimensionnement des panneaux de messages. On note aussi un meilleur support des écrans HiDPI, ou encore des modifications pour les critères de fermeture des bases de données de messages inactives.
Cette nuit, SpaceX a essuyé son deuxième échec consécutif lors de l’envoi d’un vol test pour sa fusée. Starship a été lancée depuis le Texas à 17h30 heure locale (23h30 GMT), les deux étages se sont séparés sans encombre et Super Heavy est bien retourné vers le pas de tir récupéré par les bras mécaniques de SpaceX.
Mais quatre des six moteurs du second étage se sont petit à petit éteints huit minutes après le lancement et la fusée est redescendue vers le sol avant d’exploser et de rentrer dans l’atmosphère au-dessus des Caraïbes, explique Spacenews.
« Avant la fin de l’ascension, un événement énergétique dans la partie arrière du vaisseau a entraîné la perte de plusieurs moteurs Raptor », affirme SpaceX.
Comme lors du précédent échec, des débris ont chuté à proximité des îles des Caraïbes. Certains avaient été retrouvés sur les Îles Britanniques habitées de Turques-et-Caïques.
Et comme lors de ce précédent échec, la Federal Aviation Administration (FAA) a dû fermer temporairement l’espace aérien, obliger certains vols à se dérouter ou immobiliser des avions au sol, ce qui a entrainé des retards.
Les débris ont pu être observés via les hublots de certains avions qui étaient dans la zone :
« La FAA demande à SpaceX de mener une enquête sur la perte du véhicule Starship lors des opérations de lancement du 6 mars », a déclaré l’agence dans un communiqué obtenu par Spacenews. Elle avait fait la même demande pour le précédent échec de Starship.
Dans un message public publié le 24 février, l’entreprise avait affirmé que la cause principale la plus probable de l’échec précédent était sans doute « une réponse harmonique plusieurs fois plus forte en vol que ce qui avait été observé pendant les essais, ce qui a entraîné une augmentation des contraintes sur le matériel du système de propulsion ». SpaceX ajoutait que « les fuites de propergol qui en ont résulté ont dépassé la capacité de ventilation des combles du vaisseau et ont provoqué des incendies prolongés ».
Elle disait avoir apporté des modifications afin d’éviter que des problèmes similaires ne se reproduisent.
Alors que la proposition de loi Narcotrafic a été évidée en France d’un article qui aurait affaibli le principe du chiffrement de bout en bout, le Royaume-Uni réclame à Apple de percer une porte dérobée dans son chiffrement. La demande a conduit Apple à supprimer une fonction optionnelle. Désormais, elle contre-attaque au tribunal.
Il y aura bientôt un mois, on apprenait que le Royaume-Uni avait demandé à Apple de forer dans ses propres défenses. Pour accélérer certaines enquêtes, les forces de l’ordre pourraient ainsi obtenir des informations protégées jusqu’à présent et par défaut par le chiffrement de bout en bout. Parmi elles, les discussions dans l’application Messages, quand iMessage est utilisé entre deux appareils Apple. Au cœur du dispositif, la loi IPA (Investigatory Powers Act), surnommée « loi des fouineurs ».
L’information était alors au conditionnel. Très peu de temps après cependant, Apple a annoncé que sa Protection avancée des données était supprimée au Royaume-Uni. Une manière pour l’entreprise d’acquiescer ? Pas vraiment, car cette option peu connue est relativement peu utilisée. Elle apporte le chiffrement de bout de bout aux autres services Apple ne l’ayant pas déjà, notamment les sauvegardes iCloud.
Surtout, ce retrait ne répondait pas à la demande du Royaume-Uni : supprimer une fonction optionnelle ne revient pas à percer le chiffrement de bout en bout. On peut supposer qu’il s’agissait à ce moment de commencer à se battre par un avertissement à la population anglaise. Outre-Manche, se rendre dans les paramètres pour activer la Protection avancée des données affiche en effet un message expliquant que la fonction n’est plus disponible dans ce pays. La société ne pouvait expliquer pourquoi : la loi IPA interdit à un prestataire de faire savoir qu’une mesure technique lui a été réclamée.
Parallèlement, Apple a publié le 24 février une note expliquant la situation, sans nommer la loi IPA bien sûr. « Nous sommes profondément déçus que nos clients au Royaume-Uni n’aient plus la possibilité d’activer la protection avancée des données », indiquait l’entreprise. « Comme nous l’avons déjà dit à maintes reprises, nous n’avons jamais construit de porte dérobée ou de clé maîtresse pour l’un de nos produits ou services et nous ne le ferons jamais ».
Devant les tribunaux
Selon le Financial Times, Apple n’a pas seulement supprimé sa Protection avancée des données au Royaume-Uni : elle s’est également rendue dans un tribunal pour s’opposer à la mesure technique. Nos confrères estiment que la procédure est secrète, expliquant pourquoi aucun écho n’était parvenu au public jusqu’à présent. Ce secret serait une conséquence directe de la loi IPA, puisque les mesures techniques ne doivent pas être communiquées.
La société américaine aurait donc fait appel devant l’Investigatory Powers Tribunal, un organe judiciaire indépendant chargé d’examiner les plaintes contre les services de sécurité britanniques. Le Financial Times cite des sources proches du dossier. Ces dernières auraient communiqué sur un autre élément important : c’est la première fois que les pouvoirs conférés par la loi IPA seraient frontalement contestés devant le tribunal spécial.
Même joueur joue encore
Il est probable qu’Apple remporte la partie. Dans ce domaine, l’entreprise a déjà fait ses armes plus d’une fois, dont un affrontement vif avec le FBI dans les mois qui ont suivi l’attentat de San Bernardino. Le Bureau avait exigé d’Apple qu’elle perce dans ses propres défenses pour récupérer les données présentes dans l’iPhone 5c retrouvé sur le corps d’un des terroristes.
Les enquêteurs ne pouvaient plus tenter de codes PIN pour déverrouiller le téléphone, par crainte de l’option entrainant une suppression complète des données en cas d’erreurs répétées. Apple avait fourni des outils, mais refusé d’affaiblir ses défenses (le code PIN est une composante de la clé de chiffrement). Le FBI avait déposé plainte, puis abandonné les poursuites : un prestataire (sans doute Cellebrite) lui avait fourni une faille de sécurité pour contourner les défenses.
Dans le cas du Royaume-Uni, la loi IPA « prétend s’appliquer de manière extraterritoriale, ce qui permet au gouvernement britannique d’affirmer qu’il peut imposer des exigences secrètes aux fournisseurs situés dans d’autres pays et qui s’appliquent à leurs utilisateurs dans le monde entier », déclarait Apple l’année dernière dans un témoignage remis au Parlement britannique en mars 2024. Il était alors question d’augmenter les capacités de cette loi, nombre de ses ajouts ayant été validés depuis.
Une mesure inapplicable ?
La situation est similaire à la France, dont la loi Narcotrafic aurait pu entrainer un affaiblissement du principe de chiffrement de bout en bout. Même si Bruno Retailleau, ministre de l’Intérieur, avait tenté d’expliquer qu’il ne s’agissait pas d’introduire une porte dérobée, la garantie de sécurité s’en retrouvait affaiblie. L’article 8 ter, qui aurait introduit cette obligation pour les prestataires, a finalement été supprimé le soir du 5 mars, à la faveur de plusieurs amendements de suppression adoptés.
La similitude est toutefois forte : si l’article avait été adopté, la France aurait eu la capacité de demander aux entreprises – notamment aux éditeurs de messageries sécurisées – d’instaurer un mécanisme permettant la récupération des conversations lors d’enquêtes. Ce qui revenait à exiger de lourdes modifications auprès de structures américaines.
C’est le cœur du problème. Des entreprises comme Meta et Apple préfèreront sans doute quitter cet ennuyant marché plutôt que d’introduire un affaiblissement qui aurait un impact mondial. Pour que des Anglais ou Français puissent communiquer avec le reste du monde, il faut bien que le protocole soit le même. De plus, la Maison-Blanche s’est montrée très claire sur ses intentions : l’Europe doit cesser d’embêter ses grandes entreprises.
Au Royaume-Uni, on peut constater quoi qu’il en soit un mouvement général contre le chiffrement. Comme remarqué par exemple par l’expert en sécurité Alec Muffett dans un billet de blog, les références au chiffrement disparaissent sur les pages web gouvernementales. Sur le site du NCSC (Centre national de cybersécurité du Royaume-Uni), on ne trouve plus par exemple un document donnant des conseils aux personnes à haut risque. On y trouvait d’ailleurs… la Protection avancée des données d’Apple.
Hier, c’était le grand jour pour les nouvelles Radeon RX 9070 et 9070 XT d’AMD, les premières exploitant l’architecture RDNA 4. Les cartes sont en vente et les tests des confrères publiés. Nous avons décidé de faire un petit tour d’horizon à J+1.
Conversion dollars vers euros : AMD moins gourmand que NVIDIA
Les nouvelles Radeon RX 9070 et 9070 XT étaient annoncées à 549 et 599 dollars, sans précisions sur le prix en France. On peut maintenant voir que les tarifs sont de 629 et 689 euros dans nos contrées, du moins en théorie.
Par rapport au prix en dollars, le tarif de base en euros prend donc environ 15 % (cela correspond aux taxes, aux frais de conversion…). Chez NVIDIA, la hausse du passage du dollar à l’euro sur les RTX 5070 et 5070 Ti était plus importante avec 18 % environ. Les cartes étaient annoncées à 549 et 749 dollars, pour 649 et 884 euros.
Rapide détour par les tests (sans grande surprise)
Commençons par quelques tests. Pour Hardware & Co, « l’intérêt de la RX 9070 XT réside essentiellement dans sa tarification ». Elle se place sous la RTX 5070 Ti en performances, mais garde l’avantage du rapport performances/prix selon nos confrères. « La dernière née des rouges pose également souci à la RTX 5070 qui pour le coup est positionnée beaucoup trop proche », ajoutent-ils. Quant à la RX 9070, elle se place devant la RTX 5070 en rastérisation, mais derrière en ray tracing.
Autres tests chez Les Numériques. La Radeon RX 9070 se place entre les GeForce RTX 5070 et 5070 Ti en 1440p, tandis que la RX 9070 XT est au coude à coude avec la RTX 5070 Ti et la RTX 4080 Super. « Le passage à la définition 4K permet de creuser les écarts, mais aussi d’apprécier la quantité de mémoire disponible. À ce petit jeu, la Radeon RX 9070 s’en sort avec les honneurs », explique notre confrère.
630 euros pour une Radeon RX 9070 : la réalité est bien différente
Bon, qu’en est-il des prix ? Chez LDLC, la RX 9070 débute à 630 euros et 690 euros pour la version XT, mais les produits sont en rupture de stock. La carte la moins chère en stock est la RX 9070 de Sapphire Pulse à 800 euros, soit 170 euros de plus que le tarif de base. Certaines Radeon RX 9070 XT frôlent même les 1 000 euros, soit 300 euros de plus que le tarif « recommandé ».
La situation est plus ou moins la même chez Top Achat et Materiel.net qui font partie du même groupe que LDLC. Notons tout de même une Radeon RX 9070 OC ASUS TUF à… 930 euros (c’est bien la version classique, pas la XT).
Passons chez Cybertek, avec les mêmes prix de base (630 et 690 euros) et les mêmes stocks inexistants. Le revendeur n’a qu’une seule carte en stock pour le moment : la RX 9070 Sapphire Nitro+ OC de Sapphire à 750 euros, c’est toujours 50 euros de moins que LDLC. Même chose chez Grosbill, qui appartient pour rappel à Cybertek.
Une RX 9070 XT à 900 euros, 1 150 euros pour une 9070 XT
Chez Cdiscount, la RX 9070 Pulse s’affiche à… 900 euros et on passe à 940 euros pour une version Pure OC. Le revendeur dépasse allègrement les 1 000 euros avec la version XT : 1035 euros pour la Pure OC et jusqu’à 1 150 euros pour la Nitro+ OC en Radeon RX 9070 XT.
Nous faisons également un tour chez un autre revendeur « officiel » d’AMD : Infomaxparis. Ça va vite : aucune carte n’est en stock. Détail surprenant, la carte la moins chère est une Radeon RX 9070 XT à 690 euros, puis il faut passer à 720 euros pour une Radeon 9070.
Stock : circulez, il n’y a (presque) rien à voir
Nous en profitons pour regarder la situation chez NVIDIA, avec des stocks également très limité sur les GeForce RTX 5070, comme on peut le voir chez LDLC (aucune GeForce en stock). Chez Cybertek, c’est encore pire. Si on prend l’ensemble des Radeon RX 9070, 9070 XT, GeForce RTX 5070 et 5070 Ti, on arrive à… une seule carte en stock.
C’est fait. Ariane 6 a réussi son premier lancement commercial. La mission est un succès sur toute la ligne, avec une dépose précise du satellite militaire CSO-3 à 800 km d’altitude (orbite héliosynchrone), après plusieurs réallumages (prévus) du moteur Vulcain.
Cette fois, c’était (enfin) la bonne
Après de multiples reports, dont un dernier en début de semaine, Ariane 6 a finalement décollé en fin d’après midi de Guyane. L’Europe peut pousser un ouf de soulagement : la mission est un succès sur toute la ligne.
Le décollage s’est effectué sans la moindre anicroche puis, après une heure de vol, a bien effectué le largage de la charge utile. Entre temps, le moteur Vinci a été redémarré plusieurs fois pour ajuster la trajectoire de l’étage supérieur, comme prévu.
Les premières minutes de fonctionnement sont juste idéales et parfaites
Vers 18h30, Arianespace indiquait que « le satellite CS0-03 vient d’être déposé précisément à son point de livraison afin qu’il puisse à son tour remplir brillamment sa mission en symbiose avec CSO-01 et CSO-02 ».
« On a acquis le signal de télémétrie du satellite, on a détecté sa bonne séparation. La séquence automatique a démarré, on a déployé les quatre panneaux solaires […] On peut dire que les premières minutes de fonctionnement sont juste idéales et parfaites », ajoute Paul Arberet, chef de projet senior au CNES.
Souveraineté, souveraineté et souveraineté
« Le retour de Donald Trump à la Maison-Blanche avec Elon Musk à ses côtés a déjà des conséquences considérables sur nos partenariats sur la recherche, sur nos partenariats commerciaux », a déclaré Philippe Baptiste dans le live accompagnant le lancement (l’intégralité du live figure dans la vidéo plus bas dans cet article) : « Dois-je mentionner les incertitudes qui pèsent aujourd’hui sur nos coopérations avec la NASA et la NOAA, quand des programmes aussi emblématiques que l’ISS sont remis en cause unilatéralement par Elon Musk ? »
L’ancien président du CNES et désormais ministre chargé de l’Enseignement supérieur et de la recherche, rattaché à Élisabeth Borne, a sonné la charge contre les États-Unis et les enjeux de souveraineté :
« Si nous voulons conserver notre indépendance, assurer notre sécurité, préserver notre souveraineté, nous devons nous donner les moyens de notre autonomie stratégique. Et le spatial en est une composante incontournable. L’espace est présent partout, de nos téléphones aux champs de bataille, dans les télécommunications, la navigation et l’observation de la Terre. Ce lancement joue un rôle particulier car il permet la mise en orbite d’une nouvelle capacité spatiale militaire […] Nous ne devons pas céder à la tentation de préférer SpaceX ou un autre concurrent qui paraît plus à la mode, plus fiable ou moins cher aujourd’hui ».
Pour Philippe Baptiste, Ariane 6 est un « nouveau jalon essentiel » de notre souveraineté. Cette question n’est pas nouvelle, elle occupe même l’espace médiatique depuis quelques années (et encore ici), mais elle est devenue d’autant plus importante avec le retard d’Ariane 6 et la mise à la retraite d’Ariane 5, sans compter les déboires de Vega(-C).
« Une étape importante du retour à l’autonomie et à la souveraineté spatiale française et européenne est franchie », a de son côté déclaré Sébastien Lecornu, ministre des Armées. Il ajoute que CSO permet « à nos armées, et à nos alliés, d’obtenir des images optiques et infrarouges à une définition inégalée en Europe ».
Vous pouvez revoir le lancement et les discours sur la vidéo ci-dessous :
Après avoir récupéré des millions de conversations en arabe via les outils qu’elle utilise pour surveiller les palestiniens dans les territoires occupés, l’armée israélienne les a mises à profit pour entrainer un modèle de langage, explique une enquête du Guardian, d’Appel Local et du magazine + 972.
L’IA générative étant sur toutes les lèvres, il n’est pas étonnant que les armées de tous les pays s’y essayent. Notamment en Israël, cette « start-up nation » façonnée par l’armée.
Une enquête menée par le Guardian, le magazine israélo-palestinien + 972 et שִׂיחָה מְקוֹמִית (un média dont le titre veut dire « Appel local » en hébreu) révèle que l’armée israélienne a entrainé un grand modèle de langage sur des millions de conversations obtenues via la surveillance des Palestiniens dans les territoires qu’elle occupe.
Selon plusieurs sources de ces trois médias, l’unité 8200 de l’armée chargée de la cyberguerre au sein de la direction du renseignement militaire israélien entrainait toujours ce modèle à la fin de l’année dernière. Nos confrères n’ont pas pu obtenir de confirmation sur le calendrier éventuel de déploiement d’une IA qui s’appuierait sur ce modèle.
L’arabe dialectal visé
Mais l’armée israélienne espérerait tirer les bénéfices de ce modèle pour traiter rapidement de grandes quantités de données de surveillance et répondre à des questions précises concernant des personnes qu’elle cible spécifiquement.
Le Guardian explique que ce projet a été partiellement révélé lors d’une conférence l’année dernière à Tel-Aviv par Chaked Roger Joseph Sayedoff, un ancien expert du renseignement militaire. « Nous avons essayé de créer le plus grand ensemble de données possible [et] de rassembler toutes les données que l’État d’Israël n’a jamais eues en arabe », a déclaré ce dernier, ajoutant que le modèle aurait nécessité une « quantité psychotique » de données.
La spécificité de ce modèle, c’est qu’en s’appuyant sur les conversations écrites et audio des palestiniens, il est entrainé sur des langues et dialectes particuliers.+ 972 raconte que Roger Joseph Sayedoff a expliqué lors de cette conférence que les modèles de langage existants ne pouvaient traiter que l’arabe littéral – utilisé dans les communications officielles, la littérature et les médias – et non l’arabe dialectal, qui prend des formes bien différentes.
Selon une source du Guardian, le modèle utiliserait notamment des conversations en arabe palestinien et libanais.
Un projet boosté par des réservistes
Le média israélo-palestinien explique qu’octobre 2023 a été une date clé pour ce projet qui était déjà en route. Mais, à ce moment-là, l’Unité 8 200 a commencé à recruter en tant que réservistes des experts de modèles de langage venant d’entreprises privées.
Le Co-CEO de l’entreprise israélienne AI21, Ori Goshen, a confirmé à nos confrères que des salariés de son entreprise ont travaillé sur le projet. Celui-ci estime que les modèles de langage pourraient générer des listes de « suspects » en vue d’une arrestation. Mais il espère surtout pouvoir récupérer des données dispersées dans les multiples conversations utilisées pour entrainer les modèles. Il concède dans le même temps que les « hallucinations » des IA génératives peuvent mener à des erreurs et qu’il ne faut pas avoir une confiance aveugle en ces outils.
Interrogé par nos confrères, le chercheur de l’ONG Human Rights Watch, Zach s’est dit alarmé par le fait que l’Unité 8200 utiliserait les LLM pour prendre des décisions importantes concernant la vie des Palestiniens sous occupation militaire.
D’énormes quantités de données sans grande valeur pour le renseignement
Selon le Guardian, l’unité a notamment cherché à entrainer le modèle pour comprendre la terminologie militaire mais s’est retrouvée avec d’énormes quantités de données sur la vie quotidienne des Palestiniens sans grande valeur pour le renseignement.
L’armée israélienne n’a pas voulu répondre aux questions du Guardian mais affirme qu’elle « déploie diverses méthodes de renseignement pour identifier et contrecarrer les activités terroristes d’organisations hostiles au Moyen-Orient ».
Il y a quelques jours, dans une vidéo, le youtubeur Louis Rossman disait avoir constaté qu’une mise à jour de firmware dans une imprimante Brother avait rendu celle-ci dysfonctionnelle avec une cartouche d’encre compatible tierce. L’affaire fait du bruit. Pourtant, l’entreprise nie formellement avoir modifié quoi que ce soit.
Plusieurs constructeurs d’imprimantes se sont attiré les foudres de leurs clients en déployant des mécanismes visant à freiner l’utilisation des cartouches d’encre ou de toner de marques tierces, les fameuses cartouches compatibles. Dans ce domaine, HP est souvent citée. Brother, jusqu’à présent, n’avait pas emprunté cette voie. Pourtant, le youtubeur Louis Rossman, grand militant du droit à la réparation, a jeté un pavé dans la mare il y a quelques jours.
Imprimante bloquée
Dans une vidéo publiée le 3 mars ainsi que dans son wiki, Rossman évoque le cas de l’imprimante laser MFC-3750. Selon lui, la version 1.56 du firmware a entrainé un brusque changement : la calibration des couleurs ne fonctionne plus avec les toners compatibles. Cette mise à jour se serait installée seule, l’imprimante étant connectée à Internet. Pire, on ne peut pas revenir en arrière, car les anciennes versions du firmware ont été supprimées du site officiel.
Rapidement, l’affaire fait du bruit. La vidéo, repérée par Tom’s Hardware, a été vue pour l’instant 171 000 fois. Rossman y indique avoir longtemps recommandé Brother pour la facilité à utiliser des cartouches compatibles. Pour lui, Brother rejoint « les autres », terme utilisé pour pointer des entreprises comme HP et Canon, dont les technologies sont utilisées pour brider ou bloquer les cartouches tierces, par exemple en dégradant la qualité d’impression.
Sur son Wiki, Louis Rossman indique que les impacts sont concrets. Les clients qui avaient l’habitude d’économiser en achetant des cartouches compatibles doivent désormais dépenser plus, la réputation de Brother est ternie, aucun avertissement n’a été donné et les mesures pour contourner le firmware sont complexes.
Une « vieille » histoire
Quand on se rend sur la page de support de l’imprimante MFC-3750, on peut voir que la dernière version du firmware proposée par Brother est estampillée 1.60. Le constructeur aurait-il diffusé une nouvelle version au cours des derniers jours ? Il n’en est rien, car la version 1.56 abordée dans la vidéo a en fait plus de trois ans.
Le problème dénoncé par Louis Rossman n’est pas directement basé sur des observations personnelles. Sur son wiki, les références renvoient vers plusieurs sites, dont un fil Reddit datant justement de janvier 2022. Un client de Brother y décrivait justement les problèmes remontés par le youtubeur. L’utilisateur, 20Factorial, indiquait que sur les conseils du service client, il avait installé une cartouche d’origine, l’imprimante redevenant fonctionnelle.
Les autres liens renvoient vers des problèmes similaires, aboutissant à une impossibilité d’imprimer ou à une qualité d’impression dégradée.
Pourtant, certaines personnes ne se sont pas laissé faire. West-Skin4092 indique par exemple avoir eu un message d’erreur avec une cartouche de toner compatible sur une imprimante 3770. « J’ai donc retiré la puce d’origine de la cartouche Brother et je l’ai mise sur la cartouche de toner non OEM. L’imprimante l’a reconnue et ça fonctionne », affirma-t-il il y a un mois, signe que le fil est toujours actif après trois ans. De son côté, Gloomy-Score-8279 assure avoir essayé la solution de la puce, sans succès.
Brother dément vigoureusement
Le sujet peut agacer plus d’une personne, mais il prend un tour différent avec les déclarations de Brother à Ars Technica :
« Nous sommes conscients des fausses allégations récentes suggérant qu’une mise à jour du firmware de Brother pourrait avoir restreint l’utilisation de cartouches d’encre tierces. Nous vous assurons que les mises à jour du firmware de Brother ne bloquent pas l’utilisation de cartouches d’encre d’autres marques dans nos appareils »
La société est donc droite dans ses bottes. L’entreprise élabore d’ailleurs : « Les imprimantes Brother ne dégradent pas intentionnellement la qualité d’impression en fonction de l’utilisation d’une cartouche d’encre ou de toner authentique ou non authentique ». Toutefois, la société indique ne pas pouvoir « vérifier la qualité d’impression qui résultera de l’utilisation d’une cartouche tierce compatible ».
Mais alors, d’où pourraient venir ces problèmes ? Brother a une piste : le processus Brother Genuine. La société dit bien sûr encourager l’utilisation de cartouches authentiques. Après tout, elle a conçu ce matériel. Elle ajoute que la vérification Brother Genuine, qui vérifie l’authenticité des cartouches, est une mesure courante lors des réparations. « Nous préférons effectuer un dépannage avec des consommables Brother Genuine », indique l’entreprise. Cette étape pourrait avoir donné « lieu à un malentendu ».
Et d’affirmer à nouveau qu’aucun nouveau firmware n’a jamais dégradé la qualité d’impression ou supprimé des fonctions.
Le bénéfice du doute
Comme l’indiquent nos confrères, il est difficile de vérifier l’authenticité des témoignages sur internet. Mais même s’il s’agit de véritables retours d’expérience, il est encore plus compliqué de vérifier l’origine du problème. Si l’entreprise dit vrai, les problèmes pourraient provenir d’une erreur côté utilisateur ou d’un paramètre inconnu.
Difficile donc en l’état d’affirmer d’où peut venir la panne. Des problèmes apparaissant juste après une mise à jour sont toujours suspects. Et cela d’autant plus que le problème des cartouches compatibles est connu depuis de nombreuses années. En novembre dernier, l’association HOP (Halte à l’obsolescence programmée) a ainsi déposé plainte contre HP pour, justement, obsolescence programmée de ses cartouches d’encre. Le constructeur est accusé de favoriser une surconsommation d’encre, notamment en mettant des bâtons dans les roues des personnes utilisant des cartouches compatibles ou recyclées, « vendues 30 à 70 % moins cher ».
La logique est simple et connue : des imprimantes vendues à des tarifs de plus en plus bas, pour mieux vendre les consommables. Une simple pratique commerciale, différente cependant d’un éventuel blocage des cartouches recyclées ou compatibles.
Brother, quoi qu’il en soit, prend un risque en niant fermement avoir engendré ces problèmes. Si l’avenir devait prouver que l’entreprise a menti, son image serait d’autant plus écornée et la voie serait ouverte à des plaintes en bonne et due forme.
De nombreux éditeurs de presse ont signé des accords avec OpenAI et autres entreprises d’IA génératives, obtenant notamment que leurs chatbots renvoient vers leurs articles. Mais, selon un rapport de Tollbit, ces outils « génèrent en moyenne 95,7 % de clics en moins que les recherches traditionnelles sur Google ».
« Malgré les affirmations des entreprises d’IA, [nous] constatons que les bots IA génèrent en moyenne 95,7 % de trafic de clics en moins que la recherche traditionnelle sur Google », affirme la plateforme de monétisation de contenus Tollbit dans un rapport [PDF] publié la semaine dernière.
Cette startup, créée en 2023, peut mesurer ce trafic puisque sa principale activité est justement, comme l’explique la newsletter Twipe, de négocier pour des éditeurs comme TIME et Adweek le scraping de leurs contenus par les entreprises d’IA génératives. Elle a donc aussi tout intérêt à ce que ces chiffres sortent.
TollBit fait la part des choses entre les moteurs de recherche qui ne s’appuient que sur l’IA et les chatbots basés sur l’IA génératives. Elle affirme que, d’après ses données, « les moteurs de recherche IA offrent un taux de référencement de 0,74 % par scrap, soit le double du taux de 0,33 % pour les chatbots ». Elle précise que « ces chiffres doivent être considérés comme un maximum ; l’utilisation de user agents tiers et cachés peut gonfler artificiellement le taux des produits de recherche d’IA ».
« Ces taux restent extrêmement faibles par rapport au référencement à partir d’une page de résultats du moteur de recherche Google conventionnelle (sans IA). Même en prenant le taux moyen de clics sur les 10 premiers résultats de recherche organique (8,63 %), les interfaces de moteur de recherche IA génèrent 91 % de renvois en moins et les chatbots 96 % », constate Tollbit, en renvoyant au schéma ci-dessous :
Des sites visités 2 millions de fois par un bot en un trimestre
Dans le même temps, Tollbit explique qu’en analysant les données de ses clients, elle a remarqué que les bots des entreprises d’IA sont passés en moyenne 2 millions de fois sur un site pendant le quatrième trimestre 2024, en passant 7 fois sur une même page :
Premiers visés : les sites de ventes dont une page a été visitée plus de 16 fois pendant ce quatrième trimestre par ces bots. La presse nationale américaine voit ses pages visitées plus de 10 fois chacune lors de cette même période :
Scraping levels per page by content category in Q4
L’entreprise a aussi analysé une cohorte de sites de ses clients en gardant la même stratégie de blocage de bots pendant le deuxième semestre de l’année dernière. Elle a remarqué que, sur le trafic total que ces sites accueillent, le taux lié aux bots des entreprises d’IA générative a plus que doublé entre le troisième et le quatrième trimestre de 2024 :
« Nous constatons un afflux de bots sur ces sites chaque fois qu’un utilisateur pose une question », explique le CEO de Tollbit, Toshit Panigrahi, à Forbes : « la demande de contenu des éditeurs n’est pas négligeable ».
Difficile de se couper de ces bots sans perdre en SEO quand même
Il pointe aussi le fait qu’il est difficile pour les éditeurs de site de s’y retrouver dans les différents bots utilisés par ces entreprises pour scraper leur site : « certains, comme Google, semblent utiliser les mêmes robots à des fins multiples, notamment pour indexer le web et récupérer des données pour leurs outils d’intelligence artificielle ».
« Il est très difficile pour les éditeurs de vouloir bloquer Google. Cela pourrait avoir un impact sur leur référencement, et il nous est impossible de déduire exactement à quoi servent leurs robots », ajoute Olivia Joslin, cofondatrice de TollBit.
Apple a présenté hier soir ses nouveaux MacBook Air et Mac Studio. Sur ces derniers, la société laisse le choix entre un M4 Max (que l’on trouvait déjà sur les MacBook Pro haut de gamme) et une puce M3 Ultra, de génération précédente mais embarquant un grand nombre de cœurs CPU et GPU. Nous avons détaillé ses caractéristiques dans un précédent article.
Comme le signale cependant MacG, le communiqué de presse d’Apple contenait une petite information, presque cachée dans une section consacrée à macOS Sequoia : « Le mois prochain, macOS Sequoia 15.4 permettra aux utilisateurs de configurer plus facilement leur MacBook Air avec leur iPhone. Il suffira aux utilisateurs de rapprocher leur iPhone de leur Mac pour se connecter à leur compte Apple de manière simple et pratique, et accéder à leurs fichiers, leurs photos, leurs messages, leurs mots de passe et plus encore sur leur MacBook Air ».
Bien qu’Apple mentionne directement le MacBook Air, cette nouveauté sera en fait présente sur tous les Mac équipés de macOS 15.4. De là, on pourra rapprocher un iPhone sous iOS 18.4 lors de la configuration initiale du Mac pour récupérer les informations de base, le compte Apple et autres paramètres.
Cette manipulation existe déjà pour les appareils iOS depuis quelques années. Elle a d’abord été pensée comme un moyen plus rapide de paramétrer un nouvel iPhone quand on dispose encore de l’ancien. Les iPad l’avaient ensuite rapidement obtenue. Les Mac sont donc les prochains.
À noter qu’il ne s’agit pas complètement d’une nouveauté. Il y a deux semaines, 9to5Mac avait repéré un code lié à la fonction dans la bêta de macOS 15.4.
Les personnes se souvenant des débuts de Twitter et qui avaient un iPhone à cette époque ont peut-être utilisé Tweetbot. Elle date d’un temps où Twitter, bien avant de s’appeler X, autorisait encore les applications tierces.
Tweetbot était largement appréciée. Payante (environ 5 dollars/euros), elle était connue pour être particulièrement rapide, avec un poids plume : moins de 10 Mo, quand Twitter dépassait déjà les 150 Mo. En outre, Tweetbot était un client à part, il n’affichait aucune publicité. Cette époque « dorée » a pris fin quand Twitter a décidé de durcir les conditions d’accès à l’API, limitant notamment le nombre de personnes pouvant utiliser un même client tiers, avant d’interdire ces derniers.
Si Tweetbot est abandonné depuis longtemps, son éditeur Tapbot a appliqué la même recette depuis à Mastodon avec son application Ivory, qui n’existe là encore que pour iOS. Et alors que le fondateur de l’entreprise, Paul Haddad, avait indiqué ne plus jamais avoir à faire à Jack Dorsey, voilà qu’une autre application mobile est en préparation, cette fois pour Bluesky.
Sur la page créée pour l’occasion, Tapbot indique ne pas quitter Mastodon, mais obéir simplement à un déplacement d’une partie de sa clientèle vers Bluesky. Financièrement, l’éditeur indique ne pas pouvoir tenir avec uniquement Mastodon. Il explique également que Phoenix sera une application dédiée, pour que l’expérience soit « bien meilleure ». Un moyen de publier sur plusieurs réseaux sera cependant ajouté.
On apprend également que le développement se fera simultanément sur Ivory et Phoenix. « Une fois Phoenix sorti, le développement se fera simultanément et les deux applications bénéficieront de toutes les améliorations que nous avons planifiées pour l’ensemble des applications. Nous avons encore une longue liste d’améliorations à apporter à Ivory (et par conséquent à Phoenix) », indique Tapbot.
Phenix est prévu pour cet été, avec une version alpha publique limitée « dès que possible ».
Après les Box 5G, la 5G StandAlone (5G SA ou 5G+) débarque dans un premier forfait de téléphonie mobile, dans la gamme « pro ». Les avantages sont nombreux pour Orange et proviennent en grande partie des fonctionnalités de la 5G SA. Explications.
Màj du 6 mars 2025 : Après le lancement pour les professionnels, « Orange élargit l’accès à la 5G+ sur le marché grand public », avec des offres disponibles dès aujourd’hui. Il s’agit d’un format Série Spéciale 180 Go 5G+ à 41 euros par mois, sans engagement. Il permet de profiter d’une « d’une bande passante dédiée aux clients de l’offre 180 Go 5G+ ».
Orange annonce aussi que ses clients grand public 5G avec un smartphone compatible peuvent « profiter gratuitement de l’option 5G+ », le nom commercial d’Orange pour parler de la 5G SA (StandAlone, sur la bande des 3,5 GHz chez l’opérateur) ne se basant pas sur un cœur de réseau 4G.
Actualité originale du 6 février : Dans un communiqué de presse, Orange annonce « une offre inédite 5G + avec une bande passante dédiée pour ses clients professionnels ». Qu’est-ce que cela veut dire au-delà du discours bien rodé des équipes marketing ?
Nous avons déjà expliqué ce qu’est la 5G+ d’Orange : c’est le nom commercial de la 5G StandAlone (ou 5G SA). Pour rappel, la 5G utilisait à son lancement et durant ces dernières années un cœur de réseau 4G pour fonctionner, d’où son appellation technique de 5G Non StandAlone.
Orange remet donc le couvert aujourd’hui avec son forfait Performance série spéciale 5G+. Passons rapidement sur ses caractéristiques qui n’ont rien de particulier : 350 Go de data, appels et SMS/MMS illimités pour 79 euros HT par mois, sans engagement.
Orange reprend les poncifs habituels de la 5G : hausse des débits et baisse de la latence. Mais la 5G+ apporte aussi des nouveautés intéressantes, notamment la technologie VoNR (Voice over New Radio). Ainsi, la « connexion data est maintenue en 5G lors d’un appel voix ». Avant, la data repassait en 4G lors d’un appel avec VoLTE et en 3G dans le cas contraire.
Orange met aussi en avant « une sécurisation accrue des données sensibles grâce au chiffrement natif des identifiants IMSI et à l’authentification renforcée des utilisateurs sur le réseau ». Nous avons voulu télécharger la fiche tarifaire et la description du service indiqués sur cette page afin d’avoir de plus amples informations, mais les liens sont cassés.
Orange met en avant des débits de 1,5 Gb/s… inférieurs à ceux de la 5G
Comme chez Free, la 5G SA est uniquement disponible sur la bande des 3,5 GHz, dont le « déploiement [est] en cours ». Le débit maximum annoncé par Orange est de 1,5 Gb/s en téléchargement avec l’agrégation de la bande des 700 Mhz en 4G, et de 200 Mb/s en émission.
Selon le propre site d’Orange, la 5G+ fait donc moins bien que la 5G en débit théorique. En effet, en 5G le débit maximum théorique en réception est de 2,1 Gbit/s selon Orange. En émission, c’est la même chose avec 200 Mb/s dans les deux cas.
Cette quoi cette « bande passante dédiée » ? Du slicing…
Orange revient à plusieurs reprises sur la notion de bande « prioritaire » : « Au travers d’une bande passante dédiée Premium, le client bénéficie d’une qualité de service différenciée sur le réseau mobile Orange. Ainsi, même en cas de forte utilisation du réseau mobile, ses débits sont préservés ».
« Lors des évènements : Pour les services de billetterie ou les solutions de paiement, la bande passante dédiée permet une connexion stable et assure la fluidité des opérations », ajoute l’opérateur en guise d’exemple.
Là encore, il s’agit d’une dénomination commerciale d’une technologie bien connue de la 5G : le network-slicing. Elle permet de découper le réseau en « en plusieurs sous-réseaux, que l’on appelle des tranches, ou “slices” en anglais », explique Orange.
Les usagers sur une tranche sont d’une certaine manière isolés de ceux d’une autre tranche. Les clients d’un forfait 5G+ peuvent ainsi profiter d’une tranche rien que pour eux en 5G SA, tandis que les autres se partagent une autre tranche. Une surcharge sur la seconde tranche ne devrait pas avoir d’impact sur la première.
Sur cette page dédiée au network-slicing, Orange rappelle que « tout ceci était déjà possible avec la 4G d’un point de vue technique », mais la 5G apporte « une vraie valeur ajoutée » grâce « à une architecture réseau virtualisée ». SFR d’ailleurs, proposait pendant un temps des forfaits 4G avec « internet mobile prioritaire ». Ils permettaient, « en cas d’affluence » d’avoir un « débit généralement plus rapide que celui des utilisateurs du réseau SFR non détenteurs du service ». C’était il y a maintenant 10 ans, en 2015.
Orange ne précise pas quand de nouveaux forfaits 5G+ seront disponibles ni si cette technologie sera proposé au grand public dans un proche avenir.
Alors que Bruno Retailleau, ministre de l’Intérieur, et Gérald Darmanin, ministre de la Justice, défendaient la proposition de loi Narcotrafic à l’Assemblée depuis deux jours, le texte vient de perdre l’un de ses articles les plus critiqués.
Le fameux article 8 ter entendait imposer aux prestataires techniques, notamment les éditeurs de messageries sécurisées, d’introduire un mécanisme facilitant la récupération des informations par les forces de l’ordre. Dans le cadre de la lutte contre le crime organisé, la mesure devait permettre une percée dans certaines enquêtes.
Richard Ying et Tangui Morlier
Bruno Retailleau a eu beau expliquer qu’il ne s’agissait pas d’une porte dérobée, mais d’envoyer une copie des informations à une tierce partie (solution dite du « fantôme »), la mesure revenait quand même à affaiblir le chiffrement de bout en bout.
Très largement critiqué, l’article 8 ter a fait l’objet de plusieurs dépôts d’amendements demandant sa suppression pure et simple. Comme on peut le voir sur le site de l’Assemblée nationale, presque tous ces amendements ont été adoptés en commission des lois hier soir (voir la vidéo), par 33 voix pour la suppression et 9 absentions, relève le Projet Arcadie.
L’article 8 ter est donc supprimé de la proposition de loi Narcotrafic, qui sera discutée en séance publique à partir du lundi 17 mars.
Après l’annonce des nouveaux iPad (Air), Apple enchaine comme prévu avec un nouveau MacBook Air. Principale nouveauté : le passage au dernier SoC maison, le M4. Si toutes les variantes ont 10 cœurs CPU (4P + 6E), le MacBook Air 13 d’entrée de gamme (1 199 euros, soit 100 euros de moins que l’entrée de gamme précédente) n’a que huit cœurs GPU, contre dix pour les autres.
Suivant les configurations, il est possible d’avoir jusqu’à 32 Go de mémoire unifiée, contre 24 Go pour la génération précédente en M3. On retrouve une nouvelle « Caméra 12MP Center Stage avec prise en charge de Desk View », aussi bien sur les versions 13 et 15 pouces. Pour le reste, pas de changement, si ce n’est une batterie de 53,8 Wh au lieu de 52,6 Wh sur le 13 pouces. Pas de changement en 15 pouces avec 66,5 Wh. Signalons que le passage à la puce M4 permet de brancher deux écrans externes, au lieu d’un seul précédemment.
Un nouveau coloris bleu ciel est proposé. On passera sur les nombreux superlatifs d’Apple autour de cette nouvelle « magnifique » couleur. Les précommandes sont ouvertes, la disponibilité est prévue pour le 12 mars. Vous pouvez comparer les différentes versions du MacBook Air par ici pour le 13 pouces et par là pour le 15 pouces.
Mac Studio M4 Max ou M3 Ultra suivant les besoins… et la bourse
Apple annonce aussi un nouveau Mac Studio avec au choix une puce M4 Max ou une nouvelle M3 Ultra (nous y reviendrons dans un article dédié). La machine passe à Thunderbolt 5 (quatre ports sur le M4 Max, six sur le M3 Ultra), avec du 10 GbE. L’ordinateur propose jusqu’à 512 Go de mémoire unifiée (contre 192 Go pour la version M2 Ultra) et 16 To de SSD. Là encore, un comparatif est disponible.
Voici comment Apple positionne les deux versions de sa machine :
« Le nouveau Mac Studio avec M4 Max est le choix idéal pour les monteurs vidéos, les étalonneurs, les développeurs, les ingénieurs, les photographes, les professionnels créatifs et, de manière générale, tous les utilisateurs ayant besoin d’une machine capable de les suivre dans les workflows les plus intenses […]
Le Mac Studio avec M3 Ultra gère les tâches les plus exigeantes avec une facilité déconcertante. Tirant parti des nombreux cœurs intégrés à son CPU et son GPU ainsi que de ses quantités colossales de mémoire unifiée, il délivre des performances près de deux fois supérieures à celles du Mac Studio avec M4 Max pour les tâches les plus exigeantes ».
Comptez 2 499 euros pour le Mac Studio M4 (14 cœurs CPU et 32 cœurs GPU) et 4 999 euros pour la version M3 Ultra (28 cœurs CPU, 60 cœurs GPU). Les machines seront aussi disponibles à partir du 12 mars également.
La proposition de loi Narcotrafic est en cours d’examen à l’Assemblée. Selon Bruno Retailleau, on peut très bien obtenir les messages contenus dans des échanges chiffrés sans recourir à une porte dérobée. Mais la solution proposée, dite du « fantôme », revient quand même à affaiblir le chiffrement.
L’examen de la proposition de loi Narcotrafic a commencé hier en commission des lois. Le texte fait l’objet de vives critiques sur nombre de ses dispositions, qu’il s’agisse d’avocats sur le « dossier-coffre » notamment, ou du monde de la tech devant l’idée des portes dérobées dans les échanges de données chiffrés de bout en bout, dont les messageries.
Bruno Retailleau, ministre de l’Intérieur, a défendu le texte hier. « L’angle mort, aujourd’hui, c’est le chiffrement. C’est évident, parce que quand vous avez des choses à cacher, vous passez d’abord par le chiffrement ». Une généralité d’autant plus erronée que le chiffrement est à la base de nombreux systèmes cruciaux, dont le système bancaire.
De la porte dérobée au fantôme
Il a détaillé ensuite la solution envisagée : « Vous avez une plateforme capable de chiffrer une communication d’un individu A à un individu B. On chiffre de bout en bout. Là, on va ne pas s’introduire au milieu de cette communication. On va demander à la plateforme de faire aussi de A à C. Il n’y a pas de faille. » Il a ajouté : « Je rétablis les choses telles que les services techniques les plus pointus de notre ministère, notamment la DGCI (sic), nous l’ont expliqué ».
La solution reviendrait donc, non pas à créer une porte dérobée, mais à déclarer les forces de l’ordre comme destinataire supplémentaire dans les échanges. Une duplication, comme l’explique Baptiste Robert dans un fil sur X. « Ce type de mécanisme existe déjà à différents niveaux dans certains pays. Le point commun ? Ce ne sont pas des démocraties », a-t-il ajouté.
Le député Éric Bothorel, qui cherche à faire disparaitre le fameux article 8 ter, a rappelé une publication de l’Internet Society datant de 2020. L’ONG y expliquait que même si l’on ne parle pas au sens strict du terme de backdoor, la « solution du fantôme » suppose une modification de l’architecture au cœur du service où l’on cherche à récupérer des informations.
Cela revient donc, comme pour les portes dérobées, à introduire une faiblesse dans les échanges, qui sera tôt ou tard repérée et exploitée. La transmission des clés de sécurité serait en effet modifiée afin d’être distribuée silencieusement. Ce qui reviendrait à invalider les mécanismes existants pour prévenir les membres d’une discussion de l’ajout d’une autre personne.
La fronde ne faiblit pas
« Backdoor ou utilisateur fantôme, je redoute Mr Retailleau qu’en matière de risque d’affaiblissement ce soit la même chose », a déclaré Éric Bothorel. Le député a également signé une tribune pour avertir des dangers de l’article 8 ter, signée avec Cédric Villani, Philippe Latombe, Gilles Babinet et Anne le Hénanff, entre autres.
Le député Philippe Latombe, lui aussi vent debout contre l’article 8 ter, indiquait ce matin : « La technique du « ghost » EST un affaiblissement du chiffrement. Donc cet article affaiblit le chiffrement, est inopérant car les messageries chiffrées répondant aux exigences françaises ne seront plus utilisées par les criminels. C’est aussi une atteinte grave à nos valeurs ».
Même au sein du gouvernement, le texte ne fait pas l’unanimité. Clara Chappaz, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, indiquait ainsi lundi soutenir « pleinement » le renforcement des moyens des services de renseignement face aux réseaux criminels. Cependant, l’article 8 ter « suscite de vives réserves » : « Experts, industriels du numérique, société civile, parlementaires : beaucoup s’inquiètent de son impact. Et à juste titre ». Elle estime le texte « trop large » et met en garde : « Affaiblir le chiffrement ne pénaliserait pas seulement les criminels. Cela exposerait aussi nos citoyens, nos entreprises et nos infrastructures aux cyberattaques. Une faille créée pour les uns profite toujours aux autres ».
Le texte a peu de chance d’être adopté en l’état. L’article 8 ter ne peut fonctionner sans l’application de la mesure technique par les entreprises, dont Apple, Google et Meta. La France n’a aucune chance de faire plier de grandes entreprises américaines, surtout dans un contexte géopolitique tendu où la Maison-Blanche s’apprête à tirer à boulet rouge sur la législation européenne. Comme le signale notamment RTL, Bruno Retailleau se fait d’ailleurs « peu d’illusion » sur cet article.
À peine une demi-heure avant son premier lancement commercial, Arianespace annulait le lancement à cause de problème sur un « équipement sol en interface avec le lanceur ». La résolution du problème a été rapide puisqu’une nouvelle date est déjà programmée : demain.
« Ariane 6 et son passager, le satellite CSO-3, sont dans des conditions stabilisées et en sécurité », affirme Arianespace. CSO-3 est pour rappel le troisième satellite du programme MUSIS (Multinational Space-based Imaging System) dédié à l’observation de la Terre au service de la défense. « Les satellites CSO-1 et CSO-2 avaient été lancés respectivement en 2018 et 2020 », rappelle le CNES.
CSO-3 sera largué si tout va bien sur une orbite héliosynchrone à 800 km d’altitude. « Son injection interviendra 1 heure et 6 minutes après le décollage », explique ArianeSpace.
En juillet 2024, avec des années de retard sur le planning initial, Ariane 6 décollait sans encombre et réalisait sa mission principale. Avec la mission secondaire, c’était une autre histoire à cause d’un groupe auxiliaire de puissance (GAP, ou APU pour Auxiliary Power Unit) capricieux.
Il faut maintenant transformer l’essai avec un vol commercial. Le premier devait avoir lieu fin 2024, mais il a été repoussé plusieurs fois pour arriver à ce jeudi 6 mars. La fenêtre de lancement s’ouvre à 17h24.
Le CNES proposera en direct une émission (à partir de 16h55) pour suivre ce lancement. Il s’agit en effet de conserver une autonomie d’accès à l’espace, un enjeu d’autant plus important dans le contexte géopolitique actuel.
Quand on pense qu'il suffirait de ne pas les acheter pour que ça ne se vende plus
33 entreprises, parmi lesquelles des géants en France, ont signé la charte lancée par le gouvernement et portée par la Fédération du e-commerce. Elle comprend 11 engagements sur les différentes étapes d’après achat : entrepôts, emballages, livraisons et éventuels retours.
Cela fait des années que les autorités françaises travaillent autour de « chartes » pour les acteurs du e-commerce. Il y a maintenant six ans, nous avons eu celle pour « garantir des relations loyales et transparentes entre les plateformes de e-commerce et les TPE et PME françaises », puis un « label » en 2020 pour reconnaitre « la prise d’engagements ambitieux de la part des plateformes ».
En 2021, une première « Charte d’engagements pour la réduction de l’impact environnemental du commerce en ligne » a été mise en place avec des acteurs volontaires du e-commerce. Quinze enseignes l’avaient à l’époque signée : Cdiscount, Ebay, FNAC DARTY, La Redoute, lentillesmoinscheres, Maison du Monde, Millet Mountain Group, OTELO, Rakuten, Groupe Rosa, Sarenza, Showroomprive, SOS ACCESSOIRE, Veepee. Amazon et le groupe LDLC brillaient alors par leur absence.
33 signataires, mais encore beaucoup d’absents de poids
Cette charte a été actualisée et renforcée en 2024, avec plus du double de signataires et l’arrivée du géant Amazon. En effet, en ce début du mois de mars, elle est signée par 33 entreprises.
Voici la liste : Agrizone, Amazon, AUTF, Blancheporte, Boulanger, Carrefour, Cdiscount, Colissimo, E.Leclerc, Ebay, Electro depot, Fleurance nature, FM Logistic, Fnac Darty, Françoise Saget, ITinSelL Software, Label emmaüs, Laredoute, Lentillesmoinscheres.com, Leroy Merlin, Maison du monde, Manutan, Mondial Relay, Quelbonplan, Rakuten, Groupe Rosa Linvosges, Showroom privé, SOS accessoire, Tikamoon, Topaz, Veepee, Wooday et Zalando.
Par rapport à la première version de 2021, quelques enseignes ne sont plus présentes : Millet Mountain Group, OTELO et Sarenza. On note encore l’absence du groupe LDLC (Rue du Commerce, Top Achat, Hardware.fr…) dans les signataires. L’entreprise est pour rappel dans une phase difficile financièrement et prévoit le licenciement de 88 personnes pour « motif économique ».
Il en est de même pour Leboncoin, Vinted ainsi que pour des mastodontes chinois comme Aliexpress, Temu et Shein. Philippe Wahl, PDG de la Poste, expliquait récemment qu’Amazon, Temu et Shein représentait à eux trois 43 % des colis de La Poste en Europe, dont 22 % pour Temu et Shein (contre moins de 5 % il y a cinq ans).
Amazon explique d’ailleurs que cette charte s’inscrit dans sa volonté de « réduire son empreinte environnementale et atteindre zéro émission nette de CO₂ d’ici 2040 ». La FEVAD (Fédération du e-commerce et de la vente à distance) est aussi partie prenante et veillera à la valorisation des engagements.
L’e-commerce a le vent en poupe selon la Direction générale des entreprises : « Au cours des douze derniers mois, ce sont 70,1 % des Français de plus de quinze ans qui ont effectué un achat sur internet, soit une augmentation de 500 000 personnes en un an. En 2023, 1,7 milliard de colis ont été traités en France, ce qui représenterait 1,7 million de tonnes de CO2 émis, selon l’ADEME ».
Il y a deux semaines, la FEVAD publiait son bilan 2024 du e-commerce qui, sans surprise, se porte bien : « le e-commerce français confirme son dynamisme et atteint un chiffre d’affaires record de 175,3 milliards d’euros, en hausse de 9,6% par rapport à l’année précédente ».
La vente de produits progresse de 6 % à 66,9 milliards d’euros, un niveau équivalent à celui de 2021. « Un achat en ligne par semaine en moyenne par cyberacheteur, pour un total annuel de 4 216 euros dépensés en ligne », selon la fédération.
La liste des onze engagements
Cette charte édition 2025 comprend 11 engagements répartis autour de cinq grands axes : l’information du consommateur, les retours, les emballages, les entrepôts et livraisons, et enfin le suivi des engagements. Les signataires de la charte devront rendre compte chaque année aux services de l’État compétents.
Mettre en avant une offre significative de produits :
fabriqués en France ou en Europe, bénéficiant de labels environnementaux, de seconde main…
Favoriser les bons gestes de commande entre les catégories et au sein d’une même catégorie.
Informer le consommateur des leviers pour diminuer l’impact environnemental de la livraison :
indiquer les modalités, ainsi que les modes alternatifs et décarbonés pour retirer son colis,
proposer plusieurs délais de livraison et indiquer leurs impacts,
indiquer aux consommateurs si leurs colis peuvent être livrés par voie aérienne,
en option : afficher une valeur d’impact (en g ou kgCO₂ équivalent pour le colis ou par colis) et/ou une information sur l’impact environnemental de la livraison.
Se doter d’une politique interne sur les retours avec des objectifs :
prévention des demandes de retours, mais rappelons que cela demeure un droit pour le consommateur depuis la loi Hamon,
gestion des produits non désirés, effectivement retournés ou non,
communication publicitaire responsable.
Mettre en place au moins 3 actions directes de prévention des demandes de retours :
outils internes pour caractériser les raisons du retour,
suivi, accompagnement et sensibilisation des consommateurs sur les bons gestes.
Mettre en place au moins deux actions directes de valorisation des produits non désirés par les consommateurs :
remise en vente, dons aux associations, reconditionnement, revente à des destockeurs…
Conduire des actions de réduction des suremballages et de réduction du taux de vide dans l’objectif de le limiter à 40 %, en moyenne :
supprimer autant que possible les suremballages et les espaces de vide,
sensibiliser les vendeurs tiers,
effectuer des démarches collaboratives avec les fournisseurs ou les prestataires.
Améliorer la nature et l’utilisation des emballages en :
incorporant une proportion significative de matière recyclée (au moins 75 %),
expérimenter des solutions de réemploi/réutilisation des emballages.
S’assurer que les activités d’entreposage aient une performance environnementale systématiquement attestée par une certification.
Favoriser le développement de modes de livraison décarbonés.
Regrouper systématiquement l’expédition des produits quand c’est possible, sauf demande expresse du consommateur.
Véronique Louwagie, ministre déléguée chargée du Commerce, rappelle que ces « objectifs concrets et mesurables […] feront l’objet d’un suivi par l’État ».
La FEVAD est d’ailleurs prête pour cette mission : « Dans les semaines et mois à venir, la Fevad restera pleinement mobilisée pour promouvoir cette Charte et assurer le suivi des engagements. Elle entend également poursuivre activement le dialogue avec les pouvoirs publics sur les politiques liées à la transition écologique dans le secteur du e-commerce ». On espère que des communications seront faites sur les indicateurs autour de ces engagements.
Google vient d’annoncer un nouveau lâché de fonctionnalités pour ses appareils Pixel. Parmi elles, on trouve un outil devant lutter contre les arnaques par messages et appels téléphoniques, utilisant l’intelligence artificielle pour déterminer la probabilité d’une tentative de scam.
Google a publié hier soir un billet pour annoncer son « Pixel Drop » de mars, c’est-à-dire le nouveau lot mensuel de fonctions pour ses propres appareils. Google réserve, en effet, des apports spécifiques à sa gamme Pixel, via des mises à jour. Le nouveau pack contient plusieurs éléments intéressants, et plusieurs seront déployés à l’ensemble des smartphones Android.
Dans le lot, la protection des arnaques ressort particulièrement. Elle passe par Messages et Téléphone, et analyse les échanges en temps réel pour signaler un comportement suspect. Les performances dépendront cependant de l’âge de l’appareil Pixel.
La détection des arnaques dans Messages
Commençons par Messages. Le fonctionnement est simple : une IA suit la conversation et affiche un gros avertissement rouge quand la dernière réponse envoyée par le correspondant ressemble à un modèle connu d’arnaque. Dans l’exemple donné par Google, on peut voir un homme, se prénommant John, demander s’il s’agit de Mary. Devant la réponse négative, la conversation continue, jusqu’à ce qu’il précise qu’il est conseiller financier. Ce message déclenche l’alerte dans l’application.
Cette protection s’étend aux échanges RCS, SMS et MMS. Tous les traitements sont locaux. C’était d’ailleurs la seule explication pour le RCS chiffré de bout en bout, l’opération s’appliquant après le déchiffrement des messages sur l’appareil. Il n’y a donc pas d’envoi de données.
Tous les Pixel depuis le 6 sont concernés par cet ajout, activé par défaut une fois le déploiement effectué. Ce dernier ne concerne pour l’instant que les États-Unis, le Royaume-Uni et le Canada, uniquement pour l’anglais. D’autres pays seront concernés « prochainement », mais on ne sait pas lesquels, ni quand. En outre, la protection ne s’applique que sur les échanges avec des personnes jamais contactés auparavant.
Google dit s’être rapprochée d’institutions financières « pour mieux comprendre les dernières avancées et les escroqueries les plus courantes auxquelles leurs clients sont confrontés ». Et d’indiquer qu’un nombre croissant de personnes sont confrontées à des discussions commençant de manière anodine, pour basculer petit à petit vers l’arnaque, comme s’il s’agissait d’un heureux hasard. Selon Google, l’approche classique visant à répertorier les numéros utilisés par les arnaqueurs n’est pas suffisante, les méthodes évoluant trop vite.
La détection des arnaques… au téléphone
Aux côtés de cette protection sur les messages, Google en prépare une autre : une analyse des appels téléphoniques. Cette protection passe par l’application Téléphone et, comme pour Messages, le traitement est local. Pour rappel, Google affiche depuis longtemps des alertes basées sur les numéros de téléphone avant de décrocher.
Cependant, l’analyse en temps réel d’un échange vocal demande des capacités autrement plus importantes. Durant une première phase de bêta limitée, Google dit avoir fait des tests avec le modèle Gemini Nano sur les Pixel et des modèles plus petits sur les générations précédentes, jusqu’au Pixel 6. Gemini Nano aurait donné de bien meilleurs résultats, expliquant la limitation de la bêta, d’ailleurs prolongée : l’analyse des conversations n’est disponible que sur les Pixel 9.
S’agissant d’un traitement local, Google assure que les appels sont analysés « de manière éphémère et aucune conversation audio ou transcription n’est enregistrée, stockée sur l’appareil ou envoyée à Google ou à des tiers ». Une alerte audio est diffusée en plus de la notification et d’une vibration, car on ne regarde pas forcément son écran lorsque l’on téléphone.
Disponible uniquement en anglais, aux États-Unis et dans la version bêta de Téléphone, il faut en outre activer soi-même l’option. Autant de protections pour ne pas effrayer le public. Google ne donne aucune indication sur la disponibilité de cette fonction en version finale ni sur une éventuelle diffusion à d’autres marchés.
Communications satellite et vidéos avec deux angles de vue
On reste sur le Pixel 9 avec l’extension de la messagerie par satellite. Jusqu’à présent, seuls les États-Unis étaient concernés. La fonction est maintenant disponible en Europe, au Canada, à l’Alaska et à Hawaï, mais on ne sait pas pour l’instant quand cette capacité sera disponible.
Autre fonction réservée aux Pixel 9, la possibilité de le raccorder à un autre Pixel 9 ou à une caméra GoPro pour déclencher une vidéo avec deux angles de vue simultanément. Côté GoPro, il faudra un modèle HERO10 Black de 2021 ou plus récent. Pour l’instant, seules les applications Facebook, YouTube, Instagram, TikTok et Snapchat sont compatibles, en plus de l’enregistrement de vidéo sur le smartphone.
Les autres fonctions
Sur le site d’Android, Google évoque d’autres fonctions. Par exemple, le partage de position géographique depuis l’application Trouver mon appareil. Celle-ci sert normalement à remettre la main sur les produits liés par le même compte Google.
Une fonction permet désormais d’envoyer sa propre géolocalisation à une personne, par exemple pour un rendez-vous. L’application permet de choisir avec qui et combien de temps on partage l’information. Rien de nouveau puisqu’on retrouve déjà ce genre de fonctionnalités dans Maps ou WhatsApp par exemple. Dans le cas d’un partage de longue durée, l’application envoie régulièrement des notifications pour rappeler que l’on diffuse toujours cette donnée sensible. Cette fonction concerne tous les appareils.
Pour les personnes possédant un véhicule compatible Android Auto, la mise à jour apporte un plus grand nombre de jeux compatibles, dont Farm Heroes Saga et Candy Crush Soda Saga. Cette prise en charge requiert un appareil avec Android 15 au moins. Google précise que le véhicule doit être à l’arrêt et garé pour que la fonction puisse être exploitée.
La fonction Family Link de contrôle parental gagne en possibilités. Les parents peuvent ainsi gérer l’utilisation des applications et le temps d’écran pour de multiples appareils et enfants. Il s’agissait de l’une des principales limitations de la solution de Google.
Enfin, Google présente une extension de la fonction Circle to Search, qui permet d’entourer avec le doigt une zone pour exploiter les informations à l’intérieur de la zone (reconnaissance d’images et de caractères). Avec la mise à jour, la fonction gagne une extension logique : les numéros de téléphone, adresses e-mail et liens sont reconnus. Appuyer dessus permet de déclencher une action liée, comme appeler le numéro, envoyer un message, un e-mail, etc.
Comme l’indique Neowin, l’un des développeurs de la trousse à outils, Clint Rutkas, avait teasé le 31 janvier une nouvelle fonction : la possibilité de transcoder un contenu depuis Advanced Paste.
Ce dernier, présent depuis longtemps dans les PowerToys, permet de coller le contenu du presse-papiers dans un autre format : texte brut, Markdown, Json… Dans la version 0.89, il est désormais possible de transcoder un fichier audio ou vidéo dans un autre format. Dans la capture qu’avait publiée Clint Rutkas, on pouvait ainsi voir Advanced Paste proposer un transcodage en MP3 ou MP4 (H.264/AAC).
Le tweet avait été accueilli avec enthousiasme et certains voient déjà en Advanced Paste une fonction qui pourrait devenir beaucoup plus puissante par la suite. Dans une réponse, on peut ainsi voir un utilisateur demander un élargissement du fonctionnement, avec un exemple : si le copier-coller contient une image PNG, proposer de la coller au format WEBP.
Pour le reste, cette nouvelle version 0.89 n’ajoute pas de nouvel outil, mais intègre de nombreux correctifs et optimisations. La version précédente était ainsi passée à .NET 9, avec des améliorations significatives de performances, mais avait introduit un bug pouvant entrainer un plantage. Des problèmes d’accessibilité étaient également à signaler dans FancyZones, Image Resizer et Paramètres. Le support des lecteurs d’écran a d’ailleurs été amélioré.
Comme toujours, la nouvelle version peut s’installer depuis les paramètres des PowerToys, en récupérant l’exécutable depuis GitHub ou depuis le Microsoft Store.
Mais ces deux derniers jours, les deux entités concernées, la CISA puis le Cyber Command (par la voix du ministère de la Défense des États-Unis) ont chacune nié avoir cessé leurs opérations contre la Russie. Selon Bloomberg, le Pentagone nie que son secrétaire de la Défense Pete Hegseth ait suspendu ou annulé les opérations du Cyber Command.
Lors de la première Présidence de Donald Trump, ses équipes avaient pris l’habitude de répandre de fausses informations, allant même jusqu’à qualifier leurs propres récits de « faits alternatifs », ou de qualifier les révélations journalistiques de « fausses » (« fake news ») pour les décrédibiliser. Pour comprendre les évolutions à l’œuvre dans ce cas précis, il est utile de se replonger dans l’ordre et le détail des faits rapportés.
Deux entités distinctes
L’article du Guardian relatif à la CISA a été publié vendredi 28 février, avant la conversation houleuse qui a opposé le président Volodymyr Zelensky à Donald Trump et J.D. Vance dans le bureau ovale. 90 minutes après cette première publication, The Record publiait ses propres informations au sujet du Cyber Command, bientôt suivi par le Washington Post et le New York Times.
Pris ensemble, ces différents récits semblent corroborer la thèse d’un revirement drastique de politique cyber des États-Unis vis-à-vis de la Russie. Mais la journaliste spécialiste des enjeux de cybersécurité Kim Zetter appelle à la prudence, parce que les deux entités concernées ont des missions bien différentes… mais aussi parce que le gouvernement de Trump a un intérêt à décrédibiliser les médias.
La CISA, rappelle-t-elle, a une mission domestique, purement défensive : comme son nom l’indique, elle gère la défense des infrastructures critiques aux États-Unis.
Le Cyber Command, en revanche, est une unité militaire qui réalise des missions de recherche et des opérations « à effet » (cyberattaques visant à dégrader, détruire ou perturber les systèmes de l’adversaire ou mise hors service d’infrastructures utilisées de manière malveillante contre les États-Unis ou ses alliés).
Mémo introuvable
Du côté de la CISA, The Guardian rapporte l’existence d’un mémo fournissant de nouvelles directives. Ce document définirait des priorités incluant « la Chine, et la protection des systèmes locaux », mais ne mentionnerait plus la Russie, jusqu’ici considérée comme l’une des menaces essentielles.
D’après une source du média britannique, les analystes de la CISA auraient par ailleurs été informés à l’oral de ne plus suivre ou rendre compte des menaces russes.
Quelques heures après la publication de ces informations, la CISA les a officiellement niées, sur X et auprès de divers médias. D’après l’agence, le mémo mentionné par the Guardian « ne vient pas du gouvernement Trump ».
Dans sa lettre personnelle, Kim Zetter indique entendre de sources différentes que le mémo existe, ou non. À défaut de preuves, difficile de trancher.
Négociations sur le conflit en Ukraine
Le Cyber Command, de son côté, agit différemment. Depuis le début de la guerre en Ukraine, la politique des États-Unis est de ne pas s’impliquer directement dans le conflit, ni d’opérer des actions susceptibles de faire réagir la Russie de telle manière que les États-Unis se retrouveraient entraînés dans le conflit.
En conséquence, le soutien fourni par le Cyber Command relève plus probablement de la collecte de renseignements, de la cartographie de systèmes, de la détection de vulnérabilités ou de toute autre activité permettant de préparer de futures opérations militaires.
En 2022, un ancien conseil auprès du Cyber Command expliquait à Kim Zetter que si, par exemple, le Cyber Command découvre les identifiants d’un administrateur russe d’un système utilisé pour des cyberattaques contre l’Ukraine, il peut changer le mot de passe pour en exclure l’administrateur. Il s’agirait de « disruption », mais « vous n’auriez commis aucun dommage sur le système ».
Selon The Record, le ministre de la Défense Pete Hegseth aurait ordonné au Cyber Command de mettre sur pause toutes les activités de planifications relatives à la Russie. Le Washington Post a ensuite ajouté que les opérations en cours avaient été mises en pause, mais pas celles de planification. Cette pause n’est censée durer que le temps des négociations en cours avec la Russie.
Auprès du média, l’ancien commandant adjoint Charlie « Tuna » Moore précise : « c’est plutôt courant de mettre sur pause tout ce qui pourrait faire dérailler les discussions ». Auprès de Kim Zetter, l’ancien membre du Cyber Command Jason Kikta qualifie la suspension d’opérations de procédure « pas exactement standard, mais plutôt fréquente ».
La suspension de la planification d’opérations, elle, lui semblerait plus « hors norme ». Pour quelques jours, celle-ci ne serait pas un problème, mais les suspendre pour quelques semaines, en revanche, est plus « risqué ». Comme les réseaux et les logiciels utilisés changent régulièrement et quelquefois brusquement, cesser un monitoring régulier fait courir le risque aux soldats américains de se voir expulsés des réseaux russes.
Le 3 mars, Donald Trump a ordonné la suspension de toute assistance militaire à l’Ukraine.
Les banques rivalisent parfois « d’ingéniosité » pour prélever des frais indus ou des commissions d’intervention non réglementaires, sans oublier une information au public et aux clients parfois incomplète. C’est en tout cas le triste bilan de la DGCCRF sur les établissements bancaires.
Les frais bancaires peuvent être de diverses natures. La Banque de France rappelle qu’il s’agit des « sommes facturées par un établissement bancaire pour le fonctionnement des comptes bancaires de ses clients, que ce soit pour les opérations ou services fournis ou encore pour la gestion des irrégularités enregistrées sur les comptes ».
17 % des établissements en anomalie
La Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) se penche sur la seconde catégorie de ces frais. Elle a pour cela contrôlé une centaine d’établissements entre janvier 2023 et mars 2024 : « 17 professionnels se sont révélés en anomalie et des contournements de la réglementation ont été constatés. 12 avertissements, 6 procès-verbaux pénaux et administratifs ont été établis ».
Les manquements prennent plusieurs formes. La plus surprenante consiste certainement en des commissions d’intervention pour des irrégularités sur le compte, alors… « qu’aucune irrégularité de fonctionnement n’apparaissait sur le compte bancaire ».
Les commissions d’intervention sont plafonnées… « Ha bon ? »
Vient ensuite le non respect des plafonds des commissions d’intervention. La Banque de France rappelle qu’ils sont de 8 euros par opération dans la limite de 80 euros par mois avec une offre bancaire classique, contre respectivement 4 et 20 euros pour une offre spécifique « clientèle fragile ».
Problème, note la DGCCRF : « certains établissements ne respectent pas ce plafonnement (facturations d’autres frais …) ». Des banques n’hésitent visiblement pas à empiler les couches : « plusieurs établissements facturaient les commissions d’intervention en plus des forfaits rejets de chèque ou de prélèvement, alors qu’elles doivent y être incluses ».
Autre grief : l’absence de mise à disposition auprès des clients et du public du « document d’information tarifaire », pourtant obligatoire depuis août 2019. Signalons aussi l’utilisation d’un numéro surtaxé pour accéder au service client, une anomalie rectifiée par les banques.
Dans tous les cas, on ne peut que vous conseiller de vérifier régulièrement vos comptes, d’autant plus en cette période de fuite de données importantes, y compris pour des données bancaires.
Numéro surtaxé pour le service client : c’est interdit par la loi
Comme le rappelle le ministère de l’Économie et des Finances, la loi est claire : elle « interdit l’utilisation d’un numéro surtaxé pour « recueillir l’appel d’un consommateur en vue d’obtenir la bonne exécution d’un contrat conclu avec un professionnel ou le traitement d’une réclamation ». Autrement dit, le « service clients » ou « après vente » doit être accessible au consommateur sans devoir recourir à un numéro surtaxé ».
Il y a par contre quelques bonnes nouvelles, notamment une communication « globalement satisfaisante » sur les informations transmises aux clients concernant les offres groupées. Dans l’ensemble, les banques ont « bien respecté leurs engagements tarifaires (gel des tarifs bancaires 2023 pour certains services courants telle que la carte de paiement) », même si une banque avait décidé d’augmenter d’un euro les virements non SEPA. Les clients lésés ont été remboursés, la brochure tarifaire mise à jour.
Un comparateur gratuit du ministère de l’Économie
Il n’est pas toujours facile de s’y retrouver dans toutes les subtilités des conditions tarifaires des banques (en ligne), comme nous avions pu le voir dans notre comparatif (en 2017) de seize d’entre elles.
Notez que le ministère de l’Économie et des Finances propose un comparateur gratuit des « frais facturés par les différents établissements bancaires ». Il faut choisir un département et une liste de critères que vous souhaitez comparer.
Consultez attentivement les documents d’information tarifaire !
N’hésitez pas à consulter les Documents d’information tarifaire (le fameux DIT). Comme le rappelait le ministre de l’Économie en 2020, « la forme et le contenu du DIT ont une normalisation européenne. Le DIT reprend et complète l’extrait standard des tarifs (EST) ».
Vous pouvez, par exemple, consulter celle de Boursorama, du Crédit Mutuel, de Fortuneo ou d’Hello bank!… Les informations y sont standardisées, permettant plus facilement de comparer les offres sur les « les frais d’utilisation des principaux services liés à un compte de paiement ». On y retrouve notamment les frais de tenue de compte, de virement, de fourniture d’une carte bancaire, etc.
EDF a lancé lundi deux appels à manifestation d’intérêt visant à mobiliser les industriels de l’infrastructure, autour de deux sites identifiés comme propices à la création de centres de données de grande puissance.
Le premier appel concerne un foncier disponible sur le site de Montereau en Seine-et-Marne, à cheval sur les communes de Vernou-La-Celle-sur-Seine et La Grande Paroisse. Le site revêt une certaine portée symbolique, puisqu’il a longtemps hébergé une centrale à charbon, arrêtée en 2004, au profit d’une nouvelle installation thermique fonctionnant au gaz.
Le second appel à manifestation d’intérêt propose quant à lui d’étudier deux sites en Moselle, à Richemont et La Maxe. Là aussi, il s’agit d’anciennes centrales thermiques, vestiges du passé industriel de la région, dont la démolition a été engagée respectivement en 2018 (avec un dynamitage spectaculaire) et en 2024.
« L’objectif des appels à manifestation d’intérêt est de sélectionner des opérateurs du numérique en mesure d’aménager les sites en vue d’y construire et exploiter des centres de données de forte puissance. L’attribution se fera sur la base de critères objectifs et transparents portant notamment sur la crédibilité et la maturité des projets des entreprises », explique EDF.
L’accès aux détails techniques des différents sites (surface disponible, emprise possible, puissance du raccordement électrique, etc.) se fait sur demande préalable.
« Un quatrième site a été identifié, dont la localisation sera communiquée ultérieurement », précise encore l’énergéticien. En février dernier, il avait indiqué que ces quatre premiers sites représentaient une puissance totale disponible de l’ordre de 2 GW, autorisant donc la création de centres de données d’envergure.
EDF s’exprimait alors dans le cadre du Sommet pour l’action sur l’IA. L’énergéticien évoquait alors un total de six sites adaptés identifiés à horizon 2026.
Capitalisant sur les actifs issus du rachat de Nuance, Microsoft a annoncé lundi le lancement prochain de Dragon Copilot, un assistant virtuel basé sur l’intelligence artificielle destiné aux professionnels de santé. La société signe à cette occasion des accords avec plusieurs éditeurs de premier plan, qui devraient permettre à son Copilot de s’intégrer nativement au sein des principaux ERP du secteur.
On connaissait Copilot comme assistant pour les développeurs, notamment sur GitHub. On le croise depuis peu comme successeur de Clippy au sein de la suite bureautique Office. Les professionnels de santé en découvriront bientôt une nouvelle version qui leur est dédiée : Microsoft Dragon Copilot.
Dévoilé lundi, Dragon Copilot se présente comme un « assistant vocal IA unifié », destiné à l’accompagnement des personnels de santé dans leur quotidien, « qui permet de simplifier le travail de documentation clinique, de faciliter la recherche d’informations et d’automatiser des tâches ».
Un Copilot dans les pas de Nuance
Si Microsoft insiste sur cette dimension vocale, c’est parce que son nouveau Copilot s’inscrit dans le prolongement des solutions spécialisées de l’éditeur Nuance Communication, racheté par la maison mère de Windows en 2021 pour 19,7 milliards de dollars.
De ce fait, Microsoft présente plutôt Dragon Copilot comme la combinaison et l’extension des possibilités offertes par deux solutions déjà présentes sur le marché. D’abord, Dragon Medical One, adressée à la médecine de ville, qui propose d’utiliser la voix pour créer des compte-rendus, préparer une documentation, ou écrire des courriers, avec une reconnaissance vocale adaptée au vocabulaire médical. Ensuite, la version enrichie destinée aux établissements de santé, Dragon Ambient eXperience, rebaptisée DAX Copilot depuis son lancement en 2022.
Cette « IA ambiante », capable de prendre des notes pour que le soignant se consacre pleinement à son patient selon la communication de Microsoft, délivrerait déjà des résultats probants. D’après ses propres études réalisées dans des établissements utilisateurs de DAX Copilot, l’éditeur revendique ainsi un « gain de 5 minutes par rencontre », et surtout une amélioration qualitative. 70 % des soignants déclareraient ainsi ressentir une diminution de leur fatigue, tandis que « 93 % des patients rapportent une meilleure expérience globale ».
Le marché de toutes les convoitises
La communication de l’éditeur intervient dans le cadre du salon HIMSS (Healthcare Information and Management Systems Society) de Las Vegas, le grand raout annuel des fournisseurs de solutions informatiques dédiées au secteur de la santé. L’IA y occupe sans surprise une place prépondérante. 126 des 205 exposants présents revendiquent ainsi une activité en rapport avec le domaine. Et Microsoft cherche logiquement à briller parmi ses concurrents, ce qui explique le calendrier de cette communication.
Bien que l’IA générative soit encore loin d’avoir trouvé sa place dans le quotidien de tous les médecins, le marché est en effet déjà bien lancé, comme en témoignent, en France, la trajectoire et les projets d’acteurs spécialisés comme Nabla, ou plus généralistes comme Doctolib (voir notre enquête dédiée ci-dessous).
Capitaliser sur les solutions héritées du rachat de Nuance, précurseur sur ce segment, permet dans ce contexte à Microsoft de déjà revendiquer des usages significatifs, ainsi qu’un « leadership technologique ».
L’éditeur affirme ainsi que les solutions santé de Dragon totalisent 600 000 utilisateurs dans plusieurs milliers d’établissements ou de cabinets. Elles profiteraient par ailleurs d’un entrainement réalisé sur « plus d’un milliard de minutes de dictée médicale par an et plus de 20 millions de rencontres en milieu ambiant ».
Une distribution indirecte déjà bien engagée
Microsoft indique que Microsoft Copilot sera disponible commercialement à compter de mai, d’abord aux États-Unis et au Canada. La France, l’Allemagne, les Pays-Bas et le Royaume-Uni suivront rapidement, avant un déploiement international à plus large échelle.
La liste des pays sélectionnés ne doit rien au hasard. Elle correspond à ceux dans lesquels Microsoft a déjà noué un partenariat de distribution croisée, voire d’intégration, avec un éditeur tiers déjà bien implanté sur son marché.
En France, Dragon Copilot sera ainsi rapidement disponible au travers de Softway Medical, qui se félicite de compter parmi « les principaux fournisseurs internationaux de dossiers patients informatisés à intégrer l’assistant IA de Microsoft dans le flux des tâches cliniques ». Microsoft indique également avoir contracté avec l’italien Dedalus, lui aussi très présent en France, notamment sur le marché hospitalo-universitaire.
L’enjeu, à ce niveau, n’est pas que commercial : il s’agit aussi de poser les bases nécessaires aux interactions entre Copilot et les données de l’établissement concerné. « Les nouvelles fonctionnalités de Dragon s’appuient sur un parc de données sécurisé et intègrent des mesures de protection cliniques, de conversation et de conformité spécifiques aux soins de santé pour des résultats d’IA précis et sûrs », vante à ce niveau Microsoft.
L’éditeur courtise historiquement le monde de la santé, principalement via sa division Microsoft Cloud Healthcare, chargée de vendre au secteur les solutions dérivées d’Azure. En France, le sujet a défrayé la chronique en 2024, allant jusqu’au Conseil d’État, puisque c’est Microsoft, acteur américain, qui a été retenu pour l’hébergement du Health Data Hub, la structure pensée comme le guichet unique dans les demandes d’accès aux données de santé dans un cadre de recherche.
Le sujet intéresse également Microsoft sur le volet grand public. L’éditeur a ainsi créé fin 2024 une équipe dédiée spécifiquement aux usages de l’IA en santé à destination du grand public. Les rênes en ont été confiés au Britannique Mustafa Suleyman, cofondateur de DeepMind. « Dans notre mission d’informer, de soutenir et d’autonomiser chacun avec une IA responsable, la santé est un cas d’utilisation critique », confirmait Microsoft en décembre dernier, sans préciser plus avant ses ambitions commerciales en la matière.
Dans un billet de blog, l’éditeur annonce Browser Operator, son premier agent de navigation dopé à l’intelligence artificielle. Comme nous l’expliquions hier, les agents sont des composants logiciels autonomes, chargés d’interagir avec leur environnement sur la base d’un modèle. Contrairement à un chatbot avec lequel on discute, l’agent est chargé d’une mission et analyse ses résultats pour s’approcher au mieux de la demande.
C’est le principe de Browser Operator. L’agent, une extension de l’IA maison, Aria, est intégré dans le navigateur. On peut lui demander par exemple de trouver un produit spécifique, d’aller effectuer une opération sur un site en particulier ou même d’aller commander des billets de train. C’est du moins ce que montre la vidéo qu’Opera a publiée, mais on ne voit pas l’acte d’achat proprement dit.
« Acheter des chaussettes est une tâche que la plupart d’entre nous doivent accomplir à un moment ou à un autre, mais qui ne passionne pas grand monde. Et si vous pouviez externaliser cette tâche ? En laissant Browser Operator d’Opera le faire à votre place, vous pourriez libérer votre temps pour méditer ou faire quelque chose de plus significatif pour vous », claironne l’éditeur.
Les instructions sont données bien sûr en langage naturel. L’agent enchaine ensuite les actions, mais s’arrête s’il existe des étapes comme le remplissage d’un formulaire ou la validation d’un achat. Opera indique que l’on peut reprendre la main à tout moment.
Opera insiste sur la sécurité : « Contrairement à d’autres solutions actuellement testées, notre concept d’agent d’intelligence artificielle dans le navigateur ne repose pas sur des captures d’écran ou des vidéos de la session de navigation pour comprendre ce qui s’y passe ». Avec une pique clairement adressée à Microsoft et sa fonction Recall.
Le fonctionnement est local, l’agent se servant de l’arborescence DOM et des données de présentation pour obtenir le contexte. Il ne s’agit donc pas d’une analyse visuelle. Opera assure qu’aucune donnée personnelle n’est transmise à ses serveurs, du fait de ce fonctionnement.
Difficile pour l’instant d’en savoir plus, car en dépit de ce qu’indique le billet de blog, la fonction – présentée en avant-première et censée être disponible depuis la barre latérale et la ligne de commande – n’est pour l’instant qu’une démonstration. Nous avons contacté Opera, qui nous a confirmé que le composant n’était pas encore disponible.
Fidèle à leur habitude, nos confrères ont joué du tournevis sur le nouveau membre de la famille d’Apple. Commençons par la fin : le smartphone « d’entrée de gamme » obtient provisoirement (en attendant la disponibilité des pièces détachées) 7/10 en réparabilité, la même note que l’iPhone 16.
Dans les grandes lignes, iFixit note une « nouvelle génération d’adhésif facile à détacher sous la batterie », le même adhésif « à libération électrique » que sur les iPhone 16 et 16 Plus. Il suffit de faire passer un courant entre deux bornes pour libérer la batterie.
Avec l’absence de MagSafe, et donc d’aimant pour bien positionner le chargeur sans fil, iFixit note une perte parfois importante de l’efficacité de la charge. Du côté du port USB Type-C, iFixit se réjouit qu’Apple propose enfin un manuel de réparation officiel.
Ce démontage est également l’occasion d’en découvrir davantage sur les entrailles du smartphone et notamment d’avoir un aperçu du nouveau modem C1 maison, qui remplace le SDX71M de Qualcomm. Pendant plusieurs années, les deux partenaires se sont écharpés devant les tribunaux.
Arnaques, rançongiciels, fraudes… selon un rapport de la société d’analyse de blockchain Chainanalysis, 40 milliards de dollars ont été récupérés par des adresses illicites courant 2024.
En 2023, l’entreprise relevait 46,1 milliards de dollars de transactions illicites dans l’écosystème blockchain.
Elle prévoit que le volume final d’activités illicites constatées en 2024, qui se préciseront à mesure que des détails supplémentaires sur les activités criminelles passées émergent, dépassera celui de 2023 – Chainalysis évalue ce volume final à 51,3 milliards de dollars.
En valeur absolue, dans un contexte de grande activité dans l’univers crypto, l’entreprise estime que le montant représente 0,14 % du volume de transactions réalisées sur la blockchain.
Chainalysis souligne une évolution notable : avant 2021, le bitcoin était « sans équivoque la cryptomonnaie de choix des cybercriminels », représentant autour de 70 % des transactions illicites. Depuis, la tendance est à la diversification, les stablecoin étant désormais utilisés dans 63 % des transactions illicites étudiées.
Chainalysis relève aussi une forme de professionnalisation des acteurs de la cryptocriminalité : sur les 40,9 milliards reçus par des adresses illicites, 10,8 milliards de dollars l’ont été par des acteurs qu’ils catégorisent comme « organisations illicites », c’est-à-dire des groupes d’individus et de services impliqués dans des actes de piratage, d’extorsion ou d’escroquerie.
Nous avons pour rappel mis à jour notre extension Chrome et Firefox de signalement des sites GenAI pour signaler également ceux sur les listes noires de l’autorité des marchés financiers (AMF) et de Red Flag Domains.
La nouvelle version du navigateur est là, et avec elle une fonction attendue de pied ferme par une partie des utilisateurs depuis un moment : les onglets verticaux. Nous avions présenté la fonction lors d’une bêta précédente, quand il est devenu clair que Mozilla allait bien déployer cette disposition.
La fonction s’appuie sur la barre latérale, qui doit donc être activée. Depuis celle-ci, faites un clic droit dans un espace ou cliquez sur la roue crantée en bas pour accéder au réglage des onglets verticaux. Par défaut, la taille de la barre ne change pas et les onglets vont n’afficher que leur favicon. On peut toutefois déplacer le bord droit pour élargir cette zone, faisant apparaitre les noms des pages web.
Ce mode de fonctionnement, loin d’être nouveau, a gagné une certaine popularité sur les ordinateurs portables, quand on manque d’espace vertical. La barre latérale est légèrement révisée au passage, en présentant plus d’accès directs aux fonctions du navigateur. Précisons que l’on peut utiliser cette barre sans les onglets verticaux, mais ces derniers ne peuvent pas s’en passer. La barre latérale et les onglets verticaux sont désactivés par défaut.
Les autres nouveautés n’ont pas changé depuis la bêta, avec plusieurs apports intéressants. Les contenus vidéos HEVC sont ainsi accélérés matériellement sur macOS. La version Mac déplace également certaines tâches d’arrière-plan sur les cœurs à basse énergie des puces M, ce qui devrait améliorer l’autonomie.
On note aussi le décodage matériel des vidéos pour Linux avec des GPU AMD (pour Mesa 24.2 et versions ultérieures), la possibilité de sélectionner les éléments embed de réseaux sociaux à débloquer (support limité pour l’instant, mais qui sera étendu), l’utilisation du PNG pour les images copiées depuis Firefox, le passage à HTTPS-First, ou encore l’utilisation de la compression LZMA pour le binaire macOS.
Avec la publication de Firefox 136 en version finale, la mouture 137 débarque dans le canal bêta. Peu de nouveautés visibles pour l’instant, à l’exception du support du décodage matériel pour HEVC sur Linux.
Le DOGE et la présidence Trump continuent de mettre à mal les agences scientifiques américaines. Le service dirigé par Elon Musk a annulé la location de bâtiments utilisés par les services de prévisions météorologiques de la NOAA. Il est conseillé aux employés de la NASA de faire preuve de « discrétion » en public concernant leur affiliation. Les décisions erratiques du nouveau gouvernement touchent même le personnel de recherche américain en antarctique.
Le DOGE a visé la FAA, la NASA et la FDA, des agences qui sont directement en lien avec les différentes activités des entreprises d’Elon Musk. Mais ce ne sont pas les seules agences dans la mire du gouvernement de Donald Trump, comme on l’a déjà vu.
La NOAA se sépare d’une partie de ses salariés et de ses bâtiments
La National Oceanic and Atmospheric Administration (NOAA), qui joue un rôle très important dans la gestion des données et le travail sur le climat, a licencié des centaines d’agents en période d’essai, la semaine dernière, ce qui représente 10 % des effectifs de l’agence, selon The Verge. L’un des anciens responsables de la NOAA, Andrew Rosenberg, écrivait il y a tout juste un mois qu’il serait prévu que l’agence réduise au total ses effectifs de 50 % et son budget de 30 %.
The Verge explique que, non seulement l’agence se sépare d’une bonne partie de son personnel, mais elle vient aussi d’annuler la location des bâtiments de certains de ses centres de recherche. Axios, qui a eu confirmation de cette information, ajoute que « l’un des bâtiments est le centre névralgique de la production des prévisions météorologiques nationales ».
Le NOAA Center for Weather and Climate Prediction abrite par exemple le Weather Prediction Center (WPC) dont la mission est, selon son site, de « synthétiser les informations météorologiques quotidiennes du pays et promouvoir la prévision opérationnelle des tempêtes de pluie, des tempêtes d’hiver et des températures extrêmes pour la protection de la vie et des biens ». Rappelons que le passage d’une violente tempête hivernale dans l’est du pays a fait au moins 14 morts cet hiver.
Témoignant d’une réelle hostilité politique contre les agences scientifiques et leurs employés, un haut responsable de la NASA a envoyé aux employés de la NASA un message leur demandant de faire preuve de « discrétion » en public quand ils portent les badges et emblèmes de l’agence, explique ProPublica. « Nous sommes tous très fiers de travailler pour le programme spatial », affirme le message, mais l’agence veut éviter de « possibles histoires de harcèlement » en dehors du travail.
Ces avertissements contrastent avec l’image que la NASA avait encore ces dernières années alors qu’on pouvait croiser beaucoup de personnes en hoodies floqués de la marque de l’agence spatiale américaine.
Flou à la National Science Foundation
La National Science Foundation (NSF) est aussi totalement désorganisée par les décisions du DOGE et du gouvernement de Donald Trump. Rappelons que cette agence fédérale américaine créée en 1950 a financé de 1985 à 1995 le « National Science Foundation Network », qui a assuré la transition entre le réseau militaire Arpanet et l’Internet civil qu’on connait actuellement.
Cette agence scientifique a aussi licencié une partie de son personnel mi-février : le NSF confirmait à The Register s’être séparé de 86 personnes en période d’essai et de 84 experts à temps partiel. Le média expliquait que « les réductions ont touché environ 10 % des effectifs, et beaucoup ont été pris au dépourvu par cette mesure qui, selon certains, pourrait avoir enfreint les réglementations fédérales ». Et effectivement, selon la justice américaine, cette décision était illégale, rapporte The Register ce 4 mars.
Cette désorganisation touche des équipes de recherche qui sont basées jusqu’en antarctique. En effet, trois stations permanentes qui se trouvent sur le Continent Austral sont gérées par un programme qui dépend du NSF, expliquait la semaine dernière Wired. Les équipes qui y travaillent « ne savent pas si leurs recherches pourront se poursuivre, comment les stations américaines seront maintenues, ni ce que tout cela pourrait signifier pour la délicate géopolitique du continent », ajoutent nos confrères.
« Même de brèves interruptions conduiront les gens à partir et à ne pas revenir », estime Nathan Whitehorn, chercheur de l’université de l’État du Michigan, interrogé par Wired. « La reconstruction pourrait facilement prendre des décennies », ajoute-t-il.
Les rumeurs évoquaient plusieurs révisions de produits chez Apple cette semaine. Si elles se concentraient sur le MacBook Air et son passage à la puce M4, c’est pour l’instant l’iPad qui a les honneurs d’une modernisation
Le modèle classique reste sur la base qu’on lui connait, centrée sur un écran Liquid Retina de 11 pouces. Cette 11e génération voit cependant sa puce A14 remplacée par une A16, avec de sympathiques gains de performances à la clé. On reste sur un ancien modèle cependant, le dernier iPad mini étant par exemple doté de l’A17 Pro, tandis que la gamme iPhone 16 intègre l’A18.
Pour les personnes qui prévoyaient d’acheter la tablette d’entrée de gamme, il y a toutefois deux bonnes nouvelles et une mauvaise. La première est que le stockage est doublé, avec le premier modèle doté de 128 Go. La seconde est que les tarifs de la tablette ne changent pas, avec un prix de départ à 409 euros. Malheureusement, le nouvel iPad n’est pas compatible avec Apple Intelligence.
Pour le reste, les caractéristiques ne changent pas, tout comme les couleurs proposées : bleu, rose, jaune et argent. Les précommandes sont ouvertes, pour une disponibilité le 12 mars.
Vient ensuite l’iPad Air, qui troque sa puce M2 pour une M3. C’est le seul changement, avec un petit apport de performances. Le stockage proposé, les couleurs ou mêmes les tarifs sont inchangés, à partir de 719 euros. Le modèle M2 était déjà compatible avec Apple Intelligence, la situation n’évolue donc pas.
Le mois prochain, iOS recevra sa mise à jour 18.4. En plus de rendre disponible Apple Intelligence en Europe, cette version intègre le support du RCS pour Orange, dernier opérateur en France à le rendre disponible sur iPhone. Mais au fait, c’est quoi le RCS ?
Le RCS, pour Rich Communication Services, est un protocole de messagerie. Standardisé par la GSMA, il doit supplanter le classique SMS, en lui apportant de nombreuses fonctions propres aux messageries modernes. Contrairement au SMS, RCS utilise les réseaux de données et non le réseau téléphonique.
Les apports de RCS sont nombreux. Il fait bien sûr sauter la limite sur le nombre de caractères, permet les conversations de groupe, affiche des statuts de lecture, permet d’intégrer des contenus enrichis, peut prévenir quand un contact est en train d’écrire, autorise le partage de géolocalisation, etc.
Cependant, pour un grand nombre de personnes, RCS n’a rien d’une nouveauté. Le protocole est notamment utilisé par Google depuis 2016. Le protocole sert de fondation à l’application Messages, qui gère traditionnellement les SMS sur Android depuis un bon moment maintenant. Sur la plateforme, les capacités du RCS sont donc connues et sont équivalentes à ce que l’on peut trouver dans des applications. En France, le protocole a été déployé par Google en 2019.
Le service s’est largement répandu et est utilisé notamment par un certain nombre d’entreprises pour communiquer avec leurs clients et proposer des choix dans les messages. Chez Chronopost par exemple, on peut recevoir un message avertissant qu’une livraison est programmée, un menu et des boutons permettant de décaler le créneau en cas d’indisponibilité.
En revanche, sur iOS, la situation était plus compliquée
Une relation conflictuelle
Pendant longtemps, Apple n’a eu aucune volonté de prendre en charge le RCS. Sur iOS, la situation était simple : dans Messages, soit vous discutiez avec un autre appareil Apple et vos bulles étaient bleues, soit vous discutiez avec une autre plateforme et les bulles étaient vertes.
Ces bulles vertes sont devenues l’incarnation de discussions avec des appareils « autres ». Pour Apple bien sûr, il s’agissait de laisser trainer l’idée que les conversations entre ses produits étaient beaucoup plus riches et modernes. Mais l’entreprise avait beau faire valoir que les échanges iMessage étaient chiffrés de bout en bout, elle s’est laissé dépasser, car Google a ajouté un nombre croissant de fonctions.
La situation a perduré, au point que Google en a fait une arme commerciale, critiquant copieusement son adversaire pour ne pas avoir intégré ce standard de communication. Une situation qui ne manquait pas d’ironie, quand on sait que Google a erré pendant de nombreuses années à la recherche d’une messagerie maison, la société révisant constamment ses plans dans ce domaine, sans succès.
Mais en novembre 2023, tout change : Apple annonce qu’elle prendra finalement en charge RCS l’année suivante. Ce support s’est effectivement concrétisé dans iOS/iPadOS 18 et macOS 15. Il s’agissait cependant d’un support de base, et il restait aux opérateurs de téléphonie d’en assurer la compatibilité avec leurs propres infrastructures.
En France, la boucle est (presque) bouclée
Au cours des derniers mois, tout s’est accéléré dans l’Hexagone. Avec iOS 18.1, SFR a été le premier à réagir en supportant le RCS sur les iPhone fin octobre 2024. Avec iOS 18.2, Bouygues et Free s’y mettent à leur tour mi-décembre. On s’attendait à ce qu’Orange fasse de même avec iOS 18.3, mais c’est bien la version 18.4 qui comporte le changement attendu.
Les versions finales des prochaines mises à jour d’Apple sortiront le mois prochain. Pour les personnes clientes d’Orange et Sosh, le RCS deviendra disponible sur leur iPhone certes, mais également sur iPad et Mac via l’application Messages qui synchronise les échanges entre appareils liés au même compte.
Pour vérifier que vous avez bien RCS, il faut se rendre dans Réglages puis dans Apps, tout en bas. Là, cherchez Messages et descendez ensuite dans les paramètres jusqu’à « Service RCS ». Dans le panneau, il faut simplement activer le premier bouton si ce n’est pas déjà fait. L’activation du service peut prendre de quelques secondes à plusieurs dizaines de minutes selon les cas. Après quoi, si vous discutez avec une personne dont l’appareil (non Apple) gère le RCS, vous verrez apparaitre les témoins de rédaction et statuts de lecture dans les prochains échanges, entre autres fonctions. L’application Messages indique également quand la conversation bascule du vieux SMS au RCS.
Les « limites » de l’intégration d’Apple
Si l’on parle de « limites », c’est parce qu’Apple a fait le choix de supporter le standard lui-même, sans fioritures. Une approche différente de Google, qui a ajouté petit à petit des fonctions, dont le chiffrement de bout en bout. Cet aspect n’existe pas dans l’implémentation d’Apple. La société indiquait en 2023 que le RCS fonctionnerait « en parallèle d’iMessage, qui continuera à être la meilleure expérience de messagerie et la plus sécurisée pour les utilisateurs Apple ».
Comme de nombreuses normes, RCS évolue avec des versions. Dans le standard de la GSMA, on trouve ainsi un tronc commun nommé Universal Profile, qui définit un lot de fonctions. On pourrait comparer l’évolution avec celle du standard Unicode, dont le support des versions assure l’intégration de nouveaux émojis. S’agissant d’un socle minimal, rien n’empêche les entreprises d’y attacher d’autres fonctionnalités.
Apple a intégré le support de la version 2.4, avec les fonctions que l’on connait aujourd’hui, sans y ajouter quoi que ce soit. Le constructeur avait indiqué s’en tenir au standard, et uniquement au standard. La question est maintenant de savoir si Apple prendra en compte les versions sorties depuis. Nous en sommes à la mouture 2.7, sortie en juin 2024 (PDF), avec une version 2.8 en préparation. En septembre dernier, Tom Van Pelt, directeur de la GSMA, indiquait que la prochaine grande étape était d’intégrer un support interopérable du chiffrement de bout en bout.
Mais rien aujourd’hui ne permet de supposer qu’Apple compte faire évoluer son support de RCS. La société a fini par lâcher du lest à cause de pressions politiques croissantes, notamment de la Chine et de l’Europe. On peut supposer qu’elle renaclera à en faire plus.
« 87 % des téléphones mobiles sont compatibles »
L’AF2M (Association Française pour le développement des services et usages Multimédias Multi-opérateurs) tient le compte des smartphones compatibles. Cette association a une bonne visibilité du marché puisqu’elle regroupe notamment les principaux opérateurs français (Bouygues Telecom, iliad, Orange et SFR).
Dans son dernier bilan, elle indique que, « en octobre 2024, ce sont 28,3 millions de Français qui pouvaient bénéficier du RCS avec leur smartphone, soit 48 % du parc de téléphones mobiles en France », en hausse de 6 points en six mois. Cette statistique est donc côté opérateurs (et tient compte du fait que les utilisateurs aient ou non activé RCS).
De son côté, le portail de la transformation numérique des entreprises « estime qu’environ 87 % des téléphones mobiles sont compatibles en décembre 2024 ». Pour rappel, il faut non seulement un smartphone compatible, mais aussi que l’opérateur propose cette option à ses clients (et que ces derniers ne la désactivent pas).
L’autre face du RCS : les campagnes marketing et la relation client
Mais le RCS, c’est aussi une formidable porte d’entrée pour les professionnels, note l’AF2M : « Conscientes du potentiel de la technologie RCS et séduites par un taux d’ouverture de 80 % en moyenne, mesurable pour chaque campagne, de plus en plus de marques adoptent le RCS ». Sur un an, 172 grandes enseignes ont lancé des campagnes RCS, soit 32 % de plus que lors du dernier bilan.
Le portail de la transformation numérique des entreprises aussi y va de son analyse, affirmant que le RCS « améliore l’impact des campagnes marketing et la relation client ». Il met en avant le fait que « le RCS permet de vérifier l’identité de l’entreprise expéditrice et de l’identifier avec son logo et son nom commercial ».
Le portail donne enfin un dernier avantage, auquel on ne pense pas au premier abord. Lorsqu’une entreprise utilise le RCS, c’est assimilé à un SMS… « et ne nécessite pas d’obtenir de la part de ses clients un consentement spécifique pour le RCS (si vous avez déjà son consentement pour le SMS) ».
Selon Renan Abgrall, président de l’AF2M, « l’adoption de la technologie RCS par Apple a marqué un tournant décisif pour les marques, confirmant que le RCS est en passe de devenir le nouveau standard de la relation client »… en espérant que cela ne fasse pas encore augmenter les appels et SMS non sollicités.
L’entreprise de cybersécurité CrowdStrike explique dans son rapport annuel qu’en 2024, la plupart des cyberattaques n’utilisaient pas de logiciel malveillant, mais s’appuyaient plutôt sur ce qui se situe entre la chaise et le clavier : l’utilisateur. Cette utilisation massive de l’ingénierie sociale, qui s’appuie de plus en plus sur l’IA générative, pose des difficultés importantes de détection.
Les pirates utilisent de moins en moins de logiciels malveillants pour accéder à une machine ou aux données d’un utilisateur, selon le rapport annuel 2025 de CrowdStrike [PDF]. En 2024, 79 % des cyberintrusions n’auraient pas utilisé ce genre d’outils, contre 40 % en 2019.
L’entreprise de cybersécurité explique qu’« au lieu des logiciels malveillants traditionnels », les pirates « privilégient des méthodes plus rapides et plus furtives telles que le vishing, l’ingénierie sociale, les services de courtiers d’accès [access brokers, en anglais] et l’abus de relations de confiance ». Et rappelons que se faire avoir par le vishing n’arrive pas qu’aux autres.
CrowdStrike a constaté que le vishing avait plus que quadruplé entre le premier et le second semestre 2024 (+ 442 %). Elle explique que dans la plupart des campagnes de vishing de 2024, les pirates se sont fait passer pour un assistant informatique appelant les utilisateurs ciblés sous prétexte de résoudre des problèmes de connectivité ou de sécurité.
L’entreprise a suivi pendant l’année dernière six campagnes de la sorte « similaires, mais probablement distinctes ». Au cours de celles-ci, les attaquants se faisant passer pour du personnel informatique « ont appelé leurs cibles et tenté de les persuader d’établir des sessions d’assistance à distance, souvent à l’aide de Microsoft Quick Assist. Dans de nombreux cas, les appels ont été effectués via Microsoft Teams » à partir de locataires externes.
L’IA générative, outil de base du pirate
De plus, CrowdStrike pointe le fait que l’IA générative est « devenue un outil attrayant pour les pirates, avec une faible barrière à l’entrée qui la rend largement accessible ». Les progrès de cette technologie ont, selon l’entreprise, permis d’améliorer significativement certaines cyberattaques et « en particulier celles qui font appel à l’ingénierie sociale ».
Dans son rapport, l’entreprise de cybersécurité donne l’exemple du groupe de pirates nord-coréen Famous Chollima. Celui-ci arriverait à obtenir « des postes dans des entreprises du monde entier sous de fausses identités, en utilisant parfois des outils de genAI pour manipuler socialement les recruteurs pendant le processus de candidature ». Ils créeraient des profils LinkedIn fictifs avec de fausses images de profils et passent les entretiens en utilisant des réponses générées par IA.
CrowdStrike renvoie aussi à plusieurs études scientifiques mises en ligne sur arXiv sur l’utilisation des grands modèles de langage pour l’ingénierie sociale. L’une d’elles indique par exemple que les messages de phishing générés par des LLM ont un taux de clics nettement plus élevé (54 %) que les messages d’hameçonnage vraisemblablement rédigés par des humains (12 %). Une autre étude montre que les taux de détection des pages de phishing générées par le LLM étaient comparables à ceux des pages de phishing créées par l’homme.
Les courtiers d’accès font de plus en plus de pub
L’entreprise affirme aussi que les attaques liées à l’accès initial d’un système informatique ont explosé, « représentant 52 % des vulnérabilités observées par CrowdStrike en 2024 ». Elle constate aussi que « la fourniture d’accès en tant que service est devenue une activité florissante, les publicités pour les courtiers en accès ayant augmenté de 50 % d’une année sur l’autre ».
Enfin, la Chine a encore augmenté son activité cyber de 150 %, selon CrowdStrike et constitue la principale menace émanant d’un État-nation. L’entreprise affirme même que « certaines industries ciblées ont subi une augmentation de 200 à 300 % des attaques par rapport à l’année précédente ».
C’est une barre symbolique qui a été dépassée le 2 mars à 15 h, avec 40 271 225 joueurs très exactement. Les 39 millions avaient été dépassés en décembre. « Depuis un certain temps déjà, il ne faut attendre que quelques mois pour que Steam ajoute un million d’utilisateurs simultanés », explique Neowin.
Le cap des 20 millions de joueurs simultanés était tombé en mars 2020 pendant le début de l’épidémie de Covid-19. Pour arriver aux 30 millions, il a fallu attendre 2022. SteamDB propose un historique sur près de deux décennies.
En tête du classement, on retrouve sans surprise Counter-Strike 2, tandis que la seconde place est occupée par Monster Hunter Wilds, un jeu sorti le 28 février et qui réunit encore aujourd’hui plus de 1,2 million de joueurs. Le titre a même dépassé les 1,3 million ce week-end.
Selon le site (non officiel SteamDB), Monster Hunter Wilds se classe 5ᵉ des titres les plus joués de « tous les temps » sur Steam, avec un pic à 1,384 millions. Devant, on retrouve Counter-Strike 2 avec 1,818 million, Palworld avec 2,101 millions, Black Myth: Wukong à 2,415 millions et PUBG: Battlegrounds en tête avec 3,257 millions.
Aux États-Unis, les data centers ont provoqué plus de 5,4 milliards de dollars de dépenses de santé publique de 2019 à 2024, selon une récente étude de quantification de l’impact de l’IA sur les émissions de carbone et la consommation d’eau.
Le boom de l’intelligence artificielle tire la demande en data centers. Si les conséquences de leur multiplication sur les émissions carbones et la consommation d’eau commencent à être connues, une récente étude s’est penchée sur leurs effets en termes de santé publique.
En détaillant le cycle de vie de l’intelligence artificielle, de la fabrication des semi-conducteurs jusqu’aux calculs menés dans les data centers, une équipe de chercheurs des universités UC Riverside et Caltech estime l’impact de ces activités à plus de 5,4 milliards de dollars de dépenses de santé publique sur les cinq dernières années.
Selon le lieu où il est réalisé, l’entraînement d’un modèle comme Llama-3.1 pourrait produire autant de pollution de l’air que l’équivalent de plus de 10 000 allers-retours en voiture entre Los Angeles et New-York City, « ce qui entraîne un coût de santé qui excède de 120 % le coût de l’électricité nécessaire » à l’entraînement du modèle.
Sur la planète, 8,1 millions de personnes sont décédées en 2021 à cause de la pollution atmosphérique. Celle-ci est aussi le second facteur le plus élevé de développer une maladie non transmissible, rappellent les chercheurs.
Dans ce contexte, la pollution engendrée par le cycle de vie de l’IA participe à la multiplication de cas d’asthme, de cancers, de maladies cardiovasculaires, entre autres problématiques de santé. Aux États-Unis, le coût de leur traitement s’est élevé à 1,5 milliards de dollars sur la seule année 2023, en hausse de 20 % par rapport à l’année précédente.
En pratique, les auteurs de l’étude se penchent sur la pollution atmosphérique produite à différents endroits : par les générateurs de secours des data centers, par la production d’électricité qui permet de les alimenter et par la fabrication du hardware nécessaire aux serveurs.
L’étude s’appuie sur l’outil de modélisation Co-Benefits Risk Assessment (COBRA) de l’Agence de protection de l’environnement des États-Unis (EPA, actuellement touchée par les coupures budgétaires qui secouent le pays), qui permet de donner une valeur monétaire à la qualité de l’air et aux impacts de santé qui en découlent.
D’ici 2030, les chercheurs estiment que sous la pression de l’IA, les data centers pourraient contribuer à 600 000 nouveaux cas d’asthmes et 1 300 décès prématurés aux États-Unis. Les coûts de santé induits pourraient dépasser les 20 milliards de dollars, soit le double de ceux provoqués par l’industrie sidérurgique locale.
Par ailleurs, ces maladies ne touchent pas l’intégralité de la population de la même manière. En raison de la localisation des infrastructures, les habitants de Virginie ou de l’Ohio sont plus exposés que les autres à la pollution des data centers, alors même qu’ils en subissent déjà la pression sur le réseau électrique. Or ces populations sont aussi plus pauvres que la moyenne nationale, soulignent les auteurs de l’étude.
La course à l’IA se traduit pourtant en une course aux data centers. Si Microsoft donne de premiers signes de réduction de la voilure, l’entreprise a tout de même prévu d’investir 80 milliards de dollars dans l’infrastructure nécessaire au fonctionnement de ses modèles d’IA générative. Au total, Meta, Amazon, Alphabet et Microsoft pourraient dépenser jusqu’à 320 milliards de dollars dans le cadre de leur course à l’IA.
Dévoilé peu après l’investiture de Donald Trump, le projet « Stargate » mené par Open AI et SoftBank grimperait de son côté jusqu’à 500 milliards de dollars.
En France, dans la même logique, le Sommet sur l’IA a été l’occasion d’annoncer l’identification de 35 sites pour créer de nouveaux data centers. Le président de la République a par ailleurs annoncé cent neuf milliards d’euros d’investissements dans le domaine.
Si la France se targue de proposer de l’énergie « propre », car nucléaire, les data centers y gardent néanmoins des générateurs de secours alimentés au fioul. À la Courneuve, au nord de Paris, ce type de cas de figure avait même provoqué des tensions avec les riverains, inquiets du danger que représentaient ces cuves, au milieu des années 2010.
Dans de nombreuses régions du monde, ces infrastructures comme les usines de semi-conducteurs, aussi étudiés par les auteurs de l’étude, créent aussi des problématiques d’accès à l’eau.