Visé par une cyberattaque le 16 juillet 2025, Allianz Life indique à TechCrunch que les données personnelles d’une « majorité » de ses clients états-uniens ont fuité.
L’attaque a été opérée par l’intermédiaire d’un système de gestion client (CRM) tiers.
D’après un représentant de l’entreprise, elle a permis, « par des techniques d’ingénierie sociale », d’obtenir l’accès à des informations personnelles de clients particuliers, financiers et professionnels d’Allianz Life, ainsi que de certains employés de l’assureur.
La filiale nord-américaine de l’assureur allemand compte 1,4 million de clients – Allianz en compte 125 millions à travers la planète.
La société est la dernière d’une liste croissante d’acteurs de l’assurance visés ces derniers mois par des cyberattaques. D’après des chercheurs de Google en juin, plusieurs de ces opérations portent les marques du collectif de hacker Scattered Spider.
Forte d’un succès fulgurant aux États-Unis, l’application Tea a été victime d’un double piratage.
Le projet a été créé avec une promesse apparemment simple : permettre aux femmes hétérosexuelles de faire des rencontres « en toute sécurité », selon la communication de l’application, en s’échangeant des informations sur les hommes qu’elles ont rencontrés ou s’apprêtent à rencontrer.
Si l’application a bientôt deux ans, elle s’est félicitée fin juillet d’avoir dépassé les quatre millions d’utilisatrices (aux États-Unis : Tea n’est pas disponible en France). Et s’est attirée au passage la colère de nombreux hommes en ligne, peu ravis de se voir accolés des « red flags » (drapeaux rouges, signe de danger) ou des « green flags » (drapeaux verts) sur une application à laquelle ils n’avaient pas accès.
La controverse aurait pu s’arrêter là, sur fond de débat post-#MeToo sur les attentes de femmes et des hommes lorsqu’elles et ils recourent à des applications de rencontre et les risques que chacun encourt. Sauf que Tea a été victime d’un double piratage, dans lesquels 72 000 images, dont une large proportion servait à l’identification des utilisatrices, et des messages privés, ont fuité. Une faille de sécurité susceptible de mettre certaines internautes en danger.
Échanger des informations sur de potentiels partenaires
Créée en 2023 par l’entrepreneur états-unien et ancien employé de Salesforce Sean Cook, le projet affiché de Tea est de fournir aux femmes un outil qui leur permette « de faire des rencontres en toute sécurité dans un monde qui oublie généralement de se préoccuper de leur protection ». Sean Cook affirme en avoir eu l’idée après avoir suivi les déboires de sa mère, victime d’arnaques et qui aurait rencontré des hommes aux casiers judiciaires remplis.
Pour s’inscrire à Tea, l’application – réservée aux femmes – demande à ses utilisatrices de lui fournir un selfie. Une fois leurs accès créés, ces dernières peuvent s’échanger des informations sur les hommes qu’elles ont rencontrés, ou qu’elles s’apprêtent à rejoindre. En pratique, chacune peut poster les photos d’un homme pour partager ses informations sur lui – a-t-il un passé judiciaire ? Est-il marié ? Fréquente-t-il plusieurs femmes à la fois ? – ou en demander aux autres internautes.
Une fois la photo en ligne, chacune peut ajouter ses commentaires, un drapeau rouge ou un drapeau vert. Autre fonctionnalité : Tea permet aux utilisatrices de repérer les « catfishers », ou arnaqueurs, qui s’approprient les photos d’autres hommes et se font passer pour eux.
Double piratage
Fin juillet, aux États-Unis, le nombre d’usagères de Tea s’est envolé, entraîné par une polémique sur son fonctionnement et l’alimentant. Sur Reddit, des internautes s’alertent sur le fait que Tea puisse être utilisé pour diffuser de fausses informations, et appellent à la suppression de l’application. En parallèle, l’application se hisse au sommet des applications gratuites les plus téléchargées sur l’App Store d’Apple aux États-Unis.
Surtout, Tea est visée par un double piratage. 72 000 images stockées dans l’application en ont été exfiltrées avant d’être postées sur 4chan, rapporte 404 media. Dans le lot, 13 000 selfies et images de cartes d’identité d’utilisatrices, toutes inscrites avant février 2024, d’après Tea. L’entreprise a précisé que ces images ne pouvaient « en aucun cas être liées à des publications dans Tea », théoriquement publiées anonymement.
Problème : 404 media rapporte une deuxième faille, grâce à laquelle les hackers auraient pu accéder aux conversations privées. En jeu : des discussions relatives à des avortements – interdits dans plusieurs États américains –, le fait de tromper son partenaire, ou encore des échanges de numéros de téléphone en clair.
D’après les informations collectées par le chercheur indépendant Kasra Rahjerdi, plus de 1,1 million de messages publiés jusqu’à la semaine passée ont ainsi été accessibles. D’après 404 media, ces éléments sont suffisamment précis pour rendre leurs autrices – dont certaines découvrent qu’elles fréquentent le même homme, ou d’autres se signalent la présence d’un époux ou d’une épouse sur la plateforme – très simplement identifiables.
En préparation depuis des mois, le mode Copilot est désormais disponible dans la version stable du navigateur, sous forme expérimentale d’abord. Optionnelle, la fonction doit permettre de mieux lutter contre une concurrence qui s’intensifie dans le domaine des navigateurs.
Microsoft doit avancer rapidement sur le terrain de la navigation, car les concurrents s’organisent. On savait que l’éditeur préparait depuis des mois un mode Copilot plus intégré dans son navigateur Edge. Il fallait bien que l’entreprise réagisse, face à un Google qui va faire de même dans Chrome avec Gemini, avec la force de frappe qu’on imagine. Perplexity prépare également son Comet, actuellement en bêta privée.
Une fonction optionnelle et classique dans sa forme
Depuis hier soir, Copilot est ainsi disponible sous forme expérimentale dans tous les canaux de distribution d’Edge, dont la version stable, mais uniquement sur Windows et Mac pour l’instant. On peut soit se rendre sur une page dédiée pour activer la fonction et suivre une courte présentation des possibilités, soit aller dans les options du navigateur, puis dans la section « Innovations de d’IA » (sic). Le mode Copilot est présenté comme une « fonctionnalité entièrement opt-in », Microsoft ayant été échaudé par certaines affaires, dont Recall.
Que peut-on faire avec ce mode ? À peu près tout ce que l’on attend de ce type de fonction. On peut ainsi poser des questions sur l’onglet en cours, sur un groupe d’onglets et jusqu’à l’intégralité des pages ouvertes (si l’autorisation est donnée). On peut ainsi demander des comparaisons, des synthèses d’informations, des recommandations basées sur différentes actions, etc. L’éternel exemple de l’organisation d’un voyage est de retour. On note que tout n’est pas encore prêt pour les autres langues que l’anglais, une partie des informations n’étant pas traduite dans l’interface et la présentation.
Un mode vocal est présent, mais nous n’avons pas réussi à le faire fonctionner. De même, une fois activé, le mode Copilot est censé afficher un bouton d’accès à gauche de la barre d’adresse. Une zone plus pratique que ce qui a été tenté jusqu’à présent, et dont l’action ouvre un panneau flottant, plus discret que les gros panneaux latéraux ancrés que Microsoft avait proposés. Dans notre cas, ce bouton n’est pas apparu.
Bientôt un accès optionnel à l’historique
La fonction devrait rapidement s’enrichir, selon Microsoft. On pourra donner ainsi l’autorisation à Copilot d’accéder à des données supplémentaires si besoin, dont l’historique et les informations d’identification. À la clé, des actions « plus avancées et plus transparentes, comme réserver des places ou gérer des courses en votre nom ».
L’entreprise donne l’exemple d’une personne cherchant à faire du paddle proche de son lieu de travail. Copilot tâche alors de trouver la meilleure option, vérifie la météo, peut gérer la réservation, suggère de la crème solaire et cherche des tutos vidéo pour préparer la session. Du moins en théorie, selon Microsoft.
Toujours dans les développements prévus, la fonction devrait bientôt tenir davantage compte du contexte sur des périodes plus prolongées, pour aider à reprendre là où les internautes se sont arrêtés. Microsoft insiste largement sur la dimension confidentialité, répétant notamment que certaines fonctions ne pourront donner des résultats que si l’accès à l’historique de navigation est accordé. Accès qui peut être coupé quand on le souhaite, réitère l’entreprise.
Des données traitées à distance
En revanche, sur la manipulation des données, il n’y a pas de mystère : elles sont traitées sur les serveurs de l’entreprise. Au vu des fonctions fournies, on se doutait bien que le traitement n’était pas local, d’autant qu’une telle opération aurait probablement été réservée aux PC Copilot+, avec la garantie de disposant d’un NPU assez puissant. Pas le temps d’attendre que ces machines se démocratisent de toute façon : la réponse aux concurrents ne peut pas être circonscrite à un nombre limité de machines.
Microsoft devrait procéder à d’autres annonces dans les prochains mois, la disponibilité de l’IA dans le navigateur étant le prochain grand champ de bataille, avec l’arrivée progressive des agents autonomes.
Anthropic dit avoir enregistré une croissance significative dans l’utilisation de ses modèles Claude, tout particulièrement à travers Claude Code, son assistant d’aide au développement. Certains utilisateurs abuseraient cependant de leurs abonnements. Une personne aurait ainsi utilisé sa formule Max (200 dollars par mois) pour faire fonctionner Code durant des centaines de milliers d’heures.
La société affirme que ces comportements ont un impact sur la qualité de service pour l’ensemble des utilisateurs. En conséquence, elle introduit de nouvelles limites hebdomadaires, qui entreront en application le 28 août et viendront s’ajouter à l’actuelle limite de 5 heures par jour :
Abonnement Pro (18 euros par mois) : de 40 à 80 heures d’utilisation avec Claude Sonnet 4
Abonnement Max (90 euros par mois) : de 140 à 280 heures d’utilisation avec Sonnet 4 et de 15 à 35 heures avec Opus 4
Abonnement Max (180 euros par mois) : de 240 à 480 heures d’utilisation avec Sonnet 5 et 24 à 40 heures avec Opus 4
Anthropic assure que l’immense majorité des personnes abonnées ne verront aucune différence dans leur utilisation quotidienne. Ce changement serait destiné uniquement à contrer certains comportements abusifs, comme les partages de comptes et les utilisations continues 24/7. Selon l’entreprise, moins de 5 % des abonnés seraient affectés par ces changements.
Il est difficile cependant de se rendre compte de ce que ces limites impliquent vraiment, car la société communiquait surtout sur une base de jetons jusqu’à présent. La formule Max à 180 euros par mois est sensée par exemple permettre 20 fois plus d’utilisation que l’abonnement Pro. Mais si on ramène la comparaison sur les heures annoncées, le facteur n’est plus que de 6.
Anthropic contacte actuellement toutes les personnes ayant un abonnement pour les avertir du changement. L’entreprise se dit prête à recevoir les retours sur ce dernier.
Après Signal, d’autres outils ont décidé de bloquer par défaut la fonction de Microsoft, citant des questions de confidentialité des données. Bien que les navigateurs aient certaines latitudes, la situation souligne l’absence d’une API centralisée pour manipuler Recall.
La fonction Recall de Microsoft n’a pas fini de faire parler d’elle. Elle sera normalement déployée dès cet automne en version finale sur l’ensemble des ordinateurs compatibles. Liste qui se limite aux machines estampillées Copilot+ et disposant donc d’un NPU suffisamment puissant.
Si Recall provoque autant de réactions, c’est qu’elle prend régulièrement des captures d’écran pour analyser leur contenu. Objectif : permettre de retrouver à peu près tout et n’importe quoi, comme un gigantesque historique de tout ce que l’on a fait sur un PC.
Signal, premier à dégainer
Rapidement, de nombreuses critiques s’étaient élevées pour dénoncer le cauchemar que représentait Recall pour la vie privée. Au point que Microsoft était reparti sur sa planche à dessin et avait profondément revu son fonctionnement, chiffrant tout le contenu, réclamant une authentification pour l’accès et faisant de Recall une fonction opt-in, désactivée par défaut.
En mai, la fondation Signal annonçait que le client Windows de son service de messagerie bloquait désormais par défaut Recall. Ces derniers jours, d’autres ont fait de même.
Brave et AdGuard s’y mettent
Le navigateur tout d’abord, qui a annoncé lui aussi un blocage par défaut le 22 juillet. À ceci près que dans son cas, le changement était beaucoup plus simple. Le mécanisme de Microsoft se coupe automatiquement quand une fenêtre de navigation privée d’un navigateur est affichée. Là où Signal avait dû « bricoler » une solution complète, allant jusqu’à couper complètement la possibilité de prendre des captures, Brave a modifié son navigateur pour que toutes les fenêtres soient considérées comme privées.
L’éditeur ne cherche d’ailleurs pas à s’en cacher, indiquant avoir été « partiellement inspiré » par le travail réalisé par Signal.
AdGuard, qui fait du blocage de certaines fonctions peu vertueuses sur la vie privée son fonds de commerce, a également annoncé du neuf pour Recall. Dans la dernière révision de l’outil, une option a été ajoutée pour bloquer la fonction. Un ajout étrange cependant, puisque Recall n’est pas actif à moins d’avoir été spécifiquement été autorisé (Windows pose la question dans son assistant de première configuration sur les machines compatibles).
Optionnelle et désinstallable, mais sans vraie API
Rappelons que dans la version que Microsoft s’apprête à distribuer plus largement, Recall est une application dédiée qui peut être désinstallée. Pour les personnes intéressées, des options ont été ajoutées pour interdire son fonctionnement quand certains sites ou des applications spécifiques apparaissent à l’écran.
Il faudrait cependant que Microsoft propose une API complète permettant de manipuler les réglages de Recall depuis les applications, avec consentement auprès de l’utilisateur.
Pour la première fois, le magazine Vogue a publié une publicité dans laquelle la model n’était pas humaine, mais correspondait à des standards tout à fait classiques : grande, blonde aux yeux bleus, bronzée.
La marque Guess a recouru à l’IA pour générer le corps et le visage – littéralement irréels – destinés à mettre en valeur ses vêtements. La campagne a été créée par l’agence Seraphinne Vallora, qui s’est fendue d’une publication sur Instagram afin de se féliciter pour son travail.
Auprès de la BBC, la top modèle grande taille Felicity Hayward s’inquiète de la tendance que cette publicité pourrait lancer.
Depuis une dizaine d’années, les standards de plusieurs marques avaient évolué pour tenter d’intégrer un peu plus de diversité dans les représentations de corps et d’habillements dans les magazines et publicité de mode.
Plusieurs modèles avaient aussi pris position contre l’édition et la retouche abusive des photos de mode. Si les modèles générées par IA se généralise, s’inquiète Felicity Hayward et des représentantes d’associations de lutte contre les troubles de l’alimentation, le public pourrait chercher à atteindre des standards de beauté littéralement inatteignables, dans la mesure où les corps représentés n’existent pas.
Le problème est d’autant plus important que du côté des réseaux sociaux, le succès des filtres générés par IA pousse déjà de nombreux jeunes à recourir à la chirurgie esthétique pour faire ressembler leur visage aux reflets modifiés que leur renvoient leurs applications.
Après neuf mois d’enquête, la Commission européenne conclut à titre préliminaire que Temu enfreint le DSA et risque une amende pouvant atteindre 6 % de son chiffre d’affaires annuel mondial. La balle est maintenant dans le camp de la plateforme chinoise qui peut répondre avant que le couperet ne tombe.
La Commission européenne a commencé à s’intéresser à la plateforme d’e-commerce chinoise Temu en octobre dernier, avec une demande d’information formelle (RFI) dans un premier temps. L’Europe voulait avoir des précisions sur plusieurs points, notamment les mesures prises pour limiter la présence et la réapparition de produits illégaux sur sa plateforme.
L’attente fut de courte durée puisque, fin octobre, la Commission européenne ouvrait une « procédure formelle à l’encontre de Temu au titre de la législation sur les services numériques », le fameux DSA. Temu est pour rappel identifié comme une très grande plateforme en ligne (VLOP) depuis le 31 mai 2024.
« Un risque élevé pour les consommateurs »
Les premières conclusions de l’enquête sont tombées : « la Commission a conclu à titre préliminaire que Temu avait manqué à l’obligation qui lui incombe en vertu de la législation sur les services numériques (DSA) d’évaluer correctement les risques de diffusion de produits illicites sur son marché ».
Dans son communiqué, la Commission affirme que des preuves montrent « qu’il existe un risque élevé pour les consommateurs de l’UE de rencontrer des produits illégaux sur la plateforme », notamment des « jouets pour bébés et des petits appareils électroniques ».
La Commission affirme aussi que l’évaluation des risques de Temu d’octobre 2024 « était inexacte et reposait sur des informations générales du secteur plutôt que sur des détails spécifiques concernant son propre marché ». La plateforme avait pourtant assuré prendre « des mesures importantes » et « affiner » ses pratiques, rappelle l’AFP.
Jusqu’à 6 % du chiffre d’affaires annuel mondial
Face à ces conclusions préliminaires, la plateforme a maintenant la possibilité d’examiner le dossier d’enquête de la Commission et d’y répondre.
Si les conclusions préliminaires devaient être confirmées, une décision de non-respect de l’article 34 du DSA serait adoptée : « Une telle décision pourrait entraîner des amendes pouvant aller jusqu’à 6 % du chiffre d’affaires annuel mondial total du fournisseur et lui ordonner de prendre des mesures pour remédier à l’infraction ».
Selon Euractiv, « la plateforme chinoise dispose de quelques semaines pour réagir », mais « Bruxelles n’a toutefois fixé aucune date butoir précise pour la réponse de Temu ». « Nous continuerons à coopérer pleinement avec la Commission européenne », s’est contenté d’indiquer un porte-parole de Temu par email à nos confrères.
L’enquête officielle se poursuit, car le Vieux continent a d’autres griefs à reprocher à Temu : « l’efficacité de ses mesures d’atténuation, l’utilisation de caractéristiques de conception addictives, la transparence de ses systèmes de recommandation et son accès aux données pour les chercheurs ».
Temu qualifié de « point d’entrée pour des produits illégaux »
La Commission européenne n’est pas la seule entité à être montée au créneau. En février, le BEUC dénonçait rien moins que « des trous béants dans la sécurité des produits vendus sur Temu ». Les griefs étaient nombreux là aussi : risque de suffocation à cause de petites pièces de jouets et de produits pour bébés trop facilement détachables, listes d’ingrédients incorrects dans les cosmétiques, radiateurs électriques extrêmement dangereux, etc.
Agustín Reyna, directeur général du BEUC, ne mâchait pas ses mots : Temu est « un point d’entrée pour des produits illégaux qui n’ont pas leur place sur nos marchés ». Le Bureau demandait donc à la Commission de terminer son enquête au plus vite et de prendre des mesures dissuasives et efficaces contre Temu.
Selon l’AFP, Temu est « extrêmement populaire dans l’UE malgré une arrivée récente sur le marché en 2023, Temu compte 93,7 millions d’utilisateurs actifs mensuels en moyenne dans les 27 États membres ».
Des milliards de petits colis provenant de Chine
Au niveau européen, la Commission prépare la mise en place de droits de douane spécifiques pour les milliards de petits colis qui arrivent chaque année (ils seraient 4,6 milliards d’une valeur déclarée inférieure à 150 euros, majoritairement provenant de Chine).
« Nous parlons de deux euros par colis, payés par les plateformes et pour les services offerts par les entrepôts, ce serait plus modeste, à 50 cents », expliquait le commissaire européen au Commerce, Maroš Šefčovič.
Pour la Commission, l’enjeu est important : « L’augmentation constante du volume de produits vendus en ligne dans l’UE s’accompagne d’une augmentation du nombre de produits dangereux, contrefaits ou non conformes, qui pourraient nuire à la santé et à la sécurité des consommateurs, à l’environnement et à une concurrence loyale au sein du marché unique numérique ».
Une autre plateforme chinoise est sous le coup de plusieurs enquêtes au niveau français et européen : Shein. Elle a accepté de payer 40 millions d’euros en France suite à une enquête de la Répression des fraudes qui avait conclu que l’entreprise avait mis en place des pratiques commerciales trompeuses. Une amende de 1,1 million d’euros est tombée dans la foulée pour « information défaillante sur la qualité environnementale des produits ».
Alors que les tensions grimpent autour des licences VMware, l’Open Infrastructure Foundation rejoint officiellement la Linux Foundation. Cette « fusion » permet à OpenStack de rejoindre un large écosystème d’autres solutions, avec lesquelles les synergies seront d’autant mieux travaillées.
En mars dernier, les deux fondations signaient un accord important. L’Open Infrastructure Foundation – anciennement OpenStack Foundation – rejoignait la Linux Foundation, probablement la structure la plus importante de ce type dans le monde du logiciel libre. Elle chapeaute en effet de nombreux projets et coordonne de vastes efforts. Elle se définit d’ailleurs elle-même comme une « fondation de fondations ».
Si cette fusion est intéressante, c’est parce qu’OpenStack a largement gagné en visibilité ces dernières années, et tout particulièrement depuis un an et demi. Suite au rachat de VMware par Broadcom pour la somme gargantuesque de 61 milliards de dollars, de fortes tensions sont apparues autour des licences de produits. Broadcom a supprimé nombre d’entre elles, préférant des formules sur abonnement souvent plus onéreuses, car regroupant de nombreux produits, y compris quand on en souhaite qu’un ou deux.
En mars dernier, on apprenait que les conseils d’administration de l’Open Infrastructure Foundation et de la Linux Foundation avaient approuvé à l’unanimité l’incorporation de la première au sein de la seconde. La signature a été un signal fort, annonçant que des synergies plus fortes allaient naître entre OpenStack et d’autres projets, en particulier avec Kubernetes.
Depuis le 23 juillet, OpenStack et ses projets attenants sont officiellement gérés par la Linux Foundation. On y retrouve donc d’autres produits comme Kata Containers, Zuul, StarlingX et Airship. Leur gouvernance technique passe donc entre les mains de la Linux Foundation même si, dans la pratique, la plupart des personnes impliquées sont toujours là.
L’objectif d’OpenStack – créer une infrastructure cloud ouverte – est parfaitement aligné avec ceux de la Linux Foundation (et du libre en général). Tous les projets gérés jusqu’ici par l’Open Infrastructure Foundation (OpenStack Foundation initialement en 2012) héritent donc des ressources de la Linux Foundation, dont les outils, le pilotage, le support juridique, tout ce qui touche à la gouvernance et à l’organisation, ainsi que les opportunités de rapprochement avec des centaines d’autres projets.
Rapprochement avec Kubernetes
Canonical se réjouit particulièrement de cette fusion. L’éditeur aime à rappeler qu’il a fait partie des premiers contributeurs d’OpenStack à sa création en 2010 (issu d’un partenariat entre la NASA et Rackspace). L’entreprise dit avoir été rapidement « profondément impressionnée » par la vision et la mission du projet et est aujourd’hui son troisième plus gros contributeur, avec 25 000 commits jusqu’à présent.
Canonical note que l’évolution d’OpenStack s’est faite en parallèle d’un autre avènement : celui de Kubernetes. Dans son sillage, la manière de déployer et d’exécuter des applications s’est largement transformée, signant l’explosion des solutions basées sur des conteneurs logiciels. Or, selon Canonical, si Kubernetes excellait à gérer des applications, il « manquait de capacités de gestion de l’infrastructure ». De ce constat sont nées les premières idées de convergence avec OpenStack. Un esprit de collaboration qui aurait d’abord rencontré « quelques frictions initiales », mais les deux communautés auraient assez vite reconnu « la valeur de l’alignement de leurs efforts ».
Plus concrètement, OpenStack continuera d’être géré comme un projet autonome, « mais désormais dans le cadre d’un écosystème unifié qui inclut également Kubernetes ». Les deux sont considérés comme des technologies complémentaires.
Rappelons que Kubernetes n’est pas directement géré par Linux Foundation, mais par la Cloud Native Computing Foundation (CNCF), qui en est une émanation. La CNCF est une fondation spécialisée dans les technologies « cloud-native » (conteneurs, orchestration, microservices…)
Momentum
On ne sait pas si les discussions ayant entrainé cette fusion de deux fondations est une conséquence du rachat de VMware par Broadcom, mais il est probable que l’opération ait joué au moins un rôle de catalyseur. Sur le blog d’OpenStack, on peut lire un billet datant du 18 juin revenant sur le sujet.
Les éléments sont désormais connus : la suppression de produits, les changements radicaux dans les licences, l’incertitude chez les entreprises clients et les questionnements sur les solutions logicielles à apporter. Dans ce contexte, un produit libre et gratuit attire les regards.
Rapidement, la question de la complexité a été de toutes les conversations : les approches très différentes rendaient les projets de migration complexes et couteux. OpenStack en profitait d’ailleurs pour publier très officiellement son guide de migration depuis VMware. En octobre 2024, quand a été lancée la 30ᵉ version d’OpenStack, la simplification des migrations figurait également partie les nouveautés principales.
Encore à l’état de prototype, le projet européen d’application de vérification d’âge intègre pour le moment un système d’authentification développé par Google.
Le 14 juillet, la Commission européenne dévoilait les détails de son projet de protection des mineurs en ligne, prototype d’application de vérification de l’âge inclus. Dans les prochains mois, la France, qui soutenait le projet depuis plusieurs années, le Danemark, l’Italie, l’Espagne et la Grèce pourront intégrer l’outil à leurs propres applications nationales d’identification, ou choisir de créer une application indépendante.
Mais il y a un hic. Sur Github et sur Reddit, plusieurs internautes critiquent la direction prise par le prototype open source, à la fois pour des raisons techniques et d’autonomie stratégique. En effet, le projet d’application repose pour le moment sur l’API Play Integrity de Google pour la vérification des applications et des appareils.
Le rôle de Play Integrity est de vérifier que le système d’exploitation est sous licence Google, et que l’application que vous téléchargez l’est depuis le Play Store, rappelle Neowin. Autrement dit, si vous décidiez de télécharger les applications nationales recourant à l’outil de vérification d’âge de la Commission européenne depuis un système Android qui n’est pas sous licence Google, alors celle-ci ne fonctionnerait pas.
Par ailleurs, la présence même d’un acteur états-unien comme Google hérisse plus d’un internaute. Sur le fil Reddit « BuyFromEu » (achetez européen), un internaute précise : « bien qu’il soit utile de vérifier la sécurité de l’appareil », le recours à cette solution précise « lie fortement l’application à de nombreux services et propriétés de Google, car ces vérifications ne passeront pas avec un système d’exploitation Android alternatif, pas même avec ceux qui améliorent considérablement la sécurité comme GrapheneOS (…). Cela signifie également que même si vous pouvez compiler l’application, vous ne pourrez pas l’utiliser car elle ne proviendra pas du Play Store et le service de vérification l’âge la rejettera. »
Recourir à des services européens ?
Sur Reddit, plusieurs internautes soulignent que des problématiques similaires existent avec des applications nationales de vérification d’identité (MitID au Danemark, BankID en Norvège). Les solutions qu’ils indiquent pouvoir utiliser – tout en redoutant que cela ne dure pas sur le long terme – consistent généralement à passer par une clé physique.
Pour parer la problématique spécifique au projet d’outil de vérification d’âge, certains internautes recommandent des outils européens, parmi lesquels l’application hollandaise Yivi, déjà dédiée à de la vérification d’âge. À l’heure actuelle, les développeurs du projet européen n’ont pas fait de commentaire sur le sujet.
Ce bug de l’an 2038 est similaire à celui de l’an 2000 : à cause d’un codage de la date dans un espace trop petit, le compteur risque de revenir à zéro une fois la limite atteinte. Pour le 1er janvier 2000, le risque était ainsi de voir la date revenir à 00, soit 1900.
Le problème réside cette fois dans le « timestamp Unix ». Il compte les secondes écoulées depuis le 1er janvier 1970 à minuit, heure UTC. Pour stocker cette valeur, les systèmes Unix et Linux se servent d’une valeur de type « signed 32-bit integer », dont la valeur positive maximale est de « + 2 147 483 647 ».
Dans la situation qui nous occupe à présent, cette valeur sera atteinte le 19 janvier 2038 à 03:14:07 UTC très précisément. La seconde suivante, le dépassement entrainera un retour à la valeur négative minimale de l’entier 32 bits, soit « - 2 147 483 64 », ce qui correspond à 1901.
Photo de Anirudh sur Unsplash
Face à un entier 32 bits limité, la solution est évidente : passer au 64 bits. Ce mouvement est en cours depuis un moment déjà, mais pas partout. Chez Debian, dont la distribution sert de socle à Ubuntu et donc à de très nombreux autres systèmes, ce changement sera officialisé dans la version 13, nommée Trixie.
Comme l’équipe l’indique, le travail n’a pas été de tout repos. Il ne suffit pas en effet de changer le codage de la valeur pour que tout s’enchaine : tous les paquets y faisant référence doivent être modifiés. Dans le cas présent, pas moins de 6 429 paquets ont été identifiés comme utilisant au moins une fois la variable.
Debian 13 et tous ces paquets repérés utiliseront donc le format time_t 64 bits, même sur les architectures 32 bits. Pour les systèmes existants, le time_t 32 bits sera laissé en place pour ne pas casser la compatibilité sur les anciennes architectures. Sur le matériel 64 bits (très largement majoritaire), la bascule sera automatique.
Ce changement dans le codage de la valeur intervient 12 ans et demi avant la manifestation du problème. Quant au 64 bits, il fait disparaitre « définitivement » le problème, puisque la limite ne sera atteinte que dans… 292 milliards d’années.
Dans de nombreux États américains, la hausse de la demande en énergie des centres de données se répercute sur les factures des citoyens.
Que se passe-t-il avec le prix de l’électricité aux États-Unis ? À Trenton, dans le New Jersey, la facture moyenne a augmenté de 26 dollars, raconte le Washington Post. À Philadelphie, en Pennsylvanie, elle a grimpé de 17 dollars. Et à Columbus, dans l’Ohio, de 27 dollars.
En cause : l’explosion du nombre de centres de données qui, en consommant toujours plus d’électricité, participent à l’augmentation des factures d’électricité de millions de personnes – y compris celles qui n’utilisent ni services de cloud, ni technologies d’intelligence artificielle.
Qualité du service altérée et prix augmentés
Dans l’Ohio, la demande de sociétés comme Google, Meta, Microsoft ou Amazon a ainsi directement participé à l’augmentation moyenne de 20 dollars mensuel des factures d’électricité des résidents. Sur l’année, cela représente une hausse de 240 dollars, que plusieurs habitants qualifient d’ « injuste », dans la mesure où elle permet de soutenir des sociétés dont les profits se chiffrent en milliards de dollars.
La tendance n’est pas neuve, et ne se traduit pas que financièrement. Fin 2024, de nettes altérations du courant électrique étaient ainsi constatées dans de nombreux foyers installés dans un rayon de moins de 80 km de centres de données, en particulier dans la région de la « data center alley ». C’est dans cette zone de Virginie du Nord que l’essentiel des centres de données états-uniens sont installés.
Ailleurs dans le monde, la consommation d’énergie des centres de données a déjà eu pour conséquence la suspension de projets de construction de logements, faute de pouvoir les alimenter en énergie, ou au contraire de bloquer la construction de nouveaux data center, pour s’assurer que la répartition d’électricité puisse être maintenue.
Là où, comme en France, la production d’énergie est excédentaire, la multiplication des centres de donnée pose néanmoins des enjeux en termes d’infrastructure et de capacité de raccordement.
Aux États-Unis, un rapport mené par Data Center Watch entre mars 2024 et mars 2025 constate que l’équivalent de 64 milliards de dollars de projets de data center sont actuellement bloqués ou retardés à travers le pays. En cause : ces questions d’accès à l’énergie, celle d’accès à l’eau pour refroidir les serveurs, mais aussi les pollutions spécifiques à ce type d’établissement, notamment en termes sonores.
Outre les communautés locales, les représentants politiques font partie intégrante de l’opposition qui se dessine. En Ohio, les régulateurs de l’énergie viennent par exemple de décréter que les opérateurs de centres de données doivent augmenter leur participation financière pour mettre à niveau le réseau électrique – une décision que le groupement industriel Data Center Coalition a qualifié de « très décevante » auprès du Washington Post.
L’opération avait été annoncée il y a tout juste un an, pour un montant de plus de 8 milliards de dollars. Cet accord du régulateur américain arrive après « des changements de ligne éditoriale au sein de la chaîne CBS [propriété de Paramount, ndlr], une condition très atypique », explique Le Monde :
Dans le communiqué de la FCC, le premier point mis en avant concerne justement CBS : « Skydance s’engage en faveur de la diversité des points de vue, de la non-discrimination » et de reportages locaux. Brendan Carr, président de la FCC en ajoute une couche :
« Skydance s’est notamment engagée par écrit à ce que la programmation de la nouvelle société reflète la diversité des points de vue, issus de tous les horizons politiques et idéologiques. Skydance adoptera également des mesures visant à éliminer les préjugés qui ont miné la confiance dans les médias nationaux ».
Comme le rappellent nos confrères, « Donald Trump a régulièrement critiqué CBS, l’accusant d’être « hors de contrôle » ». Le feu vert de la FCC arrive « au terme d’une séquence qui aura vu Paramount solder [pour 16 millions de dollars, ndlr], début juillet, un contentieux judiciaire avec Donald Trump, puis annoncer la fin de l’émission « The Late Show », dont l’animateur, Stephen Colbert, est très critique du président américain ».
Avec cette transaction à 16 millions de dollars, certains accusent Paramount « d’acheter les faveurs du président pour obtenir le feu vert de la FCC », toujours selon Le Monde. Pour Stephen Colbert (présentateur du Late Show) cela ne fait aucun doute : c’est un « bon gros pot-de-vin ».
« L’Amérique mérite de savoir si son émission a été annulée pour des raisons politiques », ajoute Elizabeth Warren, sénatrice démocrate du Massachusetts, comme le précise l’AFP.
La nouvelle mouture du noyau Linux est sortie ce dimanche 27 juillet. Une version assez attendue, car contenant de nombreuses améliorations pour le matériel, que l’on parle de support ou de performances. On trouve bon nombre d’apports pour Intel, AMD et NVIDIA notamment.
SEV chez AMD, TDX chez Intel
Chez AMD par exemple, avec d’importants changements dans le pilote et sous-système AMD-SBI, avec à la clé une meilleure surveillance de la puissance et de la température. La Secure Encrypted Virtualization (SEV) est enfin supportée, pour renforcer la sécurité des machines virtuelles chiffrées (sur serveurs utilisant des processeurs AMD). Le nouveau noyau identifie en outre plus facilement les plantages et causes de réinitialisation sur l’ensemble des processeurs Zen.
Côté Intel, on trouve aussi des améliorations pour la sécurité des machines virtuelles, avec le support de l’hôte Trust Domain Extensions (TDX) pour KVM pour renforcer l’isolation. La surveillance du matériel est là aussi renforcée, notamment la température, permettant notamment l’apparition de garde-fous pour l’overclocking.
Le noyau 6.16 introduit également une nouvelle option de compilation X86_NATIVE_CPU. Comme son nom l’indique, elle permet aux personnes compilant elles-mêmes leur noyau de forcer une optimisation sur les capacités spécifiques du processeur utilisé. L’option devrait améliorer les performances sur le matériel récent, pour mieux tirer parti des jeux d’instructions.
Blackwell et Hopper de NVIDIA
Côté GPU, la prise en charge des architectures Blackwell et Hopper de NVIDIA a été ajoutée au pilote « Nouveau ». Les puces Intel reçoivent plusieurs améliorations, dont le support de la fonction Link-Off Between Frames (LOBF) pour les ordinateurs portables, pour économiser l’énergie. Outre des correctifs, le pilote Intel Xe sait maintenant indiquer la vitesse des ventilateurs.
Parmi les autres améliorations, on en trouve beaucoup pour le système de fichiers bcachefs, surtout sur les performances. Cependant, comme le notait It’s FOSS News fin juin, l’avenir de ce support dans le noyau est incertain, Linus Torvalds n’ayant pas apprécié les derniers échanges avec le mainteneur principal du projet. Signalons aussi des améliorations de performances pour Btrfs, le support de l’écriture atomique dans XFS ou encore le support d’Intel QAT dans EROFS.
Comme toujours, l’installation de nouveau noyau dépend de la distribution Linux utilisée. Souvent, sur les systèmes dits classiques, le noyau ne change vraiment qu’avec la version majeure suivante. Sur les distributions de type rolling release, comme Arch Linux et openSUSE Tumbleweed, le noyau devrait être très rapidement proposé, si ce n’est déjà fait. Dans tous les cas, il existe des mécanismes pour forcer l’installation d’un nouveau noyau, mais la manipulation n’est pas recommandée, à moins de savoir ce que vous faites.
Samsung fournira Tesla en puces nécessaires au développement de technologies d’intelligence artificielle pendant les huit prochaines années.
D’un montant de 16,5 milliards de dollars, le contrat est le plus gros que le département dédié aux puces électroniques de Samsung n’ait jamais signé avec un unique client.
Dans ce cadre, l’entreprise sud-coréenne aura pour mission de construire des puces AI6 dans son usine installée au Texas. Ces dernières doivent servir aux fonctionnalités de conduite autonome de Tesla ainsi qu’à ses technologies de robots humanoïdes.
Hanna Barakat & Archival Images of AI + AIxDESIGN / Better Images of AI
Musk souhaiterait aussi les voir utilisées dans ses centres de données pour booster l’entrainement de modèles d’IA sur des contenus vidéos, d’après le Financial Times.
Elon Musk rappelle que Samsung fabrique déjà les AI4, tandis que c’est TSMC qui est aux manettes pour les AI5. Ce contrat est une réelle victoire pour Samsung, qui peine à se démarquer de son rival et leader du secteur, Taiwan Semiconductor Manufacturing Company (TSMC).
Au CERN (Organisation européenne pour la recherche nucléaire) les publications ne prennent pas de vacances. Les chercheurs annoncent « la mise en évidence du premier bit quantique d’antimatière […] pourrait permettre d’améliorer considérablement les tests sur les symétries fondamentales de la nature ».
Ils ont ainsi fait « osciller un antiproton – l’alter ego du proton dans l’antimatière – entre deux états quantiques pendant près d’une minute alors qu’il était piégé ». Ces travaux font l’objet d’une publication scientifique dans Nature.
Les scientifiques pourront ainsi « tester avec une grande précision les lois fondamentales de la nature, notamment la symétrie charge-parité-temps. Selon cette symétrie, la matière et l’antimatière se comportent de manière identique, ce qui semble contredire l’observation selon laquelle la matière l’emporte largement sur l’antimatière dans l’Univers ».
Le CERN ajoute que ce « bit quantique d’antimatière, ou qubit, […] ouvre la voie à des progrès importants dans la comparaison des propriétés de la matière et de l’antimatière ». Cependant, il « n’aura probablement pas d’applications immédiates en dehors de la physique fondamentale ». En clair, il ne viendra pas remplacer les qubits des machines quantiques.
Il y a quelques jours, on apprenait que des pirates avaient réussi à exploiter d’une autre manière deux failles auparavant corrigées par Microsoft dans plusieurs versions de SharePoint sur site. Les attaques ont commencé durant le week-end du 19 - 20 juillet.
Depuis, la campagne a pris de l’ampleur. Alors qu’aucun signe particulier ne pointait en direction d’une attaque coordonnée, on peut en effet parler de campagne. Selon les informations fournies par Microsoft et Eye Security, l’exploitation des failles est utilisée depuis plusieurs jours pour automatiser l’installation de rançongiciels. Contrairement aux attaques observées au départ, il ne s’agit donc plus de dérober des informations, mais de bloquer leur accès, à moins de payer une somme d’argent, sous forme le plus souvent de cryptoactifs.
Selon Eye Security, cité par Reuters, le chiffre serait désormais d’au moins 400 victimes. Un nombre sous-estimé selon la société de sécurité, car une partie des attaques ne laisse visiblement pas de traces exploitables, selon les vecteurs utilisés.
On sait également que le profil des cibles est devenu plus élevé. Toujours selon Reuters, qui cite le Washington Post, un représentant du National Institutes of Health américain a confirmé qu’au moins un des serveurs de l’organisme avait été compromis, et que d’autres avaient été « isolés par précaution ». Selon NextGov, le ministère américain de la Sécurité intérieure (DHS) a été touché, ainsi que cinq à douze autres agences gouvernementales. Une information qu’appuie Politico.
Selon Microsoft, une partie des attaques serait directement imputable à plusieurs groupes étatiques de pirates chinois : Linen Typhoon, Violet Typhoon et Storm-2603. L’objectif serait toujours le même, déployer le rançongiciel Warlock.
Les solutions proposées sont les mêmes que dans notre article originel : appliquer les correctifs aussi rapidement que possible et procéder au renouvellement des clés sur les serveurs, ainsi qu’un redémarrage. Microsoft avait fourni également une méthode pour automatiser la recherche des traces de compromission.
Lip-Bu Tan, CEO d’Intel, a précisé jeudi les contours du plan de restructuration lancé par l’entreprise. Il prévoit une nouvelle vague de départ concernant environ 15 % des salariés du groupe d’ici la fin de l’année, ce qui devrait porter les effectifs globaux à 75 000 personnes, contre 101 000 fin juin. Il annonce dans le même temps l’abandon des projets d’usine en Allemagne et en Pologne.
Les deux pieds sur la pédale de frein, mais des efforts qui vont « dans la bonne direction ». Lip-Bu Tan, patron d’Intel, a réaffirmé jeudi la nécessité de restructurer en profondeur l’ex-numéro un mondial des semi-conducteurs.
Dans la foulée des messages qu’il martèle depuis son entrée en fonctions, en mars dernier, il a livré jeudi 24 juillet un objectif chiffré : entre les départs déjà programmés, l’attrition naturelle et un nouveau tour de vis portant sur 15 % des équipes du groupe dans le monde, Intel devrait terminer l’année avec un effectif de l’ordre de 75 000 employés.
Nouveau tour de vis sur les effectifs
D’après le CEO, Intel a déjà réussi, au cours du deuxième trimestre, à réduire d’environ 50 % le « nombre de niveaux hiérarchiques » au sein de l’entreprise. « Nous sommes également en bonne voie pour mettre en œuvre notre politique de retour au bureau en septembre, les sites ayant finalisé les améliorations nécessaires pour fonctionner à pleine capacité », précise Lip-Bu Tan dans un message adressé aux collaborateurs et publié sur le site du groupe :
« Tout cela vise à optimiser l’efficacité organisationnelle et à transformer notre culture. Nous deviendrons une entreprise plus rapide, plus agile et plus dynamique. Nous éliminerons la bureaucratie et donnerons aux ingénieurs les moyens d’innover plus rapidement et plus efficacement. Nous réduirons également nos coûts pour investir dans la croissance future. Ce sont les fondements d’un nouvel Intel ; nous avons franchi des étapes importantes dans la bonne direction au deuxième trimestre. »
Ces investissements « dans la croissance future » connaissent pour l’instant un coup de rabot significatif : Lip-Bu Tan annonce en effet l’abandon des projets de création d’usine engagés par Intel en Allemagne et en Pologne.
Abandon des créations d’usine en Europe
Outre-Rhin, Intel prévoyait pour mémoire de construire deux usines à Magdebourg, dans le land de Saxe-Anhalt. L’enveloppe globale du projet, rendu public en 2023, était de l’ordre de 30 milliards d’euros, dont un tiers environ devait être apporté par l’État allemand sous forme de subventions.
En Pologne, il était question de créer « une installation d’assemblage et de test » proche de Wrocław, au prix d’un investissement chiffré, là encore en 2023, à 4,6 milliards d’euros.
Les deux sites étaient déjà sur la sellette : le précédent CEO d’Intel, Pat Gelsinger, avait en effet annoncé un décalage d’au moins deux ans à l’occasion d’une première vague de restructuration centrée sur l’activité de production de semi-conducteurs du groupe, Intel Foundry.
Son successeur, Lip-Bu Tan, signe leur deuil. Il annonce dans le même temps que même si Intel ne quitte pas le pays, ses activités au Costa Rica seront « consolidées » avec les sites industriels de capacité supérieure dont dispose le groupe au Vietnam et en Malaisie.
En ces temps marqués par la politique de Donald Trump, le CEO d’Intel prend soin de préciser que le groupe reste pleinement engagé dans sa politique d’investissement aux États-Unis. Mais il révèle là encore une mesure de rationalisation, avec un rythme revu à la baisse pour les deux usines que le groupe s’était engagé à construire dans l’Ohio, au prix d’un investissement de 20 milliards de dollars. Là aussi, la nouvelle était attendue : Intel avait déjà laissé entendre en mars dernier que le projet aurait du retard.
Intel 14A en ligne de mire
Ces éléments de restructuration n’auraient pas d’impact sur la feuille de route d’Intel côté fonderie. La priorité numéro un du groupe serait à ce niveau d’atteindre un rythme de croisière sur la production de puces faisant appel au procédé Intel 18A, à commencer par les processeurs Panther Lake programmés pour la deuxième moitié de l’année. Intel se dit à ce niveau confiant dans sa capacité à vendre le procédé à des constructeurs tiers.
Le futur se veut quant à lui incarné par le procédé Intel 14A, annoncé début 2024 et réaffirmé depuis comme le nœud grâce auquel le fondeur va rattraper son retard sur la concurrence taïwanaise, incarnée par TSMC, et donc potentiellement retrouver une posture de leader technologique sur le marché.
Les puces Intel 14A seront les premières à profiter d’une gravure EUV High-NA
x86 et IA comme chevaux de bataille
Sur le volet produits, pas de grande surprise : Lip-Bu Tan place ses espoirs sur le lancement commercial de Panther Lake et promet que son successeur, Nova Lake, attendu pour fin 2026, sera de nature à « combler les lacunes dans le desktop haut de gamme ». Côté datacenter, il annonce le retour prochain de l’hyperthreading (simultaneous multi-threading, ou SMT), dont l’abandon aurait finalement constitué un handicap sur le plan concurrentiel.
Le CEO s’engage personnellement sur la validation des futurs produits : « J’ai demandé à nos équipes de définir des gammes de produits de nouvelle génération avec des architectures claires et simples, de meilleures structures de coûts et des gammes produit simplifiées. De plus, j’ai instauré une politique selon laquelle chaque conception de puce majeure est examinée et approuvée par mes soins avant sa commercialisation ».
Impossible enfin de ne pas aborder l’IA, alors que les analystes financiers répètent à l’envi que c’est en raison d’un virage mal anticipé qu’Intel connait actuellement des difficultés face à des concurrents comme AMD ou NVIDIA. Le CEO ne donne ici aucun détail spécifique, mais avance l’idée d’une stratégie cohérente entre design des puces, produits finaux et couche logicielle, en opposition avec une logique précédente présentée comme centrée sur le design des puces.
« Dans le cadre de cette transition, nous concentrerons nos efforts sur les domaines où nous pouvons révolutionner et nous différencier, comme l’inférence et l’IA agentique. Nous commencerons par les charges de travail d’IA émergentes, puis nous travaillerons à rebours pour concevoir des logiciels, des systèmes et des circuits intégrés qui offrent les meilleurs résultats pour nos clients », esquisse Lip-Bu Tan.
Ces annonces intervenaient en parallèle de la publication des résultats financiers d’Intel pour le deuxième trimestre 2025. L’entreprise a fait état d’un chiffre d’affaires de 12,9 milliards de dollars, stable sur un an mais assorti de pertes nettes de l’ordre de 2,9 milliards de dollars, imputables en partie au plan de restructuration en cours.
Le FAI par satellites d’Elon Musk a subi une panne cette nuit qui a touché l’intégralité de son réseau pendant 2h30. L’entreprise semble avoir résolu le problème.
Les dizaines de milliers de clients de Starlink ont perdu l’accès à Internet en même temps cette nuit. Le fournisseur d’accès à Internet par satellites a connu sa panne la plus importante ce jeudi alors que tous ses clients étaient touchés.
Selon Downdetector, qui permet de signaler les pannes de manière collaborative, les utilisateurs de Starlink ont commencé à subir cette panne vers 21 h (heure française, 19 h UTC). Au plus fort de la crise, près de 60 000 utilisateurs signalaient sur l’outil ne pas y avoir accès. Dans un tweet publié une heure après, l’entreprise confirmait : « Starlink subit actuellement une panne de réseau et nous travaillons activement à la mise en place d’une solution ».
Une panne qui a duré 2h30
Elon Musk a publié ensuite un tweet affirmant : « Le service sera rétabli sous peu. Nous vous prions de nous excuser pour cette interruption. SpaceX remédiera à la cause profonde du problème afin de s’assurer qu’il ne se reproduise plus ».
L’entreprise semble avoir résolu le problème dans la nuit. « Starlink s’est désormais presque entièrement remis de la panne réseau qui a duré environ 2 heures et demie », affirmait Michael Nicolls, vice-président de l’ingénierie chez Starlink à 00h23. Il a expliqué que « cette panne était due à une défaillance des principaux services logiciels internes qui exploitent le réseau central ».
Le responsable a présenté les excuses de l’entreprise et ajouté : « Nous nous engageons pleinement à fournir un réseau hautement fiable et nous allons analyser en profondeur les causes de ce problème afin de nous assurer qu’il ne se reproduise plus ».
« Il s’agit probablement de la plus longue interruption de service jamais enregistrée pour Starlink, du moins depuis qu’il est devenu un fournisseur de services majeur », a affirmé au Guardian Doug Madory, expert de l’entreprise Kentik qui observe le trafic réseau sur Internet.
Les militaires ukrainiens aussi touchés par la panne
Comme le soulignent nos confrères britanniques, il est difficile de savoir si d’autres services satellitaires de SpaceX – dont dépend Starlink, comme sa division militaire Starshield – ont été touchés.
Mais le média ukrainien Kyiv Independent relève que la panne a aussi touché les militaires du pays, qui ont témoigné sur Telegram que les terminaux Starlink étaient hors service et que la connectivité était perdue sur la ligne de front.
Le média ukrainien rappelle que « des centaines de milliers de personnes en Ukraine dépendent des satellites Starlink, qui ont remplacé les réseaux Internet endommagés pendant la guerre ». Les hôpitaux et les écoles en dépendent aussi.
Le 19 juin dernier, Donald Trump avait une nouvelle fois donné un sursis de 90 jours à TikTok, en attendant de trouver l’accord qui satisferait toutes les parties concernées.
Ce jeudi 24 juillet, le secrétaire au Commerce des États-Unis Howard Lutnick a envisagé la fermeture de l’application aux États-Unis en cas de refus par la Chine de l’accord proposé par Donald Trump : « Si cet accord est approuvé par les Chinois, alors il sera conclu », a affirmé Howard Lutnick sur CNBC. « S’ils ne l’approuvent pas, TikTok disparaîtra, et ces décisions seront prises très prochainement », a-t-il ajouté.
Selon lui, dans l’accord proposé par la Maison-Blanche, « la Chine peut posséder une petite partie ou bien ByteDance peut conserver une petite partie. Mais simplement, ce sont les Américains qui en auront le contrôle. Les Américains seront propriétaires de la technologie et contrôleront l’algorithme ».
Selon ArsTechnica, ByteDance pourrait être réticent à signer cet accord car, justement, l’algorithme de TikTok est une part importante de la propriété intellectuelle de l’entreprise.
Les personnes équipées en appareils Apple et prêtes pour un peu d’aventure peuvent installer les bêtas publiques des nouveaux systèmes depuis hier soir. Elles correspondent aux bêtas 4 pour les développeurs.
La grande affaire, cette année, est le renouvellement d’interface Liquid Glass. Le parti pris d’Apple sur l’utilisation du verre a fait beaucoup parler de lui. Il suffit par exemple de lire les commentaires sur les actualités liées chez nos confrères de MacGeneration/iGeneration pour voir que Liquid Glass ne laisse pas indifférent. Apple ne semble d’ailleurs pas sûre d’elle, l’entreprise ayant déjà procédé à de nombreux changements depuis la présentation en grande pompe.
En dehors de ce redesign, commun à toutes les nouvelles plateformes, les nouveautés restent assez conséquentes. Sur iOS, on trouve notamment des applications remaniées pour Téléphone et Appareil photo, de nouvelles applications pour Aperçu et Jeux, ou encore des fonctions de traduction en direct pour Messages, FaceTime et Téléphone, via Apple Intelligence (en local).
iPadOS 26 reprend ces nouveautés et y ajoute une gestion des fenêtres entièrement repensée, très proche de macOS : boutons tricolores, redimensionnement, barre de menu, déplacement libre, fonctionnement en arrière-plan, etc.
Sur macOS, on note l’arrivée des applications Téléphone (en lieu et place de FaceTime) et Journal. Mais ce qui a concentré les attentions, c’est bien la refonte complète de Spotlight. Le moteur de recherche devient un lanceur complet, avec de nouvelles catégories et des résultats mieux rangés, la possibilité de chercher avec davantage de critères, etc.
Surtout, Spotlight peut créer des automatisations, qui seront suggérées avec le temps quand macOS repère des tâches courantes. On peut également affecter de petites séquences de lettres pour lancer des actions prédéfinies. macOS Tahoe embarque également l’API Metal 4 pour tout ce qui touche aux GPU intégrés.
Attention avec les bêtas
En dehors des trois systèmes, les nouveautés sont plus discrètes. watchOS 26 récupère par exemple Liquid Glass, l’application Notes, la traduction en direct, l’ajout d’un geste pour rejeter des notifications (brève rotation rapide du poignet), un remaniement d’Exercice et l’arrivée d’une application Workout Buddy, un coach vocal qui doit encourager pendant l’exercice et les résultats (uniquement en anglais pour l’instant).
Rappelons que l’installation de bêtas n’est jamais sans risque. Il semble que le cycle actuel, assez majeur dans les changements, nécessite encore beaucoup de travail. C’est surtout sur Liquid Glass, dont les effets de transparence notamment sont modifiés à chaque bêta. Sur iOS, le système entraine pour l’instant une chauffe des appareils, certains ralentissements et une perte d’autonomie.
L’installation des bêtas est simple, car il suffit de changer le profil dans la section « Mise à jour logicielle » de chaque plateforme. Mais gardez en tête qu’il s’agit de préversions et que les problèmes peuvent être plus ou moins nombreux.
Elsa, l’IA de la Food and Drugs Administration (FDA), devait « améliorer et optimiser les performances et le potentiel de chaque employé » de l’agence. Si elle permet de générer des documents de travail, elle ne manque pas d’ « halluciner » des études scientifiques ou de déformer des recherches, selon une enquête de CNN.
L’IA mise en place au sein de la Food and Drugs Administration (FDA) ne serait pas l’outil améliorant les performances tant vantée par son responsable Marty Makary, nommé le 1er avril dernier.
La très reconnue agence de sécurité alimentaire et du médicament avait publié début juin un communiqué de presse sur cette IA, qu’elle a nommé Elsa. « Cet outil innovant modernise les fonctions de l’agence et exploite les capacités de l’IA pour mieux servir la population américaine », expliquait la FDA.
Dans un extrait d’une interview donnée à Tucker Carlson et repérée par Gizmodo, le secrétaire à la Santé et aux Services sociaux des États-Unis, Robert F. Kennedy Jr., affirmait que « Nous sommes à la pointe de l’IA » :
« Nous la mettons en œuvre dans tous nos départements. À la FDA, nous accélérons les autorisations de mise sur le marché [AMM] des médicaments afin de ne plus avoir besoin d’utiliser des primates ou même des modèles animaux. Grâce à l’IA, vous pouvez obtenir très, très rapidement les autorisations de mise sur le marché des médicaments. »
« À la suite d’un programme pilote très réussi mené avec les évaluateurs scientifiques de la FDA, j’ai fixé un calendrier ambitieux pour déployer l’IA dans toute l’agence d’ici le 30 juin », assurait Marty Makary dans le communiqué de l’agence : « Le lancement d’Elsa aujourd’hui est en avance sur son calendrier et en dessous du budget prévu, grâce à la collaboration de nos experts internes dans tous les centres ».
Pas d’analyse des autorisations de mise sur le marché pour l’instant
Moins d’un mois après cette date de déploiement, les dents grincent en interne, selon CNN. Comme une bonne partie des IA génératives mises en place dans les bureaux, celle de la FDA peut être utile pour générer des notes, des résumés de réunion, des mails et des communiqués.
Mais contrairement à ce qui a été annoncé, elle ne permettrait pas d’analyser les autorisations de mise sur le marché, puisqu’elle n’a pas accès aux documents des dossiers des industriels, expliquent les sources du média étasunien.
Des hallucinations, comme les autres IA génératives
Et, comme les autres IA génératives, Elsa « hallucine ». Selon plusieurs sources de CNN, ainsi que des documents qu’a pu consulter le média, elle a généré des références à des études inexistantes et déformé les contenus de véritables études. Ces problèmes concernant des informations scientifiques discréditent l’outil aux yeux des sources de CNN.
« Tout ce que vous n’avez pas le temps de vérifier deux fois n’est pas fiable. Elle hallucine en toute confiance », affirme l’une d’entre elles. Si ce problème est connu et doit être pris au sérieux à chaque fois qu’on utilise une IA générative, les responsables de la FDA qui ont annoncé la mise en place d’Elsa promettaient une plus grande efficacité des employés de l’agence grâce à cette IA.
« L’IA est censée nous faire gagner du temps, mais je peux vous garantir que je perds beaucoup de temps supplémentaire simplement à cause de la vigilance accrue dont je dois faire preuve pour vérifier les études fausses ou trompeuses », explique à CNN un autre agent de la FDA.
Le genre de travail effectué par l’agence demande une précision importante. « Si Elsa résume en un paragraphe un travail de recherche sur un nouveau médicament qui tient en 20 pages de recherche, il n’y a aucun moyen de savoir si cela déforme ou omet quelque chose qu’un évaluateur humain aurait considéré comme important », souligne l’un des employés interrogés par CNN.
Près de 30 millions de dollars pour le cabinet de conseil Deloitte
Dès l’annonce de juin, des employés de la FDA expliquaient au média Stat que la mise en place d’Elsa était « précipitée ». Notre consœur, spécialisée dans les technologies de la santé, donnait un peu plus de précisions sur le projet. Elsa serait basée sur le modèle Claude d’Anthropic et développée par le cabinet de conseil Deloitte (entreprise qui finançait déjà l’investiture de Donald Trump en 2017), comme le rapporte ArsTechnica.
Selon Stat, Deloitte a reçu 13,8 millions de dollars depuis 2020 pour développer une base de données de documents de la FDA qui a servi à fine-tuner Claude, et ainsi obtenir le modèle utilisé par Elsa. L’entreprise a obtenu un nouveau contrat de 14,7 millions de dollars en avril dernier pour le déploiement d’Elsa dans toute l’agence.
Interrogé par CNN, Jeremy Walsh, responsable IA de l’agence admet ces critiques : « Elsa n’est pas différente de nombreux [grands modèles de langage] et de l’ IA générative, ils peuvent halluciner ».
De plus, il affirme que les utilisateurs pourront dans les prochaines semaines ajouter des documents pour que cette IA puisse répondre en fonction de données spécifiques.
Le gouvernement britannique a décidé de se reposer sur des outils d’intelligence artificielle pour déterminer l’âge des migrants qui se déclarent mineurs, rapporte Infomigrants.
« Lorsque les personnes impliquées dans le processus d’évaluation de l’âge ne sont pas certaines de l’âge d’une personne, ou n’acceptent pas l’âge qu’elle prétend avoir, l’estimation de l’âge facial offre un moyen potentiellement rapide et simple de confronter leurs jugements aux estimations produites par la technologie », a expliqué la ministre britannique de la Sécurité des frontières et de l’Asile au Parlement.
Un projet pilote a été lancé, en vue de déployer ce type d’outils courant 2026.
Une coalition de près de 100 ONG britanniques alertait récemment contre le fait que plus de 250 enfants demandeurs d’asile aient été placés à tort en détention ou dans des logements destinés à des adultes au premier semestre 2024, ce qui les expose à un danger accru de harcèlement ou d’abus.
Cela dit, comme dans d’autres contextes sociaux, les technologies de reconnaissance faciale ne sont pas exemptes de biais et de résultats faussés lorsqu’il s’agit de détecter l’âge des visages qui leur sont présentés.
Partout sur la planète, les populations migrantes sont par ailleurs surexposées aux technologies invasives de surveillance, et généralement dans des positions trop vulnérables pour pouvoir s’opposer à leur usage.
L’an passé, plusieurs ONG, dont Privacy International, avait déjà tiré la sonnette d’alarme au sujet d’IPIC (pour « Identification et Priorisation des Affaires d’Immigration »), un algorithme d’IA utilisé par le gouvernement britannique pour départager les demandes d’asile.
En moins de deux semaines, la pétition contre la loi Duplomb a dépassé 1,8 million de signatures, devenant la deuxième mobilisation de ce type la plus soutenue en France.
Le 8 juillet 2025, la très critiquée loi Duplomb était votée par l’Assemblée nationale grâce aux voix d’une large partie du bloc présidentiel, de la droite et de l’extrême-droite. Entre autres dispositions, le texte prévoit la ré-autorisation de l’acétamipride, un néonicotinoïde dangereux pour la biodiversité et la santé humaine, la facilitation des projets de mégabassines ou encore celle des élevages intensifs.
Deux jours plus tard, l’étudiante de 23 ans Éléonore Pattery créait une pétition sur le site de l’Assemblée nationale. Elle y qualifiait la loi Duplomb d’ « aberration scientifique, éthique, environnementale et sanitaire » et d’« attaque frontale contre la santé publique, la biodiversité, la cohérence des politiques climatiques, la sécurité alimentaire, et le bon sens ».
En quelques jours, les compteurs s’affolent : la pétition dépasse les 100 000 puis les 200 000 signatures. Repérée par des comptes influents dans les sphères écologistes, dont celui du média Bonpote créé par Thomas Wagner, l’initiative se répand sur les réseaux sociaux, appelant les internautes à signer. En jeu : dépasser la barre des 500 000 signatures, au-delà de laquelle la conférence des présidents peut décider de mettre un débat sur le sujet à l’ordre du jour (quoiqu’ils n’y soient pas obligés, et que le débat soit dédié à rester sans vote).
En ligne, un nombre croissant de personnalités influentes et d’internautes se sont lancés dans la promotion de la pétition, jusqu’à lui faire dépasser plusieurs records de nombre de signatures.
Plus de 1,8 million de signatures
En moins de deux semaines, la pétition a réuni plus de 1,8 million de signatures. Son initiatrice n’a pourtant rien d’une influenceuse : dans le texte de la pétition, elle indique être actuellement en Master qualité, sécurité, environnement et responsabilité sociétale des entreprises. « Je ne suis pas indispensable à ce débat : l’opinion publique, les voix qui s’élèvent partout dans le pays me représentent déjà très bien », déclare-t-elle sur son compte LinkedIn. Elle y encourage régulièrement les signataires mais demande à ce que les médias ne la contactent pas.
Plusieurs personnalités plus habituées à la diffusion à grande échelle prennent rapidement le relais, raconte Politico. Ainsi du fondateur de Bon Pote, média de vulgarisation des enjeux environnementaux, de créateurs de contenus engagés dans les questions environnementales, comme Hugo Clément et Camille Étienne, ou encore des ONG et militants écologistes.
Rapidement, leurs messages, doublés d’appels directs à des vidéastes comme Squeezie, Lena Situations ou Tibo InShape, décuplent la vitalité des appels à signer la pétition. Grâce à ces interpellations en dehors de leurs sphères déjà sensibilisées, ils et elles obtiennent bientôt le soutien des créatrices de contenu EnjoyPhoenix et Jujufitcats ou de l’acteur Pierre Niney. Pour le sénateur Laurent Duplomb (Les Républicains), interrogé sur RMC, il s’agit d’une « instrumentalisation par l’extrême-gauche et par les écologistes ».
Mais avant la rédaction de la pétition par Éléonore Pattery, les effets de la ré-autorisation de l’acétamipride inquiétaient déjà le grand public. Au moment du vote de la loi, le cri de la fondatrice du collectif Cancer Colère, Fleur Breteau, avait déjà fait le tour des réseaux sociaux. « Vous êtes les alliés du cancer et nous le ferons savoir ! », avait lancé à l’adresse des députés de la droite et de l’extrême-droite de l’Assemblée celle qui se bat contre son deuxième cancer du sein en quatre ans. Elle donnait alors un visage à une inquiétude croissante sur les effets cancérigènes des pesticides dont la loi Duplomb doit permettre à nouveau l’usage.
Devant la pétition des Gilets jaunes, derrière celle de l’Affaire du siècle
Forte de ce contexte et de ces soutiens, la pétition contre la loi Duplomb a réussi en quelques semaines à se hisser à un nombre de signatures record. Elle fait mieux que celle de Priscillia Ludosky, protestant en 2018 sur change.org contre la hausse du prix des carburants. Viral, déjà, ce texte signé par 1,29 million de personnes avait signé le coup d’envoi du mouvement des gilets jaunes. Elle dépasse aussi les scores de la pétition « Loi Travail : non, merci ! », qui avait récolté 1,35 million de signatures – le texte a été adopté en août 2016.
La seule mobilisation numérique plus importante, à l’heure actuelle, est celle portée en 2018 par la Fondation pour la nature et l’homme, Greenpeace France, Notre affaire à tous et Oxfam France pour faire reconnaître « l’inaction climatique de l’État français et son obligation à agir ». Elle avait récolté plus de 2,3 millions de signatures. À l’époque, sa médiatisation avait été aidée par des personnalités culturelles, parmi lesquelles les actrices Juliette Binoche et Marion Cotillard, l’humoriste Élie Semoun et les youtubeurs McFly et Carlito.
Trois ans plus tard, le tribunal de Paris avait effectivement reconnu l’État responsable de manquements dans la lutte contre le réchauffement climatique – un jugement qui résonne avec celui de la Cour internationale de justice, qui a jugé le 23 juillet l’inaction climatique des États « illicite ».
Après avoir adopté la loi Duplomb sans débat – en adoptant une motion de rejet et en la renvoyant en commission mixte paritaire –, les législateurs semblent néanmoins surpris par le succès de la pétition contre la loi Duplomb. La présidente de l’Assemblée nationale, Yaël Braun-Pivet, s’est déclarée favorable à l’ouverture d’un débat, mais cela n’a pas empêché la ministre de l’Agriculture Annie Genevard de déclarer que le texte serait « de toute façon promulgué ». Le Conseil constitutionnel doit se prononcer sur le recours déposé par les élus écologistes d’ici le 10 août.
Proton vient de lancer son tout premier assistant IA. Nommé Lumo, il veut faire la différence sur le terrain de la confidentialité et de la vie privée. La société suisse va également investir 100 millions d’euros pour ses activités d’intelligence artificielle. Le projet sera développé en Allemagne plutôt qu’en Suisse, un choix politique.
Sans trop de surprise, la position de Proton (entreprise dont l’actionnaire majoritaire est maintenant la fondation du même nom) sur l’IA est composite : « L’intelligence artificielle a le pouvoir de relever les défis de l’humanité, petits et grands, de la planification de réunions à la modélisation de molécules. Mais pour améliorer véritablement notre façon de vivre et de travailler, nous avons besoin d’un assistant IA construit de manière responsable, en donnant la priorité aux personnes et à la protection de la vie privée ».
Le nouvel assistant, Lumo, doit répondre à cette dualité : « les avantages de l’IA sont trop importants pour être négligés et que les risques sont trop graves pour être ignorés ». Proton affiche ses certitudes sur l’IA, qui est là pour rester, « que cela nous plaise ou non ».
Il est disponible dès à présent en version web, ainsi qu’à travers des applications mobiles dédiées pour Android et iOS. On peut l’utiliser sans compte Proton, mais connecter son compte déverrouille des fonctions supplémentaires.
Cap sur la vie privée
Proton précise d’emblée que sa technologie est alimentée par des modèles open source et qu’elle n’utilise pas les données des utilisateurs. Le contraire aurait été étonnant : les données en question sont protégées par le chiffrement de bout en bout, la société suisse n’ayant accès qu’à certaines métadonnées. Lumo est constitué de plusieurs modèles, la requête étant acheminée vers le plus adapté, selon Proton.
Consciente qu’elle arrive bien après les grands ténors américains armés de dizaines de milliards de dollars, la société suisse met l’accent sur l’Europe. « Lumo est basé sur des modèles linguistiques open-source et fonctionne à partir des centres de données européens de Proton. Vous bénéficiez ainsi d’une plus grande transparence sur le fonctionnement de Lumo que sur celui de tout autre assistant d’IA majeur. Contrairement à Apple Intelligence et à d’autres, Lumo n’est pas un partenariat avec OpenAI ou d’autres sociétés d’IA américaines ou chinoises, et vos requêtes ne sont jamais envoyées à des tiers », déclare ainsi Proton. La comparaison avec Apple est cependant assez hasardeuse : la firme a bien un partenariat avec OpenAI, mais il ne constitue pas le cœur de son infrastructure, axée sur la vie privée elle aussi.
Proton donne plusieurs points forts pour différencier son offre. Lumo ne crée ainsi pas de journaux pour sauvegarder tous les échanges. On retrouve le classique chiffrement de bout en bout et en accès zéro disponible sur les autres produits de l’éditeur, la promesse de ne jamais partager de données avec des tiers (la société indique d’ailleurs ne pas en avoir à cause de son architecture), ou encore un siège européen lui garantissant une imperméabilité à la « juridiction américaine ».
Proton dans la course
Ce n’est pas la première fois que Proton se lance dans l’IA. L’année dernière, l’entreprise a lancé un assistant d’écriture pour son service Mail. Lumo est cependant la première tentative de chatbot complet à usage général. On peut lui demander d’effectuer des recherches sur le web, de résumer des documents et autres fonctions aujourd’hui classiques. Si l’on connecte son compte Proton Drive, on peut également poser des questions sur les fichiers stockés. On peut aussi envoyer des fichiers manuellement à Lumo.
La question se pose de ses performances et de ses évolutions. Contrairement à des sociétés comme OpenAI, Anthropic, Meta ou Google, Proton n’est pas assise sur un immense trésor de données. Des sommes très importantes sont investies dans l’acquisition de données, alors que Proton ne peut utiliser celles de ses clients. Une partie de la réponse se trouve dans la présentation de Lumo : « Lumo peut rechercher sur le web des informations nouvelles ou récentes pour compléter ses connaissances existantes ».
Proton met surtout en avant la vie privée. Crédits : Proton
Il ne faut pas attendre Lumo comme un concurrent de ChatGPT ou de Claude, mais comme un assistant conçu pour la galaxie des services maison. Proton met d’ailleurs surtout en avant son respect de la vie privée, notamment avec le mode Fantôme, qui permet de ne pas enregistrer l’échange dans l’historique. Ce dernier est quoi qu’il en soit chiffré de bout en bout. Noter que cet historique n’est sauvegardé que si un compte Proton est connecté.
Comme de nombreux assistants, Lumo repose sur un modèle freemium : son utilisation basique est gratuite, mais limitée en requêtes et en fonctions. Pour déverrouiller le reste, il faudra passer par un abonnement Lumo Plus proposé à partir de 12,99 euros par mois, avec une promotion en cours à 9,99 euros. La formule autorise un nombre illimité de requêtes, la recherche sur le web, un nombre illimité de favoris, l’envoi et les requêtes sur de multiples fichiers volumineux, un accès à des modèles plus avancés et une assistance prioritaire. L’abonnement n’est pas intégré dans l’offre Unlimited.
Déménagement militant
En marge de son annonce, Proton annonce également avoir déménagé ses installations en Allemagne : « En raison de l’incertitude juridique entourant les propositions du gouvernement suisse d’introduire une surveillance de masse – propositions qui ont été interdites dans l’UE – Proton déménage la majeure partie de son infrastructure physique hors de Suisse. Lumo sera le premier produit à être transféré ». Un transfert politique, pour protester contre ce que l’entreprise juge comme une dérive.
Selon Le Temps, Proton investira également jusqu’à un milliard de francs suisses (1,07 milliard d’euros) en Allemagne et en Norvège afin de développer et renforcer ses infrastructures, notamment pour Lumo. Plus précisément, 100 millions seront investis très prochainement, les 900 millions restants devant être injectés avant 2030. « J’aimerais pouvoir réinvestir les 900 millions restants ici, à Genève. Le canton nous soutient fermement. Le problème est au niveau fédéral, à Berne », a déclaré Andy Yen, CEO de Proton, au journal.
Proton réaffirme également son désir d’investir dans une Europe numérique souveraine.