Nouvelle mouture pour l’utilitaire, qui sert pour rappel à créer des médias d’installation pour différents systèmes, Windows tout particulièrement.
Cette version 4.8 apporte un changement important en basculant sur wimlib. Cette bibliothèque, open source et multiplateforme, est spécialisée dans la manipulation des images WIM. Microsoft s’en sert par exemple pour sa propre image d’installation de Windows, elle-même au format ISO. Si la clé USB utilisée est décemment récente, les utilisateurs devraient constater une nette amélioration dans l’ouverture des images Windows, surtout dans la création de lecteurs Windows To Go.
Dans les notes de version, on peut lire aussi que Rufus est passé à des binaires Visual Studio partout à cause de certaines limitations avec MinGW, l’ajout d’exceptions pour certaines distributions Linux se limitant au mode de formatage DD (comme openSuse et Nobara), l’amélioration des rapports sur les bootloaders UEFI ainsi que quelques corrections de bugs.
L’éditeur est surtout connu pour avoir tenté de réinventer le navigateur avec Arc. Le produit avait ses aficionados, mais Josh Miller, CEO de The Browser Company, a fini par annoncer fin mai qu’Arc allait être abandonné, car il n’avait pas rencontré de public assez large. Dans un billet, l’éditeur expliquait que bon nombre de leçons avaient été apprises – dont une courbe d’apprentissage trop exigeante – et qu’il allait en tirer parti dans son autre projet.
Cet autre projet, c’est Dia, désormais disponible en bêta privée. La priorité est donnée aux utilisateurs d’Arc, qui pourront inviter d’autres personnes s’ils le souhaitent. On peut également s’inscrire sur une liste d’attente pour recevoir une clé.
Il faut donc se contenter pour l’instant de la présentation de Dia sur son site dédié. On peut voir que le navigateur fait effectivement la part belle à l’IA, avec une page d’accueil centrée sur les requêtes. On peut s’en servir pour effectuer des tâches que l’on peut presque considérer comme courantes désormais : lancer une requête sur un sujet, interroger le navigateur sur les onglets ouverts, poser des questions générales, résumer les fichiers téléchargés, rédiger un brouillon à partir d’un onglet, etc.
Dia est également équipé de fonctions plus spécifiques. Par exemple, History autorise le navigateur à puiser dans l’historique des sept derniers jours pour y trouver du contexte. Les SKills permettent de créer des raccourcis vers des paramètres ou pour effectuer des actions, par exemple pour créer une mise en page spécifique sur un site. On peut également relier des conditions et des actions, à la manière des Raccourcis sur les plateformes Apple.
Mais, comme le rappelle TechCrunch, Dia n’est pas le seul navigateur à s’être lancé à cœur perdu dans l’IA générative. Opera a lancé son propre Neon (là aussi en bêta privée) et avait dégainé le premier des fonctions liées, notamment via des agents pour effectuer diverses tâches, jusqu’à créer de petites applications. Les grands navigateurs historiques n’ont pas encore basculé, mais ils ajoutent par petites touches des fonctions dopées à l’IA, parfois via d’autres composants. Les acteurs de l’IA aimeraient également leur propre navigateur, comme on l’a vu en avril avec OpenAI et Perplexity, qui se disaient prêts à racheter Chrome.
Dans un communiqué, la Commission européenne explique que, suite à son enquête, elle est arrivée à la conclusion que « le projet d’acquisition ne poserait aucun problème de concurrence au sein de l’EEE et a autorisé l’opération sans condition ».
L’année dernière, SES avait fait part de son projet d’acquisition d’Intelsat pour un montant de 2,8 milliards d’euros. Il y a quelques jours, l’Autorité de la concurrence britannique avait aussi donné son feu vert.
Dans son communiqué, elle rappelle que « SES et Intelsat sont toutes deux des opérateurs mondiaux de réseaux satellitaires qui possèdent et exploitent des satellites en orbite terrestre géostationnaire («GEO»). Bien que les deux entreprises aient leur siège social au Luxembourg et soient actives dans l’EEE, les activités principales et le siège administratif d’Intelsat sont situés aux États-Unis ». SES et Intelsat veulent ainsi concurrencer d’autres solutions comme celles de SpaceX (Starlink) et Amazon (Kuiper).
La balle est maintenant dans le camp des États-Unis qui doivent aussi se prononcer sur cette opération.
Un rapport de l’ONU pointe la soudaine hausse des émissions indirectes de CO2 des géants du numérique comme Amazon, Microsoft, Google et Meta. Entre 2020 et 2023, la moyenne des augmentations des émissions dont ils sont responsables est de 50 %, dues notamment à la mise en place intensive de l’IA générative.
Les émissions indirectes de CO2 liées aux activités de quatre des plus importantes entreprises du numérique qui ont investi massivement dans l’IA ont augmenté en moyenne de + 50 % entre 2020 et 2023, indique un rapport [PDF] publié par l’Union internationale des télécommunications (UIT), l’agence de l’ONU spécialisée dans les questions de numérique.
+ 82 % d’émission pour Amazon
Selon le rapport, ce sont les émissions de carbone d’Amazon qui ont le plus augmenté (+ 82 % en 2023 par rapport à 2020), suivies de celles de Microsoft (+ 55 %), de Meta (+ 45 %) et d’Alphabet (+ 38 %).
L’UIT ajoute que les 14 plus grandes entreprises de télécommunications (dont Orange, Verizon, AT&T, mais aussi China Mobile, China Telecom et China Unicom) n’ont pas connu d’augmentation au cours de la même période, « bien que l’IA soit susceptible d’être intégrée dans leurs logiciels ». Leur moyenne suit même une très légère baisse.
Il sera intéressant de suivre l’évolution de ces chiffres sur les années suivantes, puisque les années 2020 - 2023 sont en partie des années de R&D des premières solutions d’IA génératives. On peut faire l’hypothèse que les entreprises de télécoms ont mis en place plus tardivement de telles solutions que les entreprises leaders du secteur de l’IA.
102,6 millions de tCO2e par an pour les systèmes les plus émetteurs
Pour appuyer son propos, le rapport fait référence à une étude récente qui estime que les émissions de carbone provenant des systèmes d’IA les plus émetteurs pourraient atteindre 102,6 millions de tCO2e (voir équivalent CO2) par an. « Compte tenu de l’omniprésence de l’IA et de son intégration croissante dans divers services, il est difficile d’estimer l’impact direct de son utilisation », explique l’UIT.
Comme déjà évoqué, l’agence insiste sur la difficulté à estimer l’évolution des émissions des IA : « les données des datacenters d’IA peuvent être faciles à suivre, mais un algorithme basé sur l’IA dans une fonction de réseau spécifique serait difficile à définir et à suivre séparément ». L’organisation déplore qu’ « actuellement, il n’existe pas de normes ou d’exigences législatives imposant aux entreprises de divulguer leurs émissions d’IA ou leur consommation d’énergie, ce qui rend la compréhension de l’impact de l’IA sur la consommation d’énergie au niveau de l’entreprise moins évidente. ».
« L’IA n’est pas seulement avide de données mais aussi d’énergie et, à mesure que l’expansion de l’IA se poursuit, l’augmentation de la demande d’énergie pourrait exercer une pression sur l’infrastructure énergétique existante et compromettre l’objectif de transition énergétique », commente l’agence.
On peut cependant remarquer, que sur le graphique de l’UIT ci-dessus, l’augmentation de la consommation d’énergie des quatre géants du numérique semble se concentrer sur les années 2020 - 2022. Cette forte inflexion peut laisser espérer une stabilisation de la consommation. Des données sur les années suivantes seront intéressantes à observer.
Remarquons que les chiffres évoqués par l’UIT ne sont pas exactement les mêmes que ce que nous avions repéré l’année dernière. Dans son rapport, Microsoft évoquait plutôt une augmentation de 29 % entre 2020 et 2023. De son côté, Google évoquait une augmentation de 48 % pour la période 2019 – 2023. L’UIT évoque pourtant les rapports des entreprises comme sources. Ce flou plaide toutefois pour la mise en place de normes ou d’exigences législatives, comme l’évoque l’agence de l’ONU.
À Taïwan, des travailleuses et travailleurs immigrés dénoncent les conditions de travail auxquels ils et elles sont soumis dans les usines de semi-conducteurs qui alimentent les produits Nvidia, Apple, Tesla, et d’autres marques de l’industrie numérique.
Venue des Philippines, l’une d’elles raconte à Rest of World être arrivée pleine d’espoir à Taipei, pour se voir rapidement embarquée dans un van, installée dans un dortoir qu’elle devait partager avec trois personnes, puis forcée à enchaîner des journées de 12 heures jusqu’à sa démission.
Le nombre de personnes venues des Philippines pour alimenter les lignes de production de semi-conducteurs taïwanais explose depuis 2023. Elles représentent désormais 10 % des arrivées dans le pays, calcule le média. En 10 ans, leur part dans l’industrie des semi-conducteurs a augmenté de 50 %. Pour autant, cette population migrante est victime de discrimination, d’après plusieurs experts et témoignages de terrain.
Auprès de Rest of World, 20 d’entre eux décrivent des obligations à travailler plus longtemps et pour des salaires plus faibles que leurs collègues taïwanais. En cas de typhon, les travailleuses et travailleurs originaires de l’île ont l’autorisation de rentrer chez eux, tandis que les personnes immigrées doivent continuer de travailler, selon le représentant de l’ONG Migrante Taiwan. À défaut, elles risquent de perdre leur emploi.
Les salaires perçus par les travailleurs philippins se rapprochent du salaire minimum local (29 000 nouveaux dollars taïwanais, soit 846 euros par mois), quand ceux des employés taïwanais commencent plus haut et peuvent s’accompagner de bonus, d’augmentations ou d’autres avantages.
Auprès de Rest of World, des sociétés comme ASE Technology Holding ou Super Micro Computer déclarent traiter les employés locaux et immigrés de la même manière, et soulignent que 95 % renouvellent leur contrat lorsque celui-ci expire. TSMC n’a pas commenté.
Quelques jours après Orange, Free Mobile annonce lui aussi que la 5G StandAlone – ou 5G+ dans le langage commercial des opérateurs – est disponible sur les iPhone. « Depuis le 6 juin », précise Free Mobile, soit exactement au même moment qu’Orange.
Les conditions sont exactement les mêmes : disposer d’un iPhone 15 ou 16 (toutes déclinaisons, y compris 16e). Ils viennent s’ajouter aux dizaines de smartphones Android déjà compatibles : Samsung Galaxy Z Flip 6, Galaxy S25 et S24, A56 5G, A36 et 26 5G, Xiaomi 15, Honor Magic 7 Pro, Google Pixel 9… Free revendique « plus de 100 modèles de smartphones compatibles 5G+ ». La liste complète est disponible ici.
Il faut aussi avoir un forfait Free 5G et être dans une zone couverte par là 5G à 3,5 GHz, Pour activer la 5G+, il faut en plus « installer la dernière version logicielle disponible » (ce qui explique la concomitance des déploiements chez Orange et Free), « activer l’option 5G+ dans son Espace Abonné (rubrique « Mes options ») » et redémarrer le téléphone (ou activer puis désactiver le mode avion).
Free Mobile met en avant les mêmes avantages qu’Orange : « des débits plus élevés, une latence réduite, une meilleure sécurité du réseau et des services avancés comme la VoNR », ou Voice over New Radio. Alors que la 5G de base (Non StandAlone ou NSA) passe par un cœur de réseau 4G, la 5G+ « repose sur une infrastructure 100 % 5G ».
Soirée chargée hier pour OpenAI, avec plusieurs annonces importantes sur ses modèles. La principale était la disponibilité d’o3 Pro, son nouveau modèle de raisonnement. Les tarifs du modèle o3 ont en parallèle été sérieusement rabotés. Et alors que Sam Altman redit tout le bien qu’il pense de l’IA générative, l’entreprise se serait rapprochée de Google pour diversifier ses ressources cloud.
Alors que Mistral vient de lancer ses deux premiers modèles de raisonnement Magistral, OpenAI a dégainé le même jour un nouveau concurrent. Nommé o3-pro, il s’agit d’une version survitaminée du premier modèle o3.
Sans surprise, cette version Pro fait mieux que tous les modèles lancés par l’entreprise jusqu’ici. Dans les résultats fournis par OpenAI, on le voit ainsi dépasser – parfois très largement – les performances d’o1 Pro. En conséquence, o3-pro va remplacer l’ancien modèle dans ChatGPT, puisqu’il donne de meilleurs résultats dans tous les cas de figure, vante l’entreprise.
o3-pro prend la place d’o1-pro
C’est particulièrement vrai dans des domaines comme les sciences, l’éducation, la programmation, la finance et l’aide à la rédaction. Selon des tests menés sur un groupe de personnes en interne, il ferait également mieux en matière de clarté, d’exhaustivité, de suivi des instructions et d’exactitude. En bref, le type d’amélioration que l’on est en droit d’attendre d’une nouvelle version d’un modèle de raisonnement.
o3-pro dispose également d’un autre avantage important par rapport à son prédécesseur : il est compatible avec les outils de ChatGPT. « Il peut faire des recherches sur le Web, analyser des fichiers, raisonner sur des entrées visuelles, utiliser Python, personnaliser des réponses en utilisant la mémoire, et plus encore », explique OpenAI.
Conséquence, si les réponses sont plus précises et peuvent s’appliquer à davantage de situations, elles prennent aussi plus de temps. L’entreprise recommande d’utiliser o3-pro dans les cas où la fiabilité devient plus importante que la rapidité « et où quelques minutes d’attente valent la peine ». Une curieuse recommandation, faisant peser des doutes sur la fiabilité des réponses plus rapides.
Il existe également plusieurs limitations. D’une part, un problème technique empêche pour l’instant o3-pro de prendre en charge les chats temporaires. D’autre part, la génération d’images ne fait pas partie des attributions du nouveau modèle. Pour cette dernière, il faut se tourner vers GPT-4o, o3 ou o4-mini. Enfin, Canvas n’est pas non plus supporté.
o3-pro dispose d’une fenêtre contextuelle de 200 000 jetons. Ses tarifs sont de 20 dollars par million de jetons en entrée et 80 dollars en sortie. Le modèle est donc assez onéreux. Son utilisation ne peut pour l’instant se faire que via les abonnements ChatGPT Pro et Team. Les formules Enterprise et Edu l’auront la semaine prochaine.
OpenAI casse les prix d’o3
Puisque l’on parle de tarification, signalons un important changement pour o3 dans sa version classique. Lancé en avril et présentant alors les meilleurs résultats de tous les modèles d’OpenAI, son utilisation est restée limitée.
La faute à des tarifs élevés pour ce type de modèle dans la catégorie « medium » : 10 dollars en entrée et 40 dollars en sortie. o3 s’est très vite retrouvé en compétition avec d’autres modèles, et la comparaison n’était guère flatteuse. Chez Google, Gemini 2.5 Pro faisait par exemple presque jeu égale dans les capacités, tout en étant beaucoup moins cher (1,25 et 10 dollars respectivement). Claude Sonnet 3.7, lui, était dans la même fourchette tarifaire, mais faisait mieux.
OpenAI a donc annoncé hier soir une baisse de 80 % dans les deux sens. Les nouveaux tarifs sont ainsi de 2 dollars par million de jetons en entrée et 8 dollars par million de jetons en sortie.
Rapprochement avec Google
Si l’on en croit Reuters, OpenAI s’est également beaucoup rapprochée de Google ces derniers mois. Les deux entreprises seraient en discussions depuis longtemps, dans l’optique d’augmenter les capacités de calcul dont OpenAI a tant besoin.
Selon nos confrères, un accord aurait été trouvé en mai, bien qu’aucune des deux entreprises n’ait encore fait d’annonce à ce sujet. La question de l’accord avec Microsoft n’aurait pas été un problème, OpenAI ayant un partenariat révisé depuis les prémices du projet Stargate. Ce dernier, qui pourrait se voir doter d’un projet de 500 milliards de dollars, prévoit en effet qu’OpenAI sera au centre d’une immense infrastructure, à laquelle Microsoft ne participe pas.
Reuters, sûr de ses sources, affirme que cet accord a quelque peu surpris nombre d’observateurs. ChatGPT a été considéré comme le plus grand coup de pioche dans les activités historiques de Google depuis la création du moteur de recherche. En outre, si le partenariat peut être vu comme une grande victoire pour Google Cloud – toujours loin derrière AWS et Azure – c’est en revanche une autre affaire pour la division IA du géant.
Selon plusieurs sources, l’accord était en projet depuis un bon moment. OpenAI chercherait activement à réduire sa dépendance à Microsoft. Le père de ChatGPT se serait particulièrement intéressé à la puce TPU de Google, quand bien même il développe actuellement sa propre puce. Ce type de développement est d’ailleurs en plein essor, y compris chez Microsoft, pour réduire une dépendance vive à NVIDIA.
Pendant ce temps, chez Sam Altman
Le CEO d’OpenAI a publié cette nuit un billet dans lequel il le redit : la singularité n’est plus loin. Il parle d’ailleurs de « singularité douce ». En somme, la « superintelligence numérique » est toujours à l’horizon, mais la transition vers ce miracle technologique va se faire progressivement.
Pour Altman, c’est une question quasi mathématique. Selon lui, de nombreux scientifiques témoigneraient déjà de gains conséquents de productivité. Grâce à l’IA, des produits plus puissants seraient créés, permettant à leur tour des avancées scientifiques, qui à leur tour permettent une évolution des outils. Un cercle vertueux qui ne pourrait aboutir qu’à une amélioration générale de la qualité de vie.
Altman donne également quelques informations sur la consommation moyenne d’une requête à ChatGPT. Selon le CEO, elle serait de 0,34 Wh pour l’électricité et d’un « quinzième de cuillère à café » d’eau. « Au fur et à mesure que la production des centres de données s’automatise, le coût de l’intelligence devrait finir par se rapprocher du coût de l’électricité », affirme-t-il.
« Le rythme auquel de nouvelles merveilles seront réalisées sera immense. Il est difficile d’imaginer aujourd’hui ce que nous aurons découvert en 2035 ; nous passerons peut-être de la résolution des problèmes de physique des hautes énergies une année au début de la colonisation de l’espace l’année suivante ; ou d’une percée majeure dans la science des matériaux une année à de véritables interfaces cerveau-ordinateur à large bande passante l’année suivante ».
Il évoque quand même deux problèmes loin d’être résolus. D’abord l’alignement, c’est-à-dire l’assurance que l’IA va dans le même sens « ce que nous voulons vraiment collectivement à long terme ». Il cite en exemple les algorithmes des médias sociaux, selon un cas classique d’IA mal alignée puisqu’elle troque le long terme pour une préférence à court terme. Ensuite, il faudra rendre cette superintelligence « bon marché, largement disponible et pas trop concentrée sur une personne, une entreprise ou un pays ».
En 2025, alors que Bouygues Telecom va mettre fin à toutes ses offres prépayées, Free Mobile décide de se lancer dans l’aventure avec des recharges de 5 à 50 euros (valables jusqu’à 90 jours) et des « Pass ».
Comme l’a repéré le fin limier Tiino-X83 sur X, Free Mobile a mis en ligne un site avec de nouvelles offres : des cartes prépayées. Ce matin, le site permettait de créer un compte et se connecter, mais cette procédure est « cassée » maintenant et nous n’arrivons plus à nous connecter à notre compte. iliad n’a pas encore communiqué officiellement sur ses cartes prépayées, les choses peuvent donc évoluer.
Contrairement au forfait où l’on paye tous les mois pour une offre précise avec parfois du « hors forfait », les cartes prépayées permettent d’acheter « des crédits » à utiliser selon vos besoins. Il existe aussi des « pass », sorte de formules tout en un avec appels, SMS/MMS et data à utiliser dans un délai contraint, sans possibilité de dépassement.
C’est un marché en dents de scie, comme le rappelait récemment l’Arcep, il y a quelques semaines. Au premier trimestre 2025, le prépayé progressait de 20 000 cartes « après une baisse de 220 000 cartes au premier trimestre 2024 ». Sur un an, la croissance est inférieure à 1 % depuis le quatrième trimestre 2023.
Free semble, quoi qu’il en soit, décidé à se lancer… en espérant que cela ne fasse pas comme avec la 2G : un petit tour et s’en va. L’opérateur avait pour rappel activé ses premières antennes en 2022, avant de plier boutiques quelques mois plus tard, après une prolongation de l’itinérance sur le réseau 2G et 3G d’Orange.
Des recharges de 5 à 50 euros, valables de 30 à 90 jours
Dans les grandes lignes, les cartes vont de 5 à 50 euros, avec des durées de validité de 30 à 90 jours. Il faut évidemment acheter une carte SIM pour en profiter, elle est facturée 5 euros.
Vous payez ensuite à la consommation : 5 centimes la minute de communication, le SMS ou le MMS « depuis la France métropolitaine, DOM et Europe vers la France métropolitaine ». Toujours depuis la France métropolitaine, les DOM et l’Europe, le Mo est facturé 5 centimes., soit 50 euros le Go.
Une fois la durée de validité dépassée, « le service est résilié automatiquement dans un délai de 30 jours […] entraînant la désactivation de la carte SIM Free prépayé et la perte du numéro », précise Free.
« En cas de demande de portabilité sortante l’utilisateur pourra, sur demande, obtenir le remboursement des crédits restant sur son compte prépayé au jour de la date de portage », précise l’opérateur.
Des Pass Internationaux (Maroc, Tunisie, Cameroun, Madagascar, Mali)
Free propose aussi des Pass nationaux et internationaux, tous avec une durée de validité de 30 jours maximum (certains sont à 15 jours), des SMS, MMS et appels illimité en France. La différence se fait donc sur les appels internationaux et la quantité de data incluse.
Le Pass Free M à 9,99 euros propose ainsi « 100 minutes vers les mobiles États-Unis, Canada, Alaska, Hawaï, Chine et DOM et fixes de 100 destinations », 200 Go de data en 4G/5G, dont 10 Go en Europe et DOM.
Les Pass internationaux ont plusieurs déclinaisons en fonction des pays vers lesquels les communications sont incluses : Maroc, Tunisie, Cameroun, Madagascar et le Mali. À chaque fois, il est précisé que c’est « sur les mobiles de l’opérateur Orange » dans le pays concerné.
Pas d’eSIM, pas de migration depuis/vers les forfaits
Free Mobile ne parle pas d’eSIM dans sa brochure tarifaire, mais indique qu’il est possible d’activer un renouvellement automatique des Pass prépayés depuis le compte utilisateur. Le renouvellement peut être payé via le crédit restant sur la carte prépayé ou via une carte bancaire.
L’opérateur précise enfin que « les forfaits mobiles Free et les offres Free Prépayé sont distincts. Si vous souhaitez profiter d’une offre prépayée vous devez commander une carte SIM Free Prépayé ». Pas de migration donc entre les forfaits et le prépayé.
Bouygues Telecom s’en va, Orange et SFR restent en place
Free est le dernier arrivé sur le marché du prépayé, qui compte déjà bon nombre d’acteurs. Les trois autres opérateurs nationaux sont présents : Orange avec ses Mobicartes de 2,99 à 19,99 euros , SFR avec des « cartes » de 4,99 à 19,99 euros et Bouygues Telecom… mais les offres vont disparaitre dans quelques jours, le 30 juin de cette année.
À chacun de comparer en fonction de ses besoins. Le Pass Free S à 5 euros propose des appels, SMS/MMS illimité et 5 Go de 5G en France, en Europe et dans les DOM. À ce jeu, SFR fait mieux avec 10 Go pour le même prix.
Si on passe à 15 euros par contre, la donne est différente. 300 Go en 5G (17 Go en Europe et DOM) pour le Pass Free L, avec des appels illimités vers les mobiles États-Unis, Canada, Alaska, Hawaï, Chine et DOM, ainsi que les fixes de 100. destinations
Chez SFR, la carte prépayée à 15 euros ne propose que 80 Go (32 Go par contre depuis l’Europe et les DOM). Orange est à 150 Go (dont 25 Go en Europe) pour 17 euros, avec « 2 h d’appels vers Europe, Royaume-Uni, USA/Canada + 30 min d’appels vers les mobiles Orange Afrique ». Ces trois offres ont une durée de validité d’un mois.
Des opérateurs virtuels proposent aussi des cartes prépayées. C’est notamment le cas de La Poste Mobile, tandis que d’autres comme Lebara et Lycamobile proposent des « forfaits prépayés » avec une validité de… 30 jours.
Dans le deuxième épisode d’Écosystème, Philippe Bihouix revient sur les enjeux que pose le recours permanent à de nouvelles technologies en termes de ressources.
En 2014, l’ingénieur Philippe Bihouix publie L’Âge des Low Tech (Seuil), un ouvrage dans lequel il alerte sur la facilité avec laquelle la société tend à proposer des solutions techniques à chaque problématique environnementale. « L’alerte consistait à dire que cette solution high tech consomment toujours plus de ressources, souvent des ressources plus rares, et que cette mécanique nous éloigne du recyclage » et des logiques d’économie circulaire, explique-t-il à Next.
Dix ans plus tard, la question des ressources est devenue plus visible dans l’espace public. La promotion des mobilités électriques y a participé, de même que les débats économiques et géopolitiques sur l’accès aux terres rares et aux matériaux déclarés critiques et stratégiques par l’Union européenne.
Dans le deuxième épisode du podcast Écosystème, disponible ici ou sur votre plateforme d’écoute habituelle, Philippe Bihouix revient sur les enjeux que pose le numérique en termes de ressources.
Dans le premier épisode d’Écosystème, le fondateur de GreenIT Frédéric Bordage qualifiait le recyclage d’objets numériques de « vue de l’esprit ». En 2022, l’Institut des Nations Unies pour la formation et la recherche (Unitar) relevait en effet qu’à peine un cinquième des déchets électroniques avaient été correctement recyclés, et que leur volume augmentait cinq fois plus rapidement que celui de leur collecte et de leur recyclage.
C’est avec ces considérations en tête que Philippe Bihouix argumente à longueur d’ouvrages en faveur de la sobriété. Ainsi, dans la bande dessinée Ressources (avec Vincent Perriot, Casterman, 2024), le voit-on lancer : « Chaque fois que nous produisons un smartphone, nous le faisons au prix d’une baisse d’équipement de dentiste de l’an 2200 ! »
L’idée est de « s’intéresser à cette question des ressources non renouvelables », indique-t-il à Next. Les métaux contenus dans un smartphone le sont en quantité tellement infime, « qu’il est techniquement inenvisageable de les recycler. De fait, ces ressources utilisées dans nos smartphones deviendront indisponibles pour le futur. »
Pour l’ingénieur, pointer ces enjeux permet d’ouvrir la question du « discernement technologique ». Dans La ruée minière au XXIe siècle (Seuil, 2024), la journaliste Célia Izoard détaille en effet combien l’extraction de ressources se fait au prix d’impacts sur la biodiversité, sur la consommation d’eau, de génération de déchets toxiques, etc, tandis que Philippe Bihouix rappelle que le reste de la chaîne de valeur est lui aussi énergivore et source de multiples impacts environnementaux.
« Prenons l’exemple de l’intelligence artificielle. Bien sûr, il y a différents modèles, mais on voit bien les centaines de centres de données en construction, on voit qu’ils ont des échelles hyperscales » – le terme est employé pour qualifier des centres de données de très grande ampleur, généralement déployés par des fournisseurs de services cloud. On voit que ces centres sont des « monstres qui consomment l’équivalent de villes de dizaines de milliers d’habitants », continue Philippe Bihouix. « Là, l’approche du discernement technologique permettrait de demander : à quoi peut bien servir cette IA ? Si c’est pour faire des images de nounours sympathique ou les menus de la semaine, ça paraît anecdotique. »
S’il faudrait débattre pour estimer quels usages sont les plus utiles et lesquels les plus futiles, l’ingénieur appelle à considérer « qu’aujourd’hui, ces technologies provoquent un gaspillage assez incroyable de ressources »… et que ces usages sont autant « d’opportunités que n’auront pas les générations futures ».
Adaptations systémiques
En 2014, déjà, Philippe Bihouix soulignait qu’il existait de nombreuses adaptations possibles pour faire face à l’usage croissant de ressources et se rapprocher d’une économie plus circulaire. « Plutôt que des solutions techniques, il s’agit en fait de solutions culturelles, organisationnelles, sociales, sociétales. »
Une décennie plus tard, l’ingénieur revient sur une dynamique en demi-teinte. L’intérêt pour « des solutions sobres et résilientes » s’est éveillé, le mot et l’idée de low tech s’installent, « dans des programmes de recherche, dans les écoles d’ingénieurs, d’architectes ».
En parallèle, cela dit, « le gros de l’intérêt public reste focalisé sur une logique de business as usual ». Évoquant les smart grids ou l’intelligence artificielle, Philippe Bihouix évoque « l’idée selon laquelle il faudrait mettre des millions, voire des milliards d’euros dans tel ou tel domaine… cette obsession selon laquelle il faudrait courir aussi vite que les autres, au risque de se faire distancer ».
À l’heure où 89 % de la population mondiale voudrait plus d’action politique pour lutter contre les bouleversements environnementaux, l’ingénieur s’étonne du maintien de ces logiques « qui obligent à courir deux fois plus vite pour faire du surplace ».
Et de souligner que deux crises récentes, celle du Covid-19 puis la guerre en Ukraine, ont montré que « des évolutions de normes sociales, culturelles ou de pratiques pouvaient aller très rapidement ». En faisant pression sur l’approvisionnement en énergie, le conflit ouvert par la Russie a permis de montrer que la notion même de sobriété devenait plus largement acceptable.
« L’inconvénient est que cette notion reste manœuvrée par la puissance publique en termes de sobriété individuelle : il faudrait moins chauffer, prendre le vélo, covoiturer… alors qu’une sobriété beaucoup plus systémiques pourrait être adoptée par les organisations », via des incitations fiscales ou réglementaires.
La souveraineté par la sobriété ?
Pour Philippe Bihouix, cette recherche de sobriété numérique, voire de capacité à « fonctionner en mode hybride ou dégradé », comme a pu y obliger la pandémie, est intéressante à plusieurs titres. Le cas de cyberattaques contre les hôpitaux l’illustre bien : non seulement le tout-numérique soulève des enjeux environnementaux, mais il en pose d’autres en termes de (cyber)sécurité comme de continuité du service fourni.
L’ingénieur appelle donc à « des évolutions de compétences économiques et d’expertises », qui permettraient de faire durer les outils déjà déployés, et de favoriser l’adaptabilité des processus qui fonctionnent grâce aux infrastructures numériques. Ces nouvelles stratégies d’organisations nécessiteraient, avant tout, d’améliorer la réparabilité et la maintenance des objets technologiques qui font désormais partie de nos quotidiens, « jusqu’au niveau des composants ».
« À court terme, imaginer numériser nos villes et l’ensemble des services essentiels, cela veut dire créer des dépendances à une cinquantaine de pays différents, que ce soit pour les ressources extraites, les lieux où sont stockées les données, etc. »
À l’inverse, adopter des modes de réflexion axés sur « l’usage et la maintenance du stock existant » – que l’on parle du stock de ressources, ou, dans les strates supérieures, des équipements déjà disponibles – n’est pas uniquement un sujet utile aux générations futures, insiste Philippe Bihouix. Au contraire, en favorisant l’adaptation, il permet aussi d’œuvrer à des formes de souveraineté, voir « de résilience ».
Selon une évaluation de la CNIL, la transparence imposée par le RGPD aurait permis d’éviter des coûts situés dans une fourchette de 90 et 219 millions d’euros en France.
La CNIL veut montrer que le RGPD n’est pas qu’une question de principes. L’autorité française de protection des données a publié ce mois-ci une analyse économique des conséquences bénéfiques du RGPD sur les finances des entreprises françaises concernant la cybersécurité. « Le RGPD incite les entreprises à investir davantage dans la cybersécurité, afin de limiter l’impact du cybercrime à l’échelle de la société et présente donc un bénéfice pour l’ensemble des acteurs », affirme l’autorité dans la conclusion de son étude [PDF].
La CNIL déplorait l’année dernière que la plupart des études d’impact à propos du RGPD « se concentrent sur les coûts sans suffisamment mesurer les bénéfices pour les entreprises et les gains de bien-être pour les personnes ». Elle a donc entrepris elle-même de mesurer certains bénéfices du règlement européen, six ans après sa mise en application, et notamment ceux concernant les préjudices liés à la cybersécurité.
Estimation du gain sur les usurpations d’identité
L’étude de l’autorité se limite aux usurpations d’identité « car il s’agit du délit en cybercriminalité dont le coût est le mieux documenté ». Elle rappelle pour autant qu’ « il faut garder en tête que ce n’est qu’une seule forme de cybercrime ». Elle ajoute même que « les gains reflétés par le RGPD dans cette partie ne sont vraisemblablement qu’une faible partie des gains totaux en matière de prévention du cybercrime puisqu’il est difficile de documenter, en raison du manque de données, ceux liés aux autres formes de cybercrime (comme les rançongiciels par exemple) ».
S’appuyant sur une étude scientifique parue en 2018, l’autorité explique qu’une entreprise aurait intérêt, pour elle-même, à ne pas révéler les failles de sécurité de grande ampleur, « les inconvénients d’une transparence étant supérieurs aux avantages, au regard du nombre de personnes potentiellement exposées ». « Pour ces entreprises, la stratégie optimale serait alors de dévoiler une cyberattaque peu importante, mais de ne pas révéler une fuite de données conséquente », ajoute-t-elle. Les clients subiraient les conséquences sans pouvoir réagir.
Avec l’obligation de transparence imposée par l’article 34 du RGPD, les entreprises sont poussées à éviter les fuites. C’est ce gain que l’autorité a mesuré. L’autorité explique que « l’impact de ce type de politique sur l’usurpation d’identité a été étudié à deux reprises par la littérature économique. Romanosky (2011) trouve [PDF] une baisse de 6,1 % du nombre d’usurpations d’identité et Bisogni (2020) trouve une baisse de 2,5 % suite à la mise en œuvre d’une politique de communication de violation de données ».
Entre 54 et 132 millions d’euros de coûts évités en France
En s’appuyant sur ces travaux et des estimations sur le coût du cybercrime, l’étude de la CNIL calcule une fourchette des coûts directs des usurpations d’identité évitées par la notification de violation de données, mais aussi des coûts indirects.
Selon la CNIL, la France aurait évité entre 54 et 132 millions d’euros de coûts directs liés aux usurpations d’identités. En Europe, cette fourchette serait de 405 à 988 millions d’euros de coûts évités.
Concernant les coûts indirects, l’autorité reste prudente : « comme il semble possible de l’imaginer, si le coût direct d’un cybercrime est complexe à estimer, ses coûts indirects le sont d’autant plus ». L’étude explique que ces coûts sont entre autres dus à la perte de confiance des individus quant à la sécurité des données personnelles. La CNIL cite en exemple une étude publiée en 2017 qui estime qu’en Belgique, « 5,9 % et 10,4 % de la population ont respectivement limité leurs usages des banques en ligne et de e-commerce en raison des risques de cybersécurité ». En s’appuyant sur des modélisations, l’autorité a estimé ce coût indirect.
C’est en additionnant les coûts directs et indirects estimés que l’autorité arrive à une fourchette de 90 à 219 millions d’euros d’économies grâce au RGPD en France concernant l’usurpation d’identité. En Europe, cette fourchette situe ce coût entre 585 millions et 1,4 milliard d’euros :
L’autorité explique que « c’est un premier chiffre qui vise principalement à illustrer les potentiels gains du RGPD plutôt qu’à en rendre compte dans leur intégralité ». Elle ajoute qu’ « en effet, en raison des limites dans les données disponibles, il est difficile de fournir une estimation rigoureuse des autres gains liés à la cybersécurité permis par le RGPD ».
La décision n’est pas totalement une surprise. GNOME a récemment annoncé son intention de couper le support du serveur graphique dans sa prochaine version 49. Dans les plans actuels, GNOME 50 supprimerait définitivement tout le code lié à X11.
GNOME 49 devrait être finalisé pour le 17 septembre. À cette date, cela signifie une inclusion dans les deux distributions majeures que sont Ubuntu et Fedora. Puisque Ubuntu 25.10 embarquera le nouveau GNOME, Canonical a décidé de jouer le jeu et ne proposera plus de session GNOME basée sur X11. À noter que le support de X11 sera maintenu pour les applications, à travers XWayland.
« Au cours des derniers cycles, l’expérience Wayland a considérablement évolué, notamment en améliorant la prise en charge des pilotes NVIDIA, en offrant un modèle de sécurité plus robuste, une prise en charge stable de la plupart des flux de travail quotidiens, une meilleure isolation de la pile graphique et une meilleure prise en charge du tactile et du hiDPI », explique Jean-Baptiste Lallement, ingénieur logiciel en chef chez Canonical.
L’ingénieur explique que la maintenance des deux types de session en parallèle (X11 et Wayland) « introduit une dette technique » et augmente mathématiquement la charge.
Comme nous l’indiquions en mai, la dernière version d’Ubuntu avant la prochaine LTS (Long Term Support) est toujours importante. Canonical se dépêche d’introduire autant de modifications que possible, afin qu’elles passent l’épreuve du temps et soient davantage éprouvées lorsque la LTS survient. Ces versions étant maintenues 5 ans – et même 12 ans avec Ubuntu Pro – elles sont prévues pour rester installées sur de longues périodes.
L’entreprise française a lancé hier ses deux premiers modèles de raisonnement. Nommés Magistral Small et Magistral Medium, ils ont été copieusement comparés au modèle chinois DeepSeek R1. Rappelons que les modèles dits de « raisonnement » décomposent les problèmes en étapes successives dont les résultats sont contrôlés. La précision est donc supérieure, au prix d’un traitement plus long et d’une consommation plus importante.
Le premier, Magistral Small, est un modèle open source de 24 milliards de paramètres. Il est déjà téléchargeable sur Hugging Face, sous licence Apache 2.0. Medium, quant à lui, est la nouvelle star de l’entreprise. Il n’est pour l’instant disponible que sous forme de préversion à travers l’API officielle et Le Chat.
Magistral Medium vise surtout les entreprises. Il a été entrainé spécifiquement, selon Mistral, pour les tâches en lien avec les lois, la finance et l’ingénierie. Magistral Medium dispose d’un vaste support multilingue, prenant en charge l’anglais, le français, l’espagnol, l’allemand, l’italien, l’arabe, le russe et le chinois simplifié. Medium propose également un mode « Flash Answers », capable de répondre 10 fois plus vite, au prix bien sûr de la précision. Le modèle sera prochainement disponible sur Amazon SageMaker, IBM WatsonX, Azure AI et Google Cloud Marketplace.
« S’appuyant sur nos modèles phares, Magistral est conçu pour la recherche, la planification stratégique, l’optimisation opérationnelle et la prise de décision fondée sur des données – qu’il s’agisse d’évaluer les risques et de modéliser avec de multiples facteurs ou de calculer les fenêtres de livraison optimales en fonction des contraintes », explique Mistral.
Ces deux nouveaux modèles ne semblent pas briller par des performances supérieures à la concurrence. Dans ses graphiques, Magistral fait dans les grandes lignes jeu égal avec DeepSeek R1. Cependant, d’après les propres scores donnés par Mistral, Magistral Medium fait moins bien que Gemini 2.5 Pro et le récent Claude Opus 4.
Google a annoncé hier soir le déploiement de la nouvelle version d’Android à l’ensemble de ses smartphones Pixel compatibles. Pour recevoir la mise à jour, il faut avoir au moins un modèle de la série 6 ou un Pixel Fold. La diffusion est mondiale et la nouvelle version devrait être disponible dès à présent.
Android 16 signe le lancement du nouveau langage visuel de Google, nommé Material 3 Expressive. Si les annonces d’Apple autour de son Liquid Glass ont divisé, la vision de Google n’est pas sans créer quelques remous également. Il s’agit pour l’instant des éléments de base, Google précisant que sa nouvelle identité se répandra progressivement dans toutes ses applications d’ici la fin de l’année.
Si le nouvel Android embarque moins de nouveautés visibles que les années précédentes (hors renouvellement de l’interface), il y a plusieurs améliorations notables. Le système récupère par exemple un équivalent des Activités en direct d’Apple, qui permettent d’afficher sur l’écran verrouillé des informations « live » sur un processus, comme la livraison d’un produit ou l’arrivée d’un VTC.
Android 16 peut grouper automatiquement les notifications provenant d’une même application, en les réunissant au sein d’un même encadré, avec possibilité de revenir à la liste complète. La nouvelle version apporte aussi des améliorations comme le taux de rafraîchissement adaptatif et le support du HDR dans les captures d’écran.
Android 16 démocratise également la Protection avancée de Google. Ce mécanisme, à l’instar de ce que l’on trouve sur les appareils Apple, permet de bloquer certains mécanismes et de réduire la surface d’attaque. Il s’agit désormais d’une simple option à activer dans les paramètres du système. Ce mode active tous les mécanismes de protection d’Android et de contrôle des applications tierces et empêche leur désactivation. C’est avec cette Protection avancée que le fameux redémarrage intervient au bout de 72 heures passées sans déverrouillage de l’écran, pour rebasculer l’appareil en état initial avant le premier déverrouillage.
À noter également une meilleure prise en charge des prothèses auditives. La voix devrait être plus claire dans les environnements bruyants et une commande native pour les appareils fait son apparition dans le système. « Cela signifie que vous pouvez désormais contrôler des éléments tels que le volume de vos appareils auditifs directement à partir de votre téléphone Android », indique Google.
Premières briques pour un mode bureau
Certaines nouveautés sont majeures. Par exemple, Google a travaillé avec Samsung pour donner – pour la première fois – un bureau à Android. Samsung dispose en effet d’une belle expérience dans ce domaine avec sa technologie DeX, en place depuis des années.
Cette version d’Android 16 ne contient que les bases de cette fonctionnalité, qui sera complétée plus tard dans l’année, probablement avec la version QPR1 du système cet automne. Notez que Google parle surtout pour l’instant de « productivité accrue pour les tablettes », alors que le DeX de Samsung vise surtout la connexion à des écrans pour créer un environnement de type ordinateur. Google, pour sa part, évoque cette capacité pour « les prochaines versions d’Android », sans plus de précision.
Les captures montées par Google montrent cependant le potentiel d’Android 16, avec une adaptation des applications en fenêtres et surtout une vraie barre des tâches étendue. L’entreprise a tout intérêt à frapper fort, car Apple a présenté lundi soir son nouveau système de fenêtrage pour iPadOS 26, qui reprend dans les grandes lignes les mêmes capacités que sur macOS, jusqu’à la disposition automatique des fenêtres et le mode Exposé.
Depuis février, les États-Unis appliquent des sanctions décidées par Donald Trump contre la Cour pénale internationale (CPI), en réaction aux enquêtes lancées contre Israël pour crimes de guerre perpétrés à Gaza. Mi-mai, nous apprenions que le procureur de la CPI, Karim Khan, avait dû changer d’hébergeur d’e-mail, passant de Microsoft à Proton.
Nous avions alors relayé l’affirmation de l’agence de presse AP selon laquelle Microsoft aurait supprimé le compte e-mail du procureur. À l’époque, l’entreprise n’avait pas répondu à nos confrères qui lui avaient demandé des précisions.
Karim Khan, Photo Raoul Somers publiée en Creative Commons by-sa
Dans une audition au Sénat ce mardi 10 juin, Microsoft a nié toute coupure de service. L’entreprise a été questionnée par le sénateur Dany Wattebled sur le fait que cette coupure prouverait que « Microsoft privilégiera par le Cloud Act toujours les injonctions américaines à ses engagements envers ses clients européens ». « Nous n’avons jamais suspendu ni coupé les services de la Cour pénale internationale, voilà ce que je peux dire sous serment », a affirmé le Directeur des Affaires publiques et juridiques de Microsoft France, Anton Carniaux.
Celui-ci donne peu de détail sur le sujet, mais il affirme : « nous avons discuté avec la CPI depuis le début pour trouver une solution, mais ça ne s’est pas traduit par une action de notre part ». Le changement d’hébergeur de mail de la CPI semble donc bien avoir été contraint par les sanctions décidées par le dirigeant étasunien, mais il aurait été opéré de façon plus douce que ce que nous affirmions.
Une commission parlementaire a pu vérifier que les services de renseignement italiens avaient bien espionné des militants d’ONG d’aide aux migrants. Elle n’a pas, par contre, retrouvé la trace du journaliste qui avait, lui aussi, reçu un message de WhatsApp l’informant qu’il avait été ciblé par le logiciel espion Graphite de la société israélienne Paragon, concurrent direct du Pegasus de NSO.
En décembre 2024, la messagerie WhatsApp avait identifié une campagne de piratage de son application ayant visé 90 utilisateurs via le logiciel espion Graphite de la société israélienne Paragon, concurrent direct du Pegasus de NSO.
Si la liste des personnes ciblées n’avaient pas été rendues publiques, The Guardian avait relevé qu’y figurait un journaliste d’investigation italien de Fanpage.it, Francesco Cancellato.
Ce dernier avait notamment enquêté sur de jeunes militants du parti d’extrême droite de la première ministre Giorgia Meloni, et révélé qu’en privé, certains tenaient des propos racistes et scandaient des chants et des slogans fascistes.
La semaine passée, la Commission parlementaire pour la sécurité de la République (COPASIR), chargée d’enquêter à ce sujet, a conclu qu’il n’y avait aucune preuve que M. Cancellato avait été la cible des deux services de renseignement italiens, l’AISI et l’AISE, mais confirmé qu’ils étaient bien clients de Paragon, relève TechCrunch, qui couvre l’affaire depuis le début.
Les représentants de la commission n’ont pas retrouvé le numéro de téléphone de M. Cancellato dans la base de données des logiciels espions et les journaux d’audit des services de renseignement italiens. Ils n’ont pas non plus trouvé de preuve de demandes légales d’espionnage de M. Cancellato émanant du bureau du procureur général du pays ou du Dipartimento delle informazioni per la sicurezza (DIS), un département du gouvernement italien qui supervise les activités de l’AISE et de l’AISI.
Le rapport note en outre que Paragon a plusieurs autres clients gouvernementaux étrangers qui pourraient potentiellement cibler des Italiens, ce qui pourrait expliquer que le téléphone du journaliste ait été ciblé, mais sans non plus fournir de preuve à l’appui de cette hypothèse.
En février, le Citizen Lab de l’Université de Toronto avait de son côté pu cartographier l’infrastructure serveur du logiciel espion Graphite, et identifié des indices de son déploiement en Australie, au Canada, à Chypre, au Danemark, en Israël et à Singapour.
TechCrunch relevait fin avril que Ciro Pellegrino, un collègue de Francesco Cancellato, avait de son côté reçu un message d’Apple l’informant qu’il aurait, lui aussi, été visé par un logiciel espion gouvernemental. Mais le rapport de la COPASIR ne mentionne pas son cas.
Des ONG d’aide et secours aux migrants en danger
La COPASIR a par contre confirmé que d’autres victimes du logiciel espion de Paragon avaient été ciblées légalement, notamment Luca Casarini et Beppe Caccia, qui travaillent pour l’organisation à but non lucratif italienne Mediterranea Saving Humans, qui vient en aide aux migrants qui tentent de traverser la mer Méditerranée, et David Yambio, président et cofondateur de Refugees in Libya, une ONG qui documente les violences et mauvais traitements dont sont victimes les réfugiés.
La commission a d’autre part conclu qu’il n’y avait aucune preuve de surveillance à l’encontre de Mattia Ferrari, un prêtre travaillant également sur le navire de sauvetage Mediterranea Saving Humans, et qui avait pourtant lui aussi reçu une notification de la part de WhatsApp.
D’après la COPASIR, l’AISE, le service de renseignement extérieur italien, avait commencé à utiliser Graphite le 23 janvier 2024 après avoir signé un contrat un mois plus tôt, et utilisé le logiciel espion de Paragon dans le but d’enquêter sur « l’immigration illégale, la recherche de fugitifs, la contrebande de carburants, le contre-espionnage, la lutte contre le terrorisme et le crime organisé, ainsi que pour les activités de sécurité interne de l’agence elle-même ».
L’AISI, le service italien de renseignement intérieur, avait de son côté commencé à utiliser Graphite plus tôt en 2023. Comme l’AISE, l’AISI aurait utilisé Graphite dans un nombre restreint mais non divulgué de cas liés à l’acquisition de communications en temps réel, tandis que les cas sont « un peu plus nombreux » lorsqu’il s’agit d’exfiltrer des messages de chat stockés sur les appareils d’une cible, relevait TechCrunch.
Paragon annule son contrat avec l’Italie, qui parle d’une décision conjointe
Dans un communiqué, relayé par Haaretzpuis TechCrunch, Paragon vient par ailleurs d’accuser le gouvernement italien d’avoir refusé son aide en vue de déterminer si un journaliste avait bien été espionné au moyen de sa technologie :
« La société a proposé au gouvernement et au parlement italiens un moyen de déterminer si son système avait été utilisé contre le journaliste en violation de la loi italienne et des conditions contractuelles. Les autorités italiennes ayant choisi de ne pas donner suite à cette solution, Paragon a mis fin à ses contrats en Italie. »
Quelques heures après la publication de l’article de Haaretz, le gouvernement italien a rétorqué que « Paragon n’a pas résilié unilatéralement le contrat », souligne l’Agenzia Nazionale Stampa Associata (ANSA), la principale agence de presse italienne.
Elle précise que les agences de renseignement et Paragon Solutions « ont décidé d’un commun accord de suspendre l’utilisation du logiciel espion Graphite », le 14 février dernier. Puis, le 12 avril, les mêmes ont signé un second document « concluant les relations commerciales entre les parties, sans autres demandes ni tâches ».
Le DIS n’a pas « considéré comme acceptable la proposition de Paragon d’effectuer une vérification des journaux système des plateformes Graphite utilisées à l’AISE et l’AISI, en tant que pratiques invasives, non vérifiables dans leur portée, leurs résultats et leur méthode et, par conséquent, non conformes aux besoins de sécurité nationale », précise ANSA.
La COPASIR s’est elle aussi déclarée surprise par la déclaration de Paragon, note ANSA, et indiqué qu’elle était disposée à déclassifier le contenu de l’audience qu’elle a tenue avec les représentants de Paragon le 9 avril pour défendre son travail dans le cadre de l’enquête.
Paragon avait été racheté par un fonds état-unien fin 2024
Paragon a été créé en 2019 par des vétérans de l’unité 8200, le service de renseignement technique israélien, considéré comme l’un des meilleurs au monde, et l’ancien premier ministre Ehud Barak. Il avait été racheté en décembre dernier par le géant américain du capital-investissement AE Industrial Partners pour 500 millions de dollars.
En fonction de la croissance de l’entreprise, l’opération pourrait atteindre 900 millions de dollars, d’après le site d’information Calcalist. Un retour sur investissement qualifié d’« exceptionnel », alors que Paragon n’avait levé, jusque là, que 30 millions de dollars.
Selon Globes, le paiement initial s’élève à 450 millions de dollars, dont 20 % iront aux 400 employés de Paragon et 30 % aux cinq cofondateurs, les 50 % restants allant au fonds de capital-risque américain Battery Ventures (qui avait investi entre 5 et 10 millions de dollars dans Paragon en 2021) et au fonds de capital-risque israélien Red Dot.
Contrairement à d’autres entreprises israéliennes spécialisées dans les cyberattaques, telles que NSO et Candiru, soulignait Globes, Paragon Solutions avait dès le départ bénéficié d’investissements états-uniens, afin de n’opérer que dans 34 pays définis comme démocratiques, en coordination avec les autorités chargées de la sécurité et les systèmes juridiques locaux.
De plus, et contrairement ses concurrents, son logiciel espion Graphite ne prendrait pas de photos de l’utilisateur avec le capteur de son téléphone, et n’utiliserait pas le microphone du téléphone, se bornant à n’enregistrer que les conversations vocales dans les applications de chat.
En outre, relevait Calcalist, Paragon figurait sur la liste des « bonnes » entreprises établie par l’administration Biden, parce qu’elles s’abstiennent de commercer avec des régimes non démocratiques, ce qui aurait joué un rôle essentiel dans la sécurisation de la transaction et l’entrée de Paragon sur le marché états-unien.
La société avait également commencé à vendre ses produits aux États-Unis il y a environ deux ans et compte parmi ses clients la Drug Enforcement Administration (DEA) et les autorités de sécurité de Singapour, où elle a remplacé les technologies de sociétés israéliennes figurant sur la liste noire des États-Unis.
Globes estimait que ce nouvel accord permettrait à Paragon d’étendre son empreinte commerciale dans des pays tels que le Royaume-Uni et l’Irlande, l’Australie, la Nouvelle-Zélande et le Canada, ainsi que les États-Unis.
Le réseau social X pourrait-il se retrouver logé à la même enseigne que les sites pornographiques, et se voir contraint, comme ces derniers, à instaurer une vérification de l’âge des internautes avant connexion ? L’idée a une nouvelle fois été avancée, cette fois par le cabinet de Clara Chappaz.
D’aucuns diront que le nom choisi par Elon Musk pour incarner la nouvelle gouvernance de Twitter était prédestiné : d’après Politico, le gouvernement français étudierait la possibilité de classifier le réseau social comme un site pornographique. Ce dernier se retrouverait donc forcé aux mêmes mesures de contrôle d’âge que celles décidées pour les grandes plateformes du secteur.
Une idée qui circule depuis mai 2024
L’idée n’est pas nouvelle : elle a plusieurs fois fait surface depuis que la direction de X a, en mai 2024, très ouvertement annoncé qu’elle ne s’opposait pas à la diffusion de contenus adultes par ses utilisateurs. « Tant que ces contenus sont produits et diffusés avec le consentement des personnes représentées, nous pensons que nos utilisateurs ont le droit de les créer, de les diffuser et de les consommer », résumait alors la plateforme.
« L’officialisation par X de la diffusion de contenus pornographiques ou violents ressemble à une provocation, sans doute à fins commerciales. Quelle qu’en soit la motivation, X devra mettre en place, comme tous, une vérification efficace et opérationnelle de l’âge de ses utilisateurs pour accéder aux contenus pour adultes mais aussi respecter nos textes législatifs sur la prévention du harcèlement et des violences », menaçait en réponse Marina Ferrari, alors secrétaire d’État au Numérique.
Cette fois, c’est la bonne ?
Un an plus tard, Clara Chappaz a succédé à Marina Ferrari, mais l’idée est restée. Désormais secrétaire d’État chargée de l’Intelligence artificielle et du Numérique, la représentante du gouvernement en a esquissé les prémices le 5 juin dernier. Invitée sur le plateau de l’émission Quotidien, elle avait alors laissé entendre que X recevrait bientôt le même genre de « jolis papiers » que ceux reçus par Pornhub et consorts, mis en demeure d’instaurer un contrôle d’âge en France.
« X indique depuis 2024 que la diffusion de contenu pornographique est autorisée. Il doit donc être traité en tant que tel », a confirmé son cabinet, lundi, à Politico. Les équipes en charge du sujet étudieraient actuellement la meilleure façon d’intégrer X au décret fixant la liste des sites auxquels le contrôle d’âge est imposé.
Une mise en œuvre toujours très contestée
Elon Musk aurait-il d’autres chats à fouetter ? X n’a pour l’instant pas réagi à cette menace, encore non formalisée, mais le réseau social aura beau jeu, s’il souhaite contester la mesure, d’aller piocher des arguments dans la défense mise en place par le groupe Aylo. Éditeur de sites porno parmi les plus populaires au monde, ce géant du secteur entretient depuis début juin la polémique en France avec une annonce choc : le blocage préventif de ses principales adresses, en guise de mesure censée alerter l’opinion publique.
Les éditeurs de 17 sites pornographiques sont en effet censés procéder depuis le 7 juin dernier au contrôle de l’âge des utilisateurs suite à la publication des décrets d’application découlant de la loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique, dite SREN. En cas de défaut, l’Arcom est censée pouvoir demander au tribunal administratif de prononcer « le blocage des sites pornographiques qui ne contrôlent pas l’âge de leurs utilisateurs », ainsi que « leur déréférencement des moteurs de recherche sous 48 heures ».
L’Europe emboîtera-t-elle le pas à la France ?
Outre le coup d’éclat d’Aylo, la position de la France est également attaquée par les éditeurs concernés sur des fondements juridiques. Ainsi, la Cour d’appel de Paris remettait en question, début mai, l’application extraterritoriale du droit français à des sites installés ailleurs en Europe, en l’occurrence, xHamster et Tukif.
Dans le cas de X comme dans le dossier du contrôle d’âge en général, la position de l’Europe sera, de fait, scrutée de près. Le sujet fait en effet partie des discussions associées à la mise en application du Règlement sur le numérique (DSA), dont les lignes directrices sont d’ailleurs ouvertes à consultation jusqu’au 15 juin.
Dans ces lignes directrices, la Commission européenne constate que les contenus pornographiques peuvent ne représenter qu’une fraction d’un site ou du service offert par une grande plateforme. Elle estime dans ce contexte que les éditeur concernés doivent « mettre en œuvre une méthode de vérification de l’âge aussi proche que possible de ces risques ». Y aura-t-il bientôt une rubrique X sur X ?
Fin mai, Mozilla annonçait plusieurs mauvaises nouvelles. D’abord, la fermeture à venir pour le gestionnaire de favoris Pocket, service que l’éditeur avait pourtant racheté quelques années plus tôt. Fakespot ensuite, également racheté par Mozilla, visait la détection des faux avis sur les sites de commerce en ligne.
Mais Neowin a repéré d’autres fermetures prochaines. C’est surtout le cas d’Orbit, que Mozilla avait lancé pour fournir certaines capacités d’IA générative avec une approche plus respectueuse de la vie privée. Orbit devait ainsi résumer des e-mails, documents, articles et autres, sans réclamer de compte ou garder d’informations en réserve. Le service pouvait même s’occuper des vidéos.
Comme l’indique un bandeau jaune en haut de la page, Orbit fermera ses portes le 26 juin. Mozilla remercie au passage les personnes l’ayant soutenu dans sa démarche. Comme l’indique Neowin, on peut remplacer fonctionnellement Orbit par la barre latérale de Firefox et sa possibilité d’épingler d’autres services de GenIA, mais au détriment de la vie privée.
L’autre fermeture est celle de Deep Fake Detector. Cette extension a été créée pour repérer si un texte avait des chances d’avoir été écrit par une IA générative. Elle aussi disparaitra le 26 juin. Notez que si Mozilla renonce à son extension, ce n’est pas le cas pour la nôtre. Celle-ci permet d’afficher un message d’alerte sur les sites d’info générés par IA (GenAI), dont le nombre vient de dépasser le cap des 4 000.
Après les temps forts de la WWDC, nous nous penchons sur le reste des apports et sur la compatibilité des nouveaux systèmes. Les versions 26 sont clairement marquées par une grande uniformité dans les fonctions, renforcée par le langage visuel Liquid Glass. Dans l’ensemble cependant, la WWDC 2025 n’a pas brillé par le nombre de ses nouveautés.
Précisons d’emblée que toutes les bêtas sont disponibles depuis hier soir. Nous ne recommandons cependant pas leur installation, car il s’agit des premières préversions dédiées aux développeurs. Mieux vaut attendre les bêtas publiques, qui arriveront comme d’habitude en juillet. Si vous avez hâte de tester les nouveautés, cela donnera au moins le temps à Apple de corriger les bugs principaux (et il y en a).
Parlons d’abord compatibilité. iOS 26 réclamera au moins un iPhone 11 pour fonctionner. Traduction, les iPhone XS, XS Max et XR ne seront plus pris en charge et resteront sur iOS 18. Précisons également que pour Apple Intelligence, la situation est identique à l’année dernière : il faut avoir au moins un iPhone 15 Pro pour s’en servir, tous les appareils ayant moins de 8 Go de mémoire étant incompatibles.
On ne reviendra pas sur Liquid Glass, qui a occupé une bonne partie de la conférence. En revanche, Apple a présenté de nombreuses nouveautés, dont l’importance varie. Sur Apple Intelligence par exemple, on note quelques apports : la traduction automatique dans Message et Téléphone (mais uniquement à destination de l’anglais pour l’instant), la possibilité de déclencher Visual Intelligence depuis une capture d’écran, ou encore la possibilité pour les applications tierces de se servir des modèles présents sur le téléphone. Dans tous les cas, il s’agit de fonctions locales. Pour la traduction, cela induit une petite latence, mais rien n’est envoyé sur des serveurs distants.
Messages reçoit également plusieurs améliorations, comme les indicateurs d’écriture dans les groupes, la possibilité d’afficher un fond d’écran pour chaque conversation ou encore la création de sondages. Apple Music se dote de quelques nouveautés sympathiques, comme AutoMix, fonctionnant à la manière d’un DJ pour fluidifier le passage entre les titres. Mais on retiendra la possibilité de traduire les paroles d’une chanson et surtout une aide à la prononciation.
On retrouve çà et là des fonctions vues ailleurs, comme la personnalisation des dossiers dans Fichiers et l’arrivée d’Aperçu pour lire et annoter les PDF. iOS 26 reçoit aussi une nouvelle application : Games. Apple retente sa chance avec un lieu dédié aux jeux, avec contacts, organisation de compétition, comparaison de scores et ainsi de suite. L’ensemble est compatible avec les jeux commercialisés sur l’App Store, le service mettant bien sûr Arcade en avant.
Enfin, Apple avoue sans le dire son échec avec la nouvelle application Photos introduite dans iOS 18. Elle remet donc en place des onglets pour passer de la pellicule aux collections. Ces dernières sont davantage personnalisables et l’on peut d’ailleurs les épingler pour faciliter l’accès.
iPadOS 26 tire son épingle du jeu
Le système pour tablettes d’Apple est la star imprévue du show, grâce à son système de fenêtrage qui le rapproche d’un coup des Mac. Comme pour iOS 26, peu d’appareils sont abandonnés. Il n’y en a en fait qu’un : l’iPad classique de 7e génération. Et comme sur l’iPhone, la compatibilité avec Apple Intelligence reste limitée aux appareils ayant au moins 8 Go de mémoire : tous les modèles équipés d’une puce M et le dernier iPad mini.
Nous avons déjà eu les nouveautés principales du système : Liquid Glass, les fenêtres, le nouveau Fichiers, Aperçu, Téléphone ou encore Games, puisque l’application est disponible sur toutes les plateformes. L’iPad se retrouve dépositaire de la quasi-totalité des nouveautés annoncées pour iOS et macOS.
macOS Tahoe : le dernier pour les Mac Intel
Niveau compatibilité, le nouveau macOS ne fait pas bouger les lignes. Les quatre Mac Intel encore compatible avec Sequoia (MacBook Pro 16 pouces 2019, MacBook Pro 13 pouces 2020, iMac 2020 et Mac Pro 2019) pourront installer Tahoe. Mais les utilisateurs sont prévenus : c’est la dernière fois, et macOS 27 ne fonctionnera que sur des Mac équipés de puces Apple Silicon.
Cette nouvelle est accompagnée d’une autre, liée : Rosetta 2 sera encore présent dans macOS 27, mais plus après. Le composant, qui assure une compatibilité avec les applications Intel via l’émulation, n’a donc qu’un peu plus de deux ans à vivre. Cela devrait donner assez de temps aux retardataires. Steam par exemple, alors que la presque totalité du parc logiciel a migré il y a déjà plusieurs années.
Comme pour iPadOS, nous avons déjà abordé les points forts de Tahoe. Le nouveau macOS contient cependant quelques autres nouveautés. Metal par exemple, l’API dédiée à l’accélération graphique, passe en version 4. Elle se dote de nouvelles capacités comme MetalFX Frame Interpolation et MetalFX Denoising. Tahoe récupère également l’application Journal, jusqu’ici cantonnée à l’iPhone.
Étrangement, cette année, Apple n’avait pratiquement rien à dire sur Safari. Le navigateur n’a été abordé que durant les explications sur Liquid Glass.
Et pour le reste ?
Les nouveautés annoncées pour les autres plateformes sont plus légères. Côté watchOS par exemple, on note quelques apports pratiques. Par exemple, la possibilité de faire une rotation rapide du poignet pour supprimer une notification. La Pile intelligente se veut plus utile en tenant davantage compte du contexte pour proposer des actions. Dans Messages, des actions peuvent aussi être suggérées selon le contexte, comme le partage d’une position. watchOS 26 pourra s’installer sur tous les modèles ayant actuellement la dernière version stable du système.
tvOS 26 ne chamboulera pas les habitudes, même s’il y a un peu plus « à manger » que les années précédentes. L’essentiel des changements se concentre dans Liquid Glass, mais quelques fonctions ont réussi à se glisser dans le lot. Par exemple, la connexion automatique aux services, si les applications ont autorisé la jonction des comptes à celui d’Apple. Outre divers nouveaux designs, comme pour FaceTime et les jaquettes, tvOS 26 permet d’utiliser l’iPhone comme un micro pour chanter en karaoké, les invités pouvant faire de même. Beaucoup apprécieront la possibilité de déclarer un haut-parleur AirPlay comme sortie son par défaut. tvOS 26 pourra s’installer sur tous les modèles ayant actuellement tvOS 18, y compris la vénérable Apple TV HD sortie en 2015.
Quant à visionOS 26, il embarque des nouveautés significatives. Les widgets peuvent ainsi être disposés dans l’espace comme autant d’objets physiques. Une horloge sur une mur par exemple, ou la photo d’un paysage qui apparaitra comme une fenêtre donnant sur cet extérieur. Les photos peuvent se voir appliquer un effet 3D, les pages web peuvent être modifiées pour prendre en charge une navigation « spatiale », le support des contrôleurs de jeu augmente (notamment chez Sony), l’expérience de visionnage peut être partagée avec d’autres casques Vision Pro dans la même pièce et l’intégration avec Apple Intelligence est renforcée.
La grande uniformisation, mais…
Cette année peut être résumée simplement : peu d’IA, un nouveau langage graphique, un petit nombre de grosses nouveautés et une grande uniformisation.
Si les plateformes d’Apple se sont toujours distinguées par une certaine cohérence des fonctions, cette année marque une poussée franche. L’arrivée par exemple de Téléphone sur macOS est symptomatique, tout comme Aperçu sur iOS et iPadOS. Et s’il y a beaucoup à redire pour l’instant sur LiquidGlass (et nous le ferons), on peut créditer Apple d’un certain courage devant une tâche particulièrement ardue : pousser le même langage graphique sur l’ensemble de ses produits, même si cette vision doit être affinée (comme iOS 7 en son temps).
La question circule donc beaucoup depuis hier soir : les premières bêtas diffusées hier soir auprès des développeurs sont-elles vraiment proches du résultat final ? Au vu de ce que l’on a pu voir, il nous semble que le résultat actuel est assez « brut de décoffrage » et que l’ensemble devrait évoluer dans les bêtas. Apple procède souvent de cette manière quand des changements profonds sont introduits. Mais parfois, comme dans le cas de Photos, les errances durent plus longtemps.
Microsoft a commencé à déployer la nouvelle interface imaginée pour le menu Démarrer au sein du canal dédié aux futurs développements de Windows 11. Plus spacieuse, capable de s’adapter à la taille de l’écran et susceptible d’accueillir des notifications, elle confirme l’ambition renouvelée de faire du menu Démarrer le véritable hub du système d’exploitation.
On savait depuis quelques semaines que Microsoft travaillait à une refonte en profondeur du menu Démarrer de Windows 11. L’éditeur a finalement révélé lundi la direction prise par ces équipes, en distribuant une première version de cette interface repensée au travers du canal « Dev ». Celui-ci permet aux utilisateurs avertis de tester en avance de phase les futures évolutions du système.
L’occasion de découvrir un menu Démarrer non seulement agrandi, mais surtout paramétrable. Microsoft a choisi de prendre en compte les reproches relatifs à la rigidité de l’interface de son OS, rappelés dans notre dossier consacré à l’histoire de Windows 11.
Une nouvelle structuration en blocs
Rappelons que le menu Démarrer que donne à voir cette nouvelle build de Windows 11 est toujours susceptible d’évoluer, puisque sa raison d’être est de recueillir les retours d’utilisateurs pour éventuellement ajuster le tir avant une intégration des nouveautés au canal principal.
Les grandes lignes devraient cependant rester, à commencer par une structure qui passe de deux à trois blocs principaux : d’abord les applications épinglées par l’utilisateur, puis les fichiers ou raccourcis proposés par le système, pour ensuite descendre vers un ensemble de suggestions de logiciels regroupées en familles thématiques. Ce menu, toujours surmonté d’un champ de recherche, propose désormais un défilement à la souris.
Le troisième bloc (intitulé « Tous » en français) inaugure un sélecteur de vue : on peut ainsi choisir entre un affichage de type grille, avec des applications rangées par catégories thématiques, ou une vue défilante basée sur un classement alphabétique. La vue catégorie, proposée par défaut, est censée tenir compte de la fréquence d’utilisation des logiciels.
Le menu Démarrer offre le choix entre une vue grille et une vue par ordre alphabétique
« Ainsi, si vos applications les plus utilisées sont Outlook et Solitaire, attendez-vous à ce qu’elles se hissent en tête de leurs catégories respectives. Les catégories sont formées lorsqu’il y a au moins trois applications dans chaque catégorie. Sinon, elles resteront dans la catégorie « Autres » », décrit Microsoft.
Outre l’affichage par ordre alphabétique, l’éditeur offre la possibilité, via les réglages du menu, de désactiver les recommandations, mais aussi d’exclure certains éléments des remontées contextuelles.
Les réglages permettent d’exclure certains éléments du menu Démarrer
Deux niveaux d’interface selon la taille de l’écran
Un petit écran perdu dans l’immensité d’un moniteur ultra-wide : les proportions figées du Menu Démarrer conviennent mal à la diversité du parc installé. Microsoft a choisi de répondre à cette problématique en revendiquant une approche inspirée du responsive design. En réalité, il n’est pas question d’un affichage « réactif », mais simplement d’un double niveau.
« Sur les appareils plus grands, le menu Démarrer affiche 8 colonnes d’applications épinglées, 6 recommandations et 4 colonnes de catégories. Sur les appareils plus petits, vous verrez 6 colonnes d’applications épinglées, 4 recommandations et 3 colonnes de catégories. »
Sur grand écran, le menu affiche jusqu’à 8 colonnes, contre 6 sur les plus petits affichages
Cette nouvelle version du menu Démarrer conserve par ailleurs le panneau dédié aux interactions avec le smartphone de l’utilisateur via la fonction Mobile connecté. Introduit avec la version 24H2 de Windows 11, ce dernier apparaît toujours comme un volet séparé qui s’affiche immédiatement à droite du menu principal. « Cette intégration multi-appareils est généralement disponible pour les appareils Android et iOS connectés sur la plupart des marchés et sera disponible plus tard en 2025 dans l’Espace économique européen », indique à ce sujet Microsoft.
Ces nouveautés sont en principe accessibles aux utilisateurs enregistrés sur le canal Dev de Windows 11, après installation de la build 26200.5641 (KB5060824).
Sitôt terminée, la conférence d’ouverture de la WWDC 2025 fait déjà débat, notamment sur le grand renouvellement visuel débuté par Apple. Cette année est surtout marquée par bon nombre d’annonces transversales, avec de fortes conséquences en perspective : interface, disponibilité des fonctions, support des produits, jusqu’à un repositionnement des iPad.
Apple était attendue au tournant cette année. Ses déboires avec l’intelligence artificielle sont nombreux, surtout autour du nouveau Siri. Les annonces autour de l’IA ont été réduites à la portion congrue, mais l’entreprise n’a pas totalement botté en touche : les vraies nouveautés seront présentées l’année prochaine. Il faudra donc attendre encore un an, alors que les progrès dans ce domaine sont rapides.
De nombreuses annonces étaient transversales, concernant plusieurs plateformes, voire toutes. Par exemple, le numéro de version est désormais le même pour tout le monde : l’année à venir. Cet automne, iOS, macOS, iPadOS, tvOS, watchOS et visionOS seront ainsi tous estampillés « 26 ». Une harmonisation bienvenue, car il n’était pas toujours simple de comprendre les grands écarts entre les plateformes (iOS 18, macOS 15, watchOS 10, visionOS 2…).
Liquid Glass, la transparence selon Apple
Très vite, Apple a présenté son nouveau langage visuel, Liquid Glass. Il va prendre la relève de l’ère « flat » initiée par iOS 7 puis affinée pendant 12 ans. Les grands aplats sont remplacés par des plaques de verre plus ou moins dépoli selon le contexte et réintroduisent un peu de matière, sans aller jusqu’aux grandes heures du skeuomorphisme.
Liquid Glass est transversal. Inspiré de visionOS, il déboule sur toutes les plateformes de l’éditeur, avec un impact visuel plus ou moins fort selon les cas. À la manière de ce que l’on a vu récemment chez Google avec Material 3 Expressive, les interactions font la part belle aux animations.
Liquid Glass modifie tous les éléments de base des interfaces. Que l’on soit dans iOS, macOS, tvOS ou watchOS, aucun élément n’est épargné : boutons, curseurs, commutateurs, texte, commandes multimédias, barres d’outils, barres latérales, écrans verrouillé et d’accueil, centre de contrôle, widgets, notifications…
Dans de nombreux cas – surtout les applications Apple intégrées pour l’instant – les barres d’outils fixes disparaissent au profit de contrôles flottants, dont la barre de menu de macOS. Le contenu devient alors affiché sur l’intégralité de l’écran, surtout sur iOS et iPadOS. Ces contrôles sont en « verre » et affichent le contenu par transparence, mais dans une version déformée, avec un léger effet de lentille. Apple veut accentuer l’idée que le contenu est roi, les contrôles n’étant là que pour l’accompagner.
Dans la plupart des cas, Liquid Glass n’aura aucun impact fonctionnel. Comme Apple l’a expliqué durant la conférence, le nouveau traitement doit apporter de la « légèreté et de la vie, tout en restant familier ».
Les Mac, des téléphones comme les autres
Le nouveau macOS, nommé Tahoe, reprend bien sûr Liquid Glass et ajoute quelques autres modifications. Les coins des fenêtres sont plus arrondis, toutes les icônes des applications reçoivent le traitement « verre » et on peut désormais personnaliser leur affichage. Comme sur iOS, on peut leur imposer un affichage clair ou sombre, teinter automatiquement le fond des icônes avec la couleur principale du fond écran ou encore forcer leur transparence. Toutes ne sont pas compatibles avec ce traitement.
macOS Tahoe reçoit en outre plusieurs apports directement issus d’iOS. C’est le cas notamment de l’application Téléphone, qui remplace officiellement FaceTime. Il s’agit de la même que sur les téléphones, avec des capacités identiques. Elle récupère donc les nouveautés présentées hier soir, comme le regroupement des appels provenant de numéros inconnus, la possibilité de laisser le téléphone répondre à ces derniers pour demander de se présenter, ou encore la fusion de toutes les listes, dont l’historique et les messages vocaux.
Toujours dans cette optique de transversalité, macOS récupère les Activités en direct. Le Mac va puiser dans l’iPhone pour récupérer l’élément et l’afficher en haut à droite de l’écran. Pour rappel, les Activités en direct permettent d’afficher un petit encart dans lequel l’évolution d’une action apparait. Par exemple, une commande de nourriture ou l’arrivée d’un VTC. La fonction n’apparait qu’avec les actions compatibles. Cependant, elle réclame Recopie de l’iPhone, qui n’est toujours pas disponible en Europe.
Spotlight et Raccourcis, les vraies stars
Même si l’ajout de ces nouveautés est sympathique, les vrais temps forts relatifs à macOS étaient les améliorations pour la recherche de Spotlight et l’application Raccourcis.
Spotlight fait un bond important. D’outil de recherche, il devient palette de commandes. On peut ainsi s’en servir pour déclencher des actions, comme rédiger et envoyer un e-mail, créer un rappel, déclencher la lecture d’une musique, et ainsi de suite.
Pour Apple, Spotlight peut servir désormais de porte d’entrée vers l’ensemble des actions sur la machine. On peut s’en servir pour accéder rapidement à un dossier, une application, un historique quelconque ou encore au presse-papier, qui affiche dès lors la liste de tout ce que l’on a copié récemment. Apple a également ajouté des raccourcis rapides pour certaines actions, comme « sm » pour envoyer un message ou « ar » pour ajouter un rappel. Ces raccourcis peuvent être personnalisés et l’utilisateur peut en ajouter d’autres. Avec les applications intégrées, les actions sont effectuées sans avoir besoin de les ouvrir.
Spotlight se sert en outre d’Apple Intelligence pour personnaliser au fur et à mesure ses recommandations. Si une personne semble effectuer souvent un certain type d’action, Spotlight le proposera dès son ouverture, selon l’heure de la journée et le contexte, dont l’application active à ce moment.
Raccourcis est l’autre grande évolution cette année. La nouvelle version va puiser dans Apple Intelligence pour suggérer des raccourcis basés sur les tâches souvent effectuées. Si une étudiante enregistre fréquemment une version audio d’un cours tout en prenant des notes, Raccourcis suggèrera une action pour analyser le fichier audio et comparer avec les notes, afin de signaler des éléments manquants.
Toutes les fonctions liées à Apple Intelligence, notamment les outils d’écriture, deviennent disponibles dans Raccourcis. On peut dès lors automatiser des tâches comme le résumé d’un texte ou la création d’une image dans Playground.
L’iPad, ce Mac comme les autres
L’autre temps fort des annonces, c’est le nouveau système de fenêtrage d’iPadOS. Après des années de demandes en ce sens, il semble que la firme ait abandonné toute résistance et ait enfin donné ce que beaucoup attendaient.
Concrètement, depuis une application en plein écran, on peut désormais saisir le coin inférieur droit et redimensionner la fenêtre. Celle-ci vient alors flotter en version réduite sur le bureau, puisque l’on peut réellement parler de bureau.
Ce principe s’accompagne de plusieurs mécanismes propres au Mac chez Apple. Les fenêtres sont ainsi équipées des mêmes boutons d’actions (rouge, jaune et vert), avec des conséquences identiques. L’agencement (tiling) est aussi le même, avec deux applications se partageant verticalement la moitié de l’écran, ou quatre applications réparties sur chaque quart. Le menu est identique à macOS. Même le mode Exposé est là, avec le même geste tactile que sur Mac : trois ou quatre doigts glissant vers le haut.
Cette nouvelle gestion des fenêtres change radicalement les perspectives d’utilisation des tablettes chez Apple, qui peuvent presque s’utiliser comme des MacBook. L’entreprise indique d’ailleurs avoir retravaillé son curseur de souris, désormais plus précis.
Ces changements importants s’accompagnent d’un gros effort sur la gestion des fichiers. Comme dans Tahoe, on peut ainsi colorer des dossiers et leur affecter un emoji pour les personnaliser. Le Dock se manipule presque comme sur macOS et permet par exemple d’épingler un dossier.
Enfin, iPadOS récupère l’application Aperçu, permettant la manipulation des PDF, de la lecture à l’annotation.
Apple sur la défensive
Cette conférence d’ouverture ne semble pas avoir soulevé les foules. Les améliorations présentées, en dehors de certains temps forts comme le nouveau système de fenêtrage sur iPadOS, n’ont pas provoqué un grand enthousiasme.
C’est particulièrement vrai avec Liquid Glass. Le grand renouvellement graphique inspire globalement la méfiance, avec de nombreux doutes exprimés sur la lisibilité, les éventuels problèmes d’accessibilité ou la consommation de batterie liée aux effets graphiques de transparence et de déformation. Certains sont allés jusqu’à comparer Liquid Glass à Windows Vista. Gardons cependant en tête que seule la première bêta pour développeurs est disponible et que l’ensemble peut évoluer. Apple a d’ailleurs indiqué hier soir qu’il ne s’agissait que du « début du voyage ».
Autre gros problème souligné, l’absence presque totale de nouveautés liées à l’IA. Le souci n’est pas tant que cette dernière soit essentielle dans tous les cas de figure, mais elle est devenue rapidement un facteur de différenciation entre l’ancien monde et le nouveau. Le manque criant de réactivité d’Apple sur le sujet risque d’affecter encore l’image de l’entreprise.
Une image déjà écornée par le « Siri conversationnel » qui avait été promis et qui, d’ailleurs, n’est toujours pas là. Il va s’écouler toute une année avant qu’Apple ait quelque chose de significatif à présenter. Même si Apple intelligence est mieux intégré, notamment dans Spotlight et Raccourcis, l’efficacité générale – en particulier sur le texte et les images – risque de faire rapidement pâle figure face aux capacités des modèles d’OpenAI, Anthropic ou Google.
Moins de trois ans après le lancement grand public de ChatGPT, OpenAI a atteint l’équivalent de 10 milliards de dollars de chiffre d’affaires annuel récurrent, a affirmé lundi un porte-parole de l’entreprise, cité par CNBC. Le chiffre ne prendrait pas en compte les sommes perçues dans le cadre des accords de licence conclus avec Microsoft.
Rappelons que contrairement au chiffre d’affaires annuel, qui correspond aux revenus enregistrés sur les douze mois de la période envisagée, le revenu annuel récurrent (ARR en anglais, pour Annual Recurring Revenue) constitue un indicateur de progression de l’activité : il envisage les revenus issus des abonnements à un instant T, puis les normalise à l’échelle d’une année.
Logo OpenAI
Le chiffre traduit quoi qu’il en soit une croissance significative du volume d’activités enregistré par OpenAI sur les derniers mois : en septembre dernier, elle tablait en effet sur un chiffre d’affaires de 3,7 milliards de dollars pour l’année 2024, avant d’évoquer, quelques mois plus tard, un revenu annuel récurrent estimé à 5,5 milliards de dollars.
L’entreprise n’a en revanche pas précisé comment cette croissance annoncée se traduisait en matière de rentabilité. OpenAI, qui tablait sur 5 milliards de dollars de pertes en 2024, est pour mémoire engagée dans une levée de fonds pharaonique de 40 milliards de dollars, conduite en plusieurs étapes et menée par Softbank.
Si la multiplication des offres liées à ChatGPT (abonnements entreprise, accès via API, etc.) a sans doute contribué à l’essor du chiffre d’affaires d’OpenAI, la concurrence n’est pas en reste. Fin mai, on apprenait en effet qu’Anthropic, l’éditeur des modèles Claude, avait atteint un revenu annuel récurrent de l’ordre de 3 milliards de dollars, alors que l’activité s’élevait à 1 milliard de dollars d’ARR en décembre 2024.
Qualcomm a annoncé lundi l’acquisition de la société Alphawave Semi, basée à Londres et spécialisée dans le développement de solutions de connectivité à destination des centres de données. La transaction, qui sera réalisée début 2026 sur la base d’une valeur d’entreprise fixée à 2,4 milliards de dollars, fera d’Alphawave Semi une filiale à part entière de Qualcomm.
Cette acquisition constitue aussi une première pierre concrète dans la stratégie de conquête du segment des datacenters récemment annoncée par le géant américain. Mi-mai, Qualcomm a en effet participé au lancement, par le fonds souverain d’Arabie Saoudite, d’une nouvelle entreprise chargée de développer toute une gamme de produits et de services autour de l’intelligence artificielle. Baptisée HUMAIN, cette dernière a notamment vocation à s’appuyer sur des centres de données qui, outre la présence probable d’accélérateurs NVIDIA, accueilleront des CPU et des solutions dédiées à l’IA élaborées par Qualcomm.
« L’acquisition d’Alphawave Semi vise à accélérer et fournir des atouts clés à l’expansion de Qualcomm dans les centres de données. Les processeurs Qualcomm Oryon et Hexagon sont parfaitement positionnés pour répondre à la demande croissante de calcul haute performance et basse consommation, stimulée par l’essor rapide de l’inférence IA et la transition vers des processeurs sur mesure dans les centres de données », affirme l’entreprise de San Diego.
Les coeurs Oryon équipent le Snapdragon X destiné aux ordinateurs portables
🎶 C'est juste une illusion, comme une bulle de savon 🎶
DeepSeek-R1, les modèles o1 et o3 d’OpenAI, Claude 3.7 Sonnet Thinking ou encore Gemini Thinking. Ces nouveaux modèles censés avoir les capacités de « raisonner » en donnent simplement « l’illusion », selon des chercheurs d’Apple qui leur ont fait passer des tests simples comme celui des tours de Hanoï.
Dans un article mis en ligne sur le site d’Apple, des chercheurs de l’entreprise exposent les limites des modèles dits « de raisonnement » tels que DeepSeek-R1, o1 ou Claude 3.7 Sonnet Thinking. Leur article (non relu par des pairs et mis en ligne [PDF] en dehors des pratiques de la recherche) affirme que ces modèles donnent l’« illusion de penser » alors qu’ils ont des « limites fondamentales ». Leur justesse s’effondre même, selon ces chercheurs, au-delà d’une certaine complexité.
Meilleurs que des docteurs, vraiment ?
En septembre dernier, OpenAI affirmait doctement que son modèle o1, « dépassait le niveau d’un docteur [human PhD-level accuracy] » sur un benchmark de physique, de biologie et de chimie (Le GPQA, créé en 2023 par des chercheurs de l’Université de New York, d’Anthropic et de la startup Cohere). L’entreprise tempérait un peu son ardeur plus loin en précisant que « ces résultats ne signifient pas que o1 est plus compétent qu’un docteur à tous égards, mais seulement que le modèle est plus performant pour résoudre certains problèmes qu’un docteur serait censé résoudre ».
Depuis, comme le remarquait Ars Technica déjà en mars, l’industrie de l’IA a un nouveau terme à la mode : « PhD-level AI ». Des IA du niveau d’un docteur ? Mais en quoi ? Le benchmark d’OpenAI se basait, en fait, sur la comparaison des réponses à un questionnaire à choix multiples et non sur celle de résolutions de problèmes. Un docteur n’est pas formé pour sortir de son cerveau des réponses à des questions très compliquées mais pour en formuler, établir des projets de recherche, mettre en place des protocoles et trouver de nouvelles réponses.
Des casse-têtes pour mieux évaluer
Comme le soulevait déjà en octobre dernier la même équipe de chercheurs d’Apple, les benchmarks des IA génératives nous désinforment souvent. Ici, ils proposent d’autres façons d’évaluer les modèles de raisonnement. Les chercheurs d’Apple proposent notamment plusieurs casse-têtes à tester : le passage de la rivière, les tours de Hanoï, les soldats de Conway ou encore celui du « blocks world ».
« Ces environnements permettent de manier avec précision la complexité des problèmes tout en maintenant des processus logiques cohérents, ce qui permet une analyse plus rigoureuse des schémas de raisonnement et des limites », justifient-ils.
Les tours de Hanoï, par exemple, sont un casse-tête connu tant du côté des psychologues et des neuropsychologues pour tester certaines fonctions exécutives, que du côté des développeurs comme exercice de programmation lorsqu’on est étudiant.
Des disques de diamètres différents sont posés en pyramide les uns au-dessus des autres sur une tige (voir ci-dessous). Il faut reconstituer cette pyramide sur une tige d’arrivée en déplaçant un disque à la fois et sans poser un disque sur un disque plus petit. En le faisant avec le moins de coups possibles, évidemment. On comprend assez rapidement que, plus il y a de disques, plus c’est complexe (si vous voulez essayer, on peut y jouer par ici). La complexité des autres casse-têtes augmente aussi avec l’augmentation d’un paramètre.
Au-delà d’une certaine complexité, c’est l’effondrement
Les cinq modèles « de raisonnement » testés (o3-mini dans 2 configurations différentes, DeepSeek-R1, DeepSeek-R1-Qwen-32B et Claude-3.7-Sonnet thinking) réagissent de la même façon : « la justesse diminue progressivement au fur et à mesure que la complexité du problème augmente jusqu’à l’effondrement complet (justesse nulle) au-delà d’un seuil de complexité spécifique au modèle ».
Ces modèles dits « de raisonnement » utilisent ce que les chercheurs appellent des « thinking tokens » (qu’on peut traduire par « jetons de réflexions ») inventés il y a un an par des informaticiens de l’Université de Prague.
En observant la seconde ligne de graphiques ci-dessus, on peut voir que « les modèles de raisonnement augmentent initialement leurs jetons de réflexion proportionnellement à la complexité du problème » mais qu’ « à l’approche d’un seuil critique – qui correspond étroitement à leur point d’effondrement de leur justesse – les modèles commencent de manière contre-intuitive à réduire leur effort de raisonnement en dépit de l’augmentation de la difficulté du problème ». Bref, ce mécanisme ne fonctionne plus à partir d’une certaine complexité.
Les modèles de langage classiques meilleurs pour des problèmes simples
Les chercheurs d’Apple ont voulu comparer les performances de ces modèles « de raisonnement » aux modèles de langage classiques en fonction du nombre de jetons utilisés. Ils se sont aperçus que, « les modèles de langage classiques sont meilleurs pour des problèmes simples, les modèles de raisonnement présentent des avantages en cas de complexité moyenne, tandis que les deux approches échouent en cas de complexité élevée, quelle que soit l’allocation de calcul ».
L’article montre aussi que les modèles « de raisonnement » gaspillent de la puissance de calcul pour les problèmes simples : alors qu’ils ont trouvé la bonne solution dès le début, ils continuent à calculer d’autres possibilités qui sont erronées. Ils appellent ça, de l’« overthinking » (surréflexion).
« Ces observations remettent en question les hypothèses dominantes sur les capacités des modèles de raisonnement et suggèrent que les approches actuelles peuvent se heurter à des obstacles fondamentaux à un raisonnement généralisable », concluent-ils.
Run est l’un des nombreux petits outils de la suite PowerToys. Cette dernière, depuis son grand retour, consiste en une collection d’outils tous développés en open source par Microsoft et débloquant des fonctions avancées pour Windows (10 et 11).
Run est particulièrement intéressant. Il s’agit d’une interface de type palette de commandes, que l’on appelle par un raccourci clavier (par défaut Win + Alt + Espace). Après quoi, on peut lancer des opérations mathématiques, s’en servir comme lanceur d’applications, pour des recherches, etc. Son point fort reste cependant son ouverture, avec un système de plugins pour renforcer ses capacités.
Et justement, Neowin signale la disponibilité de plusieurs nouveaux plugins, dont un permettant de tester sa connexion. Nommé simplement SpeedTest, il utilise l’utilitaire d’Ookla et permet de l’appeler depuis la commande « spt » dans la palette. Bon point, l’exécutable ne demande pas de droits administrateurs pour fonctionner. Le code source est également fourni (sous licence MIT).
L’installation est la même que pour tous les plugins :
Aller dans le dossier %LOCALAPPDATA%\Microsoft\PowerToys\PowerToys Run\Plugins\ (on peut coller cette adresse dans l’Explorateur pour s’y rendre directement)
Créer un dossier portant le nom du nouveau plugin
Décompresser l’archive dans le dossier créé
Nos confrères avertissent également de la disponibilité d’autres plugins, comme VideoDownloader pour télécharger des vidéos depuis YouTube ou Definition, pour interroger sur les mots et leur prononciation, mais uniquement en anglais pour l’instant. Ces trois plugins sont du même auteur, ruslanlap.
De façon plus générale, si les possibilités de PowerToys Run vous intéressent, on trouve facilement de nombreux plugins. Certains rassemblent d’ailleurs des sélections pour mettre en avant des modules leur paraissant particulièrement utiles, comme chez XDA.
Attention néanmoins, ces plugins peuvent contenir des exécutables ou des DLL. Il vaut donc mieux s’assurer du type de projet qui se tient derrière et avoir un antivirus à jour.
Ce qui n’était au début qu’une petite liste de sites sur un bout de tableur se transforme en phénomène massif : notre base de données de sites GenAI en dénombre désormais plus de 4 000 ! Pour être alerté lorsque vous naviguez sur l’un d’entre eux, nous avons développé une extension pour Chrome et Firefox. À installer sans modération.
Depuis le début de notre enquête sur les sites d’actualités utilisant l’intelligence artificielle pour générer tout ou partie de leurs contenus, la liste ne fait que grossir à vue d’œil. Après les premières détections par Jean-Marc, elle est passée de quelques sites à des centaines puis des milliers, en l’espace de quelques mois.
Afin de vous permettre de suivre l’ensemble de notre enquête, nous avons publié une actualité de récap’, mise à jour au fil de nos publications sur le sujet.
Fin janvier, nous avions identifié un peu plus de 1 000 sites, révélant qu’il ne s’agissait pas d’un épiphénomène dans les sites d’infos. C’est d’autant plus inquiétant que les actualités générées par IA pullulent dans Google News et Discover, avec des contenus mis en avant par le moteur de recherche auprès de ses utilisateurs.
De 1 000 à 4 000 : « that escalated quickly »
Notre méthodologie s’est affinée, et améliorée, et notre base de données est passée à 1 500 sites GenAI mi février, 3 000 en mars et maintenant plus de 4 000. Une extension que nous avons développée (avec l’aide d’une IA générative, pour la petite histoire) permet d‘être automatiquement alerté lorsqu’on visite l’un des sites y figurant. Elle est disponible pour les navigateurs utilisant une base Chrome (dont Edge) et Firefox.
Si la plupart des volets de notre enquête sont réservées à nos abonnés, cette extension est librement accessible à tous, sans restriction et avec une base de données automatiquement mise à jour. Un choix assumé par la rédaction : il est important pour nous que chacun puisse savoir à quoi s’en tenir.
Ce travail n’en reste pas moins financé par les lecteurs qui nous soutiennent ; ils représentent notre seule source de revenus. Abonnez-vous à Next pour nous soutenir !
Une base de données obfusquée, avec un filtre Bloom
Nous avons néanmoins décidé de ne pas publier « en clair » cette base de sites utilisant l’intelligence artificielle générative pour écrire tout ou partie de leurs articles. Plusieurs raisons à cela, notamment le fait que nous ne voulons déjà pas qu’elle puisse aider ceux qui voudraient améliorer leurs générateurs d’articles automatisés. Avec l’aide d’un développeur de moji – Hasnaine – nous l’avons donc obfusquée avec un filtre de Bloom.
Il est ainsi impossible de retrouver la liste des sites à partir des données disponibles, tout en évitant les faux négatifs. Il y a néanmoins un risque de faux positifs, d’où la présence d’une liste d’exception et la possibilité pour tout un chacun d’en ajouter manuellement.
Red Flag Domains, AMF et signalements : les autres fonctionnalités
Au fil des versions, l’extension s’est améliorée et dispose désormais d’un système de signalement permettant à ses utilisateurs de nous faire remonter les sites GenAI qu’ils auraient identifiés, et de deux autres listes d’alerte : celle de Red Flag Domains et celle de l’AMF. Elles sont automatiquement mises à jour (une fois par jour), mais vous pouvez aussi forcer manuellement les mises à jour.
Très prochainement, nous publierons une mise à jour prenant en compte certains de vos retours. Déjà, moins de messages dans la console. Ensuite, un compteur permettant de suivre le nombre d’alertes, et peut-être d’autres surprises. Nous mettrons à jour le code sur GitHub au passage.
Si ce n’est pas déjà fait, n’hésitez pas à laisser un commentaire et une note sur les boutiques des navigateurs
Nouveau coup dur pour Apple. après la victoire d’Epic sur les pratiques anti-steering, Apple avait demandé en urgence un sursis à l’application de la décision. Peine perdue, la demande a été rejetée, les nouvelles pratiques pouvant continuer jusqu’à ce que l’appel ait lieu.
Sales temps pour Apple et sa vision parfaitement ordonnée de l’App Store. Sur ce dernier, l’entreprise prélève une commission de 30 % sur tous les achats réalisés, qu’il s’agisse des applications elles-mêmes, des biens et services commercialisés dans celles-ci ou encore des abonnements. Pour ces derniers, la commission baisse à 15 % à compter du 13ᵉ mois consécutif d’un abonnement actif.
Ces conditions sont dénoncées par un nombre croissant d’entreprises depuis des années, en particulier Epic et Spotify. Elles critiquent tout spécialement les pratiques anti-steering d’Apple. Le terme désigne l’ensemble des règles bloquant les éditeurs dans leurs capacités à communiquer des offres alternatives aux utilisateurs.
Le cas le plus connu est l’affaire Fortnite. Sans prévenir, Epic a lancé une promotion sur la monnaie du jeu en fournissant un lien vers son site. Les achats réalisés ne passaient alors pas par l’App Store, Apple n’empochant aucune commission. À Cupertino, la firme avait répliqué en bloquant le jeu. Il n’est revenu sur le Store américain que le 20 mai, après cinq ans d’absence.
Puis une victoire d’Epic il y a quelques semaines a complètement rebattu les cartes. Il est devenu interdit pour Apple de bloquer les liens externes, et surtout d’imposer une commission sur les achats réalisés à travers ces liens. L’entreprise a immédiatement fait appel. Une semaine plus tard, elle demandait en urgence de surseoir à l’exécution de la décision. Le tribunal a rejeté la demande.
Selon un document consulté par TechCrunch, Apple « a la charge de démontrer que les circonstances justifient l’exercice de [notre] pouvoir discrétionnaire », a déclaré le tribunal devant lequel le recours avait été déposé. Cela signifie que la fameuse décision de la juge Gonzalez Rogers il y a un mois s’applique toujours. Apple a le droit de faire appel – ce qu’elle a fait – mais la décision doit quand même être appliquée.
La juge Gonzalez avait en effet décidé que les pratiques d’Apple devaient cesser immédiatement. La firme avait déjà été alpaguée sur le même sujet en 2021, devant la même juge. Celle-ci n’a pas caché sa colère, accusant Apple d’avoir sciemment menti à la cour, violant la décision initiale qui réclamait déjà d’autoriser les éditeurs à passer par d’autres systèmes de paiement. Apple avait fini par le faire, en rabotant sa commission à la marge : 27 %, contre 30 en temps normal. La juge a peu gouté également les écrans anxiogènes placés par Apple entre le lien et sa destination.
« Nous sommes déçus de la décision de ne pas suspendre l’ordonnance du tribunal de district et nous continuerons à défendre notre cause au cours de la procédure d’appel. Comme nous l’avons déjà dit, nous ne sommes pas du tout d’accord avec l’avis du tribunal de district. Notre objectif est de nous assurer que l’App Store reste une opportunité incroyable pour les développeurs et une expérience sûre et fiable pour nos utilisateurs », a simplement déclaré un porte-parole d’Apple.
Epic sur un petit nuage
Du côté d’Epic, on boit évidemment du petit lait. L’emblématique fondateur de l’éditeur, Tim Sweeney, s’est fendu d’un tweet mâtiné d’ironie pour l’occasion : « La Cour d’appel du 9ᵉ circuit rejette la demande de suspension d’Apple. Le long cauchemar national de la taxe Apple prend fin. Que la WWDC de la semaine prochaine soit la célébration par Apple de la liberté que les développeurs et les utilisateurs méritent depuis longtemps ». WWDC qui commence d’ailleurs ce soir à 19h00.
Interrogé dans les commentaires sur la manière dont Apple pourrait gagner de l’argent avec la suppression de ces commissions, Sweeney a répondu que le géant était libre de le faire « en se livrant à une concurrence loyale ».
Précisons que la disparition des commissions ne concerne que les achats réalisés par des liens internes dans les applications vers les sites officiels correspondants. Les achats des applications elles-mêmes ne sont pas remis en cause, et les éditeurs tiers peuvent continuer à s’en remettre à Apple si tel est leur choix.
Une situation suivie de près en Europe
Si l’affaire est aussi importante, c’est non seulement parce qu’elle remet en cause toute une partie du modèle commercial d’Apple, mais aussi parce que les mêmes problèmes sont pointés des deux côtés de l’Atlantique. L’Europe a infligé fin avril une amende de 500 millions d’euros à Apple pour violation du DMA, en lien ici aussi avec les pratiques anti-steering. Dans les deux affaires, les liens, la commission prélevée et les écrans d’avertissement sont au cœur des reproches.
Le 23 juin, Apple devra donc modifier ses pratiques au sein de l’Union. Les éditeurs tiers devront pouvoir utiliser les liens qu’il leur plaira, renvoyer vers leurs sites et proposer de meilleures offres que sur l’App Store. En outre, Apple pourra percevoir une commission, mais uniquement sur le premier achat, pour tenir compte de la découverte de ce tarif via les produits Apple (acquisition initiale).
Apple, particulièrement remontée contre le DMA depuis son entrée en vigueur, en conteste tous les points. Mais comme aux États-Unis, la demande d’appel n’est pas suspensive : l’entreprise pourra retenter sa chance, mais elle doit quand même se soumettre à la décision et appliquer les changements dès le 23 juin. Dans le cas contraire, la Commission européenne est décidée à jouer la carte de l’astreinte journalière, qui pourrait grimper jusqu’à plusieurs dizaines de millions d’euros par jour.
À la virgule près
Le 5 juin, par un article de Jérôme Marin sur Cafétech, on a d’ailleurs pu voir combien Apple était prête à combattre dans toutes les tranchées. Dans son combat contre le DMA, l’entreprise n’était ainsi pas d’accord sur le positionnement d’une virgule placée après le mot « gratuitement » dans la version anglais de l’article 5.4.
« The gatekeeper shall allow business users, free of charge, to communicate and promote offers, including under different conditions, to end users acquired via its core platform service or through other channels, and to conclude contracts with those end users, regardless of whether, for that purpose, they use the core platform services of the gatekeeper »
Apple estimait ainsi que le terme ne s’appliquait qu’à la communication et la promotion. Mais la Commission, dans sa décision détaillée (dont le document n’est plus en ligne, sans que l’on sache pourquoi), expliquait au contraire que la virgule rendait « gratuitement » distributif et que le terme s’appliquait tout ce qui venait ensuite, y compris « conclure des contrats ».
Quoi qu’il en soit, la firme américaine ne compte rien lâcher. Elle est tenue d’appliquer les changements réclamés dans deux semaines, sous peine d’une nouvelle condamnation. L’appel devrait bien avoir lieu, mais aucune date n’a été communiquée pour l’instant.
Le résolveur européen DNS4EU est enfin disponible pour tous, avec ou sans divers niveaux de « protection ». Le service est déjà passé entre les mains expertes de Stéphane Bortzmeyer qui livre une première analyse complète.
Fin décembre 2020, la Commission européenne présentait une série de mesures dans le domaine de la cybersécurité. Elle souhaitait « contribuer à la sécurisation de la connexion Internet en soutenant le développement d’un service public européen de résolveur du DNS ». Cette initiative est baptisée DNS4EU afin de proposer un « service européen alternatif d’accès à Internet », comme l’expliquait l’ICANN.
Début 2022, l’Agence européenne pour la santé et le numérique (HaDEA) lançait un appel à projet de 14 millions d’euros en vue du déploiement de DNS4EU. Dans les lignes directrices du résolveur, il devait « être facile à configurer par des non-experts » et proposer des « services de filtrage de contrôle parental strictement opt-in et entièrement transparents ». Autres promesses : données de résolution et métadonnées devaient être traitées dans l’UE, sans monétisation des données personnelles. Ce projet est désormais disponible.
Nous l’avons longuement détaillé dans notre dossier sur le fonctionnement (pour de vrai) d’Internet : le DNS occupe une place très importante, car il permet de transformer une URL en une adresse IP, et ainsi joindre le serveur avec les données attendues.
« Pas d’intérêt pratique […] mais c’est toujours bien »
DNS4EU se lance désormais dans le grand bain, comme annoncé sur X. Stéphane Bortzmeyer, spécialiste des réseaux et du DNS, a publié une première analyse (déjà bien complète pour le commun des mortels) :
« Il ne présente pas d’intérêt pratique (il y a déjà beaucoup de résolveurs, y compris publics, y compris européens) mais c’est toujours bien d’élargir le parc. La diversité est une bonne chose ».
« Comme tous les résolveurs sérieux, il a, en plus des traditionnels UDP et TCP, les transports DoT et DoH (mais pas DoQ [DNS over QUIC (Quick UDP Internet Connections), ndlr] mais, bon, ce dernier est nettement moins fréquent aujourd’hui). Comme tous les résolveurs sérieux, il a une adresse IPv4 et une IPv6 ».
Résolveur sans filtre : 86.54.11.100 ou 2a13:1001::86:54:11:100
Résolveur avec « protection » : 86.54.11.1 ou 2a13:1001::86:54:11:1
Résolveur avec « protection » et « protection des enfants » : 86.54.11.12 ou 2a13:1001::86:54:11:12
Résolveur avec « protection » et « blocage des publicités » : 86.54.11.13 ou 2a13:1001::86:54:11:13
Résolveur avec « protection », « protection des enfants » et « blocage des publicités » 86.54.11.11 ou 2a13:1001::86:54:11:11
Le premier niveau de « protection » comprend « 20 millions de domaines malveillants dans la base de données » et DNS4EU annonce en ajouter « environ 150 000 par jour ». Dans la pratique, il s’agit de « bloquer l’accès aux sites web malveillants et frauduleux connus ». Il existe un formulaire pour signaler des faux positifs.
Pour la « protection des enfants », le résolveur bloque l’accès à certains types de contenus : « Jeux d’argent, sexuel, armes, maltraitance des enfants, drogues, racisme, terrorisme, violence ». Les domaines de la liste sont issus « de dizaines de flux publics (comme Bon-Apetit) et du moteur de détection de contenu Webshrinker ». Dans ce cas, les utilisateurs sont redirigés vers une page de blocage avec une explication.
Protection (relative) contre les publicités
Sur le blocage des publicités, DNS4EU rappelle que « certains sites et applications peuvent avoir mis en place des systèmes de détection anti-publicité, ce qui pourrait empêcher le site de s’afficher correctement ou entraîner un dysfonctionnement de l’application ». Dans la pratique, la liste des domaines publicitaires est tirée « de diverses listes telles que goodbyeads ou ads-tracking » avec une résolution de l’adresse IP en 0.0.0.0.
« Bien que ce service soit censé protéger de la pub, il dit la vérité (malheureusement) pour des noms comme google-analytics.com. Pour googletagmanager.com, il renvoie un amusant 0.0.0.0. Aucune utilisation n’est faite des Extended DNS Errors du RFC 8914, hélas, contrairement à ce que fait Google Public DNS quand il ment », explique Stéphane Bortzmeyer.
Blocage DNS, censure étatique et anonymat
Le spécialiste en profite pour revenir sur la question du blocage DNS : « Curieusement, alors que le cahier des charges de DNS4EU prévoyait explicitement la mise en œuvre de la censure des 27 États membres de l’UE, je n’ai pas trouvé de domaine censuré. Même Sci-Hub marche ». De manière générale, il n’a « pas encore vu de signe de censure étatique (par exemple au profit des ayant-droits) ».
« L’adresse IP du client est entièrement anonymisée avant d’être envoyé au résolveur. Aucune donnée privée n’est collectée nulle part, ce qui garantit un alignement total avec le RGPD et les autres réglementations européennes en matière de protection des données ; vos données restent les vôtres », affirme DNS4EU. De plus amples détails sont disponibles par ici.
Sachez enfin que DNS4EU a été mis en place par neuf partenaires : Whalebone (coordinateur, une société tchéque), CZ.NIC, Czech Technical University (ČVUT), Time.lex, deSEC, SZTAKI, Abi Lab, NASK et DNSC.
Ce bulletin a été mis à jour le 6 juin pour indiquer qu’une preuve de concept (PoC) était publiquement disponible. La faille découverte existait en effet déjà depuis 10 ans et était passée sous les radars. En outre, comme l’indiquait Bleeping Computer le 5 juin, le correctif a été analysé et « désossé », permettant l’exploitation de la faille et la commercialisation d’une exploitation, vendue jusqu’à 50 000 dollars sur certains forums.
La somme peut paraître importante pour une faille déjà corrigée, mais son potentiel est grand. Exploitée, elle peut permettre une exécution de code arbitraire à tout utilisateur authentifié sur le serveur. Surtout, les pirates peuvent compter sur l’inertie habituelle pour les mises à jour. En somme, se jeter sur les serveurs n’ayant pas installé la version 1.6.11 ou 1.5.10 de Roundcube.
Bien que la preuve d’exploitation circule depuis quelques jours seulement, la présence de cette faille dans le code depuis 10 ans a pu mener à des piratages dans le passé. La vulnérabilité est actuellement considérée comme extrêmement sérieuse, au point d’avoir été surnommée « l’armageddon du courrier électronique ». Il est donc conseillé de mettre à jour Roundcube aussi rapidement que possible.
Microsoft a dévoilé dimanche sa première console portable, la ROG Xbox Ally. Conçu en partenariat avec Asus et décliné en deux versions, l’appareil dissimule Windows 11 sous un environnement Xbox, dédié au jeu et compatible avec toutes les bibliothèques du marché : Xbox et le Game Pass bien sûr, mais aussi Steam ou les stores d’Epic, Ubisoft et EA.
Après quelques jours de teasing sur les réseaux sociaux, Microsoft a lâché dimanche la petite bombe de son événement Xbox Games Showcase avec la présentation d’une première console portable à ses couleurs, la ROG Xbox Ally. Construite par Asus, elle s’articule autour d’un écran 7 pouces, 1080p et 120 Hz (compatible FreeSync), protégé par un verre Gorilla Glass et intégré dans un châssis que prolongent deux poignées inspirées d’une manette Xbox.
ROG Xbox Ally et ROG Xbox Ally X : AMD Ryzen Z2 aux commandes
Une console, mais deux modèles. D’abord, la ROG Xbox Ally (blanche), qui vient équipée d’une puce AMD Ryzen Z2 A (4 cœurs CPU, 8 cœurs GPU en RDNA 2), accompagnée de 16 Go de mémoire LPDDR5X-6400 et de 512 Go de stockage, assuré par un SSD au format M.2, qu’il sera donc possible de remplacer.
Une console, mais deux variantes matérielles
Plus musclée, la ROG Xbox Ally X (noire) vient équipée du tout juste annoncé AMD Ryzen AI Z2 Extreme. Ce nouvel APU est une déclinaison du Z2 Extreme lancé par AMD en janvier dernier, qui s’enrichit d’un NPU dédié aux fonctions d’intelligence artificielle, avec une puissance de calcul théorique de 50 TOPS. Le processeur, qui dispose de 8 cœurs Zen 5 et d’un GPU composé de 16 cœurs AMD RDNA 3.5, est ici accompagné de 24 Go de LPDDR5X-8000 et d’un SSD de 1 To.
La version haut de gamme de la console se distingue également par sa connectique enrichie : l’un de ses deux ports type-C adopte la norme USB4, compatible Thunderbolt 4, là où la version de base se contente de deux ports USB 3.2 Gen 2 avec DisplayPort 2.1.
Tous deux équipés d’un contrôleur WiFi 6E et Bluetooth 5.4, les deux modèles diffèrent par leur batterie : 80 Wh pour la version X, contre 60 Wh pour la ROG Xbox Ally de base. Livrées avec un chargeur de 65 W, les deux consoles sont enfin données pour un poids de 670 grammes (Xbox Ally) et 715 grammes (Xbox Ally X). Aucune autonomie théorique n’est communiquée à ce stade.
Xbox et jeux PC réunis
Face à la récente Switch 2, cantonnée au monde Nintendo, et devant un Steam Deck qui souffre tout de même de quelques limitations inhérentes au jeu vidéo sous Linux (comme l’impossibilité d’accéder à des titres tels que LoL et Valorant à cause des protections anti-triche), Microsoft revendique une approche plus universelle. Les deux Xbox Ally fonctionnent en effet sous Windows 11, ce qui leur ouvre en théorie l’ensemble du monde PC.
Le système d’exploitation n’apparait cependant pas : au lancement, l’utilisateur se retrouve au sein d’un environnement Xbox, avec un accès direct à une bibliothèque de jeux capable, en théorie, d’agréger l’ensemble des titres de l’utilisateur, même si ceux-ci émanent de stores ou de lanceurs concurrents comme Steam, Epic, Ubisoft, etc. Ils y côtoieront les jeux Xbox de l’utilisateur, ou les titres accessibles via l’abonnement Game Pass de Microsoft. Les consoles Xbox Ally doivent en enfin permettre de profiter du cloud gaming, depuis les serveurs de Microsoft, ou via une console Xbox en jeu à distance.
La console s’ouvre sur un environnement dédié au jeu
Le tout se mâtine sans surprise d’une certaine primauté accordée au monde Xbox, dont l’incarnation la plus visible n’est autre que le bouton physique Xbox, intégré sur le côté gauche de l’écran et facilitant l’accès à la Game Bar. « Grâce à un bouton Xbox dédié, les joueurs ont accès au chat, aux applications et aux paramètres via une superposition de barre de jeu améliorée, vous permettant de basculer rapidement entre les applications et les jeux en cours d’exécution », décrit l’éditeur.
Compatible Twitch, Discord et consorts
« Étant donné que ces consoles portables fonctionnent sous Windows, vous avez accès à des jeux que vous ne pouvez pas obtenir ailleurs, ce qui vous permet de profiter pleinement de la liberté et de la polyvalence du jeu sur PC : téléchargez des jeux depuis votre boutique préférée, exécutez des applications comme Discord, regardez vos streamers préférés sur Twitch et jouez avec vos mods préférés, le tout directement depuis l’expérience Xbox », vante encore Microsoft.
Reste à voir comment se comportera l’interface quand il s’agira d’installer des applications dont la prise en charge n’a pas été prévue par l’éditeur. Ce dernier semble en effet avoir pris le parti d’une intégration maximale, sans doute pour que l’utilisateur soit le moins enclin possible à quitter l’interface dédiée au jeu. Les réglages de l’appareil, et tout ce qui est lié à la gestion des performances matérielles, passe par exemple par un utilitaire dédié (dérivé des logiciels d’Asus), harmonisé avec l’environnement Xbox.
Le lancement des ROG Xbox Ally et ROG Xbox Ally X devrait intervenir avant les fêtes de fin d’année, à des tarifs qui n’ont pas encore été communiqués. À titre indicatif, une console Asus ROG Ally X équipée d’un AMD Ryzen Z1, 12 Go de mémoire vive et 1 To de stockage est encore affichée à 899 euros sur le site du constructeur taïwanais.
La prochaine version de l’environnement franchira une grande étape : elle désactivera par défaut la session X11. L’équipe de développement commence à en parler alors même que la première « vraie » version alpha n’est pas encore sortie. Le développeur Jordan Petridis explique dans un billet qu’exceptionnellement, une pré-alpha est disponible pour récolter un maximum de retours.
La désactivation de l’ancien serveur graphique X11/Xorg est l’étape suivante dans la progression vers du 100 % Wayland. XWayland n’est pas affecté et GDM gardera sa capacité à lancer d’autres sessions X11. Pour le commun des mortels en revanche, cela signifie que X11 disparait des radars. Pour les utilisateurs plus avancés qui en auraient besoin, cela signifie que l’ancien serveur graphique devra être « explicitement activé lors de la construction des modules concernés (gnome-session, GDM, mutter/gnome-shell) ».
D’ici la sortie de la version, prévue le 17 septembre, trois scénarios sont possibles, selon Petridis. Dans la version idéale, où il n’y aurait ni bug ni problème nulle part, le code lui-même disparaitrait de GNOME 49. Dans la version jugée la plus crédible, cette suppression interviendrait dans GNOME 50. Reste un scénario improbable mais possible, dans lequel les bugs seraient si nombreux que le projet serait encore repoussé.
« Encore », car la désactivation et la suppression de X11 sont en fait prévues depuis longtemps. Jordan Petridis indique qu’il avait ouvert plusieurs pull requests à ce sujet après l’arrivée de GNOME 45. Mais il a fallu attendre GNOME 48 pour que tous les problèmes soient corrigés, notamment des régressions sur l’accessibilité. Le temps que tout soit réglé, il était trop tard pour proposer la désactivation dans cette version.
Dans la pratique, les utilisateurs ne devraient voir aucune différence. Wayland a beau être un serveur graphique nettement plus moderne, il est déjà activé par défaut sur bon nombre de distributions, notamment Ubuntu et Fedora. Les prochaines versions de ces dernières intègreront d’ailleurs GNOME 49.
Un nouveau gestionnaire de paquets nommé FAIR vient de sortir, soutenu par la fondation Linux. Il est présenté comme une « alternative décentralisée à l’écosystème central des thèmes et des plugins de WordPress.org, conçue pour redonner le contrôle aux hébergeurs et aux développeurs de WordPress ».
L’année dernière, le torchon a brûlé dans l’écosystème WordPress. Deux des plus gros acteurs, Automattic et WP Engine l’ont transformé en champ de bataille. Notamment, Matt Mullenweg, qui joue avec ses deux casquettes de CEO d’Automattic et de responsable de la fondation WordPress, a décidé de bloquer son concurrent au motif que celui-ci ne contribue pas assez au projet open-source et « profère des menaces juridiques » contre WordPress.org.
C’est ce genre de blocage qui devrait être évité grâce au gestionnaire de paquets FAIR. Le soutien de la fondation Linux permettra d’être robuste face à d’éventuelles attaques des différents protagonistes. « Notre objectif est de repenser la manière dont les logiciels sont distribués et gérés dans le monde de l’édition web ouverte », expliquent les responsables du projet.
FAIR met en place deux fonctionnalités :
Le remplacement des API de WordPress.org utilisées par exemple pour vérifier si des mises à jour sont disponibles ou pour le flux d’actualité ;
une gestion décentralisée des paquets permettant leur ajout et la mise à jour sans passer par WordPress.org.
Il s’appuie sur un protocole mis en place pour l’occasion et permet de choisir le miroir que l’on souhaite.
« Avec une configuration minimale et une architecture modulaire, le système FAIR assure l’indépendance technique, la résilience et la durabilité à long terme des déploiements de WordPress », expliquent les responsables du gestionnaire de paquets.
FAIR est téléchargeable et est distribué soit en plugin « standalone » soit dans une version spécifique de WordPress.
Au début de l’année, Orange lançait la 5G+ – le nom commercial de la 5G StandAlone (ou 5G SA) qui ne se base pas sur un cœur de réseau 4G – pour ses clients professionnels. Quelques semaines plus tard, depuis début mars, le grand public peut en profiter en activant une option 5G+ (voir cette page dédiée).
Elle est sans engagement et « réservée aux clients d’une offre mobile Orange 5G compatible », sans plus de précision. Il faut évidemment disposer d’un smartphone compatible 5G+ et être dans une zone de couverture 5G+ de l’opérateur. Cette option gratuite 5G+ est néanmoins « incompatible avec les options Multi-SIM et eSIM Watch ».
De nouveaux terminaux sont désormais compatibles : « À partir du 6 Juin 2025, les clients Orange équipés d’un iPhone 15, ou version ultérieure, pourront profiter du réseau 5G+ d’Orange, en activant gratuitement l’option dédiée 5G+ ».
Orange met pour rappel en avant trois avantages à la 5G+ par rapport à la 5G : « Un réseau encore plus réactif grâce à une latence réseau réduite » de 3 ms en moyenne selon Orange, « une sécurisation renforcée » et une « une qualité constante pour tous les usages » puisque la voix passe en 5G (VoNR ou Voice over New Radio).
Pour rappel, des smartphones Android sont déjà compatibles avec la 5G+ d’Orange, comme l’indique l’opérateur sur sa boutique en ligne : Samsung A26, A36, S24, S25 et Galaxy Z Flip6, Honor Magic7 Pro et Lite, Xiaomi 13T et 14T…
Histoire d’ajouter un peu de flou dans cette affaire, Orange propose un forfait 5G+ Série Spéciale 180 Go. Il permet, comme les autres forfaits, d’avoir de la 5G+, mais propose aussi aux clients « une bande passante dédiée […] améliorant leur expérience même dans les zones de forte affluence pour tous leurs divertissements : streaming, gaming, IA, réseaux sociaux… ».
Free était pour rappel le premier opérateur à sauter le pas de la 5G SA sur son réseau national en septembre dernier.
Il y a quelques jours, on apprenait qu’Anthropic avait brutalement coupé l’accès à ses API pour Windsurf. Cette entreprise édite un client de « vibe coding » (programmation fortement soutenue par l’IA) du même nom, qui met à disposition plusieurs modèles dans ce but. Parmi eux, la famille Claude, dont les versions Sonnet ont acquis un certain renom dans le développement pour leur efficacité.
Windsurf a communiqué sur le sujet, expliquant notamment qu’Anthropic laissait moins d’une semaine pour s’adapter. Dans un article, nous relevions un faisceau d’indices pointant vers une décision stratégique. Au cœur de cette théorie, l’annonce par Bloomberg d’un rachat de Windsurf par OpenAI, pour un montant de 3 milliards de dollars. Ni Windsurf ni OpenAI n’ont confirmé cette opération pour l’instant. Peu après, quand la famille Claude 4 avait été présentée par Anthropic, Windsurf n’y avait pas eu accès.
Windsurf
On sait désormais que cette décision avait tout à voir avec l’article de Bloomberg. Jared Kaplan, cofondateur et directeur scientifique d’Anthropic, était l’invité hier des TC Sessions de TechCrunch. Interrogé sur le sujet, Kaplan a simplement répondu : « Nous essayons vraiment de permettre à nos clients de travailler durablement avec nous à l’avenir. Je pense qu’il serait étrange que nous vendions Claude à OpenAI ».
Dans un développement un peu plus étonnant, le responsable a indiqué que les ressources informations d’Anthropic étaient actuellement limitées. L’entreprise préférait donc se concentrer sur des partenaires « durables ». Kaplan a d’ailleurs cité en exemple Cursor, édité par Anysphere, avec lequel Anthropic devrait travailler « longtemps ». Cursor qui a déjà reçu plusieurs offres de rachat, toutes déclinées. L’entreprise vient d’ailleurs de lever 900 millions de dollars pour développer ses activités et jouit actuellement de l’une des croissances les plus rapides du secteur.
Le réseau social expérimente un nouveau mécanisme pour ses notes de communauté. Le principe reste le même, mais X veut fluidifier la publication des notes en promouvant une idée « neuve » : que les personnes sont en fait plus souvent d’accord les unes avec les autres qu’elles ne le croient.
En mars dernier, Bloomberg avait publié les résultats d’une longue enquête sur les notes de communauté. Ce mécanisme permet à des internautes d’apposer un message sur une publication de réseau social. Cette note est faite initialement pour compléter le propos, mais elle est rapidement devenue une manière de combattre les informations fausses ou créées de toutes pièces.
Comme l’avaient pointé nos confrères cependant, les notes de communauté n’étaient pas une panacée. Il y avait un décalage prononcé par exemple entre l’arrivée d’un tweet viral et celles des notes contrebalançant le propos. Une fake news avait largement le temps de faire le tour de la planète avant. En outre, les utilisateurs étaient poussés à jouer la carte de l’émotionnel, X récompensant les tweets au nombre des réactions qu’ils engendrent.
Ces problèmes étaient d’autant plus mis en avant que Meta avait annoncé un peu avant son intention de recourir au même système. Que ce soit le réseau d’Elon Musk ou ceux de Mark Zuckerberg, les raisons invoquées étaient les mêmes : les personnes et entreprises embauchées pour vérifier les faits étaient biaisées politiquement, une accusation d’inclinaison à gauche reprise dans la rhétorique « anti-woke ». Bloomberg relevait pourtant que même si les notes de communauté avaient certains succès à leur actif, elles ne pouvaient être à elles seules une défense suffisamment solide contre les fake news.
L’art du consensus
Dans cette enquête, les journalistes s’étaient tout particulièrement penchés sur le mécanisme de publication. Ils soulignaient ainsi que la manière même dont les notes fonctionnaient nuisait à la réactivité générale de l’ensemble.
Il ne suffit pas en effet de proposer une note pour qu’elle soit publiée dans la foulée. Après la rédaction initiale, elle est proposée aux autres personnes rédigeant des notes. Elle doit avoir été validée un certain nombre de fois pour être acceptée en tant que note de communauté et publiée. Il faut donc réunir un quorum, un consensus parfois difficile à établir, retardant d’autant le combat contre les fake news. Mais, encore une fois, Bloomberg mettait en balance un système qui privilégiait avant tout la viralité comme un problème fondamental de ce combat.
Bien que X reste tributaire de ce grand-écart, il a partagé hier soir un nouveau chantier. Le réseau social a annoncé un test autour des notes de communauté. Celles-ci seraient la démonstration que des personnes aux opinions parfois très divergentes peuvent finalement se mettre d’accord. En somme, l’ex-Twitter veut promouvoir l’idée que ses utilisateurs sont en réalité plus souvent sur la même longueur d’onde qu’ils ne le croient.
La construction de ponts selon X
Depuis hier, un petit groupe de contributeurs américains participe ainsi à une expérience. « Occasionnellement », ils seront appelés à réagir à certains messages publiés. Ces appels seront affichés peu de temps après l’arrivée du tweet. Selon X, un algorithme captera des signaux précoces, notamment les J’aime. Les utilisateurs sélectionnés seront invités à fournir un commentaire, partagé immédiatement aux autres membres du groupe.
L’algorithme va alors observer la réaction des premières personnes. Sur un même sujet, si les J’aime s’accumulent alors qu’ils proviennent de personnes aux points de vue habituellement contrastés, un message va s’afficher pour l’indiquer tel quel. Ce message sera promotionnel : « Cette publication a récolté des J’aime de la part de personnes ayant des perspectives différentes. Qu’en pensez-vous ? ».
Cliquer sur le message ouvrira un panneau avec une liste de propositions accompagnées de cases à cocher. On pourra ainsi déclarer que l’on est d’accord, que l’on a appris quelque chose, qu’il soulève un point important, qu’il rassemble sur un sujet d’ordinaire très polarisé, qu’il est inspirant ou autre appréciation. Dans une deuxième partie, on trouve les commentaires négatifs.
Selon X, qui développe sa vision dans une page dédiée, cette démarche est un prolongement naturel des notes actuelles. L’algorithme qui va être développé grâce aux interactions récoltées chez les personnes participantes sera open source, promet l’entreprise.
Est-ce important ?
Si X devait concrétiser son nouveau système et le diffuser en production, le nouvel outil pourrait avoir des conséquences, certaines pour les utilisateurs, d’autres plus discrètes.
Ces nouvelles notes pourraient – dans une certaine mesure – promouvoir une plus grande diversité dans les messages lus habituellement. Les réseaux sociaux, à cause de leurs algorithmes, favorisent largement le phénomène de chambre d’écho : on ne finit par voir que les contenus avec lesquels on est d’accord. Les dangers de cette approche sont nombreux. Elle accentue notamment la polarisation des débats en créant des zones d’entre-soi.
S’il est difficile pour l’instant de savoir dans quelle mesure ce nouveau mécanisme pourrait « détendre l’atmosphère » sur X, voire faire évoluer le comportement d’une partie des utilisateurs, le réseau social tient potentiellement entre ses mains une mine d’or.
À une époque où les données et autres interactions ont désormais une immense valeur pour entrainer les modèles, le réseau pourrait utiliser cette nouvelle manne pour ses propres besoins. X a pour rappel été racheté par xAI, créée par Elon Musk pour participer à la guerre de l’IA. Les modèles Grok sont utilisés sur X pour les recommandations et autres questions. On peut régulièrement voir que le réflexe a pris dans les fils de discussions : beaucoup demandent à Grok de résumer une situation ou si telle déclaration est vraie (la marge d’erreur des IA génératives ne semble jamais prise en compte).
Avec ce nouveau mécanisme, X pourrait donc récolter des informations très précieuses sur la manière dont les internautes interagissent avec le contenu. Il pourrait entrainer un changement fondamental dans la manière dont le contenu est recommandé.
En outre, si X n’aborde pas ce point, la question se pose d’un enregistrement potentiel des interactions en fonction du compte. Chaque profil reçoit déjà des suggestions fortement influencées par l’activité passée. Outre le puissant outil statistique que ce mécanisme représenterait s’il était généralisé, il pourrait également servir à rendre les suggestions encore plus personnelles. Même si ces nouvelles notes affichent pour l’instant la promesse de suggestions plus variées.
Le procès contre trois anciens cadres et dirigeants d’Ubisoft se déroulait cette semaine à Bobigny. Ils sont accusés de harcèlement moral et sexuel, et pour l’un d’eux d’agressions sexuelles. Le procureur a requis des peines de prisons avec sursis allant jusqu’à trois ans et des amendes pour tous, considérant les faits d’une « extrême gravité ». Le délibéré doit être rendu début juillet.
Cette semaine se tenait le procès (d’abord reporté) de Thomas François, Serge Hascoët et Guillaume Patrux. Tous les trois ont occupé des postes à responsabilité pendant des années chez Ubisoft et sont accusés de harcèlement moral et sexuel au sein de l’entreprise. Le premier est aussi poursuivi pour une tentative d’agression sexuelle aggravée sur une salariée.
La publication d’enquêtes de Libération et Numerama en 2020 a mis en lumière le harcèlement moral, sexiste et sexuel institué chez Ubisoft pendant une dizaine d’années.
Jeudi soir, le procureur a requis contre l’ancien vice-président du service éditorial, Thomas François, trois ans de prison avec sursis et 30 000 euros d’amende, explique Le Parisien. Le parquet a réclamé 18 mois avec sursis et 45 000 euros d’amende contre l’ex-n° 2 de l’entreprise, Serge Hascoët, et 15 mois de prison avec sursis et 10 000 euros d’amende contre le game designer Guillaume Patrux.
Ambiance violente, sexiste et de harcèlement
Pendant cette semaine, de nombreux témoins ont décrit une ambiance violente, sexiste et de harcèlement au sein du studio de jeux vidéo. « Au cours de quatre jours d’audition, d’anciennes employées ont raconté avoir été attachées à une chaise, forcées à faire le poirier, soumises à des commentaires constants sur le sexe et leur corps, à des blagues sexistes et homophobes, à des dessins de pénis collés sur les ordinateurs, à un directeur qui pétait au visage des employées ou gribouillait sur les femmes avec des marqueurs, à des massages d’épaule non sollicités, à des films pornographiques dans un bureau ouvert, et à un autre cadre qui faisait claquer un fouet près de la tête des employées », décrit le Guardian.
Accusation d’agressions sexuelles
« Quand j’allais au bureau, j’avais envie de créer un environnement de travail cool, de faire de grands jeux », a affirmé Thomas François comme le rapporte le média canadien La Presse. Sans nier tous les faits, il les a souvent minimisés. Il justifie par exemple l’organisation de « chat-bite » en affirmant que « c’était des blagues entre hommes, de façon consentante et en connivence ». « Si j’avais su que cela la mettait mal à l’aise, je n’aurais pas continué », affirme-t-il, à propos du fait d’avoir ligoté à une chaise une salariée et de l’avoir mise dans l’ascenseur, rapporte La Presse. Lors de sa plaidoirie, son avocat a tenté un trait d’humour pour le moins déplacé, glissant la réflexion « attention pas shabbat, chat-bite », raconte Libération.
Une ancienne assistante de son service a expliqué, soutenue par d’autres témoignages, que Thomas François a tenté de l’embrasser de force pendant une fête, des collègues la retenant de force. Lui continue à nier : « Je lui ai demandé : “Est-ce que je peux te faire un bisou ?” et j’ai vu qu’elle s’est reculée, donc je me suis arrêté, je ne suis pas un bourrin », rapporte La Presse. Une autre femme a témoigné avoir, elle-aussi, été victime d’un baiser forcé de sa part.
Laissé faire et encouragement
L’ancien numéro 2, Serge Hascoët n’a rien fait après avoir reçu des plaintes à propos du harcèlement de Thomas François. Pire, il a même « encouragé la poursuite du harcèlement commis par Thomas François en assistant aux scènes, en les banalisant et en y participant parfois activement », a expliqué le procureur. Mardi, il avait « nié avoir été témoin ou auteur de faits de harcèlement moral ou sexuel », selon Le Monde. Concernant le harcèlement sexuel, le procureur a demandé la relaxe de Serge Hascoët mais aussi qu’il en soit reconnu complice, explique le Parisien.
Il a aussi noté qu’il avait utilisé ses collaboratrices comme « des supplétifs », leur demandant de s’occuper de sujets personnels comme les obsèques de sa femme ou d’en humilier une en tendant son mouchoir souillé accompagné d’un « Tu peux le vendre, ça vaudra de l’or ».
Lundi, Libération racontait qu’au premier jour du procès, les deux anciens cadres avaient mêlé leurs regrets à leur nostalgie pour une époque où « on s’amusait et on faisait de belles choses ».
Enfin, le responsable du jeu Agos (A Game of Space), Guillaume Patrux est accusé de harcèlement moral, pour avoir fait notamment claquer un fouet dans l’open space de l’entreprise et « à quelques centimètres du visage de ses collaborateurs » mais aussi avoir brûlé au briquet la barbe d’un de ses collègues. Il s’est excusé pour certains de ses gestes mais son avocat a pointé le fait qu’il n’avait fait l’objet « d’aucune alerte et d’aucun reproche ». « Si Guillaume Patrux avait été d’une violence incroyable, ses supérieurs lui auraient dit d’arrêter. Mais rien, pas un mot, a-t-il fait valoir. Comment pouvait-il avoir conscience de harceler ses collègues si personne ne lui dit rien ? », cite La Presse.
L’absence de la personne morale d’Ubisoft et des frères Guillemot
Selon Libération, le procureur a nié le fait qu’il s’agisse d’un changement d’époque et de paradigme : « il s’agit d’une libération de la parole. Mais pas de faits qui seraient soudain devenus répréhensibles. On parle seulement de faits qui étaient tus et ne le seront plus ».
Les différentes parties ont pointé un vide lors du procès : l’absence décidée par le parquet de la direction des ressources humaines, de la personne morale d’Ubisoft et de ses PDG, Michel et Yves Guillemot. Comme on peut le lire plus haut, la défense de Guillaume Patrux a notamment renvoyé la responsabilité sur le manque de réaction de ses supérieurs.
Pourtant, lors de son réquisitoire, le procureur a affirmé que tous ces comportements de ces cadres dirigeants avaient laissé penser aux salariés « qu’ils étaient autorisés et relevaient de la norme » et qu’ils avaient mis en place « une ambiance harcelante ». Le délibéré doit être rendu le 2 juillet.
Mais l’entreprise n’est pas encore au bout de ses peines. Comme l’a rapporté notre consœur de France Info, Clara Lainé, l’avocate Maude Beckers va « délivrer « dans les semaines qui suivent » une citation directe à l’encontre d’Ubisoft en tant que personne morale, d’une DRH (Marie Derain) et Yves Guillemot ». Ceci « pour remettre en lumière, le caractère systémique du harcèlement chez Ubisoft », explique le syndicat Sud Informatique, dont elle est la représentante.
Adoptée le 9 janvier dernier par le régulateur, la nouvelle numérotation des chaînes de TV à portée nationale, diffusée au travers de la TNT, est entrée en vigueur vendredi. Elle fait suite à la disparition programmée des chaînes C8 et NRJ12, ainsi qu’à la fin de la diffusion des chaînes payantes du Groupe Canal+ sur la TNT.
Sur la TNT (TV par voie hertzienne), le canal 4 affiche désormais France 4. La 8 est attribuée à la Chaîne parlementaire (réunion des programmes de l’Assemblée nationale et de Public Sénat). La chaîne jeunesse Gulli passe sur le canal 12, tandis que les chaînes d’information en continu sont réunies au sein d’un bloc qui va de 13 à 16 avec, dans l’ordre, BFMTV, CNEWS, LCI et Franceinfo.
Numérotation des chaînes TNT au 6 juin 2025
Le canal 18 accueille quant à lui une nouvelle venue, la chaine T18, portée par le groupe CMI France, lui-même détenu par le milliardaire Daniel Kretinsky. Enfin, le canal 19 ira à Novo19, nom finalement retenu pour la chaine généraliste lancée par le groupe Ouest-France, dont la diffusion doit débuter au 1er septembre prochain.
Du côté des box opérateurs comme du service spécialisé Molotov, on reflète sans surprise cette nouvelle numérotation, avec un transfert de Canal+ vers le canal 40. « Dans la majorité des cas, aucune action n’est nécessaire : votre téléviseur ou décodeur mettra la liste à jour automatiquement », indique Orange.
Même topo chez SFR, qui évoque une mise à jour disponible vendredi pour ses équipements. « En fonction de votre type de box, il pourrait être nécessaire de redémarrer celle-ci », précise tout de même l’opérateur au carré rouge. Bouygues tient aussi un discours rassurant à destination des usagers Bbox : « On vous rassure, vous n’avez rien à faire ! On s’occupe de tout. »
Chez Free, le changement de numérotation s’inscrit dans le contexte d’un remaniement plus large de l’offre TV, qui s’enrichit notamment des nouvelles chaînes thématiques RMC, d’une chaîne dédiée à l’auto promotion des services Free en 68, ainsi que d’une boucle vidéo dédiée à Netflix en 31.
Pour la deuxième année consécutive, le trafic en provenance de l’algorithme de recommandation de contenus Discover de Google explose de + 50%. Un phénomène de dépendance qui interroge, à plus forte raison quand le modèle économique de la presse, nationale ou régionale et départementale, dépend de plus en plus des abonnements numériques.
Le Baromètre diffusion 2024 de l’Alliance de la presse d’information générale (APIG), qui rassemble et représente près de 300 titres de la presse quotidienne nationale (PQN) et de la presse quotidienne régionale et départementale (PQRD), souligne à quel point la presse dépend désormais d’Internet, et plus particulièrement de Google.
Les abonnements numériques (+ 12,2% l’an passé) y représentent en effet désormais 35% de la diffusion de la presse quotidienne, « soit 20 points de plus qu’il y a 10 ans ».
En moyenne, chaque jour, près de 1,6 million de versions numériques de journaux sont ainsi diffusées. Ces abonnements représenteraient 69% de la diffusion de la presse quotidienne nationale (PQN), avec 1 million d’exemplaires par jour, mais 18 % seulement de la presse quotidienne régionale et départementale (PQRD), à raison d’environ 570 000 exemplaires par jour.
L’Équipe arrive en tête, avec 97,6% d’abonnements numériques, suivis par Le Monde (88,5%), Libération (86,8%), Le Figaro (79,3%) et Les Échos (78,7%). Le Parisien (65,7%) et Libération sont par ailleurs les titres ayant connu les plus fortes progressions de nouveaux abonnés numériques depuis 2020.
« La presse continue d’être attractive », estime dès lors l’APIG. Les abonnements individuels (papier + numérique), qui ont progressé de 9,6% en 10 ans, représenteraient aujourd’hui 73% de la diffusion de la presse quotidienne, contre 53% en 2015. Dans le même temps, les abonnements papier ont baissé de 35,1%, quand les abonnements numériques explosaient, eux, de + 611,7%.
Les réseaux sociaux ne représentent plus que 5 % des sources de trafic
Les marques de presse « regagnent en visibilité en 2024 » avec un trafic « porté par l’actualité » (+ 13,1%), et « malgré l’arrêt de Facebook News et une chute des visites en provenance des réseaux sociaux en 2023 ». Ces derniers ne représentent plus que 5% des sources de trafic (plus 1% en provenance des newsletters), contre 61% en provenance de Google.
Le rapport 2023 montrait déjà (sur un « périmètre réduit du panel de l’APIG »), une chute de 24,6% du trafic en provenance de Facebook, et une légère décrue du nombre de clics en provenance de Google Search. A contrario, le trafic émanant de son application (et algorithme) Discover de recommandation de contenus enregistrait de son côté une progression de 50%, passant de 200 à 300 millions de visites par mois entre juin et octobre.
Évolution du nombre de visites émanant de Google et Facebook entre 2022 et 2023 – source APIG
Discover représente, à lui seul, 68% du trafic en provenance de Google
Si la consultation via des applications représentait, en 2024, 30% du trafic de la PQN, et 11% de la PQRD, l’écrasante majorité se fait depuis des interfaces mobiles : 85% pour la PQN, 89% pour la PQRD, accélérant d’autant le trafic en provenance de Discover, dont l’application n’est (pour l’instant) disponible que sur les terminaux mobiles et tablettes.
Répartition du trafic entre sites et applications mobiles des titres de presse, nationale puis régionale et départementale – source APIG
Et si le trafic en provenance de Google Search a poursuivi sa baisse, celui émanant de son algorithme Discover continue d’exploser :+ 48,8% par rapport à 2023. Au point que les marques de presse seraient « dépendantes des plateformes », écrit l’APIG, et tout particulièrement de Google, qui représenterait 61% de leurs sources de trafic.
Évolution du nombre de visites émanant des outils Google entre 2023 et 2024 – source APIG
Sur les 966 millions de clics générés par les services Google vers les titres de presse en août 2024, 653 millions (67,6 %) provenaient ainsi de Discover, contre seulement 238 millions (24,6 %) pour la recherche classique et 74 millions (7,7 %) pour Google News, relève Abondance, soulignant que « Google Discover est devenu la principale source de trafic pour la presse française » :
« Cette montée en puissance de Discover représente à la fois une opportunité et un défi pour les éditeurs. D’un côté, cette fonctionnalité permet d’atteindre un public large qui ne se serait pas nécessairement dirigé vers les sites d’actualité. De l’autre, elle renforce la dépendance des médias envers les algorithmes de Google, qui déterminent quels contenus seront mis en avant. »
« On ne va pas se mentir : Google Discover, c’est un peu la loterie »
Or, et comme le relève par ailleurs Abondance dans un article consacré à l’arrivée prochaine de Discover sur desktop : « On ne va pas se mentir : Google Discover, c’est un peu la loterie. Visibilité massive un jour, plus rien le lendemain ».
L’algorithme recommande en effet sur l’application mobile Google une dizaine ou quinzaine de contenus, a priori personnalisés en fonction des données enregistrées dans le compte Google des internautes (activités sur le web et les applications, historique des recherches, géolocalisation, etc.).
Et si « personne ne sait vraiment comment fonctionne le classement sur Discover », poursuit Abondance, on sait par contre qu’il privilégie les visuels et titres attrayants, et qu’il s’intéresse moins à la pertinence et à la qualité du contenu qu’à sa capacité à capter l’attention des mobinautes.
Nous y reviendrons, dans un second article consacré à ce pourquoi, et comment, des professionnels du marketing numérique et du référencement (SEO) se sont rués sur Discover, dans le cadre de notre enquête au long cours sur cette pollution en cours de sites d’information générés par IA.
En un an, les performances générales de Chrome ont été améliorées de 10 %. Il s’agit d’une moyenne, enregistrée pour l’essentiel via des tests sur le benchmark Speedometer 3, développé en partenariat avec d’autres éditeurs de navigateurs. Il est chargé d’analyser les performances sur des processus comme le parsing HTML, le traitement du JavaScript, les interactions et manipulations du DOM, l’application des CSS ou encore le rendu des pixels.
Cette amélioration est continue, comme le montre un graphique publié par Google. Sur un an, on peut voir une légère augmentation des performances à chaque nouvelle version du navigateur, à l’exception de la mouture 129, sans que l’on sache pourquoi.
Google dit s’être concentrée sur les « chemins de rendu fondamentaux ». L’entreprise s’est ainsi penchée sur la disposition en mémoire de structures de données internes dans les composants DOM, CSS, de mise en page et de dessin. Le moteur de rendu, Blink, évite selon Google « un grand nombre d’opérations inutiles sur la mémoire ».
À titre d’exemple, un plus grand nombre d’opérations ont été confiées au ramasse-miettes Oilpan, en remplacement d’anciennes instructions malloc (allocation mémoire). Autre exemple, les caches sont décrits comme beaucoup plus efficaces dans les rendus lourds, notamment pour les calculs des feuilles CSS.
Bien que Google n’en parle pas frontalement, et puisqu’il s’agit d’améliorations portées dans le moteur Blink, tous les navigateurs l’exploitant ont récupéré ces améliorations et continueront de le faire.
Il est d’ailleurs intéressant de constater que les performances, qui n’étaient plus guère mises en avant ces dernières années, sont à nouveau un argument. En avril par exemple, Microsoft avait communiqué sur une hausse significative de ses résultats dans Edge. Le navigateur se veut également plus réactif, avec un remplacement récent d’une bonne partie de son interface, React ayant laissé sa place à WebUI 2.0.
Le procès pour violation de Copyright entre le New York Times et OpenAI suit son cours depuis la plainte déposée par le journal étasunien en décembre 2023.
Mais, à la mi-mai, le juge en charge de l’affaire a ordonné à OpenAI de préserver « tous les journaux de sorties qui devraient normalement être supprimés » et ce « jusqu’à nouvel ordre de la Cour », a appris Arstechnica. Il précise que cet ordre concerne toutes les données qu’OpenAI supprime d’habitude, « que ces données soient supprimées à la demande d’un utilisateur ou en raison de « nombreuses lois et réglementations sur la protection de la vie privée » qui pourraient exiger qu’OpenAI le fasse ».
Sans surprise, l’entreprise d’IA générative s’oppose à cet ordre. Elle affirme que le tribunal a pris cette décision en se fondant uniquement sur une intuition du New York Times et d’autres plaignants du secteur de l’information. De fait, le média a affirmé que les utilisateurs qui exploiteraient le chatbot pour contourner son paywall seraient plus enclins à supprimer leur historique.
OpenAI ajoute que, sans « aucune raison valable », l’ordre « continue d’empêcher OpenAI de respecter les décisions de ses utilisateurs en matière de protection de la vie privée ».
OpenAI précise que les données concernées sont celles de tous les utilisateurs du chatbot de l’entreprise, qu’ils aient un compte gratuit, Plus ou Pro et qu’ils passent par l’interface graphique ou l’API. Elle précise dans un billet que ça n’affecte par contre pas les utilisateurs de ses offres Enterprise et Edu.
L’entreprise ajoute que « seule une petite équipe juridique et de sécurité d’OpenAI, soumise à un audit, pourra accéder à ces données si cela s’avère nécessaire pour respecter nos obligations légales ».
« Nous nous opposerons à toute demande qui compromettrait la vie privée de nos utilisateurs ; il s’agit là d’un principe fondamental », a affirmé Sam Altman sur X.