La semaine a été riche en actualités pour ce framework dédié à l’apprentissage automatique (machine learning), écrit en Python et s’appuyant sur Torch de Meta. C’est aujourd’hui l’une des bibliothèques les plus couramment utilisées dans ce domaine. Depuis l’automne 2022, son développement se fait sous l’égide de la fondation Linux.
Parmi les actualités, on commence avec la disponibilité de builds compilés nativement pour Arm par Microsoft, à destination des PC basés sur ces puces, dont les Snapdragon X présents dans les machines Copilot+. Il s’agit de la dernière révision de PyTorch (2.7), qui peut fonctionner avec la version 3.12 de Python.
Pour faire tourner ces builds, il faut quand même quelques composants. Il est ainsi nécessaire d’avoir soit une installation complète de Visual Studio, ou au moins la partie associée au développement avec C++, les outils C++ pour ARM64/ARM64EC et Rust, en partie par le site officiel pour ce dernier. Le reste se fait via des commandes pip fournies par Microsoft sur la page d’annonce.
Aujourd’hui, Intel a également publié sa nouvelle extension pour PyTorch 2.7. À la clé, diverses optimisations de performances pour les puces du fondeur, dont le support de la précision INT8 pour les dernières générations de Xeon. La nouvelle mouture apporte également le support de plusieurs modèles, dont DeepSeek-R1 et la famille Phi-4 de Microsoft. La nouvelle version peut être téléchargée depuis son dépôt GitHub.
Faille critique dans les anciennes versions
Enfin, dans les nouvelles moins réjouissantes, une importante faille de sécurité a été divulguée le 18 avril dans toutes les versions de PyTorch jusqu’à la 2.5.1. Estampillée CVE-2025-32434, elle possède un score CVSS de 9.3 sur 10, la catégorisant comme critique. L’exploitation peut se faire via un modèle d’IA malveillant qui, sous certaines conditions, va pouvoir déclencher l’exécution d’un code arbitraire.
Plus précisément, la faille réside dans la manière dont PyTorch gère certains paramètres. Les modèles entrainés sont stockés dans des fichiers permettant d’enregistrer les poids associés. Ces poids sont chargés via la méthode torch.load().
Comme l’explique notamment Kasperksy, les modèles sont souvent proposés depuis des dépôts publics. Pour éviter les problèmes de sécurité, il est recommandé d’activer le paramètre weights_only=True, qui n’autorise que les types primitifs de données (dictionnaires, tenseurs, listes…). La faille permet de contourner cette barrière afin que le paramètre ait l’effet inverse, autorisant le chargement de tous les types de données. Y compris donc la charge malveillante.
La version 2.6.0, intégrant le correctif, est sortie le 29 janvier. Il est donc recommandé de basculer sur une version récente de PyTorch si ce n’est pas encore fait.
La semaine a été riche en actualités pour ce framework dédié à l’apprentissage automatique (machine learning), écrit en Python et s’appuyant sur Torch de Meta. C’est aujourd’hui l’une des bibliothèques les plus couramment utilisées dans ce domaine. Depuis l’automne 2022, son développement se fait sous l’égide de la fondation Linux.
Parmi les actualités, on commence avec la disponibilité de builds compilés nativement pour Arm par Microsoft, à destination des PC basés sur ces puces, dont les Snapdragon X présents dans les machines Copilot+. Il s’agit de la dernière révision de PyTorch (2.7), qui peut fonctionner avec la version 3.12 de Python.
Pour faire tourner ces builds, il faut quand même quelques composants. Il est ainsi nécessaire d’avoir soit une installation complète de Visual Studio, ou au moins la partie associée au développement avec C++, les outils C++ pour ARM64/ARM64EC et Rust, en partie par le site officiel pour ce dernier. Le reste se fait via des commandes pip fournies par Microsoft sur la page d’annonce.
Aujourd’hui, Intel a également publié sa nouvelle extension pour PyTorch 2.7. À la clé, diverses optimisations de performances pour les puces du fondeur, dont le support de la précision INT8 pour les dernières générations de Xeon. La nouvelle mouture apporte également le support de plusieurs modèles, dont DeepSeek-R1 et la famille Phi-4 de Microsoft. La nouvelle version peut être téléchargée depuis son dépôt GitHub.
Faille critique dans les anciennes versions
Enfin, dans les nouvelles moins réjouissantes, une importante faille de sécurité a été divulguée il y a quelques dans toutes les versions de PyTorch jusqu’à la 2.5.1. Estampillée CVE-2025-32434, elle possède un score CVSS de 9.3 sur 10, la catégorisant comme critique. L’exploitation peut se faire via un modèle d’IA malveillant qui, sous certaines conditions, va pouvoir déclencher l’exécution d’un code arbitraire.
Plus précisément, la faille réside dans la manière dont PyTorch gère certains paramètres. Les modèles entrainés sont stockés dans des fichiers permettant d’enregistrer les poids associés. Ces poids sont chargés via la méthode torch.load().
Comme l’explique notamment Kasperksy, les modèles sont souvent proposés depuis des dépôts publics. Pour éviter les problèmes de sécurité, il est recommandé d’activer le paramètre weights_only=True, qui n’autorise que les types primitifs de données (dictionnaires, tenseurs, listes…). La faille permet de contourner cette barrière afin que le paramètre ait l’effet inverse, autorisant le chargement de tous les types de données. Y compris donc la charge malveillante.
La version 2.6.0, intégrant le correctif, est sortie le 29 janvier. Il est donc recommandé de basculer sur une version récente de PyTorch si ce n’est pas encore fait.
Signe des temps, OpenAI a pris la décision de fournir sa fonction Deep Research à l’ensemble des comptes gratuits. Cette fonction, au succès grandissant, se propose d’aller chercher sur le web les informations demandées pour les rassembler, les résumer et en fournir si besoin une analyse. Elle est d’ailleurs la démonstration du fonctionnement d’un agent.
OpenAI semble suffisamment en confiance pour généraliser sa fonction, mais il se pourrait que la concurrence croissante de Google et de son Gemini 2.5 Pro se fasse sentir. Deep Research est en cours de déploiement, il se peut que vous ne le voyiez pas encore.
Il existe bien sûr une différence avec les comptes payants. Ces derniers gardent le modèle o3, qui fournit les informations et les rapports les plus complets. La version gratuite se base sur o4-mini, que nous évoquions il y a peu. Ce modèle plus petit est décrit par OpenAI comme « presque aussi intelligent » que son grand frère, mais il est « significativement moins cher » à faire fonctionner. OpenAI prévient que les réponses du petit modèle seront plus courtes.
Cette version allégée va également intégrer les comptes payants la semaine prochaine. Toutes les formules actuellement proposées par OpenAI comportent en effet des quotas. L’idée est donc simple : basculer sur la version o4-mini de Deep Research quand ces quotas sont atteints.
Il y a un mois environ, nous avons pris en main le COSMIC Desktop de System76 à destination des distributions Linux. Écrit intégralement en Rust, l’environnement a vite attiré les regards pour son potentiel, avec de nombreuses options de personnalisation, une gestion intéressante et poussée des fenêtres et sa suite d’applications intégrées.
Alors que l’équipe prépare sa première bêta, elle se dépêche de nettoyer son code en vue de la version 1.0. Sans surprise, l’équipe annonce donc avoir éliminé de nombreux bugs, dont on peut trouver la liste à la fin de l’annonce faite hier soir. On note d’ailleurs que les premiers concernent tous des optimisations sur l’utilisation du CPU. On en trouve d’autres liés à l’interface – dont des barres de progression qui fonctionnaient parfois mal – et d’autres encore presque drôles, comme des horodatages erronés pour les fichiers dans la corbeille, qui les faisaient paraître créés dans le futur.
COSMIC Desktop
Les développeurs ajoutent se dépêcher d’intégrer les derniers éléments prévus pour la première version. Comme nous l’indiquions dans notre article, ils étaient notamment en retard sur l’accessibilité. Plusieurs ajouts importants sont donc à signaler : un thème à contraste élevé, des filtres de couleurs pour les trois formes les plus fréquentes de daltonisme, la possibilité d’inverser les couleurs ainsi que le son mono. La loupe reçoit aussi plusieurs améliorations. L’équipe précise que des options supplémentaires seront ajoutées dans les versions suivantes.
D’autres nouveautés sont présentes. Par exemple, les espaces de travail peuvent être librement réarrangés, que ce soit sur l’écran en cours ou sur d’autres. On note aussi l’apparition de tooltips pour les éléments du dock, des espaces de travail et dans le Launcher. Du neuf également pour les raccourcis, avec l’arrivée de raccourcis dit « globaux ». Ils permettent d’utiliser des raccourcis spécifiques à des applications même quand celles-ci ne sont pas au premier plan.
La mise à l’échelle fractionnelle dans XWayland a été modernisée. Il y a maintenant deux modes de fonctionnement : « Optimiser pour les applications » pour que ces dernières apparaissent nettes même quand elles ne prennent pas en charge ce mode d’affichage, et « Optimiser pour le plein écrans/les jeux » pour s’adapter à la définition de l’écran.
La liste complète des nouveautés est visble depuis le billet de blog. L’équipe propose une nouvelle image ISO du système Pop!_OS intégrant cette nouvelle alpha. Les personnes ayant déjà installé le système peuvent simplement le mettre à jour.
Adobe a ouvert sa conférence MAX à Londres hier. Comme on s’y attendait, la plupart des annonces faites jusqu’à présent ont concerné l’IA. Mais l’éditeur a voulu marquer les esprits en poussant loin les capacités et l’intégration, afin que ses outils restent pertinents. Il veut également promouvoir le respect des œuvres originales par les éditeurs de solutions IA.
Firefly est à la fois le nom donné par Adobe à une application et à ses modèles d’IA générative utilisés pour la création d’images. Il s’agit d’une famille, dont une nouvelle génération a été présentée hier, avec toutes les améliorations que l’on imagine sur la taille des images, leur précision ou encore le nombre de détails qu’elles peuvent comporter.
Des modèles toujours plus précis
Le modèle principal, Firefly Image Model 4, est donc présenté comme meilleur que son prédécesseur sur tous les plans. Il permet de générer des images jusqu’en définition 2K, améliore la qualité, présente de meilleures performances ainsi qu’un plus grand nombre de contrôles sur la structure, le style, les angles de caméra ou encore le zoom. Une version Ultra du Model 4 a également été présentée, avec un accent mis sur les scènes complexes et sa capacité à générer de nombreux détails.
La conférence d’hier a aussi été l’occasion de lancer officiellement le premier modèle vidéo Firefly, qui n’existait jusque-là qu’à travers une bêta limitée. On retrouve des capacités désormais « classiques » pour ce genre de produits : génération d’une vidéo à partir d’un texte ou d’une image, sélection des angles de vue, possibilité de préciser des images de début et de fin pour mieux contrôler les plans, génération d’éléments atmosphériques ou encore personnalisation du mouvement. Des outils désormais habituels dans ce genre de produit.
Autre membre de la famille, le Firefly Vector Model. Il pourrait devenir l’un des produits les plus importants de l’entreprise, car ses capacités sont liées aux illustrations vectorielles. On peut ainsi débroussailler le terrain sur une création de logo, en itérant et générant des variantes. Même chose pour les emballages de produits, les icônes, les motifs et de manière générale tout ce qui touche à l’identité visuelle d’une marque.
The place to be
Même si Adobe ne tarit pas d’éloges sur les capacités de ses nouveaux modèles, l’éditeur veut promouvoir l’application Firefly comme l’endroit idéal où développer ses idées. La version web intègre ainsi d’autres modèles pour la génération d’images, dont ceux d’OpenAI, Google (Imagen 3 et Veo2), ainsi que Flux (1.1 Pro). Les utilisateurs peuvent passer librement d’un modèle à un autre, toutes les images créées comportant un filigrane pour les identifier comme contenus générés par IA. D’autres modèles seront ajoutés par la suite, dont ceux de Pika, Luma, Runway, Ideogram et fal.ai.
Connaissant bien l’intérêt du travail collaboratif – Adobe a tenté de racheter Figma – l’éditeur lance également un nouveau produit nommé Firefly Boards. Disponible uniquement en préversion pour l’instant, il permet de jeter rapidement ses idées dans l’interface et d’inviter d’autres personnes pour participer à l’élaboration. Les images de départ peuvent être générées ou importées. Boards est accessible depuis l’application Firefly et sera un concurrent à des solutions déjà sur le marché comme Cove, Kosmik ou Visual Electric, toutes centrées sur l’idée de « workflow », les maquettes et les storyboards.
Adobe transforme donc progressivement son application Firefly en outil à tout faire. Une version mobile est d’ailleurs prévue, sans plus de précisions pour l’instant.
Adobe veut un robots.txt pour les images générées
On reste dans l’IA générative, mais dans un domaine parallèle. Lors de sa conférence, Adobe a en effet affiché sa volonté de créer l’équivalent d’un robots.txt pour les images générées par IA. Le fichier robots.txt, présent sur la plupart des sites web, indique aux « crawlers » si les informations présentes peuvent être moulinées pour apparaitre sur les moteurs de recherche. Depuis la déferlante de l’IA générative, d’autres crawlers sont apparus, cette fois pour aspirer les données, dans l’optique d’entrainer les modèles. Avec toutes les questions que cela comporte sur le droit d’auteur, le sujet étant sensible et ayant déjà conduit à plusieurs plaintes.
En tant que membre de la Coalition for Content Provenance and Authenticity (C2PA, lancée par Microsoft en 2021), Adobe propose donc une Content Authenticity App pour ajouter des informations d’identification aux images. Elle peut traiter des lots de 50 images, mais en JPG et PNG uniquement pour l’instant. On peut ajouter des informations comme le nom de l’auteur/autrice ou de l’entreprise, les comptes de réseaux sociaux et autres renseignements. Adobe s’est d’ailleurs associé à LinkedIn pour permettre de renvoyer vers un profil dont l’identité a été vérifiée par la plateforme.
L’application permet aussi de marquer les images pour indiquer qu’elles ne doivent pas être utilisées pour l’entrainement des modèles. Cependant, à la manière des fichiers robots.txt, il n’y a aucune garantie que les crawlers respecteront ces informations. Adobe n’a en outre pas annoncé de partenariats, simplement qu’elle était en discussion avec tous les principaux éditeurs de modèles d’IA pour les convaincre de respecter ces informations.
Aussi efficace et simple à utiliser que soit la technologie, le gros du défi consistera bien à convaincre l’industrie de l’IA de respecter ces informations.
De nouveaux outils dans le Creative Cloud
Les applications du Creative Cloud ont également reçu de nouveaux outils, dont beaucoup liés à l’IA. Dans Photoshop par exemple, il est possible de s’appuyer sur des images existantes pour en générer une autre qui en gardera la structure et les principales caractéristiques. La suppression d’arrière-plan reçoit une nouvelle fois des amélioration avec des améliorations liés aux éléments complexes ou entremêlés.
L’ajustement des couleurs a aussi été renforcé pour simplifier le choix de la teinte, de la saturation et de luminosité. En outre, Photoshop reçoit un nouveau panneau Actions (en bêta pour l’instant) qui ambitionne de fournir des suggestions de flux de travail « plus intelligentes ». À noter que cette fonction évoluera pour devenir plus tard le premier agent IA d’Adobe.
On note de nouveaux outils pour Express. Par exemple, Clip Maker peut convertir de longues séquences vidéo en clips adaptés aux réseaux sociaux. Dynamic Animation peut animer des images fixes, Enhance Speech est chargé de supprimer les bruits de fond, Generative Video peut se servir de texte et d’images pour générer des fonds à intégrer dans les vidéos commerciales, et Generate Similar peut créer rapidement des variations d’une image de référence.
Illustrator intègre lui aussi de nouveaux outils comme Generate Shape Fill et Text to Pattern. Ces outils doivent accélérer le prototypage. L’application se veut également plus rapide, Adobe indiquant que les « effets les plus populaires sont désormais jusqu’à cinq fois plus rapides ». Citons également la possibilité dans InDesign de convertir des PDF en documents de travail et d’accéder à un éditeur de formules mathématiques, la création facilitée de masques dans Lightroom pour les éléments de paysage courants, ou encore de nouveaux outils dans Premiere Pro centrés sur la recherche et l’édition rapides des séquences, avec l’aide de l’IA ou pas.
Mercredi, la Commission européenne a prononcé ses deux premières condamnations pour infractions au Digital Markets Act. La première, de 500 millions d’euros, a frappé Apple pour ses pratiques anti-steering. La seconde, de 200 millions d’euros, a été infligée à Meta pour son mécanisme « payer ou consentir » sur les publicités personnalisées.
Nous nous posions la question d’une réaction de la Maison-Blanche. Le gouvernement américain avait en effet indiqué fin février que le DMA et le DSA seraient examinés de près. En outre, il s’était montré très clair : les sociétés américaines ne devaient être réglementées que par des lois américaines, quels que soient les marchés dans lesquels elles opèrent. La Maison-Blanche accusait également l’Europe de vouloir faire son beurre sur les grandes entreprises américaines, n’ayant pas elle-même de sociétés aussi développées.
Maison-Blanche, crédits : David Everett Strickler (Unsplash)
Sans surprise, le gouvernement américain s’est montré très critique face aux condamnations d’Apple et Meta. « Cette nouvelle forme d’extorsion économique ne sera pas tolérée par les États-Unis », a déclaré un porte-parole de la Maison-Blanche à Reuters. « Les réglementations extraterritoriales qui ciblent spécifiquement les entreprises américaines, étouffent l’innovation et permettent la censure seront considérées comme des obstacles au commerce et une menace directe pour la société civile libre », a-t-il ajouté.
Au vu des tensions actuelles, il est probable que le gouvernement américain contre-attaque. Donald Trump avait menacé par exemple d’adapter les droits de douane si l’Union européenne ne freinait pas sur la régulation des grandes entreprises.
L’étiquetage automatique est une fonction importante introduite initialement par Google dans son Drive. L’idée est de définir un lot de règles qui vont automatiquement apposer des étiquettes sur les données, afin que des règles s’enclenchent selon les actions entreprises. Cette fonction était en bêta dans Gmail depuis un certain temps. Depuis hier, elle est disponible en version finale.
Mais de quoi parle-t-on précisément ? Appliquée à Gmail, la fonction permet un étiquetage automatique des e-mails selon, encore une fois, un lot de critères. Par exemple, l’équipe d’administration peut indiquer que tout courriel contenant dans ses destinataires une personne de la direction soit étiqueté « interne ». Une règle peut ensuite être créée pour interdire tout transfert d’un e-mail ainsi labellisé.
C’est un exemple simple, mais que l’on peut généraliser à de nombreux autres cas. Google indique dans son billet que la phase bêta a été productive, d’autres fonctions ayant été ajoutées pour compléter le mécanisme. Ce dernier peut ainsi fonctionner de concert avec la politique DLP (Data Loss Prevention) de l’entreprise. Ce qui signifie que les règles existantes pour Drive peuvent être étendues en l’état à Gmail.
Parmi les autres apports, les administrateurs peuvent mettre en place une détection « d’extraits de contenus sensibles ». L’information générée permet notamment aux utilisateurs de savoir ce qui a provoqué une alerte, et aux administrateurs de garder une trace des évènements de sécurité liés. Ces données intègrent également les journaux d’audits et indiquent notamment quand des étiquettes ont été créées et apposées sur un contenu, automatiquement ou non.
Google indique avoir renforcé la communication aux utilisateurs, qui n’avaient initialement que peu d’informations sur ce qui se passait. Dans le cas d’un blocage, une fenêtre apparaitra pour indiquer ce qui se passe. Ces messages peuvent être personnalisés par les administrateurs, par exemple pour expliquer d’où vient le problème et comment y remédier.
Autre gros changement par rapport à la préversion, la compatibilité a été étendue aux applications Android et iOS de Gmail. Là aussi, si des règles doivent déclencher des actions comme des blocages, les applications les prendront en charge. En revanche, l’application immédiate des règles DLP n’y est pas encore disponible. Selon Google, elle devrait arriver dans le courant du mois prochain.
Enfin, les fonctions disponibles dépendent de l’abonnement Workspace souscrit. Le Label Manager est disponible dans la quasi-totalité des éditions payantes. Toutefois, les règles de prévention des données sont disponibles uniquement dans les éditions Enterprise Standard et Plus, Education Fundamentals, Standard et Plus.
Il y a deux semaines environ, nos confrères de Neowin rapportaient qu’un mystérieux dossier, nommé « inetpub » apparaissait à la racine du disque sur les systèmes Windows 10 et 11. Un dossier vide, dont la suppression ne semblait entrainer aucun problème. La piste était alors une conséquence des correctifs de sécurité d’avril.
Quelques jours plus tard, Microsoft avait confirmé l’hypothèse. Il s’agissait d’un dossier créé par le correctif contre la faille CVE-2025-21204. Celle-ci pouvait déclencher une élévation de privilèges à partir de liens symboliques, ces derniers permettant de pointer vers un fichier et d’en créer un « reflet ».
« Après avoir installé les mises à jour […], un nouveau dossier %systemdrive%\inetpub sera créé sur votre appareil. Ce dossier ne doit pas être supprimé, qu’Internet Information Services (IIS) soit actif ou non sur l’appareil. Ce comportement fait partie des changements qui augmentent la protection et ne nécessite aucune action de la part des administrateurs informatiques et des utilisateurs finaux », expliquait alors Microsoft.
Cependant, ce nouveau dossier, bien que l’on ne connaisse pas vraiment son fonctionnement, peut être détourné. C’est la découverte du chercheur en sécurité Kevin Beaumont. Dans un billet publié mardi soir, il indique que le correctif, associé au dossier inetpub, crée une opportunité : un déni de service.
L’exemple donné illustre bien le problème. La commande mklink est utilisée pour créer un lien symbolique entre le dossier c:\inetpub et l’application Bloc-notes. En somme, accéder au dossier ouvre l’application.
Ce point de jonction est suffisant pour casser le fonctionnement de Windows Update si ce type de commande est exécuté avant l’installation des correctifs d’avril. Après quoi, plus aucune mise à jour ne peut alors s’installer correctement. « Le correctif de Microsoft pour la vulnérabilité de lien symbolique introduit une autre vulnérabilité de lien symbolique », ironise le chercheur.
Comme le montre la capture fournie par Kevin Beaumont, le système indique que quelque chose s’est mal passé, aboutissant à une erreur ou à un roll back, c’est-à-dire un retour à la situation initiale. La situation est d’autant plus problématique que la commande mklink peut être utilisée par des comptes sans droits administrateurs.
Le chercheur, pourtant connu sur la scène de la cybersécurité, dit avoir contacté Microsoft il y a deux semaines, sans réponse pour l’instant.
OpenMandriva vient de publier la version 6.0 de sa distribution Lx. L’occasion bien sûr de montrer que le développement du système est toujours dynamique, mais également de fournir de nombreux composants dans leur dernière révision.
OpenMandriva est à la fois le nom d’une distribution et celui de l’association qui préside à son développement. OpenMandriva a pris la suite de la distribution Mandriva, qui venait elle-même de Mandrake. Il ne faut pas la confondre avec Mageia, elle aussi issue de Mandriva, mais pilotée par un autre groupe de développeurs. OpenMandriva bénéficie aujourd’hui d’un soutien plus actif que Mageia et propose plus régulièrement de nouvelles versions.
Sur le site officiel, l’équipe de développement rappelle fièrement que contrairement à bien des distributions, OpenMandriva est autonome. Elle n’est pas basée sur un système existant, comme peut l’être par exemple Ubuntu avec Debian, ou Linux Mint avec Ubuntu. Elle est son propre socle et se décline en deux variantes. La branche Rock d’abord, qui est une version classique avec une nouvelle version tous les 12 à 18 mois. La branche ROME ensuite, plus récente, qui fonctionne en rolling release et se destine donc aux personnes aimant toujours avoir les dernières versions des composants.
OpenMandriva préserve l’héritage de Mandriva et même Mandrake en gardant KDE Plasma comme environnement de bureau par défaut. Lx 6.0 – nom de code « Vanadium » – intègre d’ailleurs la récente version 6.3.4 de Plasma, accompagnée de la très fraichement sortie mouture 25.04 de KDE Gear. Gear contient pour rappel toute la suite applicative officielle de KDE, dont Dolphin, Konqueror, Connect, Itinerary, Kongress, Merkuro, Kontact ou encore Okular.
Ce passage à Plasma 6 est accompagné d’un avertissement qui risque de ne pas faire plaisir. Si vous utilisez Lx 5.0, vous avez encore Plasma 5. L’équipe de développement recommande donc une installation neuve pour Lx 6.0 pour obtenir les meilleures performances avec Plasma 6. La mise à jour est possible, mais semble pouvoir provoquer des problèmes.
Tant qu’à faire, OpenMandriva Lx 6.0 intègre également le dernier noyau Linux disponible, le 6.14.2. La mouture 6.15 RC2 est même fournie, Clang ayant été utilisé pour la compilation dans les deux cas. Comme toujours dans ce genre de cas, cela devrait rendre l’installation de la distribution beaucoup plus simple sur du matériel récent. Puisque l’on parle d’installation, le système se sert de Calamares. Vous connaissez peut-être cet installateur, utilisé notamment par Manjaro, KDE Neon ou encore Netrunner. Ce n’est donc pas un composant spécifique à OpenMandriva.
Sans trop de surprise, la pile logicielle est à l’avenant. On y retrouve LibreOffice 25.2.3 ainsi que les dernières versions de Chromium (navigateur par défaut et débarrassé des composants Google), Firefox, Falkon, GIMP ou encore VirtualBox. Pour les développeurs, même constat avec LLVM/Clang 19.1.7, GCC 14.2.1, Glibc 2.41, Systemd 257.5, Mesa 25.0.4 et Java 24. Bien que non installés par défaut, Proton et Proton Experimental sont disponibles dans les dépôts officiels de Mandriva pour faciliter l’utilisation des jeux. Nous aurons d’ailleurs l’occasion bientôt de nous pencher sur le jeu sous Linux.
Des versions communautés et une nouvelle édition Server
Bien que KDE soit traditionnellement fourni par le système, ce dernier dispose – comme beaucoup de distributions – de versions communautaires. On peut donc récupérer des images ISO d’OpenMandriva contenant GNOME 48.1, LXQt 2.2, Xfce 4.20 et même une version alpha de l’environnement COSMIC. Ce dernier, développé intégralement en Rust, est suivi de près par de nombreux observateurs. Nous l’avons pris en main récemment pour vérifier son potentiel.
OpenMandriva Lx 6.0 est également l’occasion d’introduire une nouvelle édition Server. Contrairement aux autres, elle n’est pas fournie sous forme d’image ISO, mais d’image disque. Selon les développeurs, ce choix a été fait pour faciliter le déploiement dans des solutions de virtualisation comme QEMU (qui vient de sortir en version 10.0) et OpenStack, ou encore dans le cloud, sans passer par une phase d’installation.
Cette édition Server comprend un nombre réduit de paquets préinstallés. En cas de besoin, il suffit de recourir à la commande « dnf install », puisque la distribution se sert du même gestionnaire de paquets que Fedora (notamment). L’édition contient aussi un compte utilisateur préconfiguré (omv/omv comme nom et mot de passe par défaut) et intègre le support de cloud-init pour permettre une personnalisation chez des fournisseurs de solutions cloud.
Côté architectures, Lx Server prend en charge x86_64, AArch64 avec support de l’UEFI, ainsi qu’AMD Zen. Cette dernière concerne surtout les processeurs EPYC et Threadripper dans les entreprises. Les développeurs indiquent que l’édition x86_64 fonctionne avec ces derniers, mais que la version AMD Zen est plus optimisée, avec à la clé de meilleures performances.
Lx Server est également dénué d’interface graphique.
Attention dans VirtualBox
Les développeurs mettent en garde : dans l’éventualité d’une utilisation en machine virtuelle dans VirtualBox, il est recommandé d’utiliser X11 comme serveur graphique. Ils indiquent que le logiciel a des « problèmes connus » avec Wayland (sinon utilisé par défaut) et qu’il sera peut-être nécessaire de configurer le contrôleur VMSVGA pour que le système puisse démarrer avec succès. Dans le cas d’une installation native ou dans d’autres solutions de virtualisation comme KVM (qui se sert de QEMU), il ne devrait pas y avoir de problème.
L’équipe ajoute enfin que toutes les failles signalées récemment ont été corrigées.
Les personnes intéressées pourront lire les notes de version complètes pour avoir plus de détails sur les nouveautés. Le téléchargement de cette nouvelle mouture se fait depuis le site officiel.
Dans la dernière version de son application sur l’ensemble des plateformes, WhatsApp annonce la disponibilité d’une nouvelle option baptisée « Confidentialité avancée de la discussion ». L’entreprise, filiale de Meta, aime à rappeler que le contenu des discussions simples ou de groupe est chiffré de bout en bout et que personne, pas même elle, ne peut lire les échanges. Le statut des informations périphériques en revanche est beaucoup plus flou.
Cette option ne réside pas dans les réglages de l’application, mais dans les paramètres des conversations. Elle s’active donc « à la carte » et permet de bloquer les opérations courantes d’extraction des informations depuis les messages que vous envoyez.
Si le paramètre est actif, il n’est ainsi plus possible de transférer vos messages à d’autres destinataires. Il bloque le téléchargement automatique des médias envoyés sur les appareils des participants, ainsi que l’utilisation de Meta AI sur vos messages.
En dépit de l’annonce de Meta, nous n’avons pas encore vu cette fonction dans la dernière version de l’application. Il s’agit donc d’un déploiement en cours. Difficile pour l’instant de jauger de son efficacité, d’autant que certaines questions viennent immédiatement en tête. Peut-on par exemple copier le message via un appui prolongé ? Le téléchargement manuel des médias reste-t-il disponible ? Un signal est-il émis si une personne dans le groupe fait une capture d’écran ?
A priori, ces comportements restent permis. WhatsApp précise cependant qu’il s’agit d’une « première version de cette fonctionnalité ». « Nous prévoyons d’ajouter de nouveaux éléments pour, à terme, assurer une meilleure protection », ajoute l’entreprise.
La Commission européenne informe, dans un communiqué, que les deux entreprises américaines ont été reconnues coupables de violations du Digital Markets Act. Les amendes, de plusieurs centaines de millions d’euros, font suite à des dossiers connus : les blocages « anti-steering » chez Apple et l’approche « consentir ou payer » chez Meta.
« Aujourd’hui, la Commission européenne a constaté qu’Apple n’avait pas respecté l’obligation de lutte contre le pilotage qui lui incombe en vertu de la loi sur les marchés numériques (DMA) et que Meta n’avait pas respecté l’obligation de donner aux consommateurs le choix d’un service qui utilise moins de données à caractère personnel les concernant », indique la Commission européenne dans son communiqué. Il s’agit des premières amendes infligées dans le cadre du DMA.
Apple et ses blocages sur les tarifs tiers
Il y a donc deux amendes. La première, de 500 millions d’euros, vient frapper Apple pour ses pratiques anti-steering. Le terme désigne les blocages plus ou moins visibles mis en place par l’entreprise pour empêcher les éditeurs tiers de communiquer librement sur leurs tarifs. Y compris quand ils sont plus intéressants que ceux affichés sur l’App Store.
C’est l’un des principaux reproches faits à l’App Store ces dernières années. Nombreux sont les éditeurs à estimer qu’ils devraient pouvoir afficher les liens qu’ils souhaitent dans leurs applications, surtout quand il s’agit de périodes promotionnelles.
En outre, ces liens peuvent pointer vers des paiements plus rémunérateurs pour les éditeurs, puisqu’Apple ne prélève pas sa fameuse dîme de 30 % sur les achats et abonnements (pour ces derniers, la commission baisse à 15 % dès le 13ᵉ mois consécutif). Spotify est probablement la société la plus remuante sur le sujet. Avec d’autres, elle fait même partie des entreprises ayant choisi de ne plus autoriser l’abonnement via l’application pour iOS. Pour s’inscrire, il faut passer par le site officiel. Apple avait estimé de son côté que Spotify devrait être reconnaissante.
Des consommateurs lésés
Quoi qu’il en soit, le DMA impose que les développeurs tiers soient libres de communiquer comme ils le souhaitent sur ces offres. La Commission indique avoir constaté qu’Apple « ne respecte pas cette obligation ». En outre, puisque les consommateurs ne peuvent pas être informés directement, ils sont lésés. Enfin, Apple était invitée à justifier ces restrictions, mais n’a pas réussi à démontrer qu’elles « étaient objectivement nécessaires et proportionnées ».
La Commission précise que le montant de l’amende (500 millions d’euros) « tient compte de la gravité et de la durée de l’infraction ». Apple a 60 jours pour payer, sous peine d’une pénalité pour chaque jour de retard. À noter que la Commission a clos en revanche le dossier sur le choix du navigateur, Apple étant félicitée pour son « engagement précoce et proactif » sur le sujet. Rappelons que la première version n’avait guère convaincu, avant que l’écran de sélection ne soit révisé dans iOS 18.
Comme l’indique notamment Le Monde, Apple a simplement indiqué qu’elle était « injustement visée » par l’Europe et qu’elle ferait appel de la décision.
Sans surprise, les abonnements de Meta n’ont pas plu
On savait que les abonnements proposés par Meta pour mettre fin à la publicité ne plairaient pas. L’entreprise les avait proposés en réaction à ses obligations face au DMA sur la publicité personnalisée.
Sommée de proposer une alternative permettant de ne pas exploiter les données personnelles sans avoir recueilli le consentement explicite des internautes, Meta avait en effet lancé une approche surprenante. Plutôt que de demander le consentement, elle avait lancé des abonnements pour ne plus afficher de publicités. Un modèle « consentir ou payer » qui n’est pas passé auprès de la Commission européenne. Non conforme au RGPD notamment, le choix ne garantissait pas non plus que les données personnelles échappaient au traitement, simplement que les publicités n’étaient pas affichées.
La Commission note cependant que Meta a proposé un autre système en novembre dernier. Il utiliserait moins de données personnelles et serait la conséquence de « nombreux échanges avec la Commission ». Cette dernière évalue actuellement la nouvelle option et dit poursuivre son dialogue avec Meta, pour lui demander notamment des preuves de son impact.
Meta voit rouge
Le montant de l’amende (200 millions de dollars) tient compte de cette chronologie, sur la période mars-novembre 2024, quand les internautes européens n’ont eu à disposition que l’option qualifiée de « binaire ». Comme pour Apple, Meta a 60 jours pour se conformer à la décision, sous peine d’une astreinte journalière.
Sur X, Joel Kaplan, responsable des affaires mondiales chez Meta, vient de lancer une réponse au vitriol : « La Commission européenne tente de mettre des bâtons dans les roues d’entreprises américaines prospères tout en permettant aux entreprises chinoises et européennes d’opérer selon des normes différentes. Ce n’est pas qu’une question d’amende, la Commission nous force à modifier notre modèle commercial, nous impose une taxe de plusieurs milliards de dollars et requiert de notre part un service inférieur ».
Dans les deux dossiers, la question demeure toutefois : la situation géopolitique actuelle, extrêmement tendue, a-t-elle joué un rôle ? Plusieurs dossiers ont été ouverts par la Commission au cours des dernières années contre des géants américains du numérique. La position récente de la Maison-Blanche était cependant que ces entreprises devaient être gouvernées par des lois américaines. Des rumeurs avaient rapidement couru sur la possibilité pour la Commission de se « retenir » sur ses prochaines amendes, mais l’institution ne s’est pas exprimée sur le sujet.
L’initiative Privacy Sandbox, lancée en 2019, devait aboutir progressivement au blocage par défaut des cookies tiers au sein du navigateur Chrome. La fonction, orientée vers la confidentialité et largement critiquée, est cependant figée. Dans un billet, Google a en effet annoncé que les cookies tiers resteront en place.
Les utilisateurs de Chrome n’auront finalement pas de changement sur les cookies tiers. Le comportement actuel sera préservé, avec une acceptation par défaut et la possibilité de modifier les options pour les bloquer. Le mode Incognito, qui les bloque par défaut, continuera lui aussi de fonctionner de la même manière.
On est bien comme on est
Google a annoncé cette décision hier soir, par un billet d’Anthony Chavez, vice-président de l’entreprise et chargé de Privacy Sandbox. Il explique que le contexte a largement changé depuis les débuts de l’initiative en 2019. Il cite l’adoption croissante de technologies améliorant la protection de la vie privée, de nouvelles possibilités pour la protection et la sécurisation des expériences de navigation par l’IA, ou encore une évolution « considérable » du paysage réglementaire dans le monde.
« Compte tenu de tous ces facteurs, nous avons pris la décision de maintenir notre approche actuelle pour offrir aux utilisateurs le choix des cookies tiers dans Chrome », indique ainsi Anthony Chavez. Dans le même temps, d’autres briques de protection comme Safe Browsing, Safety Check et des mécanismes s’appuyant sur l’IA seront renforcées. Google évoque également l’arrivée d’IP Protection pour le troisième trimestre. Ce mécanisme, prévu pour le mode Incognito, veut limiter la diffusion de l’adresse IP dans les contextes tiers, en la bloquant aux sites présents dans la Masked Domain List (MDL).
Que deviendra alors la Privacy Sandbox ? Ce n’est pas très clair. De ce que l’on comprend du billet, elle va rester en place. Google indique que des entretiens auront lieu avec l’industrie dans les mois à venir, pour « recueillir des commentaires et partager une feuille de route actualisée ».
Un long fleuve pas si tranquille
Si l’annonce d’hier soir vous semble familière, c’est que Google avait préparé le terrain. En juillet 2024, elle indiquait déjà qu’elle renonçait au blocage par défaut des cookies tiers. À la place, l’éditeur indiquait réfléchir à la possibilité de poser la question à l’internaute pour lui demander quoi faire. Dans le billet d’hier soir, cette possibilité a justement été écartée, pour rester sur le comportement actuel, qui a l’avantage d’être connu par des centaines de millions de personnes.
La gestion du projet Privacy Sandbox aura cependant été riche en rebondissements. À sa présentation en 2019, il s’agissait d’un mécanisme devant permettre une meilleure approche de la confidentialité des données, tout en préservant l’efficacité des publicités personnalisées. Un numéro d’équilibrisme auquel Google s’est adonné pendant plusieurs annonces, rencontrant sur cette corde raide de nombreuses critiques.
C’était notamment le cas avec la Competition and Markets Authority (CMA) et l’Information Commissioner’s Office (ICO) du Royaume-Uni, ainsi que d’une partie de l’industrie. Petit à petit, la Privacy Sandbox est devenue ce que l’on en connait aujourd’hui : un mécanisme d’envoi de statistiques groupées sur les habitudes des internautes. Il casse ainsi le suivi individuel pour se baser sur des cohortes d’internautes, dont les données sont agrégées en fonction de centres d’intérêt. La Privacy Sandbox prévoit également que les données restent locales et ne puissent pas permettre une reconstitution de l’identité.
Condamnée depuis longtemps ?
Il ne s’agissait cependant pas, comme on a parfois pu le voir, de débarrasser totalement Chrome de la collecte des données personnelles. L’objectif de la Privacy Sandbox était simplement d’en limiter la quantité. Google tire une proportion écrasante de son chiffre d’affaires des publicités et leur personnalisation représente depuis longtemps une industrie complète.
De fait, comme l’indiquait TechCrunch l’année dernière, Google s’est retrouvée prise au piège dans une ambivalence qui ne pouvait satisfaire personne. Il fallait pouvoir continuer sur les publicités comme l’entreprise l’avait toujours fait, tout en renforçant la protection de la vie privée. Le résultat peut être comparé aujourd’hui à une solution n’ayant satisfait personne. L’association noyb avait même déposé plainte contre Google, qu’elle accusait de mentir sur le fonctionnement de la Privacy Sandbox.
Dans ce contexte, la volonté affichée de collecter les avis de l’industrie sur la fonction est peut-être un vœu pieu. Mieux vaut peut-être d’ailleurs que la Privacy Sandbox disparaisse, tant elle aura attiré des problèmes à Google, entre concurrence l’accusant d’en faire une arme, critiques acerbes de plusieurs autorités nationales et erreurs manifestes pointées par le W3C.
QEMU, émulateur aussi bien que client de virtualisation, revient dans une nouvelle version majeure. Estampillée 10.0, elle comporte de nombreuses améliorations et nouveautés.
On trouve ainsi de fortes optimisations pour certains processeurs Xeon (surtout ClearwaterForest et SierraForest-v2), le support des files d’attente multiples pour le périphérique virtio-scsi, ou encore des périphériques apple-gfx-pci et apple-gfx-mmio pour fournir des graphismes accélérés sous macOS.
Les apports dépendent pour beaucoup des architectures visées. Sur ARM par exemple, on note l’arrivée des caractéristiques FEAT_AFP, FEAT_RPRES et FEAT_XS CPU, la prise en charge des timers physiques et virtuels Secure EL2, le support de différentes cartes (dont les modèles Stellaris, NPCM845 Evaluation et i.MX 8M Plus EVK), ainsi qu’une propriété highmem-mmio-size permettant de configurer une plus grande région PCIe MMIO.
C’est toutefois l’architecture RISC-V qui reçoit le plus grand nombre de nouveautés. QEMU 10.0 ajoute ainsi le support du processeur Tenstorrent Ascalon, de l’espace utilisateur AIA irqchip_split, de l’adresse 64 bits d’initrd, de la carte générique Microblaze V, du processeur RV64 Xiangshan Nanhu, du périphérique sriscv-iommu-sys, de l’extension ssstateen, des traces pour les exceptions en mode utilisateur, de Smrnmi, de l’extension ISA RISC-V Counter delegation, ou encore des extensions Smdbltrp et Ssdbltrp.
On trouve également des améliorations pour les architectures HPPA, s390x et LoongArch. Viennent aussi des nouveautés pour VFIO (Virtual Function I/O), un sous-système Linux fournissant un cadre pour exposer l’accès direct au matériel aux applications de l’espace utilisateur. QEMU 10.0 fournit la prise en charge du multifd pour la migration, des anciens GPU ATI, de la capacité PCI PM (support initial), de l’IGD passthrough pour les puces Intel Gen 11 et 12, ou encore un rapport d’erreur plus détaillé pour les échecs de mappage MMIO.
Depuis le lancement des RTX 50xx, NVIDIA semble avoir du mal avec ses pilotes graphiques. Les forums de l’entreprise se sont remplis d’utilisateurs mécontents qui critiquent la fiabilité des dernières versions. La dernière mouture, lancée la semaine dernière, a ainsi dû être suivie d’un « hotfix » publié lundi.
Le lancement de la série 50 des GeForce RTX restera longtemps dans les mémoires. Certains y voient déjà les travers typiques d’une entreprise ayant pris un peu trop la grosse tête, au point d’en oublier ses fondamentaux. Divers éléments ont ainsi grippé la mécanique bien huilée du lancement sur les quatre derniers mois.
Erreurs de jeunesse
Il y a d’abord les gigantesques gains annoncés sur les performances face à la génération précédente. Nous mettions d’ailleurs en garde sur ce point, puisqu’il fallait passer par le nouveau DLSS 4, à condition que les jeux soient compatibles. Comme le rapportait DigitalTrends mi-janvier, NVIDIA avait finalement indiqué au CES que le gain était de 15 à 20 % sans le DLSS. Les mois se sont enchainés avec différents problèmes, matériels cette fois, dont des ROP manquants sur certaines 5090 et 5070 Ti et des connecteurs d’alimentation qui auraient fondu sur des RTX 5090.
Mais quelle que soit la carte utilisée, beaucoup semblent avoir rencontré des problèmes de fiabilité avec les pilotes, même quand il ne s’agissait pas d’un GPU dernier cri. Témoignages d’écrans noirs, de plantages dans les jeux, d’écrans bleus et de stabilité générale ont afflué, particulièrement dans les forums officiels de NVIDIA. Au point que les développeurs du jeu InZoi par exemple ont communiqué sur le sujet, recommandant d’utiliser les pilotes 566.36 de décembre dernier pour les personnes qui le pouvaient.
Si revenir à un ancien pilote calme en théorie le jeu sur les séries 30 et 40, les possesseurs d’une RTX 50 n’ont pas le choix, car les vieux pilotes ne prennent pas en charge leur matériel. Il faut donc une version sortie au cours des quelques derniers mois, et chaque nouvelle mouture est attendue comme le loup blanc.
Gloire au nouveau pilote
Aussi, l’arrivée du pilote 576.02 la semaine dernière était porteuse d’espoir. Les notes de version (pdf) font état d’une longue liste de corrections et confirment que NVIDIA travaille bien sur le sujet. Le nouveau pilote règle notamment des incompatibilités importantes avec la version 24H2 de Windows 11 (alors qu’elle est disponible depuis l’automne), dont des écrans bleus aléatoires quand le DLSS 4 est activé. Un écran bleu, de nos jours, est un phénomène rare, le plus souvent lié au matériel ou à un pilote disposant d’un composant en espace noyau, comme c’est le cas pour un pilote graphique. Cette version apportait également le support des RTX 5060 Ti, lancées il y a une semaine.
On savait cependant que ce pilote ne réglerait pas tout. NVIDIA recensait en effet 15 tickets ouverts avec le pilote 576.02 la semaine dernière. Et effectivement, un problème est apparu, pour les personnes ayant une RTX 50 : un mauvais fonctionnement du capteur de température. À la clé, divers bizarreries comme des alarmes en sortie de veille sous Windows ou des températures erronées pour des utilitaires tels qu’AfterBurner, qui sert notamment à configurer une courbe personnalisée pour la vitesse des ventilateurs.
Correctifs de correctifs
NVIDIA a donc publié hier soir une version 576.15. Il s’agit d’un hotfix venant corriger ce défaut, ainsi que plusieurs autres, dont des corruptions graphiques dans certains jeux ou encore des fréquences plus basses que prévu sur les RTX 50 quand le système est au repos.
Si la sortie rapide de cette version reste une bonne nouvelle, les commentaires sur l’annonce dans le forum sont loin d’être élogieux. Depuis hier soir, plusieurs dizaines de commentaires mentionnent déjà de nombreux autres problèmes, voire une aggravation des soucis existants. Quelques-uns indiquent quand même que des bugs ont été résolus. Attention cependant, car on se dirige plus volontiers vers un forum pour pester contre un dysfonctionnement que pour signaler que tout va bien. La situation semble dans tous les cas encore complexe pour NVIDIA. Les correctifs devraient donc continuer à affluer dans les prochaines versions des pilotes.
Les cinq ans de support classique pour la version LTS 20.04 d’Ubuntu se termineront le 31 mai prochain. Les utilisateurs auront alors plusieurs choix, dont la mise à jour vers une LTS plus récente. Il est également possible de garder le système cinq années supplémentaires.
Les versions LTS d’Ubuntu disposent d’un support technique de cinq ans, contrairement aux versions ordinaires, qui n’ont que six mois. Ces moutures spécifiques sortent tous les deux ans (les années paires) et sont généralement très attendues. En plus du grand public et des entreprises qui peuvent en avoir besoin, elles sont en effet utilisées comme base pour d’autres distributions, dont Linux Mint.
Le mois prochain, Ubuntu 20.04, alias Focal Fossa, arrivera à la fin du compte à rebours. Les utilisateurs ont le choix entre plusieurs solutions. Idéalement, il faudrait faire une mise à niveau vers une LTS plus récente, 22.04 ou 24.04. À ce stade, votre installation d’Ubuntu 20.04 a d’ailleurs peut-être commencé à vous prévenir via une notification, ouvrant Ubuntu Software pour vous proposer une telle mise à jour.
Si l’on parle de solution idéale, c’est parce qu’il s’écoule deux ans entre chaque version LTS. L’installation d’une mouture plus récente apporte souvent des bénéfices visibles, dont un noyau Linux plus moderne et donc plus à l’aise avec le matériel en général.
Gardez en mémoire cependant que l’on ne peut pas sauter deux versions LTS d’un coup. Si Ubuntu 24.04 vous intéresse, il faudra d’abord passer par la version 22.04. L’installation de cette dernière vous offrira cependant deux ans de tranquillité, avant la fin de son support en mai 2027.
Si vous n’avez pas reçu de notification vous proposant la mise à niveau, la commande à utiliser est la suivante :
sudo do-release-upgrade
Comme toujours en pareil contexte, il faut soigneusement sauvegarder ses données avant de se lancer dans cette opération. Passer d’un système d’exploitation à un autre, même quand le processus parait simple, n’est jamais anodin.
Cinq ans supplémentaires ? C’est gratuit pour vous
Toutefois, on peut refuser les LTS plus récentes et se tourner vers une autre option : garder Ubuntu 20.04. Une situation « à la Windows 10 » ? Non, car il y a deux différences majeures. D’abord, aucune barrière technique ne vous empêche de mettre à niveau vers Ubuntu 22.04 ou 24.04. Ensuite, Canonical propose cinq années supplémentaires de correctifs de sécurité via son offre Ubuntu Pro, débloquant alors une période nommée Expanded Security Maintenance (ESM). Ce qui explique par exemple que le vieil Ubuntu 16.04 reçoit encore des correctifs.
Ubuntu Pro est un abonnement. Son tarif dépend du statut de l’utilisateur : gratuit pour les personnes seules et les petites structures jusqu’à cinq postes, 25 dollars par an et par poste dans les organisations plus importantes, ou encore 500 dollars par an pour chaque serveur de virtualisation (nombre de machines illimité).
Pourquoi se tourner vers Ubuntu Pro ? Parce que vous avez peut-être une configuration spécifique, que vous avez besoin de plus de temps pour analyser les changements d’une Ubuntu plus récente, que vous envisagez peut-être de transiter vers une autre distribution, ou encore parce que vous n’avez pas envie, tout simplement. Qu’importe la raison, la possibilité existe.
Si vous êtes la seule personne à décider, il suffit de souscrire à Ubuntu Pro. Ce dernier, une fois renseigné dans le système, vous ouvrira l’Expanded Security Maintenance pour un maximum de cinq machines. Précision importante, Canonical ne fait pas de différence entre des machines personnelles et professionnelles, tant que l’on reste dans la limite des cinq ordinateurs. Pour obtenir un compte, on se rend sur la page dédiée et on choisit « Myself ». On peut voir qu’en bas de la page, le prix total passe à « Free ».
Une commande ou quelques clics
Si vous n’avez pas encore de compte Ubuntu, ce sera le moment de le créer. Il est obligatoire comme « agent de liaison » pour contrôler le nombre de machines inscrites au programme. La validation est ensuite très rapide. On arrive directement sur une page du compte, la partie de gauche indiquant qu’un jeton personnel a été créé, que cinq machines peuvent en bénéficier et qu’il n’expirera jamais. C’est l’un des bénéfices de cette approche : le jeton s’applique à toute version LTS que vous avez.
Une fois que vous avez ce jeton, il faut le renseigner dans le système via la commande suivante :
sudo pro attach [VOTRE_JETON]
La commande affiche ensuite le statut de plusieurs services liés. Ubuntu Pro ne permet en effet pas seulement de prolonger les correctifs de sécurité. Il fournit par exemple Livepatch, qui autorise certains correctifs à être appliqués sur le noyau sans nécessiter de redémarrage. Vous aurez d’ailleurs peut-être la surprise de recevoir peu après une notification du système vous informant qu’une telle mise à jour a été effectuée.
Pour activer Ubuntu Pro, on peut également passer par l’interface graphique. Ouvrez « Logiciels et mises à jour » et rendez-vous dans le dernier onglet. Là, on pourra cliquer sur le bouton dédié et coller le jeton lorsqu’il sera demandé. On peut voir plus facilement que les correctifs ESM sont distribués par défaut pour deux lots de paquets : « Infra » pour les 2 300 paquets du dépôt Ubuntu Main et « Apps » pour les 23 000 paquets du dépôt Ubuntu Universe. Livepatch, activé par défaut, peut être coupé aisément depuis ce panneau.
Attention, ESM n’est pas une panacée
ESM est capable de dépanner les personnes embêtées par une date de fin de support trop proche. Cette période supplémentaire peut être une vraie chance dans de nombreux cas. Toutefois, comme avec n’importe quel outil, il y a certaines précautions à prendre.
Techniquement, cette maintenance ne couvre pas la totalité des failles de sécurité, mais uniquement celles de sévérité modérée au moins. Les brèches de sévérité faible sont laissées telles quelles. Ce n’est pas forcément crucial, mais l’information peut avoir son importance.
Surtout, ESM ne couvre que les correctifs du système et des applications présentes dans le dépôt principal d’Ubuntu. Les paquets provenant d’autres sources ne sont pas concernés et leur entretien demandera donc un examen. Rien n’empêche en effet une application d’être abandonnée, avec les mêmes problèmes qu’une fin de support. D’anciennes branches de développement ainsi souvent abandonnées, avec nécessité de passer sur une version plus récente. Or, il peut arriver que cette dernière réclame une version plus récente aussi du système d’exploitation. Il faut donc faire attention à ne pas se retrouver coincé(e).
Rappelons enfin que même si vous activez Ubuntu Pro, rien ne vous empêche de migrer vers un système plus récent par la suite. Si vous décidez de mettre à niveau vers Ubuntu 22.04 dans un an, l’opération se déroulera de la même façon. Le compte Ubuntu Pro vous suivra dans la procédure et appliquera les mêmes effets. Situation identique pour une migration vers Ubuntu 24.04, actuellement la LTS la plus récente.
Bien sûr, si vous n’utilisez une version d’Ubuntu que pendant deux ou trois ans avant de basculer vers la nouvelle version, ESM perd une bonne partie de son intérêt. Reste quand même Livepatch qui, selon le scénario, peut se révéler utile, par exemple pour une machine faisant office de serveur domestique (stockage, jeu…).
Windows 10 ne sera pas le seul produit de Microsoft à ne plus avoir de support cet automne. Le même 14 octobre, Exchange 2016 et 2019 recevront leur mise à jour finale. Après quoi, les garder sera dangereux. Problème, les solutions de remplacement sont en ligne ou sur abonnement.
Exchange 2016 et 2019 sont actuellement les deux dernières versions sur site (on premise) du serveur e-mail de Microsoft. On parle bien de logiciels que l’on peut installer et configurer sur des serveurs présents dans des locaux. À l’inverse, Exchange Online est l’offre en ligne de Microsoft, sur ses propres serveurs. Ce découpage de gamme est à peu près le même que pour Office, avec une offre Microsoft 365 en ligne et des licences perpétuelles (et locales) tous les trois ans en moyenne.
Les habituels dangers
En début de semaine, Microsoft a prévenu : Exchange 2016 et 2019 n’en ont plus que pour six mois de support. Après quoi, plus aucune mise à jour de sécurité ne sera publiée. Comme toujours dans le cas d’un produit exposé à internet, il est recommandé de ne plus utiliser de tels produits, puisque les failles ne sont plus corrigées. Certains facteurs peuvent atténuer une partie des risques, mais aucune solution ne peut compenser durablement la présence de failles.
« Les installations clients d’Exchange 2016 et d’Exchange 2019 continueront bien sûr à fonctionner après le 14 octobre 2025 », précise quand même Microsoft. « Cependant, continuer à utiliser ces offres après la date de fin de support invite à des risques de sécurité potentiels, c’est pourquoi nous recommandons fortement de prendre des mesures dès maintenant ».
Rappelons que les risques de sécurité ne sont pas les seuls. En Europe, le RGPD exige par exemple que les données personnelles soient entreposées dans des logiciels à jour. L’utilisation de versions obsolètes peut donc exposer à des amendes. Il n’y aura plus non plus de support technique. En outre, plus les logiciels prennent de l’âge, plus leur maintenance peut coûter cher.
Enfin, cette fin de support s’applique également aux éditions 2016 et 2019 d’Office, Outlook et Skype for Business. Pour Microsoft, ce sera le grand ménage d’automne et une manière de pousser encore un peu plus vers le cloud. Le 14 octobre, ce sera également la fin officielle de Windows 10.
Deux solutions possibles pour Microsoft
Microsoft propose essentiellement deux solutions. La première est de migrer vers une offre totalement hébergée. Exchange Online par exemple si l’on ne veut effectivement gérer que des e-mails, ou Microsoft 365 dans l’une de ses formes pour entreprises pour avoir tout le package productivité.
L’autre est de mettre à niveau l’ancienne installation sur site vers Exchange Server Subscription Edition. Celle-ci sortira en juillet et Microsoft en profite pour recommander la préparation du terrain si le produit intéresse les entreprises.
De quoi parle-t-on exactement ? D’une version fonctionnant, dans les grandes lignes, avec le même code qu’Exchange 2019 Cumulative Update 15, mais légèrement modernisé. Cette édition prendra en charge Windows Server 2025, remplace NTLMv2 par Kerberos pour les communications entre serveurs, l’intégration de l’API Admin, la suppression de Remote PowerShell, d’Outlook Anywhere et de l’API UCMA 4.0. Cette édition sera mise à jour deux fois par an pour entretenir sa compatibilité générale, corriger les bugs et colmater les failles.
Problème bien sûr, ces deux solutions sont sur abonnement. Migrer vers Exchange SE depuis la version 2019 réclamera ainsi de nouvelles licences, qui ne fonctionneront plus en cas d’arrêt des paiements. Migrer depuis la version 2016 est plus complexe. Microsoft recommande de faire d’abord la mise à jour vers Exchange 2019, avant de migrer ensuite vers l’édition SE.
Ou de nouveaux horizons
Qui héberge encore sur site ses e-mails ? La question peut faire sourire, tant le monde semble s’être tourné très rapidement vers les solutions hébergées et plus généralement le cloud. Les entreprises concernées ont peut-être cependant des installations parfaitement fonctionnelles, sans avoir eu besoin de changer. Auquel cas l’installation des correctifs de sécurité était tout ce qui pouvait les intéresser.
Les avantages du cloud sont connus, avec notamment une infogérance beaucoup plus légère et la résilience des gigantesques infrastructures. Ces dernières offrent le plus souvent plusieurs niveaux de redondance, des mécanismes efficaces de reprise sur incident et de solides protections pour de nombreuses menaces. Au contraire, une entreprise peut être intéressée par une gestion de ses courriels à sa manière, sur son matériel et dans son réseau, sans appétence pour des fonctions modernes, dont tout ce qui touche à l’IA.
Pour rester sur Exchange sans prendre le risque d’exposer toutes ses données aux quatre vents, il faut donc préparer une migration et réaliser des analyses bénéfices/risques sur les solutions proposées. À moins que ce soit l’occasion de migrer vers une autre solution. Google Workspace ? L’offre est financièrement compétitive face à Microsoft 365, mais Google ne propose que des solutions hébergées.
Le sujet est plus complexe qu’il n’y parait et va dépendre des besoins de l’entreprise. Car lorsqu’on parle d’Exchange, cela inclut la gestion des contacts et les calendriers, avec tout ce qui touche à la synchronisation. Il y a sinon les solutions de type collaboratif (groupware), mais tous ne proposent pas forcément des installations sur site. Dans tous les cas, la solution ne sera pas simple, car il faudra pouvoir en plus pouvoir migrer les données.
OpenAI a finalement lancé ses deux nouveaux modèles de raisonnement o3 et o4-mini, destinés à remplacer o1. Les scores affichés par l’entreprise sont particulièrement bons. Pour la première fois, OpenAI a aussi ajouté des protections spécifiques pour empêcher ses modèles d’être utilisés pour créer des armes chimiques et biologiques.
Il était temps de briller un peu. Entre la sortie d’un GPT-4.1, le départ en pré-retraite de GPT-4.5 et le report de GPT-5, l’actualité n’était pas brillante pour OpenAI, dans un domaine où tout va très vite. La société avait cependant prévenu que deux nouveaux modèles de raisonnement allaient arriver.
o3 et o4-mini ont donc été présentés hier. Il s’agit de deux modèles multimodaux, capables de traiter du texte et des images en entrée. La nouvelle « star » est en théorie o3, mais o4-mini pourrait lui voler la vedette, avec des scores équivalents – voire meilleurs – sur certaines tâches. Un modèle plus petit, donc moins cher à faire fonctionner.
Encore des modèles orientés vers « les tâches réelles »
Sans trop de surprise, OpenAI reprend les mêmes éléments de langage que pour son récent GPT-4.1. Les deux nouveaux modèles sont ainsi conçus pour des « tâches réelles » et seraient particulièrement performants pour des activités comme la programmation. Plus question de laisser prendre du terrain aux trois principaux concurrents que sont Gemini 2.5 Pro de Google, Claude Sonnet 3.7 d’Anthropic et DeepSeek V3 dans sa version améliorée.
Selon OpenAI, o3 atteint ainsi un score de 69,1 % sur la version vérifiée du test SWE-bench. o4-mini fait à peine moins bien avec 68,1 %. On est loin devant les 48,9 % d’o1 et les nouveaux venus se permettent une marge confortable sur Claude Sonnet 3.7 et ses 62,3 %. Bien que nous mentionnions le score de Claude, la communication d’OpenAI n’établit aucune comparaison directe avec des modèles concurrents. Les tableaux affichés – ils sont nombreux – ne montrent que les gains conséquents sur o1 et o3-mini.
Les deux modèles sont présentés comme idéaux pour des tâches telles que le développement logiciel, la navigation web, l’exécution de scripts Python dans le navigateur (via Canvas), ainsi que le traitement et la génération d’images. OpenAI annonce d’ailleurs qu’o3 et o4-mini sont les premiers modèles de l’entreprise capables de « penser avec des images » (sic). Ils peuvent par exemple exploiter des photos flous de tableaux blancs pour en extraire les données, diagrammes et ainsi de suite.
De manière générale, o4-mini montre tout le potentiel du futur modèle o4, si OpenAI le lance un jour en version complète. Il se révèle aussi performant, voire légèrement meilleur qu’o3-mini sur des tâches comme la programmation, l’analyse d’images et les mathématiques. Sur le test mathématique AIME 2024, il atteint même 92,7 %, soit légèrement plus que le plus gros modèle de Google, Gemini 2.5 Pro.
OpenAI a ses nouvelles stars du raisonnement
Les modèles de raisonnement devenant dominants dans le secteur de l’IA générative, il est probable qu’OpenAI soit revenue sur ses plans de ne pas s’attarder sur o3 et o4 pour passer directement à la suite, malgré ses annonces en fin d’année dernière. C’est bien ce qui avait été annoncé, de la même manière que GPT-4.5 est écarté pour laisser de la place au développement des futurs modèles.
Ils sont donc là pour occuper le terrain. Les deux sont déjà disponibles dans les forfaits Pro, Plus et Team de ChatGPT. On note également une variante o4-mini-high, qui doit fournir des réponses plus précises, au prix bien sûr d’un temps de calcul plus long.
En outre, une version o3-pro sera fournie dans les semaines qui viennent, là encore pour des réponses plus précises, mais uniquement pour les personnes abonnées à ChatGPT Pro, la formule à 200 dollars par mois. o3, o4-mini et o4-mini-high seront également disponibles pour les développeurs via les API Chat Completions et Responses.
Les prix annoncés sont relativement modestes au vu des performances. Pour o3, le tarif est ainsi de 10 dollars par million de jetons en entrée et 40 dollars par million de jetons en sortie. La tarification d’o4-mini est la même qu’o3-mini : 1,10 dollar en entrée et 4,40 dollars en sortie.
Enfin, OpenAI annonce le lancement de Codex CLI, un agent de développement conçu pour la ligne de commande dans un terminal. Il exploite pour l’instant o3 et o4-mini, mais prendra bientôt en charge des modèles supplémentaires, dont GPT-4.1. L’outil est open source, sous licence Apache 2.0.
Des protections contre les menaces biochimiques
En même temps que ses annonces sur o3 et o4-mini, OpenAI a publié un document (pdf) reflétant l’analyse de sécurité de ses nouveaux modèles. On peut y lire notamment que les risques d’hallucinations ou de biais sont toujours présents, de même que l’utilisation à des fins malveillantes.
Parmi ces fins, la préparation de menaces biologiques ou chimiques. OpenAI indique donc avoir intégré des protections spécifiques, dont un « moniteur de raisonnement axé sur la sécurité ». Il a lui-même été formé pour raisonner sur les politiques de contenu, identifier les messages pouvant correspondre à l’élaboration d’une menace et bloquer les réponses.
L’entreprise dit demander à sa « red team » de consacrer environ 1 000 heures à étiqueter des conversations « dangereuses » sur les risques biochimiques, pour intégrer la logique dans le moniteur. Selon les informations du document, o3 et o4-mini bloqueraient les demandes liées au développement de menaces à hauteur de 98,7 %.
Ces informations sont cependant à nuancer. Dans son propre document, OpenAI admet ne pas savoir si cette protection tiendra devant l’originalité renouvelée des invites (prompts), que l’on peut adapter à chaque refus pour tenter de contourner la difficulté. De plus, OpenAI ne présente pas vraiment son moniteur comme un apport clair sur la sécurité. Il vient surtout compenser la hausse des capacités de raisonnement qui, elles, ouvrent de nouveaux champs.
o3 et o4-mini peuvent tricher… comme les autres
En outre, le même rapport mentionne les tests de la société Apollo Research, habituée de la red team d’OpenAI. Ses tests ont montré que les deux modèles pouvaient tricher dans les demandes comme dans les benchmarks. Par exemple, un test visant à effectuer certaines tâches avec 100 crédits de calcul ont finalement été réalisées avec 500. Il avait été spécifiquement demandé aux IA de ne pas augmenter le quota, ordre ignoré par les deux modèles, qui ont affirmé ensuite que les 100 crédits avaient été respectés.
Même son de cloche globalement chez la société Metr, autre habituée de la red team d’OpenAI. Dans un billet publié hier et soir et repéré notamment par TechCrunch, la société note que les deux modèles peuvent effectivement tricher. Dans les deux, le risque n’est pas jugé significatif, OpenAI reconnaissant elle-même que ses modèles peuvent entrainer de « petits préjudices », quand les résultats ne sont pas supervisés.
Une conclusion que l’on peut rappeler pour chaque nouveau modèle. Mais l’envolée des capacités de raisonnement rend le problème plus visible. Les protections mises en place permettent à OpenAI de rester dans une marge acceptable.
La première, CVE-2025-31200, réside dans CoreAudio. Elle est de type corruption de la mémoire et peut être utilisée pour envoyer un flux audio spécialement conçu dans un fichier multimédia pour déclencher un code arbitraire. La seconde, CVE-2025-31201, touche RPAC. On ne sait pas grand-chose de son fonctionnement, sinon qu’un attaquant disposant de droits arbitraires en lecture et écriture pourrait contourner Pointer Authentication.
Il est très probable que ces deux vulnérabilités soient utilisées par des outils d’espionnage. Elles auraient en effet été exploitées « dans des attaques extrêmement sophistiquées contre des individus spécifiques », indique Apple. A priori, ce comportement n’aurait été observé que sur iOS.
Comme souvent dans ce genre de cas, il est recommandé d’installer ces mises à jour le plus rapidement possible.
Nouvelle version pour le client de virtualisation open source (GPLv3). Même s’il s’agit d’une mise à jour d’entretien, VirtualBox 7.1.8 vient corriger plusieurs problèmes gênants, dont un pouvant faire grimper le taux d’occupation CPU à 100 %, ce qui n’est jamais bon. Il touche le composant VBxTray dans les Windows Guest Additions, donc dans les machines virtuelles équipées du système de Microsoft.
Dans la longue liste des changements, on peut voir de nombreuses autres corrections. Par exemple, un curseur qui ne s’affichait pas, un souci dans DevVirtioSCSI pouvant bloquer la restauration des états antérieurs, un plantage de VBoxSVC pendant l’enregistrement de la configuration via le service web, des équipements Wi-Fi qui n’étaient plus découverts sur des distributions Linux « modernes », ou encore des Linux Guest Additions qui ne s’installaient parfois pas si les bibliothèques X11 étaient absentes.
L’année 2024 a sans doute été l’une des plus chargées pour l’agence française. Dans le domaine de la cybersécurité, les travaux ont été très nombreux, entre les opérations courantes, la préparation aux directives européennes ou encore la sécurisation des Jeux olympiques et paralympiques. Et 2025 s’annonce tout aussi dense.
L’Agence nationale de la sécurité des systèmes d’information a publié hier son rapport d’activité pour 2024. Une année charnière dans la cybersécurité, tant elle a été chargée en travaux. Elle a consacré la montée en puissance de l’ANSSI et son rôle au sein de l’Union européenne, l’agence était l’une des plus actives d’Europe. Sa labellisation SecNumCloud avait même servi à établir le niveau de sécurité High+ dans la première version d’EUCS, avant que le projet ne soit gelé, en attente d’une reprise des débats dans un contexte très différent de tensions avec les États-Unis.
L’ANSSI aborde en long et en large le nécessaire travail d’adaptation à l’évolution des cadres juridiques. L’Agence est ainsi très occupée avec la transposition en cours des directives européennes NIS2, DORA et REC. En France, ce travail a franchi une étape décisive il y a un mois avec le passage au Sénat du projet de loi relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité, aussi appelé « PJL Cyber Résilience », qui transpose d’un coup les trois directives.
Cette loi va chambouler profondément la vie de nombre d’entreprises, qui vont devoir s’adapter à de nombreuses exigences. C’est surtout le cas avec la directive NIS2, comme nous l’avions détaillé dans un précédent article. L’ANSSI a commencé son travail d’accompagnement des milliers d’infrastructures concernées. Dans son édito, le directeur de l’ANSSI, Vincent Strubel, indique d’ailleurs que la transposition de NIS2 est vectrice d’une « transformation profonde de son organisation, de ses méthodes et de sa manière d’interagir avec ses bénéficiaires et ses partenaires ». Elle est également qualifiée d’ « extrêmement dimensionnante ».
L’ANSSI se dit ainsi « pleinement mobilisée » pour les 18 secteurs d’activités visés par NIS2. Elle a par exemple organisé des consultations auprès des fédérations professionnelles concernées, coordonné le travail d’élaboration du projet de loi et les négociations européennes sur le sujet, développé sa stratégie d’accompagnement, lancé un site dédié (MonEspaceNIS2, toujours en bêta), préparé son accompagnement et adapté ses outils.
On note aussi l’aboutissement d’un projet lancé en 2022 pour adopter une nouvelle organisation interne, apte à gérer les nouveaux défis. Il a débouché en début d’année 2025 sur la création de la mission Contrôles et Supervision, rattachée directement au directeur de l’ANSSI. Elle contrôlera la conformité des activités d’importance vitale, au règlement eIDAS (identité numérique) ou encore au règlement sur la cybersécurité (CSA). Ce sera aussi à elle de préparer les mesures correctrices qui seraient à prendre par les entités concernées par les nouveaux textes.
Coopération et action collective
On ne reviendra pas en détail sur les Jeux olympiques et paralympiques de l’année dernière, considérés par l’ANSSI comme un très grand succès. Le long travail préparatoire avait payé, comme l’indiquait déjà l’agence l’année dernière. « Comme pour nos athlètes olympiques, la cybersécurité des Jeux olympiques et paralympiques s’est préparée sur le temps long, bien avant le coup d’envoi », résume Julien Garcin, chargé de mission gouvernance.
L’ANSSI revient surtout dans son rapport sur sa place centrale, la nécessité de la coopération et le succès d’une approche collective. L’agence se trouve en effet au cœur d’un grand écosystème mettant en présence des acteurs politiques (dont le gouvernement et le Parlement), institutionnels (ministères, autorités, collectivités, organismes de normalisation…), tous ceux de la cyberdéfense (dont les CSIRT et les forces de l’ordre), la communauté scientifique et technique, l’industrie de la cybersécurité et enfin les partenaires internationaux (dont l’ENISA européenne et l’OTAN).
L’anticipation des prochaines menaces
L’activité cybersécurité de l’ANSSI a été particulièrement intense en 2024. Ses capacités opérationnelles sont en pleine mutation, poussées par le besoin de s’adapter aux nouveaux cadres, mais également par la Loi de Programmation Militaire 2024 - 2030. Les JOP 2024 étaient d’ailleurs la première grande épreuve depuis le vote de cette dernière en 2023.
Le reste de l’année a vu tous les indicateurs décoller. L’ANSSI indique ainsi avoir traité 1 361 incidents de sécurité, soit 18 % de plus qu’en 2023. 4 386 évènements de sécurité ont été rapportés, soit 15 % de plus. L’ANSSI a également reçu 59 191 rapports d’audits automatisés, une progression de 56 %. 1 696 personnes ont été formées au CFSSI (Centre de formation à la sécurité des systèmes d’information) et 117 856 attestations SecNumacadémie ont été délivrées (le premier MOOC de l’ANSSI, lancé en 2022), une progression de 21 %. Pour cette année, le budget de l’agence était de 29,6 millions d’euros, hors masse salariale.
Si 2024 est qualifiée « d’exceptionnelle » par Vincent Strubel, l’ANSSI planche aussi sur la suite, en particulier quatre grandes verticales de réflexion et de recherche. L’IA d’abord et son rapport à la sécurité, qu’elle l’épaule ou qu’elle l’impacte. L’ANSSI a d’ailleurs publié l’année dernière ses recommandations pour l’IA générative.
La cryptographie post-quantique dans le collimateur
Autre « gros morceau », la cryptographie post-quantique (PQC). Comme le rappelle l’agence, « la menace d’attaques rétroactives (dites store now, decrypt later) nécessite une prise en compte de ce risque dès aujourd’hui ». La problématique n’a rien de nouveau et ne concerne pas que le quantique, on en parlait déjà il y a… plus de 10 ans. Nous avions expliqué le fonctionnement de cette cryptographie et étions revenu sur l’offre existante, jugée « très immature » par l’ANSSI.
Son avis étant connu, elle a poursuivi l’année dernière un travail sur deux axes : garantir la disponibilité d’une offre plus adaptée (intégrant notamment des algorithmes résistants) et accompagner la migration des systèmes chez les bénéficiaires de l’agence.
Enfin, les deux autres axes concernent la sécurité du cloud (avec la promotion de SecNumCloud bien sûr) et la Data-Centric Security (DCS). Celle-ci est explorée avec Inria et se penche sur l’approche visant à sécuriser la donnée elle-même, où qu’elle se trouve. Le partenariat doit notamment définir les « mécanismes cryptographiques répondant aux exigences de sécurisation de ces nouvelles architectures ».
Notion, connue pour son application à tout faire dans la prise de notes et le formatage des informations, lance une nouvelle application, en bêta depuis longtemps : Notion Mail. Limité pour l’instant à Gmail, l’éditeur met en avant les capacités d’organisation de son application et la possibilité de configurer le client comme on le souhaite.
Notion Mail met l’accent sur la personnalisation et l’automatisation. Son système d’étiquetage permet d’apposer automatiquement des labels sur les courriels, en fonction de ce que l’on a indiqué précédemment dans Notion AI. Par exemple : « Classe tous les courriers de mon agence immobilière comme importants ». Les e-mails concernés sont alors dument étiquetés.
La boite de réception peut également être divisée en vues, chacune représente un intérêt particulier. Un label peut aussi constituer une vue. Une idée intéressante et qui évite de forcer les utilisateurs à tabler sur trois ou quatre catégories imposées, comme Apple l’a fait dans Mail avec les dernières versions d’iOS et macOS.
Notion Mail propose d’autres fonctions, comme la possibilité d’enregistrer des modèles d’e-mails à partir de courriers fréquemment envoyés pour ne pas avoir à les réécrire. Les disponibilités peuvent aussi être partagées via l’intégration avec Notion Calendar. Notion AI peut bien sûr être utilisé pour aider à la rédaction et on retrouve toutes les commandes habituelles, accessibles via le raccourci clavier « / ».
Malgré une assez longue phase de test, Notion Mail est pour l’instant disponible sur peu de plateformes : web et macOS. Une version iOS est prévue pour « bientôt », sans précision. À TechCrunch, l’éditeur a confirmé vouloir se rendre compatible avec d’autres services e-mail et travailler à pouvoir réunir plusieurs boites de réception en une seule vue.
L’utilisation de Notion Mail reste gratuite, comme les autres services de Notion, avec des limitations mensuelles pour Notion AI. Elles disparaissent avec l’abonnement spécifique à cette fonction (détachés des formules habituelles), qui débute à 7,50 euros par mois et par personne.
Après Fedora 42, c’est au tour de Canonical de présenter Ubuntu 25.04, alias Plucky Puffin (macareux moine). Le système, sorti en version finale le 17 avril, comporte une série d’améliorations plus discrètes que celles de sa distribution concurrente, mais dispose quand même de composants très récents.
Màj du 18 avril, 9 h : Canonical a bien respecté son calendrier prévisionnel et publié jeudi la version finale d’Ubuntu 25.04 Plucky Puffin. Les différentes versions de la distribution (poste client, serveur, etc.) sont disponibles au téléchargement sur le site de l’éditeur.
Publication initiale, le 31 mars à 8 h : La nouvelle mouture d’Ubuntu sera bientôt disponible, même si elle ne concernera qu’une partie du parc installé. Il ne s’agit en effet pas d’une version LTS (Long Term Support). Par défaut, les personnes utilisant Ubuntu 24.04 LTS resteront donc sur cette plateforme. Seuls les utilisateurs ayant choisi de rester sur le cycle semestriel recevront la mise à jour.
Contrairement à Fedora qui sert de laboratoire à Red Hat, les nouveautés des Ubuntu sont souvent plus discrètes. Dans le cas de la prochaine 25.04 cependant, les composants fournis sont les derniers (dans l’immense majorité des cas), y compris pour le noyau Linux.
Des composants très récents
Cette bêta intègre les dernières briques disponibles, y compris le très récent noyau Linux 6.14. Publié il y a quelques jours, il comporte des améliorations majeures. Par exemple, le pilote NTSYNC simulant les primitives de synchronisation du noyau Windows est terminé, avec des gains de performances dans certains jeux. Le pilote AMDXDNA permet quant à lui l’exploitation du NPU des processeurs Ryzen AI. Citons également une suspension et une reprise plus rapides pour certains systèmes, des opérations cryptographiques plus rapides pour AES-GCM et AES-XTS sur les processeurs AMD modernes ou encore une avancée pour la prise en charge des pilotes écrits en Rust.
Sans surprise, l’édition principale d’Ubuntu est fournie avec GNOME 48. Nous n’allons pas refaire toute la liste des apports. Rappelons simplement que cette version présente une nouvelle police par défaut, de nombreuses mises à jour pour les applications internes, une nouvelle liseuse de documents (Papers, qui remplace Evince), un meilleur support de Temps d’écran à travers tout l’environnement, ou encore le regroupement des notifications selon la source.
Côté composants système, on peut citer l’intégration de systemd 257.4, Mesa 25.0.x, PipeWire 1.2.7, BlueZ 5.79, Gstreamer 1.26, Power Profiles Daemon 0.30, OpenSSL 3.4.1 et GnuTLS 3.8.9. Pour le développement, on pourra compter sur Python 3.13.2, GCC 14.2 (malgré la disponibilité de GCC 15, déjà présent dans Fedora 42), glib 2.41, binutils 2.44, Java 24 GA, Go 1.24, Rust 1.84 (par défaut, plus ancien disponible), LLVM 20 et .Net 9.
Pour ce qui est des applications, on retrouve la « bande » habituelle : Firefox 136, Thunderbird 128, GIMP 3.0 (fraichement sorti), LibreOffice 25.2.2, VLC 3.0.21, Blender 4.3.2 (mais pas la 4.4) ou encore Audacity 3.7.3.
Quelques changements sous le capot
Les nouvelles versions d’Ubuntu ont beau être discrètes sur les changements visibles, elles comportent souvent une longue liste d’améliorations ou modifications internes. On commence avec un cas pratique : le service de géolocalisation. Ubuntu a longtemps utilisé celui fourni par Mozilla. La fondation a cependant annoncé son arrêt il y a un plus d’un an, pour laisser le temps de trouver des solutions alternatives. Dans le cas d’Ubuntu, il s’agit de BeaconDB, toujours expérimental. Il est utilisé pour la détection du fuseau horaire, la météo et la fonction Lumière nocturne.
Ubuntu 25.04 prend également en charge le Dynamic Boost de NVIDIA, activé par défaut pour les machines compatibles. Cette fonction est responsable de l’allocation dynamique des calculs au CPU ou au GPU en fonction des besoins. C’est elle qui permet notamment cette bascule vers le GPU lorsqu’un jeu est détecté. La fonction existe depuis un certain temps sur Linux, mais n’avait pas encore été intégrée dans Ubuntu. C’est désormais le cas, via le service nvidia-powerd (automatiquement désactivé sur les configurations non compatibles).
On reste dans la partie graphique avec le support « officiel » du HDR. Les guillemets sont de rigueur, car si le réglage est disponible, il n’est pas activé par défaut. Il n’apparait d’ailleurs dans Paramètres > Affichage que si un écran compatible est détecté. En outre, il s’agit d’un travail en cours, qui ne fonctionnera pas toujours et qui – pour l’instant – coupe malheureusement les raccourcis clavier pour modifier la luminosité de l’écran.
On note aussi la dernière révision de NetworkManager (1.52) avec plusieurs ajouts notables. Par exemple, le support de DNS over TLS (DoT), le support des configurations Oracle Cloud et d’ethtool FEC, ou encore la possibilité de prioriser IPv6 lorsque possible. Puisque l’on parle de réseau, signalons le support de wpa-psk-sha256 pour les connexions Wi-Fi, la possibilité de configurer une politique de routage, ou encore celle d’attendre que des serveurs DNS soient configurés (et joignables) pour considérer qu’une interface est effectivement en ligne.
Des améliorations dans l’installeur
Sans partir sur une base totalement neuve comme dans Fedora 42, l’installeur d’Ubuntu 25.04 comporte plusieurs améliorations sympathiques. Il est notamment capable de détecter les installations existantes d’Ubuntu. Il ne propose pas de mettre à jour par ce biais, mais on peut choisir d’installer Plucky Puffin aux côtés du système actuel, sans y toucher, tant qu’il y a suffisamment d’espace disponible non partitionné.
Cette détection améliorée s’étend aux systèmes Windows en place et prend donc mieux en charge le dual boot, y compris quand la partition Windows est chiffrée via BitLocker. Dans ce cas, Ubuntu peut être installée sans « casser » le boot, là encore à condition qu’il y ait suffisamment d’espace disque non partitionné.
Le support des configurations ARM64 fait également un bond, grâce justement à des améliorations dans l’installeur. La préversion du système prend ainsi en charge l’ensemble des configurations Windows on ARM à base de puces SnapDragon, y compris les PC Copilot+ intégrant des SnapDragon X. Attention cependant, cette version nécessite encore du travail et est fournie surtout pour rendre compte de l’avancée des travaux. En outre, la logithèque est nettement moins fournie.
Petits ajouts et téléchargement
Comme toujours, on trouve un peu partout de petites améliorations, mais qui ont parfois un impact important. Par exemple, le paquet xdg-terminal-exec est installé par défaut. Conséquence ? On peut désormais appeler le terminal par le raccourci clavier Ctrl + Alt + T. D’ailleurs, les nouvelles fenêtres s’ouvrent maintenant au centre de l’écran.
On note aussi une série de nouvelles icônes pour des applications comme Logiciels et EarTag. Puisque l’on parle d’icônes, Ubuntu 25.04 corrige un petit problème apparu avec la version précédente du système, où certaines applications avaient une icône légèrement plus grande que d’autres. Plucky Puffin a bien sûr un nouveau fond d’écran mettant en avant le macareux.
Les personnes intéressées par des tests (notamment pour vérifier la compatibilité des applications) ont trois semaines avant que la version finale soit proposée en téléchargement. Dans la foulée, toutes les installations ayant actuellement Ubuntu 24.10 recevront la mise à jour.