↩ Accueil

Vue lecture

☕️ Que-Choisir tire la sonnette d’alarme sur les chargeurs vendus par Shein et Temu

Avec ses homologues allemands, belges et danois, Que-Choisir s’est lancé dans des achats de chargeurs et autres produits sur Shein et Temu pour en analyser le respect des normes européennes. Et le moins que l’on puisse dire, c’est qu’ils sont loin du compte.

Sur les 54 chargeurs achetés (27 sur chaque plateforme), seuls 2 (un de chaque plateforme) respectaient les normes européennes. 21 ne possédaient pas certains marquages obligatoires comme le logo CE ou l’unité de tension. Surtout, 51 n’ont pas résisté aux contraintes mécaniques imposées, avec des résultats variés : broches tordues ou tournées trop facilement, boitier cassé après une chute…

Pour 4 des chargeurs, « les circuits à haute et basse tension étaient trop proches l’un de l’autre, risquant de provoquer des arcs électriques ». La température s’est envolée sur 14 chargeurs, au point de dépasser les températures maximales autorisées de 77 et 87° C. Un modèle a même atteint 102° C.

« Nos tests ont mis en évidence le fait que ces produits d’entrée de gamme étaient souvent mal conçus et fabriqués avec des matériaux de mauvaise qualité, et que beaucoup d’entre eux faisaient courir de réels risques de brûlure, de choc électrique et d’incendie à leurs utilisateurs »

Crédits : Que-Choisir

Les tests réalisés sur des jouets pour enfants et des bijoux renvoient vers le même type de résultats. Pour les premiers, Que-Choisir note, en fonction des modèles, une qualité de fabrication « catastrophique », un niveau de bruit bien trop puissant, des substances dangereuses, une ouverture trop facile du compartiment des piles, etc. Côté bijoux, la plupart de ceux achetés étaient conformes. Mais dans le cas contraire, ils représentaient de vrais dangers pour la santé. « L’un des bijoux achetés sur Shein était même composé à 87 % de cadmium, soit 8 700 fois la norme autorisée de 100 mg/kg », indique Que-Choisir.

Le magazine ajoute avoir contacté les deux plateformes pour expliquer ses trouvailles. Tous les produits ont rapidement été retirés et Shein a lancé une campagne de rappel auprès de la clientèle. « Malgré tout, des produits similaires sont toujours en ligne et rien ne dit que ceux qui ont été retirés ne réapparaîtront pas chez d’autres vendeurs », conclut Que-Choisir.

Rappelons que les deux plateformes sont dans le viseur de l’Europe et de plusieurs États membres. L’Union européenne a officiellement ouvert une enquête contre Temu en octobre 2024 et contre Shein en début d’année, tandis que la France tirait en avril un triste bilan des produits non-conformes qui inondent son marché.

  •  

☕️ Que-Choisir tire la sonnette d’alarme sur les chargeurs vendus par Shein et Temu

Avec ses homologues allemands, belges et danois, Que-Choisir s’est lancé dans des achats de chargeurs et autres produits sur Shein et Temu pour en analyser le respect des normes européennes. Et le moins que l’on puisse dire, c’est qu’ils sont loin du compte.

Sur les 54 chargeurs achetés (27 sur chaque plateforme), seuls 2 (un de chaque plateforme) respectaient les normes européennes. 21 ne possédaient pas certains marquages obligatoires comme le logo CE ou l’unité de tension. Surtout, 51 n’ont pas résisté aux contraintes mécaniques imposées, avec des résultats variés : broches tordues ou tournées trop facilement, boitier cassé après une chute…

Pour 4 des chargeurs, « les circuits à haute et basse tension étaient trop proches l’un de l’autre, risquant de provoquer des arcs électriques ». La température s’est envolée sur 14 chargeurs, au point de dépasser les températures maximales autorisées de 77 et 87° C. Un modèle a même atteint 102° C.

« Nos tests ont mis en évidence le fait que ces produits d’entrée de gamme étaient souvent mal conçus et fabriqués avec des matériaux de mauvaise qualité, et que beaucoup d’entre eux faisaient courir de réels risques de brûlure, de choc électrique et d’incendie à leurs utilisateurs »

Crédits : Que-Choisir

Les tests réalisés sur des jouets pour enfants et des bijoux renvoient vers le même type de résultats. Pour les premiers, Que-Choisir note, en fonction des modèles, une qualité de fabrication « catastrophique », un niveau de bruit bien trop puissant, des substances dangereuses, une ouverture trop facile du compartiment des piles, etc. Côté bijoux, la plupart de ceux achetés étaient conformes. Mais dans le cas contraire, ils représentaient de vrais dangers pour la santé. « L’un des bijoux achetés sur Shein était même composé à 87 % de cadmium, soit 8 700 fois la norme autorisée de 100 mg/kg », indique Que-Choisir.

Le magazine ajoute avoir contacté les deux plateformes pour expliquer ses trouvailles. Tous les produits ont rapidement été retirés et Shein a lancé une campagne de rappel auprès de la clientèle. « Malgré tout, des produits similaires sont toujours en ligne et rien ne dit que ceux qui ont été retirés ne réapparaîtront pas chez d’autres vendeurs », conclut Que-Choisir.

Rappelons que les deux plateformes sont dans le viseur de l’Europe et de plusieurs États membres. L’Union européenne a officiellement ouvert une enquête contre Temu en octobre 2024 et contre Shein en début d’année, tandis que la France tirait en avril un triste bilan des produits non-conformes qui inondent son marché.

  •  

Un bug dans Chromium peut faire planter les navigateurs et jusqu’à l’ordinateur

Siphon
Un bug dans Chromium peut faire planter les navigateurs et jusqu’à l’ordinateur

Un chercheur en sécurité, Jose Pino, a trouvé un important problème dans Chrome, qui peut rejaillir dans tous les navigateurs basés sur Chromium. Il ne peut pas en l’état être utilisé pour pirater une machine, mais il peut occasionner un plantage complet du navigateur, voire de la machine selon la configuration utilisée.

Le chercheur expose ses travaux sur une page dédiée d’un dépôt GitHub et n’a révélé sa trouvaille dans un premier temps qu’à The Register. Il indique avoir prévenu Google le 28 aout puis à nouveau le 30, sans réponse jusqu’à très récemment. Il a donc décidé de dévoiler les détails de sa découverte, jusqu’à publier la manière d’exploiter le bug ainsi qu’un proof of concept (PoC) sous forme d’un site qui fera immanquablement planter le navigateur en 15 à 60 secondes.

Une API sans limitation de ressources

Le problème réside dans l’API document.title. Le chercheur a découvert qu’elle ne possède aucune limitation de débit sur les mises à jour, ce qui « permet d’injecter des millions de mutations DOM par seconde, et lors de cette tentative d’injection, cela sature le thread principal, perturbant la boucle d’événements et provoquant l’effondrement de l’interface ».

The Register dit avoir testé le PoC sur Edge sur un PC Windows 11. Résultat ? 18 Go de mémoire aspirés par l’onglet, un plantage du navigateur puis celui de la machine.

Jose Pino a nommé cette vulnérabilité Brash et elle n’affecte que le moteur Blink, principalement utilisé par Chrome. Gecko (Mozilla) et WebKit (Apple) ne sont pas concernés. Comme on peut le voir dans les explications sur GitHub, le temps nécessaire pour faire planter le navigateur varie légèrement, mais le résultat est toujours le même.

Chronologie d’un plantage

Le chercheur donne même la méthode pour aboutir au proof of concept, ainsi que le code qui va avec. Le processus se fait en trois étapes, dont la première consiste à préparer et à charger en mémoire 100 chaines hexadécimales uniques de 512 caractères. Vient ensuite la phase de burst (rafale) qui, dans une configuration par défaut, aboutit à 24 millions de mises à jour par seconde à faire ingérer à l’API document.title. Puisque celle-ci ne limite pas sa consommation de ressources, le navigateur puise autant qu’il peut dans le CPU et la mémoire. Les mises à jour sont si fréquentes que le processus principal du navigateur devient saturé, empêchant le fonctionnement de l’interface et entrainant finalement le plantage.

Jose Pino donne les temps moyens pour chaque étape : entre 5 et 10 secondes pour que les onglets se bloquent, entre 10 et 15 secondes pour provoquer un blocage complet ou l’apparition d’une boite de dialogue « Page sans réponse », et entre 15 et 60 secondes. Bien qu’il ne s’agisse pas directement d’un problème de sécurité, il peut donner lieu à des plantages et donc à des pertes de travail selon le contexte.

The Register indique de son côté avoir contacté les entreprises derrière Chrome, Edge, Vivaldi, Arc, Dia, Opera, Perplexity Comet, ChatGPT Atlas et Brave. Sept n’ont pas répondu, Google a indiqué qu’elle se penchait sur le problème et Brave qu’elle attendrait que le souci soit corrigé dans Chromium.

  •  

☕️ Ubuntu Unity lance un appel à l’aide

La variante Unity d’Ubuntu est dans la panade. Le manque de développeurs dans l’équipe met la distribution en danger, au point qu’elle pourrait disparaitre.

Maik Adamietz, modérateur et administrateur de la communauté, fait partie du projet depuis 2020. Dans un message publié sur Discourse, il rend compte d’une situation devenue très compliquée. Il indique notamment que Rudra, chef du projet, est accaparé par ses études universitaires et les examens qui en découlent.

Le ralentissement a commencé à se faire sentir à la publication d’Ubuntu 25.04 en avril dernier. Maik ajoute qu’il a dû lui aussi s’éloigner, citant des raisons personnelles. Circonstance aggravante, les deux développeurs ont fortement ralenti leur participation à peu près au même moment, amplifiant le problème.

Même si les commits ont amplement diminué, l’infrastructure du projet a continué de produire des builds journalières, via un processus automatique. Sans réelles corrections, révisions du code et tests en mains propres, les défaillances ont prospéré au point d’aboutir à nombre de bugs considérés comme critiques.

Résultat : aucune version Unity n’est apparue pour Ubuntu 25.10, alors que le système est disponible depuis plusieurs semaines et que toutes les autres variantes (Kubuntu, Xubuntu…) ont suivi dans la foulée.

Maik dit s’être entretenu de la situation avec Tobiyo Kuujikai, un autre développeur et modérateur du projet. La conclusion de la discussion était cependant qu’aucun des deux n’estimait avoir les connaissances techniques suffisantes pour la maintenance d’une distribution entière ou même pour résoudre les bugs critiques qui émaillent la mouture actuelle.

Il lance donc un appel aux bonnes volontés, cherchant en priorité des personnes ayant assez de bagages techniques pour s’atteler à la tâche et ramener Ubuntu Unity dans l’état de fiabilité que la distribution avait à la version 24.04. Il espère au moins pouvoir résoudre les problèmes les plus importants d’ici la version 26.04.

Rappelons qu’Unity était un environnement développé par Canonical, quand l’entreprise rêvait de proposer une interface unique pour toutes les plateformes. En avril 2017, elle avait cependant annoncé l’abandon d’Unity au profit d’un retour sur GNOME. Ubuntu 17.10 avait inauguré cette bascule. Unity a fini par être repris par la communauté. Cet environnement ne manquait pas d’intérêt et avait la préférence d’une partie des utilisateurs.

  •  

Un bug dans Chromium peut faire planter les navigateurs et jusqu’à l’ordinateur

Siphon
Un bug dans Chromium peut faire planter les navigateurs et jusqu’à l’ordinateur

Un chercheur en sécurité, Jose Pino, a trouvé un important problème dans Chrome, qui peut rejaillir dans tous les navigateurs basés sur Chromium. Il ne peut pas en l’état être utilisé pour pirater une machine, mais il peut occasionner un plantage complet du navigateur, voire de la machine selon la configuration utilisée.

Le chercheur expose ses travaux sur une page dédiée d’un dépôt GitHub et n’a révélé sa trouvaille dans un premier temps qu’à The Register. Il indique avoir prévenu Google le 28 aout puis à nouveau le 30, sans réponse jusqu’à très récemment. Il a donc décidé de dévoiler les détails de sa découverte, jusqu’à publier la manière d’exploiter le bug ainsi qu’un proof of concept (PoC) sous forme d’un site qui fera immanquablement planter le navigateur en 15 à 60 secondes.

Une API sans limitation de ressources

Le problème réside dans l’API document.title. Le chercheur a découvert qu’elle ne possède aucune limitation de débit sur les mises à jour, ce qui « permet d’injecter des millions de mutations DOM par seconde, et lors de cette tentative d’injection, cela sature le thread principal, perturbant la boucle d’événements et provoquant l’effondrement de l’interface ».

The Register dit avoir testé le PoC sur Edge sur un PC Windows 11. Résultat ? 18 Go de mémoire aspirés par l’onglet, un plantage du navigateur puis celui de la machine.

Jose Pino a nommé cette vulnérabilité Brash et elle n’affecte que le moteur Blink, principalement utilisé par Chrome. Gecko (Mozilla) et WebKit (Apple) ne sont pas concernés. Comme on peut le voir dans les explications sur GitHub, le temps nécessaire pour faire planter le navigateur varie légèrement, mais le résultat est toujours le même.

Chronologie d’un plantage

Le chercheur donne même la méthode pour aboutir au proof of concept, ainsi que le code qui va avec. Le processus se fait en trois étapes, dont la première consiste à préparer et à charger en mémoire 100 chaines hexadécimales uniques de 512 caractères. Vient ensuite la phase de burst (rafale) qui, dans une configuration par défaut, aboutit à 24 millions de mises à jour par seconde à faire ingérer à l’API document.title. Puisque celle-ci ne limite pas sa consommation de ressources, le navigateur puise autant qu’il peut dans le CPU et la mémoire. Les mises à jour sont si fréquentes que le processus principal du navigateur devient saturé, empêchant le fonctionnement de l’interface et entrainant finalement le plantage.

Jose Pino donne les temps moyens pour chaque étape : entre 5 et 10 secondes pour que les onglets se bloquent, entre 10 et 15 secondes pour provoquer un blocage complet ou l’apparition d’une boite de dialogue « Page sans réponse », et entre 15 et 60 secondes pour un plantage complet du navigateur. Bien qu’il ne s’agisse pas directement d’un problème de sécurité, il peut donner lieu à des plantages et donc à des pertes de travail selon le contexte.

The Register indique de son côté avoir contacté les entreprises derrière Chrome, Edge, Vivaldi, Arc, Dia, Opera, Perplexity Comet, ChatGPT Atlas et Brave. Sept n’ont pas répondu, Google a indiqué qu’elle se penchait sur le problème et Brave qu’elle attendrait que le souci soit corrigé dans Chromium.

  •  

☕️ Ubuntu Unity lance un appel à l’aide

La variante Unity d’Ubuntu est dans la panade. Le manque de développeurs dans l’équipe met la distribution en danger, au point qu’elle pourrait disparaitre.

Maik Adamietz, modérateur et administrateur de la communauté, fait partie du projet depuis 2020. Dans un message publié sur Discourse, il rend compte d’une situation devenue très compliquée. Il indique notamment que Rudra, chef du projet, est accaparé par ses études universitaires et les examens qui en découlent.

Le ralentissement a commencé à se faire sentir à la publication d’Ubuntu 25.04 en avril dernier. Maik ajoute qu’il a dû lui aussi s’éloigner, citant des raisons personnelles. Circonstance aggravante, les deux développeurs ont fortement ralenti leur participation à peu près au même moment, amplifiant le problème.

Même si les commits ont amplement diminué, l’infrastructure du projet a continué de produire des builds journalières, via un processus automatique. Sans réelles corrections, révisions du code et tests en mains propres, les défaillances ont prospéré au point d’aboutir à nombre de bugs considérés comme critiques.

Résultat : aucune version Unity n’est apparue pour Ubuntu 25.10, alors que le système est disponible depuis plusieurs semaines et que toutes les autres variantes (Kubuntu, Xubuntu…) ont suivi dans la foulée.

Maik dit s’être entretenu de la situation avec Tobiyo Kuujikai, un autre développeur et modérateur du projet. La conclusion de la discussion était cependant qu’aucun des deux n’estimait avoir les connaissances techniques suffisantes pour la maintenance d’une distribution entière ou même pour résoudre les bugs critiques qui émaillent la mouture actuelle.

Il lance donc un appel aux bonnes volontés, cherchant en priorité des personnes ayant assez de bagages techniques pour s’atteler à la tâche et ramener Ubuntu Unity dans l’état de fiabilité que la distribution avait à la version 24.04. Il espère au moins pouvoir résoudre les problèmes les plus importants d’ici la version 26.04.

Rappelons qu’Unity était un environnement développé par Canonical, quand l’entreprise rêvait de proposer une interface unique pour toutes les plateformes. En avril 2017, elle avait cependant annoncé l’abandon d’Unity au profit d’un retour sur GNOME. Ubuntu 17.10 avait inauguré cette bascule. Unity a fini par être repris par la communauté. Cet environnement ne manquait pas d’intérêt et avait la préférence d’une partie des utilisateurs.

  •  

☕️ Les licenciements chez Amazon entrainent la fin de New World Aeternum et d’autres jeux

Amazon a confirmé ce 28 octobre 14 000 suppressions de postes dans plusieurs domaines et pays. L’entreprise indiquait dans son communiqué qu’elle offrirait « à la plupart des employés 90 jours pour chercher un nouveau poste en interne ».

On apprend sans grande surprise que certaines divisions de la société sont plus touchées que d’autres. C’est notamment le cas des jeux vidéo, comme noté par The Verge. Amazon a ainsi confirmé qu’elle allait drastiquement réduire la voilure sur le développement en interne de jeux AAA, tout particulièrement les MMO.

Parmi ces derniers, New World Aeternum est le principal touché. Les développeurs du jeu ont ainsi publié hier un billet dans lequel ils annoncent ce que les joueurs craignaient : « La saison 10 et la mise à jour de Nighthaven, récemment lancées, serviront de dernière sortie de contenu pour New World sur PC et consoles ». Des détails supplémentaires seront fournis au cours des prochains mois et les serveurs devraient rester actifs jusqu’en 2026, sans plus de précisions. Les développeurs donneront un préavis « d’au moins six mois » avant la coupure.

Le destin des autres MMO varie. Pour Throne and Liberty, développé par NCSoft et FirstSpark Games, et Lost Ark, développé par Smilegate RPG, le développement continuera et les mises à jour continueront d’affluer. Le destin du MMO Lord of the Rings est en revanche plus incertain.

  •  

☕️ YouTube : vidéos améliorées par l’IA, grosses miniatures et départs volontaires

YouTube vient d’annoncer plusieurs améliorations à venir pour les créateurs de contenus. La plus visible sera une fonction baptisée « Super Resolution », chargée de proposer des versions HD de contenus en basse résolution, dont la définition et la qualité seront augmentées par l’IA.

Ce traitement sera automatiquement appliqué sur tous les contenus concernés. Cependant, les créateurs pourront désactiver la fonction pour qu’elle ne soit pas proposée aux internautes. Ces derniers verront les définitions ajoutées car elles seront étiquetées comme telles dans la liste du réglage Qualité. En outre, les originaux restent en place, les versions « améliorées » étant créées à part.

Difficile d’imaginer la quantité de calculs que cela représente, tant les vidéos sont nombreuses sous les 1080p. Le travail sera d’autant plus grand que YouTube compte proposer à terme une qualité allant jusqu’à la 4K.

D’autres améliorations doivent arriver très prochainement, dont la possibilité d’utiliser des fichiers allant jusqu’à 50 Mo pour les miniatures des vidéos, contre 2 Mo aujourd’hui. YouTube a également « commencé à tester des vidéos plus volumineuses avec certains créateurs afin de permettre des mises en ligne originales de qualité encore supérieure », mais sans plus de détails. On note aussi l’arrivée d’un code QR dans les vidéos promotionnelles pour se rendre directement vers une page d’achat.

Mais au milieu des améliorations portées par l’IA, il y a aussi un plan de départs volontaires pour le personnel américain de l’entreprise. Dans une note interne révélée ce mercredi par Sources, le patron de YouTube, Neal Mohan, indique que l’intelligence artificielle représente l’avenir de la plateforme.

En conséquence, toute la structure est désormais divisée en trois sections : « Subscription Products » pour tout ce qui touche aux abonnements (Premium, Music et streaming), « Viewer Products » qui se concentrera sur l’expérience de visionnage, et « Creator & Community Products » pour les créateurs de contenus et le renforcement de la communauté. Aucun licenciement n’est prévu, mais les personnes qui partiraient à la suite de ces changements ne seraient pas remplacées.

  •  

☕️ Grammarly devient Superhuman et se dote d’un assistant IA

En juin dernier, nous rapportions que Grammarly avait levé un milliard de dollars. La société, spécialisée dans la détection des fautes et l’aide à l’écriture, prévoyait alors d’investir largement dans l’IA générative, notamment pour ne pas se faire dépasser dans son domaine de prédilection par ChatGPT, Claude et autre Gemini. Le mois suivant, elle annonçait le rachat de Superhuman, un client e-mail, pour se renforcer sur le terrain de la productivité.

Et voilà que Grammarly se renomme désormais Superhuman. Les produits présents dans le portefeuille, dont surtout l’assistant d’écriture, restent en place sous les mêmes appellations.

La société en profite pour lancer un assistant dopé à l’IA générative et nommé Superhuman Go. Intégré dans l’extension Grammarly, il se propose de fournir des suggestions d’écriture, de faire des commentaires sur des e-mails, etc. Il est bien sûr utilisable dans Superhuman (le client e-mail) mais on peut le connecter à d’autres sources comme Jira, Gmail, Google Drive et Google Agenda pour lui fournir plus de contexte. D’autres sources seront ajoutées prochainement pour élargir ce contexte, notamment des CRM.

Superhuman Go est désactivé par défaut, mais les utilisateurs de l’extension peuvent l’activer par un bouton. L’assistant est pour l’instant fourni sans frais supplémentaires dans toutes les formules payantes. Selon l’entreprise, d’autres fonctions de ce type seront ajoutées bientôt à ses produits, dont Coda, un concurrent de Notion.

Grammarly reste en revanche centré sur la langue anglaise.

  •  

90 % des jeux Windows compatibles Linux ? Oui, mais…

Tout est possible
90 % des jeux Windows compatibles Linux ? Oui, mais…

Les dernières statistiques publiées par Boiling Steam sont étonnantes : 90 % des jeux conçus pour Windows sont compatibles avec Linux. Bien que le chiffre soit impressionnant et témoigne d’une activité intense autour du sujet, il recouvre plusieurs réalités.

Le jeu vidéo sur Linux est devenu un vrai sujet depuis plusieurs années, avec une accélération notable du nombre de titres pouvant bien fonctionner sur la plateforme. Près de 90 % des jeux conçus pour Windows peuvent être lancés sur Linux, relève le site Boiling Steam en s’appuyant sur les chiffres de ProtonDB (qui permet de suivre l’état de compatibilité de chaque titre avec Proton).

Des jeux qui se lancent, mais dans quelles conditions ?

Cette statistique de 90 % représente le pourcentage de jeux qui se lancent sur Linux. Mais se lancent comment ? Le tableau fourni par Boiling Steam analyse la qualité de la prise en charge. De manière générale, l’évolution est plus que positive puisque les jeux en vert foncé (niveau Platine) représentent ceux pouvant être lancés sur Linux sans modification et avec de très bonnes performances, grâce à la couche Proton (basée sur Wine), créée par Valve.

Crédits : Boiling Steam

Viennent ensuite le vert clair (Or) pour ceux ayant besoin de quelques ajustements mineurs, le jaune (Argent) pour les titres jouables mais avec des imperfections, le rouge clair (Bronze) pour les jeux dont le fonctionnement n’est pas garanti, et enfin le rouge sombre pour ceux qui ne fonctionnent tout simplement pas. Les 90 % tiennent compte de toutes les couleurs à l’exception du rouge sombre.

Dans le billet lié, Boiling Steam indique que ces statistiques ne reflètent pas non plus la part des jeux pris officiellement en charge par le Steam Deck de Valve, car la qualification qui va avec prend en compte les performances. Le site considère cependant que le niveau Platine correspondrait aux statuts Verifié ou Jouable du Steam Deck, en fonction seulement du niveau de performances.

Toujours plus vert

Le graphique montre quoi qu’il en soit une accélération notable en 2022 et 2023 dans le support des jeux, que le site attribue principalement à l’arrivée du Steam Deck et à l’effervescence qui a entouré la console portable de Valve.

Peut-on espérer que tous les jeux finissent par fonctionner un jour sur Linux ? Possible, mais il faudra que les éditeurs envisagent la plateforme comme une véritable cible, car la couche Proton ne peut pas tout faire. Le problème des logiciels anti-triche est toujours présent : avec des mécanismes pensés pour être en espace noyau sur Windows, ils n’ont aucune chance de fonctionner sur Linux. Or, ces titres sont souvent ceux qui tractent un très grand nombre de joueurs, car très compétitifs : Valorant, Fortnite, Overwatch 2, Apex Legends, la série des Call of Duty

Mais les conséquences de la couche Proton continuent et pourraient à terme engendrer un effet de masse suffisamment important pour que les studios envisagent cette possibilité. Le jeu vidéo est l’un des grands bastions de Windows, mais la fin de support de Windows 10 entraine une interrogation chez une partie des utilisateurs sur la possibilité d’une migration, d’autant que des distributions spécialisées existent, comme GLF OS. Selon les jeux utilisés, un passage à Linux n’a donc plus rien d’un problème.

  •  

En Autriche, un ministère se débarrasse en grande partie de Microsoft pour Nextcloud

Nächste Wolke
En Autriche, un ministère se débarrasse en grande partie de Microsoft pour Nextcloud

Le ministère fédéral autrichien de l’Économie, de l’Énergie et du Tourisme (BMWET) a migré une grande partie de son infrastructure sur Nextcloud pour gérer la collaboration interne et le stockage des données. Interrogé sur les raisons de cette transition, le ministère a notamment cité des craintes de conformité au RGPD et à la directive NIS2.

La nouvelle a été annoncée le 23 octobre pendant la conférence Nextcloud Enterprise Day, qui se tenait à Copenhague et dont elle constituait l’un des points d’orgue. On a ainsi appris que le BMWET (ministère fédéral autrichien de l’Économie, de l’Énergie et du Tourisme) avait fini une migration concernant 1 200 fonctionnaires et visant à réduire considérablement la dépendance à Microsoft, améliorer la collaboration interne et assurer le stockage sécurisé des données.

L’annonce a été faite par Martin Ollrom, CIO (Chief Information Officer) du ministère, et Florian Zinnagl CISO (Chef Information Security Officer). Dans une vidéo publiée par Nextcloud, les deux responsables indiquent que le projet est parti d’une réflexion sur la modernisation de l’infrastructure, ainsi que d’un travail sur la réduction des risques juridiques et de sécurité, notamment en regard du RGPD et de la directive NIS2.

Approche hybride

Le projet de l’Autriche n’était pas une coupure nette. Comme le ministère l’explique, une partie du BMWET était en train d’adopter Microsoft 365 et Teams au moment où la question d’un remplacement a été abordée. Pas question donc d’arrêter en plein milieu. Le ministère a donc choisi une approche hybride : garder Teams comme outil de communication externe et partiellement Outlook, puis confier le reste à Nextcloud.

Le ministère a travaillé avec deux entreprises pour la mise en œuvre : Atos Autriche et Sendent, partenaire de Nextcloud, qui s’est notamment occupé d’une intégration dans Outlook pour préserver certains flux de travail, particulièrement les e-mails et agendas. L’équipe de Nextcloud a également participé au projet.

Selon les deux responsables, tout s’est passé étonnamment vite. Il n’aurait ainsi fallu que quatre mois entre la preuve de concept au déploiement complet, un temps très court quand on considère l’ampleur de la migration et les défis d’un tel projet.

Les deux responsables ont ajouté qu’un montant significatif avait été investi dans la formation des fonctionnaires. « Une vaste campagne d’information, une communication claire, des sessions de formation et une transition progressive ont permis d’assurer une forte acceptation et un processus sans heurts. Grâce à l’intégration avec les systèmes existants, nous avons été en mesure de moderniser considérablement notre portefeuille de services numériques et, en fin de compte, la collaboration, sans perturber les flux de travail établis des employés », a assuré Martin Ollrom.

Souveraineté et approche en douceur

Comme d’autres projets avec celui-ci, la migration du BMWET est intéressante dans les problématiques qu’elle soulève, mais qui ne sont pas neuves : souveraineté, refus d’une dépendance à une société américaine, etc. En revanche, l’expression claire de doutes sur la conformité au RGPD et surtout à la directive NIS2 n’est pas courante.

L’approche plus en douceur de la migration est en outre mise en avant par Nextcloud dans sa propre communication. Une manière de dire qu’une transition peut se faire progressivement et encourager d’autres institutions et émanations diverses d’États à tenter l’aventure. Nextcloud prêche bien sûr pour sa paroisse, mais ce n’est pas la première fois que l’Autriche adopte cette approche.

Il y a quelques semaines, on apprenait ainsi que l’armée autrichienne avait abandonné la suite Office de Microsoft pour LibreOffice (pdf). 16 000 ordinateurs étaient concernés et il s’agissait alors de l’aboutissement d’une longue réflexion, car la planification avait commencé en 2020. L’armée avait indiqué s’être notamment inquiétée d’une dépendance toujours croissante d’Office à des services distants. La migration s’était faite par étapes : utilisation volontaire de LibreOffice en 2022, obligation de l’utiliser dans certains départements en 2023, puis obligation générale et suppression d’Office en septembre dernier. L’armée autrichienne a également contribué au code de LibreOffice.

Ces migrations partielles sont autant de portes ouvertes vers des migrations complètes vers l’open source. Si l’applicatif peut se passer de Microsoft, Windows finit par ne plus être nécessaire. Un mouvement lent mais assez général en Europe, avec d’autres cas de migrations comme en Allemagne et au Danemark.

  •  

☕️ Grammarly devient Superhuman et se dote d’un assistant IA

En juin dernier, nous rapportions que Grammarly avait levé un milliard de dollars. La société, spécialisée dans la détection des fautes et l’aide à l’écriture, prévoyait alors d’investir largement dans l’IA générative, notamment pour ne pas se faire dépasser dans son domaine de prédilection par ChatGPT, Claude et autre Gemini. Le mois suivant, elle annonçait le rachat de Superhuman, un client e-mail, pour se renforcer sur le terrain de la productivité.

Et voilà que Grammarly se renomme désormais Superhuman. Les produits présents dans le portefeuille, dont surtout l’assistant d’écriture, restent en place sous les mêmes appellations.

La société en profite pour lancer un assistant dopé à l’IA générative et nommé Superhuman Go. Intégré dans l’extension Grammarly, il se propose de fournir des suggestions d’écriture, de faire des commentaires sur des e-mails, etc. Il est bien sûr utilisable dans Superhuman (le client e-mail) mais on peut le connecter à d’autres sources comme Jira, Gmail, Google Drive et Google Agenda pour lui fournir plus de contexte. D’autres sources seront ajoutées prochainement pour élargir ce contexte, notamment des CRM.

Superhuman Go est désactivé par défaut, mais les utilisateurs de l’extension peuvent l’activer par un bouton. L’assistant est pour l’instant fourni sans frais supplémentaires dans toutes les formules payantes. Selon l’entreprise, d’autres fonctions de ce type seront ajoutées bientôt à ses produits, dont Coda, un concurrent de Notion.

Grammarly reste en revanche centré sur la langue anglaise.

  •  

90 % des jeux Windows compatibles Linux ? Oui, mais…

Tout est possible
90 % des jeux Windows compatibles Linux ? Oui, mais…

Les dernières statistiques publiées par Boiling Steam sont étonnantes : 90 % des jeux conçus pour Windows sont compatibles avec Linux. Bien que le chiffre soit impressionnant et témoigne d’une activité intense autour du sujet, il recouvre plusieurs réalités.

Le jeu vidéo sur Linux est devenu un vrai sujet depuis plusieurs années, avec une accélération notable du nombre de titres pouvant bien fonctionner sur la plateforme. Près de 90 % des jeux conçus pour Windows peuvent être lancés sur Linux, relève le site Boiling Steam en s’appuyant sur les chiffres de ProtonDB (qui permet de suivre l’état de compatibilité de chaque titre avec Proton).

Des jeux qui se lancent, mais dans quelles conditions ?

Cette statistique de 90 % représente le pourcentage de jeux qui se lancent sur Linux. Mais se lancent comment ? Le tableau fourni par Boiling Steam analyse la qualité de la prise en charge. De manière générale, l’évolution est plus que positive puisque les jeux en vert foncé (niveau Platine) représentent ceux pouvant être lancés sur Linux sans modification et avec de très bonnes performances, grâce à la couche Proton (basée sur Wine), créée par Valve.

Crédits : Boiling Steam

Viennent ensuite le vert clair (Or) pour ceux ayant besoin de quelques ajustements mineurs, le jaune (Argent) pour les titres jouables mais avec des imperfections, le rouge clair (Bronze) pour les jeux dont le fonctionnement n’est pas garanti, et enfin le rouge sombre pour ceux qui ne fonctionnent tout simplement pas. Les 90 % tiennent compte de toutes les couleurs à l’exception du rouge sombre.

Dans le billet lié, Boiling Steam indique que ces statistiques ne reflètent pas non plus la part des jeux pris officiellement en charge par le Steam Deck de Valve, car la qualification qui va avec prend en compte les performances. Le site considère cependant que le niveau Platine correspondrait aux statuts Verifié ou Jouable du Steam Deck, en fonction seulement du niveau de performances.

Toujours plus vert

Le graphique montre quoi qu’il en soit une accélération notable en 2022 et 2023 dans le support des jeux, que le site attribue principalement à l’arrivée du Steam Deck et à l’effervescence qui a entouré la console portable de Valve.

Peut-on espérer que tous les jeux finissent par fonctionner un jour sur Linux ? Possible, mais il faudra que les éditeurs envisagent la plateforme comme une véritable cible, car la couche Proton ne peut pas tout faire. Le problème des logiciels anti-triche est toujours présent : avec des mécanismes pensés pour être en espace noyau sur Windows, ils n’ont aucune chance de fonctionner sur Linux. Or, ces titres sont souvent ceux qui tractent un très grand nombre de joueurs, car très compétitifs : Valorant, Fortnite, Overwatch 2, Apex Legends, la série des Call of Duty

Mais les conséquences de la couche Proton continuent et pourraient à terme engendrer un effet de masse suffisamment important pour que les studios envisagent cette possibilité. Le jeu vidéo est l’un des grands bastions de Windows, mais la fin de support de Windows 10 entraine une interrogation chez une partie des utilisateurs sur la possibilité d’une migration, d’autant que des distributions spécialisées existent, comme GLF OS. Selon les jeux utilisés, un passage à Linux n’a donc plus rien d’un problème.

  •  

En Autriche, un ministère se débarrasse en grande partie de Microsoft pour Nextcloud

Nächste Wolke
En Autriche, un ministère se débarrasse en grande partie de Microsoft pour Nextcloud

Le ministère fédéral autrichien de l’Économie, de l’Énergie et du Tourisme (BMWET) a migré une grande partie de son infrastructure sur Nextcloud pour gérer la collaboration interne et le stockage des données. Interrogé sur les raisons de cette transition, le ministère a notamment cité des craintes de non-conformité au RGPD et à la directive NIS2.

La nouvelle a été annoncée le 23 octobre pendant la conférence Nextcloud Enterprise Day, qui se tenait à Copenhague et dont elle constituait l’un des points d’orgue. On a ainsi appris que le BMWET (ministère fédéral autrichien de l’Économie, de l’Énergie et du Tourisme) avait fini une migration concernant 1 200 fonctionnaires et visant à réduire considérablement la dépendance à Microsoft, améliorer la collaboration interne et assurer le stockage sécurisé des données.

L’annonce a été faite par Martin Ollrom, CIO (Chief Information Officer) du ministère, et Florian Zinnagl CISO (Chef Information Security Officer). Dans une vidéo publiée par Nextcloud, les deux responsables indiquent que le projet est parti d’une réflexion sur la modernisation de l’infrastructure, ainsi que d’un travail sur la réduction des risques juridiques et de sécurité, notamment en regard du RGPD et de la directive NIS2.

Approche hybride

Le projet de l’Autriche n’était pas une coupure nette. Comme le ministère l’explique, une partie du BMWET était en train d’adopter Microsoft 365 et Teams au moment où la question d’un remplacement a été abordée. Pas question donc d’arrêter en plein milieu. Le ministère a donc choisi une approche hybride : garder Teams comme outil de communication externe et partiellement Outlook, puis confier le reste à Nextcloud.

Le ministère a travaillé avec deux entreprises pour la mise en œuvre : Atos Autriche et Sendent, partenaire de Nextcloud, qui s’est notamment occupé d’une intégration dans Outlook pour préserver certains flux de travail, particulièrement les e-mails et agendas. L’équipe de Nextcloud a également participé au projet.

Selon les deux responsables, tout s’est passé étonnamment vite. Il n’aurait ainsi fallu que quatre mois entre la preuve de concept au déploiement complet, un temps très court quand on considère l’ampleur de la migration et les défis d’un tel projet.

Les deux responsables ont ajouté qu’un montant significatif avait été investi dans la formation des fonctionnaires. « Une vaste campagne d’information, une communication claire, des sessions de formation et une transition progressive ont permis d’assurer une forte acceptation et un processus sans heurts. Grâce à l’intégration avec les systèmes existants, nous avons été en mesure de moderniser considérablement notre portefeuille de services numériques et, en fin de compte, la collaboration, sans perturber les flux de travail établis des employés », a assuré Martin Ollrom.

Souveraineté et approche en douceur

Comme d’autres projets avec celui-ci, la migration du BMWET est intéressante dans les problématiques qu’elle soulève, mais qui ne sont pas neuves : souveraineté, refus d’une dépendance à une société américaine, etc. En revanche, l’expression claire de doutes sur la conformité au RGPD et surtout à la directive NIS2 n’est pas courante.

L’approche plus en douceur de la migration est en outre mise en avant par Nextcloud dans sa propre communication. Une manière de dire qu’une transition peut se faire progressivement et encourager d’autres institutions et émanations diverses d’États à tenter l’aventure. Nextcloud prêche bien sûr pour sa paroisse, mais ce n’est pas la première fois que l’Autriche adopte cette approche.

Il y a quelques semaines, on apprenait ainsi que l’armée autrichienne avait abandonné la suite Office de Microsoft pour LibreOffice (pdf). 16 000 ordinateurs étaient concernés et il s’agissait alors de l’aboutissement d’une longue réflexion, car la planification avait commencé en 2020. L’armée avait indiqué s’être notamment inquiétée d’une dépendance toujours croissante d’Office à des services distants. La migration s’était faite par étapes : utilisation volontaire de LibreOffice en 2022, obligation de l’utiliser dans certains départements en 2023, puis obligation générale et suppression d’Office en septembre dernier. L’armée autrichienne a également contribué au code de LibreOffice.

Ces migrations partielles sont autant de portes ouvertes vers des migrations complètes vers l’open source. Si l’applicatif peut se passer de Microsoft, Windows finit par ne plus être nécessaire. Un mouvement lent mais assez général en Europe, avec d’autres cas de migrations comme en Allemagne et au Danemark.

  •  

☕️ Tor Browser 15.0 est là, avec son socle Firefox 140 ESR et une batterie de nouveautés

Nouvelle version majeure pour le navigateur centré sur la sécurité et la protection de la vie privée, qui exploite le réseau Tor. L’occasion de récupérer la dernière version ESR de Firefox (140) et donc de moderniser sa base.

Tor Browser 15.0 introduit également bon nombre de nouveautés apparues dans Firefox au cours de l’année écoulée. On retrouve ainsi les onglets verticaux, les groupes d’onglets ou encore le bouton de recherche unifiée pour passer rapidement d’un moteur à un autre.

L’équipe indique dans son communiqué que ces fonctions sont pour les personnes sachant ce qu’elles font, car le fonctionnement par défaut du navigateur est une session vierge à chaque démarrage, alors que ces outils vont clairement dans le sens d’une préservation des informations entre les sessions.

La version Android se dote pour sa part d’un écran de verrouillage imposant la saisie d’un code pour continuer, pour ajouter une couche de protection. L’équipe prévient que la prochaine version majeure du navigateur abandonnera les versions 5.0, 6.0 et 7.0 d’Android, âgées mais toujours prises en charge par Mozilla pour le moment. Mais Firefox va s’en débarrasser et les ressources à investir seraient trop conséquentes pour faire perdurer cette prise en charge dans Tor Browser.

Enfin, Tor Browser adopte une approche hybride pour WebAssembly (Wasm). La désactivation générale n’est plus possible, car Mozilla s’en sert dans certaines parties de son Firefox, dont le lecteur PDF intégré. « Par conséquent, nous avons décidé de transférer le contrôle de Wasm à NoScript, qui est fourni avec le navigateur Tor et gère déjà JavaScript et d’autres fonctionnalités de sécurité. Cela signifie que Wasm fonctionne désormais sur les pages de navigateur privilégiées telles que le moteur de rendu PDF, mais que NoScript continuera à bloquer la technologie sur les sites Web réguliers aux niveaux de sécurité Safer et Safest », explique l’équipe.

  •  

☕️ Tor Browser 15.0 est là, avec son socle Firefox 140 ESR et une batterie de nouveautés

Nouvelle version majeure pour le navigateur centré sur la sécurité et la protection de la vie privée, qui exploite le réseau Tor. L’occasion de récupérer la dernière version ESR de Firefox (140) et donc de moderniser sa base.

Tor Browser 15.0 introduit également bon nombre de nouveautés apparues dans Firefox au cours de l’année écoulée. On retrouve ainsi les onglets verticaux, les groupes d’onglets ou encore le bouton de recherche unifiée pour passer rapidement d’un moteur à un autre.

L’équipe indique dans son communiqué que ces fonctions sont pour les personnes sachant ce qu’elles font, car le fonctionnement par défaut du navigateur est une session vierge à chaque démarrage, alors que ces outils vont clairement dans le sens d’une préservation des informations entre les sessions.

La version Android se dote pour sa part d’un écran de verrouillage imposant la saisie d’un code pour continuer, pour ajouter une couche de protection. L’équipe prévient que la prochaine version majeure du navigateur abandonnera les versions 5.0, 6.0 et 7.0 d’Android, âgées mais toujours prises en charge par Mozilla pour le moment. Mais Firefox va s’en débarrasser et les ressources à investir seraient trop conséquentes pour faire perdurer cette prise en charge dans Tor Browser.

Enfin, Tor Browser adopte une approche hybride pour WebAssembly (Wasm). La désactivation générale n’est plus possible, car Mozilla s’en sert dans certaines parties de son Firefox, dont le lecteur PDF intégré. « Par conséquent, nous avons décidé de transférer le contrôle de Wasm à NoScript, qui est fourni avec le navigateur Tor et gère déjà JavaScript et d’autres fonctionnalités de sécurité. Cela signifie que Wasm fonctionne désormais sur les pages de navigateur privilégiées telles que le moteur de rendu PDF, mais que NoScript continuera à bloquer la technologie sur les sites Web réguliers aux niveaux de sécurité Safer et Safest », explique l’équipe.

  •  

[MàJ] Fedora 43 disponible : une version solide, malgré un manque de nouveautés visibles

L'automne en douceur
[MàJ] Fedora 43 disponible : une version solide, malgré un manque de nouveautés visibles

Fedora 43 est disponible en version finale. Comme toujours avec cette distribution, on peut compter sur les dernières versions des paquets et des choix avant-gardistes. Mais si cette version se présente comme solide, elle propose peu de nouveautés visibles.

Mise à jour du 29 octobre : La version finale de Fedora 43 est disponible au téléchargement. Comme toujours, on peut récupérer l’image ISO depuis le site officiel.


Article original du 17 septembre : Les nouvelles versions de Fedora sont toujours attendues. Par une partie des utilisateurs bien sûr, ceux en quête de nouveautés. Mais aussi par les personnes qui observent l’évolution des distributions Linux en général. Fedora est le laboratoire à ciel ouvert de Red Hat et l’entreprise y teste en avance des choix et technologies, parfois de manière radicale, avant de les inclure dans sa propre distribution commerciale RHEL.

Côté utilisateurs cependant, Fedora 43 est assez calme. Ses changements les plus significatifs sont sous le capot.

L’habituelle modernisation généralisée

Contrairement à la plupart des distributions et à l’opposé d’une Debian, la philosophie de Fedora est de toujours proposer les dernières versions des paquets. Puisqu’il s’agit de la bêta, ces versions ne sont d’ailleurs pas toutes finalisées. On trouve par exemple le noyau Linux 6.17, qui est actuellement en RC6. Dans ce dernier, on peut trouver notamment des améliorations de performances pour le système de fichiers Btrfs, le support des processeurs Wildcat Lake d’Intel, la prise en charge de la Branch Record Buffer Extension pour ARM ou encore une amélioration du support des CPU et GPU.

Dans son édition classique Workstation, on retrouve bien sûr GNOME 49, dont la version finale est intégrée dans la bêta de Fedora et qui doit être annoncée aujourd’hui. Nous reviendrons donc très bientôt sur ses nouveautés. Cette version devait en tout cas désactiver X11 pour ne laisser que Wayland, mais l’équipe de développement a finalement repoussé cette bascule. La transition vers Wayland reste complexe, comme nous l’avons vu en détail récemment. Ce qui n’effraie pas Fedora, puisque la version 43 supprime les paquets liés à X11 et ne laisse que Wayland (et XWayland pour la compatibilité).

Côté KDE, c’est Plasma 6.4 qui est aux commandes. Rappelons que Fedora, depuis sa version 42, dispose d’une variante officielle KDE, qui n’est donc plus seulement un Spin.

De manière générale, on retrouve les dernières versions de Firefox, LibreOffice et des quelques applications livrées avec le système. Côté développement, c’est le même traitement : GCC 15.2, GNU Binutils 2.45, GNU C Library 2.42, GDB 17.1, LLVM 21, Golang 1.25, Perl 5.42, RPM 6.0, Python 3.14, PostgreSQL 18, Ruby on Rails 8.0, Dovecot 2.4, MySQL 8.4, Tomcat 10.1, etc.

Sous le capot, c’est beaucoup plus intéressant

Pour cette version en particulier, les évolutions les plus significatives sont sous le capot, loin du « simple » choix des versions pour les paquets les plus courants. Par exemple, l’installeur Anaconda, utilisé dans sa nouvelle mouture Web UI depuis Fedora 42, est désormais utilisé pour l’ensemble des Spins de la distribution et pour Fedora KDE. Pour la future version 44, Fedora compte s’en servir pour l’ensemble des éditions atomiques (dont Silverblue), tandis que Fedora 45 s’en servirait pour son édition Server. Après, les anciens composants GTK d’Anaconda seraient dépréciés.

Dans la même « veine », l’installeur se sert maintenant de DNF5 pour toutes les applications basées sur des paquets. Pour l’équipe de développement, c’est un pas supplémentaire vers la dépréciation de DNF4, qui est d’ailleurs entré en mode maintenance. En clair, plus aucune nouveauté ne lui sera ajoutée et les modifications ne concerneront que les corrections de bugs. Le passage à DNF5 est une réponse aux demandes de la communauté, car il doit simplifier les déploiements et rendre les installations plus rapides.

Citons également l’installation automatique des mises à jour dans Fedora Kinoite (version immuable sous KDE), la construction de Fedora CoreOS en utilisant Containerfile, la compression d’initrd avec zstd par défaut dans toutes les variantes du système, la réécriture complète de Greenboot (pour les systèmes basés sur bootc et rpm-ostree) en Rust, le retrait de python-nose (déprécié depuis cinq ans et incompatible avec Python 3.14), ou encore la prise en charge de la virtualisation confidentielle basée sur la plateforme TDX d’Intel.

On note aussi l’utilisation de RPM 6.0 dans Fedora 43. Comme la fiche du changement le précise cependant, cette adoption n’est réalisée que pour des questions de sécurité. Cette nouvelle version majeure améliore notamment plusieurs aspects dans la gestion des clés cryptographiques, en plus de la possibilité pour un paquet de supporter désormais plusieurs signatures. En revanche, Fedora n’adopte pas le nouveau format de paquet de RPM 6.0 par défaut. La génération se fait toujours sur la v4. L’équipe indique en outre que la vérification forcée des signatures était prévue pour Fedora 43, mais qu’elle n’a pas eu le temps de finir le travail.

La suite des opérations

Pour l’instant, la date prévue pour la version finale de Fedora 43 est fixée au 11 novembre. Il est souvent arrivé que l’équipe rate ses fenêtres de sortie, mais ce type de problème semble avoir été relégué au passé sur les dernières versions. On note que la période de test est donc assez longue, notamment face à une Ubuntu qui ne laisse le plus souvent que deux ou trois semaines entre la bêta et la version finale. Canonical devrait d’ailleurs sortir sous peu la bêta d’Ubuntu 25.10.

Sur l’installation proprement dite, elle ne réserve aucune surprise. Le passage à Anaconda dans Fedora 42 se confirme, l’assistant étant particulièrement simple : il n’y a que quatre panneaux avant que l’installation commence. Le reste, dont la création du compte principal, se fait après le redémarrage.

On conseillera comme toujours de ne pas utiliser le système sur une machine de production ou au moins utilisée quotidiennement. La bêta est surtout proposée aux développeurs pour vérifier la compatibilité de leurs applications.

Pour télécharger cette nouvelle Fedora, il suffit de suivre les liens de téléchargement affichés en tête du billet d’annonce, selon l’édition que vous souhaitez installer. Pour les Spins (Cinnamon, Xfce, MATE, Budgie…), il faut se rendre sur leur page dédiée, cliquer sur la variante voulue et activer le bouton « Show Beta downloads » à droite.

  •  

Apple condamnée en France à 48 millions d’euros pour ses contrats avec les opérateurs

Once upon a time
Apple condamnée en France à 48 millions d’euros pour ses contrats avec les opérateurs

Plus de dix ans après la plainte initiale, Apple a finalement été condamnée à 48 millions d’euros pour ses contrats abusifs avec les opérateurs français. La société américaine a déjà annoncé qu’elle fera appel de la décision.

Pour comprendre le jugement rendu par le Tribunal des activités économiques de Paris, il faut se replonger loin dans le passé. En 2013, les quatre opérateurs français signaient tous des contrats avec Apple pour la distribution de l’iPhone. Cette année, c’était au tour des modèles 5 s et 5c.

Des contrats singuliers

Ces contrats étaient particuliers, car ils forçaient les opérateurs à participer eux-mêmes aux campagnes marketing, comme le révèle l’Informé. La facture était salée : 10 millions d’euros par an pour Orange, 8 millions pour SFR, 7 millions pour Bouygues et 7 millions pour Free.

En outre, les quatre opérateurs devaient acheter des volumes fixes d’iPhone (jusqu’à 5,35 millions d’iPhone sur trois ans pour Orange, 4 millions chez SFR et 350 000 chez Free), respecter les prix de vente fixés par Apple, l’obligation de transmettre à l’entreprise les rapports d’inventaire et les chiffres de ventes unitaires, ou encore possibilité pour Apple d’utiliser librement les marques des opérateurs dans ses communications.

Toutes ces pratiques ont été épinglées par le tribunal comme autant de violations du Code du commerce, plus particulièrement son article L. 442 - 1, I, 2° qui interdit de soumettre un partenaire commercial à des obligations créant un déséquilibre significatif.

Contexte unique et dédommagements

Ces contrats étaient à l’image de l’aura de l’iPhone à l’époque. Le tribunal a ainsi noté « le caractère révolutionnaire de l’iPhone, qui était en train de bouleverser la téléphonie mobile dans le monde, faisait pencher le rapport de force très nettement en faveur d’Apple, et rendait obligatoire pour les opérateurs mobiles de conclure un accord ».

Or, comme le souligne notamment MacG, le contexte de vente était très différent à l’époque. L’iPhone s’écoulait à 90 % par les opérateurs en France, qui pouvaient subventionner les appareils et donc étaler les paiements. Sur l’Apple Store, il n’était question que de paiement cash et Amazon n’était pas encore autorisée à vendre le précieux appareil.

Apple a donc été condamnée à payer 48 millions d’euros, qui se décomposent comme suit :

  • 8 millions d’euros d’amende
  • 950 000 euros de frais de procédure
  • 16 millions d’euros pour Bouygues
  • 15 millions d’euros pour Free
  • 7,7 millions d’euros pour SFR

Orange n’a rien obtenu. L’opérateur réclamait pourtant 108 millions d’euros, mais les juges ont déclaré que l’entreprise avait « engagé sa responsabilité dans la situation qu’elle déplore et a concouru au préjudice qu’elle allègue ». Le tribunal se montre d’ailleurs sévère avec les opérateurs, qui « ont accepté pendant plusieurs années des dispositions qu’ils qualifient aujourd’hui de défavorables, et qu’ils se sont abstenus de contester lors du renouvellement du contrat ». Bouygues et SFR ont ainsi vu leurs dédommagements réduits pour la même raison.

Apple a confirmé qu’elle fera appel de la décision : « Nous contestons cette décision, qui concerne une affaire remontant à plus de dix ans, et nous faisons appel. Comme toujours, notre priorité est d’offrir des expériences exceptionnelles à nos clients en France et dans le monde entier ».

  •  

☕️ GIMP a maintenant son Snap, en plus de ses AppImage et Flatpak

L’application de dessin et de retouche GIMP a désormais un Snap officiel. L’équipe de développement « répare » donc une carence, puisque le logiciel possédait déjà des conteneurs AppImage et Flatpak.

Techniquement, GIMP était déjà disponible dans le Snap Store. Il s’agissait cependant d’une construction réalisée par la communauté et affichée en tant que telle par une coche jaune. Cette fois, il s’agit d’un paquet officiellement produit par l’équipe de GIMP, dont la production est assurée par le même processus que pour les autres conteneurs.

Pour les personnes intéressées, cela garantit notamment que les nouvelles versions seront disponibles le jour même dans le Store d’Ubuntu, ou dans les autres distributions utilisant Snap. Cependant, si vous utilisez déjà un autre type de paquet, comme Flatpak, vous avez déjà ce type d’avantage. Si vous passez par les paquets classiques comme DEB, rien ne change non plus, ils continueront d’être proposés.

  •  

Dans Firefox, les extensions vont devoir lister les données collectées

Simple et efficace
Dans Firefox, les extensions vont devoir lister les données collectées

Mozilla prépare un important changement, avec l’obligation pour les extensions de préciser si des données sont collectées et lesquelles. Cette règle sera active le 3 novembre pour les nouvelles extensions, mais sera étendue à toutes en 2026.

La fondation Mozilla va imposer de nouvelles règles aux extensions publiées dans sa boutique officielle addons.mozilla.org. Ainsi, à compter du 3 novembre, toutes les nouvelles extensions qui seront soumises pour vérification devront intégrer une nouvelle clé dans leur fichier manifeste (manifest.json).

Qui collecte quoi

Cette clé – browser_specific_settings.gecko.data_collection_permissions – devra impérativement être renseignée, sous peine de rejet lors de l’examen. Dans le cas où une extension ne collecterait aucune donnée, la clé devra avoir pour valeur « none ». Dans le cas contraire, tous les types d’informations devront être mentionnés, par exemple la position géographique.

L’idée, bien sûr, est d’afficher cette information pour que l’internaute sache précisément à quoi s’en tenir. L’information sera d’ailleurs indiquée à plusieurs endroits : dans la fenêtre d’installation, sur la page officielle de l’extension dans la boutique de Mozilla, ainsi que dans la section Permissions de la page « Vie privée et sécurité » des paramètres du navigateur.

Durant une phase de plusieurs mois, cette obligation ne concernera que les nouvelles extensions proposées pour révision, et pas les mises à jour des extensions existantes. Une fois qu’une extension disposera de la nouvelle clé, elle devra la réutiliser pour toutes ses versions ultérieures. Si elle devait ne pas être renseignée dans le manifeste, l’extension serait rejetée.

Généralisation à toutes les extensions l’année prochaine

Cependant, durant le premier semestre 2026, le mécanisme sera étendu à toutes les extensions. L’éditeur ne précise pas si ces extensions auront une date limite pour s’y atteler ou si l’obligation concernera uniquement les mises à jour. Mozilla indique dans son billet que des informations supplémentaires seront bientôt publiées et que tous les développeurs seront prévenus de cette bascule.

Il est probable que la nouvelle règle s’applique surtout aux mises à jour, au moins dans un premier temps. Une date butoir pourrait être envisagée, mais sera sans doute assez lointaine, pour ne pas risquer de voir la boutique se vider d’un trop grand nombre d’extensions. Il peut exister de multiples raisons pouvant expliquer une absence de mise à jour, dont un manque de temps voire un abandon du projet. La question sera alors de savoir si ces extensions pourront encore rester sur la boutique.

Le changement, quoi qu’il en soit, est positif en matière de sécurité et de vie privée. Notez que des informations existent déjà sur les fiches des extensions sur la boutique de Mozilla, de même que dans le Chrome Web Store. L’idée de Mozilla est surtout de mettre en avant une information cruciale qui pourrait influer sur la décision d’installer ou non plus une extension. Le Chrome Web Store précise quand une extension peut lire et modifier toutes les données sur l’ensemble des sites, mais pas quand des données sont collectées. La liste des autorisations sur la fiche correspondante permet cependant de le deviner.

  •  

Inclusion ou subvention américaine, la fondation Python a choisi

Serpents et panier de crabes
Inclusion ou subvention américaine, la fondation Python a choisi

La Python Software Foundation explique avoir dû refuser une subvention de 1,5 million de dollars. Les conditions assorties mentionnaient l’interdiction de toute politique DEI (diversité, équité et inclusion).

Comme elle l’explique dans un billet publié ce 27 octobre, la Python Software Foundation – qui gère le développement du langage – vient de refuser une importante subvention américaine.

1,5 million de dollars sur deux ans

En janvier dernier, elle avait en effet envoyé une demande de subvention à la National Science Foundation du gouvernement américain dans le cadre du programme Safety, Security, and Privacy of Open Source Ecosystems. Ce programme permet de recevoir des fonds pour travailler spécifiquement sur la sécurité des composants open source.

Selon la fondation, c’était la première fois qu’elle demandait une telle subvention. Dans ce contexte, la construction du dossier aurait réclamé beaucoup de temps, menée par Seth Larson, développeur de sécurité et chercheur principal, et Loren Crary, directeur général adjoint de la fondation. Cette dernière estimait que son travail cadrait parfaitement avec le programme de la NSF.

La subvention a été accordée, provoquant initialement la joie de la fondation. Et pour cause : le montant alloué était de 1,5 million de dollars sur deux ans. La fondation dit fonctionner sur un budget habituel d’environ 5 millions de dollars par an, qui sert aux développeurs, à diverses opérations de communication et sensibilisation, et aux salaires de ses 14 employés.

Pas de politique de diversité, équité et inclusion

Elle indique cependant avoir déchanté en découvrant les conditions assorties. Si la fondation acceptait la subvention, elle devait notamment renoncer à toute politique DEI (diversité, équité et inclusion).

« Ces conditions comprenaient l’affirmation de la déclaration selon laquelle nous « n’exploitons pas, et ne gérerons pas, pendant la durée de cette aide financière, des programmes qui font progresser ou promeuvent la DEI ou une idéologie d’équité discriminatoire en violation des lois fédérales anti-discrimination ». Cette restriction s’appliquerait non seulement au travail de sécurité directement financé par la subvention, mais à toutes les activités de la PSF dans son ensemble. »

Sans surprise, la fondation a décidé de refuser la subvention et de s’en expliquer. Elle précise à ce titre que l’argent aurait « fait une grande différence dans le budget », en matière de sécurité comme pour son fonctionnement général. Elle aurait représenté « de loin » la plus grosse subvention reçue par la fondation depuis sa création.

La fondation ajoute que le refus de la subvention accentue nettement la pression financière sur la structure, surtout après avoir travaillé à son obtention depuis janvier. Elle cite l’inflation, la baisse du parrainage, la pression économique dans le secteur technologique, l’incertitude générale et les conflits mondiaux comme autant de facteurs. La fondation indique avoir « plus que jamais besoin d’un soutien financier » et encourage aux participations, que ce soit sous forme de dons simples ou d’adhésion à la structure. Les entreprises peuvent demander à devenir des sponsors.

  •  

Du neuf pour Copilot chez Microsoft, dont Mico qui retente l’aventure Clippy

Hey ! Listen !
Du neuf pour Copilot chez Microsoft, dont Mico qui retente l’aventure Clippy

Dans un billet publié ce 23 octobre, Microsoft a annoncé une série d’apports pour son assistant Copilot. Bien que plusieurs des fonctionnalités soient intéressantes, l’une en particulier a attiré l’attention : Mico. Ce petit assistant, présenté comme un « blob » pouvant changer de forme, accompagne Copilot en mode vocal. Il rappelle inévitablement Clippy… en lequel il peut justement se transformer.

Mico fait d’autant plus parler de lui que les tentatives de Microsoft pour « humaniser » certaines tâches ou pour les rendre plus « sympas » ont rapidement tourné à la catastrophe, de Bob à Clippy. Le plus souvent, si l’on met de côté une efficacité limitée et – dans le cas de Clippy – le peu de répondant face à de nombreuses situations dans Office, beaucoup détestaient cette expérience où ils se sentaient comme des enfants.

Rendre le mode vocal plus sympathique

Mico procède donc autrement. Le petit blob coloré et polymorphe (qui pourrait presque sortir de La Planète au Trésor, de Disney) apparait uniquement quand on passe en mode vocal sur Copilot pour les échanges de questions-réponses. Il est configuré par défaut pour surgir automatiquement, mais on peut le désactiver dans les options. Surtout, Mico n’est pas là pour fournir davantage de fonctions, mais seulement pour donner un visage « plaisant » aux interactions. Dans son billet, l’éditeur explique que Mico est une simple contraction de « Microsoft Copilot ».

« Cette présence visuelle facultative écoute, réagit et change même de couleur pour refléter vos interactions, ce qui rend les conversations vocales plus naturelles. Mico montre son soutien par le biais d’animations et d’expressions, créant ainsi une expérience conviviale et engageante », indique Microsoft.

La société fournit une vidéo de démonstration. Publiée sur YouTube, elle a l’originalité d’être sans son. Un choix curieux pour un assistant vocal. Elle a le mérite cependant de montrer Mico en mouvement. Microsoft assume également la comparaison avec Clippy. Comme l’ont montré certains utilisateurs sur les réseaux sociaux, cliquer plusieurs fois sur le blob le transforme momentanément en Clippy.

Des souvenirs et des connecteurs

Le billet de Microsoft contient des annonces autrement plus sérieuses, rassemblées sous l’étiquette « une IA centrée sur l’humain ». Comme Mico, elles sont (presque) toutes centrées sur Copilot dans sa version standard, intégrée dans Windows.

Comme OpenAI depuis plusieurs mois et Anthropic depuis septembre (et surtout cette semaine), Microsoft annonce ainsi que son Copilot dispose maintenant d’une mémoire. Elle fonctionne comme on l’a déjà vu ailleurs : elle permet de retenir les informations importantes pour créer une sorte de contexte permanent. Il suffit de les signaler comme telles pour que Copilot s’en souvienne dans les interactions suivantes. Comme dans ChatGPT et Claude, ces « souvenirs » peuvent être modifiés ou supprimés.

Copilot s’accompagne également de nouveaux connecteurs. La version Microsoft 365 en avait déjà, mais la mouture grand public gagne la capacité de se connecter à d’autres services. L’éditeur cite OneDrive, Outlook, Gmail, Google Drive et Google Agenda. Il est aussi possible de mixer plusieurs comptes, de traduire des documents, de créer des flux de travail avec intégration d’évènements dans les agendas d’Outlook ou Gmail, etc. Microsoft précise que le tout premier accès aux données réclamera une autorisation et que les accès peuvent être révoqués à n’importe quel moment. Ces connecteurs sont en cours de déploiement et ne sont pas encore disponibles partout.

Copilot se dote également « d’actions proactives ». Intégrées dans Deep Research, elles peuvent apparaitre sous forme de suggestions si l’IA estime que ces informations sont utiles, par exemple pour orienter les prochaines étapes en fonction de l’activité passée. Cette fonction est pour l’instant en préversion et réclame un abonnement Microsoft 365.

Microsoft veut frapper fort sur la santé et l’éducation

L’entreprise a de grandes ambitions sur la santé et l’éducation. Elle renforce donc ces domaines sur Copilot avec deux annonces spécifiques, mais limitées aux États-Unis pour l’instant.

D’abord, « Copilot for Health », qui doit répondre à tout ce qui concerne la santé. Sujet particulièrement sensible et sur lequel l’entreprise dit avoir amélioré la façon dont l’IA fonde ses réponses sur des sources crédibles, comme Harvard Health.

« Copilot vous aide également à trouver les bons médecins rapidement et en toute confiance, en les associant en fonction de la spécialité, de l’emplacement, de la langue et d’autres préférences. L’objectif est simple : vous aider à prendre le contrôle de votre santé en vous fournissant des informations de haute qualité et en vous connectant rapidement aux bons soins », vante Microsoft, qui accompagne le propos d’une nouvelle vidéo sans le moindre son.

Sur l’éducation, les annonces sont intéressantes. Microsoft propose Learn Live, qui se propose de devenir un « tuteur socratique doté d’une voix qui vous guide à travers des concepts au lieu de simplement donner des réponses ». Plutôt que d’afficher des informations, la fonction pose des questions, donne des repères visuels et des tableaux blancs interactifs pour jauger les réponses. On peut indiquer le contexte d’apprentissage, par exemple la révision d’un examen.

Intégration dans Edge et Windows

Il fallait s’y attendre, Microsoft ne compte pas laisser passer l’opportunité de mettre à contribution son gigantesque parc informatique. L’intégration dans Edge et Windows est donc renforcée, sans surprise.

Pour Edge, il s’agit simplement de faire jeu égal avec toutes les annonces que l’on a déjà pu voir : Gemini dans Chrome, The Browser Company avec Dia, Opera avec Neon, Perplexity avec Comet, ou encore très récemment OpenAI avec Atlas. Il est là encore question de raisonner sur des onglets ouverts, de demander des synthèses d’informations, de lancer des actions comme la réservation d’un hôtel, etc. Microsoft ajoute cependant une petite nouveauté, les Journeys : « Copilot se souvient de votre parcours de navigation pour que vous puissiez retrouver vos recherches, reprendre vos tâches ou explorer plus en profondeur ». la fonction, qui ressemble à s’y méprendre à Recall dans Windows, n’est pour l’instant disponible qu’aux États-Unis en préversion.

Pour Windows, Microsoft redit surtout ce qu’elle déjà dit dans un billet du 16 octobre : « Copilot sur Windows transforme chaque PC Windows 11 en PC IA ». L’occasion d’annoncer la disponibilité mondiale de Copilot Vision, sans doute l’une des fonctions les plus intéressantes chez Microsoft. Elle permet l’interaction avec d’autres applications, d’agir sur ce que l’on voit à l’écran, en pilotant le tout à la voix avec les mots d’activation « Hey Copilot ». Les demandes textuelles doivent arriver « bientôt ».

D’autres nouveautés sont présentées. Par exemple, Copilot Search mélange maintenant les réponses générées par IA et les résultats classiques dans une seule vue, dans une approche finalement identique à Google. Pages, le canevas de collaboration, accepte maintenant jusqu’à 20 fichiers en entrée.

L’ensemble de ces nouveautés est rassemblé sous l’étiquette « Fall Update », qui n’est pas sans rappeler la nomenclature (peu claire) de Windows 10 à ses débuts. Pour l’instant, beaucoup de ces fonctions sont limitées aux États-Unis, Microsoft évoquant surtout les autres pays anglo-saxons pour les prochains déploiements (Royaume-Uni, Canada, Nouvelle-Zélande…). L’Europe n’est pas mentionnée, mais on imagine que les fonctions y arriveront tôt ou tard.

  •  

Pour ses IA, Anthropic va utiliser jusqu’à un million de TPU Google

T’es là ? TPU là !
Pour ses IA, Anthropic va utiliser jusqu’à un million de TPU Google

Anthropic et Google viennent d’annoncer une intensification de leur partenariat. Le premier va ainsi utiliser jusqu’à un million de TPU du second, illustrant une nouvelle fois le besoin constant de nouvelles capacités de calcul pour les IA. Parallèlement, Anthropic élargit la fonction « mémoire » de Claude à d’autres abonnements.

Il est devenu crucial pour les entreprises de l’IA de diversifier les ressources matérielles sur lesquelles tournent leurs opérations, qu’il s’agisse de l’entrainement ou de l’inférence, pour citer les deux plus importantes. Des entreprises comme Amazon, Google et Microsoft développent ainsi leurs propres puces. Elles permettent de réduire la dépendance à NVIDIA – qui garde l’avantage de la puissance brute – en confiant à des puces moins onéreuses et plus économes certaines opérations, dont l’inférence.

Partenariat majeur avec Google

C’est dans ce contexte qu’Anthropic et Google viennent d’annoncer une extension de leur partenariat. Il vise à intensifier l’utilisation de Google Cloud par Anthropic, afin de « répondre à la demande croissante des clients », indique l’éditeur de Claude. Google y voit une validation du « bon rapport qualité-prix et de l’efficacité » de ses puces.

Cette extension doit permettre d’utiliser jusqu’à un million de TPU (Tensor Core Unit) de Google, y compris la 7ᵉ génération de ces puces (Ironwood, lancée en avril), comme le précise Google dans son communiqué. Les TPU de 7ᵉ génération ne sont pas encore disponibles, il faut pour le moment faire une demande d’accès anticipé.

Anthropic, comme OpenAI, diversifie ses sources d’approvisionnement

Dans son communiqué, Anthropic explique que cet investissement représente « des dizaines de milliards de dollars », sans que l’on sache qui investit quoi. Cette approche permettrait à Anthropic de « faire progresser les capacités de Claude tout en maintenant des partenariats solides dans l’ensemble de l’industrie ». Pour la société, cet accord illustre dans tous les cas une « approche diversifiée qui utilise efficacement trois plateformes de puces : les TPU de Google, Trainium d’Amazon et les GPU de NVIDIA ».

AMD est pour le moment le grand absent de cette liste. OpenAI, qui multiplie aussi les partenariats, en a annoncé un avec le Texan, mais presque de seconde zone car il n’était pas question de superintelligence ou d’IA générale, contrairement aux annonces avec NVIDIA et Broadcom.

La lecture des communiqués d’Anthropic, Google ou même des précédents chez OpenAI et autres affiche un optimisme toujours rayonnant au sein de la tech américaine. Comme nous le relevions début octobre, on constate cependant un haut niveau de « consanguinité » dans les investissements : c’est toujours le même petit groupe d’entreprises, au sein duquel elles investissent les unes dans les autres, OpenAI et NVIDIA drainant des centaines de milliards de dollars. Certains analystes y voient le signe supplémentaire d’une bulle spéculative.

Le retour de la mesure en « GW de puissance »

Google indique qu’« Anthropic aura accès à plus d’un gigawatt de capacité qui sera mise en service en 2026 », une information qui réclame de grosses pincettes car elle ne veut pas dire grand-chose seule. Et même si on la combine avec 1 million de TPU, cela donnerait 1 000 watts par TPU. Un chiffre très élevé pour un seul TPU, dans l’ordre de grandeur des derniers GPU de NVIDIA.

Anthropic ajoute que cette capacité accrue lui permettra de répondre à « une demande de croissance exponentielle » tout en maintenant ses « modèles à la pointe de l’industrie ». « Ces ressources de calcul plus importantes permettront également d’effectuer des tests plus approfondis, des recherches d’alignement et un déploiement responsable à grande échelle », précise Anthropic.

Selon Google, ses TPU seront utilisés aussi bien pour l’entrainement des IA d’Anthropic que pour l’inférence. Dans son communiqué, Google ajoute qu’Anthropic aura aussi accès à « des services Google Cloud supplémentaires », mais sans dire lesquels.

La mémoire de Claude sort des entreprises

Dans sa guerre féroce contre OpenAI et son ChatGPT, Claude manquait d’une fonctionnalité ajoutée dans son concurrent en avril puis étendue en juin à l’ensemble des utilisateurs : la mémoire. Elle permet de retenir un nombre croissant d’informations jugées cruciales. L’exemple fourni par OpenAI était alors parlant : mentionner une allergie alimentaire afin que l’aliment concerné soit écarté des recettes. Sur Claude, la mémoire a fini par arriver en septembre, mais elle était réservée aux entreprises, via les abonnements Teams et Enterprise.

Dans un tweet, Anthropic annonce que la fonction est désormais disponible pour des abonnements plus « classiques » : d’abord pour les personnes ayant un abonnement Max (100 à 200 dollars par mois), puis ce sera au tour des abonnements Pro d’ici deux semaines.

La fonction elle-même n’a pas changé et se veut toujours tournée vers le travail d’équipe. Facultative, la fonction est censée retenir des paramètres importants et apprendre du contexte professionnel, particulièrement dans la gestion de projets. Claude crée des « souvenirs » spécifiques à chaque projet et doit permettre des gains de temps, les personnes concernées n’ayant a priori plus besoin de repréciser le contexte de leurs demandes.

  •  

☕️ Liquid Glass : Apple ralentit sur la transparence dans ses dernières bêtas

La sortie de Liquid Glass n’est pas passée inaperçue. La nouvelle interface d’Apple, unifiée et mettant largement l’accent sur l’effet verre et sa transparence, a provoqué bien des remous, de nombreuses discussions opposant ses fans à ses détracteurs.

Parmi les critiques, la plus courante est la baisse de lisibilité, qui entraine chez une partie de la clientèle des soucis d’accessibilité. C’est particulièrement vrai quand les systèmes affichent des textes blancs sur un panneau de verre et que l’arrière-plan est à dominante claire.

Ces retours étaient déjà nombreux pendant la phase bêta d’iOS 26 et macOS Tahoe. Apple a avancé par tâtonnement, mais a finalement laissé la transparence opérer à quasi plein régime dans les versions finales. Pourtant, dans les dernières bêtas 26.1 des systèmes, une option a fait son apparition. « Un rétropédalage annoncé », pour nos confrères d’iGen.

Ainsi, dans iOS 26.1, la section « Luminosité et affichage » gagne une nouvelle rubrique : Liquid Glass. Dans macOS 26.1, elle réside dans « Apparence », au sein des Réglages. Elle permet d’influer sur un seul paramètre : l’apparence des contrôles. On peut désormais choisir entre « Transparent » et « Teinté », le second réduisant fortement la transparence, que l’on soit en thème clair ou sombre.

Comme on peut le constater rapidement, la différence est marquée et les informations sont beaucoup plus lisibles. Le réglage rejaillit sur tous les contrôles ayant un « fond » : notifications, onglets, barres de contrôle et ainsi de suite. En revanche, le réglage ne change pas (encore ?) l’affichage du centre de contrôle.

  •