Nouvelle mouture pour l’utilitaire, qui sert pour rappel à créer des médias d’installation pour différents systèmes, Windows tout particulièrement.
Cette version 4.8 apporte un changement important en basculant sur wimlib. Cette bibliothèque, open source et multiplateforme, est spécialisée dans la manipulation des images WIM. Microsoft s’en sert par exemple pour sa propre image d’installation de Windows, elle-même au format ISO. Si la clé USB utilisée est décemment récente, les utilisateurs devraient constater une nette amélioration dans l’ouverture des images Windows, surtout dans la création de lecteurs Windows To Go.
Dans les notes de version, on peut lire aussi que Rufus est passé à des binaires Visual Studio partout à cause de certaines limitations avec MinGW, l’ajout d’exceptions pour certaines distributions Linux se limitant au mode de formatage DD (comme openSuse et Nobara), l’amélioration des rapports sur les bootloaders UEFI ainsi que quelques corrections de bugs.
Nouvelle mouture pour l’utilitaire, qui sert pour rappel à créer des médias d’installation pour différents systèmes, Windows tout particulièrement.
Cette version 4.8 apporte un changement important en basculant sur wimlib. Cette bibliothèque, open source et multiplateforme, est spécialisée dans la manipulation des images WIM. Microsoft s’en sert par exemple pour sa propre image d’installation de Windows, elle-même au format ISO. Si la clé USB utilisée est décemment récente, les utilisateurs devraient constater une nette amélioration dans l’ouverture des images Windows, surtout dans la création de lecteurs Windows To Go.
Dans les notes de version, on peut lire aussi que Rufus est passé à des binaires Visual Studio partout à cause de certaines limitations avec MinGW, l’ajout d’exceptions pour certaines distributions Linux se limitant au mode de formatage DD (comme openSuse et Nobara), l’amélioration des rapports sur les bootloaders UEFI ainsi que quelques corrections de bugs.
L’éditeur est surtout connu pour avoir tenté de réinventer le navigateur avec Arc. Le produit avait ses aficionados, mais Josh Miller, CEO de The Browser Company, a fini par annoncer fin mai qu’Arc allait être abandonné, car il n’avait pas rencontré de public assez large. Dans un billet, l’éditeur expliquait que bon nombre de leçons avaient été apprises – dont une courbe d’apprentissage trop exigeante – et qu’il allait en tirer parti dans son autre projet.
Cet autre projet, c’est Dia, désormais disponible en bêta privée. La priorité est donnée aux utilisateurs d’Arc, qui pourront inviter d’autres personnes s’ils le souhaitent. On peut également s’inscrire sur une liste d’attente pour recevoir une clé.
Il faut donc se contenter pour l’instant de la présentation de Dia sur son site dédié. On peut voir que le navigateur fait effectivement la part belle à l’IA, avec une page d’accueil centrée sur les requêtes. On peut s’en servir pour effectuer des tâches que l’on peut presque considérer comme courantes désormais : lancer une requête sur un sujet, interroger le navigateur sur les onglets ouverts, poser des questions générales, résumer les fichiers téléchargés, rédiger un brouillon à partir d’un onglet, etc.
Dia est également équipé de fonctions plus spécifiques. Par exemple, History autorise le navigateur à puiser dans l’historique des sept derniers jours pour y trouver du contexte. Les SKills permettent de créer des raccourcis vers des paramètres ou pour effectuer des actions, par exemple pour créer une mise en page spécifique sur un site. On peut également relier des conditions et des actions, à la manière des Raccourcis sur les plateformes Apple.
Mais, comme le rappelle TechCrunch, Dia n’est pas le seul navigateur à s’être lancé à cœur perdu dans l’IA générative. Opera a lancé son propre Neon (là aussi en bêta privée) et avait dégainé le premier des fonctions liées, notamment via des agents pour effectuer diverses tâches, jusqu’à créer de petites applications. Les grands navigateurs historiques n’ont pas encore basculé, mais ils ajoutent par petites touches des fonctions dopées à l’IA, parfois via d’autres composants. Les acteurs de l’IA aimeraient également leur propre navigateur, comme on l’a vu en avril avec OpenAI et Perplexity, qui se disaient prêts à racheter Chrome.
L’éditeur est surtout connu pour avoir tenté de réinventer le navigateur avec Arc. Le produit avait ses aficionados, mais Josh Miller, CEO de The Browser Company, a fini par annoncer fin mai qu’Arc allait être abandonné, car il n’avait pas rencontré de public assez large. Dans un billet, l’éditeur expliquait que bon nombre de leçons avaient été apprises – dont une courbe d’apprentissage trop exigeante – et qu’il allait en tirer parti dans son autre projet.
Cet autre projet, c’est Dia, désormais disponible en bêta privée. La priorité est donnée aux utilisateurs d’Arc, qui pourront inviter d’autres personnes s’ils le souhaitent. On peut également s’inscrire sur une liste d’attente pour recevoir une clé.
Il faut donc se contenter pour l’instant de la présentation de Dia sur son site dédié. On peut voir que le navigateur fait effectivement la part belle à l’IA, avec une page d’accueil centrée sur les requêtes. On peut s’en servir pour effectuer des tâches que l’on peut presque considérer comme courantes désormais : lancer une requête sur un sujet, interroger le navigateur sur les onglets ouverts, poser des questions générales, résumer les fichiers téléchargés, rédiger un brouillon à partir d’un onglet, etc.
Dia est également équipé de fonctions plus spécifiques. Par exemple, History autorise le navigateur à puiser dans l’historique des sept derniers jours pour y trouver du contexte. Les SKills permettent de créer des raccourcis vers des paramètres ou pour effectuer des actions, par exemple pour créer une mise en page spécifique sur un site. On peut également relier des conditions et des actions, à la manière des Raccourcis sur les plateformes Apple.
Mais, comme le rappelle TechCrunch, Dia n’est pas le seul navigateur à s’être lancé à cœur perdu dans l’IA générative. Opera a lancé son propre Neon (là aussi en bêta privée) et avait dégainé le premier des fonctions liées, notamment via des agents pour effectuer diverses tâches, jusqu’à créer de petites applications. Les grands navigateurs historiques n’ont pas encore basculé, mais ils ajoutent par petites touches des fonctions dopées à l’IA, parfois via d’autres composants. Les acteurs de l’IA aimeraient également leur propre navigateur, comme on l’a vu en avril avec OpenAI et Perplexity, qui se disaient prêts à racheter Chrome.
Soirée chargée hier pour OpenAI, avec plusieurs annonces importantes sur ses modèles. La principale était la disponibilité d’o3 Pro, son nouveau modèle de raisonnement. Les tarifs du modèle o3 ont en parallèle été sérieusement rabotés. Et alors que Sam Altman redit tout le bien qu’il pense de l’IA générative, l’entreprise se serait rapprochée de Google pour diversifier ses ressources cloud.
Alors que Mistral vient de lancer ses deux premiers modèles de raisonnement Magistral, OpenAI a dégainé le même jour un nouveau concurrent. Nommé o3-pro, il s’agit d’une version survitaminée du premier modèle o3.
Sans surprise, cette version Pro fait mieux que tous les modèles lancés par l’entreprise jusqu’ici. Dans les résultats fournis par OpenAI, on le voit ainsi dépasser – parfois très largement – les performances d’o1 Pro. En conséquence, o3-pro va remplacer l’ancien modèle dans ChatGPT, puisqu’il donne de meilleurs résultats dans tous les cas de figure, vante l’entreprise.
o3-pro prend la place d’o1-pro
C’est particulièrement vrai dans des domaines comme les sciences, l’éducation, la programmation, la finance et l’aide à la rédaction. Selon des tests menés sur un groupe de personnes en interne, il ferait également mieux en matière de clarté, d’exhaustivité, de suivi des instructions et d’exactitude. En bref, le type d’amélioration que l’on est en droit d’attendre d’une nouvelle version d’un modèle de raisonnement.
o3-pro dispose également d’un autre avantage important par rapport à son prédécesseur : il est compatible avec les outils de ChatGPT. « Il peut faire des recherches sur le Web, analyser des fichiers, raisonner sur des entrées visuelles, utiliser Python, personnaliser des réponses en utilisant la mémoire, et plus encore », explique OpenAI.
Conséquence, si les réponses sont plus précises et peuvent s’appliquer à davantage de situations, elles prennent aussi plus de temps. L’entreprise recommande d’utiliser o3-pro dans les cas où la fiabilité devient plus importante que la rapidité « et où quelques minutes d’attente valent la peine ». Une curieuse recommandation, faisant peser des doutes sur la fiabilité des réponses plus rapides.
Il existe également plusieurs limitations. D’une part, un problème technique empêche pour l’instant o3-pro de prendre en charge les chats temporaires. D’autre part, la génération d’images ne fait pas partie des attributions du nouveau modèle. Pour cette dernière, il faut se tourner vers GPT-4o, o3 ou o4-mini. Enfin, Canvas n’est pas non plus supporté.
o3-pro dispose d’une fenêtre contextuelle de 200 000 jetons. Ses tarifs sont de 20 dollars par million de jetons en entrée et 80 dollars en sortie. Le modèle est donc assez onéreux. Son utilisation ne peut pour l’instant se faire que via les abonnements ChatGPT Pro et Team. Les formules Enterprise et Edu l’auront la semaine prochaine.
OpenAI casse les prix d’o3
Puisque l’on parle de tarification, signalons un important changement pour o3 dans sa version classique. Lancé en avril et présentant alors les meilleurs résultats de tous les modèles d’OpenAI, son utilisation est restée limitée.
La faute à des tarifs élevés pour ce type de modèle dans la catégorie « medium » : 10 dollars en entrée et 40 dollars en sortie. o3 s’est très vite retrouvé en compétition avec d’autres modèles, et la comparaison n’était guère flatteuse. Chez Google, Gemini 2.5 Pro faisait par exemple presque jeu égale dans les capacités, tout en étant beaucoup moins cher (1,25 et 10 dollars respectivement). Claude Sonnet 3.7, lui, était dans la même fourchette tarifaire, mais faisait mieux.
OpenAI a donc annoncé hier soir une baisse de 80 % dans les deux sens. Les nouveaux tarifs sont ainsi de 2 dollars par million de jetons en entrée et 8 dollars par million de jetons en sortie.
Rapprochement avec Google
Si l’on en croit Reuters, OpenAI s’est également beaucoup rapprochée de Google ces derniers mois. Les deux entreprises seraient en discussions depuis longtemps, dans l’optique d’augmenter les capacités de calcul dont OpenAI a tant besoin.
Selon nos confrères, un accord aurait été trouvé en mai, bien qu’aucune des deux entreprises n’ait encore fait d’annonce à ce sujet. La question de l’accord avec Microsoft n’aurait pas été un problème, OpenAI ayant un partenariat révisé depuis les prémices du projet Stargate. Ce dernier, qui pourrait se voir doter d’un projet de 500 milliards de dollars, prévoit en effet qu’OpenAI sera au centre d’une immense infrastructure, à laquelle Microsoft ne participe pas.
Reuters, sûr de ses sources, affirme que cet accord a quelque peu surpris nombre d’observateurs. ChatGPT a été considéré comme le plus grand coup de pioche dans les activités historiques de Google depuis la création du moteur de recherche. En outre, si le partenariat peut être vu comme une grande victoire pour Google Cloud – toujours loin derrière AWS et Azure – c’est en revanche une autre affaire pour la division IA du géant.
Selon plusieurs sources, l’accord était en projet depuis un bon moment. OpenAI chercherait activement à réduire sa dépendance à Microsoft. Le père de ChatGPT se serait particulièrement intéressé à la puce TPU de Google, quand bien même il développe actuellement sa propre puce. Ce type de développement est d’ailleurs en plein essor, y compris chez Microsoft, pour réduire une dépendance vive à NVIDIA.
Pendant ce temps, chez Sam Altman
Le CEO d’OpenAI a publié cette nuit un billet dans lequel il le redit : la singularité n’est plus loin. Il parle d’ailleurs de « singularité douce ». En somme, la « superintelligence numérique » est toujours à l’horizon, mais la transition vers ce miracle technologique va se faire progressivement.
Pour Altman, c’est une question quasi mathématique. Selon lui, de nombreux scientifiques témoigneraient déjà de gains conséquents de productivité. Grâce à l’IA, des produits plus puissants seraient créés, permettant à leur tour des avancées scientifiques, qui à leur tour permettent une évolution des outils. Un cercle vertueux qui ne pourrait aboutir qu’à une amélioration générale de la qualité de vie.
Altman donne également quelques informations sur la consommation moyenne d’une requête à ChatGPT. Selon le CEO, elle serait de 0,34 Wh pour l’électricité et d’un « quinzième de cuillère à café » d’eau. « Au fur et à mesure que la production des centres de données s’automatise, le coût de l’intelligence devrait finir par se rapprocher du coût de l’électricité », affirme-t-il.
« Le rythme auquel de nouvelles merveilles seront réalisées sera immense. Il est difficile d’imaginer aujourd’hui ce que nous aurons découvert en 2035 ; nous passerons peut-être de la résolution des problèmes de physique des hautes énergies une année au début de la colonisation de l’espace l’année suivante ; ou d’une percée majeure dans la science des matériaux une année à de véritables interfaces cerveau-ordinateur à large bande passante l’année suivante ».
Il évoque quand même deux problèmes loin d’être résolus. D’abord l’alignement, c’est-à-dire l’assurance que l’IA va dans le même sens « ce que nous voulons vraiment collectivement à long terme ». Il cite en exemple les algorithmes des médias sociaux, selon un cas classique d’IA mal alignée puisqu’elle troque le long terme pour une préférence à court terme. Ensuite, il faudra rendre cette superintelligence « bon marché, largement disponible et pas trop concentrée sur une personne, une entreprise ou un pays ».
Soirée chargée hier pour OpenAI, avec plusieurs annonces importantes sur ses modèles. La principale était la disponibilité d’o3 Pro, son nouveau modèle de raisonnement. Les tarifs du modèle o3 ont en parallèle été sérieusement rabotés. Et alors que Sam Altman redit tout le bien qu’il pense de l’IA générative, l’entreprise se serait rapprochée de Google pour diversifier ses ressources cloud.
Alors que Mistral vient de lancer ses deux premiers modèles de raisonnement Magistral, OpenAI a dégainé le même jour un nouveau concurrent. Nommé o3-pro, il s’agit d’une version survitaminée du premier modèle o3.
Sans surprise, cette version Pro fait mieux que tous les modèles lancés par l’entreprise jusqu’ici. Dans les résultats fournis par OpenAI, on le voit ainsi dépasser – parfois très largement – les performances d’o1 Pro. En conséquence, o3-pro va remplacer l’ancien modèle dans ChatGPT, puisqu’il donne de meilleurs résultats dans tous les cas de figure, vante l’entreprise.
o3-pro prend la place d’o1-pro
C’est particulièrement vrai dans des domaines comme les sciences, l’éducation, la programmation, la finance et l’aide à la rédaction. Selon des tests menés sur un groupe de personnes en interne, il ferait également mieux en matière de clarté, d’exhaustivité, de suivi des instructions et d’exactitude. En bref, le type d’amélioration que l’on est en droit d’attendre d’une nouvelle version d’un modèle de raisonnement.
o3-pro dispose également d’un autre avantage important par rapport à son prédécesseur : il est compatible avec les outils de ChatGPT. « Il peut faire des recherches sur le Web, analyser des fichiers, raisonner sur des entrées visuelles, utiliser Python, personnaliser des réponses en utilisant la mémoire, et plus encore », explique OpenAI.
Conséquence, si les réponses sont plus précises et peuvent s’appliquer à davantage de situations, elles prennent aussi plus de temps. L’entreprise recommande d’utiliser o3-pro dans les cas où la fiabilité devient plus importante que la rapidité « et où quelques minutes d’attente valent la peine ». Une curieuse recommandation, faisant peser des doutes sur la fiabilité des réponses plus rapides.
Il existe également plusieurs limitations. D’une part, un problème technique empêche pour l’instant o3-pro de prendre en charge les chats temporaires. D’autre part, la génération d’images ne fait pas partie des attributions du nouveau modèle. Pour cette dernière, il faut se tourner vers GPT-4o, o3 ou o4-mini. Enfin, Canvas n’est pas non plus supporté.
o3-pro dispose d’une fenêtre contextuelle de 200 000 jetons. Ses tarifs sont de 20 dollars par million de jetons en entrée et 80 dollars en sortie. Le modèle est donc assez onéreux. Son utilisation ne peut pour l’instant se faire que via les abonnements ChatGPT Pro et Team. Les formules Enterprise et Edu l’auront la semaine prochaine.
OpenAI casse les prix d’o3
Puisque l’on parle de tarification, signalons un important changement pour o3 dans sa version classique. Lancé en avril et présentant alors les meilleurs résultats de tous les modèles d’OpenAI, son utilisation est restée limitée.
La faute à des tarifs élevés pour ce type de modèle dans la catégorie « medium » : 10 dollars en entrée et 40 dollars en sortie. o3 s’est très vite retrouvé en compétition avec d’autres modèles, et la comparaison n’était guère flatteuse. Chez Google, Gemini 2.5 Pro faisait par exemple presque jeu égale dans les capacités, tout en étant beaucoup moins cher (1,25 et 10 dollars respectivement). Claude Sonnet 3.7, lui, était dans la même fourchette tarifaire, mais faisait mieux.
OpenAI a donc annoncé hier soir une baisse de 80 % dans les deux sens. Les nouveaux tarifs sont ainsi de 2 dollars par million de jetons en entrée et 8 dollars par million de jetons en sortie.
Rapprochement avec Google
Si l’on en croit Reuters, OpenAI s’est également beaucoup rapprochée de Google ces derniers mois. Les deux entreprises seraient en discussions depuis longtemps, dans l’optique d’augmenter les capacités de calcul dont OpenAI a tant besoin.
Selon nos confrères, un accord aurait été trouvé en mai, bien qu’aucune des deux entreprises n’ait encore fait d’annonce à ce sujet. La question de l’accord avec Microsoft n’aurait pas été un problème, OpenAI ayant un partenariat révisé depuis les prémices du projet Stargate. Ce dernier, qui pourrait se voir doter d’un projet de 500 milliards de dollars, prévoit en effet qu’OpenAI sera au centre d’une immense infrastructure, à laquelle Microsoft ne participe pas.
Reuters, sûr de ses sources, affirme que cet accord a quelque peu surpris nombre d’observateurs. ChatGPT a été considéré comme le plus grand coup de pioche dans les activités historiques de Google depuis la création du moteur de recherche. En outre, si le partenariat peut être vu comme une grande victoire pour Google Cloud – toujours loin derrière AWS et Azure – c’est en revanche une autre affaire pour la division IA du géant.
Selon plusieurs sources, l’accord était en projet depuis un bon moment. OpenAI chercherait activement à réduire sa dépendance à Microsoft. Le père de ChatGPT se serait particulièrement intéressé à la puce TPU de Google, quand bien même il développe actuellement sa propre puce. Ce type de développement est d’ailleurs en plein essor, y compris chez Microsoft, pour réduire une dépendance vive à NVIDIA.
Pendant ce temps, chez Sam Altman
Le CEO d’OpenAI a publié cette nuit un billet dans lequel il le redit : la singularité n’est plus loin. Il parle d’ailleurs de « singularité douce ». En somme, la « superintelligence numérique » est toujours à l’horizon, mais la transition vers ce miracle technologique va se faire progressivement.
Pour Altman, c’est une question quasi mathématique. Selon lui, de nombreux scientifiques témoigneraient déjà de gains conséquents de productivité. Grâce à l’IA, des produits plus puissants seraient créés, permettant à leur tour des avancées scientifiques, qui à leur tour permettent une évolution des outils. Un cercle vertueux qui ne pourrait aboutir qu’à une amélioration générale de la qualité de vie.
Altman donne également quelques informations sur la consommation moyenne d’une requête à ChatGPT. Selon le CEO, elle serait de 0,34 Wh pour l’électricité et d’un « quinzième de cuillère à café » d’eau. « Au fur et à mesure que la production des centres de données s’automatise, le coût de l’intelligence devrait finir par se rapprocher du coût de l’électricité », affirme-t-il.
« Le rythme auquel de nouvelles merveilles seront réalisées sera immense. Il est difficile d’imaginer aujourd’hui ce que nous aurons découvert en 2035 ; nous passerons peut-être de la résolution des problèmes de physique des hautes énergies une année au début de la colonisation de l’espace l’année suivante ; ou d’une percée majeure dans la science des matériaux une année à de véritables interfaces cerveau-ordinateur à large bande passante l’année suivante ».
Il évoque quand même deux problèmes loin d’être résolus. D’abord l’alignement, c’est-à-dire l’assurance que l’IA va dans le même sens « ce que nous voulons vraiment collectivement à long terme ». Il cite en exemple les algorithmes des médias sociaux, selon un cas classique d’IA mal alignée puisqu’elle troque le long terme pour une préférence à court terme. Ensuite, il faudra rendre cette superintelligence « bon marché, largement disponible et pas trop concentrée sur une personne, une entreprise ou un pays ».
La décision n’est pas totalement une surprise. GNOME a récemment annoncé son intention de couper le support du serveur graphique dans sa prochaine version 49. Dans les plans actuels, GNOME 50 supprimerait définitivement tout le code lié à X11.
GNOME 49 devrait être finalisé pour le 17 septembre. À cette date, cela signifie une inclusion dans les deux distributions majeures que sont Ubuntu et Fedora. Puisque Ubuntu 25.10 embarquera le nouveau GNOME, Canonical a décidé de jouer le jeu et ne proposera plus de session GNOME basée sur X11. À noter que le support de X11 sera maintenu pour les applications, à travers XWayland.
« Au cours des derniers cycles, l’expérience Wayland a considérablement évolué, notamment en améliorant la prise en charge des pilotes NVIDIA, en offrant un modèle de sécurité plus robuste, une prise en charge stable de la plupart des flux de travail quotidiens, une meilleure isolation de la pile graphique et une meilleure prise en charge du tactile et du hiDPI », explique Jean-Baptiste Lallement, ingénieur logiciel en chef chez Canonical.
L’ingénieur explique que la maintenance des deux types de session en parallèle (X11 et Wayland) « introduit une dette technique » et augmente mathématiquement la charge.
Comme nous l’indiquions en mai, la dernière version d’Ubuntu avant la prochaine LTS (Long Term Support) est toujours importante. Canonical se dépêche d’introduire autant de modifications que possible, afin qu’elles passent l’épreuve du temps et soient davantage éprouvées lorsque la LTS survient. Ces versions étant maintenues 5 ans – et même 12 ans avec Ubuntu Pro – elles sont prévues pour rester installées sur de longues périodes.
L’entreprise française a lancé hier ses deux premiers modèles de raisonnement. Nommés Magistral Small et Magistral Medium, ils ont été copieusement comparés au modèle chinois DeepSeek R1. Rappelons que les modèles dits de « raisonnement » décomposent les problèmes en étapes successives dont les résultats sont contrôlés. La précision est donc supérieure, au prix d’un traitement plus long et d’une consommation plus importante.
Le premier, Magistral Small, est un modèle open source de 24 milliards de paramètres. Il est déjà téléchargeable sur Hugging Face, sous licence Apache 2.0. Medium, quant à lui, est la nouvelle star de l’entreprise. Il n’est pour l’instant disponible que sous forme de préversion à travers l’API officielle et Le Chat.
Magistral Medium vise surtout les entreprises. Il a été entrainé spécifiquement, selon Mistral, pour les tâches en lien avec les lois, la finance et l’ingénierie. Magistral Medium dispose d’un vaste support multilingue, prenant en charge l’anglais, le français, l’espagnol, l’allemand, l’italien, l’arabe, le russe et le chinois simplifié. Medium propose également un mode « Flash Answers », capable de répondre 10 fois plus vite, au prix bien sûr de la précision. Le modèle sera prochainement disponible sur Amazon SageMaker, IBM WatsonX, Azure AI et Google Cloud Marketplace.
« S’appuyant sur nos modèles phares, Magistral est conçu pour la recherche, la planification stratégique, l’optimisation opérationnelle et la prise de décision fondée sur des données – qu’il s’agisse d’évaluer les risques et de modéliser avec de multiples facteurs ou de calculer les fenêtres de livraison optimales en fonction des contraintes », explique Mistral.
Ces deux nouveaux modèles ne semblent pas briller par des performances supérieures à la concurrence. Dans ses graphiques, Magistral fait dans les grandes lignes jeu égale avec DeepSeek R1. Cependant, d’après les propres scores donnés par Mistral, Magistral Medium fait moins bien que Gemini 2.5 Pro et le récent Claude Opus 4.
La décision n’est pas totalement une surprise. GNOME a récemment annoncé son intention de couper le support du serveur graphique dans sa prochaine version 49. Dans les plans actuels, GNOME 50 supprimerait définitivement tout le code lié à X11.
GNOME 49 devrait être finalisé pour le 17 septembre. À cette date, cela signifie une inclusion dans les deux distributions majeures que sont Ubuntu et Fedora. Puisque Ubuntu 25.10 embarquera le nouveau GNOME, Canonical a décidé de jouer le jeu et ne proposera plus de session GNOME basée sur X11. À noter que le support de X11 sera maintenu pour les applications, à travers XWayland.
« Au cours des derniers cycles, l’expérience Wayland a considérablement évolué, notamment en améliorant la prise en charge des pilotes NVIDIA, en offrant un modèle de sécurité plus robuste, une prise en charge stable de la plupart des flux de travail quotidiens, une meilleure isolation de la pile graphique et une meilleure prise en charge du tactile et du hiDPI », explique Jean-Baptiste Lallement, ingénieur logiciel en chef chez Canonical.
L’ingénieur explique que la maintenance des deux types de session en parallèle (X11 et Wayland) « introduit une dette technique » et augmente mathématiquement la charge.
Comme nous l’indiquions en mai, la dernière version d’Ubuntu avant la prochaine LTS (Long Term Support) est toujours importante. Canonical se dépêche d’introduire autant de modifications que possible, afin qu’elles passent l’épreuve du temps et soient davantage éprouvées lorsque la LTS survient. Ces versions étant maintenues 5 ans – et même 12 ans avec Ubuntu Pro – elles sont prévues pour rester installées sur de longues périodes.
L’entreprise française a lancé hier ses deux premiers modèles de raisonnement. Nommés Magistral Small et Magistral Medium, ils ont été copieusement comparés au modèle chinois DeepSeek R1. Rappelons que les modèles dits de « raisonnement » décomposent les problèmes en étapes successives dont les résultats sont contrôlés. La précision est donc supérieure, au prix d’un traitement plus long et d’une consommation plus importante.
Le premier, Magistral Small, est un modèle open source de 24 milliards de paramètres. Il est déjà téléchargeable sur Hugging Face, sous licence Apache 2.0. Medium, quant à lui, est la nouvelle star de l’entreprise. Il n’est pour l’instant disponible que sous forme de préversion à travers l’API officielle et Le Chat.
Magistral Medium vise surtout les entreprises. Il a été entrainé spécifiquement, selon Mistral, pour les tâches en lien avec les lois, la finance et l’ingénierie. Magistral Medium dispose d’un vaste support multilingue, prenant en charge l’anglais, le français, l’espagnol, l’allemand, l’italien, l’arabe, le russe et le chinois simplifié. Medium propose également un mode « Flash Answers », capable de répondre 10 fois plus vite, au prix bien sûr de la précision. Le modèle sera prochainement disponible sur Amazon SageMaker, IBM WatsonX, Azure AI et Google Cloud Marketplace.
« S’appuyant sur nos modèles phares, Magistral est conçu pour la recherche, la planification stratégique, l’optimisation opérationnelle et la prise de décision fondée sur des données – qu’il s’agisse d’évaluer les risques et de modéliser avec de multiples facteurs ou de calculer les fenêtres de livraison optimales en fonction des contraintes », explique Mistral.
Ces deux nouveaux modèles ne semblent pas briller par des performances supérieures à la concurrence. Dans ses graphiques, Magistral fait dans les grandes lignes jeu égal avec DeepSeek R1. Cependant, d’après les propres scores donnés par Mistral, Magistral Medium fait moins bien que Gemini 2.5 Pro et le récent Claude Opus 4.
Google a annoncé hier soir le déploiement de la nouvelle version d’Android à l’ensemble de ses smartphones Pixel compatibles. Pour recevoir la mise à jour, il faut avoir au moins un modèle de la série 6 ou un Pixel Fold. La diffusion est mondiale et la nouvelle version devrait être disponible dès à présent.
Android 16 signe le lancement du nouveau langage visuel de Google, nommé Material 3 Expressive. Si les annonces d’Apple autour de son Liquid Glass ont divisé, la vision de Google n’est pas sans créer quelques remous également. Il s’agit pour l’instant des éléments de base, Google précisant que sa nouvelle identité se répandra progressivement dans toutes ses applications d’ici la fin de l’année.
Si le nouvel Android embarque moins de nouveautés visibles que les années précédentes (hors renouvellement de l’interface), il y a plusieurs améliorations notables. Le système récupère par exemple un équivalent des Activités en direct d’Apple, qui permettent d’afficher sur l’écran verrouillé des informations « live » sur un processus, comme la livraison d’un produit ou l’arrivée d’un VTC.
Android 16 peut grouper automatiquement les notifications provenant d’une même application, en les réunissant au sein d’un même encadré, avec possibilité de revenir à la liste complète. La nouvelle version apporte aussi des améliorations comme le taux de rafraîchissement adaptatif et le support du HDR dans les captures d’écran.
Android 16 démocratise également la Protection avancée de Google. Ce mécanisme, à l’instar de ce que l’on trouve sur les appareils Apple, permet de bloquer certains mécanismes et de réduire la surface d’attaque. Il s’agit désormais d’une simple option à activer dans les paramètres du système. Ce mode active tous les mécanismes de protection d’Android et de contrôle des applications tierces et empêche leur désactivation. C’est avec cette Protection avancée que le fameux redémarrage intervient au bout de 72 heures passées sans déverrouillage de l’écran, pour rebasculer l’appareil en état initial avant le premier déverrouillage.
À noter également une meilleure prise en charge des prothèses auditives. La voix devrait être plus claire dans les environnements bruyants et une commande native pour les appareils fait son apparition dans le système. « Cela signifie que vous pouvez désormais contrôler des éléments tels que le volume de vos appareils auditifs directement à partir de votre téléphone Android », indique Google.
Premières briques pour un mode bureau
Certaines nouveautés sont majeures. Par exemple, Google a travaillé avec Samsung pour donner – pour la première fois – un bureau à Android. Samsung dispose en effet d’une belle expérience dans ce domaine avec sa technologie DeX, en place depuis des années.
Cette version d’Android 16 ne contient que les bases de cette fonctionnalité, qui sera complétée plus tard dans l’année, probablement avec la version QPR1 du système cet automne. Notez que Google parle surtout pour l’instant de « productivité accrue pour les tablettes », alors que le DeX de Samsung vise surtout la connexion à des écrans pour créer un environnement de type ordinateur. Google, pour sa part, évoque cette capacité pour « les prochaines versions d’Android », sans plus de précision.
Les captures montées par Google montrent cependant le potentiel d’Android 16, avec une adaptation des applications en fenêtres et surtout une vraie barre des tâches étendue. L’entreprise a tout intérêt à frapper fort, car Apple a présenté lundi soir son nouveau système de fenêtrage pour iPadOS 26, qui reprend dans les grandes lignes les mêmes capacités que sur macOS, jusqu’à la disposition automatique des fenêtres et le mode Exposé.
Fin mai, Mozilla annonçait plusieurs mauvaises nouvelles. D’abord, la fermeture à venir pour le gestionnaire de favoris Pocket, service que l’éditeur avait pourtant racheté quelques années plus tôt. Fakespot ensuite, également racheté par Mozilla, visait la détection des faux avis sur les sites de commerce en ligne.
Mais Neowin a repéré d’autres fermetures prochaines. C’est surtout le cas d’Orbit, que Mozilla avait lancé pour fournir certaines capacités d’IA générative avec une approche plus respectueuse de la vie privée. Orbit devait ainsi résumer des e-mails, documents, articles et autres, sans réclamer de compte ou garder d’informations en réserve. Le service pouvait même s’occuper des vidéos.
Comme l’indique un bandeau jaune en haut de la page, Orbit fermera ses portes le 26 juin. Mozilla remercie au passage les personnes l’ayant soutenu dans sa démarche. Comme l’indique Neowin, on peut remplacer fonctionnellement Orbit par la barre latérale de Firefox et sa possibilité d’épingler d’autres services de GenIA, mais au détriment de la vie privée.
L’autre fermeture est celle de Deep Fake Detector. Cette extension a été créée pour repérer si un texte avait des chances d’avoir été écrit par une IA générative. Elle aussi disparaitra le 26 juin. Notez que si Mozilla renonce à son extension, ce n’est pas le cas pour la nôtre. Celle-ci permet d’afficher un message d’alerte sur les sites d’info générés par IA (GenAI), dont le nombre vient de dépasser le cap des 4 000.
Fin mai, Mozilla annonçait plusieurs mauvaises nouvelles. D’abord, la fermeture à venir pour le gestionnaire de favoris Pocket, service que l’éditeur avait pourtant racheté quelques années plus tôt. Fakespot ensuite, également racheté par Mozilla, visait la détection des faux avis sur les sites de commerce en ligne.
Mais Neowin a repéré d’autres fermetures prochaines. C’est surtout le cas d’Orbit, que Mozilla avait lancé pour fournir certaines capacités d’IA générative avec une approche plus respectueuse de la vie privée. Orbit devait ainsi résumer des e-mails, documents, articles et autres, sans réclamer de compte ou garder d’informations en réserve. Le service pouvait même s’occuper des vidéos.
Comme l’indique un bandeau jaune en haut de la page, Orbit fermera ses portes le 26 juin. Mozilla remercie au passage les personnes l’ayant soutenu dans sa démarche. Comme l’indique Neowin, on peut remplacer fonctionnellement Orbit par la barre latérale de Firefox et sa possibilité d’épingler d’autres services de GenIA, mais au détriment de la vie privée.
L’autre fermeture est celle de Deep Fake Detector. Cette extension a été créée pour repérer si un texte avait des chances d’avoir été écrit par une IA générative. Elle aussi disparaitra le 26 juin. Notez que si Mozilla renonce à son extension, ce n’est pas le cas pour la nôtre. Celle-ci permet d’afficher un message d’alerte sur les sites d’info générés par IA (GenAI), dont le nombre vient de dépasser le cap des 4 000.
Après les temps forts de la WWDC, nous nous penchons sur le reste des apports et sur la compatibilité des nouveaux systèmes. Les versions 26 sont clairement marquées par une grande uniformité dans les fonctions, renforcée par le langage visuel Liquid Glass. Dans l’ensemble cependant, la WWDC 2025 n’a pas brillé par le nombre de ses nouveautés.
Précisons d’emblée que toutes les bêtas sont disponibles depuis hier soir. Nous ne recommandons cependant pas leur installation, car il s’agit des premières préversions dédiées aux développeurs. Mieux vaut attendre les bêtas publiques, qui arriveront comme d’habitude en juillet. Si vous avez hâte de tester les nouveautés, cela donnera au moins le temps à Apple de corriger les bugs principaux (et il y en a).
Parlons d’abord compatibilité. iOS 26 réclamera au moins un iPhone 11 pour fonctionner. Traduction, les iPhone XS, XS Max et XR ne seront plus pris en charge et resteront sur iOS 18. Précisons également que pour Apple Intelligence, la situation est identique à l’année dernière : il faut avoir au moins un iPhone 15 Pro pour s’en servir, tous les appareils ayant moins de 8 Go de mémoire étant incompatibles.
On ne reviendra pas sur Liquid Glass, qui a occupé une bonne partie de la conférence. En revanche, Apple a présenté de nombreuses nouveautés, dont l’importance varie. Sur Apple Intelligence par exemple, on note quelques apports : la traduction automatique dans Message et Téléphone (mais uniquement à destination de l’anglais pour l’instant), la possibilité de déclencher Visual Intelligence depuis une capture d’écran, ou encore la possibilité pour les applications tierces de se servir des modèles présents sur le téléphone. Dans tous les cas, il s’agit de fonctions locales. Pour la traduction, cela induit une petite latence, mais rien n’est envoyé sur des serveurs distants.
Messages reçoit également plusieurs améliorations, comme les indicateurs d’écriture dans les groupes, la possibilité d’afficher un fond d’écran pour chaque conversation ou encore la création de sondages. Apple Music se dote de quelques nouveautés sympathiques, comme AutoMix, fonctionnant à la manière d’un DJ pour fluidifier le passage entre les titres. Mais on retiendra la possibilité de traduire les paroles d’une chanson et surtout une aide à la prononciation.
On retrouve çà et là des fonctions vues ailleurs, comme la personnalisation des dossiers dans Fichiers et l’arrivée d’Aperçu pour lire et annoter les PDF. iOS 26 reçoit aussi une nouvelle application : Games. Apple retente sa chance avec un lieu dédié aux jeux, avec contacts, organisation de compétition, comparaison de scores et ainsi de suite. L’ensemble est compatible avec les jeux commercialisés sur l’App Store, le service mettant bien sûr Arcade en avant.
Enfin, Apple avoue sans le dire son échec avec la nouvelle application Photos introduite dans iOS 18. Elle remet donc en place des onglets pour passer de la pellicule aux collections. Ces dernières sont davantage personnalisables et l’on peut d’ailleurs les épingler pour faciliter l’accès.
iPadOS 26 tire son épingle du jeu
Le système pour tablettes d’Apple est la star imprévue du show, grâce à son système de fenêtrage qui le rapproche d’un coup des Mac. Comme pour iOS 26, peu d’appareils sont abandonnés. Il n’y en a en fait qu’un : l’iPad classique de 7e génération. Et comme sur l’iPhone, la compatibilité avec Apple Intelligence reste limitée aux appareils ayant au moins 8 Go de mémoire : tous les modèles équipés d’une puce M et le dernier iPad mini.
Nous avons déjà eu les nouveautés principales du système : Liquid Glass, les fenêtres, le nouveau Fichiers, Aperçu, Téléphone ou encore Games, puisque l’application est disponible sur toutes les plateformes. L’iPad se retrouve dépositaire de la quasi-totalité des nouveautés annoncées pour iOS et macOS.
macOS Tahoe : le dernier pour les Mac Intel
Niveau compatibilité, le nouveau macOS ne fait pas bouger les lignes. Les quatre Mac Intel encore compatible avec Sequoia (MacBook Pro 16 pouces 2019, MacBook Pro 13 pouces 2020, iMac 2020 et Mac Pro 2019) pourront installer Tahoe. Mais les utilisateurs sont prévenus : c’est la dernière fois, et macOS 27 ne fonctionnera que sur des Mac équipés de puces Apple Silicon.
Cette nouvelle est accompagnée d’une autre, liée : Rosetta 2 sera encore présent dans macOS 27, mais plus après. Le composant, qui assure une compatibilité avec les applications Intel via l’émulation, n’a donc qu’un peu plus de deux ans à vivre. Cela devrait donner assez de temps aux retardataires. Steam par exemple, alors que la presque totalité du parc logiciel a migré il y a déjà plusieurs années.
Comme pour iPadOS, nous avons déjà abordé les points forts de Tahoe. Le nouveau macOS contient cependant quelques autres nouveautés. Metal par exemple, l’API dédiée à l’accélération graphique, passe en version 4. Elle se dote de nouvelles capacités comme MetalFX Frame Interpolation et MetalFX Denoising. Tahoe récupère également l’application Journal, jusqu’ici cantonnée à l’iPhone.
Étrangement, cette année, Apple n’avait pratiquement rien à dire sur Safari. Le navigateur n’a été abordé que durant les explications sur Liquid Glass.
Et pour le reste ?
Les nouveautés annoncées pour les autres plateformes sont plus légères. Côté watchOS par exemple, on note quelques apports pratiques. Par exemple, la possibilité de faire une rotation rapide du poignet pour supprimer une notification. La Pile intelligente se veut plus utile en tenant davantage compte du contexte pour proposer des actions. Dans Messages, des actions peuvent aussi être suggérées selon le contexte, comme le partage d’une position. watchOS 26 pourra s’installer sur tous les modèles ayant actuellement la dernière version stable du système.
tvOS 26 ne chamboulera pas les habitudes, même s’il y a un peu plus « à manger » que les années précédentes. L’essentiel des changements se concentre dans Liquid Glass, mais quelques fonctions ont réussi à se glisser dans le lot. Par exemple, la connexion automatique aux services, si les applications ont autorisé la jonction des comptes à celui d’Apple. Outre divers nouveaux designs, comme pour FaceTime et les jaquettes, tvOS 26 permet d’utiliser l’iPhone comme un micro pour chanter en karaoké, les invités pouvant faire de même. Beaucoup apprécieront la possibilité de déclarer un haut-parleur AirPlay comme sortie son par défaut. tvOS 26 pourra s’installer sur tous les modèles ayant actuellement tvOS 18, y compris la vénérable Apple TV HD sortie en 2015.
Quant à visionOS 26, il embarque des nouveautés significatives. Les widgets peuvent ainsi être disposés dans l’espace comme autant d’objets physiques. Une horloge sur une mur par exemple, ou la photo d’un paysage qui apparaitra comme une fenêtre donnant sur cet extérieur. Les photos peuvent se voir appliquer un effet 3D, les pages web peuvent être modifiées pour prendre en charge une navigation « spatiale », le support des contrôleurs de jeu augmente (notamment chez Sony), l’expérience de visionnage peut être partagée avec d’autres casques Vision Pro dans la même pièce et l’intégration avec Apple Intelligence est renforcée.
La grande uniformisation, mais…
Cette année peut être résumée simplement : peu d’IA, un nouveau langage graphique, un petit nombre de grosses nouveautés et une grande uniformisation.
Si les plateformes d’Apple se sont toujours distinguées par une certaine cohérence des fonctions, cette année marque une poussée franche. L’arrivée par exemple de Téléphone sur macOS est symptomatique, tout comme Aperçu sur iOS et iPadOS. Et s’il y a beaucoup à redire pour l’instant sur LiquidGlass (et nous le ferons), on peut créditer Apple d’un certain courage devant une tâche particulièrement ardue : pousser le même langage graphique sur l’ensemble de ses produits, même si cette vision doit être affinée (comme iOS 7 en son temps).
La question circule donc beaucoup depuis hier soir : les premières bêtas diffusées hier soir auprès des développeurs sont-elles vraiment proches du résultat final ? Au vu de ce que l’on a pu voir, il nous semble que le résultat actuel est assez « brut de décoffrage » et que l’ensemble devrait évoluer dans les bêtas. Apple procède souvent de cette manière quand des changements profonds sont introduits. Mais parfois, comme dans le cas de Photos, les errances durent plus longtemps.
Sitôt terminée, la conférence d’ouverture de la WWDC 2025 fait déjà débat, notamment sur le grand renouvellement visuel débuté par Apple. Cette année est surtout marquée par bon nombre d’annonces transversales, avec de fortes conséquences en perspective : interface, disponibilité des fonctions, support des produits, jusqu’à un repositionnement des iPad.
Apple était attendue au tournant cette année. Ses déboires avec l’intelligence artificielle sont nombreux, surtout autour du nouveau Siri. Les annonces autour de l’IA ont été réduites à la portion congrue, mais l’entreprise n’a pas totalement botté en touche : les vraies nouveautés seront présentées l’année prochaine. Il faudra donc attendre encore un an, alors que les progrès dans ce domaine sont rapides.
De nombreuses annonces étaient transversales, concernant plusieurs plateformes, voire toutes. Par exemple, le numéro de version est désormais le même pour tout le monde : l’année à venir. Cet automne, iOS, macOS, iPadOS, tvOS, watchOS et visionOS seront ainsi tous estampillés « 26 ». Une harmonisation bienvenue, car il n’était pas toujours simple de comprendre les grands écarts entre les plateformes (iOS 18, macOS 15, watchOS 10, visionOS 2…).
Liquid Glass, la transparence selon Apple
Très vite, Apple a présenté son nouveau langage visuel, Liquid Glass. Il va prendre la relève de l’ère « flat » initiée par iOS 7 puis affinée pendant 12 ans. Les grands aplats sont remplacés par des plaques de verre plus ou moins dépoli selon le contexte et réintroduisent un peu de matière, sans aller jusqu’aux grandes heures du skeuomorphisme.
Liquid Glass est transversal. Inspiré de visionOS, il déboule sur toutes les plateformes de l’éditeur, avec un impact visuel plus ou moins fort selon les cas. À la manière de ce que l’on a vu récemment chez Google avec Material 3 Expressive, les interactions font la part belle aux animations.
Liquid Glass modifie tous les éléments de base des interfaces. Que l’on soit dans iOS, macOS, tvOS ou watchOS, aucun élément n’est épargné : boutons, curseurs, commutateurs, texte, commandes multimédias, barres d’outils, barres latérales, écrans verrouillé et d’accueil, centre de contrôle, widgets, notifications…
Dans de nombreux cas – surtout les applications Apple intégrées pour l’instant – les barres d’outils fixes disparaissent au profit de contrôles flottants, dont la barre de menu de macOS. Le contenu devient alors affiché sur l’intégralité de l’écran, surtout sur iOS et iPadOS. Ces contrôles sont en « verre » et affichent le contenu par transparence, mais dans une version déformée, avec un léger effet de lentille. Apple veut accentuer l’idée que le contenu est roi, les contrôles n’étant là que pour l’accompagner.
Dans la plupart des cas, Liquid Glass n’aura aucun impact fonctionnel. Comme Apple l’a expliqué durant la conférence, le nouveau traitement doit apporter de la « légèreté et de la vie, tout en restant familier ».
Les Mac, des téléphones comme les autres
Le nouveau macOS, nommé Tahoe, reprend bien sûr Liquid Glass et ajoute quelques autres modifications. Les coins des fenêtres sont plus arrondis, toutes les icônes des applications reçoivent le traitement « verre » et on peut désormais personnaliser leur affichage. Comme sur iOS, on peut leur imposer un affichage clair ou sombre, teinter automatiquement le fond des icônes avec la couleur principale du fond écran ou encore forcer leur transparence. Toutes ne sont pas compatibles avec ce traitement.
macOS Tahoe reçoit en outre plusieurs apports directement issus d’iOS. C’est le cas notamment de l’application Téléphone, qui remplace officiellement FaceTime. Il s’agit de la même que sur les téléphones, avec des capacités identiques. Elle récupère donc les nouveautés présentées hier soir, comme le regroupement des appels provenant de numéros inconnus, la possibilité de laisser le téléphone répondre à ces derniers pour demander de se présenter, ou encore la fusion de toutes les listes, dont l’historique et les messages vocaux.
Toujours dans cette optique de transversalité, macOS récupère les Activités en direct. Le Mac va puiser dans l’iPhone pour récupérer l’élément et l’afficher en haut à droite de l’écran. Pour rappel, les Activités en direct permettent d’afficher un petit encart dans lequel l’évolution d’une action apparait. Par exemple, une commande de nourriture ou l’arrivée d’un VTC. La fonction n’apparait qu’avec les actions compatibles. Cependant, elle réclame Recopie de l’iPhone, qui n’est toujours pas disponible en Europe.
Spotlight et Raccourcis, les vraies stars
Même si l’ajout de ces nouveautés est sympathique, les vrais temps forts relatifs à macOS étaient les améliorations pour la recherche de Spotlight et l’application Raccourcis.
Spotlight fait un bond important. D’outil de recherche, il devient palette de commandes. On peut ainsi s’en servir pour déclencher des actions, comme rédiger et envoyer un e-mail, créer un rappel, déclencher la lecture d’une musique, et ainsi de suite.
Pour Apple, Spotlight peut servir désormais de porte d’entrée vers l’ensemble des actions sur la machine. On peut s’en servir pour accéder rapidement à un dossier, une application, un historique quelconque ou encore au presse-papier, qui affiche dès lors la liste de tout ce que l’on a copié récemment. Apple a également ajouté des raccourcis rapides pour certaines actions, comme « sm » pour envoyer un message ou « ar » pour ajouter un rappel. Ces raccourcis peuvent être personnalisés et l’utilisateur peut en ajouter d’autres. Avec les applications intégrées, les actions sont effectuées sans avoir besoin de les ouvrir.
Spotlight se sert en outre d’Apple Intelligence pour personnaliser au fur et à mesure ses recommandations. Si une personne semble effectuer souvent un certain type d’action, Spotlight le proposera dès son ouverture, selon l’heure de la journée et le contexte, dont l’application active à ce moment.
Raccourcis est l’autre grande évolution cette année. La nouvelle version va puiser dans Apple Intelligence pour suggérer des raccourcis basés sur les tâches souvent effectuées. Si une étudiante enregistre fréquemment une version audio d’un cours tout en prenant des notes, Raccourcis suggèrera une action pour analyser le fichier audio et comparer avec les notes, afin de signaler des éléments manquants.
Toutes les fonctions liées à Apple Intelligence, notamment les outils d’écriture, deviennent disponibles dans Raccourcis. On peut dès lors automatiser des tâches comme le résumé d’un texte ou la création d’une image dans Playground.
L’iPad, ce Mac comme les autres
L’autre temps fort des annonces, c’est le nouveau système de fenêtrage d’iPadOS. Après des années de demandes en ce sens, il semble que la firme ait abandonné toute résistance et ait enfin donné ce que beaucoup attendaient.
Concrètement, depuis une application en plein écran, on peut désormais saisir le coin inférieur droit et redimensionner la fenêtre. Celle-ci vient alors flotter en version réduite sur le bureau, puisque l’on peut réellement parler de bureau.
Ce principe s’accompagne de plusieurs mécanismes propres au Mac chez Apple. Les fenêtres sont ainsi équipées des mêmes boutons d’actions (rouge, jaune et vert), avec des conséquences identiques. L’agencement (tiling) est aussi le même, avec deux applications se partageant verticalement la moitié de l’écran, ou quatre applications réparties sur chaque quart. Le menu est identique à macOS. Même le mode Exposé est là, avec le même geste tactile que sur Mac : trois ou quatre doigts glissant vers le haut.
Cette nouvelle gestion des fenêtres change radicalement les perspectives d’utilisation des tablettes chez Apple, qui peuvent presque s’utiliser comme des MacBook. L’entreprise indique d’ailleurs avoir retravaillé son curseur de souris, désormais plus précis.
Ces changements importants s’accompagnent d’un gros effort sur la gestion des fichiers. Comme dans Tahoe, on peut ainsi colorer des dossiers et leur affecter un emoji pour les personnaliser. Le Dock se manipule presque comme sur macOS et permet par exemple d’épingler un dossier.
Enfin, iPadOS récupère l’application Aperçu, permettant la manipulation des PDF, de la lecture à l’annotation.
Apple sur la défensive
Cette conférence d’ouverture ne semble pas avoir soulevé les foules. Les améliorations présentées, en dehors de certains temps forts comme le nouveau système de fenêtrage sur iPadOS, n’ont pas provoqué un grand enthousiasme.
C’est particulièrement vrai avec Liquid Glass. Le grand renouvellement graphique inspire globalement la méfiance, avec de nombreux doutes exprimés sur la lisibilité, les éventuels problèmes d’accessibilité ou la consommation de batterie liée aux effets graphiques de transparence et de déformation. Certains sont allés jusqu’à comparer Liquid Glass à Windows Vista. Gardons cependant en tête que seule la première bêta pour développeurs est disponible et que l’ensemble peut évoluer. Apple a d’ailleurs indiqué hier soir qu’il ne s’agissait que du « début du voyage ».
Autre gros problème souligné, l’absence presque totale de nouveautés liées à l’IA. Le souci n’est pas tant que cette dernière soit essentielle dans tous les cas de figure, mais elle est devenue rapidement un facteur de différenciation entre l’ancien monde et le nouveau. Le manque criant de réactivité d’Apple sur le sujet risque d’affecter encore l’image de l’entreprise.
Une image déjà écornée par le « Siri conversationnel » qui avait été promis et qui, d’ailleurs, n’est toujours pas là. Il va s’écouler toute une année avant qu’Apple ait quelque chose de significatif à présenter. Même si Apple intelligence est mieux intégré, notamment dans Spotlight et Raccourcis, l’efficacité générale – en particulier sur le texte et les images – risque de faire rapidement pâle figure face aux capacités des modèles d’OpenAI, Anthropic ou Google.
Run est l’un des nombreux petits outils de la suite PowerToys. Cette dernière, depuis son grand retour, consiste en une collection d’outils tous développés en open source par Microsoft et débloquant des fonctions avancées pour Windows (10 et 11).
Run est particulièrement intéressant. Il s’agit d’une interface de type palette de commandes, que l’on appelle par un raccourci clavier (par défaut Win + Alt + Espace). Après quoi, on peut lancer des opérations mathématiques, s’en servir comme lanceur d’applications, pour des recherches, etc. Son point fort reste cependant son ouverture, avec un système de plugins pour renforcer ses capacités.
Et justement, Neowin signale la disponibilité de plusieurs nouveaux plugins, dont un permettant de tester sa connexion. Nommé simplement SpeedTest, il utilise l’utilitaire d’Ookla et permet de l’appeler depuis la commande « spt » dans la palette. Bon point, l’exécutable ne demande pas de droits administrateurs pour fonctionner. Le code source est également fourni (sous licence MIT).
L’installation est la même que pour tous les plugins :
Aller dans le dossier %LOCALAPPDATA%\Microsoft\PowerToys\PowerToys Run\Plugins\ (on peut coller cette adresse dans l’Explorateur pour s’y rendre directement)
Créer un dossier portant le nom du nouveau plugin
Décompresser l’archive dans le dossier créé
Nos confrères avertissent également de la disponibilité d’autres plugins, comme VideoDownloader pour télécharger des vidéos depuis YouTube ou Definition, pour interroger sur les mots et leur prononciation, mais uniquement en anglais pour l’instant. Ces trois plugins sont du même auteur, ruslanlap.
De façon plus générale, si les possibilités de PowerToys Run vous intéressent, on trouve facilement de nombreux plugins. Certains rassemblent d’ailleurs des sélections pour mettre en avant des modules leur paraissant particulièrement utiles, comme chez XDA.
Attention néanmoins, ces plugins peuvent contenir des exécutables ou des DLL. Il vaut donc mieux s’assurer du type de projet qui se tient derrière et avoir un antivirus à jour.
Nouveau coup dur pour Apple. après la victoire d’Epic sur les pratiques anti-steering, Apple avait demandé en urgence un sursis à l’application de la décision. Peine perdue, la demande a été rejetée, les nouvelles pratiques pouvant continuer jusqu’à ce que l’appel ait lieu.
Sales temps pour Apple et sa vision parfaitement ordonnée de l’App Store. Sur ce dernier, l’entreprise prélève une commission de 30 % sur tous les achats réalisés, qu’il s’agisse des applications elles-mêmes, des biens et services commercialisés dans celles-ci ou encore des abonnements. Pour ces derniers, la commission baisse à 15 % à compter du 13ᵉ mois consécutif d’un abonnement actif.
Ces conditions sont dénoncées par un nombre croissant d’entreprises depuis des années, en particulier Epic et Spotify. Elles critiquent tout spécialement les pratiques anti-steering d’Apple. Le terme désigne l’ensemble des règles bloquant les éditeurs dans leurs capacités à communiquer des offres alternatives aux utilisateurs.
Le cas le plus connu est l’affaire Fortnite. Sans prévenir, Epic a lancé une promotion sur la monnaie du jeu en fournissant un lien vers son site. Les achats réalisés ne passaient alors pas par l’App Store, Apple n’empochant aucune commission. À Cupertino, la firme avait répliqué en bloquant le jeu. Il n’est revenu sur le Store américain que le 20 mai, après cinq ans d’absence.
Puis une victoire d’Epic il y a quelques semaines a complètement rebattu les cartes. Il est devenu interdit pour Apple de bloquer les liens externes, et surtout d’imposer une commission sur les achats réalisés à travers ces liens. L’entreprise a immédiatement fait appel. Une semaine plus tard, elle demandait en urgence de surseoir à l’exécution de la décision. Le tribunal a rejeté la demande.
Selon un document consulté par TechCrunch, Apple « a la charge de démontrer que les circonstances justifient l’exercice de [notre] pouvoir discrétionnaire », a déclaré le tribunal devant lequel le recours avait été déposé. Cela signifie que la fameuse décision de la juge Gonzalez Rogers il y a un mois s’applique toujours. Apple a le droit de faire appel – ce qu’elle a fait – mais la décision doit quand même être appliquée.
La juge Gonzalez avait en effet décidé que les pratiques d’Apple devaient cesser immédiatement. La firme avait déjà été alpaguée sur le même sujet en 2021, devant la même juge. Celle-ci n’a pas caché sa colère, accusant Apple d’avoir sciemment menti à la cour, violant la décision initiale qui réclamait déjà d’autoriser les éditeurs à passer par d’autres systèmes de paiement. Apple avait fini par le faire, en rabotant sa commission à la marge : 27 %, contre 30 en temps normal. La juge a peu gouté également les écrans anxiogènes placés par Apple entre le lien et sa destination.
« Nous sommes déçus de la décision de ne pas suspendre l’ordonnance du tribunal de district et nous continuerons à défendre notre cause au cours de la procédure d’appel. Comme nous l’avons déjà dit, nous ne sommes pas du tout d’accord avec l’avis du tribunal de district. Notre objectif est de nous assurer que l’App Store reste une opportunité incroyable pour les développeurs et une expérience sûre et fiable pour nos utilisateurs », a simplement déclaré un porte-parole d’Apple.
Epic sur un petit nuage
Du côté d’Epic, on boit évidemment du petit lait. L’emblématique fondateur de l’éditeur, Tim Sweeney, s’est fendu d’un tweet mâtiné d’ironie pour l’occasion : « La Cour d’appel du 9ᵉ circuit rejette la demande de suspension d’Apple. Le long cauchemar national de la taxe Apple prend fin. Que la WWDC de la semaine prochaine soit la célébration par Apple de la liberté que les développeurs et les utilisateurs méritent depuis longtemps ». WWDC qui commence d’ailleurs ce soir à 19h00.
Interrogé dans les commentaires sur la manière dont Apple pourrait gagner de l’argent avec la suppression de ces commissions, Sweeney a répondu que le géant était libre de le faire « en se livrant à une concurrence loyale ».
Précisons que la disparition des commissions ne concerne que les achats réalisés par des liens internes dans les applications vers les sites officiels correspondants. Les achats des applications elles-mêmes ne sont pas remis en cause, et les éditeurs tiers peuvent continuer à s’en remettre à Apple si tel est leur choix.
Une situation suivie de près en Europe
Si l’affaire est aussi importante, c’est non seulement parce qu’elle remet en cause toute une partie du modèle commercial d’Apple, mais aussi parce que les mêmes problèmes sont pointés des deux côtés de l’Atlantique. L’Europe a infligé fin avril une amende de 500 millions d’euros à Apple pour violation du DMA, en lien ici aussi avec les pratiques anti-steering. Dans les deux affaires, les liens, la commission prélevée et les écrans d’avertissement sont au cœur des reproches.
Le 23 juin, Apple devra donc modifier ses pratiques au sein de l’Union. Les éditeurs tiers devront pouvoir utiliser les liens qu’il leur plaira, renvoyer vers leurs sites et proposer de meilleures offres que sur l’App Store. En outre, Apple pourra percevoir une commission, mais uniquement sur le premier achat, pour tenir compte de la découverte de ce tarif via les produits Apple (acquisition initiale).
Apple, particulièrement remontée contre le DMA depuis son entrée en vigueur, en conteste tous les points. Mais comme aux États-Unis, la demande d’appel n’est pas suspensive : l’entreprise pourra retenter sa chance, mais elle doit quand même se soumettre à la décision et appliquer les changements dès le 23 juin. Dans le cas contraire, la Commission européenne est décidée à jouer la carte de l’astreinte journalière, qui pourrait grimper jusqu’à plusieurs dizaines de millions d’euros par jour.
À la virgule près
Le 5 juin, par un article de Jérôme Marin sur Cafétech, on a d’ailleurs pu voir combien Apple était prête à combattre dans toutes les tranchées. Dans son combat contre le DMA, l’entreprise n’était ainsi pas d’accord sur le positionnement d’une virgule placée après le mot « gratuitement » dans la version anglais de l’article 5.4.
« The gatekeeper shall allow business users, free of charge, to communicate and promote offers, including under different conditions, to end users acquired via its core platform service or through other channels, and to conclude contracts with those end users, regardless of whether, for that purpose, they use the core platform services of the gatekeeper »
Apple estimait ainsi que le terme ne s’appliquait qu’à la communication et la promotion. Mais la Commission, dans sa décision détaillée (dont le document n’est plus en ligne, sans que l’on sache pourquoi), expliquait au contraire que la virgule rendait « gratuitement » distributif et que le terme s’appliquait tout ce qui venait ensuite, y compris « conclure des contrats ».
Quoi qu’il en soit, la firme américaine ne compte rien lâcher. Elle est tenue d’appliquer les changements réclamés dans deux semaines, sous peine d’une nouvelle condamnation. L’appel devrait bien avoir lieu, mais aucune date n’a été communiquée pour l’instant.
Ce bulletin a été mis à jour le 6 juin pour indiquer qu’une preuve de concept (PoC) était publiquement disponible. La faille découverte existait en effet déjà depuis 10 ans et était passée sous les radars. En outre, comme l’indiquait Bleeping Computer le 5 juin, le correctif a été analysé et « désossé », permettant l’exploitation de la faille et la commercialisation d’une exploitation, vendue jusqu’à 50 000 dollars sur certains forums.
La somme peut paraître importante pour une faille déjà corrigée, mais son potentiel est grand. Exploitée, elle peut permettre une exécution de code arbitraire à tout utilisateur authentifié sur le serveur. Surtout, les pirates peuvent compter sur l’inertie habituelle pour les mises à jour. En somme, se jeter sur les serveurs n’ayant pas installé la version 1.6.11 ou 1.5.10 de Roundcube.
Bien que la preuve d’exploitation circule depuis quelques jours seulement, la présence de cette faille dans le code depuis 10 ans a pu mener à des piratages dans le passé. La vulnérabilité est actuellement considérée comme extrêmement sérieuse, au point d’avoir été surnommée « l’armageddon du courrier électronique ». Il est donc conseillé de mettre à jour Roundcube aussi rapidement que possible.
La prochaine version de l’environnement franchira une grande étape : elle désactivera par défaut la session X11. L’équipe de développement commence à en parler alors même que la première « vraie » version alpha n’est pas encore sortie. Le développeur Jordan Petridis explique dans un billet qu’exceptionnellement, une pré-alpha est disponible pour récolter un maximum de retours.
La désactivation de l’ancien serveur graphique X11/Xorg est l’étape suivante dans la progression vers du 100 % Wayland. XWayland n’est pas affecté et GDM gardera sa capacité à lancer d’autres sessions X11. Pour le commun des mortels en revanche, cela signifie que X11 disparait des radars. Pour les utilisateurs plus avancés qui en auraient besoin, cela signifie que l’ancien serveur graphique devra être « explicitement activé lors de la construction des modules concernés (gnome-session, GDM, mutter/gnome-shell) ».
D’ici la sortie de la version, prévue le 17 septembre, trois scénarios sont possibles, selon Petridis. Dans la version idéale, où il n’y aurait ni bug ni problème nulle part, le code lui-même disparaitrait de GNOME 49. Dans la version jugée la plus crédible, cette suppression interviendrait dans GNOME 50. Reste un scénario improbable mais possible, dans lequel les bugs seraient si nombreux que le projet serait encore repoussé.
« Encore », car la désactivation et la suppression de X11 sont en fait prévues depuis longtemps. Jordan Petridis indique qu’il avait ouvert plusieurs pull requests à ce sujet après l’arrivée de GNOME 45. Mais il a fallu attendre GNOME 48 pour que tous les problèmes soient corrigés, notamment des régressions sur l’accessibilité. Le temps que tout soit réglé, il était trop tard pour proposer la désactivation dans cette version.
Dans la pratique, les utilisateurs ne devraient voir aucune différence. Wayland a beau être un serveur graphique nettement plus moderne, il est déjà activé par défaut sur bon nombre de distributions, notamment Ubuntu et Fedora. Les prochaines versions de ces dernières intègreront d’ailleurs GNOME 49.
Il y a quelques jours, on apprenait qu’Anthropic avait brutalement coupé l’accès à ses API pour Windsurf. Cette entreprise édite un client de « vibe coding » (programmation fortement soutenue par l’IA) du même nom, qui met à disposition plusieurs modèles dans ce but. Parmi eux, la famille Claude, dont les versions Sonnet ont acquis un certain renom dans le développement pour leur efficacité.
Windsurf a communiqué sur le sujet, expliquant notamment qu’Anthropic laissait moins d’une semaine pour s’adapter. Dans un article, nous relevions un faisceau d’indices pointant vers une décision stratégique. Au cœur de cette théorie, l’annonce par Bloomberg d’un rachat de Windsurf par OpenAI, pour un montant de 3 milliards de dollars. Ni Windsurf ni OpenAI n’ont confirmé cette opération pour l’instant. Peu après, quand la famille Claude 4 avait été présentée par Anthropic, Windsurf n’y avait pas eu accès.
Windsurf
On sait désormais que cette décision avait tout à voir avec l’article de Bloomberg. Jared Kaplan, cofondateur et directeur scientifique d’Anthropic, était l’invité hier des TC Sessions de TechCrunch. Interrogé sur le sujet, Kaplan a simplement répondu : « Nous essayons vraiment de permettre à nos clients de travailler durablement avec nous à l’avenir. Je pense qu’il serait étrange que nous vendions Claude à OpenAI ».
Dans un développement un peu plus étonnant, le responsable a indiqué que les ressources informations d’Anthropic étaient actuellement limitées. L’entreprise préférait donc se concentrer sur des partenaires « durables ». Kaplan a d’ailleurs cité en exemple Cursor, édité par Anysphere, avec lequel Anthropic devrait travailler « longtemps ». Cursor qui a déjà reçu plusieurs offres de rachat, toutes déclinées. L’entreprise vient d’ailleurs de lever 900 millions de dollars pour développer ses activités et jouit actuellement de l’une des croissances les plus rapides du secteur.
Le réseau social expérimente un nouveau mécanisme pour ses notes de communauté. Le principe reste le même, mais X veut fluidifier la publication des notes en promouvant une idée « neuve » : que les personnes sont en fait plus souvent d’accord les unes avec les autres qu’elles ne le croient.
En mars dernier, Bloomberg avait publié les résultats d’une longue enquête sur les notes de communauté. Ce mécanisme permet à des internautes d’apposer un message sur une publication de réseau social. Cette note est faite initialement pour compléter le propos, mais elle est rapidement devenue une manière de combattre les informations fausses ou créées de toutes pièces.
Comme l’avaient pointé nos confrères cependant, les notes de communauté n’étaient pas une panacée. Il y avait un décalage prononcé par exemple entre l’arrivée d’un tweet viral et celles des notes contrebalançant le propos. Une fake news avait largement le temps de faire le tour de la planète avant. En outre, les utilisateurs étaient poussés à jouer la carte de l’émotionnel, X récompensant les tweets au nombre des réactions qu’ils engendrent.
Ces problèmes étaient d’autant plus mis en avant que Meta avait annoncé un peu avant son intention de recourir au même système. Que ce soit le réseau d’Elon Musk ou ceux de Mark Zuckerberg, les raisons invoquées étaient les mêmes : les personnes et entreprises embauchées pour vérifier les faits étaient biaisées politiquement, une accusation d’inclinaison à gauche reprise dans la rhétorique « anti-woke ». Bloomberg relevait pourtant que même si les notes de communauté avaient certains succès à leur actif, elles ne pouvaient être à elles seules une défense suffisamment solide contre les fake news.
L’art du consensus
Dans cette enquête, les journalistes s’étaient tout particulièrement penchés sur le mécanisme de publication. Ils soulignaient ainsi que la manière même dont les notes fonctionnaient nuisait à la réactivité générale de l’ensemble.
Il ne suffit pas en effet de proposer une note pour qu’elle soit publiée dans la foulée. Après la rédaction initiale, elle est proposée aux autres personnes rédigeant des notes. Elle doit avoir été validée un certain nombre de fois pour être acceptée en tant que note de communauté et publiée. Il faut donc réunir un quorum, un consensus parfois difficile à établir, retardant d’autant le combat contre les fake news. Mais, encore une fois, Bloomberg mettait en balance un système qui privilégiait avant tout la viralité comme un problème fondamental de ce combat.
Bien que X reste tributaire de ce grand-écart, il a partagé hier soir un nouveau chantier. Le réseau social a annoncé un test autour des notes de communauté. Celles-ci seraient la démonstration que des personnes aux opinions parfois très divergentes peuvent finalement se mettre d’accord. En somme, l’ex-Twitter veut promouvoir l’idée que ses utilisateurs sont en réalité plus souvent sur la même longueur d’onde qu’ils ne le croient.
La construction de ponts selon X
Depuis hier, un petit groupe de contributeurs américains participe ainsi à une expérience. « Occasionnellement », ils seront appelés à réagir à certains messages publiés. Ces appels seront affichés peu de temps après l’arrivée du tweet. Selon X, un algorithme captera des signaux précoces, notamment les J’aime. Les utilisateurs sélectionnés seront invités à fournir un commentaire, partagé immédiatement aux autres membres du groupe.
L’algorithme va alors observer la réaction des premières personnes. Sur un même sujet, si les J’aime s’accumulent alors qu’ils proviennent de personnes aux points de vue habituellement contrastés, un message va s’afficher pour l’indiquer tel quel. Ce message sera promotionnel : « Cette publication a récolté des J’aime de la part de personnes ayant des perspectives différentes. Qu’en pensez-vous ? ».
Cliquer sur le message ouvrira un panneau avec une liste de propositions accompagnées de cases à cocher. On pourra ainsi déclarer que l’on est d’accord, que l’on a appris quelque chose, qu’il soulève un point important, qu’il rassemble sur un sujet d’ordinaire très polarisé, qu’il est inspirant ou autre appréciation. Dans une deuxième partie, on trouve les commentaires négatifs.
Selon X, qui développe sa vision dans une page dédiée, cette démarche est un prolongement naturel des notes actuelles. L’algorithme qui va être développé grâce aux interactions récoltées chez les personnes participantes sera open source, promet l’entreprise.
Est-ce important ?
Si X devait concrétiser son nouveau système et le diffuser en production, le nouvel outil pourrait avoir des conséquences, certaines pour les utilisateurs, d’autres plus discrètes.
Ces nouvelles notes pourraient – dans une certaine mesure – promouvoir une plus grande diversité dans les messages lus habituellement. Les réseaux sociaux, à cause de leurs algorithmes, favorisent largement le phénomène de chambre d’écho : on ne finit par voir que les contenus avec lesquels on est d’accord. Les dangers de cette approche sont nombreux. Elle accentue notamment la polarisation des débats en créant des zones d’entre-soi.
S’il est difficile pour l’instant de savoir dans quelle mesure ce nouveau mécanisme pourrait « détendre l’atmosphère » sur X, voire faire évoluer le comportement d’une partie des utilisateurs, le réseau social tient potentiellement entre ses mains une mine d’or.
À une époque où les données et autres interactions ont désormais une immense valeur pour entrainer les modèles, le réseau pourrait utiliser cette nouvelle manne pour ses propres besoins. X a pour rappel été racheté par xAI, créée par Elon Musk pour participer à la guerre de l’IA. Les modèles Grok sont utilisés sur X pour les recommandations et autres questions. On peut régulièrement voir que le réflexe a pris dans les fils de discussions : beaucoup demandent à Grok de résumer une situation ou si telle déclaration est vraie (la marge d’erreur des IA génératives ne semble jamais prise en compte).
Avec ce nouveau mécanisme, X pourrait donc récolter des informations très précieuses sur la manière dont les internautes interagissent avec le contenu. Il pourrait entrainer un changement fondamental dans la manière dont le contenu est recommandé.
En outre, si X n’aborde pas ce point, la question se pose d’un enregistrement potentiel des interactions en fonction du compte. Chaque profil reçoit déjà des suggestions fortement influencées par l’activité passée. Outre le puissant outil statistique que ce mécanisme représenterait s’il était généralisé, il pourrait également servir à rendre les suggestions encore plus personnelles. Même si ces nouvelles notes affichent pour l’instant la promesse de suggestions plus variées.
En un an, les performances générales de Chrome ont été améliorées de 10 %. Il s’agit d’une moyenne, enregistrée pour l’essentiel via des tests sur le benchmark Speedometer 3, développé en partenariat avec d’autres éditeurs de navigateurs. Il est chargé d’analyser les performances sur des processus comme le parsing HTML, le traitement du JavaScript, les interactions et manipulations du DOM, l’application des CSS ou encore le rendu des pixels.
Cette amélioration est continue, comme le montre un graphique publié par Google. Sur un an, on peut voir une légère augmentation des performances à chaque nouvelle version du navigateur, à l’exception de la mouture 129, sans que l’on sache pourquoi.
Google dit s’être concentrée sur les « chemins de rendu fondamentaux ». L’entreprise s’est ainsi penchée sur la disposition en mémoire de structures de données internes dans les composants DOM, CSS, de mise en page et de dessin. Le moteur de rendu, Blink, évite selon Google « un grand nombre d’opérations inutiles sur la mémoire ».
À titre d’exemple, un plus grand nombre d’opérations ont été confiées au ramasse-miettes Oilpan, en remplacement d’anciennes instructions malloc (allocation mémoire). Autre exemple, les caches sont décrits comme beaucoup plus efficaces dans les rendus lourds, notamment pour les calculs des feuilles CSS.
Bien que Google n’en parle pas frontalement, et puisqu’il s’agit d’améliorations portées dans le moteur Blink, tous les navigateurs l’exploitant ont récupéré ces améliorations et continueront de le faire.
Il est d’ailleurs intéressant de constater que les performances, qui n’étaient plus guère mises en avant ces dernières années, sont à nouveau un argument. En avril par exemple, Microsoft avait communiqué sur une hausse significative de ses résultats dans Edge. Le navigateur se veut également plus réactif, avec un remplacement récent d’une bonne partie de son interface, React ayant laissé sa place à WebUI 2.0.
Pendant la conférence Build, Microsoft a annoncé plusieurs améliorations notables pour sa boutique, dont les performances générales ont été significativement revues à la hausse ces derniers mois. Il a ainsi reçu plusieurs apports attendus de longue date, comme la possibilité pour les applications Win32 d’être directement mises à jour, la date de dernière mise à jour ou encore les campagnes promotionnelles.
Dans un billet publié hier soir, l’éditeur annonce une nouvelle fournée. D’abord, une page d’accueil remaniée, tenant compte de l’activité récente pour suggérer des applications. Ces suggestions pourront être désactivées dans les paramètres du Store.
La recherche se veut « beaucoup plus intelligente », davantage orientée vers l’intention et prenant en compte plus de signaux provenant des fiches d’applications, comme leur note et la fréquence des mises à jour. aux États-Unis, le Store accueille également un bouton Copilot, situé en bas à droite de l’interface. On pourra s’en servir pour poser des questions sur une application, en comparer deux, etc.
Ensuite, chaque fiche sera dotée d’un bouton « Découvrir davantage » qui permettra de lister des applications appartenant au même domaine. Le Store va également afficher des badges pour signaler quand des applications ont des fonctions liées à l’IA. Ces badges indiqueront aussi, pour certaines d’entre elles, qu’elles ont été « faites pour les PC Copilot+ ». Un peu de publicité au passage ne fait pas de mal.
Le nouveau Store va en outre renforcer son intégration dans Windows. De manière assez logique, chercher une application dans la recherche du système pourra renvoyer directement vers sa fiche dans le Store et lancer son installation. De plus, des applications pourront être proposées lorsqu’on manipule des fichiers dont l’extension n’est pas reconnue. Enfin, Microsoft dit avoir amélioré une fois encore les performances de sa boutique. Actuellement, il se lancerait deux fois plus rapidement qu’il y a six mois.
On ne sait cependant pas exactement quand cette nouvelle version sera déployée. Le plus souvent, la mise à jour est déployée dans les semaines suivant ce type de présentation.
Plusieurs campagnes sont nées au cours des dernières semaines pour faire les yeux doux aux utilisateurs ayant actuellement un PC Windows 10. L’arrêt du support est fixé au 14 octobre pour le système, laissant ouverte la question de l’après. Mais plutôt que de remplacer le matériel, l’équipe de KDE propose de remplacer le logiciel.
Windows 10 n’aura plus de support technique le 14 octobre. À compter de cette date, plus aucune mise à jour ne sera distribuée pour le système, dont les correctifs de sécurité. Les failles découvertes ne seront donc plus corrigées, laissant les ordinateurs concernés en danger.
Depuis que le sujet circule dans les médias, la question se pose : que faire après ? Si l’on en croit Microsoft, la solution est de tout racheter. Car le problème n’est pas tant la fin de support elle-même que l’absence de solution pour les machines ne pouvant pas être mises à jour. Ces dernières se retrouvent coincées entre une date que Microsoft ne veut pas reculer, et des conditions d’entrée sur Windows 11 que l’entreprise ne compte pas modifier.
Bien sûr, cette absence de support ne signifie pas que les ordinateurs arrêteront de fonctionner du jour au lendemain. Microsoft a d’ailleurs entériné l’idée, annonçant mi-mai que la suite Office sera bel et bien supportée sur Windows 10 jusqu’en 2028. Précisons également que cette fin de support concerne surtout le grand public, puisque les entreprises ont la possibilité d’acheter de l’entretien supplémentaire pendant trois ans. Le grand public peut le faire une seule année, mais cette possibilité n’est pas mise en avant par Microsoft.
Et devant l’inévitable question du remplacement de l’ordinateur, des voix s’élèvent : « Pas besoin ! ». La solution Linux est l’une des possibilités souvent mentionnées, y compris dans nos articles. Elle nécessite de connaitre au moins une personne sachant ce qu’elle fait, car l’installation d’un système d’exploitation n’a rien d’une tâche anodine. Mais pour l’équipe de KDE, rien de bloquant.
KDE pour les exilés de Windows 10
La communication de KDE, à qui l’on doit le célèbre environnement Plasma, cherche l’électrochoc, avec des formulations volontairement effrayantes, comme « Votre ordinateur est grillé » ou « Votre ordinateur est équipé de Windows 10 ? Le 14 octobre, Microsoft veut le transformer en camelote ». Avant de prévenir que même si l’ordinateur donne l’impression de fonctionner, il « sera officiellement obsolète ».
Une fois l’attention captée, KDE plonge dans le cœur du problème : « Windows 10 va se dégrader au fur et à mesure que des bugs seront révélés. Comme personne ne les corrige, vous risquez d’être piraté. Vos données, votre identité et le contrôle que vous exercez sur votre appareil pourraient être volés ». C’est effectivement le danger, puisqu’un nombre croissant de failles non corrigées va miner la sécurité du système.
L’équipe fustige la solution présentée comme idéale par Microsoft, puisqu’elle oblige à investir, tout en polluant. Un sujet que nous explorons d’ailleurs en ce moment dans notre podcast Écosystème. « Même si vous acceptez cette extorsion technologique maintenant, dans quelques années, ils recommenceront comme ils l’ont fait à de nombreuses reprises dans le passé », ajoute KDE, en référence à d’anciennes versions de Windows n’acceptant plus le vieux matériel.
La solution ? Passer à Plasma.
Nouveau système pour nouvelle vie
L’argument principal est celui maintes fois présentés dans de nombreux articles et par bon nombre d’utilisateurs : « Linux peut donner une nouvelle vie à votre ordinateur ». Pour l’équipe de KDE, il faudrait même dire « à Linux et à Plasma », puisque « des machines vieilles de 10 ou 15 ans peuvent faire tourner Plasma, un système d’exploitation moderne et sûr qui ne vous laissera pas tomber ». Un développement étrange, car Plasma n’est pas un système d’exploitation, mais un environnement graphique.
Les avantages mis en avant sont la simplicité d’utilisation, son adaptation, sa personnalisation et sa gratuité. L’équipe évoque également la puissance de son environnement, avec de nombreuses fonctions que ne possède pas Windows 10. Problème, KDE cite les bureaux virtuels… que possèdent justement Windows 10 et 11 (via le bouton Vue multitâche dans la barre).
La communication devient plus concrète quand elle ne cherche pas à impressionner. Les personnes intéressées sont ainsi invitées à poser des questions à d’autres utilisateurs, via KDE Discuss ou l’Aide officielle. KDE prévient aussi qu’il ne faut pas s’attendre à utiliser les mêmes logiciels que sous Windows. Certaines applications comme Firefox et LibreOffice existent bien sur le système de Microsoft, mais il faut se préparer à apprendre de nouveaux usages. KDE met bien sûr en avant la gratuité de ces applications, la richesse de leurs fonctions et leur nombre. L’équipe décourage d’ailleurs la recherche de logiciels sur le web : mieux vaut passer par la boutique Discover.
KDE garde le meilleur pour la fin : pas de publicités, pas de changements surprises dans les réglages et les applications par défaut, pas d’inscription forcée ou d’abonnement, pas de mises à jour forcées vers un autre système… L’équipe va jusqu’à dire qu’il n’est pas besoin de s’inquiéter des virus et autres logiciels espions, que rien ne sera téléchargé dans le cloud de quelqu’un d’autre, et qu’il n’y aura plus jamais de popup d’antivirus frauduleux. Une position audacieuse, car même si les malwares pour Linux sont effectivement beaucoup moins nombreux que ceux pour Windows, une bonne partie de la sécurité repose sur les actions de l’utilisateur.
Branle-bas de combat
Cette communication de KDE s’intègre dans une campagne plus générale lancée par de nombreux acteurs connus du libre. Nommée « End of 10 », elle est soutenue par des structures connues comme KDE, Nextcloud, openSuse, Debian, iFixit, OpenSource.org, Zorin OS ou encore la Document Foundation.
La page officielle est nettement plus sobre dans l’exposé de la problématique, mais les avantages cités d’un passage à Linux sont globalement les mêmes : pas de nouvel achat, pas de licence couteuse, meilleur respect de la vie privée, l’impact environnemental, l’aide par la communauté ou encore un plus grand contrôle sur la machine.
Si l’on en croit les chiffres recueillis par StatCounter, Windows 10 compte encore pour plus de 43 % du parc Windows dans le monde. Le début de l’année avait vu une progression assez marquée de Windows 11, mais la courbe affiche une stagnation depuis deux mois. Au 14 octobre, il y aura donc encore probablement des centaines de millions de PC sous Windows 10. Le passage à Linux est une réponse possible, mais il soulève plusieurs questions : qui avertira les personnes concernées que cette solution existe ? Qui procèdera à l’installation ? Qui prendra le temps d’expliquer les différences et l’utilisation générale ?
Microsoft a annoncé le renforcement de son programme de cybersécurité pour l’Europe. Conçu pour les gouvernements, leurs agences et les forces de l’ordre, l’entreprise veut devenir la championne de la défense cyber sur le Vieux continent avec un programme présenté comme gratuit. Il comprend notamment une intensification des informations transmises.
Microsoft est en pleine opération séduction avec l’Europe. On l’a vu récemment, l’entreprise adopte une attitude plus proactive que ses concurrentes face au DMA. Le 30 avril, elle avait également annoncé un renforcement des capacités de ses datacenters en Europe, à hauteur de 40 % sur les deux prochaines années. L’occasion pour la société de reparler de son offre Cloud for Sovereignty, qui a permis notamment la naissance de Bleu, en partenariat avec Capgemini et Orange.
Elle annonçait également plusieurs engagements, souhaitant – bien sûr – participer activement au développement de l’écosystème IA. On pouvait lire que la vie privée des européens continuerait d’être préservée (et que le Cloud Act, créé en partie pour répondre à la résistance de Microsoft, était une avancée), que la compétitivité européenne serait renforcée et que les efforts en cybersécurité seraient intensifiés.
Et justement, Microsoft a annoncé hier soir du neuf dans ce domaine. Pour l’éditeur, l’Europe a besoin de son aide : non seulement l’intelligence artificielle rebat les cartes de la cybersécurité, mais plusieurs pays – Russie, Chine, Iran et Corée du Nord – intensifient leurs attaques via des groupes malveillants qu’ils soutiennent directement.
Allez-y, c’est gratuit
L’European Security Program (ESP) est présenté comme gratuit et conçu pour les 27 pays membres de l’Union européenne, ainsi qu’aux pays candidats, aux membres de l’European Free Trade Association, au Royaume-Uni, à Monaco et au Vatican.
Le programme a été présenté par Brad Smith, vice-président de Microsoft (et ancien directeur juridique), hier à Berlin. L’ESP se veut une concrétisation des annonces d’il y a un mois, qui étaient autant d’engagements pris devant la Commission européenne. Point fort du programme évidemment, sa gratuité, à laquelle s’ajoute son agnosticisme technique. En clair, le programme n’est pas dépendant d’une infrastructure existante et ne réclame pas un parc Windows.
L’IA au cœur du processus
Une grande partie de l’argumentaire est centrée sur l’IA. Elle est d’abord présentée comme un accélérateur des menaces, puisqu’elle permet d’automatiser nombre d’actions. En outre, elle sert à l’ingénierie sociale par ses capacités de manipulation du texte et de l’audio. Et si les vidéos peuvent encore faire l’objet d’une analyse simple, les progrès rapides finiront par gommer cet écart, comme le montrent déjà les capacités de Veo 3 chez Google.
« Microsoft a observé l’utilisation de l’IA par les acteurs malveillants pour la reconnaissance, la recherche de vulnérabilités, la traduction, les techniques de commandement opérationnel définies par le LLM, le développement de ressources, les techniques de script, l’évasion de la détection, l’ingénierie sociale et les attaques par force brute », ajoute Microsoft.
Mais la même IA sert aussi à la défense. Il « suffit », selon Brad Smith, que les progrès en défense soient plus rapides que ceux en attaque. Grâce à l’IA, les outils de l’entreprise sont ainsi en mesure de repérer plus rapidement les comportements suspects. Ce n’est pas une nouveauté en soi, puisque l’IA générative est particulièrement douée pour trouver des corrélations entre des données.
C’est ce que propose Microsoft. Puisque l’entreprise, via sa présence dans le cloud, dispose d’une bonne connaissance en cybersécurité, elle analyse constamment des menaces et fournit des rapports. Ces derniers vont ainsi alimenter un flux renforcé de renseignements destinés aux gouvernements, leurs agences et les forces de l’ordre. Microsoft parle de transmissions en quasi temps réel et d’alertes sur des vulnérabilités critiques.
Peur sur l’Europe
Une partie de la communication de Microsoft fait la part belle à la peur. Quatre pays sont particulièrement visés par l’entreprise : la Russie, la Chine, l’Iran et la Corée du Nord, qu’elle nomme en interne respectivement Blizzard, Typhoon, Sandstorm et Sleet. À l’automne dernier, Microsoft a par exemple lancé une opération contre le groupe malveillant Star Blizzard, donc rattaché à la Russie. L’entreprise a récemment expliqué comment elle attribuait des noms de phénomènes météo aux menaces cyber.
Microsoft fournit également une carte d’Europe et des régions voisines montrant le degré d’implication des quatre pays nommés dans les attaques cyber. En France par exemple, on peut voir que la Chine représente à elle seule plus de la moitié des menaces, la Russie venant en deuxième. Ces camemberts peuvent varier fortement d’un État membre à un autre. Au Portugal, l’Iran prend la première place, devant la Russie, la Chine ne jouant a priori qu’un petit rôle. En Ukraine, sans surprise, la Russie est derrière l’écrasante majorité des attaques.
Les objectifs recherchés varient aussi. La Russie mène ainsi en majorité des opérations de perturbation contre l’Ukraine et les pays la soutenant. La Chine est davantage tournée vers le vol d’informations, notamment dans la recherche et le renseignement géopolitique. L’Iran et la Corée du Nord sont intéressés également par le renseignement au sens large, mais la seconde a fortes motivations financières, les cryptoactifs étant l’une de ses cibles préférées.
Les bonnes grâces de l’Europe
Microsoft semble adopter une attitude aux antipodes d’Apple, qui ne cesse de fustiger le Vieux continent et ses législations considérées comme trop lourdes, particulièrement le DMA. La firme de Redmond préfère présenter un visage avenant, avec des informations données a priori gratuitement. « Dans le cadre du programme européen de sécurité, nous investissons des ressources supplémentaires pour poursuivre notre travail avec les gouvernements européens, la société civile et les innovateurs afin de renforcer les capacités locales et d’établir une résilience à long terme », indique ainsi Microsoft.
Cette volonté se traduit par plusieurs actions concrètes. Le lien avec Europol est par exemple renforcé. Microsoft va envoyer des enquêteurs de sa propre Digital Crime Unit (DCU) au siège du Centre européen de lutte contre la cybercriminalité (EC3) à La Haye pour « améliorer le partage de renseignements et la coordination opérationnelle ». La société vient également de renouveler pour trois ans son partenariat avec le CyberPeace Institute, lui allouant une centaine d’employés pour l’aider dans son travail de pistage des malwares.
Microsoft dit en outre « défendre fermement l’Ukraine », l’affirmation ayant une dimension politique claire. Elle annonce dans cette optique un partenariat avec le Western Balkans Cyber Capacity Centre (WB3C) pour renforcer la cybersécurité dans les pays limitrophes de l’Union, région que l’entreprise décrit comme « géopolitiquement sensible et numériquement sous-équipée ». Elle rappelle également son programme GitHub Secure Open Source Fund, qui veut soutenir « les projets open-source qui sous-tendent la chaîne d’approvisionnement numérique, catalysent l’innovation et sont essentiels à la pile d’IA ». Enfin, à propos de l’IA, Microsoft dit soutenir le vivier de talents en Europe pour la cybersécurité. Comment ? Avec ses propres produits, surtout Azure et Copilot.
Les intentions de Microsoft sont claires : montrer patte blanche et devenir progressivement un acteur incontournable de la cybersécurité européenne. L’entreprise étant partie avec de l’avance sur l’IA grâce à son partenariat avec OpenAI, elle dispose aujourd’hui d’une offre souvent considérée comme plus mature. Et à travers un flux d’informations gratuites et potentiellement cruciales, la firme américaine devrait s’assurer quelques nouveaux contrats en Europe. En France, c’était déjà le cas ces derniers mois.
Le « vibe coding » désigne la pratique de développement qui consiste à confier majoritairement à une IA générative l’écriture du code. Elle est au cœur de produits comme WindSurf et Cursor, des assistants comme Copilot et Duo ou encore des outils lancés par les entreprises spécialisées dans l’IA comme Claude Code chez Anthropic.
L’arène accueille désormais un nouveau compétiteur : Mistral. Dans un billet publié hier, la société française annonce Mistral Code, équivalent maison de Claude Code, avec des capacités équivalentes dans les grandes lignes.
Mistral Code, disponible uniquement sous forme de bêta privée pour l’instant, peut s’utiliser seul ou s’intégrer dans Visual Studio Code et JetBrains. Mistral présente sa solution comme complète et pouvant répondre aux obstacles habituellement rencontrés par les entreprises. Codestral est utilisé pour le remplissage et l’autocomplétion, Codestral Embed pour la recherche et l’extraction de code, Devstral pour tout ce qui touche aux agents et Mistral Medium pour l’assistance par chat.
« Mistral Code maîtrise plus de 80 langages de programmation et peut raisonner sur des fichiers, des différences Git, des sorties de terminal et des problèmes. Nous testons actuellement le produit pour aider les ingénieurs à aller au-delà de l’assistance et des suggestions de codage pour compléter des tickets complets : ouverture de fichiers, écriture de nouveaux modules, mise à jour de tests et même exécution de commandes shell, le tout dans le cadre de flux de travail d’approbation configurables afin que les ingénieurs seniors gardent le contrôle », indique Mistral dans son billet.
La société n’est pas peu fière d’annoncer que plusieurs grosses entreprises ont déjà validé le produit. La banque espagnole Abanca l’utilise déjà en production pour la création de prototypes dans le cloud. La SNCF dote actuellement ses 4 000 développeurs de la version Serverless de Mistral Code, et Capgemini va en équiper 1 500 pour le développement de projets clients.
Mistral précise que son client est un fork d’une application open source existante, Continue. Quand la version finale sera en ligne, la société commencera à reverser les améliorations apportées au dépôt GitHub associé.
Depuis quelques heures, trois sites pornographiques parmi les plus importants – Pornhub, Redtube et Youporn – affichent désormais le même message : leur accès est suspendu en France. Leur éditeur, Aylo, a pris cette décision pour protester contre la vérification d’âge obligatoire sur les sites pour adulte.
C’est donc fait. La loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique, dite SREN, a permis à l’Arcom de déclarer la guerre aux sites pornographiques ne disposant d’aucun mécanisme pour contrôler l’âge des internautes. Comme le rappelait encore hier l’Autorité, laisser du contenu pornographique accessible aux mineurs est une infraction pénale (article 227 - 24 du Code pénal). Or, toujours selon l’Arcom, plus d’un tiers des adolescents de 12 à 17 ans visite au moins une fois par mois Pornhub.
La situation couvait depuis des années
L’autorité est devenue l’institution clé pour appliquer cette réglementation. À ce titre, elle peut intervenir directement auprès des plateformes et émettre des mises en demeure pour les sites ne respectant pas cette obligation. Au cours des derniers mois, celle-ci est devenue plus prégnante. Le 6 mars dernier, un arrêté ministériel a ainsi désigné 17 sites européens comme étant en infraction, dont ceux d’Aylo.
Le sujet de la vérification est revenu régulièrement sur la table ces dernières années. En 2022, une étude avait conclu que la vérification de l’âge à grande échelle était complexe. Pourtant, l’Arcom estime aujourd’hui que des solutions existent et qu’elles sont simples à mettre en place. La plupart des sites aurait aujourd’hui un tel mécanisme.
Mais Aylo, éditeur de Pornhub, Redtube et Youporn, est depuis le départ vent debout contre cette mesure. Le groupe peste et fustige contre cette obligation, arguant de sérieux problèmes de vie privée à résoudre, puisque les prestataires se retrouveraient avec de nombreuses informations identifiantes sur les internautes fréquentant ces sites pour adultes. Pourtant, dans sa délibération du 26 septembre 2024 (pdf), la CNIL se félicitait que toutes ses préconisations aient été prises en compte dans l’élaboration du référentiel pour les tiers de confiance, acteurs dont la mission est de collecter la preuve de l’âge et de transmettre une simple confirmation au site visité. La CNIL validait notamment le principe de « double anonymat ».
Aylo suspend de lui-même ses sites
Depuis le 11 avril, tout s’est emballé. La date a marqué la fin d’une période de grâce durant laquelle les sites devaient se mettre en conformité. Depuis, tous les sites pour adultes ont l’obligation de mettre en place ce système de double anonymat, comme l’a par exemple fait OnlyFans. Pourtant, début mai, la Cour d’appel de Paris remettait en question l’application extraterritoriale du droit français à des sites installés ailleurs en Europe, en l’occurrence xHamster et Tukif.
Aylo, éditeur installé à Montréal, n’a pas voulu attendre la date butoir du 6 juin. Depuis mercredi 4 juin, peu avant 15 heures, ses principaux sites Pornhub, Redtube et Youporn sont inaccessibles en France. Les trois sites affichent le même message. « Votre gouvernement propose de vérifier votre âge à chaque fois que vous visitez notre site, c’est fou, non ? Cela ne protège pas les mineurs — mais au contraire, cela met en danger la vie privée de tout le monde et expose les enfants à des risques », fustige Aylo.
L’éditeur met en garde contre le « risque de sécurité inacceptable » que ferait courir l’application du droit français, en voulant concentrer des informations sensibles entre les mains de quelques acteurs. « Votre gouvernement ne vous dira pas la vérité à ce sujet, mais nous le ferons », proclame Aylo.
Une solution « inefficace, aléatoire et dangereuse »
Le message, porté depuis dans un communiqué de presse, met surtout en avant deux arguments. D’une part, l’éditeur pointe la vérification de l’âge au niveau de l’appareil comme solution simple et ultime. Il suffirait d’imposer à Microsoft, Apple et Google que cette fonction soit présente au sein de leurs systèmes d’exploitation pour que les sites puissent récupérer un sésame. « Le gouvernement français refuse de prendre cette mesure simple et se concentre plutôt sur des actions réglementaires futiles et entièrement symboliques qui sont inapplicables, ne protègent pas les enfants et exposent vos données privées », ajoute Aylo.
D’autre part, « les gens ne cesseront pas de chercher du porno ». Pour l’éditeur, ils se dirigeront simplement vers des « centaines de milliers de plateformes peu sûres », qui ne se conforment pas davantage à la loi et n’ont aucune politique de confiance et de sécurité pour les informations collectées. Selon Aylo, « toutes les données indiquent que ces lois n’ont fait que détourner le trafic vers des sites web dangereux ».
La méthode française est donc jugée « inefficace, aléatoire et dangereuse ». On ajoutera que les blocages étant basés sur les DNS, leur contournement est aisé. Rappelons qu’aux États-Unis, des chiffres montraient en janvier que les États imposant des restrictions sur le porno avaient vu une explosion des téléchargements de VPN.
L’Arcom, de son côté, indique simplement avoir pris « acte de la décision du groupe Aylo ». L’éditeur aurait ainsi « fait le choix de se soustraire à l’impératif que constitue la protection des mineurs en suspendant l’accès à ses contenus en France y compris pour un public majeur, alors qu’il existe de nombreuses solutions techniques sur le marché permettant de vérifier l’âge des utilisateurs tout en assurant la protection de leurs données personnelles ».
Rappelons enfin que la Commission européenne a déclenché sa propre procédure contre plusieurs sites pornographiques, dont Pornhub. Elle leur reproche une absence de conformité avec le DSA dans le cadre de la lutte contre l’accès aux mineurs des contenus pornographique. En outre, l’Europe table sur une solution harmonisée de vérification de l’âge, qui a été confiée à l’Espagne.
Windsurf, éditeur d’un environnement de développement intégré copieusement dopé à l’IA, est dans la panade : Anthropic lui a coupé l’accès à ses modèles Claude. Windsurf avertit actuellement sa clientèle d’une cassure dans leur utilisation. Si Anthropic ne s’est pas encore exprimée sur le sujet, certains éléments pointent vers une mesure de riposte.
Windsurf est un IDE populaire. L’ancien Codeium s’est largement recentré sur le développement assisté par l’IA générative, plus particulièrement les agents. Ce virage a permis à l’environnement de se faire un nouveau nom, face à des ténors comme Visual Studio Code et JetBrains. Sur ce créneau, il est un concurrent direct d’un autre IDE populaire en ce moment, Cursor (édité par Anysphere).
Le fonctionnement de Windsurf dépend étroitement des modèles choisis pour l’inférence, autrement dit la phase de « réflexion ». Dans le domaine du développement, les modèles d’Anthropic sont particulièrement appréciés et Windsurf dispose d’accès aux API correspondantes pour transférer les requêtes.
Mais cette nuit, coup de tonnerre. Dans un tweet publié vers 1 h du matin, le CEO de Windsurf, Varun Mohan, prévient d’une catastrophe : « Avec moins de cinq jours de préavis, Anthropic a décidé de couper la quasi-totalité de sa capacité de première partie pour tous les modèles Claude 3.x ».
Deux mois intenses
Pour comprendre la situation actuelle, il faut se plonger dans le contexte bouillonnant des derniers mois. Mi-avril, CNBC indiquait ainsi qu’OpenAI s’intéressait vivement aux entreprises éditant ce type d’IDE. Selon nos confrères, l’entreprise de Sam Altman aurait approché une vingtaine de sociétés, dont Anysphere et son Cursor. La startup aurait décliné, portée par une envolée du chiffre d’affaires et une volonté farouche de rester indépendante. Selon Bloomberg, Anysphere chercherait à faire relever sa valorisation à 10 milliards de dollars.
En revanche, les discussions avec Windsurf auraient été plus productives. À la même période, Bloomberg rapportait ainsi que les échanges avec OpenAI avaient conduit à une offre de 3 milliards de dollars. Bien qu’aucune des deux entreprises n’ait confirmé depuis, la rumeur est tenace et Windsurf pourrait donc intégrer l’un des plus gros acteurs de l’IA générative, dont Anthropic est bien sûr concurrente.
Depuis, la situation s’est accélérée. En mai, Anthropic a tenu sa première conférence dédiée aux développeurs. Baptisée « Code with Claude », elle a été le théâtre de deux grandes annonces. D’une part, la présentation de la nouvelle famille Claude 4, dont le nouveau Sonnet et la nouvelle grande star de l’entreprise, Opus. D’autre part, la disponibilité en version finale de Claude Code, la propre application maison d’Anthropic pour l’aide active au développement.
Enfin, toujours à la mi-mai, Windsurf a annoncé sa propre famille de modèles. Nommée SWE-1, elle comprenait surtout la version principale, directement comparée à Claude 3.5 Sonnet, aux performances similaires mais moins chère.
Claude 4 : le coup de semonce
Windsurf pouvait se douter que quelque chose clochait. Comme elle l’indique elle-même dans le communiqué publié cette nuit, l’annonce des modèles Claude 4 s’était accompagnée d’un silence glacial d’Anthropic. Aucune clé n’a été attribuée à Windsurf, qui a alors choisi de contourner ce blocage, au prix d’un accès plus onéreux pour les utilisateurs.
Cette nuit, c’est la totalité des accès aux API d’Anthropic qui a été supprimée. Dans son tweet, Varun Mohan indique que le délai fixé par Anthropic est très court : cinq jours. Le CEO indique que face « à la brièveté du préavis », Windsurf a augmenté en urgence la capacité pour les autres fournisseurs, mais qu’il faut s’attendre rapidement à des problèmes de disponibilité pour tous les modèles Claude 3.X.
En outre, et comme indiqué par le communiqué, Windsurf met en place un tarif promotionnel (- 25 %) pour Gemini 2.5 Pro de Google, lui aussi très à l’aise en développement. Parallèlement, l’accès aux modèles Claude 3.X est supprimé pour les comptes gratuits. Enfin, l’accès à Claude Sonnet 4 reste possible quand la clé est apportée par le client.
Une décision stratégique ?
« Nous avons clairement indiqué à l’équipe d’Anthropic que notre priorité était de conserver les modèles Anthropic comme modèles recommandés, et nous avons toujours été prêts à payer pour la capacité. Nous continuerons à travailler pour trouver de la capacité auprès d’autres fournisseurs parce que nous ne nous soucions que du produit et de nos utilisateurs », indique le communiqué de Windsurf. L’entreprise dit craindre également que le comportement d’Anthropic « porte préjudice à de nombreux acteurs du secteur ».
L’entreprise est donc prête à payer, mais Anthropic fait pour l’instant la sourde oreille. À l’heure actuelle, cette dernière ne semble s’être exprimée qu’auprès de TechCrunch, de manière minimale.
« Nous donnons la priorité à des partenariats durables qui nous permettent de servir efficacement la communauté des développeurs. Les développeurs peuvent également accéder à Claude via notre intégration API directe, notre écosystème de partenaires et d’autres outils de développement », a ainsi déclaré un porte-parole à nos confrères.
La décision d’Anthropic semble stratégique. Il pourrait s’agir d’une mesure de représailles après le faisceau d’annonces laissés par Windsurf au cours des deux derniers mois. Anthropic pourrait avoir été échaudé par le lancement des modèles SWE-1, directement comparés aux siens, et les puissantes rumeurs du rachat par OpenAI. De plus, avec le lancement de Claude Code, les deux éditeurs sont devenus des concurrents.
En février, Adobe s’est essayé pour la troisième fois à une déclinaison mobile de Photoshop, d’abord sur iPhone. Contrairement aux deux tentatives précédentes, il ne s’agissait pas cette fois d’une variante tactile aux fonctions largement amputées, mais d’une application comme on pouvait l’attendre. Les fonctions étaient nombreuses – sans atteindre bien sûr leurs équivalentes pour ordinateurs – et on retrouvait toutes les capacités principales.
Une version pour Android est désormais disponible. Il s’agit pour l’instant d’une bêta, mais ce statut de préversion s’accompagne d’un avantage certain : tant que durent les tests, l’application est complètement gratuite. La version finale nécessitera un abonnement, comme sur iPhone.
Cette version Android ne contient pas toutes les fonctions, mais beaucoup sont déjà disponibles. On retrouve bien sûr les calques et masques. Tous les outils dopés à l’IA sont présents pour faciliter la sélection, la modification, le remplacement ou la suppression des éléments. On note aussi le pinceau de correction des taches, le remplissage génératif, les sélections précises via Sélection d’objet et Baguette magique, les modes de fusion, les clones ou encore les recadrages (mais uniquement en fonction du ratio pour l’instant).
On ne sait pas combien de temps durera la bêta, ni si des mises à jour seront proposées pour ajouter des fonctions avant la version finale. En revanche, on sait ce que l’application réclame : un appareil avec Android 11 au moins et un minimum de 6 Go de mémoire, même si Adobe précise que 8 Go sont recommandés. L’application elle-même a besoin de 600 Mo d’espace libre.
Enfin, cette version mobile de Photoshop est connectée et réclame un compte pour fonctionner.
Si toutes les grandes entreprises américaines de la tech avaient un programme carbone censé atteindre la neutralité vers 2030, presque aucune aujourd’hui ne communique sur ce thème. La faute à l’intelligence artificielle générative, qui a fait s’envoler la consommation.
Oracle, Amazon, Microsoft puis Meta ont tous annoncé des investissements dans le nucléaire. Les géants n’ont rien dit sur la neutralité carbone, l’explosion de l’IA ayant chamboulé les projets dans ce domaine. On peut imaginer néanmoins que l’énergie nucléaire est un bon moyen d’obtenir une grande quantité d’électricité sans faire exploser le compteur des gaz à effet de serre.
Et voilà que Meta investit de nouveau dans le nucléaire. Dans un communiqué publié hier soir, la société Constellation Energy a annoncé un partenariat de 20 ans sur la centrale du Clinton Clean Energy Center, située à Clinton dans l’Illinois. L’accord porte sur les 1 121 MW de la centrale, bien que ce chiffre doive augmenter de 30 MW grâce à une modernisation des installations, « préserver 1 100 emplois locaux bien rémunérés, générer 13,5 millions de dollars de recettes fiscales annuelles et ajouter 1 million de dollars de dons à des organisations caritatives locales sur une période de cinq ans », explique Constellation.
Comme l’indique également l’entreprise, la centrale devait initialement fermer en 2017 « après des années de pertes financières ». Ce n’est que grâce à l’arrivée du Future Energy Jobs Act que la centrale a perduré, perfusée à l’argent public jusqu’en 2027. L’accord signé avec Meta permet d’étendre l’exploitation de la centrale jusqu’en 2047. Constellation envisage également la construction d’un autre réacteur sur le site.
La distribution GLF OS, axée sur le jeu vidéo, est désormais disponible en bêta publique. Dans ce premier article, nous allons présenter les grandes lignes du système. Dans un deuxième temps, nous ferons une prise en mains de GLF OS et nous pencherons plus généralement sur le jeu vidéo sur Linux.
Le jeu vidéo représente souvent une barrière au changement d’environnement. Sur PC, l’immense majorité des titres ne sont disponibles que sous Windows, quelle que soit la boutique utilisée pour y jouer. Il est plus simple de trouver des équivalents Linux pour la plupart des applications que de faire fonctionner ses jeux préférés. Du moins, ce fut le cas pendant longtemps.
La situation a sérieusement commencé à évoluer ces dernières années, sous l’impulsion de Valve particulièrement. Le projet Proton, issu d’un fork de Wine, est désormais au cœur d’une offensive de l’éditeur dans le monde du jeu vidéo. Il est pleinement intégré à Steam OS, que l’on retrouve surtout sur la console portable Steam Deck. Celle-ci ayant connu un grand succès commercial, elle a fait des émules, entrainant une réflexion nouvelle sur la possibilité de jouer sur Linux. GLF OS arrive donc à un tournant intéressant.
Une naissance simple
Vinceff, très impliqué dans la communauté Linux avec notamment de nombreuses vidéos tutos, est l’initiateur de GLF OS (dépôt GitHub). Comme il nous le raconte, il était utilisateur de Mageia. Il avait basculé sur Linux après une énième mise à jour problématique de Windows 10 et s’était rendu compte que ses jeux principaux fonctionnaient sur la distribution. C’est dans ce contexte qu’il commence à proposer des vidéos.
Rapidement, la chaine YouTube gagne des dizaines d’abonnés. Quand le cap des 250 est franchi, Vinceff décide d’ouvrir un serveur Discord pour favoriser les discussions. Il le nomme simplement Gaming Linux FR et les personnes affluent, aussi bien des « sachants » que d’autres, intéressées par le thème et cherchant des réponses à des problèmes pratiques.
Le Discord, créé pendant la crise sanitaire, compte aujourd’hui plus de 3 300 membres. Aucune distribution n’est privilégiée, la thématique étant l’entraide sur le thème général du jeu sur Linux. L’idée est cependant venue d’une distribution qui serait entièrement tournée vers le jeu, en facilitant la prise en main et en donnant immédiatement accès aux outils courants. Le projet a été nommé GLF OS, GLF étant une simple contraction de Gaming Linux FR.
Le système est aujourd’hui le résultat d’un travail d’équipe, comprenant des contributions de plusieurs dizaines de développeurs, le cœur de l’équipe étant constitué d’une petite vingtaine de personnes. Le projet, lui, est codirigé par Vinceff et Cammi.
Une base NixOS
Un grand nombre de distributions sont basées sur Debian ou Ubuntu. GLF OS a regardé ailleurs : vers NixOS. Cette distribution Linux ne date pas d’hier, puisque le projet de recherche qui lui a donné naissance date de 2003. Le système a même sa propre fondation depuis 2015.
NixOS est avant tout basée sur le gestionnaire de paquets Nix. Tout se fait par une configuration déclarative : on écrit dans un fichier texte ce que l’on souhaite, et le gestionnaire construit le système à partir de ces informations. C’est autant le cas pour l’installation initiale que pour les mises à jour.
Comme nous l’explique Vinceff, cette approche déclarative est couplée à une gestion transactionnelle des configurations. Les mises à jour sont donc atomiques, ce qui signifie – dans les grandes lignes – que les opérations liées créent une nouvelle image du système, sur laquelle l’utilisateur ne bascule réellement qu’au redémarrage suivant, si aucune erreur n’a été détectée. Ce mécanisme permet une fiabilité généralement plus élevée, car l’image utilisée est en lecture seule. L’atomicité a particulièrement le vent en poupe depuis quelques années, notamment chez Fedora.
NixOS propose toujours deux versions par an, en mai et novembre. La numérotation des versions est la même que pour beaucoup de distributions : l’année suivie du mois. La toute fraiche version 25.05 désigne ainsi la version « mai 2025 ». Le système est disponible en deux branches, stable et unstable. Pour ses objectifs, GLF OS compose avec les deux, comme nous le verrons.
GLF OS : premier contact
L’installation de GLF OS ne réserve aucune surprise. L’environnement par défaut est GNOME, mais l’installateur permet de changer pour KDE. Pour le reste, on est sur la liste habituelle des questions pour cette étape, avec choix du partitionnement, création du temps, sélection du fuseau horaire, etc.
Il y a quand même une étape importante : le choix de l’édition. Par défaut, « Standard » installe la version complète du système pensée pour le jeu vidéo, qui réclame environ 20 Go d’espace libre. Il s’agit d’une suite complète, avec notamment Firefox en navigateur par défaut et LibreOffice pour la bureautique. On peut également choisir une installation minimale, fournie presque sans aucune application. Deux autres éditions sont proposées. La première, Studio, est orientée vers tout ce qui touche à la création graphique. La seconde est une variation intégrant Da Vinci Resolve (une licence est nécessaire).
L’installation (Standard dans notre cas) est un peu plus longue que pour une distribution ordinaire, NixOS ayant besoin d’un peu plus de temps pour construire le système, à partir des scripts propres à GLF OS. Au redémarrage, le bureau est très classique. Bien qu’il s’agisse d’une base GNOME modifiée, notamment pour avoir un dock affiché en permanence (via Dash to Dock), elle ne choquera pas longtemps une personne venant de n’importe quelle autre distribution GNOME.
L’un des éléments peut-être les plus « étranges », c’est l’absence apparente de gestion des mises à jour. Le système s’en occupe en fait seul et envoie simplement une notification pour indiquer qu’une opération est terminée. Dans ce cas, les changements ne seront pas appliqués tant que GLF OS n’aura pas redémarré. Le redémarrage n’est jamais suggéré.
En outre, l’installation d’applications supplémentaires se fait via Flatpak et passe par Easy Flatpak. L’approche générale de GLF OS se veut résolument moderne : un système atomique et des conteneurs logiciels.
Le jeu vidéo comme spécialité
GLF OS étant spécialisée dans le jeu vidéo, la distribution contient plusieurs applications dédiées à cet usage. Déjà, les personnes ayant un PC équipé d’un GPU NVIDIA auront la bonne surprise de constater que ce dernier est détecté et que l’installation des pilotes correspondants est automatique.
Côté logithèque, on retrouve bien sûr Wine et Proton, tous deux disponibles dans leur dernière révision. La distribution propose également trois applications cruciales : Steam évidemment, ainsi que Lutris et Heroic. Les deux dernières sont des clients capables de se connecter à des comptes Steam, Ubisoft, EA, Epic, GOG ou encore Amazon. De là, ils permettent l’accès aux jeux en créant un environnement préconfiguré pour permettre leur lancement grâce à Proton.
Dans cet esprit d’une plateforme pensée pour le jeu vidéo, on trouve tout un ensemble de modifications et d’ajouts. Par exemple, la base du système repose sur la branche stable de NixOS (GNOME, KDE, Wayland, Pipewire, pilotes NVIDIA…), mais tout ce qui nécessite des mises à jour régulières s’appuie sur la branche unstable. C’est le cas pour toutes les applications en lien avec le jeu vidéo comme Steam, Heroic Games Launcher, Lutris, Proton, Mesa et autres.
GLF OS apporte en outre ses propres modifications, dont le kernel qui est une version 6.14 modifiée pour régler certains soucis de compatibilité, notamment avec le Ryzen 9800 X3D d’AMD. L’équipe a également intégré des paquets pour étendre le support des volants de jeu (ThrustMaster, Fanatec et Logitech) et des manettes (Xbox, PlayStation, Switch et 8bitdo).
Nous aurons l’occasion de revenir sur le sujet avec une prise en main concrète et un retour d’expérience sur ce qu’est le jeu vidéo sur Linux aujourd’hui. En attendant, la bêta de GLF OS peut être téléchargée depuis son site officiel.
OpenAI a lancé en avril sa fonction Memory pour ChatGPT. Réservée aux personnes détentrices d’un abonnement payant, elle permet de retenir des informations entre plusieurs sessions d’utilisation. Par exemple, si l’on évoque dans ChatGPT une allergie alimentaire, le service s’en souviendra et n’évoquera pas cet aliment dans des idées de recettes. Du moins en théorie.
Depuis hier soir, cette fonction est disponible pour tous, a annoncé Sam Altman. Sous une certaine forme en tout cas, car la capacité à retenir des informations sera moindre que pour les comptes payants. Memory garde cependant son potentiel de transformer la manière d’interagir avec ChatGPT, en rendant l’expérience plus personnelle.
Ce point ne plaira pas à tout le monde. En Europe et dans plusieurs autres pays comme le Royaume-Uni et le Lichtenstein, la fonction n’est d’ailleurs pas activée par défaut. Il faudra se rendre dans Paramètres > Personnalisation > Mémoire > Référence à l’historique de chat pour l’activer. Dans le reste du monde, dont les États-Unis, elle est activée par défaut mais peut être coupée dans les paramètres.
Pour les personnes qui ne connaitraient pas le fonctionnement de cette mémoire, il faut la distinguer du fonctionnement habituel de ChatGPT. On peut demander au service en effet de retenir spécifiquement une information. Avec Memory, c’est ChatGPT lui-même qui retient ce qui lui parait important.
Dans les paramètres, on peut d’ailleurs voir une jauge indiquant le remplissage de cette mémoire. Il n’y a pas de contrôle direct sur les informations stockées par ChatGPT, OpenAI ne fournissant pas de liste, qui aurait pu servir à supprimer sélectivement les données. On peut interroger ChatGPT sur ce qu’il « sait » et demander à supprimer des informations spécifiques.
Fondée par Gaël Duval, la société française Murena vient de lancer la troisième version majeure de son système d’exploitation mobile /e/OS. Les nouveautés sont nombreuses et dans la lignée des améliorations dont nous avait parlé le fondateur en février : un renforcement des protections de la vie privée, des services et de la collaboration.
/e/OS est un système d’exploitation mobile basé sur la ROM LineageOS. Ce dernier, successeur de CyanogenMod, est un système de remplacement pour Android, dont il reprend la base via AOSP (Android Open Source Project). /e/OS se veut donc un système débarrassé de tout service Google et conçu pour préserver autant que possible la vie privée de ses utilisateurs. Il peut être installé sur des téléphones existants ou obtenu via un téléphone commercialisé par Murena, y compris des Pixel reconditionnés et le Fairphone 5.
Le système n’est pas une simple reprise de LineageOS. Sa « dégooglisation » est plus prononcée et il intègre par défaut microG, une alternative open source aux Google Play Services. De nombreux petits changements ont été opérés çà et là, par exemple pour la synchronisation de l’heure et les DNS, toujours dans l’optique de préserver la vie privée. /e/OS a également son propre launcher, baptisé Bliss, et est intégré avec un éventail de services, Murena Cloud.
La nouvelle mouture du système prend directement la suite des précédentes et vient appuyer sur les points forts déjà en place. Mais elle vient surtout répondre à plusieurs faiblesses, même si toutes les nouveautés ne sont pas encore détaillées. Une conférence de présentation commence d’ailleurs immédiatement et peut être suivie sur YouTube, Peer.tube et même Telegram.
Les nouveautés majeures de /e/OS 3.0
Cette troisième version majeure est d’abord une modernisation de toute la base. Elle reprend (a priori) les apports d’Android 14 et devrait permettre à bon nombre d’appareils d’être mis à jour vers la nouvelle version. On ne sait pas en revanche quand les processus de migration seront mis en place.
/e/OS 3.0 renforce également sa protection de la vie privée. Le système offre ainsi un aperçu de la manière dont les informations sont traitées. Il génère des rapports hebdomadaires avec des informations détaillées sur les « apps invasives » et les traqueurs. Ces rapports fournissent en outre un score de confidentialité globale et pointent les fauteurs de troubles. Les utilisateurs peuvent partager ces informations sur les réseaux sociaux, même si beaucoup ont un fonctionnement contraire aux valeurs portées par Murena. Il est aussi possible de personnaliser l’accès à la position géographique pour les applications, en distinguant celles utilisant la vraie position de celles servies par une localisation factice.
La nouvelle version apporte aussi une fonction Vault pour l’espace de stockage. Il s’agit d’un coffre-fort dont le contenu est chiffré de bout en bout, basé sur CryptPad. Point important, ce service est compatible avec l’ensemble des fichiers à stocker, y compris les documents faisant l’objet d’un travail collaboratif.
Cet ajout, pour l’instant en bêta, prend place dans le bouquet Murena Workspace et nécessite donc un compte Murena. La version de base, comprenant 1 Go, est gratuite. Les tarifs vont ensuite de 1,99 euro par mois pour 20 Go à 24,99 euros par mois pour 2 To. Les abonnés payants reçoivent d’ailleurs une autre fonction : la dictée vocale, que Murena garantit « en toute confidentialité ».
Mode tablette et contrôle parental
L’un des plus gros apports de /e/OS 3.0 reste le mode tablette. Le système pouvait déjà être installé sur des tablettes (certaines sont d’ailleurs vendues sur la boutique officielle), sans disposer d’un affichage réellement adapté. C’est désormais le cas.
Le système renforce aussi son contrôle parental en lui apportant plusieurs fonctions importantes. On peut choisir la tranche d’âge des enfants et obtenir des réglages par défaut. Surtout, les applications restreintes peuvent désormais réclamer le code parental pour être installées. De plus, les parents peuvent généraliser l’utilisation du code à l’ensemble des installations, pour s’assurer que leurs enfants n’installent rien d’autre que ce qui est déjà en place.
On note enfin deux autres nouveautés. D’abord, la possibilité de retrouver son téléphone perdu via une fonction de recherche par SMS. Nous n’avons pour l’instant pas de détails sur le fonctionnement de cette fonction. Ensuite, la bascule du moteur de recherche par défaut sur Qwant, qui repose en partie sur Bing.
Il manque pour l’instant des informations importantes sur le nouveau système, notamment la version d’Android utilisée, la compatibilité matérielle, le fonctionnement de la recherche d’appareil ou encore de la dictée vocale. Nous mettrons à jour cette actualité lorsque nous aurons les réponses.
Microsoft avait déjà proposé une série d’améliorations pour son système d’exploitation afin de répondre aux exigences du DMA en Europe. Mais là où Apple freine des quatre fers, Microsoft joue la carte de l’élève modèle. L’entreprise vient même d’annoncer une nouvelle série de modifications, notamment pour son navigateur Edge.
En mars 2024, Microsoft avait présenté des changements dans Windows pour se mettre en conformité avec le DMA. Windows ayant été nommé contrôleur d’accès, il fallait en effet respecter les règles permettant une libre concurrence. Ce qui revenait à modifier certains comportements pour se montrer plus souple sur divers points.
Ces mesures comprenaient par exemple la possibilité de désinstaller le navigateur Edge et OneDrive, la capacité d’intégrer d’autres services de recherche au sein du système, l’ouverture à d’autres sources d’actualité pour les widgets, l’absence de connexion automatique aux autres services Microsoft lorsqu’on lie le compte à la session Windows, des demandes de consentement plus claires sur l’utilisation des données ou encore des modifications pour LinkedIn.
Navigateur par défaut : des changements plus simples
Windows 10 et 11 ont fait pester les éditeurs tiers de navigateurs. Le système mis en place pour modifier l’application par défaut est moins évident que dans les versions précédentes du système. Les étapes sont plus nombreuses et le changement doit être fait plusieurs fois selon les types de fichiers souhaités. La manipulation n’est donc pas simple pour les personnes ayant peu de connaissances informatiques.
Dans son billet, Microsoft indique que le bouton « Définir par défaut » associe actuellement http, https, .htm et .html avec le navigateur. Dans une future mise à jour de Windows, les liens ftp et read seront ajoutés, de même que les fichiers .mht, .mhtml, .shtml, .svg, .xht, .xhtml et .xml par défaut.
En outre, le même bouton provoquera l’épinglage du navigateur dans la barre des tâches et dans le menu Démarrer, à moins que l’utilisateur refuse ce comportement par une case à cocher. Enfin, un bouton séparé permettra de déclarer le navigateur par défaut comme visionneuse PDF, si l’application possède cette capacité.
Ces changements sont déjà présents dans la dernière bêta de Windows 11. Ils seront déployés dans les versions finales de Windows 10 et 11 le mois prochain.
Edge se fait plus discret
Autre changement, l’utilisation de Bing dans Windows Search ouvre désormais les liens des résultats dans le navigateur par défaut, et non dans Edge. Cette modification, assez attendue, est en cours de déploiement. Et comme on s’en doute, ce même changement s’applique aux widgets et aux éléments affichés sur l’écran verrouillé. Il s’agissait de l’un des plus gros reproches faits à Microsoft après les premiers changements annoncés pour le DMA.
Autre comportement pénible corrigé : Edge ne demandera plus sans arrêt à redevenir le navigateur par défaut. Ce changement est en fait déjà effectif. Il a été déployé le 29 mai dans la version 137.0.3296.52. Seule l’ouverture directe d’Edge affichera la question, comme pour les autres navigateurs.
Conséquence, les autres applications Microsoft ne demanderont plus qu’Edge soit réinstallé ou à nouveau utilisé comme navigateur par défaut. Selon l’éditeur, la plupart des applications ont déjà été modifiées en ce sens, les dernières devant être mises à jour avant la fin du mois. Seule exception, les applications web (PWA) présentes sur le Microsoft Store et bâties pour utiliser Edge.
Le Microsoft Store peut être supprimé
Enfin, le Microsoft Store pourra lui aussi être désinstallé. Cette modification sera répercutée « dans le courant de l’année », sans plus de précisions pour l’instant.
Rappelons que la quasi-totalité des applications intégrées de Windows 11 peuvent être désinstallées. Même si on aimerait que l’installation du système ait un mode minimal, la suppression des applications est simple. On peut le faire depuis les Paramètres, mais un clic droit sur une application dans le menu Démarrer suffit.
Les rapports entre Apple et la Commission européenne ne sont pas près de se détendre. Apple refuse les demandes d’ouverture exigées par l’Europe dans le cadre du DMA et refuse de payer son amende de 500 millions d’euros. Pour l’entreprise, ces changements seraient une catastrophe pour la sécurité.
Dans le cadre du DMA, l’Europe a demandé à Apple de se conformer à d’autres exigences, dont l’ouverture de certaines technologies. Ces points avaient été détaillés par la Commission européenne, qui souhaitait qu’Apple ouvre ses notifications aux montres connectées, l’exécution en tâche de fond de certaines tâches, la bascule audio automatique ou encore les transmissions sans fil à courte distance, laissant la possibilité de créer des alternatives à Airdrop.
L’accès aux notifications et aux réseaux Wi-Fi permettrait notamment aux autres montres connectées que l’Apple Watch d’interagir avec l’iPhone sans nécessiter d’actions particulières et de transférer rapidement des lots importants de données. La concurrence réclame, en somme, que ses montres puissent fonctionner avec le même niveau d’intégration que celle d’Apple.
Une question de sécurité, selon Apple
Mais Apple ne veut rien savoir. Selon un porte-parole, ce serait une question de sécurité et de vie privée. « Ces exigences permettront également aux entreprises avides de données d’obtenir des informations sensibles, ce qui pose des risques considérables en matière de confidentialité et de sécurité pour nos utilisateurs de l’UE », affirme Apple.
L’accès aux notifications et aux réseaux Wi-Fi donnerait aux entreprises « la possibilité d’accéder à des informations personnelles que même Apple ne voit pas », a assuré le porte-parole. Les exigences de l’Union en matière d’interopérabilité créeraient « un processus déraisonnable, coûteux et qui étouffe l’innovation ».
« En fin de compte, ces règles profondément erronées qui ne visent qu’Apple – et aucune autre entreprise – limiteront considérablement notre capacité à fournir des produits et des fonctionnalités innovants en Europe, ce qui se traduira par une expérience utilisateur de qualité inférieure pour nos clients européens », a enfin déclaré Apple.
Le DMA et le DSA au cœur des tensions
Son point de vue sur le DMA n’est pas nouveau. Depuis plus d’un an, l’entreprise a plusieurs fois communiqué sur le nouveau cadre européen et ses obligations en tant que gatekeeper (ou contrôleur d’accès). En mars 2024, Apple a notamment publié un argumentaire détaillé sur la baisse générale de sécurité qu’entrainerait le DMA pour les iPhone, qui resteraient néanmoins les smartphones les plus sécurisés du marché.
Si les tensions entre Apple et la Commission européenne sont connues, le débat a pris un tour plus politique depuis les élections américaines. Le retour de Donald Trump à la Maison-Blanche a créé des étincelles avec l’Europe, les grandes entreprises de la tech s’étant largement plaintes de ses régulations au président des États-Unis. Donald Trump avait fait valoir que le DMA et le DSA seraient examinés et que seules des lois américaines devaient régir les entreprises américaines.
Google a publié une nouvelle version de Chrome dans le canal stable pour corriger trois failles de sécurité, dont une déjà exploitée. Une situation urgente qui a justifié la diffusion de cette version, en dehors du cycle habituel des mises à jour.
La faille CVE-2025-5419 a été signalée par deux chercheurs du Threat Analysis Group de Google, Clément Lecigne et Benoît Sevens. Son score de sévérité est de 8,8 et elle est donc considérée comme critique. On ne connait pas exactement son mécanisme d’action, mais on sait qu’il s’agit d’une vulnérabilité de lecture et d’écriture hors limites dans le moteur JavaScript et WebAssembly V8. Une corruption du tas qui peut être exploitée par une page web HTML.
L’entreprise indique être « consciente qu’un exploit pour CVE-2025-5419 existe dans la nature ». Il est donc recommandé d’installer la nouvelle mouture aussi rapidement que possible, la brèche pouvant être exploitée à distance. Tous les navigateurs basés sur Chromium sont concernés, Microsoft ayant par exemple déjà répercuté la correction dans Edge.
Dans un billet publié le 29 mai, Google a annoncé que les résumés d’e-mails produits par IA sont désormais généralisés. Ce processus, qui s’étale sur environ deux semaines, ne concerne cependant pas tout le monde.
Pour l’instant, cette activation par défaut ne se fait que sur les courriels en anglais, et uniquement pour certaines catégories d’utilisateurs. C’est le cas pour tous les comptes Workspace payants et pour les personnes ayant souscrit un abonnement Google AI Premium, récemment renommée AI Pro. L’entreprise ne dit rien pour l’instant pour les comptes gratuits et les autres langues, mais cette annonce n’est vraisemblablement qu’une étape vers une généralisation complète.
Google ajoute dans son billet que le résumé n’entrera en action que pour les e-mails « pour lesquels un résumé est utile ». La société ne détaille pas ce point, mais on peut le déduire : seuls les courriers d’une certaine taille feront l’objet d’un résumé.
Les résumés eux-mêmes se veulent aussi concis que possible. Il s’agit de simples listes à puces censées représenter les points importants d’un message ou échange. Ces listes sont affichées en haut de l’écran et le cadre correspondant peut être replié pour libérer de la place.
À noter que ces résumés ne peuvent pas être désactivés sans couper l’ensemble des fonctions dites « intelligentes », dont les notifications prioritaires, Smart Compose et Smart Reply, ou encore le suivi de colis. En entreprise, avec les comptes Workspace, la désactivation ne pourra se faire que par l’équipe d’administration.