Le noyau Linux contient du code Rust depuis bientôt trois ans. De petits ajouts, qui ont surtout consisté pendant un temps à permettre à du code Rust d’être ajouté, notamment dans les pilotes. Mais la progression du langage dans le noyau reste complexe.
C’est ce qu’a tenté de faire Hector Martin. Si le nom vous parle, c’est peut-être parce qu’il est le fondateur et développeur principal de la distribution Asahi Linux, spécialisée dans le support matériel des Mac équipés d’une puce Apple Silicon. Un travail qui l’a mené d’ailleurs à la faille « M1RACLES » dans les puces M1. Ou peut-être parce qu’il fut un redoutable hacker, spécialisé dans les consoles de jeu, tout particulièrement les PlayStation et la Wii.
Garde-barrières
Le développeur a toutefois un problème : il promeut activement l’usage de Rust dans le noyau Linux et le processus de révision de ce dernier est bien trop lent selon lui. Le mois dernier, il a souhaité pousser un patch qui aurait permis aux pilotes de périphériques écrits en Rust de faire appel à la fonction DMA (Direct Memory Access) du noyau. Refus catégorique de Christoph Hellwig, mainteneur principal du noyau.
Ces tensions entre promoteurs du Rust et mainteneurs habitués au C n’est pas nouvelle. Elles avaient notamment provoqué des départs dans l’équipe de Rust for Linux. Il y a quelques jours, The Register signalait la tension montante entre Hector Martin et Christoph Hellwig, le premier poussant l’équipe de Rust for Linux à ignorer les remarques du second et d’envoyer quand même leurs propositions de modifications. Tout du moins tant que Linus Torvalds n’intervenait en personne.
« Le problème vient peut-être de vous »
Et Linus Torvalds est intervenu. Répondant directement à Hector Martin qui expliquait combien ces tensions le fatiguaient, le père du noyau Linux s’est montré franc dès la première ligne : « Et si vous acceptiez le fait que le problème vient peut-être de vous ? ». Il continue : « Vous pensez que vous savez mieux [que les autres]. Mais le processus actuel fonctionne. Il a des problèmes, mais les problèmes font partie de la vie. La perfection n’existe pas ».
Dans la suite du message, il accuse Hector Martin de « brigandage » sur les réseaux sociaux, le développeur ayant essayé d’alerter de la situation. « Parce que si nous avons des problèmes dans le modèle de développement du noyau, alors les médias sociaux ne sont certainement pas la solution. De la même manière qu’ils n’étaient pas la solution à la politique », a ajouté Linus Torvalds.
Torvalds n’est pas contre le Rust
Au sein du noyau Linux, la priorité reste le code en C. Le mélange de deux langages est considéré comme risqué. Christoph Hellwig l’a même comparé à un « cancer », ce qui faisait dire à Hector Martin que le propos violait probablement les règles de bonne conduite. L’expression rappelle également les propos que Steve Ballmer, ancien CEO de Microsoft, avait tenu au sujet de Linux lui-même.
Linus Torvalds, de son côté, n’a rien contre le Rust en tant que tel. Sa position est connue depuis septembre dernier, lors la version européenne de l’Open Source Summit. « Certaines discussions deviennent désagréables. Je ne sais pas vraiment pourquoi Rust est un domaine si controversé. Cela me rappelle ma jeunesse. Les gens se disputaient entre vi et EMACS. Pour une raison ou pour une autre, toute la discussion sur Rust contre C a pris des accents presque religieux dans certains domaines », avait-il alors indiqué.
Il s’était montré philosophe : « Rust est très différent, et beaucoup de gens sont habitués au modèle C. Ils n’aiment pas les différences, mais ce n’est pas grave ». Il avait toutefois plaidé pour qu’on laisse sa chance au langage : « Cela ne fait que deux ans que nous travaillons avec Rust, il est donc bien trop tôt pour dire que Rust est un échec ».
Le noyau Linux contient du code Rust depuis bientôt trois ans. De petits ajouts, qui ont surtout consisté pendant un temps à permettre à du code Rust d’être ajouté, notamment dans les pilotes. Mais la progression du langage dans le noyau reste complexe.
C’est ce qu’a tenté de faire Hector Martin. Si le nom vous parle, c’est peut-être parce qu’il est le fondateur et développeur principal de la distribution Asahi Linux, spécialisée dans le support matériel des Mac équipés d’une puce Apple Silicon. Un travail qui l’a mené d’ailleurs à la faille « M1RACLES » dans les puces M1. Ou peut-être parce qu’il fut un redoutable hacker, spécialisé dans les consoles de jeu, tout particulièrement les PlayStation et la Wii.
Garde-barrières
Le développeur a toutefois un problème : il promeut activement l’usage de Rust dans le noyau Linux et le processus de révision de ce dernier est bien trop lent selon lui. Le mois dernier, il a souhaité pousser un patch qui aurait permis aux pilotes de périphériques écrits en Rust de faire appel à la fonction DMA (Direct Memory Access) du noyau. Refus catégorique de Christoph Hellwig, mainteneur principal du noyau.
Ces tensions entre promoteurs du Rust et mainteneurs habitués au C n’est pas nouvelle. Elles avaient notamment provoqué des départs dans l’équipe de Rust for Linux. Il y a quelques jours, The Register signalait la tension montante entre Hector Martin et Christoph Hellwig, le premier poussant l’équipe de Rust for Linux à ignorer les remarques du second et d’envoyer quand même leurs propositions de modifications. Tout du moins tant que Linus Torvalds n’intervenait en personne.
« Le problème vient peut-être de vous »
Et Linus Torvalds est intervenu. Répondant directement à Hector Martin qui expliquait combien ces tensions le fatiguaient, le père du noyau Linux s’est montré franc dès la première ligne : « Et si vous acceptiez le fait que le problème vient peut-être de vous ? ». Il continue : « Vous pensez que vous savez mieux [que les autres]. Mais le processus actuel fonctionne. Il a des problèmes, mais les problèmes font partie de la vie. La perfection n’existe pas ».
Dans la suite du message, il accuse Hector Martin de « brigadage » sur les réseaux sociaux et Reddit, le développeur ayant essayé d’alerter de la situation. « Parce que si nous avons des problèmes dans le modèle de développement du noyau, alors les médias sociaux ne sont certainement pas la solution. De la même manière qu’ils n’étaient pas la solution à la politique », a ajouté Linus Torvalds.
Torvalds n’est pas contre le Rust
Au sein du noyau Linux, la priorité reste le code en C. Le mélange de deux langages est considéré comme risqué. Christoph Hellwig l’a même comparé à un « cancer », ce qui faisait dire à Hector Martin que le propos violait probablement les règles de bonne conduite. L’expression rappelle également les propos que Steve Ballmer, ancien CEO de Microsoft, avait tenu au sujet de Linux lui-même.
Linus Torvalds, de son côté, n’a rien contre le Rust en tant que tel. Sa position est connue depuis septembre dernier, lors la version européenne de l’Open Source Summit. « Certaines discussions deviennent désagréables. Je ne sais pas vraiment pourquoi Rust est un domaine si controversé. Cela me rappelle ma jeunesse. Les gens se disputaient entre vi et EMACS. Pour une raison ou pour une autre, toute la discussion sur Rust contre C a pris des accents presque religieux dans certains domaines », avait-il alors indiqué.
Il s’était montré philosophe : « Rust est très différent, et beaucoup de gens sont habitués au modèle C. Ils n’aiment pas les différences, mais ce n’est pas grave ». Il avait toutefois plaidé pour qu’on laisse sa chance au langage : « Cela ne fait que deux ans que nous travaillons avec Rust, il est donc bien trop tôt pour dire que Rust est un échec ».
Le Royaume-Uni aurait émis une ordonnance obligeant Apple à introduire une porte dérobée. L’entrée permettrait à la sécurité britannique un accès aux données chiffrées, même quand toutes les options de sécurité sont activées.
Selon le Washington Post, le gouvernement anglais aurait envoyé à Apple un « avis de capacité technique ». Ce type d’ordonnance est rendu possible par la loi IPA (Investigatory Powers Act), entrée en vigueur en 2016. Elle autorise le ministère de l’Intérieur à réclamer d’une entreprise qu’elle laisse passer les agents de sécurité pour récupérer des données, même en cas de chiffrement de bout en bout.
Dans le cas d’un produit Apple (iPhone, iPad, Mac…), la majeure partie des services communiquent avec un chiffrement de bout en bout. Par défaut, la sauvegarde iCloud de la totalité des données d’une personne n’utilise cependant pas de chiffrement. Apple tient ces données à disposition des forces de l’ordre si un mandat dument délivré par un juge est présenté, dans le cadre d’une enquête.
Dans les paramètres iCloud, l’option « Protection avancée des données » permet cependant d’ajouter une défense supplémentaire. Les données issues des sauvegardes, d’iCloud Drive, Notes, Photos, Rappels, Raccourcis, Dictaphone, Cartes ainsi que les signets de Safari deviennent alors chiffrées de bout en bout. La procédure oblige l’utilisateur à créer une méthode de récupération. Apple prévient en outre qu’en cas de perte du moyen de récupération, toutes les données seront perdues, la société ne pouvant plus y accéder.
Il ne faut pas confondre cette protection supplémentaire avec le mode Isolement (Réglages > Confidentialité et sécurité), qui ajoute des barrières supplémentaires pour lutter contre les cyberattaques en réduisant la surface d’attaque.
Aucun « précédent connu dans les principales démocraties »
Selon l’article du Washington Post, c’est donc cette Protection avancée des données que le Royaume-Uni veut contourner. L’avis de capacité de technique imposerait à Apple de percer dans ses propres défenses pour offrir une porte dérobée aux forces de l’ordre. Ces dernières pourraient alors, au cours d’une enquête, accéder à toutes les données, quelles que soient les options de sécurité activées.
Cette ordonnance, « émise le mois dernier, exige une capacité générale de visualiser du matériel entièrement chiffré, et pas seulement une assistance pour craquer un compte spécifique, et n’a pas de précédent connu dans les principales démocraties », indique le Washington Post.
En mars 2024, devant la volonté du Royaume-Uni de renforcer la loi IPA, la société avait envoyé un témoignage au Parlement britannique, dans lequel elle exposait clairement ses positions. « Les pouvoirs actuels de l’IPA sont déjà extrêmement étendus et constituent un risque important pour la disponibilité mondiale de technologies de sécurité d’une importance vitale », déclarait-elle notamment.
Prétentions extraterritoriales
La société californienne mettait surtout trois points en avant. D’une part, le secrétaire d’État a le pouvoir d’exiger le silence de l’entreprise concernée, l’empêchant d’avertir ses clients de la modification demandée. D’autre part, la loi IPA a une portée extraterritoriale, « ce qui permet au gouvernement britannique d’affirmer qu’il peut imposer des exigences secrètes aux fournisseurs situés dans d’autres pays et qui s’appliquent à leurs utilisateurs dans le monde entier ». Enfin, face au renforcement de l’IPA par plusieurs amendements, les sociétés technologiques devraient notifier à l’avance le gouvernement britannique de tout ajout prévu de fonctions de sécurité, qui pourraient alors être bloquées.
Pour Apple, le Royaume-Uni chercherait à s’ériger en « régulateur mondial des technologies de sécurité ». La firme pointe les dangers pour le niveau mondial de sécurité, l’exposition des données personnelles aux piratages et les chocs juridiques avec d’autres pays.
Apple se montrait donc claire sur ses conclusions : jamais elle n’introduira de porte dérobée dans ses produits. Si le Royaume-Uni insiste, la société finira par supprimer la protection avancée des données. Si la société met sa menace à exécution, cela ne répondra toutefois pas aux exigences de la loi IPA, puisque la protection ne pourrait pas être désactivée sur les appareils l’ayant déjà. Et pour cause : Apple n’a pas la main sur le code de récupération.
La porte dérobée, encore elle
La BBC indique de son côté avoir eu confirmation de la manœuvre en cours. La volonté du gouvernement britannique serait, d’après ses sources, de cibler des individus spécifiques présentant un risque pour la sécurité nationale, plutôt que de « passer au peigne fin les données de tout le monde ». Les demandes seraient faites comme d’habitude, avec un mandat délivré par un juge dans le cadre d’une enquête, comme avec les comptes n’ayant pas activé l’option.
La procédure ne pourrait rien cependant contre l’inévitable risque que ferait peser une porte dérobée. Même si son accès était réservé à un très petit nombre, uniquement après avoir montré patte blanche, elle serait tôt ou tard trouvée par des tiers, par accident ou à force de chercher. Les pirates pourraient alors s’en emparer, provoquant un vaste pillage mondial des données sur les comptes Apple.
Colère et inquiétude des ONG
Du côté des ONG, c’est la douche froide. Pour Caroline Wilson Pallow, directrice juridique de Privacy International, c’est « une attaque sans précédent » contre les données personnelles. À la BBC, elle a ajouté : « C’est un combat que le Royaume-Uni n’aurait pas dû choisir. Ce dépassement crée un précédent extrêmement préjudiciable et enhardira les régimes abusifs dans le monde entier ».
Pour S.T.O.P (Surveillance Technology Oversight Project), le Royaume-Uni porte atteinte à la vie privée de ses citoyens, tout en affaiblissant la sécurité mondiale. L’organisation souligne elle aussi l’impossibilité d’avoir une porte dérobée réservée aux forces de l’ordre. « Non seulement cela rendrait d’innombrables utilisateurs plus à risque d’être surveillés par les gouvernements, mais cela ouvrirait la porte à une vaste gamme de menaces de la part des pirates informatiques et des cybercriminels », indique l’ONG.
À la CCIA (Computer & Communications Industry Association), la récente tempête de cybersécurité aux États-Unis, Salt Typhoon, a mis en lumière l’importance du chiffrement de bout en bout, désormais largement mis en avant par la CISA. « Les décisions concernant la vie privée et la sécurité des Américains devraient être prises aux États-Unis, de manière ouverte et transparente, et non par le biais d’ordres secrets émanant de l’étranger et exigeant que les clés soient laissées sous le paillasson », a déclaré Matthew Schruers, président de la CCIA.
Des échos de San Bernardino
Apple ne voudra sans doute rien lâcher dans son opposition au gouvernement britannique. La menace de retirer les fonctions de sécurité avancée n’est probablement pas feinte.
L’histoire rappelle le choc brutal entre l’entreprise et le FBI après la tuerie de San Bernardino, en décembre 2015. Un iPhone 5c avait été retrouvé sur le corps d’un terroriste, après un attentat ayant provoqué 14 morts et 21 blessés par balles. Le FBI, en possession de l’appareil, voulait en récupérer les données. Problème, l’iPhone était verrouillé.
Apple, à l’époque, avait aidé le FBI en fournissant certains outils. Mais la firme ne pouvait pas passer le code de verrouillage car elle ne disposait pas de cette information. Or, ce code est repris par iOS pour façonner la clé de sécurité qui chiffre ensuite les données sur l’appareil. Autre problème, le FBI ne savait pas si le terroriste avait activé l’option entrainant un effacement des données en cas de multiples tentatives ratées sur le code.
Le FBI avait fini par exiger d’Apple qu’elle perce ses propres défenses. Refus catégorique d’Apple, qui arguait que la sécurité des données faisant partie de ses arguments de vente. Ajouter une porte dérobée aurait brisé cette promesse, détériorant la confiance du public et entrainant une chute importante de son chiffre d’affaires.
Le ton est monté pendant plusieurs semaines. Jusqu’à ce que le Bureau dépose officiellement plainte contre l’entreprise, pour la faire plier. Alors qu’une intense bataille juridique se préparait, le FBI a fini par annoncer que l’aide d’Apple n’était plus requise : une faille de sécurité allait permettre la récupération des données. Apple avait réclamé les détails de cette vulnérabilité, en vain à l’époque (on ne sait pas si elle a depuis été corrigée).
Le contexte était à peu près le même cependant. John Miller, alors responsable de l’unité antiterroriste à New York, avait ainsi accusé Apple « d’aider les kidnappeurs, les voleurs et les meurtriers ». Un son de cloche régulièrement entendu au Royaume-Uni et ailleurs au sujet du chiffrement de bout en bout.
Le Royaume-Uni aurait émis une ordonnance obligeant Apple à introduire une porte dérobée. L’entrée permettrait à la sécurité britannique un accès aux données chiffrées, même quand toutes les options de sécurité sont activées.
Selon le Washington Post, le gouvernement anglais aurait envoyé à Apple un « avis de capacité technique ». Ce type d’ordonnance est rendu possible par la loi IPA (Investigatory Powers Act), entrée en vigueur en 2016. Elle autorise le ministère de l’Intérieur à réclamer d’une entreprise qu’elle laisse passer les agents de sécurité pour récupérer des données, même en cas de chiffrement de bout en bout.
Dans le cas d’un produit Apple (iPhone, iPad, Mac…), la majeure partie des services communiquent avec un chiffrement de bout en bout. Par défaut, la sauvegarde iCloud de la totalité des données d’une personne n’utilise cependant pas de chiffrement. Apple tient ces données à disposition des forces de l’ordre si un mandat dument délivré par un juge est présenté, dans le cadre d’une enquête.
Dans les paramètres iCloud, l’option « Protection avancée des données » permet cependant d’ajouter une défense supplémentaire. Les données issues des sauvegardes, d’iCloud Drive, Notes, Photos, Rappels, Raccourcis, Dictaphone, Cartes ainsi que les signets de Safari deviennent alors chiffrées de bout en bout. La procédure oblige l’utilisateur à créer une méthode de récupération. Apple prévient en outre qu’en cas de perte du moyen de récupération, toutes les données seront perdues, la société ne pouvant plus y accéder.
Il ne faut pas confondre cette protection supplémentaire avec le mode Isolement (Réglages > Confidentialité et sécurité), ajoute des barrières supplémentaires pour lutter contre les cyberattaques en réduisant la surface d’attaque.
Aucun « précédent connu dans les principales démocraties »
Selon l’article du Washington Post, c’est donc cette Protection avancée des données que le Royaume-Uni veut contourner. L’avis de capacité de technique imposerait à Apple de percer dans ses propres défenses pour offrir une porte dérobée aux forces de l’ordre. Ces dernières pourraient alors, au cours d’une enquête, accéder à toutes les données, quelles que soient les options de sécurité activées.
Cette ordonnance, « émise le mois dernier, exige une capacité générale de visualiser du matériel entièrement chiffré, et pas seulement une assistance pour craquer un compte spécifique, et n’a pas de précédent connu dans les principales démocraties », indique le Washington Post.
En mars 2024, devant la volonté du Royaume-Uni de renforcer la loi IPA, la société avait envoyé un témoignage au Parlement britannique, dans lequel elle exposait clairement ses positions. « Les pouvoirs actuels de l’IPA sont déjà extrêmement étendus et constituent un risque important pour la disponibilité mondiale de technologies de sécurité d’une importance vitale », déclarait-elle notamment.
Prétentions extraterritoriales
La société californienne mettait surtout trois points en avant. D’une part, le secrétaire d’État a le pouvoir d’exiger le silence de l’entreprise concernée, l’empêchant d’avertir ses clients de la modification demandée. D’autre part, la loi IPA a une portée extraterritoriale, « ce qui permet au gouvernement britannique d’affirmer qu’il peut imposer des exigences secrètes aux fournisseurs situés dans d’autres pays et qui s’appliquent à leurs utilisateurs dans le monde entier ». Enfin, face au renforcement de l’IPA par plusieurs amendements, les sociétés technologiques devraient notifier à l’avance le gouvernement britannique de tout ajout prévu de fonctions de sécurité, qui pourraient alors être bloquées.
Pour Apple, le Royaume-Uni chercherait à s’ériger en « régulateur mondial des technologies de sécurité ». La firme pointe les dangers pour le niveau mondial de sécurité, l’exposition des données personnelles aux piratages et les chocs juridiques avec d’autres pays.
Apple se montrait donc claire sur ses conclusions : jamais elle n’introduira de porte dérobée dans ses produits. Si le Royaume-Uni insiste, la société finira par supprimer la protection avancée des données. Si la société met sa menace à exécution, cela ne répondra toutefois pas aux exigences de la loi IPA, puisque la protection ne pourrait pas être désactivée sur les appareils l’ayant déjà. Et pour cause : Apple n’a pas la main sur le code de récupération.
La porte dérobée, encore elle
La BBC indique de son côté avoir eu confirmation de la manœuvre en cours. La volonté du gouvernement britannique serait, d’après ses sources, de cibler des individus spécifiques présentant un risque pour la sécurité nationale, plutôt que de « passer au peigne fin les données de tout le monde ». Les demandes seraient faites comme d’habitude, avec un mandat délivré par un juge dans le cadre d’une enquête, comme avec les comptes n’ayant pas activé l’option.
La procédure ne pourrait rien cependant contre l’inévitable risque que ferait peser une porte dérobée. Même si son accès était réservé à un très petit nombre, uniquement avoir montré patte blanche, elle serait tôt ou tard trouvée par des tiers, par accident ou à force de chercher. Les pirates pourraient alors s’en emparer, provoquant un vaste pillage mondial des données sur les comptes Apple.
Colère et inquiétude des ONG
Du côté des ONG, c’est la douche froide. Pour Caroline Wilson Pallow, directrice juridique de Privacy International, c’est « une attaque sans précédent » contre les données personnelles. À la BBC, elle a ajouté : « C’est un combat que le Royaume-Uni n’aurait pas dû choisir. Ce dépassement crée un précédent extrêmement préjudiciable et enhardira les régimes abusifs dans le monde entier ».
Pour S.T.O.P (Surveillance Technology Oversight Project), le Royaume-Uni porte atteinte à la vie privée de ses citoyens, tout en affaiblissant la sécurité mondiale. L’organisation souligne elle aussi l’impossibilité d’avoir une porte dérobée réservée aux forces de l’ordre. « Non seulement cela rendrait d’innombrables utilisateurs plus à risque d’être surveillés par les gouvernements, mais cela ouvrirait la porte à une vaste gamme de menaces de la part des pirates informatiques et des cybercriminels », indique l’ONG.
À la CCIA (Computer & Communications Industry Association), la récente tempête de cybersécurité aux États-Unis, Salt Typhoon, a mis en lumière l’importance du chiffrement de bout en bout, désormais largement mis en avant par la CISA. « Les décisions concernant la vie privée et la sécurité des Américains devraient être prises aux États-Unis, de manière ouverte et transparente, et non par le biais d’ordres secrets émanant de l’étranger et exigeant que les clés soient laissées sous le paillasson », a déclaré Matthew Schruers, président de la CCIA.
Des échos de San Bernardino
Apple ne voudra sans doute rien lâcher dans son opposition au gouvernement britannique. La menace de retirer les fonctions de sécurité avancée n’est probablement pas feinte.
L’histoire rappelle le choc brutal entre l’entreprise et le FBI après la tuerie de San Bernardino, en décembre 2015. Un iPhone 5c avait été retrouvé sur le corps d’un terroriste, après un attentat ayant provoqué 14 morts et 21 blessés par balles. Le FBI, en possession de l’appareil, voulait en récupérer les données. Problème, l’iPhone était verrouillé.
Apple, à l’époque, avait aidé le FBI en fournissant certains outils. Mais la firme ne pouvait pas passer le code de verrouillage car elle ne disposait pas de cette information. Or, ce code est repris par iOS pour façonner la clé de sécurité qui chiffre ensuite les données sur l’appareil. Autre problème, le FBI ne savait pas si le terroriste avait activé l’option entrainant un effacement des données en cas de multiples tentatives ratées sur le code.
Le FBI avait fini par exiger d’Apple qu’elle perce ses propres défenses. Refus catégorique d’Apple, qui arguait que la sécurité des données faisant partie de ses arguments de vente. Ajouter une porte dérobée aurait brisé cette promesse, détériorant la confiance du public et entrainant une chute importante de son chiffre d’affaires.
Le ton est monté pendant plusieurs semaines. Jusqu’à ce que le Bureau dépose officiellement plainte contre l’entreprise, pour la faire plier. Alors qu’une intense bataille juridique se préparait, le FBI a fini par annoncer que l’aide d’Apple n’était plus requise : une faille de sécurité allait permettre la récupération des données. Apple avait réclamé les détails de cette vulnérabilité, en vain à l’époque (on ne sait pas si elle a depuis été corrigée).
Le contexte était à peu près le même cependant. John Miller, alors responsable de l’unité antiterroriste à New York, avait ainsi accusé Apple « d’aider les kidnappeurs, les voleurs et les meurtriers ». Un son de cloche régulièrement entendu au Royaume-Uni et ailleurs au sujet du chiffrement de bout en bout.
Durant les deux derniers jours, de nombreuses annonces ont eu lieu dans le monde de l’intelligence artificielle. Alors que s’ouvre en France le sommet sur l’IA, plusieurs entreprises ont lancé de nouveaux produits, dont Mistral, GitHub, OpenAI, Google et Kyutai. Passage en revue.
On commence par Mistral, qui vient de lancer son application mobile pour Le Chat, son assistant maison. L’application est disponible pour iOS/iPadOS (15.1 minimum) et Android (7.0 minimum) et est traduite dans de nombreuses langues, dont le français bien sûr.
Les performances comme argument
Le lancement de ces applications mobiles était attendu. L’entreprise française doit lutter dans un marché à la concurrence féroce. Continuer à proposer une simple version web devenait donc problématique.
« Alimenté par les modèles Mistral les plus performants et à la latence la plus faible, ainsi que par les moteurs d’inférence les plus rapides de la planète, le Chat raisonne, réfléchit et répond plus rapidement que n’importe quel autre assistant de chat, jusqu’à environ 1000 mots par seconde. Nous appelons cette fonctionnalité Flash Answers, et elle est actuellement disponible en avant-première pour tous les utilisateurs », annonce ainsi tout de go Mistral dans son communiqué.
La société met donc en avant ses performances pour faire la différence. Difficile pour l’instant de juger réellement d’un potentiel écart avec des données chiffrées, mais d’après nos propres constatations, Le Chat s’est avéré particulièrement rapide, avec une grande réactivité.
Autre superlatif, Le Chat bénéficierait du « meilleur traitement des téléchargements au monde », renvoyant aux capacités de l’assistant sur tout ce qui touche à la reconnaissance de documents (OCR) et à leur analyse. Le Chat serait également à la pointe dans la génération d’images, la fonction étant alimentée par le modèle Flux Ultra de Black Forest Labs, présenté comme le plus performant. Dans le communiqué, l’entreprise n’hésite pas à se comparer à ChatGPT et Grok.
Mistral n’indique pas directement quels modèles sont utilisés pour son assistant. On sait en revanche que l’entreprise développe les siens propres, comme son modèle génératif Mistral Large, ou son modèle multimodal Pixtral. Quand la version Large de ce dernier est sortie en novembre, le communiqué mentionnait que l’un des moyens de le tester était justement Le Chat. Des améliorations pour ce dernier avaient été annoncées également il y a quelques mois. Dans l’annonce d’hier, c’est à nouveau le cas. À noter que Mistral Large et Pixtral sont tous deux présents dans Amazon Bedrock, Azure AI Studio et Google Vertex AI.
Plusieurs moyens de se différencier
Mais en dehors du délicat terrain des performances, où les percées sont vite oubliées, comment Mistral compte-t-elle se différencier ? L’entreprise dispose de plusieurs arguments. D’abord sur les prix, puisque l’entreprise profite de l’occasion pour introduire un forfait Pro, à 14,99 dollars/euros par mois.
Pour ce prix, la formule donne un accès illimité aux modèles les plus performants proposés, même si l’on ne sait pas lesquels. Mistral évoque également un « accès étendu aux réponses Flash », ce qui signifie une limite plus haute, mais une limite quand même. On note aussi la possibilité de désactiver le partage de ses informations et la présence d’un support dédié.
Mistral pourrait cependant avoir une carte à jouer sur la capacité de son assistant à tourner localement. L’offre Enterprise permet en effet de déployer Le Chat sur site, dans un environnement dédié et avec des outils personnalisés, pour exploiter si besoin les propres données de l’entreprise, sans communication avec les serveurs de Mistral. Le fonctionnement de l’assistant peut également se baser sur des modèles personnalisés. Cette capacité vient d’apparaitre, mais uniquement en accès anticipé pour l’instant.
Enfin, Mistral compte proposer bientôt des agents multi-étapes, nouveau grand axe de développement chez la concurrence également. Objectif, connecter ses contenus et systèmes avec des agents capables d’automatiser « les parties ennuyeuses de votre travail ». L’entreprise n’en dit pas plus pour l’instant, mais elle aura fort à faire. Les agents sont l’une des fonctions les plus mises en avant depuis l’année dernière, notamment chez Microsoft. La conférence Build 2024 revenait ainsi régulièrement sur cette thématique.
GitHub améliore son Copilot
Le Copilot de GitHub est devenu rapidement le produit phare de l’entreprise, rachetée par Microsoft. La filiale vient d’annoncer plusieurs évolutions importantes pour son assistant, dont… un mode agent. La nouvelle fonction doit permettre à Copilot d’itérer sur son propre code et de corriger automatiquement ses erreurs.
Le lancement de ce mode agent est une réponse du berger à la bergère. GitHub a largement popularisé le concept d’assistant dans le développement, mais se retrouve menacé par de jeunes entreprises aux grandes ambitions, dont Bolt, Cursor ou encore Replit. GitHub imagine donc un monde où les développeurs seront bientôt rejoints par des équipes d’agents IA toujours plus intelligents, qui agiront comme autant de « pair-développeurs » pour prendre en charge les tâches quotidiennes.
Ce mode agent, plus autonome, cherche à analyser les exigences de la tâche complète avant de générer du code. Il peut, selon GitHub, « déduire » d’éventuelles tâches supplémentaires qui n’ont pas été spécifiées par les développeurs humains, mais qui lui semblent requises. Il va ensuite itérer sur le code produit et le résultat de ce dernier, jusqu’à ce que toutes les tâches « déduites » soient accomplies.
Et GitHub va encore plus loin. Selon l’entreprise, son mode agent est capable de reconnaitre automatiquement ses propres erreurs, peut corriger les problèmes identifiés sans intervention des développeurs, surveille les erreurs pendant l’exécution et fournit des corrections, et peut suggérer et exécuter les commandes nécessaires dans le terminal. Les nouveautés peuvent être testées en passant par la version Insiders de Visual Studio Code.
GitHub évoque également l’avenir en indiquant qu’à terme, son projet Padawan permettra d’aboutir à un agent totalement autonome, à qui on pourra confier une liste de tâches de développement. Plus précisément, on pourra confier à Padawan un problème, l’agent s’occupant alors d’en définir toutes les étapes intermédiaires et les solutions allant avec. La fonction doit arriver d’ici la fin de l’année, sans plus de précisions.
OpenAI ouvre sa recherche ChatGPT à tout le monde
Parallèlement, OpenAI vient d’ouvrir sa recherche ChatGPT à tout le monde, sans plus nécessiter de compte. Initialement, la fonction était apparue en octobre dernier pour les personnes payant un abonnement. Deux mois plus tard, elle a été étendue à l’ensemble des utilisateurs, mais en exigeant un compte. Désormais, le champ est libre pour partir plus frontalement à l’assaut de Google et des autres moteurs de recherche.
Cette ouverture aura attendu que plusieurs séries d’améliorations viennent enrichir le service. La dernière salve date de décembre, quand la recherche est devenue accessible à tous les détenteurs de comptes. OpenAI a alors ajouté diverses capacités, dont surtout l’affichage des cartes et d’informations liées, comme les points d’intérêt. Ce type de fonction progresse rapidement, Perplexity ayant par exemple fait de même récemment. Après tout, si ChatGPT et ses concurrents veulent concurrencer pleinement les moteurs de recherche, autant en reprendre tous les attributs.
Parallèlement, Microsoft a annoncé hier soir la disponibilité dans Azure OpenAI Service des préversions de GPT-4o-Mini-Realtime-Preview et GPT-4o-Mini-Audio-Preview. Le premier modèle est destiné aux interactions vocales en temps réel. Il se destine clairement aux chatbots, particulièrement ceux tournés vers la clientèle. Ce modèle doit permettre des échanges naturels avec la voix, permettant selon Microsoft une plus grande rapidité dans les questions/réponses. Le second modèle est plus général et se destine aux interactions audios au sens large. Il ne permet pas de faire plus que GPT-4o, mais peut le faire pour « une fraction de prix », selon l’éditeur.
Quand les deux modèles seront disponibles en versions finales, ils seront intégrés aux API Realtime et Chat Completion fournies par Azure OpenAI. Microsoft ne tarit pas d’éloges sur ces capacités, qui pourraient jouer un rôle dans tout ce qui touche à la génération vocale, aussi bien dans les jeux vidéo que les podcasts, en passant par le cinéma.
OpenAI a également annoncé il y a quelques jours la possibilité de stocker les données en Europe. Ce choix n’est pour l’instant disponible que pour les nouveaux projets ChatGPT Enterprise, ChatGPT Edu et pour l’API. Pour cette dernière, les demandes seront également traitées dans la région européenne. Aucune bascule ne semble prévue pour les projets existants. OpenAI ajoute dans son annonce que les données sont chiffrées au repos en AES-256, que ses modèles ne sont pas entrainés « par défaut » sur les données des clients et que ses pratiques sont conformes avec le RGPD.
Google : du raisonnement et à nouveau des agents
Chez Google également la semaine a été chargée. Mercredi, la société a publié une série d’annonces sur ses modèles Gemini 2.0, dont une version expérimentale de son très attendu Gemini 2.0 Pro, qui prendra logiquement la succession de l’actuelle version 1.5 Pro. Cette préversion est disponible dans Vertex AI et Google AI Studio, et arrivera bientôt dans l’application mobile Gemini pour les détenteurs d’un compte Advanced.
Gemini 2.0 Pro prendra la relève en tant que modèle phare, avec une fenêtre de contexte de 2 milliards de jetons, ce qui correspond à peu près à 1,5 milliard de mots. Le modèle peut également « utiliser des outils tels que la recherche Google et l’exécution de code », précise l’éditeur. Dans son annonce, Google fournit un tableau réunissant différents benchmarks de ses modèles, et où Gemini 2.0 Pro arrive bien sûr en tête.
Parallèlement, Google a mis son modèle Gemini 2.0 Flash à la disposition du grand public. Annoncé initialement en décembre, il est désormais disponible depuis l’application Gemini, ainsi que dans Vertex AI et Google AI Studio.
Et puisque l’on parle de Flash, Google donne des nouvelles de deux variantes. D’abord, Gemini 2.0 Flash-Lite, une version qui se veut économique. Disponible, elle aussi, dans Google AI Studio et Vertex AI, elle doit donner le change dans un contexte largement bousculé par le modèle chinois DeepSeek. Flash-Lite garde la même fenêtre contextuelle d’un million de jetons et accepte les entrées multimodales. Selon Google, il préserve les performances de la version 1.5, tout en donnant de meilleurs résultats.
Quant à Gemini 2.0 Flash Thinking Experimental, un modèle de raisonnement disponible uniquement dans AI Studio jusqu’à présent, il arrivera bientôt dans l’application Gemini. Google n’indique cependant aucune date.
Kyutai revient avec une technologie de traduction simultanée
Kyutai, présenté comme un laboratoire en IA open-science à but non lucratif et fondé par Xavier Niel, Rodolphe Saadé et Eric Schmidt fin 2023, revient avec une nouvelle technologie. Dans un communiqué hier, Iliad annonce ainsi Hibiki, une technologie présentée comme capable d’assurer une traduction simultanée préservant la voix du locuteur. Hibiki pourrait « adapter son rythme au contenu sémantique du discours source ». La traduction orale se ferait en temps réel.
Toujours selon Iliad, Hibiki n’a pour l’instant été entrainé que pour traduire du français vers l’anglais. Il pourrait être déployé facilement dans le cloud et se montrerait assez efficace pour une « utilisation en temps réel sur mobile ».
Enfin, toujours chez iliad, un plan d’investissement a été annoncé ce soir : « OpCore [le nouveau nom depuis juin 2023 de Scaleway Datacenter, NDLR], la filiale qui opère les 13 datacenters du Groupe, va investir 2,5 milliards d’euros afin de renforcer sa position de leader européen du datacenter hyperscale dédié notamment aux ressources de calcul IA ». Une annonce dans la continuité de celle de décembre 2024 quand iliad annonçait vouloir devenir « un leader européen du data center hyperscale ».
Dans la même veine, « le Groupe a aussi investi dans la plus grande capacité de calcul commercialisable en Europe pour l’IA. Ce sont ainsi près de 5 000 GPUs dernière génération qui sont mis à la disposition des entreprises pour entraîner et utiliser leurs modèles ». Parmi les partenaires il y a Mistral AI, H et Photoroom. Là encore, c’est la continuité d’une annonce de 2023.
Nouvelle mouture importante pour la suite bureautique libre, avec de nombreuses améliorations à la clé. LibreOffice 25.2 prend notamment en charge le format OpenDocument 1.4 et intègre une nouvelle fonction capable de supprimer toutes les informations personnelles dans les métadonnées d’un document. Par exemple, tout ce qui touche aux auteurs, aux horodatages (heures de modification et commentaires notamment), nom et configuration de l’imprimante ou encore les modifications de suivi.
Cette version 25.2 introduit également plusieurs options liées au thème, dont une sélection du thème indépendante du système ou de l’environnement de bureau. Il est également possible de choisir la couleur des caractères non imprimables ou encore celle de l’arrière-plan des commentaires. Toujours dans la catégorie personnalisation, LibreOffice permet maintenance de faire bouger les limites des objets indépendamment des marques de formatage.
Certains ajouts étaient en outre attendus de longue date. Sous macOS, LibreOffice 25.2 prend ainsi en charge Quick Look, pour visualiser rapidement un document depuis le Finder. Si un certificat de sécurité a été configuré par défaut, il peut désormais servir à signer automatiquement tous les documents.
Outre ces améliorations générales, chaque application de la suite a ses propres nouveautés. Writer dispose – enfin ! – d’un niveau de zoom par défaut personnalisable pour tous les documents. Autre outil bien pratique, la possibilité de supprimer tout ce qui se trouve dans un certain type de contenu (à l’exception des titres). Calc reçoit un nouvel outil pour gérer les doublons, des améliorations pour la recherche dans les fonctions ou encore une meilleure interopérabilité avec les fichiers XSLX.
On peut consulter la liste complète (et touffue) des nouveautés depuis cette page. Le téléchargement se fait comme d’habitude depuis le site officiel. Les personnes ayant déjà la suite installée recevront une notification les invitant à effectuer la mise à jour.
La décision était attendue de pied ferme, elle est désormais là : la fibre Sosh passe d’un débit symétrique de 400 Mb/s à 1 Gb/s en téléchargement et 800 Mb/s en envoi.
Cette hausse des débits est automatique pour les nouveaux clients. Pour les personnes déjà abonnées, elle sera répercutée par vagues à compter du 10 février, la transition devant s’étaler jusqu’à la mi-avril, précise Sosh dans son annonce, tout juste publiée. Un e-mail sera envoyé pour prévenir que le compte a été mis à jour avec les nouveaux débits.
Dans sa communication, Sosh n’hésite pas à en faire des caisses. En plus d’évoquer une vitesse améliorée et une plus grande facilité lors des connexions multiples à la même connexion, le fournisseur d’accès va jusqu’à parler d’une latence réduite et d’une meilleure stabilité de la connexion.
« Dites adieu aux moments de suspense où l’image se fige pendant que vous regardez votre série préférée. Avec ce nouveau débit, profitez d’un streaming plus fluide et sans coupure ! », déclare ainsi Sosh. Pas certain qu’un streaming soit coupé par une connexion à 400 Mb/s, très au-delà des prérequis. Voici par exemple les vitesses de connexion recommandées par Netflix selon la qualité souhaitée :
En outre, même s’il s’agit bien sûr d’une très bonne nouvelle pour les abonnés (d’autant que le tarif ne change pas), Sosh ne fait que s’aligner sur la concurrence. RED et Bouygues proposent déjà des offres fibre 1 Gb/s ou même plus. Chez le premier, le débit 1 Gb/s est ainsi symétrique pour un tarif de 23,99 euros. À ce tarif, Bouygues propose même son offre B&YOU PureFibre avec des débits allant jusqu’à 8 Gb/s en téléchargement et 1 Gb/s en envoi. La box fournie est équipée en Wi-Fi 6E, là où Sosh et RED ne proposent encore que du Wi-Fi 5.
L’accès anticipé permet à des éditeurs ou même à des développeurs indépendants de publier un jeu sur Steam avant qu’il soit terminé. Le mécanisme permet le financement du reste du projet, mais obéit – normalement – à certaines règles, dont une fréquence correcte dans les mises à jour et les communications aux joueurs.
Mais à l’instar des campagnes de financement participatif, il y a des ratés. Certains éditeurs abandonnent leurs projets ou considèrent que leur devoir est rempli, occasionnant colère et frustration chez les joueurs.
Steam a donc décidé de prendre un peu plus le problème en main. Désormais, quand la page d’un jeu est inactive depuis trop longtemps, un message est ajouté pour prévenir les joueurs.
Sur la fiche de BattleBit Remastered par exemple, on peut lire : « Remarque : la dernière mise à jour a été publiée par l’équipe de développement il y a 13 mois. Les informations et le calendrier présentés ici peuvent être obsolètes ».
Même chose sur la fiche de Cavern Kings, la dernière mise à jour datant de 8 ans. À la décharge de l’éditeur (VINE), il est précisé plus bas dans la fiche que le développement a effectivement été abandonné, mais l’avertissement de Steam est autrement visible. Le message apparait en effet dans une couleur orangée qui tranche avec le fond bleu nuit du site, à l’intérieur du cadre signalant qu’il s’agit d’un accès anticipé.
Steam n’a pas encore communiqué officiellement sur ces ajouts, mais Eurogamer et PC Gamer ont signalé que la fonction avait d’abord été repérée par SteamDB. Ce dernier propose d’ailleurs une extension pour navigateur permettant d’afficher automatiquement la dernière date de mise à jour pour un jeu en allant sur sa fiche).
On ne sait pas précisément au bout de combien de temps d’inactivité le message s’affiche, même s’il semble que la période minimale soit d’un an. Il est possible que Steam soit en train de tester cet avertissement pour récoler des retours.
Dans un billet publié hier soir, Microsoft proposer d’amender l’API Notifications pour lui ajouter des capacités liées aux appels audios et vidéos. Cette API joue un rôle important aujourd’hui, puisque c’est par elle qu’un site web peut demander la permission d’émettre des notifications. Si l’internaute accepte, le site peut alors prévenir de certains évènements, selon le service fourni.
Dans le cas de la visioconférence cependant, ces notifications sont limitées, car essentiellement statiques. Un service de communication peut par exemple prévenir d’un appel, mais cliquer sur la notification ne pourra qu’envoyer vers le site concerné, où seront les boutons d’actions tels que « Répondre » et « Refuser ».
Microsoft propose donc de modifier l’API standardisée pour y inclure plusieurs nouvelles capacités : autoriser la personnalisation permettant à un service de se distinguer d’un autre, permettre l’ajout de boutons personnalisés utilisables pour répondre ou rejeter un appel, ajouter une sonnerie personnalisée, obtenir une priorité plus élevée que les autres notifications (si la plateforme l’autorise).
Ces fonctions seraient présentes en fonction de scénarios comme « incoming-call », définissant alors un périmètre d’action et doté d’une plus grande priorité, pour s’assurer que la notification est immédiate. La possibilité d’attacher une sonnerie personnalisée, dont beaucoup pourraient abuser, requiert également une étape supplémentaire : que le site web ait été installé sous forme de PWA (ce qui exclut d’emblée Firefox).
Dans son billet, Microsoft donne la marche à suivre pour tester la fonction. Elle consiste surtout à lancer Edge avec le flag « msedge.exe –enable-features=IncomingCallNotifications » depuis la ligne de commande, puis à se rendre sur une page spécifique. Après avoir autorisé les notifications, on peut effectivement voir ce que la réception d’un appel donnerait. En installant le site en PWA, la notification est effectivement accompagnée d’une sonnerie. On note que les labels des boutons disposent déjà d’une traduction.
Comme le note Neowin, cet ajout permettrait aux navigateurs d’obtenir les mêmes capacités qu’Android et iOS sur la gestion des appels.
Mozilla vient de dégainer coup sur coup Thunderbird 135 et la première bêta de Firefox 136. Un renouvellement rapide pour le client e-mail, puisque la dernière version date de la semaine dernière. Firefox 136 s’annonce de son côté comme une version importante.
Le rythme est très rapide pour Thunderbird. Alors que la version 134 est sortie le 27 janvier, la 135 est apparue hier soir. Comme la précédente, il ne s’agit pas d’une version mise en avant, le site ne proposant par défaut que la mouture ESR (Extended Support Release), actuellement estampillée 128.6.0.
La 135, elle, est simplement une « Release » que l’on peut récupérer depuis cette page, en modifiant le canal de distribution dans les menus. L’équipe de développement ne la recommande pas, la considérant presque comme une préversion. À moins de vouloir spécifiquement certaines nouveautés, il est conseillé de rester sur le canal ESR.
Nombreuses corrections, améliorations et binaires XZ
Mais qu’apporte cette version 135 ? Pour l’essentiel une longue liste de corrections et de petites améliorations. Il semble que Thunderbird 134 ait amené bon nombre de problèmes, corrigés dans cette révision, comme on peut le voir dans les notes de version.
Dans les améliorations, commençons par noter l’utilisation de XZ pour les binaires Linux. Comme pour Firefox, les gains sont notables sur la compression et surtout les performances lors de l’installation et de la mise à jour.
Thunderbird 135 permet également de spécifier un cookieStoreId lors de la création d’un espace, d’ignorer les sous-clés ou signatures non prises en charge lors de l’importation de clés OpenPGP conformes, ou encore d’utiliser le même code OAuth2 que le courrier pour les carnets d’adresses et des calendriers CardDAV.
Firefox 136 : accélération vidéo et onglets verticaux
Ainsi, sur Linux, Firefox 136 sait exploiter les GPU AMD pour le décodage matériel. Un support attendu de longue date. Autre arrivée, cette fois sur macOS : le décodage matériel pour les contenus HEVC. Là encore, Firefox rattrape la concurrence.
Firefox 136 introduit également pour la première fois les onglets verticaux, ici aussi une promesse de longue date. Ils ne sont pas activés par défaut. Pour les utiliser, il faut se rendre dans les paramètres du navigateur, onglet Général et chercher la ligne « Browser Layout ». La section n’est pas encore traduite. Il suffit ensuite de cliquer sur « Vertical tabs » et de regarder l’interface du navigateur évoluer, la barre latérale étant forcément activée dans ce cas.
Le fonctionnement est, dans les grandes lignes, identique aux autres navigateurs proposant cette disposition. Cet affichage peut notamment avoir un grand intérêt sur les ordinateurs portables, où la place verticale peut vite manquer. On gagne alors en surface d’affichage et en confort de lecture. On note cependant qu’en thème sombre, la barre d’adresse, très sombre, se confond pratiquement avec le bord de la fenêtre. Cela rend les déplacements de cette dernière hasardeux si l’on ne fait pas attention où l’on clique.
Et un peu sous le capot aussi
Firefox 136 renforce également son comportement HTTPS-First, ajoute la même compression LZMA sur le binaire macOS que pour Linux, désactive les bannières de cookies par défaut en navigation privée, ajoute une option pour afficher les termes de recherche sur les pages de résultats, ou encore ajoute le support de Codemirror 6 pour les développeurs.
Signalons aussi une évolution sous le capot pour la version macOS. Un nouveau mécanisme permet de déplacer certaines tâches en arrière-plan vers des cœurs moins puissants de la puce. Ces cœurs étant plus économes en énergie, la navigation devrait consommer moins et donc permettre une utilisation nomade plus longue.
Récemment, le projet FreeDesktop.org a annoncé avoir besoin d’un nouvel hébergeur en urgence. Equinix, chez qui le projet était stocké, a mis fin au stockage gracieux qu’il fournissait depuis plus de cinq ans. La société veut en effet se débarrasser de ses offres bare metal et n’octroie donc plus de crédits gratuits dans ce domaine.
FreeDesktop.org n’est pas le seul projet touché par cette décision. La distribution Alpine Linux se cherche également un nouvel hébergeur, pour les mêmes raisons.
« Nous sommes profondément reconnaissants à Equinix Metal (anciennement Packet.net) pour leur soutien de longue date, qui a été essentiel à l’écosystème d’Alpine Linux. Cependant, avec l’abandon par Equinix de son service d’hébergement bare metal, ce soutien critique prendra bientôt fin. Leurs contributions ont été inestimables, et nous les remercions d’avoir aidé Alpine Linux à rester fiable et efficace », indique le projet dans un billet.
De quoi cette distribution, axée sur la sécurité, a-t-elle besoin ? D’une bande passante de 800 To par mois, de deux serveurs (chacun avec 50 Go d’espace disque et 16 Go de RAM au minimum) agissant comme des runners d’intégration continue pour les architectures x86_64 et x86, ainsi que d’une « development box », un serveur dédié à l’environnement de développement pour les contributeurs et mainteneurs.
Alpine cherche un espace de colocation et des serveurs bare metal près des Pays-Bas. Si ce n’est vraiment pas possible, l’équipe peut envisager des machines virtuelles.
À Ars Technica, Carlo Landmeter, membre du conseil d’Alpine, a indiqué que la distribution « est devenue populaire sans que la plupart des utilisateurs le sachent ». Actuellement, la situation provoque l’arrivée de quelques dons. Plusieurs entreprises auraient tendu la main, mais il ne s’agirait encore que d’un « début », selon Landmeter.
Nos confrères ont mis à jour leur article. Après la publication de la version d’origine, ils indiquent avoir été contactés par Jason Donenfeld, fondateur de WireGuard. Le célèbre client VPN se cherche lui aussi un nouvel hébergement… pour les mêmes raisons. Il est à la recherche de dons et d’offres d’hébergement.
Depuis quelques jours, l’Ademe est au centre d’une tempête. Elle travaillerait sur une tarification progressive des forfaits téléphonique en fonction de la quantité de data fournie. Elle aurait même envisagé de légiférer. C’est pourtant faux.
Même si la source n’est pas toujours indiquée, tout est parti d’un article du Parisien sur le « grand bluff des opérateurs sur les forfaits mobiles ». Le sujet portait sur la quantité toujours plus importante de data fournie dans les forfaits et la guerre des prix entre les opérateurs. L’article rappelait pourtant les derniers chiffres de l’Arcep : la consommation moyenne de data en France est de 17 Go par mois. À quoi pouvaient donc bien servir les forfaits de plusieurs centaines de gigaoctets ?
Les usages varient bien sûr, mais le problème était ailleurs. « L’Ademe va donc plancher sur la tarification progressive des forfaits pour, in fine, envisager un projet de loi », indiquait le Parisien. Une phrase légèrement modifiée par la suite, pour devenir : « L’Ademe va donc plancher sur la tarification progressive et, si les résultats sont pertinents, un projet de loi pourrait être envisagé ».
La polémique a enflé rapidement. Le 2 février, même Xavier Niel a réagi sur X. Citant un tweet de Frandroid qui assurait qu’un « projet de loi se prépare », il indiquait simplement « Non ».
« Nous rassemblons des données »
Nous avons contacté Roland Marion, directeur de l’économie circulaire à l’Ademe. Interrogé sur l’idée d’un projet de loi, il se montre très clair : « Non, c’est faux. L’Ademe n’a pas ce pouvoir. Nous rassemblons des données, nous éditons des rapports, parfois avec l’Arcep. Mais nous ne pouvons pas proposer de lois. Nous mettons simplement à disposition les données recueillies. Les politiques peuvent venir y piocher ».
L’Agence de l’environnement et de la maîtrise de l’énergie ne travaille-t-elle pas sur une tarification progressive des forfaits ? « Oui et non », nous répond Roland Marion. « Nous réfléchissons à ce sujet comme nous le faisons sur d’autres. À une époque par exemple, nous réfléchissions à une tarification progressive de l’électricité en fonction des usages. La discussion a permis de voir que ce n’était pas possible ».
Et dans le cas des forfaits mobiles ? « Nous y réfléchissons. C’est une discussion ouverte, un sujet d’étude. Mais nous savons déjà que les usages peuvent varier largement. Quelqu’un qui a un forfait 150 Go ne signifie pas qu’il va forcément les utiliser. Peut-être que cette personne a un gros forfait parce que c’est son seul moyen d’accéder à internet ».
Des propos en écho à ceux de Sylvain Waserman, PDG de l’Ademe et ancien vice-président de l’Assemblée nationale pendant presque cinq ans (il connait donc bien le parcours législatif). Il s’est exprimé sur LinkedIn, rappelant les trois missions de l’Agence : « L’Ademe mène des études et recherches, publie des avis techniques, propose des guides de sensibilisation à destination du grand public avec des trucs et astuces ». Plus loin, il conclut, agacé : « À bon entendeur ! Décidément, il ne nous sera rien épargné, mais on le savait déjà… ».
Des sujets plus pressants
Comme nous l’a indiqué Roland Marion, il existe des marges de manœuvre beaucoup plus importantes sur le numérique pour réduire l’empreinte carbone. « La data cellulaire, effectivement, moins on en consomme, mieux c’est. Notre recommandation, que nous répétons depuis des années, est de basculer sur une connexion Wi-Fi dès que possible. Son impact sur l’environnement est dix fois moins important qu’une connexion cellulaire », explique le responsable.
« Mais notre action sur le numérique se concentre surtout sur les recommandations liées à la fabrication des terminaux et les datacenters », ajoute-t-il. « On parle beaucoup d’IA aussi maintenant. On tente d’expliquer que son utilisation a un impact environnemental conséquent et qu’il vaut mieux, quand c’est possible, l’éviter ».
Des chercheurs de Google ont découvert à l’automne dernier une faille dans les processeurs EPYC d’AMD, des générations Zen 1 à 4 (séries 7001 à 9004). Elle a été communiquée à AMD le 25 septembre, provoquant l’émission de correctifs le 17 décembre. Les détails de la faille, assez limités, n’ont été publiés qu’hier avec les chercheurs, suite à un accord avec AMD.
Pour exploiter la faille, il faut disposer des privilèges d’administrateur local sur un serveur, donc au ring 0 depuis l’extérieur d’une machine virtuelle. Il est alors possible de charger des correctifs malveillants du microcode dans le ou les processeurs concernés.
Droit de regard sur les machines virtuelles
« Cette vulnérabilité pourrait être utilisée par un adversaire pour compromettre des charges de travail informatiques confidentielles protégées par la dernière version d’AMD Secure Encrypted Virtualization, SEV-SNP ou pour compromettre la Dynamic Root of Trust Measurement », indiquent les chercheurs.
Bien que l’exploitation requière des privilèges locaux importants, la sévérité de la faille est considérée comme haute (score CVSS 3.1 de 7,2 sur 10). Son exploitation peut, en effet, conduire à l’installation de logiciels malveillants obtenant des capacités de visibilité dans les machines virtuelles, dont une partie de la sécurité repose sur le tandem matériel SEV-SNP au sein des processeurs.
Mauvaise vérification
SEV, pour Secure Encrypted Virtualization, est une technologie cruciale chez AMD. Elle génère une clé unique de chiffrement pour chaque machine virtuelle. Elle permet d’isoler les machines et l’hyperviseur les uns des autres.
SNP, pour Secure Nested Paging (pagination imbriquée sécurisée), ajoute des fonctions pour contrôler l’intégrité de la mémoire, renforçant encore l’isolation des machines virtuelles et devant les protéger d’attaques basées sur l’hyperviseur. Les deux technologies renforcent également les protections contre les attaques par canal latéral.
La vulnérabilité signalée par les chercheurs permet de jeter à bas ces défenses. Estampillée CVE-2024-56161, la faille réside dans l’utilisation d’une fonction de hachage non sécurisée pour valider les signatures dans les mises à jour du microcode. De là, un pirate peut faire passer des vessies pour des lanternes. Les machines virtuelles chiffrées perdent alors leur intégrité selon le code envoyé dans les processeurs.
La mise à jour déployée depuis décembre
Dans son bulletin, AMD indique qu’une mesure d’atténuation a été fournie pour la faille. Elle passe par une mise à jour du microcode et demande donc un arrêt du serveur, même si certains processeurs sont capables d’un chargement à chaud.
Il faut également déployer une nouvelle version du firmware SEV sur certaines plateformes, afin qu’elles puissent prendre en compte l’attestation SEV-SNP. Cette dernière permet à une instance de prouver son identité et son état. Une mise à jour du BIOS et un redémarrage du système sont nécessaires pour permettre l’attestation de l’atténuation. « Un invité confidentiel peut vérifier que l’atténuation a été activée sur la plate-forme cible grâce au rapport d’attestation SEV-SNP », précise AMD.
Les chercheurs (Josh Eads, Kristoffer Janke, Eduardo Nava, Tavis Ormandy et Matteo Rizzo) ont été remerciés par AMD. Ils notent cependant qu’ils ont fait une exception à la règle habituelle de révélation des failles de sécurité chez Google, notamment la période de 90 jours. Il s’est écoulé en effet 131 jours entre la publication des premières informations et la communication à AMD, et 45 jours depuis la diffusion des correctifs.
Pour les mêmes raisons, et compte tenu « de l’importance de la chaine d’approvisionnement et de la coordination nécessaire pour résoudre ce problème », aucun détail supplémentaire ne sera donné avant le 5 mars.
Précisons enfin que ce n’est pas la première fois qu’une faille de sécurité touche SEV ou SNP chez AMD. En 2023, une attaque baptisée CacheWarp avait nécessité également une mise à jour du microcode. Exploitée, elle pouvait permettre l’infiltration d’un code malveillant dans les machines virtuelles chiffrées.
Ni Google ni AMD ne parlent du cas des processeurs Epyc de 5ᵉ génération, avec l’architecture Zen 5.
Opera lance à nouveau un navigateur. Nommé Air, il vient occuper un créneau très particulier, que l’éditeur commençait à explorer avec son navigateur classique : le bien-être. Opera Air se targue d’être ainsi le premier butineur orienté pleine conscience et se dote d’outils dans cette optique.
Si les anciens d’Opera ont créé Vivaldi quand l’ancien navigateur a été totalement remanié pour passer sur une base Chromium, l’éditeur ne peut pas être accusé de se tourner les pouces. Le navigateur classique s’est à nouveau doté d’un nombre croissant d’outils, Opera ayant très vite investi dans le champ de l’IA avec sa propre Aria. Parallèlement, la société a lancé Opera GX, dédié aux joueurs, avec de nombreux réglages pour régler finement les ressources consommées.
Opera Air est le petit nouveau. Il s’agit, dans les grandes lignes, d’une version modifiée d’Opera (classique) pour lui faire adopter une interface présentée comme plus reposante et des outils orientés pleine conscience.
Des Boosts et des sons
Les deux fonctions phares d’Opera Air sont opposées. La première – et la plus visible – est le panneau des Boosts. « Élevez votre état mental avec des battements binauraux. Stimulez différentes ondes cérébrales grâce à la musique et au son », s’enthousiasme ainsi Opera. C’est quoi ce bazar ?
Un Boost est un ensemble de trois sons : une fréquence plus ou moins grave, un son et une musique. La fréquence sert de support et est à rapprocher des (très) nombreuses vidéos que l’on trouve sur YouTube pour « doper la concentration », faciliter l’endormissement, etc. La fréquence diffère selon l’effet souhaité. Le son change également selon le Boost choisi. Il peut s’agir de gouttes de pluie, de vent, de vagues, du crépitement du feu, dans la majorité des sons « naturels ». La musique, enfin, fournit un accompagnement sans accrocher l’attention. Sans parole, elle est à rapprocher du type de piste que nous évoquions dans notre article sur les faux artistes dans Spotify.
Opera Air propose une vingtaine de Boosts. Ils portent des noms évocateurs tels que « Stimulation de la Créativité », « Calme concentré », « Soulagement du stress », « Pensée analytique » ou encore « Concentration maximale ». Chacun joue sur les trois paramètres évoqués plus haut. Quand un Boost est lancé, il dure 30 minutes. On peut le contrôler depuis l’icône de fleur dans la barre latérale. Notez que l’on peut faire varier le volume de chaque élément selon les préférences. Même chose pour le temps, que l’on peut faire baisser à 15 min ou au contraire l’étendre en boucle infinie.
L’idée est intéressante et plaira sans doute à une partie des internautes. L’efficacité de ces ambiances – surtout des sons binauraux – dépendra de chaque personne, car elle n’a pas été vraiment prouvée scientifiquement, comme l’ont rappelé diversessources ces dernières années.
L’ensemble reste assez sympathique pour être utilisé dans la navigation quotidienne, selon les goûts. À noter qu’Opera Air recommande fortement d’utiliser un casque pour l’écoute des Boosts. Ces derniers fonctionnent même quand le navigateur est en arrière-plan.
Invitations à la pause
L’autre grande fonction d’Opera Air, ce sont les invitations à faire une pause. Le navigateur recommande en effet de faire une halte toutes les 60 à 90 min. Par défaut, une notification va apparaître toutes les 60 min pour vous y encourager. Ce temps peut être modifié pour un intervalle compris entre 45 et 180 min.
Quand la notification apparait ou que l’on veut faire soi-même une pause en cliquant sur les trois petits traits parallèles dans la barre latérale (sous la fleur des Boosts), un panneau s’ouvre. On peut choisir entre quatre activités, chacune avec son descriptif. : respiration, exercice du cou, méditation et examen complet du corps.
Chaque activité dispose de quatre variantes selon l’effet que l’on veut obtenir ou le temps dont on dispose. Elle est également accompagnée d’une voix (choix entre Emma et Alex) pour guider l’internaute, mais disponible uniquement en anglais (des sous-titres sont automatiquement affichés). L’activité s’interrompt automatiquement dès que le navigateur n’est plus au premier plan, invitant alors à reprendre lorsque l’on est de retour. Le temps de l’activité va de 3 à 15 min selon ce que l’on a choisi.
Là encore, sans être révolutionnaire, l’idée est sympathique. Elle devrait plaire aux personnes ne sachant pas s’arrêter, le navigateur intervenant pour rappeler l’importance des pauses. Si la fonction invite volontiers à la pleine conscience, elle parlera moins aux internautes qui préfèrent se lever régulièrement pour faire quelques exercices et se dégourdir les jambes. Mais rien n’empêche d’alterner.
Contrairement aux Boosts, Opera Air ne fait pas de recommandation particulière sur le port d’un casque.
Et le reste ?
Il s’agit des deux plus grandes fonctions d’Opera Air. Si elles ne vous tentent pas, il vaut mieux passer votre chemin.
À moins que l’interface, rendue assez minimaliste, vous interpelle. Les thèmes fournis s’orientent vers le verre givré, teinté selon l’image de fond choisie. On reste cependant sur les grands classiques d’Opera en matière de disposition des éléments, avec l’éternelle barre latérale à gauche pour épingler des fonctions (messageries, réseaux sociaux, téléchargements, historique, favoris, extensions…).
Alors oui, Opera Air affiche également chaque jour une nouvelle citation orientée vers le bien-être et la relaxation (« On ne peut pas arrêter les vagues, mais on peut apprendre à surfer » aujourd’hui), mais ce n’est pas ça qui devrait convaincre si les Boosts et les pauses ne vous attirent pas. Autant utiliser la version classique d’Opera, qui possède déjà toutes les autres fonctions. À noter d’ailleurs que dans le canal Dev, Opera teste l’intégration de Discord, Slack et Bluesky dans la barre latérale, de même qu’un nouveau lecteur de musique et plusieurs nouveaux thèmes dynamiques.
Le navigateur vient tout juste d’être rendu disponible. Bien que la page mentionne « Accès anticipé », il s’agit d’une version stable, nous a assuré Opera. Sur Mac, nous avons tout de même rencontré des ralentissements importants au premier lancement, avec un taux d’occupation très important pendant la configuration initiale. Une fois le navigateur redémarré, tout allait bien. Sur Windows, pas de problème majeur rencontré.
Précisons enfin que si vous installez Opera Air, pensez à cliquer sur « Avancé ». Opera a la fâcheuse habitude d’activer par défaut différentes options de télémétrie et de traitements liés à personnalisation des publicités.
Swift est le langage star d’Apple. Il a pris le relai d’Objective-C en tant que voie royale pour créer des applications sur les plateformes iOS, macOS et les autres. Le langage est open source (licence Apache 2.0) depuis plusieurs années maintenant. Désormais, il est rejoint par son « moteur de construction » (build engine), Swift Build.
Cette ouverture du code (également sous licence Apache 2.0) a été annoncée par le développeur Owen Voorhees de chez Apple le 1ᵉʳ février. Il y indique que le langage « continue de gagner en popularité », s’étendant vers un nombre croissant de form factors et de systèmes d’exploitation (Swift peut notamment être utilisé sur Linux et Windows).
Swift Build est le moteur utilisé par l’environnement de développement Xcode et Swift Playgrounds pour la construction des projets. Plus précisément, il réalise l’étape préparatoire avant la compilation, avec notamment la construction des dépendances. Il s’agit donc d’une pièce importante de l’édifice.
Comme l’indique Apple dans son billet, Swift Build peut être utilisé aussi bien avec Xcode qu’avec Swift Package Manager, donnant alors le même résultat. Un changement significatif, car Swift Package Manager avait jusqu’ici son propre moteur. « Sur les plateformes Apple, le fait d’avoir deux façons différentes de construire des paquets a également conduit à la confusion des utilisateurs lorsque le comportement des deux implémentations ne correspondait pas », indique Owen Voorhees.
Swift Build est donc proposé comme solution alternative. Apple assure que ce « changement devrait être transparent pour les utilisateurs et maintenir une compatibilité totale avec tous les paquets existants tout en offrant une expérience multiplateforme cohérente ».
Microsoft ne veut rien savoir : la puce TPM 2.0 est obligatoire pour utiliser Windows 11. Pourtant, il existe des méthodes permettant de contourner cette barrière. L’une d’elles était même jusqu’à récemment donnée par l’éditeur. Nous vous en proposons quatre, selon la situation de départ.
(Mise à jour du 6 février 2025 : Nous avons ajouté une quatrième méthode, permettant de mettre à jour un Windows 10 depuis l’image ISO de Windows 11)
On le sait depuis environ trois ans : Windows réclame, entre autres, une puce TPM 2.0 pour fonctionner. Un impératif lié à la volonté de Microsoft de mettre en place un parc Windows plus sécurisé dès l’installation, grâce à l’utilisation d’un composant matériel pour gérer notamment une partie des opérations cryptographiques. La firme veut d’ailleurs aller plus loin en généralisant sa technologie Pluton.
Problème : le support technique de Windows 10 s’arrêtera le 14 octobre prochain. Après cette date, plus aucun correctif de sécurité ne sera diffusé à l’ancien système. En quelques mois, les dizaines de failles découvertes resteront donc sans solution, ce qui devrait rapidement dégrader la situation. Or, Windows 10 représente encore près des deux tiers du parc Windows aujourd’hui.
Pour l’instant, Microsoft ne veut rien savoir, ni en abaissant les prérequis techniques pour passer à Windows 11, ni – surtout – en laissant plus de temps pour préparer le terrain. Il existe pourtant des solutions pour installer quand même le système. Nous allons donc nous pencher sur quatre manipulations, selon votre situation de départ.
Deux avertissements avant de commencer. D’abord, nous ne passons pas par une application tierce pour modifier le système, sauf dans un cas spécifique (le dernier). Ensuite, il faut garder en mémoire que ces solutions, si elles ont le grand mérite de se débarrasser d’un problème, peuvent ne pas perdurer dans le temps, à la (dé)faveur d’une mise à jour de Windows.
Depuis un PC Windows 10, en modifiant le registre
Commençons directement par le cas le plus courant : vous avez déjà un Windows 10 fonctionnel et vous souhaitez simplement le mettre à jour.
Jusqu’à très récemment, Microsoft fournissait sa propre méthode (oui !). Sur cette page, on pouvait trouver un encadré gris décrivant une manipulation à faire dans la base de registre. On peut encore le voir dans cette archive.
La manipulation consiste à ouvrir le menu Démarrer, à taper « reg » pour faire apparaitre l’Éditeur de registre puis à appuyer sur Entrée. Là, il faut se rendre dans HKEY_LOCAL_MACHINE\SYSTEM\Setup, puis créer la clé MoSetup (sauf si elle existe déjà). Après quoi, on crée un DWORD32 nommé « AllowUpgradesWithUnsupportedTPMOrCPU » et on lui donne la valeur 1.
Normalement, après un redémarrage, le lancement de l’Assistant d’installation Windows 11 devrait vous « laisser passer », même si l’application Contrôle d’intégrité du PC dit que la machine n’est pas compatible. Et si nous écrivons « normalement », c’est que la méthode peut être capricieuse. Par exemple, après le redémarrage, l’assistant d’installation a bien voulu commencer. Souhaitant quand même contrôler, nous avons redémarré la machine à nouveau. Cette fois, l’assistant ne voulait plus rien savoir. Deux redémarrages plus tard, il a accepté de poursuivre.
Il y a également une limitation : la puce TPM 2.0 n’est plus obligatoire (la méthode coupe également la vérification du processeur), mais une puce TPM 1.2 est quand même réclamée. Même ainsi, à moins d’une très vieille machine, Windows 11 peut être installé sur un nombre beaucoup plus important de PC.
Cette méthode effectue une mise à jour classique, en préservant aussi bien les documents que les applications. Les éditions (Famille ou Professionnelle) sont préservées et la clé de licence est automatiquement mise à jour.
Depuis un PC Windows 10, avec l’ISO de Windows 11
Si votre PC ne veut pas passer sous Windows 11, il existe une autre méthode, qui a également fait ses preuves. Cette fois, aucune modification du registre n’est requise, mais nous allons quand même tricher en utilisant l’image ISO de Windows 11. Celle-ci se récupère depuis le site officiel de Windows 11, dans la section « Télécharger l’image disque Windows 11 (ISO) pour les appareils x64 ».
Une fois l’image ISO téléchargée, il faut se rendre dans le dossier où elle est stockée (par défaut Téléchargements). Là, faites un clic droit puis sélectionnez « Monter ». Une image ISO représentant un instantané d’un disque, celui-ci apparaît alors comme un lecteur dans la zone latérale de l’Explorateur, comme un lecteur DVD.
Ouvrez ensuite une invite de commande (touche Windows, tapez « cmd » puis Entrée). De là, rendez-vous dans le nouveau lecteur monté. Dans notre cas, il s’agissait du lecteur E, nous avons donc tapé « e: ». Entrez alors la commande suivante :
setup.exe /product server
Aussi étonnant que celui puisse paraître, nous déclenchons en effet l’installation de Windows Server. Mais pas de panique, ce n’est qu’une « façade ». La fenêtre qui apparait vous indique que vous allez installer Windows Server. Suivez les étapes de l’assistant, qui passe par une vérification du PC et une acceptation des conditions d’utilisation.
Après quoi, l’assistant vous demande de choisir entre plusieurs types d’installation. Si vous souhaitez tout conserver, restez sur le premier choix. Si cette mise à jour vous semble l’occasion de faire du ménage dans les applications, choisissez la deuxième option, qui ne va garder que les fichiers personnels (tout ce qui se trouve dans Documents, Images, etc.). L’assistant récupère éventuellement quelques mises à jour, puis signale que tout est prêt.
C’est ensuite la véritable installation qui commence, sans avertissement sur la configuration matérielle. Précisons qu’à l’instar de la première méthode, les éditions (Famille et Professionnelle) sont préservées.
Cette méthode a l’avantage de fonctionner pour les anciennes versions de Windows 11 dont le support se serait arrêté. Chaque version n’est en effet supportée que pendant un certain temps. Les moutures 21H2 et 22H2 n’ont ainsi plus de support et peuvent être mises à jour par cette technique également. Comme les autres, l’efficacité de cette méthode se révélera sans doute limitée dans le temps. Microsoft coupera peut-être le robinet plus tard, mais la voie reste ouverte pour l’instant et permet d’avoir un système à jour, avec les correctifs mensuels de sécurité. En tout cas, au moins jusqu’au 13 octobre 2026, date de fin de support de Windows 11 24H2. D’ici là, la version 25H2 sera sortie.
Installation neuve : le registre à nouveau
Dans le cas où vous préférez repartir d’une page blanche, des méthodes existent aussi pour contourner les prérequis de Windows 11. La première ne demande aucune modification du système ou du média d’installation.
La préparation d’une clé USB bootable est aisée. Microsoft fournit l’utilitaire qui automatise une grande partie de l’opération. On le récupère depuis le site officiel, on le lance et on insère une clé d’au moins 8 Go. On choisit quelques réglages, puis l’application récupère l’image ISO, formate la clé et lui transfère les données. La clé est alors prête à être utilisée.
Sur la machine un peu âgée (mais pas trop), on va donc lancer l’installation. Après le chargement initial, vous verrez apparaître le premier écran, où l’on choisit la langue d’affichage et du clavier. Là, n’allez pas plus loin. Appuyez sur Maj + F10, tapez « regedit » puis faites Entrée. Et revoilà l’Éditeur de registre.
Comme la première méthode, il faut se rendre dans la clé HKEY_LOCAL_MACHINE\SYSTEM\Setup. Là, créez-en une nouvelle, baptisée LabConfig. À l’intérieur, créez trois DWORD32 et donnez-leur tous la valeur 1 :
BypassTPMCheck
BypassSecureBootCheck
BypassRAMCheck
Le premier désactive la vérification de la présence de la puce TPM 2.0. Les deux autres valeurs désactivent respectivement la vérification pour Secure Boot et pour la quantité de mémoire. Si votre PC a au moins 4 Go de mémoire, cette dernière valeur n’est pas nécessaire. Et même avec 4 Go, nous ne vous recommandons pas d’installer Windows 11. Aucun Windows depuis Vista ne fonctionne d’ailleurs bien avec si peu de RAM.
Nous avons testé cette méthode dans plusieurs machines virtuelles et avons pu constater son fonctionnement. La version du système utilisée était la dernière disponible sur le site de Microsoft, intégrant la mise à jour 24H2.
Préparer une clé USB avec Rufus
Voici le cas où nous avons utilisé une application tierce. Nous avons déjà parlé de Rufus, car en plus de pouvoir préparer une clé USB bootable avec différents systèmes, il dispose d’options spécifiques à Windows 11. Il sait notamment désactiver toutes les vérifications matérielles, en modifiant l’image ISO du système lors de la préparation de la clé.
Ce petit utilitaire (sous licence GPLv3) est, dans les grandes lignes, une version plus complète de l’utilitaire fourni par Microsoft. La zone « Périphérique » permet de sélectionner la clé USB, tandis que « Type de démarrage » s’assure que l’on va se servir d’une image ISO. Le bouton « Sélection », à droite, ouvre une fenêtre pour récupérer cette dernière. L’image ISO utilisée est la même que précédemment, celle téléchargée sur le site de Microsoft.
À moins de besoins spécifiques, il n’est pas nécessaire de toucher à quoi que ce soit d’autre. Ce n’est d’ailleurs pas intuitif, car les options qui nous intéressent n’apparaissent que lorsque l’on clique sur « DÉMARRER ». Là, une petite fenêtre s’affiche, dans laquelle vous cocherez la première ligne : « Supprimer la nécessité d’avoir 4Go+ de RAM, Secure Boot et TPM 2.0 ». L’opération prend un certain temps, selon les performances de la machine utilisée pour créer la clé.
Après quoi, on lance une installation depuis la clé USB comme on le ferait habituellement. Contrairement à la méthode précédente, il n’y a pas de manipulation à faire durant le processus.
Rufus est surtout pratique quand vous n’avez pas déjà un média d’installation, ou si vous vous apprêtez à effectuer l’opération sur plusieurs PC.
Tous les MacBook munis d’une puce Apple Silicon (M1, M2, M3…) ont un comportement commun : ils se réveillent automatiquement lorsqu’on les ouvre ou qu’on les connecte à une alimentation. Un fonctionnement sans doute choisi pour les quelques secondes gagnées dans la plupart des scénarios.
Pourtant, tout le monde n’apprécie pas ce comportement, en particulier le réveil automatique lors du raccordement à l’alimentation. Il semble qu’Apple s’en soit rendu compte et ait décidé de donner aux personnes concernées ce qu’elles veulent. Il ne s’agit pas cependant d’une case à cocher dans les réglages de macOS, mais d’une ou plusieurs lignes de commande.
Il faut que macOS Sequoia (la dernière version majeure disponible) soit installée. Ouvrez le Terminal puis entrez l’une des lignes suivantes, selon ce que vous souhaitez obtenir :
sudo nvram BootPreference=%00 : empêche le Mac de démarrer à l’ouverture de l’écran ou au raccordement de l’alimentation
sudo nvram BootPreference=%01 : empêche le Mac de démarrer uniquement à l’ouverture de l’écran
sudo nvram BootPreference=%02 : empêche le Mac de démarrer uniquement au raccordement de l’alimentation
Si vous voulez restaurer le comportement par défaut, il faudra exécuter la commande :
sudo nvram -d BootPreference
Dans tous les cas, le Terminal vous demandera de saisir le mot de passe de la session.
Microsoft a présenté hier soir les déclinaisons « for Business » de sa Surface Pro 11 et de son Surface Laptop 7. L’entreprise ayant toujours eu une politique de noms exotique, il y a en effet des Surface Pro pour le grand public et des Surface Pro pour les entreprises, mais toutes s’appellent « Pro ».
La Surface Pro 11 for Business reprend très largement les caractéristiques de la Surface Pro 11 présentée en mai dernier, lors du grand lancement des PC Copilot+. Il y a cependant une grosse différence : les puces Snapdragon X laissent leur place à des Core Ultra 200 d’Intel. La configuration de base est ainsi équipée d’un Core Ultra 5 236V (4 cœurs Performance de 2,1 à 4,7 GHz, 4 cœurs efficaces de 2,1 à 3,5 GHz), accompagné de 16 Go de mémoire et d’un SSD de 256 Go.
En option, on peut choisir un Core Ultra 5 238V, un Core Ultra 7 266V ou 268V. Notez que les deux Core Ultra 5 ont un NPU de 40 TFLOPS, contre 48 TFLOPS pour les Core Ultra 7. La puissance est donc suffisante pour toutes les fonctions IA intégrées dans Windows 11 (version pro fournie). La mémoire peut grimper jusqu’à 32 Go, étrange d’ailleurs qu’une version 64 Go n’ait pas été proposée au vu de la clientèle visée. Le stockage, lui, peut aller jusqu’à 1 To.
Pour le reste, tout est identique ou presque, dont une option OLED pour l’écran. On trouve également un lecteur NFC, absent de la version grand public. En revanche, Microsoft fait le choix de réserver l’option 5G à son Laptop 7 for Business. L’autonomie annoncée est de 14 heures en vidéo et 10 heures pour du web. Enfin, côté tarif, le ticket d’entrée est nettement plus élevé que pour la version Snapdragon X : 1 849 euros (TTC).
Le Surface Laptop 7 for Business subit le même traitement : il reprend la base équipée de Snapdragon X et la remplace par des puces Intel. Les configurations proposées sont exactement les mêmes que pour la Surface Pro 11 for Business. On s’étonne d’ailleurs : le Laptop 6 disposait d’une option 64 Go de RAM, qui disparait dans la nouvelle version. Le ticket d’entrée est le même : 1 849 euros (TTC).
Toutes ces configurations sont en précommande, pour une disponibilité à partir du 18 février.
Le CEA (Commissariat à l’énergie atomique et aux énergies alternatives), en partenariat avec la société italienne 3SUN (depuis dix ans), vient d’annoncer avoir franchi un nouveau record de rendement pour une cellule pérovskite-silicium : 30,8 %.
Ce type de cellule est aussi appelé « tandem » car elle contient une partie en pérovskite et une autre en silicium, chaque matériau étant capable d’absorber des longueurs d’onde différentes de la lumière solaire. Les pérovskites désignent des structures cristallines. Bien qu’elles se trouvent à l’état naturel, le CEA et 3SUN ont utilisé des matériaux synthétiques et relativement bon marché à produire.
Un succès, mais pas de commercialisation immédiate
« L’architecture tandem utilisée par le CEA et 3SUN pour ce record permet de dépasser la limite théorique de rendement, fixée autour de 29 %, pour les technologies conventionnelles au silicium actuellement en production dans les giga-usines photovoltaïques. De plus, alors que la plupart des records internationaux sont réalisés sur des surfaces de 1 cm², le CEA et 3SUN ont réussi cette performance sur une cellule de 9 cm², ce qui devrait faciliter le passage à l’échelle industrielle », indique le communiqué du CEA.
« Cette avancée technologique est cruciale pour le maintien de la compétitivité européenne et la promotion d’un avenir plus durable », a de son côté déclaré Stefano Lorenzi, CEO de 3SUN.
Cette technologie a le vent en poupe. Elle a progressé très rapidement, passant d’un petit rendement de 3,8 % en 2009 à un très solide 28,4 % en janvier 2024. L’annonce permet d’afficher une évolution de 2,4 points en un an.
Améliorer la longévité
Le record annoncé par le CEA est-il une étape dans la recherche pure ou va-t-elle déboucher sur une commercialisation ? « C’est une annonce très concrète », nous répond un porte-parole du CEA. « Il n’est pas prévu qu’il y ait de commercialisation immédiate, car il reste plusieurs problèmes à résoudre, notamment de longévité », ajoute-t-il.
Un souci d’ailleurs mentionné par le communiqué. Le CEA y évoque ainsi « les dernières barrières permettant d’aller vers la production de masse avec notamment le passage à des cellules de plus grande surface et l’amélioration de leur durée de vie ». Le CEA nous confirme que le travail continue pour atteindre une longévité digne des générations actuelles, de l’ordre de 20 à 25 ans.
Le Commissariat illustre le potentiel de la technologie en invitant à imaginer un remplacement des technologies actuelles, au rendement de 25/26 %, par les cellules tandem avec leur rendement de 30/31 %. Le gain permettrait à un même parc de générer 20 % d’énergie supplémentaire ou, à production égale, d’en réduire la taille de 20 %.
Nous ferons prochainement le point sur les technologies photovoltaïques et les défis qu’elles doivent encore affronter.
En avril 2024, Google a rassemblé les deux divisions responsables du matériel Pixel et d’Android sous une même égide : Platforms & Devices. 9to5Mac a appris, via un mémo interne ayant fuité, que l’entreprise venait de proposer un plan de départ volontaire pour les personnes travaillant dans cette nouvelle division, uniquement aux États-Unis.
Google a confirmé à nos confrères que le programme avait bel et bien débuté. On ne connait pas le nombre exact de personnes travaillant dans la section Platforms & Devices, mais il s’agit de l’une des plus importantes chez Google. Elle rassemble en effet des produits aussi divers qu’Android (y compris ses variantes pour Auto, TV, Wear et XR), Chrome, ChromeOS, Google Photos, Google One, Pixel, Fitbit et Nest.
Håkan Dahlström (CC 2.0)
9to5Mac émet l’hypothèse qu’il s’agit d’une conséquence logique à la fusion de l’année dernière. L’énorme division se serait lentement réorganisée et des synergies seraient apparues. Ce plan de départs volontaires serait également une demande d’une partie des employés. Le mémo mentionne les personnes qui ne seraient pas alignées avec les missions ou qui ne s’y retrouveraient pas dans la nouvelle organisation hybride.
Les personnes qui choisiront de partir toucheront une indemnité de départ, dont le montant reste à préciser.
Microsoft vient d’annoncer que le modèle chinois DeepSeek R1 était désormais proposé sur sa plateforme Azure AI Foundry, qui rassemble pratiquement tous ses services dédiés à l’intelligence artificielle. Un ajout aussi logique qu’étrange, car Microsoft enquête parallèlement sur une possible utilisation détournée des API d’OpenAI.
« Faire feu de tout bois » est désormais le mantra du monde de l’IA. La situation ambivalente de Microsoft en donne une nouvelle illustration. En effet, alors que l’entreprise enquête sur l’utilisation potentiellement inappropriée des données d’OpenAI dans l’entrainement du modèle chinois DeepSeek, voilà que l’entreprise en ajoute la version R1 (R pour « raisonnement ») dans son Azure AI Foundry.
Dans un billet de blog, Microsoft dit tout son enthousiasme. L’entreprise note que le « raisonnement par l’IA devient rapidement plus accessible », amenant une vaste transformation dans la manière dont l’IA est exploitée, surtout par les développeurs et entreprises.
L’intégration dans Azure AI Foundry permet donc, selon la firme, de tester et d’itérer avec le nouveau modèle. L’entreprise met bien sûr en avant sa collection d’outils et rappelle sa promesse de « rassembler les meilleurs modèles d’IA en un seul endroit pour accélérer l’innovation et ouvrir de nouvelles possibilités aux entreprises du monde entier ».
Microsoft sait également que beaucoup de questions se posent autour du modèle chinois, notamment sa neutralité. Elle affirme donc que « DeepSeek R1 a été soumis à des évaluations rigoureuses de sécurité et de red teaming, y compris des évaluations automatisées du comportement du modèle et des examens de sécurité approfondis pour atténuer les risques ».
Jamais elle n’affirme en revanche que l’utilisation de DeepSeek peut se faire sans risque. La tournure de la phrase laisse penser qu’elle n’a rien trouvé de troublant, mais le résultat n’est pas clairement donné. La société ajoute que filtrage intégré du contenu est disponible par défaut et que des options de retrait sont présentes pour augmenter la flexibilité. Un système d’évaluation permet en outre aux clients de tester le modèle selon leurs propres critères.
Bientôt des versions « distillées » pour des exécutions locales
Dans un autre billet publié hier soir, Microsoft prévient également que des versions « distillées » de DeepSeek R1 seront bientôt proposées. Il s’agit de variantes réduites et optimisées pour une exécution locale. La compatibilité sera d’abord assurée pour les PC Copilot+ basés sur une puce Snapdragon X de Qualcomm, avant d’être portée vers les machines Core Ultra 200V d’Intel et d’autres puces.
DeepSeek-R1-Distill-Qwen-1.5B sera la première mouture proposée dans AI Toolkit. Comme son nom l’indique, elle disposera de 1,5 milliard de paramètres. Viendront ensuite les variantes 7B et 14B. Microsoft dit avoir tiré parti des enseignements lors du travail sur Phi Silica, présenté lors de sa dernière conférence Build. De nombreuses optimisations auraient ainsi été effectuées pour rendre ces modèles efficaces avec les NPU (Neural Process Unit), offrant un bon compris entre performances et consommation énergétique.
Les tests sur le premier modèle pourront commencer dans Visual Studio Code. Il sera proposé au format ONNX QDQ.
Entre intégration et accusations
L’intégration de DeepSeek R1 dans AI Foundry peut surprendre, car Microsoft est à l’origine des accusations d’OpenAI contre le modèle chinois. Ces accusations font état de « preuves » qu’OpenAI possèderait et qui démontreraient que DeepSeek s’est servi des modèles et/ou des API de la société américaine pour l’entrainement de son nouveau modèle star. David Sacks, nouveau grand manitou de l’IA et de la crypto de la Maison-Blanche, a également porté des accusations contre DeepSeek, évoquant un possible vol de propriété intellectuelle d’OpenAI.
Or, Reuters rapportait le 28 janvier que des chercheurs de Microsoft s’étaient penchés sur DeepSeek. Des personnes, qu’ils pensent être liées à DeepSeek, auraient « exfiltré une grande quantité de données en utilisant l’interface de programmation d’applications (API) d’OpenAI ». Selon Bloomberg, ces informations auraient ensuite été transmises à OpenAI, qui aurait alors porté ses accusations contre DeepSeek.
« Nous prenons des contre-mesures pour protéger notre propriété intellectuelle, y compris un processus minutieux de sélection des capacités d’avant-garde à inclure dans les modèles publiés, et nous pensons qu’il est essentiel que nous travaillions en étroite collaboration avec le gouvernement américain pour protéger au mieux les modèles les plus performants contre les efforts des adversaires et des concurrents visant à s’approprier la technologie américaine », a réagi OpenAI.
Microsoft, de son côté, est restée silencieuse. La disponibilité de DeepSeek R1 obéit à une logique marchande et une volonté de rester pleinement visible avec le dernier modèle du moment. Les caractéristiques techniques de DeepSeek sont en effet suffisantes pour créer une rupture dans les certitudes américaines, au point notamment d’entrainer de vastes répercussions sur l’action NVIDIA.
Donald Trump réfléchit à imposer des droits de douane sur les puces produites à l’étranger. Le président américain, qui débute tout juste son second mandat, multiplie les menaces en ce sens. Selon lui, de telles mesures inciteraient fortement les entreprises à produire sur le sol américain. Mais l’équation est loin d’être aussi simple.
Le début du deuxième mandat de Donald Trump est marqué par une longue série d’annonces qui se veulent toutes plus radicales et énergiques les unes que les autres. Dans l’ensemble, elles participent toutes d’une approche « America First » (vieux slogan repris par Trump pendant sa campagne), destinée à renforcer l’idée que les États-Unis passeront avant tout le reste. La sortie de l’OMS ou encore la coupure brutale des subventions aux programmes anti-sida dans les pays en développement vont dans ce sens.
Cette fois, Donald Trump s’en prend aux puces et médicaments produits à l’étranger. Le président en est persuadé : imposer des droits de douane devrait motiver les grandes entreprises américaines de la tech à fabriquer leurs produits sur le sol national. Mais après avoir tant vanté la puissance de ces mêmes sociétés, l’arrivée de ces taxes pourrait s’avérer largement contre-productive.
De quoi parle-t-on ?
Selon Reuters, le président américain a déclaré plusieurs fois qu’il prévoyait d’imposer des droits de douane sur les puces informatiques importées. Il n’a pas précisé sa pensée, mais cette seule mention a été suffisante pour faire frémir le secteur de la tech.
Les conséquences seraient immenses, 80 % de la production mondiale des puces informatiques étant réalisés à Taïwan. Sur l’île, on trouve notamment le plus gros producteur mondial, TSMC, qui réalise 70 % de son chiffre d’affaires avec les clients nord-américains. TSMC construit bien une usine en Arizona, pour un montant de 65 milliards de dollars, mais son activité ne remettra pas en cause l’immense part représentée par la production assurée à Taïwan. D’autant que les technologies les plus avancées resteront dans les usines asiatiques.
Des entreprises comme AMD, Intel ou encore NVIDIA paieraient donc des taxes sur les livraisons de puces dont elles ont cruellement besoin. Quand on sait notamment à quel point les produits NVIDIA sont demandés depuis l’explosion de l’intelligence artificielle, les taxes douanières entraineraient mathématiquement une hausse des prix de vente.
Plus généralement, l’impact s’élargirait à l’ensemble des produits américains contenant une puce venant d’un autre pays. Taïwan, la Corée du Sud et le Japon, trois alliés proches des États-Unis, se retrouveraient taxés sur les exportations de puces, entrainant probablement une détérioration des rapports diplomatiques. Les sociétés coréennes Samsung et SK Hynix produisent ainsi à elles seules 75 % des puces DRAM dans le monde. Avec le Japonais Kioxia, elles disposent de la même part de marché sur les puces NAND.
Les produits finis ne sont pas tout
Le président américain semble également oublier que les usines produisant ces puces ne représentent qu’une partie de la chaine. Si Taïwan a atteint la place qu’elle occupe aujourd’hui, c’est aussi pour la concentration des autres entreprises impliquées dans la logistique.
Ainsi, non seulement relancer une production américaine prendrait des années et réclamerait des investissements colossaux, mais il manquerait également l’ensemble des sous-traitants et partenaires faisant vivre l’écosystème. Un nouveau maillage devrait être mis en place, les entreprises concernées devant alors choisir entre livrer leurs composants ou s’installer à leur tour sur le sol américain. Il faudrait revoir l’ensemble de la chaine logistique.
Or, Donald Trump compte s’en prendre au faramineux CHIPS and Science Act. Lancée sous le gouvernement Biden, cette loi vient injecter des centaines de milliards de dollars pour relancer la production locale de puces, tout en s’assurant de conforter l’avance américaine dans le domaine technologique.
Dans un discours donné à la House GOP Issues Conference, le président américain s’est montré clair : « Ils vont construire leur usine avec leur propre argent. Nous n’avons pas à leur donner de l’argent ». Il a ajouté : « Et nous ne voulons pas leur donner des milliards de dollars comme l’a fait Biden avec ce programme ridicule. Ils ont déjà des milliards de dollars. Ils n’ont rien d’autre que de l’argent, Joe. Ils n’ont pas besoin d’argent. Ils avaient besoin d’une incitation. Et cette incitation, c’est qu’ils ne voudront pas payer un impôt de 25, 50 ou même 100 % ».
Selon Bloomberg, Trump envisagerait une taxe « bien plus grande » que 2,5 %.
Si vous ne connaissez pas FreeDesktop.org, cet organisme a pourtant une grande influence sur le monde du libre. Les projets créés et gérés sous son égide sont nombreux et importants. Les deux plus connus sont X.org et Wayland. Parmi les autres projets majeurs, citons PipeWire pour le son, le bus de messagerie système D-Bus, ou encore Nouveau, un pilote libre pour les GPU NVIDIA.
Depuis environ cinq ans, l’organisme est hébergé gracieusement par Equinix. Un hébergement important, car avec l’ensemble des projets, le GitLab de FreeDesktop.org consomme 50 To de bande passante par mois environ.
« Equinix met fin à ses opérations avec nous le 30 avril 2025. Ils nous ont gracieusement soutenus pendant près de 5 ans, mais toutes les bonnes choses ont une fin.
Au vu du délai, il sera difficile de faire une transition en douceur du cluster vers un autre endroit (TBD). S’il vous plaît attendez-vous dans les prochains mois à quelques hoquets dans le service et probablement au moins une semaine complète de temps d’arrêt pour transférer gitlab à un endroit différent. »
Les administrateurs ajoutent que « toute aide sera appréciée ». Et pour cause : ils n’ont que trois mois pour trouver une solution, comme trouver un nouveau mécène. Comme signalé par Phoronix cependant, Benjamin Tissoires, principal administrateur, a évoqué l’idée de payer directement pour un hébergement, puis de couvrir les coûts via des parrainages.
Tissoires a ouvert un ticket hier soir pour suivre l’avancement de l’opération et faire le bilan des besoins. « Par ailleurs, nous vous demandons de veiller à ce que la discussion reste technique et ne soit pas alimentée par la haine. Equinix ne nous doit rien, et le fait qu’ils nous aient sponsorisés aussi longtemps montre à quel point ils sont dévoués à l’open source », a-t-il ajouté.
Doom + Doom II est une compilation proposée par Bethesda sur presque toutes les plateformes. Sur PC, on la trouve sur Steam en promotion pour encore 24 heures environ, à 3,99 euros au lieu de 9,99 euros.
Alors que la série s’apprête à accueillir un nouveau venu le 15 mai, The Dark Ages, la vieille compilation vient de recevoir une grosse mise à jour. Elle supportait déjà les mods et le multijoueur, mais pas les deux en même temps. La nouvelle version corrige le tir.
Comme le précise Bethesda dans son annonce, il faut s’assurer cependant de certains critères. Les hôtes devront ainsi activer le ou les mods avant d’entrer dans le menu Multijoueur. Les joueurs devront s’être inscrits aux mêmes mods avant de rejoindre un match. Par ailleurs, Bethesda recommande d’utiliser des codes pour les salles d’attente des matchs modifiés. Enfin, seuls les mods créés avec Vanilla DOOM, DeHackEd, MBF21 ou BOOM sont compatibles.
La mise à jour Update 2 contient également des correctifs de bugs et des modifications d’équilibrage, notamment pour The Hades.
Des chercheurs ont découvert deux failles de sécurité dans les puces Apple. Exploitées, elles peuvent laisser échapper des informations transitant dans certains navigateurs, dont celles sur les cartes bancaires et autres données sensibles. Ces vulnérabilités peuvent permettre des attaques par canal auxiliaire et ne sont pas simples à corriger.
Les attaques par canal auxiliaire consistent à détourner un mécanisme spécifique pour accéder à des informations qui, sans cette méthode, seraient inaccessibles. C’est le cas avec les deux failles découvertes par des chercheurs, qui les ont nommées FLOP et SLAP.
Dans les deux cas, il s’agit d’un détournement de l’exécution spéculative. Comme nous l’indiquions en novembre dans un article consacré aux conséquences lointaines de la faille Spectre, l’exécution spéculative est au cœur de tous les processeurs depuis longtemps. Cette fonction permet, via une approche statistique, de définir à l’avance l’ordre des instructions et donc les calculs à faire au sein du CPU. Si la spéculation est juste, il y a un gain de temps notable. Si elle est erronée, la branche de calcul est abandonnée et l’opération doit recommencer.
Dans l’ensemble, l’exécution spéculative permet des gains significatifs de performances. Malheureusement, ce fonctionnement s’accompagne de multiples failles, dont FLOP et SLAP sont les dernières représentantes.
Prédictions malveillantes
FLOP est présentée comme la plus grave des deux failles. Signifiant « False Load Output Predictions », elle permet l’exploitation d’une forme d’exécution spéculative que l’on trouve dans le prédicteur de valeur de charge (LVP). Ce composant est chargé de prédire le contenu de la mémoire alors qu’il n’est pas encore disponible.
Or, un acteur malveillant peut inciter le LVP à transmettre des valeurs à partir de données spécifiquement malformées. Le pirate peut ainsi récupérer ces valeurs, alors qu’elles sont en temps normal hors d’atteinte. Si la faille est exploitée, elle peut permettre la récupération d’informations sensibles dans un navigateur, comme le contenu de la boite de réception de Proton Mail, l’historique de géolocalisation dans Google Maps ou encore les évènements dans le Calendrier d’Apple.
L’autre faille, SLAP, s’en prend à un autre mécanisme de prédiction. SLAP (Speculation Attacks via Load Adress Prediction) vise ainsi le prédicteur d’adresse de chargement (LAP). Ce composant sert à indiquer au processeur où les données d’instructions sont stockées en mémoire pour en permettre l’accès. Si la faille est exploitée, elle peut forcer le LAP à prédire des adresses erronées, en envoyant une adresse plus ancienne à une instruction plus jeune.
SLAP peut être exploitée dans Safari. Il faut pour cela que l’onglet du site dont on veut obtenir les données – comme Gmail – soit ouvert en même temps qu’un onglet ayant chargé un site malveillant. Ce dernier peut alors lire des chaines JavaScript sensibles, autorisant la récupération du contenu des e-mails par exemple.
Zoom sur FLOP
La faille FLOP a été découverte lors de travaux des chercheurs (trois du Georgia Institute of Technology, un de l’université de la Ruhr à Bochum) sur le LVP introduit par les puces A17 et M3. L’équipe s’est notamment attelée à une opération de rétro-ingénierie sur le mécanisme, pour mieux comprendre son fonctionnement.
Ils sont alors rendus compte d’un point spécifique. Pour la même instruction de chargement, le LVP renvoie ainsi la même valeur plusieurs fois. Une idée leur vient : peut-on prédire cette valeur à la prochaine exécution de l’instruction, « même si la mémoire à laquelle le chargement a accédé contient désormais une valeur complètement différente » ?
Ils découvrent non seulement que c’est bien le cas, mais également qu’il est possible d’abuser le LVP pour faire calculer au CPU des instructions sur la base de données erronées. Plus précisément, il devient possible de lancer le CPU sur des calculs arbitraires en provoquant une erreur dans le LVP. On peut alors contourner des mesures de protection, dont celles mises en place dans les navigateurs pour bloquer les échanges entre deux onglets non liés par un même domaine.
De 5 à 10 minutes nécessaires
Pour fonctionner, les chercheurs estiment qu’il faut en moyenne entre 5 et 10 minutes. Les deux failles ont en commun de nécessiter que le site visé soit ouvert dans un onglet en même temps qu’un autre, avec le site malveillant. La suite dépend du navigateur.
Sur Safari, le site malveillant émet du code JavaScript pour déterminer les calculs nécessaires. Ces derniers déduits, une attaque peut lancer du code normalement spécifique à une structure de données contre une autre, permettant alors la lecture d’adresses 64 bits déterminées. La faille permet de charger les deux sites dans le même espace mémoire. En s’appuyant sur certaines spécificités du moteur WebKit, les chercheurs sont arrivés à réduire suffisamment l’entropie pour deviner, par force brute, des espaces de recherche 16 bits et ainsi accéder aux données qui les intéressaient.
Sur Chrome, la méthode change complètement. FLOP est utilisée pour cibler les structures de données internes dont Chrome se sert pour appeler les fonctions WebAssembly. Normalement, ces structures vérifient la signature de chaque fonction. FLOP permet de court-circuiter ce mécanisme, les fonctions pouvant alors s’exécuter avec de faux arguments.
Qui est concerné ?
Si FLOP est présentée comme plus grave que SLAP, c’est notamment parce qu’elle permet de lire n’importe quelle adresse mémoire comprise dans l’espace adressé par un processus de navigation. En outre, FLOP peut être exploitée dans Chrome et Safari, augmentant largement le nombre de cibles potentielles.
En revanche, FLOP se trouve sur des versions assez récentes des puces Apple : à partir de l’A17 pour les iPhone et iPad, du M3 pour les Mac, ces générations ayant introduit le LVP. SLAP, de son côté, est présente à partir des puces A15 et M2, concernant donc un plus grand nombre d’appareils.
Si vous avez un portable Mac d’au moins 2022, un Mac fixe d’au moins 2023, ou encore un iPhone ou un iPad d’au moins septembre 2021, votre appareil est concerné par au moins l’une des deux failles.
Plusieurs points sont également à préciser. D’abord, Firefox ne figure pas dans la liste des navigateurs vulnérables, car les chercheurs n’ont pas eu le temps de lancer des tests. Dans l’absolu, rien n’empêche selon eux que le navigateur de Mozilla soit également concerné. D’ailleurs, si des tests ont été effectués sur Chrome, rien n’empêche a priori que l’ensemble des navigateurs basés sur Chromium soient eux aussi vulnérables.
Peut-être aussi dans d’autres processeurs
Ensuite, même si FLOP et SLAP ont été démontrées dans les puces Apple, les chercheurs indiquent que les techniques LVP et LAP peuvent être utilisées dans les processeurs d’autres entreprises. Si tel est le cas, en fonction de l’implémentation, ces puces pourraient elles aussi être vulnérables. Leurs travaux seront présentés à deux reprises dans le courant de l’année : SLAP au symposium de l’IEEE sur la sécurité et la vie privée en mai, FLOP à la conférence Usenix en août.
Enfin, les chercheurs ont précisé qu’Apple avait été prévenue de ces failles en mai 2024. Selon des responsables de l’entreprise en privé, un travail serait en cours pour publier des correctifs.
Apple, interrogée à ce sujet par Ars Technica, n’a pas confirmé l’échange privé avec les chercheurs ni le développement de correctifs. « Nous tenons à remercier les chercheurs pour leur collaboration, car cette démonstration de faisabilité nous permet de mieux comprendre ce type de menaces. Sur la base de notre analyse, nous ne pensons pas que ce problème pose un risque immédiat pour nos utilisateurs », a-t-elle ajouté.
Quand on parle d’Auto Dark Mode, ce n’est pas au sujet d’une fonction du système. Pour une raison qui nous échappe depuis des années, Microsoft n’a jamais jugé bon d’introduire dans Windows des réglages pour une bascule automatique entre les thèmes clair et sombre. Ni en fonction de l’heure, ni en fonction d’une programmation personnalisée. Ce type de réglage existe pourtant depuis longtemps dans Linux et macOS.
Auto Dark Mode est une application créée par Armin Osaj pour compenser cette carence. Gratuite et libre (licence GPLv3), elle ajoute les deux fonctions manquantes. Le mode le plus classique permet d’afficher le thème clair entre le lever et le coucher du soleil, puis le thème sombre quand la nuit tombe. La bascule s’adapte à l’évolution de ces heures au cours de l’année. On peut sinon définir une plage horaire précise pour chaque mode.
L’application va cependant beaucoup plus loin. Elle permet par exemple d’affecter un fond d’écran spécifique à chaque mode, un curseur de souris, une couleur d’accentuation, un thème Office, voire un thème Windows complet (via un fichier .theme). On peut désactiver la bascule depuis l’icône dans la barre des tâches, reporter la prochaine bascule ou encore exécuter des scripts lors de cette dernière. Par défaut, l’application bloque la bascule si elle détecte qu’un jeu est lancé, pour éviter les éventuelles saccades.
La dernière révision de l’application, 10.4.2.29, introduit également plusieurs améliorations. La plus importante est le support de l’architecture ARM, permettant une installation native sur les machines concernées, dont les PC Copilot+. Un plus grand nombre de formats d’images est dans le choix des fonds d’écran, le code de l’application passe à .NET 8 et ses DLL sont maintenant signées. Plusieurs bugs ont également été corrigés.
L’application peut être téléchargée depuis le dépôt GitHub associé ou le Microsoft Store. Elle dispose d’une traduction française et est compatible avec Windows 10 et 11.
La version 0.88 des PowerToys, disponible depuis hier soir, contient un nouvel outil que certaines personnes connaissent pourtant déjà. ZoomIt vient en effet de la suite SysInternals, une autre collection d’outils. Créée par Mark Russinovich en 1996, cette suite a fait le bonheur des « power users » durant l’ère Windows NT/2000/XP.
SysInternals avait finalement été reprise par Microsoft, qui l’héberge. L’éditeur a donc choisi de transférer ZoomIt vers ses PowerToys et de lui assurer une meilleure visibilité.
L’outil vient s’ajouter assez logiquement à la suite d’utilitaires. Il permet de zoomer sur une partie de l’écran pour l’annoter et éventuellement l’enregistrer. On peut se servir ensuite des captures – photos ou vidéos – dans des présentations techniques par exemple. La suite SysInternals existant encore, Microsoft précise que les mises à jour de ZoomIt seront répercutées sur l’ancienne suite.
Parallèlement, une fonction disparait : Video Conference Mute. Elle était rapidement tombée à l’abandon.
Cette mouture 0.88 contient de multiples améliorations et modifications. Le passage à .NET 9.0.1 corrige, par exemple, de nombreux problèmes liés à WPF et améliore la stabilité générale des outils. Parmi les autres changements, citons :
Advanced Paste : ajout d’une étape de validation pour le format Json
Advanced Paste : ajout du support pour les types de fichiers pris en charge par BitmapDecoder quand on utilise la fonction Image vers Texte
Keyboard Manager : Ajout d’une option pour que le remappage d’un raccourci ne se déclenche qu’avec des modificateurs exacts
Aperçu Monaco : support des fichiers .resx et .resw dans les modules Peek et Explorateur
Aperçu Monaco : un nouveau paramètre permet d’activer la minimap du code dans les modules Peek et Explorateur
Aperçu du registre : Ajout d’une infobulle aux valeurs pour afficher plusieurs lignes de données
Aperçu du registre : un menu contextuel permet de copier le type, la valeur et les chemins d’accès aux clés
On note enfin une longue liste de bugs corrigés dans les différents outils. La liste complète des nouveautés et le téléchargement se trouvent sur le dépôt GitHub officiel. Pour les personnes ayant déjà les outils installés, une notification devrait vous proposer la mise à jour. Sinon, on peut en vérifier la présence en ouvrant la fenêtre principale (double clic sur l’icône dans la zone de notification) et en se rendant dans l’onglet Général.