Après les Box 5G, la 5G StandAlone (5G SA ou 5G+) débarque dans un premier forfait de téléphonie mobile, dans la gamme « pro ». Les avantages sont nombreux pour Orange et proviennent en grande partie des fonctionnalités de la 5G SA. Explications.
Dans un communiqué de presse, Orange annonce « une offre inédite 5G + avec une bande passante dédiée pour ses clients professionnels ». Qu’est-ce que cela veut dire au-delà du discours bien rodé des équipes marketing ?
Nous avons déjà expliqué ce qu’est la 5G+ d’Orange : c’est le nom commercial de la 5G StandAlone (ou 5G SA). Pour rappel, la 5G utilisait à son lancement et durant ces dernières années un cœur de réseau 4G pour fonctionner, d’où son appellation technique de 5G Non StandAlone.
Orange remet donc le couvert aujourd’hui avec son forfait Performance série spéciale 5G+. Passons rapidement sur ses caractéristiques qui n’ont rien de particulier : 350 Go de data, appels et SMS/MMS illimités pour 79 euros HT par mois, sans engagement.
Orange reprend les poncifs habituels de la 5G : hausse des débits et baisse de la latence. Mais la 5G+ apporte aussi des nouveautés intéressantes, notamment la technologie la technologie VoNR (Voice over New Radio). Ainsi, la « connexion data est maintenue en 5G lors d’un appel voix ». Avant, la data repassait en 4G lors d’un appel avec VoLTE et en 3G dans le cas contraire.
Orange met aussi en avant « une sécurisation accrue des données sensibles grâce au chiffrement natif des identifiants IMSI et à l’authentification renforcée des utilisateurs sur le réseau ». Nous avons voulu télécharger la fiche tarifaire et la description du service indiqués sur cette page afin d’avoir de plus amples informations, mais les liens sont cassés.
Orange met en avant des débits de 1,5 Gb/s… inférieurs à ceux de la 5G
Comme chez Free, la 5G SA est uniquement disponible sur la bande des 3,5 GHz, dont le « déploiement [est] en cours ». Le débit maximum annoncé par Orange est de 1,5 Gb/s en téléchargement avec l’agrégation de la bande des 700 Mhz en 4G, et de 200 Mb/s en émission.
Selon le propre site d’Orange, la 5G+ fait donc moins bien que la 5G en débit théorique. En effet, en 5G le débit maximum théorique en réception est de 2,1 Gbit/s selon Orange. En émission, c’est la même chose avec 200 Mb/s dans les deux cas.
Cette quoi cette « bande passante dédiée » ? Du slicing…
Orange revient à plusieurs reprises sur la notion de bande « prioritaire » : « Au travers d’une bande passante dédiée Premium, le client bénéficie d’une qualité de service différenciée sur le réseau mobile Orange. Ainsi, même en cas de forte utilisation du réseau mobile, ses débits sont préservés ».
« Lors des évènements : Pour les services de billetterie ou les solutions de paiement, la bande passante dédiée permet une connexion stable et assure la fluidité des opérations », ajoute l’opérateur en guise d’exemple.
Là encore, il s’agit d’une dénomination commerciale d’une technologie bien connue de la 5G : le network-slicing. Elle permet de découper le réseau en « en plusieurs sous-réseaux, que l’on appelle des tranches, ou “slices” en anglais », explique Orange.
Les usagers sur une tranche sont d’une certaine manière isolés de ceux d’une autre tranche. Les clients d’un forfait 5G+ peuvent ainsi profiter d’une tranche rien que pour eux eux en 5G SA, tandis que les autres se partagent une autre tranche. Une surcharge sur la seconde tranche ne devrait pas avoir d’impact sur la première.
Sur cette page dédiée au network-slicing, Orange rappelle que « tout ceci était déjà possible avec la 4G d’un point de vue technique », mais la 5G apporte « une vraie valeur ajoutée » grâce « à une architecture réseau virtualisée ». SFR d’ailleurs, proposait pendant un temps des forfaits 4G avec « internet mobile prioritaire ». Ils permettaient, « en cas d’affluence » d’avoir un « débit généralement plus rapide que celui des utilisateurs du réseau SFR non détenteurs du service ». C’était il y a maintenant 10 ans, en 2015.
Orange ne précise pas quand de nouveaux forfaits 5G+ seront disponibles ni si cette technologie sera proposé au grand public dans un proche avenir.
Plus de mille sites découverts en quelques mois, et sans doute beaucoup d’autres, encore dissimulés ou en gestation. L’enquête au long cours publiée cette semaine par Next révèle que le phénomène des contenus bas de gamme générés par IA a déjà pris des proportions significatives sur le Web francophone. Si beaucoup de ces sites automatisés grâce à l’intelligence artificielle ne servent que des intérêts bassement mercantiles, leur prolifération soulève de réelles questions économiques, sociales et politiques.
Au départ, il y avait quelques articles trop mal écrits pour être honnêtes qui passaient de journaliste en journaliste : « Haha, regarde ces c*ns, ils n’ont même pas pensé à enlever les éléments de prise en compte du prompt ». Début 2025, la blague a depuis longtemps viré au comique de répétition. Du genre bien lourd, le comique.
Après tout, pourquoi pas ? Depuis la sortie de ChatGPT, en novembre 2022, la plupart des rédactions s’interrogent – avec plus ou moins de bonne volonté – sur la façon d’intégrer les possibilités offertes par l’intelligence artificielle générative dans leurs pratiques. Toutes celles qui communiquent publiquement sur leurs travaux convergent vers une même approche : l’utilisation de l’IA n’est pas exclue, et peut même se révéler souhaitable, dès lors qu’elle est encadrée par un humain, et que ses productions sont supervisées (comme chez les développeurs d’ailleurs, ainsi que nous l’expliquait Marie-Alice Blette). Chez Next aussi, on l’utilise (notre comparateur d’offres d‘électricité par exemple) : c’est une bonne aide, mais ce n’est pas elle qui est aux commandes.
L’armada de sites générés par IA dont il est question dans notre enquête ne répond pas à ce prérequis. Tous ces sites ont précisément été détectés parce que certains de leurs articles présentent des « artefacts » qui témoignent d’une génération automatisée sans réelle supervision : hallucinations flagrantes, sites capables de publier plusieurs centaines de nouveaux articles par jour, citations déformées, contresens manifestes, etc.
Dans la suite de notre enquête, nous vous montrerons qu’il suffit d’une poignée d’heures et de quelques lignes de code pour créer un site GenAI. Nous verrons aussi comment beaucoup de ces sites servent les intérêts de professionnels du référencement, qui les utilisent pour créer des univers sémantiques et des renvois de liens, éventuellement vendus à des tiers, pour doper la visibilité de business bien réels cette fois.
Souvent, il suffit de quelques clés de lecture pour détecter un site manifestement alimenté par une IA sans supervision. Mais il arrive aussi que l’exercice se révèle plus délicat. Par exemple, quand le site en question se dissimule derrière une marque média qui a eu, un temps, pignon sur rue. Ou quand les contenus produits à peu de frais s’intercalent entre des articles éditoriaux écrits par des humains. Le milieu des « éditeurs assistés par IA » monte d’ailleurs rapidement en compétences, notamment parce qu’il faut prévenir les éventuels outils de détection que pourrait mettre en place Google…
Après tout, pourquoi pas ? Des éditeurs ou des agences Web bricolent des sites grâce aux outils du moment, ils automatisaient déjà la production de contenus bien avant ChatGPT et ça leur permet de gagner leur vie : tant mieux pour eux ?
« Well, that escalated quickly »
Le problème, c’est que ces contenus générés par IA ne s’embarrassent souvent ni de véracité, ni de légalité. Plusieurs des sites identifiés dans le cadre de notre enquête plagient ainsi, de façon peu discrète, les médias qui leur servent de source. L’automatisation leur permet de le faire à une échelle industrielle, à peu de frais.
Dans une tribune parue jeudi, les grandes organisations professionnelles du monde des médias appellent le gouvernement à profiter du sommet sur l’IA, organisé cette semaine à Paris, pour « garantir la fiabilité de l’information à l’heure de l’IA Générative ». Ils demandent pour ce faire que les grands acteurs de l’IA respectent le choix des éditeurs quant à l’utilisation de leurs contenus, que la traçabilité des sources soit garantie et que les droits d’exploitation des contenus soient acquittés.
En attendant que les grands noms de l’IA acceptent, ou non, de se plier à d’éventuelles règles à ce sujet, il existe un préjudice plus immédiat, qui nous affecte tous : la pollution.
Elle attaque déjà directement les médias. Outre l’utilisation indue de leur propriété intellectuelle, ceux-ci courent ainsi le risque de voir une partie de leurs audiences, et donc de leur modèle économique, phagocytée par ces nouveaux venus automatisés.
Sur certains sujets, elle menace aussi les individus. Souvenez-vous de l’IA qui suggérait de mettre de la colle sur une pizza ou dans un sandwich. Imaginez maintenant que des sites, dédiés à la santé par exemple, multiplient les conseils à plus ou moins bon escient sur la base d’informations mal digérées, uniquement parce que la niche se révèle lucrative sur le plan publicitaire ?
Cette pollution fait enfin peser un risque social et sociétal, dont l’existence a été avérée à de multiples reprises ces derniers mois : la capacité à produire rapidement, massivement et à peu de frais des sites ayant l’apparence de médias légitimes a déjà ouvert la voie à des campagnes de manipulation de l’opinion.
Elle revêt cependant une importance cruciale en ces temps où l’actualité se révèle particulièrement outrancière. Impossible ici de ne pas faire allusion aux déclarations récentes de Donald Trump qui, en seulement quelques jours, a manifesté sa volonté de prendre le contrôle du détroit de Panama, du Groenland, du Canada et de la bande de Gaza. Dans le monde entier, les médias crient au délire, et soupèsent pourtant très sérieusement la faisabilité des différents projets. La bande de Gaza en nouvelle Riviera du Moyen-Orient, l’hypothèse vous parait-elle plausible ?
Ce n’est peut-être pas la bonne question à se poser, comme nous le rappelle un certain Steve Bannon, figure emblématique des milieux conservateurs populistes nationaux et ancien « conseiller stratégique » de Donald Trump. Le 31 janvier dernier, il se goberge, au micro du New York Times. Pour lui, les discours récents de Trump sont la mise en pratique, enfin aboutie, du mode opératoire qu’il préconisait au président des États-Unis lors de son premier mandat : « The real opposition is the media. And the way to deal with them is to flood the zone with shit ».
En termes fleuris, il expliquait alors à Trump qu’il ne fallait pas redouter le camp démocrate, mais les médias, et que le meilleur moyen de se débarrasser de ces derniers était – pardonnez ma vulgarité, qui n’est que le reflet de celle de Bannon – de les inonder de merde… Autrement dit, de générer du bruit. Tellement de bruit que l’on finit par créer un phénomène d’assourdissement ou de sidération permettant soit d’occulter les vrais problèmes, soit de concentrer l’attention de ses adversaires sur les sujets de son choix.
Quel plus bel outil que l’IA pour nourrir cet objectif ? On assiste aujourd’hui à un croisement entre performances des outils grand public, accessibilité financière et tensions politiques exacerbées qui laisse augurer d’innombrables usages malveillants.
Éduquer, informer, créer de la confiance
Signer avec OpenAI pour toucher des droits voisins sur l’entraînement des grands modèles de langage, c’est bien, mais ça n’empêchera pas une agence Web, une agence d’influence ou un simple geek dans son coin de copier-coller des articles, ou un flux RSS, et de l’injecter dans une série de grands modèles de langage pour obtenir une infinité de réécritures de moins en moins détectables, et éventuellement orientées.
On entend depuis des années que les médias doivent cultiver leur image de marque, et le lien direct avec leur lectorat, pour limiter la dépendance aux moteurs de recherche ou aux réseaux sociaux, et ainsi tenter de préserver leur modèle économique. La GenAI souligne et renforce encore le caractère impérieux de cette relation de confiance entre médias et lecteurs, parce qu’elle permet d’amplifier, à peu de frais et à grande échelle, le bruit ambiant. J’évoque l’argument économique, parce qu’il fait généralement mouche assez facilement, mais l’enjeu dépasse de loin la question des équilibres financiers : il ramène à la place que doivent occuper les médias d’information dans la société.
Quand Jean-Marc a débuté son enquête, il y a près d’un an, il aurait été facile de publier rapidement un petit tour d’horizon témoignant d’un épiphénomène. Pourtant, il a soutenu, mordicus, que le sujet méritait d’aller plus en profondeur, convaincu qu’il ne s’agissait pas que de « cinq gus dans un garage », comme disait une ancienne ministre. En dépit de notre modeste équipe (six journalistes, un dessinateur), Next a fait le choix de suivre son intuition, parce que nous pressentions que cette enquête allait se révéler nécessaire.
Le Sommet qui s’ouvre à Paris dira si et comment politiques et industriels de l’IA parviennent à converger vers un cadre commun. En attendant et sans parti pris, il nous semble important d’informer et de sensibiliser le plus largement possible, parce que le sujet touche à des valeurs qui nous sont chères. C’est la raison pour laquelle nous avons souhaité donner une dimension collaborative à cette enquête, en partageant nos trouvailles avec d’autres médias, dont Libération. C’est aussi la raison pour laquelle nous avons développé une extension dédiée, dont on espère qu’elle aidera le grand public à prendre conscience de la nécessité de systématiquement vérifier la qualité de la source d’une information.
Le Kremlin a annoncé avoir relevé de ses fonctions le directeur général de l’agence spatiale russe Roscosmos, Yury Borisov. Dans un autre message publié sur son site officiel russe, Moscou explique que c’est Dmitry Bakanov qui le remplace.
Cet été, le premier directeur général adjoint de l’agence, Andreï Elchaninov, cité par l’agence de presse Interfax déclarait que « le refus des contrats par des Etats hostiles (occidentaux, ndlr) a coûté 180 milliards de roubles à Roscosmos ». Rappelons que, suite à l’invasion de l’Ukraine par la Russie, la coopération spatiale a été arrêté entre les occidentaux et le pays dirigé par Vladimir Poutine.
La décision était attendue de pied ferme, elle est désormais là : la fibre Sosh passe d’un débit symétrique de 400 Mb/s à 1 Gb/s en téléchargement et 800 Mb/s en envoi.
Cette hausse des débits est automatique pour les nouveaux clients. Pour les personnes déjà abonnées, elle sera répercutée par vagues à compter du 10 février, la transition devant s’étaler jusqu’à la mi-avril, précise Sosh dans son annonce, tout juste publiée. Un e-mail sera envoyé pour prévenir que le compte a été mis à jour avec les nouveaux débits.
Dans sa communication, Sosh n’hésite pas à en faire des caisses. En plus d’évoquer une vitesse améliorée et une plus grande facilité lors des connexions multiples à la même connexion, le fournisseur d’accès va jusqu’à parler d’une latence réduite et d’une meilleure stabilité de la connexion.
« Dites adieu aux moments de suspense où l’image se fige pendant que vous regardez votre série préférée. Avec ce nouveau débit, profitez d’un streaming plus fluide et sans coupure ! », déclare ainsi Sosh. Pas certain qu’un streaming soit coupé par une connexion à 400 Mb/s, très au-delà des prérequis. Voici par exemple les vitesses de connexion recommandées par Netflix selon la qualité souhaitée :
En outre, même s’il s’agit bien sûr d’une très bonne nouvelle pour les abonnés (d’autant que le tarif ne change pas), Sosh ne fait que s’aligner sur la concurrence. RED et Bouygues proposent déjà des offres fibre 1 Gb/s ou même plus. Chez le premier, le débit 1 Gb/s est ainsi symétrique pour un tarif de 23,99 euros. À ce tarif, Bouygues propose même son offre B&YOU PureFibre avec des débits allant jusqu’à 8 Gb/s en téléchargement et 1 Gb/s en envoi. La box fournie est équipée en Wi-Fi 6E, là où Sosh et RED ne proposent encore que du Wi-Fi 5.
Amnesty International, la Ligue des droits de l’homme, Vox Public, Féministes contre le cyberharcèlement et une centaine d’autres organisations non gouvernementales appellent, à l’occasion du Sommet pour l’action sur l’IA, à mettre les droits humains et la justice environnementale au centre de travaux de régulation de l’intelligence artificielle.
« Telle qu’elle est développée » écrivent-ils dans une tribune parue dans Le Monde, l’IA « aggrave les inégalités, détruit la planète et alimente un système d’exploitation global ».
Hanna Barakat + AIxDESIGN & Archival Images of AI / Better Images of AI / Frontier Models 1 / CC-BY 4.0
« Se concentrer uniquement sur d’éventuels futurs risques existentiels à venir de l’IA est un leurre », argumentent-elles encore. Elles citent les effets « très concrets » sur les populations les plus vulnérables qu’ont eu les dysfonctionnements des systèmes algorithmiques utilisés dans diversservicespublics européens, les algorithmes de prédiction de risque de récidive surcatégorisant les personnes noires aux États-Unis, ou encore les systèmes automatisés utilisés par l’armée israélienne pour sélectionner des cibles gazaouies.
Les associations signataires rappellent qu’en parallèle du développement de ces outils, les émissions des grands acteurs de la tech ont augmenté, tirées par l’explosion de l’intelligence artificielle générative, tandis que les activités d’extraction se perpétuent avant tout dans les pays du Sud.
« Nos gouvernements ne cessent de parler de souveraineté de l’IA, mais les défis posés par ces systèmes transcendent les frontières » affirment les associations. Elles appellent à permettre à chacun de « pouvoir choisir la direction de ses développements, quitte à les refuser s’ils ne correspondent pas à notre projet de société ».
Next a identifié plus de 1 000 sites d’information utilisant plus ou moins massivement l’intelligence artificielle pour générer des articles censés avoir été écrits par des journalistes, soulevant des questions quant à la qualité des informations. Pour vous donner un maximum de cartes en mains, nous vous proposons une extension pour Chrome et Firefox permettant d’être alertés lorsque vous visitez un tel site.
Dans une très longue enquête, notre journaliste Jean-Marc Manach explique comment il a découvert plus de 1 000 sites d’information francophones utilisant l’intelligence artificielle pour publier et/ou traduire des articles.
Preuve s’il en est besoin de l’ampleur du phénomène, on en retrouve même dans Google Actualités. Nous y reviendrons dans les jours à venir, avec d’autres articles consacrés aux « hallucinations » et « infox » relayées par ces articles GenAI, ceux reposant sur du plagiat, ou parasitant la presse régionale.
Nous avons décidé de développer une extension maison pour navigateur avec l’aide d’une IA (Claude.ai) et d’un développeur de chez moji (Hezirel, sur son temps libre, merci à lui !). Son but : vous prévenir lorsque vous visitez un site de notre liste de surveillance.
Le fonctionnement est on ne peut plus simple : l’extension tourne en tâche de fond et affiche un pop-up en cas d’alerte, avec le message suivant : « D’après les constatations (humaines) de Next.ink, des articles de ce site semblent avoir été (en tout ou partie) générés par IA ».
Détection sur le domaine
La détection se fait sur la base du nom de domaine, pas de chaque page individuellement. Un signalement ne veut donc pas forcément dire que l’article en question est généré à l’aide d’une IA, mais qu’on en retrouve sur ce nom de domaine.
En cliquant sur le bouton de l’extension, vous retrouverez la grille de lecture (liste non cumulative, ni exhaustive) nous ayant permis de détecter les sites d’info contenant des articles qui semblent avoir été (en tout ou partie) générés par IA :
Ils ont recours à des expressions, patterns ou hallucinations typiques des contenus GenAI,
sont signés de journalistes qui n’existent pas et/ou dont l’hyperproductivité est inhumaine,
ne sont que des traductions et/ou paraphrases d’autres articles (mais sans les mentionner),
ont recours à des images générées par IA ne correspondant pas aux critères journalistiques,
alignent des poncifs lénifiants ou moralisants plutôt que de présenter et recouper des faits,
ont été publiés sur un site sans mention légale (ou fictive) et sans directeur de publication,
usurpent la réputation de « noms de domaine expirés » pour cibler Google News & Discover,
s’apparentent plus à des contenus optimisés pour le SEO qu’à des articles journalistiques.
Suivez un des liens ci-dessous, ajoutez l’extension à votre navigateur et c’est terminé. L’extension tourne en tâche de fond. Elle est disponible sur les boutiques officielles de Chrome (compatible avec les navigateurs basés sur Chromium) et Firefox.
Télécharger l’extension pour Chrome (arrivée imminente)
Depuis le début de notre enquête (il y a plusieurs mois) et face à l’ampleur du phénomène, l’idée d’une extension pour les navigateurs s’est imposée. Avec plusieurs centaines de sites référencés, on ne peut pas vérifier manuellement la liste chaque fois que l’on visite un nouveau site.
J’ai quelques connaissances en développement, je comprends donc bien la logique algorithmique. Je suis aussi capable de suivre le déroulement d’un programme, d’adapter et vérifier le code (sur du code simple comme c’est le cas ici). À l’époque de l’IA générative, je me suis donc appuyé sur cette dernière pour développer les grandes lignes de ce projet. Claude.ai a été mis à contribution et, en une soirée à peine, j’avais déjà une première version de l’extension fonctionnelle.
Nous l’avons améliorée au fil du temps, avec notamment la possibilité de nous signaler des sites. Il suffit de cliquer sur l’icône pour faire apparaitre un menu avec l’URL du site prérempli (libre à vous de la modifier), un menu pour la catégorie et un champ description (deux champs optionnels). Cliquez sur « Signaler ce site » et ces informations seront ensuite récupérées par un serveur et stockées dans une base de données que nous pouvons consulter.
Aucune autre information n’est envoyée, mais vous pouvez ajouter des précisions et/ou un email dans le champ description si besoin. Avec Hezirel, nous avons travaillé à obfusquer la base de données des URL et optimiser le code (en partant de ce que j’ai produit avec Claude.ai, il a donc fait ce qu’il a pu dans un temps contraint), pour arriver à la version proposée actuellement.
Flock s’est occupé des petites icônes, mais avec des images de 128 x 128 pixels au maximum, son talent ne pouvait guère s’exprimer. Cette extension est donc le fruit d’un travail d’équipe, mais vous pouvez quand même apprécier le Go Go gadget-au-chapeau en tête d’article.
Des bugs peuvent arriver (et arriveront surement), n’hésitez donc pas à nous les signaler. Même chose si vous avez des idées de fonctionnalités intéressantes à ajouter. Nous lirons vos retours et vos commentaires avec intérêt.
L’accès anticipé permet à des éditeurs ou même à des développeurs indépendants de publier un jeu sur Steam avant qu’il soit terminé. Le mécanisme permet le financement du reste du projet, mais obéit – normalement – à certaines règles, dont une fréquence correcte dans les mises à jour et les communications aux joueurs.
Mais à l’instar des campagnes de financement participatif, il y a des ratés. Certains éditeurs abandonnent leurs projets ou considèrent que leur devoir est rempli, occasionnant colère et frustration chez les joueurs.
Steam a donc décidé de prendre un peu plus le problème en main. Désormais, quand la page d’un jeu est inactive depuis trop longtemps, un message est ajouté pour prévenir les joueurs.
Sur la fiche de BattleBit Remastered par exemple, on peut lire : « Remarque : la dernière mise à jour a été publiée par l’équipe de développement il y a 13 mois. Les informations et le calendrier présentés ici peuvent être obsolètes ».
Même chose sur la fiche de Cavern Kings, la dernière mise à jour datant de 8 ans. À la décharge de l’éditeur (VINE), il est précisé plus bas dans la fiche que le développement a effectivement été abandonné, mais l’avertissement de Steam est autrement visible. Le message apparait en effet dans une couleur orangée qui tranche avec le fond bleu nuit du site, à l’intérieur du cadre signalant qu’il s’agit d’un accès anticipé.
Steam n’a pas encore communiqué officiellement sur ces ajouts, mais Eurogamer et PC Gamer ont signalé que la fonction avait d’abord été repérée par SteamDB. Ce dernier propose d’ailleurs une extension pour navigateur permettant d’afficher automatiquement la dernière date de mise à jour pour un jeu en allant sur sa fiche).
On ne sait pas précisément au bout de combien de temps d’inactivité le message s’affiche, même s’il semble que la période minimale soit d’un an. Il est possible que Steam soit en train de tester cet avertissement pour récoler des retours.
Next a identifié plus de 1 000 sites web d’information francophones faisant croire que leurs articles sont écrits par des journalistes ou des experts en la matière. Ils sont en fait générés et/ou traduitspar des IA, sans le mentionner. Au moins une centaine reposent sur du plagiat, et près de 150 étaient mentionnés comme sources sur Wikipédia. Vu l’ampleur du problème, nous avons proposé au service de fact-checking CheckNews de Libération de nous aider à enquêter sur ce qui s’apparente à une véritable « pollution » numérique et médiatique. Premier volet de notre enquête.
La société NewsGuard évalue « tous les sites d’information et d’actualité (plus de 7 500 sites) dont les contenus représentent 95 % de l’engagement avec l’actualité en ligne aux États-Unis, au Royaume-Uni, au Canada, en France, en Allemagne et en Italie ».
Son observatoire de suivi de la mésinformation facilitée par l’IA répertorie par ailleurs 1 150 « sites d’actualité non fiables générés par l’IA » (GenAI ou « UAINS », pour « Unreliable AI-generated News Sites » en anglais), contre seulement 49 lorsqu’elle avait commencé à les recenser, en mai 2023.
NewsGuard souligne que « ces sites portent généralement des noms génériques […] qui ressemblent pour le lecteur à des sites d’actualité classiques » :
« Dans de nombreux cas, le modèle économique de ces sites repose sur la publicité programmatique – des publicités placées de manière algorithmique par les sociétés d’ad-tech sans se soucier de la nature ou de la qualité des sites. Par conséquent, des grandes marques soutiennent ces sites involontairement. »
Or, leurs articles « contiennent parfois de fausses affirmations, telles que des infox sur la mort de célébrités, des événements fabriqués de toutes pièces et des articles présentant des événements anciens comme s’ils venaient de se produire ».
Accessible sur abonnement, sa liste de sites GenAI, établie par près de 15 fact-checkers, concerne 16 langues. Contactée par CheckNews, la société précise que sa base de données ne contiendrait qu’une vingtaine de sites en français.
Next en a de son côté identifié plus de 1 000, rien qu’en français. Et nous avons de bonnes raisons de penser qu’il en existerait plusieurs milliers, au vu du nombre de professionnels qui ont industrialisé la production de sites d’informations générés par IA. Nous avons en effet identifié une centaine de ces pros de l’info GenAI, sans pouvoir mesurer combien de dizaines (voire de centaines) d’autres se seraient lancés dans ce douteux (mais lucratif) « business ».
Signe de l’ampleur du problème et de son inflation, cette sous-estimation (tant dans les chiffres de NewsGuard que les nôtres) semble indiquer que nous serions débordés par le phénomène, qui s’apparente à une véritable « pollution » numérique et médiatique.
Une pollution quasi invisible, puisque personne ou presque ne semblait l’avoir identifiée jusque-là. En tout cas, pas à ce point.
Une « forme hybride de plagiat » facilitée, voire générée par IA
Mi-octobre, Olivier Marino, directeur adjoint des rédactions du groupe Nice Matin, déplorait sur LinkedIn une « forme hybride de plagiat » facilitée, voire générée par l’IA. Un « média d’information et d’actualité », situé lui aussi dans le Var, publie en effet des articles « sur des histoires où nous étions parfois le seul média présent ». Ce média reprend à son compte les informations recueillies par les journalistes de Nice Matin, mais « sans source, ni lien ».
L’analyse d’un échantillon de 46 articles, effectuée par une start-up spécialisée dans la détection de contenus générés par IA, « a pu déterminer que 32 d’entre eux avaient été – selon son outil – générés via de l’IA reprenant les informations de Var-matin, mais aussi d’autres médias locaux ».
En réponse, 60 millions de consommateurs, « média sans publicité commerciale et ne vivant que de ses ventes », déplorait que ses articles étaient « très rapidement plagiés et republiés depuis des années sur des sites web truffés de pub et en accès gratuit ». Surtout ses essais comparatifs, « particulièrement coûteux à réaliser, dont l’intégralité des résultats est souvent ainsi diffusée gratuitement » :
« Jusque-là, il s’agissait surtout de réécritures « manuelles » sur les sites web de « vrais » groupes de presse (notamment un dont le nom commence par « Re »). Mais on commence à voir désormais des reprises de nos articles par des sites inconnus au bataillon, vraisemblablement rédigées par de pures IA, et très très bien classés chez Google. La presse locale est donc loin d’être la seule concernée. »
Nous avons alors répondu que nous nous apprêtions à publier une enquête à ce sujet, « ayant identifié plus de 100 sites en français se faisant passer pour des sites d’informations reposant sur le travail de journalistes, mais qui sont en fait générés par des IA, dont près de 30 reposent sur du plagiat (majoritairement d’articles étrangers, traduits en français) ».
Compte tenu du nombre d’acteurs impliqués, de médias parasités voire plagiés, et des nombreuses questions (déontologiques, juridiques, légales, médiatiques, financières, notamment) que cette prolifération de sites d’info GenAI soulève, nous avons depuis proposé au service CheckNews de fact-checking de Libération d’enquêter avec nous à ce sujet (voir leur enquête).
De 100 à plus de 1 000 sites GenAI en quelques mois seulement
Le phénomène s’est, en effet, révélé d’une ampleur nettement supérieure à ce que nous anticipions. Fin octobre (soit 15 jours après notre commentaire sur LinkedIn), lorsque nous avons contacté Libé, notre recension était passée à 270 sites d’info GenAI. Le cap des 500 a été franchi à la veille de Noël, celui des 800 mi-janvier.
Entamée il y a près d’un an, notre enquête nous a depuis permis d’en identifier plus de 1 000, soit près de 750 de plus en seulement trois mois, dont une centaine au moins relevant du plagiat (nous y reviendrons dans un prochain article). Ce n’est pas tant que le phénomène serait en pleine expansion (une bonne partie de ces sites existent depuis des mois, voire des années), mais parce que nous avons affiné nos méthodes de détection.
La consultation des 28 pages de réponses, sur Google Actualités, à la requête « je suis désolé, mais je ne peux pas » (l’un des messages d’erreur bien connus liés à ChatGPT et ses avatars) était éloquente. Nous y avons découvert une quinzaine de sites d’infos GenAI qui, eux-mêmes, nous ont permis d’en identifier près de 250 autres, liés d’une manière ou d’une autre à leurs éditeurs respectifs. Ce, en moins d’une journée.
Nous revenons plus en détails sur les tactiques et procédures permettant de reconnaître les sites GenAI dans un second article dédié. Nous ne saurions par ailleurs que trop vous conseiller d’installer l’extension pour navigateur que nous avons développée afin d’alerter ses utilisateurs lorsqu’ils consultent un site dont les articles ont été, en tout ou partie, générés par IA.
S’il était prévisible que des pirates de l’info se saisissent des IA génératives pour développer de tels médias, il est par contre incompréhensible que la plupart de ces sites, référencés depuis des mois ou des années sur Google Actualités, n’en aient toujours pas été exclus, plus de deux ans après le lancement de ChatGPT puis de ses avatars.
Le SEO est-il mort ?
En janvier 2023, deux mois seulement après le lancement de ChatGPT, nous écrivions en effet que la démocratisation des intelligences artificielles génératives allait « faciliter la production d’éléments textuels assez banals, surtout destinées à booster son référencement sur Google ». Cela posait de « nouveaux risques » en matière d’accès à l’information.
Un an plus tard, le SEO est toujours là, mais l’IA a changé la donne : par son intermédiaire, des éditeurs inondent Google Actualités de prétendus sites d’information et d’articles GenAI.
Non contents de piller à bas coûts les articles de médias rémunérant leurs journalistes, ils privent leurs rédactions des revenus publicitaires qu’ils auraient pu engendrer si les internautes avaient lu les articles originaux, et non leurs plagiats générés par IA.
Une centaine de pros du SEO responsables des 3/4 de ces 1 000 sites GenAI
Une bonne partie de ces 1 000 sites sont répertoriés par Google Actualités ou cherchent à l’être (soulignant, comme s’il s’agissait d’une caution, qu’ils y ont été « approuvés »). Pourtant, leurs articles se bornent à utiliser des IA pour identifier, traduire en français, voire copier-coller de façon automatisée des articles émanant de journalistes. Ces derniers ne sont jamais mentionnés, et leurs sources quasiment jamais citées.
Non content d’induire leurs lecteurs en erreur en leur faisant croire que les informations relayées ont été vérifiées par des journalistes, ces sites GenAI vont jusqu’à relayer des informations « hallucinées » par leurs IA, donc erronées. Nous y reviendrons, dans un article à paraître sur ces « hallucinations ».
Nous avons aussi identifié environ 90 (auto-)entreprises responsables de plus des trois quarts de ces sites, dont l’écrasante majorité émanent de professionnels du SEO. Plus de 50 d’entre elles administrent au moins cinq sites GenAI, plus de 30 dix sites ou plus, 10 plus de 20, cinq plus de 30 et deux plus de 90 (au moins).
Y figurent aussi cinq entreprises se présentant comme des médias ou groupes de presse, supposées employer des journalistes (nous y reviendrons également). De nombreux sites prodiguent des conseils en matière de high-tech, de finance (notamment en termes de « cryptoactifs », d’assurance-vie, retraite ou d’ETF), de démarches administratives, de bien-être et même de santé, jusqu’à prodiguer des… « avis médicaux » (nous y reviendrons aussi).
Environ 250 sites GenAI (soit le quart de ceux que nous avons identifiés) ne fournissent, a contrario, aucune mention légale permettant d’identifier leurs responsables, en violation de la loi. Dans certains cas, ils mentionnent même des informations fictives.
S’il est impossible de savoir combien de médias sont générés par des IA, ces 1 000 et quelques sites GenAI ne sont vraisemblablement que la partie émergée de l’iceberg de ces faussaires qui polluent le web en général, et Google Actualités en particulier.
Près de 50 % des sites GenAI étaient mentionnés dans Wikipédia
Plusieurs de ces sites apparaissent régulièrement sur Discover, l’IA de Google qui met en avant des articles d’actualité sur l’application Google mobile. À tel point qu’il arrive que deux des 15 - 20 articles qui y sont mis en avant chaque jour renvoient à des sites GenAI, contribuant à alimenter le robinet à pollution (nous y reviendrons).
Plus inquiétant : sur les 327 sites que nous avions partagés en novembre avec un administrateur et une contributrice émérite de Wikipédia, tous deux habitués à y détecter les « faux nez », 14 avaient déjà été identifiés lors des enquêtes menées à l’été 2022 sur les caviardages orchestrés par la société Avisa Partners sur l’encyclopédie collaborative, et 150 étaient mentionnés dans l’encyclopédie, soit plus de la moitié.
À lui seul, ce chiffre montre que les contenus GenAI ne sont pas forcément « bas de gamme », puisqu’ils parviennent à induire en erreur des contributeurs de Wikipédia. La vérification d’un échantillon aléatoire de contributions mentionnant ces sites GenAI a d’ailleurs permis de constater que les ajouts avaient, dans la majeure partie des cas, été faits « de bonne foi ».
Plus inquiétant : les deux fact-checkers de Wikipédia ont découvert que ces mentions étaient « souvent l’œuvre de contributeurs expérimentés, voire très expérimentés, y compris lorsqu’il s’agit de sites de très mauvaise qualité (pas d’auteurs, pas de mentions légales, traduction automatique manifeste, etc.) ».
Après avoir examiné chacun des 150 sites, ils avaient pu confirmer que 105 recouraient à l’IA pour la rédaction de textes, et 65 au plagiat (avec ou sans traduction, ou reformulation par IA). Les deux fact-checkers de l’encyclopédie en fournissent le compte-rendu détaillé, avec la liste des 148 sites examinés.
81 n’avaient en outre pas de mentions légales, ou des mentions mensongères, avec des auteurs fictifs. 51 avaient été « vampirisés » après le rachat de leur nom de domaine (et alors qu’ils constituaient jusque-là des sources acceptables), 18 ayant été utilisés pour effectuer des « modifications promotionnelles » sur l’encyclopédie, et 7 pour y faire du spam.
Nous leur avons depuis transmis à la liste des 1 066 sites GenAI identifiés à ce jour : 443 sont mentionnés comme « sources » et notes de bas de page sur Wikipédia, soit plus de 40 % du total. La liste de ces noms de domaine va désormais permettre aux contributeurs de l’encyclopédie de vérifier combien peuvent légitimement continuer à y figurer, ou pas (nous y reviendrons).
Une extension web pour identifier les sites (en tout ou partie) GenAI
Nous avons aussi découvert que 29 de ces 1 000 sites GenAI figurent dans le classement SimilarWeb des 1 000 sites d’éditeurs d’actualités et médias les plus visités en France. 17 figurent même dans le Top 500 et 3 dans le Top 100. 19 d’entre eux font aussi partie de la centaine de sites reposant en tout ou partie sur du plagiat (nous y reviendrons).
« La capacité de générer en masse de tels contenus est un désastre pour notre système informationnel », déplorait Ioana Manolescu, chercheuse en informatique à Inria et professeure à l’école Polytechnique, dans une enquête du Figaro consacrée à la « pollution numérique » constituée par la déferlante de contenus visuels (images et vidéos) GenAI :
« Un terme est en train de s’imposer pour les désigner : le « AI Slop », slop étant dans la langue anglaise un terme désignant la bouillie industrielle donnée aux cochons. »
« Le slop peut disparaître si les internautes expriment un fort rejet », soulignait-elle. Elle espérait que, à l’instar de ce qui s’est passé pour le spam, les acteurs de la Tech’ allaient travailler de concert pour développer des solutions de filtrage.
Afin d’aider les internautes à éviter ces pièges, Next a développé une extension web (pour Firefox et les navigateurs basés sur Chromium) affichant un message d’alerte sur les sites dont les articles nous semblent avoir, en tout ou partie, été générés par IA.
L’extension permet également à ses utilisateurs de nous envoyer, d’un simple clic, les sites GenAI, de désinformation ou frauduleux que ses utilisateurs auraient identifiés, pour que nous puissions « crowdsourcer » la mise à jour de notre base de données.
En revanche, nous avons ne rendons pas publique l’intégralité de la liste de ces sites, pas plus que celle des entreprises, pour plusieurs raisons. Nous ne voulons pas, d’une part, que cette base de données puisse aider ceux qui voudraient améliorer leurs générateurs d’articles automatisés, et qui se targuent de ne pas être reconnus comme GenAI (nous y reviendrons).
Nous ne voulons pas non plus faire de « name and shame » et mettre sur le même plan des auto-entrepreneurs SEO ayant créé quelques sites de façon opportuniste et les entreprises (y compris individuelles) en ayant créé plusieurs dizaines.
Nous allons toutefois, au fil des nombreux articles que nous allons publier dans les jours à venir au sujet de cette enquête, mentionner quelques sites et entreprises particulièrement emblématiques des problèmes que pose cette pollution.
Des IA pour remplacer les « travailleurs du clic » sous-payés
Tout a commencé lorsque, début 2024, nous avons reçu des « Google Alerts » nous renvoyant à des articles, répertoriés sur Google Actualités, mais émanant de médias inconnus. Ces articles cumulaient plusieurs artefacts et traits caractéristiques des contenus GenAI.
Suite au lancement de ChatGPT et de plusieurs autres IA génératives, nous avions consacré deux articles aux techniques, tactiques et procédures (TTP) pour identifier les textes et images générés par des IA, en mode « deepfakes » (ou hypertrucages).
Nous avons alors commencé à les recenser, cherchant à identifier leurs points communs pour les identifier plus facilement. Nous étions loin, à l’époque, d’imaginer que nous pourrions en découvrir plus de 1 000 rien qu’en français. Pas plus que notre recension artisanale ne représenterait qu’une (toute petite ?) partie d’une véritable pollution médiatique.
La majorité de ces sites GenAI semble émaner de professionnels du SEO, qui rachètent des noms de domaine ayant expiré pour profiter de leur référencement et trafic entrant préexistants. Traditionnellement, ils s’en servent pour produire des articles à la chaîne, soit pour démultiplier le nombre de pages vues, et donc les revenus publicitaires générés par de la publicité, soit pour vendre des liens et articles sponsorisés qui ont pour principal objet d’améliorer le référencement des sites Web de leurs clients, plus que d’informer leurs lecteurs.
Nombre d’entre eux recouraient jusque-là à des « travailleurs du clic », recrutés dans des pays d’Afrique francophone ou à Madagascar, pour disposer d’une main-d’œuvre à bas coût.
Depuis le lancement de ChatGPT et de ses avatars, ils semblent de plus en plus les remplacer par des IA capables de générer, traduire ou plagier des dizaines, voire des centaines d’articles par jour, à un tarif bien moindre ou quasi-nul (nous y reviendrons).
Aucun d’entre eux ou presque ne précise qu’ils ont été générés et illustrés par des « générateurs de baratin », « perroquets stochastiques » qui se contentent d’estimer la probabilité qu’une suite de mots puisse constituer un contenu plausible en réponse à un « prompt ». Ces logiciels ne comprennent pas les écrits et dessins qu’ils « génèrent », ce qui explique qu’ils puissent « halluciner » (ou « confabuler ») des faits et informations.
Des risques de mésinformation et de contrefaçon « assistées par l’IA »
Les conclusions de la mission de l’Arcom sur l’IA, rendues publiques mi-octobre, qualifient ces « médias synthétiques » de médias « du 3ᵉ type », aux côtés des médias éditorialisés (essentiellement humains) et des médias algorithmiques (plateformes en ligne).
Or, déplorait l’Arcom, en confiant à des algorithmes la génération des contenus qu’ils diffusent, « de manière relativement désincarnée » (sans véritables auteurs ou journalistes) et « avec un contrôle humain faible voire inexistant », ces médias ne peuvent proposer qu’une « qualité diminuée par l’IA ». Ce qui soulève plusieurs questions :
« économiques : ces services peuvent venir phagocyter le marché historique des médias éditorialisés ;
qualitatives : la production de contenus à la volée, parfois sans véritable contrôle humain, augmente le risque de mésinformation ou de désinformation ;
juridiques : les médias synthétiques peuvent représenter une forme « contrefaçon assistée par l’IA », tout en profitant d’une limite du régime de responsabilité de jure. »
L’Arcom relevait à ce titre que si « la France et l’Europe ne sont pas un « far west » de l’IA », au vu des règlementations nationales ou internationales en place ou en cours d’adoption, tel n’est pas le cas de ces médias « synthétiques » :
« Les médias synthétiques s’approprient fréquemment les contenus produits par les médias traditionnels puis les reformatent ou les reformulent afin de les rediffuser auprès de leurs propres utilisateurs – à des fins lucratives voire malintentionnées. »
À compter d’août 2026, les contenus GenAI devront être identifiables
Le Règlement européen sur l’IA demande en outre que des « solutions techniques » soient mises en œuvre pour s’assurer du respect du droit d’auteur par les modèles d’IA. Il en va aussi de la traçabilité des contenus générés synthétiquement, à la fois pour permettre la rémunération des auteurs originaux, mais aussi pour assurer la vérification de l’information.
L’Arcom relevait également « un besoin d’harmonisation des différentes technologies proposées pour le suivi des contenus authentiques / synthétiques ». L’AI Act, entré en vigueur le 1ᵉʳ août 2024, mais applicable à partir du 2 août 2026, exige en effet que « les fournisseurs d’IA, y compris de systèmes d’IA à usage général, qui génèrent des contenus de synthèse de type audio, image, vidéo ou texte, veillent à ce que les sorties des systèmes d’IA soient marquées dans un format lisible par machine et identifiables comme ayant été générées ou manipulées par une IA » :
« Il convient d’exiger que les fournisseurs de ces systèmes intègrent des solutions techniques permettant le marquage dans un format lisible par machine et la détection du fait que les sorties ont été générées ou manipulées par un système d’IA, et non par un être humain. »
En outre, souligne l’AI Act, « il convient d’envisager une obligation d’information similaire en ce qui concerne le texte généré ou manipulé par l’IA dans la mesure où celui-ci est publié dans le but d’informer le public sur des questions d’intérêt public, à moins que le contenu généré par l’IA n’ait fait l’objet d’un processus d’examen humain ou de contrôle éditorial et qu’une personne physique ou morale assume la responsabilité éditoriale pour la publication du contenu ».
La mission proposait dès lors que l’Arcom entame des travaux complémentaires dans le but de :
mieux mesurer l’impact potentiel des médias synthétiques, notamment sur le plan économique et en termes de revenus publicitaires ;
étudier au travers d’une analyse pluridisciplinaire comment les textes en vigueur s’appliquent à ces nouveaux services et évaluer les éventuelles limites des régimes de responsabilités qui s’imposent à eux.
Google ne distingue pas les articles journalistiques des contenus GenAI
« Lorsque nous classons un contenu, nous nous concentrons sur sa qualité et non sur la manière dont il a été produit », avait rétorqué un porte-parole de Google à 404 Media. L’entreprise ajoutait que ses systèmes de classement Google News « visent à récompenser le contenu original qui démontre des éléments tels que l’expertise et la fiabilité ».
En février 2023, Google avait en effet annoncé vouloir « récompenser les contenus de haute qualité, quelle que soit la façon dont ils sont produits », et donc même s’ils étaient GenAI.
Le moteur de recherche y rappelait que « l’automatisation est utilisée depuis longtemps pour générer des contenus utiles comme les résultats sportifs, les prévisions météorologiques et les transcriptions ». Il estimait en outre que « l’IA peut permettre de développer de nouveaux niveaux d’expression et de créativité et d’aider les utilisateurs à créer des contenus de qualité pour le Web ».
Google y fournissait même des « conseils pour les créateurs qui envisagent d’utiliser la génération par IA ». « Quelle que soit la façon dont le contenu est créé, les personnes souhaitant réussir sur la recherche Google doivent chercher à produire des contenus originaux, de haute qualité et people-first, présentant les qualités de l’E-E-A-T », indiquait l’entreprise.
Cet acronyme désigne « l’expertise, l’expérience, la légitimité et la fiabilité ». Des valeurs cardinales mises en avant par le moteur de recherche pour y être bien référencé, et que cherchent précisément à déjouer les professionnels du « black hat SEO », notamment pour parvenir à y indexer leurs sites GenAI.
En réponse à la question « Dois-je ajouter des mentions concernant l’IA ou l’automatisation à mon contenu ? », la FAQ indique que « les mentions liées à l’IA ou à l’automatisation sont utiles pour les contenus pour lesquels quelqu’un pourrait se demander comment ce contenu a été créé ». Elle conseille d’en « ajouter là où le lecteur pourrait raisonnablement s’y attendre ». Ce que ne font quasiment aucun des 1 000 sites GenAI que nous avons identifiés.
« Le contenu généré automatiquement et produit principalement à des fins de classement est considéré comme du spam, et nous prenons les mesures qui s’imposent en vertu de nos règles », avait pourtant précisé le porte-parole de Google à 404 Media.
Les réponses de Google
Contacté mi-octobre, et relancé depuis (plusieurs fois), Google a fini par répondre à CheckNews… fin janvier. Nous rétorquant que « plusieurs sites que vous nous avez partagés n’apparaissent plus dans Google Actualités » (sans préciser lesquels), le service de presse du moteur de recherche rappelle que les éditeurs peuvent y figurer s’ils se conforment aux règles de Google Actualités. Ce qui inclut « la transparence sur la propriété du site et l’identité des auteurs ». En outre, « des mesures sont prises lorsque ces politiques sont enfreintes, pouvant aller jusqu’au retrait des sites ».
Arguant du fait que « les internautes qui consultent votre site souhaitent savoir qui écrit et publie vos contenus », ces règles exigent que les sources d’actualités sur Google comportent notamment :
« Des dates et des signatures claires.
Des informations sur les auteurs, la publication et l’éditeur.
Des informations sur l’entreprise ou le réseau à l’origine de la source.
Des coordonnées. »
Or, si les éditeurs de plus des trois quarts des sites GenAI identifiés fournissent effectivement les noms et coordonnées de leurs responsables légaux, la quasi-totalité d’entre eux mentent, en attribuant à des auteurs fictifs les articles qu’ils publient. Quitte, pour certains, à les doter de vrais-faux profils sur LinkedIn ou X.com.
Google se targue en outre de disposer de « politiques robustes en matière de spam, régulièrement mises à jour pour mieux lutter contre les nouvelles pratiques abusives qui conduisent à l’apparition de contenus non originaux et de faible qualité dans le moteur de recherche » :
« Les systèmes de Google permettent de maintenir le moteur de recherche exempte de spam à 99 %, et Google continue de les affiner et de les améliorer au fur et à mesure que le Web évolue. »
Google nous explique aussi avoir « investi de façon conséquente dans des équipes d’experts et des technologies de pointe pour prévenir les abus et appliquer nos règles » :
« Pour vous donner une idée de l’ampleur, en 2023, nous avons bloqué ou restreint la diffusion d’annonces sur plus de 2,1 milliards de pages d’éditeurs, contre 1,5 milliard de pages en 2022, et nous avons pris des mesures d’application au niveau du site sur plus de 395 000 sites d’éditeurs, contre 143 000 en 2022. »
Google nous précise enfin avoir lancé, « plus tôt cette année », une « nouvelle politique » proscrivant l’ « utilisation abusive de contenus à grande échelle », à savoir le fait de « générer de grandes quantités de contenus non originaux qui présentent peu ou pas d’intérêt pour les utilisateurs […] dans le but principal de manipuler le classement dans la recherche Google et non d’aider les utilisateurs ».
Sont notamment visés l’utilisation d’outils d’IA générative (ou outils similaires) et la création de plusieurs sites « dans le but de masquer la nature des contenus à grande échelle ». Nous avons pourtant identifié plus de 50 éditeurs administrant (au moins) cinq sites GenAI, et trois plus de 40 (au moins), plusieurs d’entre eux apparaissant régulièrement sur Discover.
La responsabilité de Google dans les dérives de la presse sur Internet
Dans un billet intitulé « Trop c’est trop ! Marre de ces sites 100% fake, 100% IA » publié sur LinkedIn, le journaliste Mathieu Cartier déplore ainsi d’avoir découvert, via Google Discover, qu’un site avait copié-collé l’une des photos publiées sur son site transitionvelo.com, sans autorisation. L’auteur de l’article plagié, « un certain Emile Faucher, « journaliste captivé par l’ingéniosité entrepreneuriale et les solutions innovantes » », s’y présente comme « diplômé d’une grande école de journalisme à Lille ».
Mathieu Cartier a d’abord cru avoir affaire à l’un de « ces sites qui n’ont pour objectif que de générer du clic et de l’affichage publicitaire avec des contenus volés à d’autres et des titres putaclics ». Il a depuis compris que le site avait probablement été généré par IA (il fait effectivement partie des 1 000 sites GenAI de notre base de données). « Quelle tristesse de voir que ce genre de sites existent et que Google, aveugle, leur donne suffisamment d’intérêt pour les mettre en avant dans sa section Discover », déplore Mathieu Cartier :
« On ne peut plus faire comme si de rien n’était et il faut pointer du doigt la responsabilité de Google dans les dérives de la presse sur Internet, poussant jusqu’à des sites réputés, que l’on aime lire, qui emploient des journalistes talentueux, tomber dans le piège du putaclic parce qu’une partie de plus en plus grande de leur audience dépend de Discover. »
Des sites qui, pour lui, « n’auraient (peut-être) jamais été aussi loin dans ces habitudes et lignes éditoriales si de faux sites sans journalistes ni contenus propres, et surtout sans aucune image à construire ou sauver, n’avaient été ainsi encouragés » :
« Le pire ? Penser que ce genre de stratégies puisse être rentables. Se dire que des sites construits sur le travail des autres (eh oui, chatGPT n’invente rien qui n’ait déjà été publié ailleurs) puisse avoir un intérêt économique, quand des gens qui investissent compétences, temps, sueur et argent pour créer des contenus pertinents, enrichis, incarnés peuvent avoir du mal à exister dans la jungle d’Internet. »
Il n’en estime pas moins qu’il faut « garder espoir », « alerter sur ces pratiques » et « expliquer aux jeunes l’importance de la presse, du journalisme, des faits, de la vérité et du débat argumenté, quand bien même ils font – eux-mêmes – faire leurs devoirs à leurs smartphones » :
« Le combat est mal engagé mais il n’est pas perdu, alors – passé le coup de colère – ne nous résignons pas. »
Nous ne saurions mieux dire, vu l’ampleur de ce que nous avons découvert lors de cette enquête au long cours. Dans les jours à venir, nous avons prévu de revenir plus particulièrement sur :
les sites GenAI reposant sur du plagiat, mais néanmoins indexés dans Google Actualités/Discover,
les sites GenAI plagiant et parasitant la presse quotidienne régionale (PQR),
les sites GenAI prodiguant des « conseils » et « recommandations » de santé,
les « hallucinations » et « infox » relayées par ces articles GenAI,
les dizaines de générateurs d’articles GenAI, optimisés pour Google Actualités/Discover, développés et commercialisés par des professionnels du SEO, qui se vantent de ne pas être identifiables par les détecteurs de contenus GenAI,
le fait que Google (en anglais) a de son côté été capable de désindexer 1 500 sites GenAI.
L’autorité française chargée de la protection des données publie un premier bilan de son action en 2024 et communique sur le doublement du nombre de sanctions prises par rapport à l’année précédente. Pourtant, ce chiffre est loin d’être énorme.
87, c’est le nombre de sanctions que la CNIL affiche avoir prises pendant l’année 2024. L’autorité française de la protection des données a calculé qu’au total, elle avait récolté un montant de 55 212 400 euros à travers ces décisions.
En détaillant un peu ces données, la CNIL explique avoir donné « 72 amendes (dont 14 avec injonctions sous astreinte), 8 décisions de liquidation d’astreinte (c’est-à-dire le paiement d’une somme en raison du non-respect d’un ordre donné par la CNIL dans sa décision de sanction) et 4 rappels à l’ordre ».
Mais l’autorité a décidé seulement 12 fois de rendre ces décisions publiques. Parmi celles-ci, on se rappelle, par exemple, du scraping sauvage de LinkedIn par Kaspr, qui a écopé d’une amende de 240 000 euros. Ou encore de la sanction contre Orange, à qui la CNIL a infligé « une amende de 50 millions d’euros, notamment pour avoir affiché des publicités entre les courriels des utilisateurs de son service de messagerie électronique, sans leur consentement ».
La CNIL explique avoir notamment ciblé la prospection commerciale dans ses décisions. Elle « a ainsi rappelé à plusieurs occasions que les organismes qui utilisent à des fins de prospection commerciale électronique des données personnelles transmises par des partenaires primo-collectants (qui organisent des jeux-concours par exemple) ou des courtiers en données doivent s’assurer que les conditions dans lesquelles les données ont été collectées sont conformes au RGPD (si nécessaire, avec le consentement de la personne et après la fourniture d’une information claire et concise) ».
Elle ajoute avoir « rappelé qu’un fournisseur de messagerie électronique qui insère des publicités entre les courriels reçus par ses utilisateurs dans leur boite de réception doit préalablement recueillir leur consentement ».
De 21 sanctions en 2022 à 87 en 2024
L’autorité se félicite d’avoir rendu plusieurs décisions marquantes en matière d’anonymisation des données de santé. Elle rappelle que même ainsi traitées, elles « restent des données personnelles auxquelles la législation s’applique ».
Mais si la CNIL met en avant que « le nombre total de sanctions prononcées est passé de 21 en 2022 à 42 en 2023 puis 87 en 2024 », celui-ci reste encore assez faible en comparaison, par exemple, du nombre de décisions que prend son homologue espagnole, l’Agencia Española de Protección de Datos (AEPD). Si celle-ci n’a pas encore communiqué sur ces chiffres de l’année dernière, elle avait pris 367 sanctions en 2023, et même 378 en 2022.
L’autorité déclare néanmoins qu’elle est passée 69 fois par sa procédure de sanction simplifiée, mise en place en 2022. « Soit près de trois fois plus qu’en 2023 », s’enorgueillit-elle, puisqu’elle ne l’avait utilisée que 24 fois à l’époque.
180 mises en demeure en 2024
La CNIL a aussi prononcé 180 mises en demeure, « décision de la présidente de la CNIL ordonnant à un organisme de se mettre en conformité dans un délai fixé », comme elle le précise.
On peut se rappeler que l’autorité annonçait encore en décembre une nouvelle salve de mises en demeure sur les bannières de cookies trompeuses, sans pour autant donner aucune indication sur la suite des événements. Pourtant, en juillet 2024, elle constatait, comme tout internaute peut le faire, que les dark patterns étaient partout.
Parmi ces 180 mises en demeures, l’autorité cite l’accès au dossier patient informatisé : « la CNIL a mis en demeure plusieurs établissements de santé de prendre les mesures permettant d’assurer la sécurité du dossier patient informatisé, rappelant que les données des patients ne doivent être accessibles qu’aux personnes justifiant du besoin d’en connaître ».
Nous avons expérimenté encore récemment le dépôt d’une plainte à la CNIL pour l’envoi en clair par la Scam d’un mot de passe, sans que rien ne bouge.
Google a publié mardi la version remaniée de la déclaration qui encadre ses grands principes éthiques et moraux autour de l’intelligence artificielle. L’engagement selon lequel les IA développées par Google ne doivent pas servir à la création d’armes disparait de cette nouvelle révision. La société justifie ce changement par une approche basée sur la gestion du risque, grâce à un « framework » dédié.
Inaugurée en 2018 et mise à jour, depuis, sur une base annuelle, la déclaration de Google relative à ses grands principes en matière d’IA affirmait explicitement depuis sa création que les outils maison ne devaient pas servir à la conception d’armes ou de technologies susceptibles de causer un préjudice général.
Mardi, le moteur de recherche est revenu sur cette promesse. Il a en effet mis en ligne une nouvelle révision de ses « AI Principles », dans laquelle il n’est plus fait mention des applications de l’IA que la société s’engage à ne pas poursuivre.
Limiter les risques, sans interdire les applications
Google et sa maison mère, Alphabet, se disent bien sûr toujours particulièrement soucieux des questions morales et éthiques soulevées par l’IA, mais la rhétorique n’est plus la même. « Nous pensons que notre approche de l’IA doit être à la fois audacieuse et responsable », écrit la société, qui met en avant l’importance de préserver « la sécurité, la sûreté et la confidentialité des utilisateurs ».
En la matière, Google s’engage par exemple à mettre en œuvre « une conception, des tests, une surveillance et des mesures de protection rigoureux pour atténuer les résultats imprévus ou nuisibles et éviter les préjugés injustes ». Rien n’est dit en revanche d’éventuelles lignes rouges.
La précédente version des IA Principles (ici datée de 2023, via Archive.org), se montre nettement plus précise. En complément de ses principes généraux, Google s’engageait ainsi à ne pas concevoir ou déployer d’IA dans des domaines d’application susceptibles de causer un préjudice à des tiers.
Elle interdisait par ailleurs l’IA au service des « armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement des blessures à des personnes ». Google disait par ailleurs se refuser à développer l’IA pour des applications qui « collectent ou utilisent des informations à des fins de surveillance, en violation des normes internationalement acceptées ».
Capture d’écran de la page AI Principles de Google en juin 2023 via Archive.org
Cette décision intervient quelques jours après que Donald Trump, nouveau président des États-Unis, a révoqué un décret relatif à la sécurité des systèmes IA. Signé par son prédécesseur, Joe Biden, le texte obligeait les développeurs à partager les résultats de leurs tests de sécurité avec le gouvernement avant la mise sur le marché de leurs produits, dès lors que ces derniers étaient susceptibles de soulever un risque lié à la sécurité nationale, à l’économie ou à la santé publique.
Officiellement, ces nouveaux principes n’ont rien à voir avec la politique. C’est du moins ce que sous-entendent Demis Hassabis, CEO de Google DeepMind, et James Manyika, vice-président senior en charge de la recherche, dans un billet de blog qui accompagne à la fois la mise en ligne de ces nouveaux principes, et la publication du sixième rapport annuel de Google sur l’IA responsable.
Ils commencent par rappeler que le paysage de l’IA a changé dans des proportions telles qu’une évolution des principes associés s’impose. Ils y expliquent ensuite comment les travaux nourris des équipes de Google sur la gouvernance de l’IA les a amenées à changer d’approche sur le sujet de la gestion des risques, notamment en élaborant un ensemble de protocoles dédiés, le « Frontier Safety Framework », censé permettre de prévenir les risques associés à l’IA. Le document adopte une approche plus technique des principes dont se revendique Google.
Un ensemble d’outils pour prévenir les risques
Initialement publié en mai 2024, ce FSF est depuis le 4 février amendé sous forme d’une version 2.0 (PDF). Il se présente comme un cadre, construit autour de « niveaux de capacité critiques » qui, s’ils sont atteints dans une IA, doivent déclencher des mesures spécifiques d’analyse de risque.
Google classe ces niveaux selon deux cas de figure. D’abord, le mésusage, soit une IA détournée de sa finalité première pour une application engendrant du risque comme, par exemple, la création d’une arme chimique ou l’orchestration d’une attaque cyber. Le FSF envisage ensuite le « risque d’alignement trompeur », qui intervient quand les capacités d’une IA sont susceptibles de dépasser le cadre de ce pourquoi elle est censée fonctionner de façon fiable.
Sur la base de ces deux familles de risque, le FSF envisage un ensemble de réponses et de procédures (dont beaucoup restent à concevoir), placées sous la responsabilité d’une gouvernance réunissant les principales instances internes de Google impliquées dans la conformité, l’éthique et l’IA. L’approche se veut donc plus technique, mais elle se révèle nettement moins explicite qu’une simple déclaration affichée noir sur blanc.
Google et Meta, même combat
Google entretient de longue date des rapports contestés avec les industriels de l’armement et du renseignement. En 2018, alors que la société venait d’abandonner sa devise historique « Don’t be evil », elle avait d’ailleurs dû gérer un conflit interne lié au lancement d’un programme d’intelligence artificielle conçu pour le Pentagone. Trois ans après ce projet Maven finalement abandonné, Google avait de nouveau manifesté des velléités de se positionner comme le partenaire de choix de la Défense états-unienne.
« Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l’Amérique, ainsi que de ses alliés les plus proches. L’adoption généralisée des modèles d’IA open source américains sert à la fois les intérêts économiques et sécuritaires », justifiait alors Nick Clegg, président des affaires internationales de Meta.
La nouvelle approche de Google en matière de gestion des risques rejoint d’ailleurs celle que prône dorénavant Meta. La firme dirigée par Mark Zuckerberg a en effet annoncé le 3 février qu’elle allait encadrer ses propres travaux en matière d’IA à l’aide d’un ensemble de protocoles dédiés, baptisé cette fois Frontier AI Framework. Le fonctionnement semble similaire à celui adopté par Google : identifier des risques potentiels, mettre en place des routines de détection ou de prévention, pour en dernier recours décider ou non d’intervenir. Quitte à ce qu’il soit parfois trop tard ?
Dans un billet publié hier soir, Microsoft proposer d’amender l’API Notifications pour lui ajouter des capacités liées aux appels audios et vidéos. Cette API joue un rôle important aujourd’hui, puisque c’est par elle qu’un site web peut demander la permission d’émettre des notifications. Si l’internaute accepte, le site peut alors prévenir de certains évènements, selon le service fourni.
Dans le cas de la visioconférence cependant, ces notifications sont limitées, car essentiellement statiques. Un service de communication peut par exemple prévenir d’un appel, mais cliquer sur la notification ne pourra qu’envoyer vers le site concerné, où seront les boutons d’actions tels que « Répondre » et « Refuser ».
Microsoft propose donc de modifier l’API standardisée pour y inclure plusieurs nouvelles capacités : autoriser la personnalisation permettant à un service de se distinguer d’un autre, permettre l’ajout de boutons personnalisés utilisables pour répondre ou rejeter un appel, ajouter une sonnerie personnalisée, obtenir une priorité plus élevée que les autres notifications (si la plateforme l’autorise).
Ces fonctions seraient présentes en fonction de scénarios comme « incoming-call », définissant alors un périmètre d’action et doté d’une plus grande priorité, pour s’assurer que la notification est immédiate. La possibilité d’attacher une sonnerie personnalisée, dont beaucoup pourraient abuser, requiert également une étape supplémentaire : que le site web ait été installé sous forme de PWA (ce qui exclut d’emblée Firefox).
Dans son billet, Microsoft donne la marche à suivre pour tester la fonction. Elle consiste surtout à lancer Edge avec le flag « msedge.exe –enable-features=IncomingCallNotifications » depuis la ligne de commande, puis à se rendre sur une page spécifique. Après avoir autorisé les notifications, on peut effectivement voir ce que la réception d’un appel donnerait. En installant le site en PWA, la notification est effectivement accompagnée d’une sonnerie. On note que les labels des boutons disposent déjà d’une traduction.
Comme le note Neowin, cet ajout permettrait aux navigateurs d’obtenir les mêmes capacités qu’Android et iOS sur la gestion des appels.
AMD boucle son exercice 2024 sur une croissance annuelle de 14 %, portée principalement par la demande sur le marché des centres de données, mais aussi par le succès commercial des processeurs Ryzen sur la fin de l’année. Pour 2025, la firme ambitionne sans surprise de capitaliser sur les développements liés à l’intelligence artificielle. Elle prévoit pour ce faire d’anticiper le lancement de ses puces Instinct MI350.
Sa croissance n’a rien à voir avec celle du grand concurrent sur le marché du GPU, NVIDIA, mais AMD peut tout de même se targuer d’avoir bouclé son exercice fiscal 2024 sur un chiffre d’affaires de 25,8 milliards de dollars, en hausse de 14 % sur un an. Présentés mardi soir, ces résultats financiers découlent notamment d’un quatrième trimestre aux performances exceptionnelles : AMD enregistre ainsi 7,7 milliards de dollars de chiffre d’affaires sur les trois derniers mois de l’année, en hausse de 24 % sur un an.
+ 94 % pour les composants destinés au datacenter
Sur le trimestre comme sur l’année, c’est la division datacenter qui génère l’essentiel de la croissance. En 2024, elle représente ainsi 12,6 milliards de dollars de chiffre d’affaires, en croissance de 94 % par rapport à l’année précédente. « Le chiffre d’affaires annuel de la division datacenter a presque doublé grâce à l’accélération de l’adoption des processeurs EPYC, et aux plus de 5 milliards de dollars de chiffre d’affaires générés par les accélérateurs AMD Instinct », se réjouit Lisa Su, CEO d’AMD, dans un communiqué.
Le marché des centres de données constitue, de nouveau et sans surprise, le principal levier de croissance identifié pour 2025 dans la mesure où tous les grands acteurs du logiciel, des services en ligne ou de l’infrastructure rivalisent de projets d’investissements. Sur ce volet, AMD se félicite d’avoir signé en 2024 des contrats de premier plan avec Meta, Microsoft ou IBM, et anticipe une accélération des livraisons en 2025.
Les accélérateurs Instinct MI350 sont en avance
Chez AMD comme chez NVIDIA, le marché ne dépend toutefois pas uniquement de la demande, mais aussi et surtout des capacités d’approvisionnement. Sur ce point, Lisa Su s’est voulue rassurante. Lors d’un échange (audio) avec les analystes financiers, elle a affirmé mardi que la production des MI250X – dernière génération en date de ses accélérateurs dédiés au calcul haute performance et à l’IA – avait décollé conformément aux attentes sur le quatrième trimestre.
AMD profite de l’occasion pour évoquer sa future architecture CDNA 4, dont les premiers représentants, les accélérateurs Instinct MI350, étaient initialement attendus pour le deuxième semestre 2025. « En se basant sur les progrès réalisés sur les préséries et sur l’accueil enthousiaste des clients, nous prévoyons maintenant de livrer les premiers échantillons à nos principaux clients au cours de ce trimestre, et de passer en production de masse aux alentours du milieu de l’année », a annoncé Lisa Su.
AMD affiche également des performances en hausse sur la division « Client », qui réunit ses principales gammes de CPU et APU. Sur l’année, la branche réalise un chiffre d’affaires de 7,1 milliards de dollars, en hausse de 52 % sur un an, avec une croissance tirée majoritairement par les CPU Ryzen.
AMD indique que plus de 150 plateformes estampillées Ryzen AI (en référence à ses dernières générations de processeurs) seront disponibles cette année, et se félicite tout particulièrement de son partenariat renforcé avec Dell.
Rappelons que la marque a lancé toute une nouvelle gamme de processeurs visant à la fois les PC fixes et les portables à l’occasion du CES de Las Vegas.
Les cartes graphiques Radeon RX 9070 pour début mars
D’aucuns s’étaient toutefois alarmés, au moment du CES, du silence assourdissant entourant les cartes graphiques Radeon RX 9070 et leur architecture RDNA 4, attendues comme une réponse à la génération des GeForce RTX 50×0 Blackwell chez NVIDIA. AMD devrait finalement procéder à leur annonce officielle fin février, pour un lancement commercial programmé courant mars, a dévoilé mardi Lisa Su. Elle reconnait que ce retard a porté préjudice aux ventes de GPU dédiés, qui accusent un recul (non précisé) sur l’année.
Il ne faut cependant pas s’attendre à des Radeon RX 9070 concurrentes du très haut de gamme incarné par la GeForce RTX 5090. « Notre objectif avec cette génération est de nous adresser au segment le plus important en volume du marché des passionnés », révèle la dirigeante. La bataille devrait donc se jouer sur le terrain du rapport performances/prix plus que sur celui des performances brutes.
100 millions de consoles équipées d’une puce AMD
Chasse gardée d’AMD, le segment des designs semi-personnalisés destinés aux fabricants de console a lui aussi reculé en 2024. Sur sa division gaming (qui réunit cartes graphiques dédiées et activités graphiques pour les fabricants de console), AMD accuse ainsi un recul de 58 % sur un an, avec un chiffre d’affaires qui s’établit à 2,6 milliards de dollars. Sur le marché des consoles, AMD se félicite toutefois d’avoir franchi le cap symbolique des 100 millions de consoles équipées. La répartition entre Sony et Microsoft n’est pas précisée, mais Sony indiquait en novembre dernier avoir vendu 65,5 millions de PS5 à l’échelle mondiale, à l’occasion du lancement de la PS5 Pro.
Dernier volet du catalogue AMD, le segment dédié à l’embarqué réalise quant à lui 3,6 milliards de dollars de chiffre d’affaires sur l’année. Une baisse de 33 % sur un an, essentiellement due, selon la société, à des clients qui « normalisent » leurs stocks.
France Travail (ex-Pôle Emploi) et la start-up Mistral AI annoncent avoir conclu un partenariat après plusieurs mois de tests d’outils d’intelligence artificielle générative.
Deux outils doivent aider conseillers et candidats, d’après l’AFP : ChatFT doit fournir de l’assistance à la rédaction, et MatchFT assister les conseillers dans leur communication avec les candidats, notamment en permettant de contacter par SMS « les candidats présélectionnés sur une offre afin de les questionner sur leur intérêt pour l’offre, et les éventuels pré-requis (accès au lieu de travail, disponibilité, intérêt et capacité à réaliser les tâches prévues) ».
Fondée en 2023 par Arthur Mensch, Guillaume Lample et Timothée Lacroix et valorisée plus de 6 milliards d’euros, Mistral AI a été largement financée par de grands noms états-uniens, dont Microsoft, IBM, Salesforce, Nvidia ou les fonds Andreessen Horowitz et Lightspeed Ventures Partners. Des acteurs coréens comme Samsung siègent aussi aux côtés de ses quelques investisseurs français.
User/Chimera – Clarote & AI4Media – Better Images of AI
Ce week-end, sur Twitch, nous avons eu un bel exemple de « fail collectif ». D’un côté, un influenceur qui demande à sa communauté de partager leur RIB (ou celui d’un proche) pour obtenir de l’argent. De l’autre, des internautes qui envoient leurs informations bancaires en direct.
Nasdas est un influenceur bien connu sur les réseaux sociaux (9 millions d’abonnés sur Snapchat) car il a pour habitude de redistribuer une partie de ses revenus à sa communauté. Dimanche 2 février, la situation a dérapé, comme le rapporte BFM Tech & Co citant l’influenceur :
« J’ai mon application bancaire. J’ai un peu plus de 28 000 euros à l’intérieur. Je dois donner 10 000 euros. Comment faire ? Soit, on m’envoie des RIB dans les commentaires, soit des Paypal et je fais les virements en live ».
Il ratisse large dans sa communication : « on choisira parmi les nouveaux followers. Envoie un message, envoie ton RIB, celui de ta maman, ton oncle, qui tu veux ». La suite, on s’en doute : des RIB ont été envoyés par dizaines dans les commentaires, sur un live accessible à tous. Ils sont parfois accompagnés de messages et d’autres informations personnelles. Un véritable « trésor » pour des personnes malintentionnées.
Envoyer un RIB n’est pas sans conséquences
Plus besoin de fuites de données, les internautes envoient eux-mêmes des informations bancaires en espérant obtenir des fonds au passage… Du point de vue de cybersécurité, cela comporte des risques réels, comme nous l’expliquions récemment.
Si la Banque de France rappelle que « communiquer son RIB n’est pas risqué en soi », elle ajoute bien rapidement que, « comme pour tout document contenant des informations personnelles, il convient de bien identifier la personne à laquelle vous communiquez un RIB. Un escroc pourrait utiliser ces informations de manière malveillante (ex : usurpation d’identité) ».
Fin octobre, la CNIL a publié un guide pour vous protéger en cas de fuite de votre IBAN (qui se trouve sur votre RIB)… des recommandations également valables si vous partagez vos données bancaires de manière publique, comme c’est le cas ici :
« Cet identifiant peut dans certains cas permettre à un pirate d’émettre des ordres de prélèvement illégitimes qui ciblent les IBAN obtenus frauduleusement. Le pirate peut aussi, plus directement, usurper l’IBAN d’une autre personne en les communiquant lors de la création d’un mandat de prélèvement dans le cadre d’une souscription à un service ».
« Surveillez régulièrement les opérations sur votre compte bancaire et faites opposition si nécessaire […] Vérifiez la liste des créanciers autorisés », rappelait la CNIL. En cas de doute, n’hésitez pas à contacter votre conseiller bancaire.
« De profondes interrogations chez les juristes »
Mais ce qui pourrait passer au premier abord comme une « bonne action » ne dispense pas de respecter les règles.
Alexandre Archambault, avocat spécialisé dans le droit du numérique, nous explique que les modalités de l’épisode « ne manquent pas de susciter de profondes interrogations chez les juristes au regard des grands principes du RGPD ».
Les demandes de l’influenceur et les réponses des internautes fournissent un double exemple de ce qu’il ne faut pas faire.
Nasdas multiplie les dérapages
Nasdas n’en est pas à son coup d’essai. En juin dernier, il proposait à sa communauté de récupérer 100 000 euros (par lots de 80 à 2 500 euros) via une application de paiement en ligne : Laymoon. « Le jeu concours avait finalement été annulé face aux tollés des internautes. En effet, il fallait débourser au minimum 17 euros pour accéder à la plateforme », expliquent nos confrères.
En 2022, l’influenceur « avait volontairement diffusé dans une story son numéro de carte bleue, sur laquelle se trouvaient près de 16 000 euros […] Plusieurs sites, dont Amazon, avaient alors été submergés. Ils avaient considéré l’utilisation massive de cette carte de crédit comme « frauduleuse ». Les comptes ayant utilisé ce moyen de paiement avaient été temporairement bloqués », ajoute BFM Tech & Co.
Mozilla vient de dégainer coup sur coup Thunderbird 135 et la première bêta de Firefox 136. Un renouvellement rapide pour le client e-mail, puisque la dernière version date de la semaine dernière. Firefox 136 s’annonce de son côté comme une version importante.
Le rythme est très rapide pour Thunderbird. Alors que la version 134 est sortie le 27 janvier, la 135 est apparue hier soir. Comme la précédente, il ne s’agit pas d’une version mise en avant, le site ne proposant par défaut que la mouture ESR (Extended Support Release), actuellement estampillée 128.6.0.
La 135, elle, est simplement une « Release » que l’on peut récupérer depuis cette page, en modifiant le canal de distribution dans les menus. L’équipe de développement ne la recommande pas, la considérant presque comme une préversion. À moins de vouloir spécifiquement certaines nouveautés, il est conseillé de rester sur le canal ESR.
Nombreuses corrections, améliorations et binaires XZ
Mais qu’apporte cette version 135 ? Pour l’essentiel une longue liste de corrections et de petites améliorations. Il semble que Thunderbird 134 ait amené bon nombre de problèmes, corrigés dans cette révision, comme on peut le voir dans les notes de version.
Dans les améliorations, commençons par noter l’utilisation de XZ pour les binaires Linux. Comme pour Firefox, les gains sont notables sur la compression et surtout les performances lors de l’installation et de la mise à jour.
Thunderbird 135 permet également de spécifier un cookieStoreId lors de la création d’un espace, d’ignorer les sous-clés ou signatures non prises en charge lors de l’importation de clés OpenPGP conformes, ou encore d’utiliser le même code OAuth2 que le courrier pour les carnets d’adresses et des calendriers CardDAV.
Firefox 136 : accélération vidéo et onglets verticaux
Ainsi, sur Linux, Firefox 136 sait exploiter les GPU AMD pour le décodage matériel. Un support attendu de longue date. Autre arrivée, cette fois sur macOS : le décodage matériel pour les contenus HEVC. Là encore, Firefox rattrape la concurrence.
Firefox 136 introduit également pour la première fois les onglets verticaux, ici aussi une promesse de longue date. Ils ne sont pas activés par défaut. Pour les utiliser, il faut se rendre dans les paramètres du navigateur, onglet Général et chercher la ligne « Browser Layout ». La section n’est pas encore traduite. Il suffit ensuite de cliquer sur « Vertical tabs » et de regarder l’interface du navigateur évoluer, la barre latérale étant forcément activée dans ce cas.
Le fonctionnement est, dans les grandes lignes, identique aux autres navigateurs proposant cette disposition. Cet affichage peut notamment avoir un grand intérêt sur les ordinateurs portables, où la place verticale peut vite manquer. On gagne alors en surface d’affichage et en confort de lecture. On note cependant qu’en thème sombre, la barre d’adresse, très sombre, se confond pratiquement avec le bord de la fenêtre. Cela rend les déplacements de cette dernière hasardeux si l’on ne fait pas attention où l’on clique.
Et un peu sous le capot aussi
Firefox 136 renforce également son comportement HTTPS-First, ajoute la même compression LZMA sur le binaire macOS que pour Linux, désactive les bannières de cookies par défaut en navigation privée, ajoute une option pour afficher les termes de recherche sur les pages de résultats, ou encore ajoute le support de Codemirror 6 pour les développeurs.
Signalons aussi une évolution sous le capot pour la version macOS. Un nouveau mécanisme permet de déplacer certaines tâches en arrière-plan vers des cœurs moins puissants de la puce. Ces cœurs étant plus économes en énergie, la navigation devrait consommer moins et donc permettre une utilisation nomade plus longue.
Dans la nuit du 16 au 17 janvier dernier, SpaceX a raté son septième lancement test de Starship avec le propulseur Super Heavy. Perdant le contrôle du deuxième étage de sa fusée, l’entreprise d’Elon Musk n’a pas pu empêcher l’explosion de sa fusée dont des débris ont atterri sur les Îles Britanniques habitées de Turques-et-Caïques.
« Le succès est incertain, mais le divertissement est garanti ! » twittait Elon Musk alors que la fusée Starship avait échoué son septième lancement de test. SpaceX a perdu le contrôle du deuxième étage de sa fusée très rapidement alors que l’objectif de la mission était, entre autres, de tester une « mise à jour en bloc » de celui-ci.
Si le CEO de SpaceX qualifie cette explosion de « divertissement », ce n’est sans doute pas le mot qu’auraient choisi les habitants des îles de Turques-et-Caïques.
Aucun blessé, mais de nombreux débris
Ce territoire britannique d’outre-mer des Caraïbes situé au sud-est des Bahamas a vu de très près l’explosion du deuxième étage de StarShip. Et comme l’explique CNN, même si on ne dénombre aucun blessé, ses habitants doivent maintenant faire face aux retombées des débris.
Interrogée par nos confrères, Lori Kaine, une résidente de l’île, affirme n’avoir « jamais vu de telles couleurs dans le ciel », mais depuis, elle ramasse des débris de la fusée. Elle a retrouvé un câble dans son allée, des tuiles hexagonales brisées sur la chaussée (sans doute des éléments du bouclier thermique comme le suppose CNN). Elle a aussi retrouvé la plage à côté de chez elle, jonchée de débris.
Selon Alizee Zimmermann, responsable de l’association de protection des récifs Turks and Caicos Reef Fund, des épaves ont été retrouvées sur toutes les plages de la ville de Providenciales, mais aussi sur celles de Caïques du Sud et de l’Ouest. Elle a expliqué à CNN qu’ « il y a des débris aussi petits qu’un tiers d’ongle et aussi gros qu’une voiture éparpillés un peu partout ».
Alizee Zimmermann espère une évaluation officielle incluant des tests sur les eaux et une réflexion sur l’utilisation de drones pour chasser les gros débris en mer qui pourraient avoir un impact sur les écosystèmes sensibles.
Collecte et sécurisation des débris organisées par les autorités
Le 17 janvier dernier, la Federal Aviation Administration a « demandé à SpaceX de mener une enquête sur la perte du véhicule Starship lors des opérations de lancement le 16 janvier ». L’autorité américaine ajoutait qu’ « aucun dommage corporel n’a été signalé, et la FAA travaille avec SpaceX et les autorités compétentes pour confirmer les rapports faisant état de dommages matériels sur les îles Turques-et-Caïques ».
Selon le journal local Turks and Caicos Weekly News, le gouvernement des Turques-et-Caïques organise la collecte et la sécurisation des débris tombés au sol, en collaboration avec les autorités américaines et britanniques. Et une équipe de l’Air Accidents Investigation Branch (AAIB), l’organisme britannique chargé des enquêtes sur les accidents aériens, est au sol et travaille avec des représentants de SpaceX pour mettre en œuvre leur récupération.
La FAA toujours sur le coup, malgré l’investiture de Donald Trump
Samedi 1ᵉʳ février, ArsTechnica a interrogé la FAA sur le sujet. Selon nos confrères, l’autorité américaine n’a pas changé d’avis sur sa demande d’enquête alors qu’entre temps, Donald Trump a été officiellement investi et Elon Musk est très actif à la tête du DOGE.
Un porte-parole a répondu à ArsTechnica : « La FAA a demandé à SpaceX de mener une enquête sur l’accident du Starship Super Heavy Flight 7 sous la supervision de la FAA. Sur la base des conclusions de l’enquête concernant les causes profondes et les actions correctives, la FAA peut exiger d’une entreprise qu’elle modifie sa licence ».
Rappelons que SpaceX n’est pas la seule à avoir une gestion hasardeuse d’éventuels débris de fusées. Depuis des années, certaines fusées chinoises sont lancées sans préoccupation des dégâts, comme en 2020, quand des débris de la fusée Long March 5B seraient tombés en Afrique. Ou encore, en 2022, lorsque le premier étage d’une même fusée s’est désintégré dans l’atmosphère au-dessus de l’océan Indien.
Quid des responsabilités ?
Rappelons enfin que la Convention de 1972 sur la responsabilité internationale pour les dommages causés par les objets spatiaux a été ratifiée par plusieurs pays, sous l’égide des Nations Unies.
Dans son article II, elle prévoit qu’un « État de lancement a la responsabilité absolue de verser réparation pour le dommage causé par son objet spatial à la surface de la Terre ou aux aéronefs en vol ».
Dans son article I, elle prend soin de définir les termes utilisés. « Dommage » désigne ainsi « la perte de vies humaines, les lésions corporelles ou autres atteintes à la santé, ou la perte de biens d’État ou de personnes, physiques ou morales, ou de biens d’organisations internationales intergouvernementales, ou les dommages causés auxdits biens », tandis que « lancement » correspond aussi bien à un lancement réussi qu’à une tentative (échouée).
Récemment, le projet FreeDesktop.org a annoncé avoir besoin d’un nouvel hébergeur en urgence. Equinix, chez qui le projet était stocké, a mis fin au stockage gracieux qu’il fournissait depuis plus de cinq ans. La société veut en effet se débarrasser de ses offres bare metal et n’octroie donc plus de crédits gratuits dans ce domaine.
FreeDesktop.org n’est pas le seul projet touché par cette décision. La distribution Alpine Linux se cherche également un nouvel hébergeur, pour les mêmes raisons.
« Nous sommes profondément reconnaissants à Equinix Metal (anciennement Packet.net) pour leur soutien de longue date, qui a été essentiel à l’écosystème d’Alpine Linux. Cependant, avec l’abandon par Equinix de son service d’hébergement bare metal, ce soutien critique prendra bientôt fin. Leurs contributions ont été inestimables, et nous les remercions d’avoir aidé Alpine Linux à rester fiable et efficace », indique le projet dans un billet.
De quoi cette distribution, axée sur la sécurité, a-t-elle besoin ? D’une bande passante de 800 To par mois, de deux serveurs (chacun avec 50 Go d’espace disque et 16 Go de RAM au minimum) agissant comme des runners d’intégration continue pour les architectures x86_64 et x86, ainsi que d’une « development box », un serveur dédié à l’environnement de développement pour les contributeurs et mainteneurs.
Alpine cherche un espace de colocation et des serveurs bare metal près des Pays-Bas. Si ce n’est vraiment pas possible, l’équipe peut envisager des machines virtuelles.
À Ars Technica, Carlo Landmeter, membre du conseil d’Alpine, a indiqué que la distribution « est devenue populaire sans que la plupart des utilisateurs le sachent ». Actuellement, la situation provoque l’arrivée de quelques dons. Plusieurs entreprises auraient tendu la main, mais il ne s’agirait encore que d’un « début », selon Landmeter.
Nos confrères ont mis à jour leur article. Après la publication de la version d’origine, ils indiquent avoir été contactés par Jason Donenfeld, fondateur de WireGuard. Le célèbre client VPN se cherche lui aussi un nouvel hébergement… pour les mêmes raisons. Il est à la recherche de dons et d’offres d’hébergement.
L’Agence de cybersécurité et de sécurité des infrastructures met en garde contre quatre failles déjà corrigées, mais encore activement exploitées. Deux remontent à 2018 et soulèvent l’éternelle question des mises à jour.
Outre-Atlantique, la Cybersecurity and Infrastructure Security Agency (CISA) vient d’ajouter quatre failles de sécurité à son catalogue Known Exploited Vulnerabilities (KEV). Il s’agit donc de failles pour lesquelles l’Agence de cybersécurité a des « preuves d’une exploitation active », avec les dangers que cela comporte.
Les voici, avec leur score CVSS (Système commun de notation des vulnérabilités) permettant de juger du niveau de gravité sur 10 :
CVE-2024-29059 (CVSS de 7.5) : vulnérabilité dans le framework Microsoft .NET
CVE-2018-9276 (CVSS de 7.2) : vulnérabilité dans Paessler PRTG Network Monitor
CVE-2018-19410 (CVSS de 9,8) : vulnérabilité dans Paessler PRTG Network Monitor
Deux failles de… 2018
Si vous avez l’habitude des numérotations CVE (Common Vulnerabilities and Exposures), vous avez certainement compris que les deux premières failles datent de l’année dernière (septembre et mars respectivement), tandis que les deux autres ont déjà près de sept ans.
Malgré leur grand âge, « ces vulnérabilités sont des vecteurs d’attaque fréquents pour les pirates et posent des risques importants de cybersécurité », rappelle la CISA. L’Agence laisse jusqu’au 25 février aux entités de la Federal Civilian Executive Branch (FCEB) pour se mettre à jour. Mais c’est aussi un rappel important pour tout un chacun. Le CISA ne donne par contre aucun détail sur la manière dont elles sont exploitées.
Depuis le début de cette année, 19 failles ont été ajoutées au catalogue Known Exploited Vulnerabilities. La liste complète compte plus de 1 200 failles dont l’exploitation était donc avérée au moment de leur ajout au KEV. La première remonte à 2021.
Heartbleed : 10 ans plus tard, toujours des serveurs vulnérables
Y voir arriver des failles plus de six ans après leur découverte et surtout six ans après la publication des mises à jour est inquiétant. Cela prouve, s’il en était besoin, que des règles aussi élémentaires qu’appliquer des mises à jour ne sont pas toujours respectées.
Il y a quelques mois, lors d’un audit de sécurité, l’entreprise Securitum expliquait avoir trouvé deux serveurs publiquement accessibles encore vulnérables à cette brèche béante de sécurité. Elle permet pour rappel d’accéder à des données stockées dans la mémoire du serveur. Dix ans plus tard, des serveurs sont donc toujours vulnérables.
On parle là d’une faille qui a fait les gros titres pendant des jours, alors on imagine malheureusement bien ce qui peut arriver avec d’autres vulnérabilités, ayant moins de visibilité.
L’édition 2024 était, sans aucune surprise, marquée par l’intelligence artificielle à toutes les sauces, notamment avec Copilot. Cette année devrait être dans la même lignée.
Pour le moment, Microsoft n’a donné aucun détails supplémentaires.
Depuis quelques jours, l’Ademe est au centre d’une tempête. Elle travaillerait sur une tarification progressive des forfaits téléphonique en fonction de la quantité de data fournie. Elle aurait même envisagé de légiférer. C’est pourtant faux.
Même si la source n’est pas toujours indiquée, tout est parti d’un article du Parisien sur le « grand bluff des opérateurs sur les forfaits mobiles ». Le sujet portait sur la quantité toujours plus importante de data fournie dans les forfaits et la guerre des prix entre les opérateurs. L’article rappelait pourtant les derniers chiffres de l’Arcep : la consommation moyenne de data en France est de 17 Go par mois. À quoi pouvaient donc bien servir les forfaits de plusieurs centaines de gigaoctets ?
Les usages varient bien sûr, mais le problème était ailleurs. « L’Ademe va donc plancher sur la tarification progressive des forfaits pour, in fine, envisager un projet de loi », indiquait le Parisien. Une phrase légèrement modifiée par la suite, pour devenir : « L’Ademe va donc plancher sur la tarification progressive et, si les résultats sont pertinents, un projet de loi pourrait être envisagé ».
La polémique a enflé rapidement. Le 2 février, même Xavier Niel a réagi sur X. Citant un tweet de Frandroid qui assurait qu’un « projet de loi se prépare », il indiquait simplement « Non ».
« Nous rassemblons des données »
Nous avons contacté Roland Marion, directeur de l’économie circulaire à l’Ademe. Interrogé sur l’idée d’un projet de loi, il se montre très clair : « Non, c’est faux. L’Ademe n’a pas ce pouvoir. Nous rassemblons des données, nous éditons des rapports, parfois avec l’Arcep. Mais nous ne pouvons pas proposer de lois. Nous mettons simplement à disposition les données recueillies. Les politiques peuvent venir y piocher ».
L’Agence de l’environnement et de la maîtrise de l’énergie ne travaille-t-elle pas sur une tarification progressive des forfaits ? « Oui et non », nous répond Roland Marion. « Nous réfléchissons à ce sujet comme nous le faisons sur d’autres. À une époque par exemple, nous réfléchissions à une tarification progressive de l’électricité en fonction des usages. La discussion a permis de voir que ce n’était pas possible ».
Et dans le cas des forfaits mobiles ? « Nous y réfléchissons. C’est une discussion ouverte, un sujet d’étude. Mais nous savons déjà que les usages peuvent varier largement. Quelqu’un qui a un forfait 150 Go ne signifie pas qu’il va forcément les utiliser. Peut-être que cette personne a un gros forfait parce que c’est son seul moyen d’accéder à internet ».
Des propos en écho à ceux de Sylvain Waserman, PDG de l’Ademe et ancien vice-président de l’Assemblée nationale pendant presque cinq ans (il connait donc bien le parcours législatif). Il s’est exprimé sur LinkedIn, rappelant les trois missions de l’Agence : « L’Ademe mène des études et recherches, publie des avis techniques, propose des guides de sensibilisation à destination du grand public avec des trucs et astuces ». Plus loin, il conclut, agacé : « À bon entendeur ! Décidément, il ne nous sera rien épargné, mais on le savait déjà… ».
Des sujets plus pressants
Comme nous l’a indiqué Roland Marion, il existe des marges de manœuvre beaucoup plus importantes sur le numérique pour réduire l’empreinte carbone. « La data cellulaire, effectivement, moins on en consomme, mieux c’est. Notre recommandation, que nous répétons depuis des années, est de basculer sur une connexion Wi-Fi dès que possible. Son impact sur l’environnement est dix fois moins important qu’une connexion cellulaire », explique le responsable.
« Mais notre action sur le numérique se concentre surtout sur les recommandations liées à la fabrication des terminaux et les datacenters », ajoute-t-il. « On parle beaucoup d’IA aussi maintenant. On tente d’expliquer que son utilisation a un impact environnemental conséquent et qu’il vaut mieux, quand c’est possible, l’éviter ».
Mozilla vient de publier Firefox 135, la dernière révision de son navigateur vedette. Comme prévu, cette nouvelle mouture signe la disparition du bouton lié au signal Do Not Track DNT).
« Si vous souhaitez demander aux sites Web de respecter votre vie privée, vous pouvez utiliser le paramètre « Demander aux sites Web de ne pas vendre ni partager mes données ». Cette option s’appuie sur le contrôle global de confidentialité (GPC) », précise à ce sujet la fondation Mozilla.
Comme le réglage lié à DNT dans les versions précédentes, l’option Global Privacy Control se trouve dans les paramètres de vie privée de Firefox. Apparue dans Firefox 120, elle fonctionne comme un mécanisme « Ne pas vendre » et se veut juridiquement contraignante pour les sites, alors que le DNT était simplement volontaire.
Firefox 135 est l’occasion pour Mozilla de déployer plus largement la version rafraichie de la page d’accueil qui s’affiche à l’ouverture d’un nouvel onglet. Proposée aux États-Unis et au Canada à partir de Firefox 134, elle est désormais censée s’afficher dans toutes les régions où Firefox propose la suggestion d’articles, dont la France.
La fonctionnalité fait cependant l’objet d’un déploiement progressif, ce qui peut expliquer que la nouvelle mise en page ne soit pas immédiatement visible chez tous les internautes. Elle introduit notamment un logo repositionné à gauche, pour mieux valoriser le champ de recherche, et des suggestions d’articles sur quatre colonnes.
L’option « Copier le lien sans pistage », introduite elle aussi avec Firefox 120, se voit renommée « Copier le lien nettoyé » pour plus de clarté. Son fonctionnement (supprimer les paramètres de suivi publicitaire ou d’attribution du clic de l’URL du lien) est cependant inchangé.
Comme prévu, Firefox passe au format XZ pour les binaires Linux, préféré au BZ2 en raison de meilleures performances.
Firefox 135 inaugure aussi la prise en charge du chinois simplifié, du japonais et du coréen pour les langues source de son module de traduction, tandis qu’il est désormais possible de traduire le contenu d’une page vers le russe. Mozilla accélère par ailleurs le déploiement de la fonctionnalité de remplissage automatique des informations de carte de paiement, ainsi que celui de son interface dédiée à l’utilisation d’un chatbot IA.
Introduite avec Firefox 133, cette dernière permet pour mémoire de se connecter à un chatbot (ChatGPT, Claude, Gemini, Le Chat, etc.) et de le garder sous les yeux grâce à l’intégration dans un panneau latéral du navigateur.
Sur le plan de la sécurité, Firefox 135 introduit de nouvelles protections contre les abus liés à l’API dédiée à l’historique de navigation, et corrige douze failles, d’une gravité qui s’échelonne de « modérée » à « élevée ».
Le téléchargement est comme toujours proposé depuis le site de Mozilla, tandis que la mise à jour peut s’obtenir sans attendre le déploiement automatique à partir de l’onglet À propos des paramètres.
En plein renforcement de ses liens avec l’administration états-unienne, OpenAI a annoncé sa participation à un « programme de sécurité nucléaire ».
Open AI a conclu un accord avec les Laboratoires Nationaux du département de l’Énergie des États-Unis pour utiliser ses modèles d’intelligence artificielle (IA) dans un « programme détaillé de sécurité nucléaire ». En pratique, rapporte CNBC, 15 000 scientifiques travaillant au sein de l’une de ces institutions auront accès aux modèles o1 du constructeur.
Directeur d’Open AI, Sam Altman a expliqué lors d’un événement organisé à Washington et intitulé « Construire pour gagner : économie de l’IA », que le partenariat permettrait de se « concentrer sur la réduction des risques d’une guerre nucléaire et sur la sécurisation de matériel et d’armes nucléaires partout sur la planète ».
Domaine sensible pour modèle halluciné
Fuites de données sensibles, production de fausses informations assenées dans des formulations pleines d’aplomb, voire textes sans queues ni têtes… Le projet soulève de nombreuses questions dans la mesure où les modèles d’OpenAI ont démontré de nombreuses failles au fil des mois.
Des ordinateurs dédiés à la défense nationale, connectés à ce que certains présentent comme de nouvelles formes d’intelligence… Comme l’ironise Futurism, cela ressemble fort au scénario de Terminator. Mais au-delà des cauchemars de science-fiction, le partenariat tout juste annoncé s’inscrit dans un travail de long terme d’OpenAI pour renforcer ses liens avec le gouvernement des États-Unis.
Le 28 janvier, OpenAI rendait ainsi publique la plateforme ChatGPT Gov, un service mettant l’accent sur la cybersécurité pour faciliter l’accès des agences gouvernementales à ses produits. Une semaine plus tôt, la société faisait aussi partie des leaders du projet à 500 milliards de dollars Stargate, annoncé en grande pompe par le nouveau Président du pays… et suscitant rapidement l’ire du patron de xAI Elon Musk.
Nouvelle levée de fonds
Plus largement, l’entreprise tisse des liens avec des gouvernements répartis partout sur la planète, de l’armée israélienne à l’État japonais. Softbank et OpenAI organisaient en effet ce 3 février un événement réunissant plus de 500 sociétés japonaises représentantes de toutes sortes d’industrie. Le but, selon Nikkei : créer ensemble l’infrastructure d’IA du pays.
Softbank est très proche des intérêts d’OpenAI : il en est aussi financeur. Le 30 janvier, le Wall Street Journal rapportait le projet d’un nouveau tour de financement de 30 milliards de dollars mené par la holding japonaise. L’opération porterait la valorisation d’OpenAI, qui n’a pas prévu d’être rentable avant 2029, à 300 milliards de dollars.
Des chercheurs de Google ont découvert à l’automne dernier une faille dans les processeurs EPYC d’AMD, des générations Zen 1 à 4 (séries 7001 à 9004). Elle a été communiquée à AMD le 25 septembre, provoquant l’émission de correctifs le 17 décembre. Les détails de la faille, assez limités, n’ont été publiés qu’hier avec les chercheurs, suite à un accord avec AMD.
Pour exploiter la faille, il faut disposer des privilèges d’administrateur local sur un serveur, donc au ring 0 depuis l’extérieur d’une machine virtuelle. Il est alors possible de charger des correctifs malveillants du microcode dans le ou les processeurs concernés.
Droit de regard sur les machines virtuelles
« Cette vulnérabilité pourrait être utilisée par un adversaire pour compromettre des charges de travail informatiques confidentielles protégées par la dernière version d’AMD Secure Encrypted Virtualization, SEV-SNP ou pour compromettre la Dynamic Root of Trust Measurement », indiquent les chercheurs.
Bien que l’exploitation requière des privilèges locaux importants, la sévérité de la faille est considérée comme haute (score CVSS 3.1 de 7,2 sur 10). Son exploitation peut, en effet, conduire à l’installation de logiciels malveillants obtenant des capacités de visibilité dans les machines virtuelles, dont une partie de la sécurité repose sur le tandem matériel SEV-SNP au sein des processeurs.
Mauvaise vérification
SEV, pour Secure Encrypted Virtualization, est une technologie cruciale chez AMD. Elle génère une clé unique de chiffrement pour chaque machine virtuelle. Elle permet d’isoler les machines et l’hyperviseur les uns des autres.
SNP, pour Secure Nested Paging (pagination imbriquée sécurisée), ajoute des fonctions pour contrôler l’intégrité de la mémoire, renforçant encore l’isolation des machines virtuelles et devant les protéger d’attaques basées sur l’hyperviseur. Les deux technologies renforcent également les protections contre les attaques par canal latéral.
La vulnérabilité signalée par les chercheurs permet de jeter à bas ces défenses. Estampillée CVE-2024-56161, la faille réside dans l’utilisation d’une fonction de hachage non sécurisée pour valider les signatures dans les mises à jour du microcode. De là, un pirate peut faire passer des vessies pour des lanternes. Les machines virtuelles chiffrées perdent alors leur intégrité selon le code envoyé dans les processeurs.
La mise à jour déployée depuis décembre
Dans son bulletin, AMD indique qu’une mesure d’atténuation a été fournie pour la faille. Elle passe par une mise à jour du microcode et demande donc un arrêt du serveur, même si certains processeurs sont capables d’un chargement à chaud.
Il faut également déployer une nouvelle version du firmware SEV sur certaines plateformes, afin qu’elles puissent prendre en compte l’attestation SEV-SNP. Cette dernière permet à une instance de prouver son identité et son état. Une mise à jour du BIOS et un redémarrage du système sont nécessaires pour permettre l’attestation de l’atténuation. « Un invité confidentiel peut vérifier que l’atténuation a été activée sur la plate-forme cible grâce au rapport d’attestation SEV-SNP », précise AMD.
Les chercheurs (Josh Eads, Kristoffer Janke, Eduardo Nava, Tavis Ormandy et Matteo Rizzo) ont été remerciés par AMD. Ils notent cependant qu’ils ont fait une exception à la règle habituelle de révélation des failles de sécurité chez Google, notamment la période de 90 jours. Il s’est écoulé en effet 131 jours entre la publication des premières informations et la communication à AMD, et 45 jours depuis la diffusion des correctifs.
Pour les mêmes raisons, et compte tenu « de l’importance de la chaine d’approvisionnement et de la coordination nécessaire pour résoudre ce problème », aucun détail supplémentaire ne sera donné avant le 5 mars.
Précisons enfin que ce n’est pas la première fois qu’une faille de sécurité touche SEV ou SNP chez AMD. En 2023, une attaque baptisée CacheWarp avait nécessité également une mise à jour du microcode. Exploitée, elle pouvait permettre l’infiltration d’un code malveillant dans les machines virtuelles chiffrées.
Ni Google ni AMD ne parlent du cas des processeurs Epyc de 5ᵉ génération, avec l’architecture Zen 5.
Des millions de Français victimes d’une fuite de données chez EDF et Conforama ? Pas si vite… S’il est tentant de céder aux sirènes alarmistes, la réalité semble bien différente, au moins chez EDF qui « dément toute fuite de données massive ». Le pirate aurait utilisé une attaque par bourrage d’identifiants pour récupérer des données. Explications.
Les fuites de données se multiplient au fils des semaines, c’est un fait indéniable. Mais il y a toujours la possibilité que certains surfent sur la vague pour se faire mousser. C’est le cas cette semaine avec des « fuites » chez EDF et Conforama. L’information a rapidement circulé, avec comme unique source une publication sur un forum bien connu des pirates.
Aie confiance, crois en moi, que je puisse…
Problème, aucune confirmation ne permettait d’étayer les propos du pirate : EDF et Conforama n’ont pas communiqué auprès de leurs clients, alors que c’est normalement une obligation en cas de violation des données personnelles. Généralement, on trouve des copies des emails rapidement sur les réseaux sociaux.
Cela n’empêche pas certains experts et médias de partir bille en tête en se basant sur les seules déclarations du pirate, parfois avec du conditionnel… mais pas toujours. Le pirate a multiplié les publications sur le forum (neuf en quelques jours à peine), avec des échantillons pour appuyer ses dires. La situation semble être tout autre.
EDF et Conforama : 15,6 millions de clients… ou pas !
C’est de nouveau sur un célèbre forum de pirates que l’affaire débute : des données sont mises en vente par Varun. Il propose « la base de données EDF Prime énergie. C’est une aide financière pour des travaux de rénovation énergétique. Elle contient plus de 6,3 millions de personnes », avec un échantillon en exemple.
On y retrouve de nombreuses informations avec emails, numéros de téléphones et même une copie de la demande d’aide. Il y a également des indications sur la tranche des « revenus de mon ménage » qui peuvent être inférieurs aux plafonds d’un tableau A ou B, une information utilisée pour calculer le montant des aides.
Dans une autre publication, le pirate propose aussi des données de clients Conforama : « Il y a plus de 9,3 millions de personnes dont j’ai réussi à gratter des informations, notamment nom, prénom, email, date de naissance, numéro de téléphone, facture et plein d’autres informations ».
Le pirate « on fire » : Pont-de-Claix, Freedom Electronics, Webixa… ou pas ?
Varun affirme aussi avoir récupéré et mis en vente les données des clients E.Leclerc Énergie le 28 janvier, soit un jour après l’annonce de la fuite d’E.Leclerc à ses clients. Dans une mise à jour, Varun précise que les données ont été vendues et qu’il ne procédera pas à de nouvelles ventes. Un bon moyen de se donner de la « crédibilité » puisqu’aucune publication auparavant ne revendiquait la mise en vente des données d’E.Leclerc.
Sur le forum spécialisé, on retrouve d’autres publications dans les derniers jours. Il affirme aussi avoir mis la main sur la « base de données de la ville française Pont-de-Claix », sur celle de freedomelectronics.net, du The Norwegian Training Center à Manille (Philippines), de Tidtang Studio à Bangkok (Thaïlande) et de Webixa en Pologne.
Le pirate « a tout simplement menti »
Hier, aucune publication sur les réseaux sociaux ou communication officielle permettait de confirmer les dires de Varun. En fouillant un peu, une source nous a mis en garde sur cette fuite, ou plus exactement elle a exprimé des doutes quant à sa véracité.
Aujourd’hui, les masques tombent. Dès ce matin, Clubic battait en brèche les affirmations du pirate : « Le hacker « Varun » […] a tout simplement menti. Il a juste procédé à du recyclage de données issues d’une précédente fuite ».
« Nous avons appris de source sûre, lundi soir, que le hacker a en fait procédé à ce que l’on appelle du « credential stuffing » » (ou bourrage d’identifiant en français), explique notre confrère. Cette technique, rappelle la CNIL, « consiste à réaliser, à l’aide de logiciels ou de façon manuelle, des tentatives d’authentification massives sur des sites et services web à partir de couples identifiants/mots de passe (généralement, une adresse électronique et un mot de passe) ».
Le principe est simple : des données ayant fuité sur un site sont réutilisées sur un autre service. Si vous avez réutilisé un même mot de passe, le pirate peut accéder à votre compte. Selon Clubic, Varun aurait utilisé des données de la fuite (confirmée) de LDLC.
EDF : des « connexions illicites », pas de fuites massives
Ce midi, c’était au tour de BFM Tech & Co de revenir sur cette affaire. Selon nos confrères, EDF « dément, mais fait tout de même état de « connexions illicites » à l’une de ses plateformes », Prime Energie en l’occurrence. Quoi qu’il en soit, la société « dément toute fuite de données massive », après une enquête interne.
Elle reconnait par contre, « une centaine de connexions illicites » en réutilisant des identifiants concernés par de précédentes fuites. Raison pour laquelle le site Prime Energie EDF est « suspendu » depuis le 3 février. « Les pirates n’ont accès qu’à des documents « en nombre limité » », précise BFM Tech & Co. Documents qui peuvent servir d’échantillons pour faire croire à une fuite massive.
Quelques minutes plus tard, Numerama confirme, là encore avec un retour d’EDF : « il n’y a pas de signaux indiquant une vaste fuite de données… ». Le reste de l’histoire est la même que celle de nos autres confrères.
Rappel des précédents épisodes
Cette affaire rappelle encore une fois l’importance de prendre le temps de confirmer et recouper des informations. Et, s’il en était besoin, de ne pas prendre pour argent comptant des publications d’un pirate sur un forum.
Dans le cas d’Aides, de RED by SFR et de Free, des IBAN étaient aussi dans la liste des données récupérées par les pirates et donc disponibles sur Internet. Il faut pour rappel surveiller ses comptes pour vérifier la présence de prélèvements douteux, comme indiqué dans notre dossier.
OpenAI a annoncé une nouvelle fonctionnalité dans ChatGPT dont le nom est deep research. Celle-ci doit permettre à ses utilisateurs d’obtenir une synthèse de centaines de sources en ligne dans un rapport compréhensible. L’entreprise signale elle-même que son système peut « parfois halluciner des faits dans les réponses ou faire des déductions erronées ».
Toujours plus profond. En tout cas, le nom de la nouvelle fonctionnalité insérée dans ChatGPT par OpenAI, Deep research, semble être une réaction à l’arrivée tonitruante de DeepSeek sur le marché grand public de l’IA générative.
L’entreprise de Sam Altman a donc annoncé la disponibilité de Deep research pour les utilisateurs Pro de ChatGPT. Ceux qui ont un compte Plus ou Team devraient y avoir accès prochainement.
Selon l’entreprise, cette fonctionnalité permet de « trouver, analyser et synthétiser des centaines de sources en ligne pour créer un rapport complet au niveau d’un analyste de recherche ». OpenAI explique qu’elle utilise une version de son modèle o3 qui devrait sortir bientôt et qui est « optimisé pour la navigation sur le web et l’analyse de données, il s’appuie sur le raisonnement pour rechercher, interpréter et analyser des quantités massives de textes, d’images et de PDF sur Internet, en pivotant si nécessaire en réaction aux informations qu’il rencontre ».
Une réponse après 5 à 30 minutes
Pour l’utiliser, les utilisateurs Pro ont juste à appuyer sur le bouton « Deep research »… et attendre de 5 à 30 minutes avant d’avoir leur réponse. Une notification leur est envoyée lorsque le résultat est disponible.
Pour les experts même si le système hallucine parfois, selon OpenAI
OpenAI présente son outil comme étant créé pour « les personnes qui effectuent un travail intensif dans des domaines tels que la finance, la science, la politique et l’ingénierie et qui ont besoin de recherches approfondies, précises et fiables ».
Pourtant, l’entreprise explique dans la partie « Limitations » de son billet que son nouvel outil « peut parfois halluciner des faits dans les réponses ou faire des déductions incorrectes », même si elle affirme (sans publier aucun chiffre) que Deep research hallucinerait « à un taux nettement inférieur à celui des modèles existants de ChatGPT ».
OpenAI explique aussi que Deep research peut avoir « des difficultés à distinguer les informations faisant autorité des rumeurs et montre actuellement des faiblesses dans l’étalonnage de la confiance, ne parvenant souvent pas à exprimer l’incertitude de manière précise ». Bref, il reste à espérer que les experts en finance, en recherche en politique ou en ingénierie qui l’utilisent feront une vérification du rapport que la fonctionnalité leur renvoie.
De manière moins dangereuse, OpenAI suggère aussi que Deep research « peut également s’avérer utile pour les acheteurs avisés qui recherchent des recommandations hyper personnalisées pour des achats qui nécessitent généralement des recherches approfondies, comme les voitures, les appareils électroménagers et les meubles ». Sam Altman a publié un message en ce sens, il avait étonnement besoin d’acheter une vieille voiture au Japon quand la fonctionnalité est sortie.
100 requêtes par mois maximum
L’entreprise limite actuellement l’utilisation de Deep research a 100 requêtes par mois pour les utilisateurs Pro. OpenAI explique qu’elle est « très gourmande en calcul » sans s’appesantir plus sur le sujet.
D’autre part, OpenAI explique avoir rendu disponible la version « mini » de son modèle o3. Cette version est la première que peuvent utiliser ses clients dans ChatGPT et via son API. L’entreprise avait annoncé le modèle o3 en décembre dernier sans que personne puisse s’en servir. Elle affirme que son modèle est plus puissant et plus rapide que les précédents « tout en conservant le faible coût et la latence réduite d’o1-mini ».
La Commission passe en mode « détective holistique »
Les plateformes d’e-commerce Temu et Shein sont plus que jamais dans le collimateur de la Commission européenne et d’associations de consommateurs. Temu est déjà sous le coup d’une procédure formelle, Shein devrait suivre demain. La Commission prépare de son côté un projet avec une approche holistique sur les grandes plateformes de commerce en ligne.
Depuis plusieurs mois, différentes instances européennes s’intéressent de près à la plateforme d’ecommerce Temu. Le BEUC (bureau européen des unions de consommateurs) tirait la sonnette d’alarme en mai dernier, affirmant que Temu « ne protège pas les consommateurs en enfreignant le Digital Services Act ».
Temu sous pression, la Commission européenne enquête
Fin octobre, la Commission européenne ouvrait une « procédure formelle à l’encontre de Temu au titre de la législation sur les services numériques » (DSA). Elle enquête sur des domaines « liés à la vente de produits illicites, à la conception potentiellement addictive du service, aux systèmes utilisés pour recommander des achats aux utilisateurs, ainsi qu’à l’accès aux données pour les chercheurs ».
Le BEUC est revenu à la charge cette semaine, dénonçant « des trous béants dans la sécurité des produits vendus sur Temu ». En cause, des « petites pièces de jouets pour enfants et de produits pour bébés trop facilement détachables pouvant provoquer une suffocation », des listes d’ingrédients incorrects dans les cosmétiques, des « radiateurs électriques extrêmement dangereux », etc.
« Un point d’entrée pour des produits illégaux »
Pour Agustín Reyna (directeur général du BEUC), Temu est « un point d’entrée pour des produits illégaux qui n’ont pas leur place sur nos marchés ». Le Bureau européen des unions de consommateurs demande donc à la Commission de terminer son enquête au plus vite et « de prendre des mesures dissuasives et efficaces contre Temu dans l’intérêt des consommateurs et des entreprises » qui respectent les règles de l’Union.
Le BEUC demande aussi la mise en place d’un « plan d’action ambitieux et vaste pour l’e-commerce visant à résoudre les problèmes auxquels les consommateurs sont confrontés sur les marketplaces, y compris des règles claires en matière de responsabilité ». La Commission devrait le présenter demain, nous allons y revenir.
Une enquête devrait aussi s’ouvrir contre Shein
Une autre plateforme est dans le collimateur de la Commission européenne : Shein. Selon l’AFP, « l’UE s’apprête à ouvrir une enquête contre la plateforme chinoise ». L’annonce devrait être faite demain selon deux sources de nos confrères.
« Shein est considéré comme un emblème des dérives sociales et environnementales de la mode à petits prix. Mais l’entreprise a promis de collaborer avec toutes les parties prenantes pour répondre aux préoccupations exprimées », rappelle l’AFP.
Shein (comme Temu) est pour rappel une très grande plateforme au titre du règlement sur les services numériques (DSA). Elle compte « plus de 45 millions d’utilisateurs réguliers par mois dans l’Union européenne », selon ses propres chiffres transmis à la Commission en avril 2024.
La Commission européenne passerait en mode « holistique »
Selon Euractiv, la Commission européenne devrait « adopter une approche « holistique » à l’égard de Temu et Shein ». Le projet, consulté par nos confrères et qui devrait être publié demain, prévoirait des « modifications structurelles des règles douanières de l’UE, l’application de la législation européenne existante en matière de protection des consommateurs et l’adoption de règles environnementales ».
Sur les questions douanières, la Commission souhaiterait « fournir des ressources supplémentaires aux autorités douanières nationales afin qu’elles puissent examiner les petits envois ». L’intelligence artificielle devrait aussi être utilisée afin de vérifier les envois de marchandises, avec la mise en place d’une « nouvelle autorité de l’UE pour traiter les données douanières dans le cadre d’un système informatique unique », toujours selon le projet consulté par Euractiv.
La montée en puissance de Temu et Shein en Europe
Pour se rendre compte de la montée en puissance de Temu et Shein, on peut se tourner vers… La Poste. Plus précisément, l’audition de Philippe Wahl (PDG de la Poste depuis 2013) par la Commission des affaires économiques.
Il y parlait de la « montée des plateformes chinoises Temu et Shein, qui représentent 22 % de nos colis en Europe. C’était moins de 5 % il y a cinq ans, 1 % de plus qu’Amazon qui est […] le premier client mais aussi le premier concurrent de la Poste ». Amazon, Shein et Temu représentent ainsi 43 % des colis acheminés par la Poste en Europe.
Dans un communiqué, la CNIL explique que sa formation restreinte a prononcé une amende de 40 000 euros à une société intervenant dans le secteur immobilier.
Elle « avait installé sur les ordinateurs de certains de ses salariés un logiciel de suivi de leur activité dans le cadre du télétravail » via le logiciel Time Doctor. Elle « avait également recours à un système de vidéosurveillance dans ses locaux [aussi bien espace de travail que de pause, ndlr] pour la prévention des atteintes aux biens (vols) ».
La CNIL a procédé à des contrôles suite à des plaintes. Le résultat est accablant : « la société filmait en permanence ses salariés, en captant l’image et le son, […] mesurait leur temps de travail et évaluait leur performance de manière très précise par le biais du logiciel installé sur leurs ordinateurs ».
Concernant la mesure du temps de travail, « le logiciel détectait automatiquement, tout au long de la journée, si le salarié n’effectuait aucune frappe sur le clavier ou mouvement de souris sur une durée paramétrée de 3 à 15 minutes. Ces temps « d’inactivité » comptabilisés, à défaut d’être justifiés par les salariés ou rattrapés, pouvaient faire l’objet d’une retenue sur salaire par la société ».
La Commission rappelle que ne pas utiliser son ordinateur peut aussi correspondre à du temps de travail effectif, avec des réunions ou appels téléphoniques par exemple. « Un tel dispositif ne permet pas un décompte fiable des heures de travail, contrairement à sa finalité annoncée. En outre, l’atteinte portée par le dispositif, ainsi paramétré, aux droits des salariés était, en tout état de cause, disproportionnée. Par conséquent, ces traitements ne reposent sur aucune base légale ».
La condamnation a été rendue publique, notamment afin de faire passer le message et « d’informer toute personne soumise à de tels dispositifs ». Compte tenu de sa petite taille et du retrait immédiat du logiciel lors du contrôle, le nom de la société n’a pas été dévoilé. Quant à l’amende, elle est jugée par la CNIL « dissuasive mais proportionnée ».
La délibération avec les explications et justifications de l’entreprise se trouve par là.
Opera lance à nouveau un navigateur. Nommé Air, il vient occuper un créneau très particulier, que l’éditeur commençait à explorer avec son navigateur classique : le bien-être. Opera Air se targue d’être ainsi le premier butineur orienté pleine conscience et se dote d’outils dans cette optique.
Si les anciens d’Opera ont créé Vivaldi quand l’ancien navigateur a été totalement remanié pour passer sur une base Chromium, l’éditeur ne peut pas être accusé de se tourner les pouces. Le navigateur classique s’est à nouveau doté d’un nombre croissant d’outils, Opera ayant très vite investi dans le champ de l’IA avec sa propre Aria. Parallèlement, la société a lancé Opera GX, dédié aux joueurs, avec de nombreux réglages pour régler finement les ressources consommées.
Opera Air est le petit nouveau. Il s’agit, dans les grandes lignes, d’une version modifiée d’Opera (classique) pour lui faire adopter une interface présentée comme plus reposante et des outils orientés pleine conscience.
Des Boosts et des sons
Les deux fonctions phares d’Opera Air sont opposées. La première – et la plus visible – est le panneau des Boosts. « Élevez votre état mental avec des battements binauraux. Stimulez différentes ondes cérébrales grâce à la musique et au son », s’enthousiasme ainsi Opera. C’est quoi ce bazar ?
Un Boost est un ensemble de trois sons : une fréquence plus ou moins grave, un son et une musique. La fréquence sert de support et est à rapprocher des (très) nombreuses vidéos que l’on trouve sur YouTube pour « doper la concentration », faciliter l’endormissement, etc. La fréquence diffère selon l’effet souhaité. Le son change également selon le Boost choisi. Il peut s’agir de gouttes de pluie, de vent, de vagues, du crépitement du feu, dans la majorité des sons « naturels ». La musique, enfin, fournit un accompagnement sans accrocher l’attention. Sans parole, elle est à rapprocher du type de piste que nous évoquions dans notre article sur les faux artistes dans Spotify.
Opera Air propose une vingtaine de Boosts. Ils portent des noms évocateurs tels que « Stimulation de la Créativité », « Calme concentré », « Soulagement du stress », « Pensée analytique » ou encore « Concentration maximale ». Chacun joue sur les trois paramètres évoqués plus haut. Quand un Boost est lancé, il dure 30 minutes. On peut le contrôler depuis l’icône de fleur dans la barre latérale. Notez que l’on peut faire varier le volume de chaque élément selon les préférences. Même chose pour le temps, que l’on peut faire baisser à 15 min ou au contraire l’étendre en boucle infinie.
L’idée est intéressante et plaira sans doute à une partie des internautes. L’efficacité de ces ambiances – surtout des sons binauraux – dépendra de chaque personne, car elle n’a pas été vraiment prouvée scientifiquement, comme l’ont rappelé diversessources ces dernières années.
L’ensemble reste assez sympathique pour être utilisé dans la navigation quotidienne, selon les goûts. À noter qu’Opera Air recommande fortement d’utiliser un casque pour l’écoute des Boosts. Ces derniers fonctionnent même quand le navigateur est en arrière-plan.
Invitations à la pause
L’autre grande fonction d’Opera Air, ce sont les invitations à faire une pause. Le navigateur recommande en effet de faire une halte toutes les 60 à 90 min. Par défaut, une notification va apparaître toutes les 60 min pour vous y encourager. Ce temps peut être modifié pour un intervalle compris entre 45 et 180 min.
Quand la notification apparait ou que l’on veut faire soi-même une pause en cliquant sur les trois petits traits parallèles dans la barre latérale (sous la fleur des Boosts), un panneau s’ouvre. On peut choisir entre quatre activités, chacune avec son descriptif. : respiration, exercice du cou, méditation et examen complet du corps.
Chaque activité dispose de quatre variantes selon l’effet que l’on veut obtenir ou le temps dont on dispose. Elle est également accompagnée d’une voix (choix entre Emma et Alex) pour guider l’internaute, mais disponible uniquement en anglais (des sous-titres sont automatiquement affichés). L’activité s’interrompt automatiquement dès que le navigateur n’est plus au premier plan, invitant alors à reprendre lorsque l’on est de retour. Le temps de l’activité va de 3 à 15 min selon ce que l’on a choisi.
Là encore, sans être révolutionnaire, l’idée est sympathique. Elle devrait plaire aux personnes ne sachant pas s’arrêter, le navigateur intervenant pour rappeler l’importance des pauses. Si la fonction invite volontiers à la pleine conscience, elle parlera moins aux internautes qui préfèrent se lever régulièrement pour faire quelques exercices et se dégourdir les jambes. Mais rien n’empêche d’alterner.
Contrairement aux Boosts, Opera Air ne fait pas de recommandation particulière sur le port d’un casque.
Et le reste ?
Il s’agit des deux plus grandes fonctions d’Opera Air. Si elles ne vous tentent pas, il vaut mieux passer votre chemin.
À moins que l’interface, rendue assez minimaliste, vous interpelle. Les thèmes fournis s’orientent vers le verre givré, teinté selon l’image de fond choisie. On reste cependant sur les grands classiques d’Opera en matière de disposition des éléments, avec l’éternelle barre latérale à gauche pour épingler des fonctions (messageries, réseaux sociaux, téléchargements, historique, favoris, extensions…).
Alors oui, Opera Air affiche également chaque jour une nouvelle citation orientée vers le bien-être et la relaxation (« On ne peut pas arrêter les vagues, mais on peut apprendre à surfer » aujourd’hui), mais ce n’est pas ça qui devrait convaincre si les Boosts et les pauses ne vous attirent pas. Autant utiliser la version classique d’Opera, qui possède déjà toutes les autres fonctions. À noter d’ailleurs que dans le canal Dev, Opera teste l’intégration de Discord, Slack et Bluesky dans la barre latérale, de même qu’un nouveau lecteur de musique et plusieurs nouveaux thèmes dynamiques.
Le navigateur vient tout juste d’être rendu disponible. Bien que la page mentionne « Accès anticipé », il s’agit d’une version stable, nous a assuré Opera. Sur Mac, nous avons tout de même rencontré des ralentissements importants au premier lancement, avec un taux d’occupation très important pendant la configuration initiale. Une fois le navigateur redémarré, tout allait bien. Sur Windows, pas de problème majeur rencontré.
Précisons enfin que si vous installez Opera Air, pensez à cliquer sur « Avancé ». Opera a la fâcheuse habitude d’activer par défaut différentes options de télémétrie et de traitements liés à personnalisation des publicités.
AltStore, éditeur d’un store applicatif non officiel dont l’accès est possible sur iPhone en Europe en raison du DMA, s’est félicité lundi du lancement de Hot Tub, une application présentée comme « la première app porno au monde approuvée par Apple ». La marque américaine n’a que fort peu goûté le raccourci, qu’elle estime mensonger.
« L’iPhone fête ses 18 ans cette année, ce qui signifie qu’il est enfin assez vieux pour accueillir des applications plus ~matures~… », se réjouit le compte Mastodon dédié à AltStore, avant d’annoncer la sortie de « Hot Tub par c1d3r, la première application pornographique au monde approuvée par Apple ».
Une app porno sur iPhone… uniquement en Europe
L’annonce a de quoi surprendre. Depuis 2008 et l’ouverture de l’iPhone aux applications tierces (via la création de l’App Store), Apple a toujours prôné et appliqué un refus strict des logiciels ou contenus à caractère pornographique. Steve Jobs écrivait même en 2010, dans un échange de mails qui avait défrayé la chronique, que l’iPad, lancé cette année-là, devait aider à se « libérer du porno ».
En Europe, les velléités de contrôle de l’entreprise américaine sur l’environnement logiciel de l’iPhone se heurtent toutefois au Digital Markets Act (DMA). Cette réglementation européenne, entrée en vigueur le 6 mars 2024, ambitionne pour mémoire de lutter contre les pratiques anticoncurrentielles des géants du numérique.
Sur le terrain précis du mobile, le DMA impose notamment à Apple d’autoriser la distribution de magasins applicatifs alternatifs à son App Store. Or ces magasins alternatifs sont libres d’avoir une approche différente en matière d’accès aux contenus ou applications pornographiques.
Apple ne disparait cependant pas totalement de l’équation. La distribution d’une application sur un store non officiel suppose en effet de passer par un processus de validation orchestré par Apple. Cette étape, dite de « notarisation », vise notamment à certifier que le logiciel ne présente aucun risque de sécurité majeur. Le processus et les guidelines associées, bien documentés, sont toutefois nettement moins contraignants que la validation d’une application destinée à l’App Store.
C’est vraisemblablement parce que Hot Tub a passé avec succès ce processus de notarisation qu’AltStore se permet de qualifier l’application de « approuvée par Apple ».
« Pour tout le reste, il y a toujours l’Internet ouvert »
L’entreprise américaine estime de son côté le raccourci mensonger, et maintient sa position historique sur l’accès au porno via ses stores applicatifs. « Nous sommes profondément préoccupés par les risques de sécurité que les applications pornographiques hardcore de ce type créent pour les utilisateurs de l’UE, en particulier les enfants. Cette application et d’autres similaires vont saper la confiance des consommateurs dans un écosystème que nous avons travaillé depuis plus de dix ans pour en faire le meilleur au monde », écrit Apple dans un communiqué envoyé à quelques médias américains.
La critique vis-à-vis de la politique européenne n’est pas dissimulée. Face à ces demandes, Apple se retranche historiquement derrière un principe qu’elle rappelle dès l’introduction de ses guidelines de validation pour l’App Store.
« Pour tout le reste, il y a toujours l’Internet ouvert. Si le modèle et les directives de l’App Store ou les marchés d’applications alternatifs et la notarisation pour les applications iOS et iPadOS ne conviennent pas à votre application ou à votre idée commerciale, ce n’est pas grave, nous proposons également Safari pour une expérience Web exceptionnelle ».
De son côté, l’éditeur de Hot Tub savoure le succès de son coup médiatique. Sur sa page d’accueil, il se targue ainsi de reprises par des médias de premier plan… oubliant de préciser qu’aucun de ces médias ne s’intéresse au contenu de son application.
Donald Trump a déclaré lundi 3 février vouloir négocier un « accord » avec l’Ukraine pour que celle-ci lui fournisse une « garantie » sur l’obtention de terres rares en échange de l’aide des États-Unis.
En octobre 2024, le président ukrainien Volodymyr Zelensky avait déjà proposé aux partenaires du pays de s’entendre sur une « exploitation commune des ressources stratégiques » de l’Ukraine.
Parmi elles, d’après Le Figaro, de l’uranium, du titane, du lithium et du graphite.
Swift est le langage star d’Apple. Il a pris le relai d’Objective-C en tant que voie royale pour créer des applications sur les plateformes iOS, macOS et les autres. Le langage est open source (licence Apache 2.0) depuis plusieurs années maintenant. Désormais, il est rejoint par son « moteur de construction » (build engine), Swift Build.
Cette ouverture du code (également sous licence Apache 2.0) a été annoncée par le développeur Owen Voorhees de chez Apple le 1ᵉʳ février. Il y indique que le langage « continue de gagner en popularité », s’étendant vers un nombre croissant de form factors et de systèmes d’exploitation (Swift peut notamment être utilisé sur Linux et Windows).
Swift Build est le moteur utilisé par l’environnement de développement Xcode et Swift Playgrounds pour la construction des projets. Plus précisément, il réalise l’étape préparatoire avant la compilation, avec notamment la construction des dépendances. Il s’agit donc d’une pièce importante de l’édifice.
Comme l’indique Apple dans son billet, Swift Build peut être utilisé aussi bien avec Xcode qu’avec Swift Package Manager, donnant alors le même résultat. Un changement significatif, car Swift Package Manager avait jusqu’ici son propre moteur. « Sur les plateformes Apple, le fait d’avoir deux façons différentes de construire des paquets a également conduit à la confusion des utilisateurs lorsque le comportement des deux implémentations ne correspondait pas », indique Owen Voorhees.
Swift Build est donc proposé comme solution alternative. Apple assure que ce « changement devrait être transparent pour les utilisateurs et maintenir une compatibilité totale avec tous les paquets existants tout en offrant une expérience multiplateforme cohérente ».
WhatsApp a accusé l’entreprise israélienne Paragon d’avoir ciblé environ 90 de ses utilisateurs, dont des journalistes et d’autres membres de la société civile. L’attaque aurait été interrompue en décembre 2024.
La messagerie de Meta a expliqué à TechCrunch vendredi qu’elle a réussi à interrompre en décembre 2024 une campagne de piratage de son application visant environ 90 utilisateurs.
WhatsApp accuse Paragon d’être responsable de cette attaque. L’entreprise américaine a expliqué à nos confrères avoir envoyé une lettre de mise en demeure à l’entreprise israélienne, qui, en 2023, séduisait les États-Unis.
Considérée comme l’un des principaux concurrents de NSO, connue pour son logiciel espion Pegasus, Paragon a d’ailleurs été rachetée en décembre dernier par le Fonds d’investissement américain AE Industrial Partners, selon le journal israélien Haaretz. En octobre dernier, Wired révélait que l’entreprise avait signé un contrat de 2 millions de dollars avec les services d’immigration et douaniers américains.
« Nous avons contacté directement les personnes qui selon nous ont été touchées. C’est l’exemple le plus récent du fait que les entreprises de logiciels espion doivent être responsables de leurs actes illégaux. WhatsApp continuera de protéger la capacité des personnes à communiquer en privé », a déclaré à TechCrunch la représentante de WhatsApp Zade Alsawah.
Comme l’explique le Guardian, l’identité des auteurs de l’attaque n’est pas claire. Comme pour Pegasus, les clients de Paragon sont souvent des gouvernements, et WhatsApp explique ne pas avoir été capable de trouver qui ils sont.
Le journaliste d’investigation italien Francesco Cancellato, qui a enquêté sur les jeunes fascistes qui militent dans le parti d’extrême droite de la première ministre Giorgia Meloni, fait partie des personnes ciblées par le logiciel espion de Paragon, ajoute le Guardian.
Microsoft ne veut rien savoir : la puce TPM 2.0 est obligatoire pour utiliser Windows 11. Pourtant, il existe des méthodes permettant de contourner cette barrière. L’une d’elles était même jusqu’à récemment donnée par l’éditeur. Nous vous en proposons quatre, selon la situation de départ.
(Mise à jour du 6 février 2025 : Nous avons ajouté une quatrième méthode, permettant de mettre à jour un Windows 10 depuis l’image ISO de Windows 11)
On le sait depuis environ trois ans : Windows réclame, entre autres, une puce TPM 2.0 pour fonctionner. Un impératif lié à la volonté de Microsoft de mettre en place un parc Windows plus sécurisé dès l’installation, grâce à l’utilisation d’un composant matériel pour gérer notamment une partie des opérations cryptographiques. La firme veut d’ailleurs aller plus loin en généralisant sa technologie Pluton.
Problème : le support technique de Windows 10 s’arrêtera le 14 octobre prochain. Après cette date, plus aucun correctif de sécurité ne sera diffusé à l’ancien système. En quelques mois, les dizaines de failles découvertes resteront donc sans solution, ce qui devrait rapidement dégrader la situation. Or, Windows 10 représente encore près des deux tiers du parc Windows aujourd’hui.
Pour l’instant, Microsoft ne veut rien savoir, ni en abaissant les prérequis techniques pour passer à Windows 11, ni – surtout – en laissant plus de temps pour préparer le terrain. Il existe pourtant des solutions pour installer quand même le système. Nous allons donc nous pencher sur quatre manipulations, selon votre situation de départ.
Deux avertissements avant de commencer. D’abord, nous ne passons pas par une application tierce pour modifier le système, sauf dans un cas spécifique (le dernier). Ensuite, il faut garder en mémoire que ces solutions, si elles ont le grand mérite de se débarrasser d’un problème, peuvent ne pas perdurer dans le temps, à la (dé)faveur d’une mise à jour de Windows.
Depuis un PC Windows 10, en modifiant le registre
Commençons directement par le cas le plus courant : vous avez déjà un Windows 10 fonctionnel et vous souhaitez simplement le mettre à jour.
Jusqu’à très récemment, Microsoft fournissait sa propre méthode (oui !). Sur cette page, on pouvait trouver un encadré gris décrivant une manipulation à faire dans la base de registre. On peut encore le voir dans cette archive.
La manipulation consiste à ouvrir le menu Démarrer, à taper « reg » pour faire apparaitre l’Éditeur de registre puis à appuyer sur Entrée. Là, il faut se rendre dans HKEY_LOCAL_MACHINE\SYSTEM\Setup, puis créer la clé MoSetup (sauf si elle existe déjà). Après quoi, on crée un DWORD32 nommé « AllowUpgradesWithUnsupportedTPMOrCPU » et on lui donne la valeur 1.
Normalement, après un redémarrage, le lancement de l’Assistant d’installation Windows 11 devrait vous « laisser passer », même si l’application Contrôle d’intégrité du PC dit que la machine n’est pas compatible. Et si nous écrivons « normalement », c’est que la méthode peut être capricieuse. Par exemple, après le redémarrage, l’assistant d’installation a bien voulu commencer. Souhaitant quand même contrôler, nous avons redémarré la machine à nouveau. Cette fois, l’assistant ne voulait plus rien savoir. Deux redémarrages plus tard, il a accepté de poursuivre.
Il y a également une limitation : la puce TPM 2.0 n’est plus obligatoire (la méthode coupe également la vérification du processeur), mais une puce TPM 1.2 est quand même réclamée. Même ainsi, à moins d’une très vieille machine, Windows 11 peut être installé sur un nombre beaucoup plus important de PC.
Cette méthode effectue une mise à jour classique, en préservant aussi bien les documents que les applications. Les éditions (Famille ou Professionnelle) sont préservées et la clé de licence est automatiquement mise à jour.
Depuis un PC Windows 10, avec l’ISO de Windows 11
Si votre PC ne veut pas passer sous Windows 11, il existe une autre méthode, qui a également fait ses preuves. Cette fois, aucune modification du registre n’est requise, mais nous allons quand même tricher en utilisant l’image ISO de Windows 11. Celle-ci se récupère depuis le site officiel de Windows 11, dans la section « Télécharger l’image disque Windows 11 (ISO) pour les appareils x64 ».
Une fois l’image ISO téléchargée, il faut se rendre dans le dossier où elle est stockée (par défaut Téléchargements). Là, faites un clic droit puis sélectionnez « Monter ». Une image ISO représentant un instantané d’un disque, celui-ci apparaît alors comme un lecteur dans la zone latérale de l’Explorateur, comme un lecteur DVD.
Ouvrez ensuite une invite de commande (touche Windows, tapez « cmd » puis Entrée). De là, rendez-vous dans le nouveau lecteur monté. Dans notre cas, il s’agissait du lecteur E, nous avons donc tapé « e: ». Entrez alors la commande suivante :
setup.exe /product server
Aussi étonnant que celui puisse paraître, nous déclenchons en effet l’installation de Windows Server. Mais pas de panique, ce n’est qu’une « façade ». La fenêtre qui apparait vous indique que vous allez installer Windows Server. Suivez les étapes de l’assistant, qui passe par une vérification du PC et une acceptation des conditions d’utilisation.
Après quoi, l’assistant vous demande de choisir entre plusieurs types d’installation. Si vous souhaitez tout conserver, restez sur le premier choix. Si cette mise à jour vous semble l’occasion de faire du ménage dans les applications, choisissez la deuxième option, qui ne va garder que les fichiers personnels (tout ce qui se trouve dans Documents, Images, etc.). L’assistant récupère éventuellement quelques mises à jour, puis signale que tout est prêt.
C’est ensuite la véritable installation qui commence, sans avertissement sur la configuration matérielle. Précisons qu’à l’instar de la première méthode, les éditions (Famille et Professionnelle) sont préservées.
Cette méthode a l’avantage de fonctionner pour les anciennes versions de Windows 11 dont le support se serait arrêté. Chaque version n’est en effet supportée que pendant un certain temps. Les moutures 21H2 et 22H2 n’ont ainsi plus de support et peuvent être mises à jour par cette technique également. Comme les autres, l’efficacité de cette méthode se révélera sans doute limitée dans le temps. Microsoft coupera peut-être le robinet plus tard, mais la voie reste ouverte pour l’instant et permet d’avoir un système à jour, avec les correctifs mensuels de sécurité. En tout cas, au moins jusqu’au 13 octobre 2026, date de fin de support de Windows 11 24H2. D’ici là, la version 25H2 sera sortie.
Installation neuve : le registre à nouveau
Dans le cas où vous préférez repartir d’une page blanche, des méthodes existent aussi pour contourner les prérequis de Windows 11. La première ne demande aucune modification du système ou du média d’installation.
La préparation d’une clé USB bootable est aisée. Microsoft fournit l’utilitaire qui automatise une grande partie de l’opération. On le récupère depuis le site officiel, on le lance et on insère une clé d’au moins 8 Go. On choisit quelques réglages, puis l’application récupère l’image ISO, formate la clé et lui transfère les données. La clé est alors prête à être utilisée.
Sur la machine un peu âgée (mais pas trop), on va donc lancer l’installation. Après le chargement initial, vous verrez apparaître le premier écran, où l’on choisit la langue d’affichage et du clavier. Là, n’allez pas plus loin. Appuyez sur Maj + F10, tapez « regedit » puis faites Entrée. Et revoilà l’Éditeur de registre.
Comme la première méthode, il faut se rendre dans la clé HKEY_LOCAL_MACHINE\SYSTEM\Setup. Là, créez-en une nouvelle, baptisée LabConfig. À l’intérieur, créez trois DWORD32 et donnez-leur tous la valeur 1 :
BypassTPMCheck
BypassSecureBootCheck
BypassRAMCheck
Le premier désactive la vérification de la présence de la puce TPM 2.0. Les deux autres valeurs désactivent respectivement la vérification pour Secure Boot et pour la quantité de mémoire. Si votre PC a au moins 4 Go de mémoire, cette dernière valeur n’est pas nécessaire. Et même avec 4 Go, nous ne vous recommandons pas d’installer Windows 11. Aucun Windows depuis Vista ne fonctionne d’ailleurs bien avec si peu de RAM.
Nous avons testé cette méthode dans plusieurs machines virtuelles et avons pu constater son fonctionnement. La version du système utilisée était la dernière disponible sur le site de Microsoft, intégrant la mise à jour 24H2.
Préparer une clé USB avec Rufus
Voici le cas où nous avons utilisé une application tierce. Nous avons déjà parlé de Rufus, car en plus de pouvoir préparer une clé USB bootable avec différents systèmes, il dispose d’options spécifiques à Windows 11. Il sait notamment désactiver toutes les vérifications matérielles, en modifiant l’image ISO du système lors de la préparation de la clé.
Ce petit utilitaire (sous licence GPLv3) est, dans les grandes lignes, une version plus complète de l’utilitaire fourni par Microsoft. La zone « Périphérique » permet de sélectionner la clé USB, tandis que « Type de démarrage » s’assure que l’on va se servir d’une image ISO. Le bouton « Sélection », à droite, ouvre une fenêtre pour récupérer cette dernière. L’image ISO utilisée est la même que précédemment, celle téléchargée sur le site de Microsoft.
À moins de besoins spécifiques, il n’est pas nécessaire de toucher à quoi que ce soit d’autre. Ce n’est d’ailleurs pas intuitif, car les options qui nous intéressent n’apparaissent que lorsque l’on clique sur « DÉMARRER ». Là, une petite fenêtre s’affiche, dans laquelle vous cocherez la première ligne : « Supprimer la nécessité d’avoir 4Go+ de RAM, Secure Boot et TPM 2.0 ». L’opération prend un certain temps, selon les performances de la machine utilisée pour créer la clé.
Après quoi, on lance une installation depuis la clé USB comme on le ferait habituellement. Contrairement à la méthode précédente, il n’y a pas de manipulation à faire durant le processus.
Rufus est surtout pratique quand vous n’avez pas déjà un média d’installation, ou si vous vous apprêtez à effectuer l’opération sur plusieurs PC.
Suite à l’élection de Donald Trump, Elon Musk a pris les rênes de son fameux service de « l’efficacité gouvernementale » nommé DOGE. Le milliardaire utilise ce statut pour mettre la main sur les systèmes informatiques de différentes agences, comme celui des ressources humaines des employés fédéraux américains. Le nouveau gouvernement a continué la purge des sites internet des agences gouvernementales. Des données sur le VIH sont supprimées et une agence de santé a demandé à des chercheurs de rétracter certains articles scientifiques.
Elon Musk a rapidement transformé la commission DOGE à laquelle il a été nommé par Donald Trump, officiellement chargée de « l’efficacité gouvernementale », en un outil pour mettre la main sur les différentes agences de l’État fédéral américain, de leurs systèmes informatiques et des informations qu’elles publient.
Selon le New York Times, le secrétaire au Trésor américain, Scott Bessent, aurait donné l’accès au système de paiement fédéral à des représentants du service d’Elon Musk vendredi 31 janvier. « Elon Musk et l’équipe qu’il dirige disposent ainsi d’un outil puissant pour surveiller et potentiellement limiter les dépenses gouvernementales », commente le journal.
Nos confrères expliquent que, plus tôt dans la semaine, un employé du Trésor a refusé de donner l’accès à ce système qui gère l’argent au nom de l’ensemble du gouvernement fédéral. Mais il aurait été mis en congé puis « soudainement en retraite dès vendredi après le conflit ».
Les proches d’Elon Musk auraient obtenu des accréditations pour l’accès au système de paiement, mais ne pourraient pas encore agir. « Aucun paiement gouvernemental n‘[aurait] été bloqué », selon des sources du journal.
Les ressources humaines fédérales rapidement prises en main
Le DOGE se serait déjà installé dans d’autres services. Selon l’agence de presse Reuters, il aurait pris la main sur l’outil informatique de l’Office of Personnel Management (OPM, l’agence des ressources humaines des employés fédéraux américains). Des fonctionnaires de cette agence ont perdu leur accès à certains systèmes de données du ministère.
Un de ces systèmes est « une vaste base de données appelée « Enterprise Human Resources Integration », qui contient les dates de naissance, les numéros de sécurité sociale, les évaluations, les adresses personnelles, les niveaux de rémunération et l’ancienneté des fonctionnaires », explique l’agence de presse.
Une source a expliqué à Reuters qu’une équipe d’Elon Musk a pris le contrôle de l’OPM le jour de l’entrée en fonction de Donald Trump. Elle s’est installée à l’étage du siège de l’agence « réservé au directeur et accessible seulement avec un badge spécifique ». Comme lors du rachat de Twitter en 2022, cette équipe aurait même installé des lits dans ces bureaux.
Selon le Washington Post, Elon Musk a personnellement visité les bureaux de l’OPM vendredi 24 janvier. Il aurait placé à des postes de direction de l’agence plusieurs de ses proches collaborateurs, « notamment Anthony Armstrong, qui a aidé M. Musk à acheter Twitter, Brian Bjelde, qui a dirigé les ressources humaines de SpaceX, l’entreprise de M. Musk, et Amanda Scales, qui a travaillé dans l’entreprise d’intelligence artificielle de M. Musk, xAI », affirme le journal américain.
Un autre proche d’Elon Musk, Thomas Shedd, a pris la tête des Technology Transformation Services (TTS), une agence chargée de la maintenance d’une grande partie de l’infrastructure informatique du gouvernement américain. Il a notamment travaillé pendant huit ans en tant qu’ingénieur chez Tesla.
Les services informatique fédéraux sous surveillance du DOGE
Selon Wired, son arrivée a plongé l’agence dans le désarroi. Thomas Shedd a engagé une remise en question du travail des employés de TTS en les convoquant à des réunions pour évoquer « leurs plus grandes « victoires » et les « obstacles » les plus importants qui les empêchent de travailler de manière aussi efficace que possible », comme l’avait fait Elon Musk lors du rachat de Twitter.
Alors que certains s’attendaient à rencontrer Thomas Shedd, des réunions à distance se seraient passées avec de « parfaits inconnus – certains assez jeunes – qui n’avaient pas d’adresse électronique officielle du gouvernement et qui ont été réticents à s’identifier ». Ils utilisaient des adresses Gmail, explique le média américain.
Thomas Shedd se serait excusé pour les invitations vagues et l’ajout au processus de personnes avec des adresses Gmail en assumant « la responsabilité des actions de chacun d’entre eux lors des appels » et de leur accréditation.
Wired explique que les TTS ont régulièrement des projets avec d’autres agences gouvernementales, avec des données externes faisant l’objet d’accords de confidentialité. Pour cette raison, les fonctionnaires des TTS étaient peu enclins à partager leur travail avec des personnes non accréditées.
Comme d’autres agences, les TTS ont suivi les consignes du gouvernement de Donald Trump demandant d’arrêter les politiques de « Diversité, équité et inclusion » (DEI). Selon Wired, l’agence a mis fin à une série de réunions sur la diversité et au canal #g-diversity du Slack de l’agence.
Wired a repéré plus généralement que de jeunes ingénieurs avec peu d’expérience forment l’équipe d’Elon Musk chargée de reprendre en main les agences fédérales américaines. Deux d’entre eux, encore récemment étudiants, feraient partie des « experts » envoyés à l’OPM. Un autre, tout juste étudiant, aurait participé aux réunions de certains employés des TTS. Un quatrième, Luke Farritor, est le lauréat du concours qui a permis de déchiffrer une toute petite partie (5 %) d’un seul rouleau de papyrus d’Herculanum.
Les purges dans les données publiées sur internet continuent
Pendant ce temps-là, les purges dans les données et sites internet des agences américaines, redoutées par des chercheurs et des militants (et dont nous parlions déjà la semaine dernière), continuent.
Wired explique que des sites comme USAID.gov, ForeignAssistance.gov (de nouveau disponible au moment où nous publions), NeglectedDiseases.gov et ChildrenInAdversity.gov ont été mis hors ligne. Nos confrères se sont aperçus qu’au moins sept sites liés à USAID (l’Agence des États-Unis pour le développement international) ont été supprimés en deux heures samedi après-midi. Cette agence a particulièrement été ciblée par Elon Musk pendant ce week-end. Selon lui, explique CNN, Donald Trump est d’accord pour dire que cette agence doit être « fermée ». Son financement est actuellement gelé et ses employés mis en congé.
La virologue de l’université de Saskatchewan, Angela Rasmussen, a déclaré à la revue scientifique Science : « Je savais que les choses allaient mal tourner, mais je ne pensais pas qu’elles allaient être aussi graves ». Elle a ajouté : « c’est comme une apocalypse de données ».
En jeu, les informations publiées par le réseau de Centres de contrôle et la prévention des maladies (Centers for Disease Control and Prevention, CDC). Plusieurs pages web du CDC contenant les termes LGBTQ ont été supprimées.
« Toutes les données relatives au VIH ont disparu. Normalement, il y a un menu pour les professionnels de la santé », mais il a disparu, a expliqué Angela Rasmussen à Science.
Selon Science, l’un des sites dépubliés concerne une enquête importante sur les comportements à risque des jeunes recueillant notamment des données sur les jeunes LGBTQ. Le site inaccessible actuellement a encore été archivé mercredi par Internet Archive.
D’autres données étaient sur le site data.cdc.gov. L’agence a d’abord dépublié vendredi 31 janvier l’entièreté du site pour se conformer au décret signé par Donald Trump contre les informations sur le genre. Elle l’a ensuite remis en ligne en affichant en haut un bandeau : « Le site web du CDC est en cours de modification pour se conformer aux décrets du président Trump ».
Selon la newsletter du média spécialisé Inside Medecine, le CDC a demandé à ses chercheurs d’interrompre ou de rétracter toute publication d’articles de recherche en cours de publication pour que l’institution vérifie qu’ « aucun terme interdit » n’y figure.
Sont traqués par l’agence les termes « Genre, transgenre, personne enceinte, personnes enceintes, LGBT, transsexuel, non binaire, assigné masculin à la naissance, assigné féminin à la naissance, biologiquement masculin, biologiquement féminin », selon un email envoyé aux employés du CDC qu’a pu se procurer Inside Medecine.
Science explique que le National Institutes of Health (NIH) a aussi supprimé des pages web et annulé des programmes pour favoriser la diversité dans le domaine de la recherche biomédicale. Rappelons que le NIH a une place importante dans la gestion d’outils de la recherche biomédicale mondiale. Par exemple, le National Center for Biotechnology Information, qui dépend du NIH, gère des bases de données comme PubMed, principal moteur de recherche d’articles médicaux et de biologie, ou encore GenBank, une base de séquences nucléotidiques et de leurs traductions protéiques.
Dans un billet de blog, le journaliste Garrett Graff publie une dépêche qu’il aurait pu écrire si les derniers événements s’étaient passés ailleurs qu’aux États-Unis. Celle-ci commence par :
« Ce qui avait commencé jeudi comme une purge politique des services de sécurité intérieure s’est transformé vendredi en un véritable coup d’État, les unités techniques d’élite alignées sur l’oligarque des médias Elon Musk s’étant emparées des systèmes clés du Trésor national, bloquant l’accès extérieur aux dossiers du personnel fédéral et mettant hors ligne les réseaux de communication du gouvernement ».
Six mois après l’annonce du projet, le rapprochement entre Outbrain et Teads rentre dans sa phase opérationnelle. Lundi, les deux sociétés ont annoncé leur fusion. Elle donne naissance à une « plateforme publicitaire multicanale », qui a géré sur l’année fiscale 2024 l’équivalent de 1,7 milliard de dollars d’investissements publicitaires. Techniquement, l’opération prend la forme d’un rachat de Teads par Outbrain, mais c’est bien sous le nom Teads (le nom signifiant Technology for Advertising) qu’opèrera la nouvelle entité.
La transaction, initialement annoncée à l’été 2024, avait été autorisée mi-décembre par l’Autorité de la concurrence française. Elle valorise Teads aux alentours de 900 millions de dollars, dont 625 millions de dollars en cash, et le solde sous forme d’actions Outbrain. Altice, en tant qu’ancien actionnaire principal de Teads, disposera de deux des dix sièges du futur conseil d’administration de la société fusionnée.
« L’entreprise réunira deux des ensembles de données contextuelles et d’intérêt les plus riches de l’Internet ouvert, alimentant un moteur de prédiction d’IA avancé pour optimiser les résultats des annonceurs », se réjouissent les deux sociétés dans un communiqué. Ensemble, elles revendiquent un accès direct à l’environnement de 10 000 médias dans le monde, un taux de pénétration de 96 % sur la population des internautes américains ainsi qu’une présence significative dans le monde de la TV connectée, via des accords avec 4 grands OEMS et de nombreux éditeurs d’application de diffusion vidéo.
Sur le volet technique, Teads indique disposer, via ses clients et partenaires, d’un Omnichannel Graph capable d’analyser le contenu et les données d’audience de 130 000 articles par minute et 500 000 heures de programmes vidéo par mois.
Publicité contextuelle
Beaucoup d’internautes ne connaissent pas le nom de ces deux entreprises, alors qu’ils consomment quotidiennement leurs produits phare. Teads, société franco-luxembourgeoise rachetée en 2017 par Altice pour 285 millions d’euros, fonctionne pour mémoire à la fois comme une régie publicitaire (elle vend des emplacements publicitaires à des marques) et comme l’éditeur d’une solution technique permettant d’automatiser l’ajout de publicités au début d’une vidéo (préroll), mais aussi l’intégration contextualisée de vidéos dans un article ou une page Web donnée.
Outbrain, née pour sa part en Israël avant d’installer son siège aux États-Unis, propose pour sa part des modules de recommandation de contenus capables de prendre en compte des éléments de personnalisation ou de contextualisation. Sa solution équipe de nombreux médias francophones, chez qui elle suggère, en pied d’article, des contenus mêlant articles connexes et publicités. Outbrain a racheté en 2019 l’un de ses concurrents directs, Ligatus, et projeté une fusion avec Taboola, qui a finalement capoté en 2020.
Exemple d’intégration Outbrain sous un article de presse
OpenAI et SoftBank ont formalisé lundi un nouveau partenariat stratégique, qui prévoit de nouvelles interactions croisées entre les deux groupes, un soutien financier accru et la création d’une coentreprise dédiée à la conquête du marché japonais.
Le partenariat, annoncé par voie de communiqué, annonce en premier lieu la création de « Cristal Intelligence », une nouvelle entité qui se présente comme un intégrateur dédié aux solutions d’intelligence artificielle pour l’entreprise d’OpenAI.
Les deux partenaires ne précisent pas à ce stade quelles en seront la forme juridique exacte, la gouvernance ou même les moyens alloués. Ils affirment en revanche que SoftBank sera le premier client final de cette initiative.
« SoftBank dépensera 3 milliards de dollars américains par an pour déployer les solutions d’OpenAI dans l’ensemble des sociétés de son groupe, ce qui en fera la première entreprise au monde à intégrer Cristal Intelligence à grande échelle, ainsi qu’à déployer des outils existants comme ChatGPT Enterprise auprès des employés de l’ensemble du groupe », écrit le groupe japonais.
Rappelons que si l’on parle beaucoup, en Europe, de SoftBank sous l’angle de ses investissements dans les nouvelles technologies, le groupe est un immense conglomérat de plus de 300 sociétés et 55 000 employés. Il réunit notamment des opérateurs (télécoms et infrastructures), des services en ligne (grand public et entreprises), des services financiers, du cloud computing etc. Il contrôle par ailleurs le concepteur de puces informatiques Arm, qui fait lui aussi partie de ce nouveau partenariat :
« Dans le cadre de son accord avec OpenAI, les sociétés du groupe SoftBank, dont Arm et SoftBank Corp., bénéficieront d’un accès prioritaire au Japon aux modèles les plus récents et les plus avancés développés par OpenAI ».
L’IA sera dans ce contexte mise en œuvre pour « transformer le management et les pratiques opérationnelles », affirme SoftBank, selon qui 100 millions de ses processus internes pourront être automatisés grâce à Cristal Intelligence.
SoftBank et OpenAI annoncent en parallèle la création d’une coentreprise, baptisée SB OpenAI Japan, et spécifiquement dédiée à la commercialisation de l’offre Cristal Intelligence sur le marché japonais.
« OpenAI fournira ses recherches avancées en matière d’IA, sa technologie et son soutien technique à SB OpenAI Japan, tandis que SoftBank Corp. détachera son personnel de vente et ses ingénieurs pour apporter son vaste réseau basé au Japon, son expertise opérationnelle et ses connaissances commerciales pour faire évoluer ces solutions de manière efficace », décrivent les deux entreprises.
L’annonce de ce partenariat intervient sur fond de nouvelles rumeurs relatives à une prise de participation significative de SoftBank au capital d’OpenAI. Le groupe japonais est par ailleurs engagé dans l’initiative Stargate, annoncée par Donald Trump, qui doit conduire à la mise en œuvre de 500 milliards de dollars d’investissements sur le sol américain au profit des agents et services d’IA développés par OpenAI.
Venu d’Inde et présenté au CES de Las Vegas, le projet Mecha Comet s’apprête à faire ses débuts commerciaux au travers d’une campagne de préventes sur Kickstarter. Au programme ? Un mini ordinateur au format calculatrice, doté d’un système d’extensions matérielles et d’un environnement logiciel ouvert, basé sur Linux. Le prix d’appel est fixé à 159 dollars.
Au royaume des micro-ordinateurs bon à tout faire, c’est bien sûr la famille des Raspberry Pi qui vient en premier lieu à l’esprit. Mais si la célèbre framboise s’est imposée comme une référence en matière de modularité sur le marché au cours de ces 13 dernières années, ses cartes exigent souvent de fouiller dans le paysage très éclaté des accessoiristes tiers pour concevoir une machine qui réponde parfaitement à ses attentes.
Une plateforme polyvalente
De quoi laisser imaginer à certains qu’il y a de la place pour la modularité sur le marché, tout en offrant une approche plus intégrée. C’est la logique poursuivie par le projet Mecha Comet. Il propose un micro-ordinateur portable, avec écran tactile intégré, doté d’un système de connexion magnétique permettant de jongler avec plusieurs périphériques d’entrées.
« Grâce à son interface magnétique, le Comet prend en charge les extensions interchangeables telles qu’un contrôleur de jeu, un clavier, une carte de dérivation ou la possibilité de créer votre propre extension », vante la page d’annonce du projet sur Kickstarter. L’appareil revendique une conception vertueuse, avec un démontage facilité, des composants aisément remplaçables, et donc la possibilité de développer ses propres extensions. On peut en faire par exemple une console portable dédiée à l’émulation, une télécommande pour drone, un module pour se connecter au système d’une voiture via ODB, voire un outil de pen-testing, à la façon du célèbre Flipper Zero.
Une distribution maison basée sur Debian
Mecha promet à ce niveau la mise à disposition de fichiers de design open source, mais aussi la prise en charge de composants courants du marché, comme le Pi Hat ou le Mikrobus Click.
La machine principale s’articule autour d’un écran tactile de 3,4 pouces, intégré dans un châssis de 150 x 73,55 x 16 mm, pour un poids d’environ 220 grammes, avec une batterie amovible de 3 000 mAh. Le fabricant propose un SoC basé sur un Quad-core ARM Cortex-A53 cadencé à 1,8 GHz, accompagné de 4 Go de mémoire LPDDR4 et de 32 Go de stockage eMMC. La machine dispose d’un connecteur M.2, d’un port Ethernet Gigabit, de deux USB 2.0, du Wi-Fi 5 et du Bluetooth 5.0. Elle embarque enfin un capteur photo 5 mégapixels, un gyroscope, un micro et des haut-parleurs.
Bref, une configuration qui tente de réunir les mondes de l’informatique et du mobile. Côté logiciel, la société propose une distribution Linux baptisée Mechanix OS, basée sur Debian avec un shell écrit en Rust, et un rendu graphique assuré via Wayland. « De plus, vous êtes libre de porter la distribution de votre choix », souligne Mecha.
Un lancement anticipé à 159 dollars
Si la société revendique une domiciliation aux États-Unis pour sa campagne Kickstarter à venir, c’est au sein de la délégation indienne qu’elle participait, début janvier, au CES de Las Vegas. Son fondateur, Shoaib Merchant, revendique dix ans d’expérience dans la conception de plateformes complexes. Il présente le Comet de Mecha comme une machine pour développeurs, située au carrefour entre le cloud et l’edge computing.
Pour le lancement, Mecha affiche un prix d’appel de 159 dollars, qui vaudra sans doute pour l’ordinateur Comet dans sa version la plus simple, sans extension.
Tous les MacBook munis d’une puce Apple Silicon (M1, M2, M3…) ont un comportement commun : ils se réveillent automatiquement lorsqu’on les ouvre ou qu’on les connecte à une alimentation. Un fonctionnement sans doute choisi pour les quelques secondes gagnées dans la plupart des scénarios.
Pourtant, tout le monde n’apprécie pas ce comportement, en particulier le réveil automatique lors du raccordement à l’alimentation. Il semble qu’Apple s’en soit rendu compte et ait décidé de donner aux personnes concernées ce qu’elles veulent. Il ne s’agit pas cependant d’une case à cocher dans les réglages de macOS, mais d’une ou plusieurs lignes de commande.
Il faut que macOS Sequoia (la dernière version majeure disponible) soit installée. Ouvrez le Terminal puis entrez l’une des lignes suivantes, selon ce que vous souhaitez obtenir :
sudo nvram BootPreference=%00 : empêche le Mac de démarrer à l’ouverture de l’écran ou au raccordement de l’alimentation
sudo nvram BootPreference=%01 : empêche le Mac de démarrer uniquement à l’ouverture de l’écran
sudo nvram BootPreference=%02 : empêche le Mac de démarrer uniquement au raccordement de l’alimentation
Si vous voulez restaurer le comportement par défaut, il faudra exécuter la commande :
sudo nvram -d BootPreference
Dans tous les cas, le Terminal vous demandera de saisir le mot de passe de la session.
C’est en tout cas l’information annoncée par Bloomberg et reprise par Libération. Les coupes – qui concernent environ 6 % des effectifs – se feront en France et en Italie via « des départs volontaires, dont des retraites anticipées », selon nos confrères.
Un porte-parole de l’entreprise confirme avec des mots dont les communicants ont le secret : « dans les semaines à venir, nous allons commencer un dialogue constructif avec les représentants du personnel ». Libération rappelle que STMicroelectronics est « né de la fusion d’entreprises publiques françaises et italiennes en 1987 ».
Il y a quelques jours, la société a présenté ses résultats pour le quatrième trimestre de l’année avec une baisse de 22,4 % de ses revenus, pour arriver à 3,321 milliards de dollars. La société est toujours bénéficiaire avec 341 millions de dollars, contre plus d’un milliard il y a un an.
En bourse, l’action a perdu 8 % après l’annonce de son bilan, mais elle a surtout perdu plus de 40 % depuis l’été dernier.