L’Union européenne s’est engagée mardi à débloquer 50 milliards d’euros en faveur du développement de l’économie de l’IA en Europe. Via ce nouveau plan baptisé InvestAI, l’institution accompagne les promesses formulées par une alliance de plus de 60 grandes entreprises, pour former un investissement public-privé susceptible d’atteindre 200 milliards d’euros. Si tout le monde semble aligné sur l’objectif, les avis divergent quant au meilleur moyen pour y parvenir.
Alors que la France caracole avec ses projets d’investissements dans l’IA et que JD Vance, vice-président des États-Unis, vient de prévenir que son administration ferait tout le nécessaire pour que l’Amérique reste leader de la course à l’IA, Ursula von Der Leyen ne pouvait pas venir à Paris les mains vides. Mardi à l’occasion du Sommet pour l’action sur l’IA, elle a annoncé que l’Union européenne allait engager 50 milliards d’euros supplémentaires dans la course à l’intelligence artificielle sur le Vieux continent, au travers d’une nouvelle initiative baptisée InvestAI.
20 milliards d’euros dédiés à des « gigafactories » de l’IA
Cette enveloppe irriguera notamment un nouveau fonds européen, doté de 20 milliards d’euros et dédié à la création de giga-usines dédiées à l’intelligence artificielle : des datacenters équipés d’au moins 100 000 GPU.
« Le fonds InvestAI de l’UE financera quatre futures giga-usines d’IA dans l’ensemble de l’UE. Les nouvelles giga-usines d’IA seront spécialisées dans la formation des modèles d’IA les plus complexes et les plus volumineux », indique la Commission européenne dans un communiqué. Le reste des 50 milliards d’euros évoqués mardi devrait quant à lui intervenir comme un prolongement des programmes de financement européens disposant déjà d’une composante numérique, dont Horizon Europe et InvestEU.
« En l’espace de quelques mois, nous avons mis sur pied 12 usines d’IA, un record. Et nous y consacrons 10 milliards d’euros d’investissement. Il ne s’agit pas d’une promesse, mais bien de ce qui se passe en ce moment même, à savoir le plus grand investissement public au monde en faveur de l’IA. Il permettra de multiplier par plus de dix ce montant en investissements privés », a affirmé Ursula von Der Leyen.
Comme souvent, c’est sur le potentiel de l’action combinée du public et du privé que se sont portés les calculs. À Paris mardi, la présidente de la Commission européenne a ainsi mis l’accent sur la façon dont InvestAI allait permettre de mobiliser non pas 50 milliards, mais 200 milliards d’euros en faveur de l’IA en Europe.
150 milliards d’euros d’investissements privés…
Ursula von Der Leyen a pour ce faire emboîté le pas à une autre annonce, formulée lundi matin, en ouverture du Sommet : la création de l’alliance « EU AI Champions ». Cette fois, l’initiative est privée. Elle réunit plus de 70 entreprises européennes, parmi lesquelles de grands acteurs de la tech (ASML, SAP, Dassault Systèmes, Infineon), des opérateurs (Orange, T-Mobile), des startups de l’IA (Mistral, Pigment) et des poids lourds de l’économie allant de L’Oréal à Publicis en passant par Renault, TotalEnergies ou BNP Paribas.
Ensemble, ces entreprises qui revendiquent un poids cumulé de l’ordre de 3 000 milliards d’euros et 3,7 millions de salariés, se disent prêtes à soutenir le développement de l’IA à l’échelle européenne. Dans un manifeste publié sur leur site, elles se disent prêtes à s’investir, et donc à investir. « Alors que la course mondiale au développement et au déploiement de l’IA s’intensifie, l’Europe doit agir de manière décisive pour définir son rôle. Nous devons emmener le mouvement avec vision et détermination, sinon nous risquons d’être laissés pour compte ».
Dans un communiqué (PDF), l’alliance estime que par son entremise, plus de vingt gestionnaires d’actifs internationaux sont prêts à investir en Europe, à hauteur de 150 milliards d’euros sur cinq ans. « Cela souligne l’immense potentiel de transformation de l’IA dans la région et attirera encore plus de talents et de capitaux, accélérant ainsi l’adoption de l’IA dans les industries européennes ».
… mais pas sans conditions
C’est cette somme que reprend Ursula von Der Leyen dans son discours, et qui permet d’arriver aux fameux 200 milliards d’euros :
« Je me félicite de l’initiative « EU AI Champions », qui s’engage à hauteur de 150 milliards d’euros provenant des fournisseurs, des investisseurs et des acteurs du secteur. Aujourd’hui, j’ai le plaisir d’annoncer que nous pouvons ajouter à cela 50 milliards d’euros grâce à notre initiative InvestAI. Nous avons donc pour objectif de mobiliser un total de 200 milliards d’euros d’investissements dans le domaine de l’IA en Europe ».
L’addition est juste, mais elle occulte cependant une partie du discours tenu par l’alliance EU AI Champions. Cette dernière accompagne en effet ses promesses d’investissements potentiels d’un certain nombre de demandes, liées notamment à la simplification des lois européennes en matière de technologies. Elle appelle ainsi explicitement à la création d’un « cadre réglementaire de l’IA drastiquement simplifié », vœu auquel les RGPD et autres AI Act ne répondraient manifestement pas.
L’initiative EU AI Champions est notamment incarnée par l’Allemande Jeannette zu Fürstenberg, dirigeante historique d’un fonds allemand spécialisé dans les startups et l’IA, aujourd’hui absorbé par General Catalyst, un grand gestionnaire d’actifs américain.
Un texte signé par 58 pays permet à Emmanuel Macron et au Premier Ministre indien Narendra Modi de clôturer le sommet sur une note géopolitique. Utilisant les termes d’ IA « ouverte à tous, inclusive, transparente, éthique, sûre, sécurisée et digne de confiance », ce texte signé sans les États-Unis est surtout un symbole.
Un communiqué émis par l’Élysée et mis en ligne [PDF] par la Mission permanente de la France auprès des Nations unies signale que 58 pays ont signé une déclaration commune à l’issue du Sommet pour l’action sur l’intelligence artificielle. Deux autres signatures apparaissent pour faire le comptes de 60 signataires : l’Union européenne et la Commission de l’Union africaine.
Théâtre géopolitique
Comme l’explique l’AFP, ces deux jours ont été l’occasion d’un théâtre géopolitique où deux visions ont été affichées. D’un côté, les 58 pays signataires dont la France et l’Inde, les deux nations co-présidentes du sommet mais aussi la Chine.
De l’autre côté, les États-Unis et le Royaume-Uni n’ont pas voulu signer. Le nouveau vice-président américain JD Vance a, au cours du sommet, dénoncé une « régulation excessive » qui « pourrait tuer une industrie en plein essor ». Reprenant la dépêche de l’agence de presse, Libération ajoute qu’il a « mis en garde contre les partenariats avec les « régimes autoritaires » dans une référence à peine voilée à la Chine ». « S’associer avec eux revient à enchaîner votre nation à un maître autoritaire qui cherche à infiltrer, s’installer et s’emparer de votre infrastructure d’information », a-t-il affirmé.
Des « grandes priorités » sans engagement concret
Dans leur texte, les 58 pays affirment des « grandes priorités » sans pour autant formaliser d’engagements concrets :
Promouvoir l’accessibilité de l’IA pour réduire la fracture numérique.
Veiller à ce que l’IA soit ouverte à tous, inclusive, transparente, éthique, sûre, sécurisée et digne de confiance, dans le respect des cadres internationaux.
Permettre l’innovation dans le domaine de l’IA en créant les conditions propices à son développement et en évitant la concentration du marché, soutenant ainsi le redressement industriel et le développement.
Encourager un déploiement de l’IA qui ait une incidence positive sur l’avenir du travail et des marchés du travail et qui ouvre des perspectives de croissance durable.
Rendre l’IA durable pour les populations et la planète.
Renforcer la coopération internationale et promouvoir la coordination de la gouvernance internationale.
Le texte explique qu’une « grande plateforme et un incubateur de l’IA d’intérêt général, pour soutenir, amplifier, réduire la fragmentation entre les initiatives publiques et privées sur l’IA d’intérêt général et combler la fracture numérique » a été lancée par le Kenya, l’Allemagne, le Chili, la Finlande, la Slovénie, la France, le Nigeria, le Maroc et l’Inde.
Ces pays soulignent dans ce texte qu’ils ont discuté « pour la première fois lors du Sommet et dans un format multipartite des questions liées à l’IA et à l’énergie » et qu’ils reconnaissent « la nécessité d’améliorer nos connaissances communes sur les effets de l’IA sur le marché du travail ».
Elle constitue une alternative à la fonction Bloquer, toujours considérée comme l’option nucléaire. La nouvelle venue permet en effet d’effacer la présence d’une personne sans que cette dernière puisse le savoir.
Comme Discord l’explique dans son billet, on peut ignorer une personne depuis son profil ou via un clic droit sur son pseudo, où qu’il soit. Une fois une personne ignorée, vous ne verrez plus sa présence dans les canaux. De même, la conversation privée sera masquée, les nouveaux messages ignorés et les notifications attenantes supprimées. Contrairement au blocage, elles verront toujours votre profil et pourront vous envoyer des messages, mais vous ne les verrez pas.
Discord dit avoir conçu la fonction pour répondre aux demandes des utilisateurs, particulièrement des adolescents. Selon l’entreprise, beaucoup auraient souhaité une manière de prendre ses distances, sans pour autant aller jusqu’au blocage, parfois perçu comme trop radical.
Bien que Discord ne l’aborde pas directement, le harcèlement est directement ciblé par cette mesure.
Free, Orange et Bouygues Telecom ont coup sur coup annoncé des partenariats, à dimension plus ou moins stratégique, avec des acteurs de l’intelligence artificielle. Les deux premiers ont choisi Mistral AI, la figure de proue française du secteur. Le dernier mise quant à lui sur l’Américain Perplexity, qui multiplie depuis quelques semaines les marques d’intérêt en direction du marché français.
Xavier Niel, patron d’Iliad, et Arthur Mensch, cofondateur et PDG de Mistral AI, ont enchainé les plateaux, TV et radio, lundi matin, à l’occasion de l’ouverture du Sommet pour l’action sur l’IA. À quelques minutes du coup d’envoi de la journée politique de cet événement voulu par Emmanuel Macron, les deux hommes parlent d’une même voix. Oui, la France a des arguments à faire valoir en matière d’IA sur la scène internationale. Non, il n’est pas trop tard. Oui, il faut investir massivement dans les infrastructures. Et oui, il faut soutenir la scène européenne des startups spécialisées.
12 mois d’accès au Chat Pro de Mistral AI pour les abonnés Free
Non content d’annoncer un plan d’investissement de 3 milliards d’euros en faveur de l’IA (dont 2,5 milliards d’euros tournés vers le développement de datacenters hyperscale en Europe), Xavier Niel a, à cette occasion, présenté un partenariat inédit entre l’opérateur Free et Mistral AI. Les deux sociétés ont trouvé un accord financier qui va permettre aux abonnés mobiles Free de disposer d’un accès gratuit à la version premium de l’assistant IA de Mistral, « Le Chat Pro », pendant douze mois.
« Les 15,5 millions d’abonnés Free vont ainsi pouvoir bénéficier gratuitement d’un outil IA à la pointe de la technologie, développé par un champion français et un leader européen de l’IA », se réjouit le groupe Iliad dans un communiqué.
Les modalités financières de ce partenariat n’ont pas été précisées. La formule Pro de l’accès à Le Chat est affichée à 14,99 euros HT par mois, soit 18 euros par mois, TVA comprise, pour un particulier. Rappelons que Xavier Niel fait partie des premiers investisseurs à avoir accompagné Mistral AI, peu de temps après sa création, en avril 2023.
Chez Orange, de l’IA Mistral pour les clients pro… et les performances du réseau
Mardi matin, c’est Orange qui a dégainé sa propre annonce relative à l’IA. Là aussi, il s’agit d’un partenariat avec Mistral AI, mais dont les contours sont à la fois plus larges… et plus flous.
L’opérateur présente cette nouvelle alliance comme une collaboration « stratégique ». Outre des projets de recherche communs, elle prévoit notamment qu’Orange intègre « les technologies avancées de Mistral AI dans son infrastructure » pour optimiser, par exemple, la gestion du trafic ou la maintenance prédictive. « Parallèlement, de nouveaux services personnalisés basés sur l’IA pourront être développés pour les 300 millions de clients d’Orange à travers le monde », promet le groupe.
Sur le volet commercial, Orange indique qu’il enrichira sa propre offre d’IA générative, Live Intelligence, grâce à l’hébergement sur ses propres infrastructures du LLM Codestral conçu par Mistral AI. Enfin, l’opérateur proposera l’application Le Chat en option de ses abonnements mobiles professionnels, avec une tarification unifiée.
Bouygues offre un accès gratuit à Perplexity Pro
Bouygues Telecom a pour sa part officialisé mardi un accord avec l’Américain Perplexity, similaire sur le principe à celui conclu entre Free et Mistral. « Dès aujourd’hui, Bouygues Telecom offre à tous ses clients grand public et entreprise en exclusivité un abonnement sans engagement d’un an à Perplexity Pro, leur permettant d’économiser 220 euros », annonce l’opérateur. La formule Perplexity Pro est facturée 22 euros par mois aux clients grand public. Au bout de douze mois, les clients seront rebasculés vers l’offre gratuite de Perplexity, précise Bouygues Telecom.
Toujours friands de nouveaux services pour enrichir leurs bouquets de services, les opérateurs télécoms constituent sans surprise un levier incontournable pour les startups de l’IA générative. Toutes cherchent à conquérir rapidement des parts sur un marché déjà dominé par ChatGPT et récemment malmené par l’arrivée en fanfare du Chinois DeepSeek. Si Mistral AI joue en terrain conquis au Sommet de l’IA, Perplexity profite de l’événement parisien pour cultiver son opération séduction à destination des acteurs français et européens, comme le relate le Figaro.
Dans le sillage d’OpenAI, qui négocie déjà avec certains grands médias l’accès à leurs productions pour nourrir ses modèles et ses réponses aux requêtes des internautes, Perplexity courtise également la presse. En France, elle a ainsi récemment signé un premier partenariat avec Humanoid (groupe Ebra), l’éditeur de Frandroid ou Numerama, dont elle utilise déjà les articles comme sources, en échange d’un futur partage de revenus basé sur l’intégration, annoncée en fin d’année dernière, de publicités au sein de ses résultats de recherche.
Et SFR au fait ? À l’heure où nous publions ces lignes, l’opérateur au carré rouge n’a pas formulé d’annonce de partenariat avec une startup IA. Le 6 février dernier, la société communiquait cependant (PDF) sur son plan d’action « pour une IA à impact positif », qui prévoit la mise en place d’une gouvernance et d’une feuille de route dédiées, ainsi qu’un vaste plan de formation et d’acculturation destiné aux employés du groupe. « Près de 100 usages différents de l’IA sont déjà déployés au sein de SFR dans tous ses métiers », fait valoir la filiale d’Altice.
« Voilà qui fait mauvais genre », ironise le journaliste Marc Rees sur L’Informé : le moteur de recherche Qwant, qui avait fait de la protection de la vie privée de ses utilisateurs son fer de lance, vient de faire l’objet d’un « rappel à ses obligations légales de transparence et d’information » de la part de la CNIL.
La Commission avait été saisie par Stéphane Erard, un ex-développeur de Qwant en conflit avec son ex-employeur, qu’il accusait de chercher à masquer que le moteur, soi-disant « souverain », recourait en fait aux services du moteur Bing de Microsoft, comme nous l’avions rapporté dans notre enquête-fleuve de 2019.
Des contrôles effectués en juillet et septembre 2019 « ont permis d’établir que la société Qwant transmettrait à la société Microsoft Ireland Opérations Limited des données essentiellement techniques (…) afin que cette dernière renvoie les résultats correspondant aux recherches faites par les utilisateurs ainsi que des publicités contextuelles », relève la décision de la CNIL, consultée par L’Informé.
Y figuraient des identifiants et adresses IP tronquées. Or, à l’époque des contrôles, « Qwant indiquait que les données étaient anonymes » et « par corrélation », le moteur de recherche « ne mentionnait ni la finalité publicitaire de la transmission des données à la société Microsoft Ireland Opération Limited, ni la base légale mobilisée par ce traitement ».
La CNIL requalifie pour sa part ces informations de « pseudonymes », au regard des recommandations et de la jurisprudence en vigueur. Dès lors, les informations délivrées aux utilisateurs « n’étaient pas conformes au règlement général sur la protection des données à caractère personnel (RGPD) qui s’appliquait pleinement », relève L’Informé.
La CNIL constate cela dit que Qwant a corrigé sa politique de confidentialité pour la remettre d’aplomb avec ces normes de protection en 2020, « soit un an après les premiers contrôles par ses agents », souligne notre confrère.
Contacté par l’Informé, Qwant souligne que ce simple rappel à la loi date d’avant le rachat de l’entreprise par Synfonium (composé d’Octave Klaba fondateur OVH Cloud à 75% et de la Caisse des dépôts et consignation à hauteur de 25%) en 2023, et confirme « que Qwant ne stocke aucune donnée personnelle et est en conformité totale avec les engagements que nous annonçons ».
L’Informé rappelle par ailleurs que Stéphane Érard avait pour sa part fait l’objet d’un licenciement pour faute en 2017, pour avoir insinué sur Twitter que Qwant trompait ses utilisateurs sur sa politique de confidentialité. Un licenciement confirmé par le Conseil des Prud’hommes en 2018, puis par une cour d’appel en 2022.
En cette même année 2022, Éric Leandri, alors PDG de Qwant, avait de son côté été condamné par le tribunal judiciaire de Paris pour espionnage de la boite mail d’un autre associé de Qwant, Jean-Manuel Rozan. Les faits s’étaient déroulés fin 2019, alors que Leandri dirigeait la société au slogan : « le moteur de recherche qui ne sait rien sur vous et ça change tout ! ».
Plusieurs sociétés ont annoncé hier la création de ROOST, un organisme à but non lucratif destiné à fournir des outils et ressources pour améliorer la sécurité des enfants en ligne. La fondation veut en particulier lutter contre la pédopornographie.
Google, OpenAI, Roblox et Discord ont profité de l’AI Summit à Paris pour annoncer la création de l’initiative ROOST, pour Robust Open Online Safety Tools. Elle doit œuvrer à l’amélioration de la sécurité des enfants en ligne en fournissant des ressources et surtout des outils. Elle ambitionne de les fournir gratuitement aux entreprises intéressées, pour les aider à se lancer sur un terrain jugé complexe et à ne pas « réinventer la roue ».
Des entreprises, des ONG, des partenaires
« Les technologies innovantes continuent d’évoluer, tout comme le paysage de la sécurité en ligne. L’IA générative remodèle l’environnement en ligne, ce qui accroît le besoin d’une infrastructure de sécurité fiable et accessible. ROOST proposera des outils gratuits, libres et faciles à utiliser pour détecter, examiner et signaler les contenus pédopornographiques, exploiter les grands modèles de langage pour alimenter l’infrastructure de sécurité et rendre les technologies de sécurité de base plus accessibles et plus conviviales », annonce le communiqué.
La fondation comprend également Eric Schmidt, ancien CEO de Google, parmi les membres fondateurs. Selon lui, ROOST « répond à un besoin critique d’accélérer l’innovation dans le domaine de la sécurité des enfants en ligne et de l’IA en fournissant aux petites entreprises et aux organisations à but non lucratif un accès aux technologies qui leur font actuellement défaut ». Camille François, nommée présidente de la fondation, estime que ROOST « inaugure une nouvelle ère d’innovation collaborative en matière de sécurité ».
La structure est épaulée par plusieurs ONG ayant une certaine expérience du sujet : Knight Foundation, AI Collaborative, Patrick J. McGovern Foundation et Project Liberty Institute. On trouve aussi une quinzaine de partenaires, dont Bluesky, Cinder, GitHub, Hugging Face, HydroX AI, matrix, Microsoft, Mozilla et la fondation Wikimedia.
Mozilla a publié un communiqué hier, se réjouissant du lancement de cette initiative. La fondation indique d’ailleurs être présente depuis le départ, en fournissant une « petite subvention » à ce qui était encore un projet de recherche à l’université de Columbia, en octobre 2023. « Nous pensons que le monde a besoin d’organisations à but non lucratif d’IA publique qui à la fois complètent et servent de contrepoint à ce qui est construit au sein des grands laboratoires commerciaux d’IA », ajoute Mozilla. « ROOST se lance exactement au bon moment et au bon endroit ».
Un contexte tendu
Au-delà des réjouissances, le contexte n’est pas si euphorique, surtout en ce qui concerne les entreprises. Comme l’explique The Verge, le National Center for Missing and Exploited Children (NCMEC) indique sur son site que les rapports portant sur de potentielles exploitations d’enfants ont augmenté de 12 % entre 2022 et 2023.
Nos confrères pointent en outre un chiffre important : plus de la moitié des enfants aux États-Unis étaient sur Roblox en 2020. Trois ans plus tard, DataNews relevait que le public quotidien du jeu avait atteint 65,5 millions de personnes, dont plus des deux tiers avaient alors moins de 16 ans. Le jeu a défrayé plusieurs fois la chronique pour avoir notamment permis les achats de monnaie virtuelle. Que-Choisir avait d’ailleurs porté plainte en septembre dernier.
Surtout, Roblox a été englué plusieurs fois dans des accusations de laxisme face à l’exploitation sexuelle des enfants sur son jeu. En juillet 2024, Bloomberg publiait un article intitulé « Roblox’s Pedophile Problem » revenant sur l’ampleur de la situation. Le problème était d’autant plus manifeste que l’entreprise, Discord et plusieurs autres plateformes avaient été attaquées en justice en octobre 2022 pour ne pas avoir lutté assez efficacement contre le phénomène.
Des questions en suspens
Le communiqué de la fondation ne donne guère de détails sur le fonctionnement de la structure. On sait simplement que toutes ces entités vont collaborer et fournir une aide à toute personne ou structure intéressée. Rien n’est dit cependant sur une date d’arrivée pour les premiers contenus ou outils.
Le programme reste flou et interroge sur certains propos. Par exemple, ROOST indique qu’elle rendra les « outils qui existent déjà » plus accessibles, mais on ne sait pas comment. Autre inconnue, la manière dont les ressources et outils qui seront proposés viendront s’articuler avec, justement, l’existant. Par exemple, la technologie PhotoDNA de Microsoft, utilisée dans la coalition Lantern lancée en octobre 2023, et qui réunissait les GAFAM et de nombreuses autres entreprises, dont Discord et Roblox.
Bien que ce ne soit pas clairement annoncé, ROOST pourrait ainsi être un complément de Lantern, visant le partage des bonnes pratiques et outils dans le domaine de la protection des enfants en ligne. L’IA devrait jouer un grand rôle, puisque l’on retrouve l’omniprésente OpenAI dans les membres fondateurs.
Plusieurs agences publiques américaines ont supprimé des pages entières de leurs sites web pour respecter la volonté de Donald Trump émise dans un décret de censurer des informations concernant les minorités, les LGBT et les femmes. La NSA et la NASA n’y ont pas échappé.
La NSA et la NASA suppriment aussi des informations de leurs sites internet. Depuis le début du mandat de Donald Trump, on a pu constater sur les sites de plusieurs agences américaines la suppression ou la modification de certaines pages, mais aussi des jeux de données supprimées.
Ces changements sont décidés par les directions des agences suite à un décret de Donald Trump qui bannit certains sujets comme les informations sur le genre ou la transidentité ainsi que toute politique d’inclusivité et de lutte contre les discriminations.
Nous avons déjà parlé de la situation des Centres de prévention des maladies américains, mais aussi des jeux de données de data.gov et d’outils numériques sur le climat. Des ingénieurs et chercheurs font tout pour sauver ces données via Internet Archive.
Des mots comme « racisme », « biais », « genre » ou « sexualité » interdits dans la communication de la NSA
Comme l’explique la newsletter américaine Popular information, la direction de la NSA a envoyé un mémo ce lundi 10 février qui informe les salariés de l’agence que tous les sites web de l’agence, mais aussi les pages de son intranet, qui contiennent des mots interdits seront supprimés.
Selon Popular information, une liste de 27 mots interdits a été distribuée aux fonctionnaires de l’agence :
Anti-Racism
Racism
Allyship
Bias
DEI
Diversity
Diverse
Confirmation Bias
Equity
Equitableness
Feminism
Gender
Gender Identity
Inclusion
Inclusive
All-Inclusive
Inclusivity
Injustice
Intersectionality
Prejudice
Privilege
Racial Identity
Sexuality
Stereotypes
Pronouns
Transgender
Equality
Selon le média, cette opération, surnommée en interne « big delete » et qui demande de sélectionner les différents contenus à supprimer, serait effectuée notamment par des stagiaires du « Data Science Development Program » de l’agence qui doivent identifier les faux positifs. La direction de la NSA aurait néanmoins prévenu qu’elle s’attendait à des « interruptions involontaires » des sites web « liés à la mission ».
Zèle des directions d’agence
Le décret pris par Donald Trump le 20 janvier dernier visait notamment les programmes de « diversité, d’équité et d’inclusion » (DEI) des agences. On peut constater un certain zèle des agences fédérales qui choisissent d’étendre largement les ordres du nouveau président.
Comme l’a raconté le service Checknews de Libération, le musée sur l’histoire de la cryptographie de la NSA situé dans le Maryland a recouvert pendant un certain temps des portraits de femmes et de personnes issues de minorités ethniques.
Après l’émoi suscité sur les réseaux sociaux, le papier qui les cachait a été enlevé, le musée s’est excusé et les responsables de la NSA ont affirmé qu’il s’agissait d’une « mauvaise interprétation » du fameux décret de Donald Trump.
La NASA ne peut plus parler de justice environnementale ni des populations autochtones
Ce texte du nouveau président étasunien est aussi appliqué par la NASA. Comme nous l’expliquions juste après l’investiture de Donald Trump, la NASA fait partie des agences américaines qui travaillent sur le climat et avait déjà été visée par des suppressions de données lors de son premier mandat.
La semaine dernière, 404 Media expliquait que le personnel de la NASA a reçu l’ordre de « tout laisser tomber » pour supprimer des sites de l’agence toute mention des DEI, des populations autochtones, de justice environnementale et des femmes dirigeantes.
Le site web explique qu’une bonne partie de ces changements sont visibles sur le GitHub de l’agence. Ceux-ci semblent erratiques : des pages sont supprimées puis republiées. Le site de fact-checking américain Snopes a bien observé des changements. Il constatait d’ailleurs qu’une page sur la géologue Wendy Bohon, passée d’actrice à chercheuse et spécialiste en communication avait été supprimée. Mais on peut de nouveau y accéder actuellement.
Les universitaires commencent aussi à recevoir des instructions pour suivre le décret de Donald Trump. L’enseignant-chercheur en sciences du climat de l’université de Hawaï, David Ho, explique sur Bluesky :
« Nous avons reçu un message de l’université nous demandant de supprimer toute utilisation des termes « DEI », « diversité », « équité » ou « inclusion » de tous les documents destinés au public. Ils nous ont dit que même le mot « biodiversité » était signalé par le gouvernement fédéral. Nous vivons dans la période la plus stupide qui soit ».
Alessandro Rigolon, enseignant-chercheur à l’université de l’Utah, rapporte lui aussi avoir reçu un e-mail lui déconseillant d’inclure d’autres termes comme « changement climatique », « émissions de gaz à effet de serre » dans les futures demandes de financement de la recherche auprès du ministère américain des transports.
Bloomberg a révélé lundi que l’Autorité de la concurrence française avait ouvert une enquête relative à Microsoft et plus précisément aux conditions selon lesquelles l’éditeur met les résultats de Bing à disposition d’autres moteurs de recherche.
D’après le média américain, qui dit tenir ses informations de sources proches du dossier, le gendarme de la concurrence chercherait à évaluer si Microsoft ne dégrade pas intentionnellement la qualité des résultats de recherche transmis à ses clients tiers, au profit de son propre moteur de recherche. Pour ce faire, l’Autorité aurait notamment entrepris d’interroger les opérateurs de moteurs avec lesquels travaille Microsoft.
Les résultats de l’enquête devraient permettre à l’Autorité de déterminer si la situation justifie l’ouverture d’une procédure plus formelle. Contactée par Next, elle n’a pour l’instant pas donné suite à notre demande de précisions.
Sur un marché français où Google représente environ 90 % des usages, difficile d’imaginer que l’Autorité utilise l’argument de l’abus de position dominante. Microsoft occupe toutefois une position nettement plus significative sur le marché, bien plus confidentiel, de la syndication de résultats de recherche.
Bien qu’ils aient récemment annoncé leur alliance autour d’un projet d’index de recherche européen, les moteurs Qwant et Ecosia s’appuient encore aujourd’hui sur les données fournies par Bing (même si Ecosia pioche aussi dans l’index de Google). Brave Search exploitait lui aussi les résultats de Bing jusqu’en avril 2023. En parallèle de ses propres outils d’indexation spécialisés, DuckDuckGo s’appuie quant à lui toujours de façon significative sur Bing pour ses résultats généraux et sa recherche d’images.
Elon Musk a mis sur la table 97,4 milliards de dollars pour racheter OpenAI. L’entreprise a décliné, occasionnant un échange d’amabilités entre Elon Musk et Sam Altman sur X, mais son conseil d’administration devra néanmoins examiner l’offre.
97,4 milliards de dollars : c’est la somme proposée par un consortium mené par Elon Musk pour racheter OpenAI. L’information, révélée par le Wall Street Journal, a depuis été confirmée par l’avocat d’Elon Musk, Marc Toberoff. « Il est temps que l’OpenAI redevienne la force du bien à source ouverte et axée sur la sécurité qu’elle était autrefois. Nous ferons en sorte que cela se produise », a également indiqué Elon Musk dans un communiqué, transmis par son avocat.
À TechCrunch, le bras droit de Donald Trump explique vouloir sauver OpenAI : « Chez x.AI, nous vivons selon les valeurs qu’OpenAI m’a promis de suivre. Nous avons rendu Grok open source et nous respectons les droits des créateurs de contenu ». Si l’opération devait réussir, une fusion entre OpenAI et xAI serait envisagée.
Les tensions entre Elon Musk et Sam Altman montent d’un écran
La proposition de rachat hostile a fait du bruit. Le consortium comprend Baron Capital Group, Valor Management, Atreides Management, Vy Fund III, Emmanuel Capital Management et Eight Partners VC. Plusieurs de ces fonds sont des habitués des entreprises d’Elon Musk. Baron Capital Group détient par exemple des parts importantes dans Tesla et SpaceX, tout comme Atreides Management. Valor Management est un gros investisseur de Tesla et Vy Capital de SpaceX.
L’offre, hostile, fait bien sûr réagir. Sur X, Sam Altman a adopté d’emblée le ton du sarcasme acide : « Non merci, mais nous achèterons Twitter pour 9,74 milliards de dollars si tu veux ». La somme elle-même est une moquerie : il s’agit du dixième du chiffre proposé par le consortium, et le quart du prix payé par Elon Musk pour racheter le réseau social.
Le sérieux de l’offre fait débat. La valorisation actuelle d’OpenAI n’est pas claire, mais est estimée, par certains, proche des 300 milliards de dollars. L’entreprise a toujours le vent en poupe, surtout maintenant qu’elle est au centre du projet Stargate. Ce dernier envisage d’investir pour rappel jusqu’à 500 milliards de dollars pour bâtir plusieurs immenses centres de calcul aux États-Unis. Le premier est en cours de construction au Texas, SoftBank étant le partenaire financier clé de l’opération.
Cette offre « jette incontestablement un pavé dans la mare », a indiqué de son côté Jonathan Macey, professeur à l’université de Yale et spécialiste de la gouvernance d’entreprise, à Reuters. Pour l’analyste Gil Luria, l’offre « devrait compliquer considérablement la collecte de fonds actuelle d’OpenAI et le processus de conversion en société à but lucratif ».
Pour autant, le conseil d’administration va devoir examiner l’offre, indépendamment de la réponse cinglante de Sam Altman. La solidité de la proposition sera alors analysée, car la crédibilité financière d’Elon Musk, fragilisée par le rachat de Twitter, est désormais à regarder par le prisme de ses nouvelles attributions gouvernementales.
Relations complexes
Le destin d’OpenAI est au cœur de la haine que se vouent aujourd’hui Elon Musk et Sam Altman, entreprise qu’ils ont cofondée en 2015. Sam Altman a annoncé ses plans pour la convertir en entreprise plus classique, contrôlée par l’actuelle structure à but non-lucratif.
Un projet qu’Elon Musk rejette en bloc, soutenu par une partie du monde la tech, dont Meta. L’opération inciterait ainsi « les investisseurs à lancer des organisations en tant qu’organisations à but non lucratif, à collecter des centaines de millions de dollars en dons exonérés d’impôts pour soutenir la recherche et le développement, puis à assumer le statut de société à but lucratif lorsque sa technologie devient commercialement viable », avait indiqué l’entreprise dans une lettre au procureur général de Californie, Rob Bonta.
Elon Musk a d’autres raisons d’être en colère. L’annonce du projet Stargate a été faite en grande pompe par Donald Trump en personne, accompagné de plusieurs CEO d’entreprises impliquées, dont Larry Ellison (Oracle) et Masayoshi Son (SoftBank). Musk, très impliqué dans le nouveau gouvernement américain en tant que chef du DOGE (dont les opérations se multiplient), a donc assisté à la promotion de son ennemi. OpenAI est en effet au cœur du projet, en tant que seule entreprise spécialisée dans l’IA dont les modèles seront entrainés dans les futurs centres.
Dans les heures qui suivaient l’annonce, Elon Musk indiquait ainsi sur X : « En réalité, ils n’ont pas l’argent ». Sam Altman avait répondu : « « C’est faux, comme tu le sais sûrement. Je comprends que tout ce qui est bon pour ce pays ne l’est pas toujours pour tes entreprises, mais j’espère qu’avec tes nouvelles fonctions, tu donneras la priorité aux États-Unis ».
L’offre de rachat, si elle devait réussir, résoudrait donc plusieurs problèmes d’Elon Musk. La prise de contrôle d’OpenAI effacerait en effet le retard de xAI face à ses concurrents, bloquerait le processus de transformation en entreprise à but lucratif, court-circuiterait en partie l’influence de Microsoft et lui assurerait une place de premier rang au sein du projet Stargate.
Google a confirmé mardi l’application de la décision formulée par Donald Trump : son service de cartographie Maps renomme désormais le Golfe du Mexique en Golfe d’Amérique. Le moteur de recherche avait indiqué fin janvier qu’il se plierait à la volonté du président des États-Unis, dès que le changement de nom aurait été avalisé par l’US Geographic Names Information System.
« Comme nous l’avons annoncé il y a deux semaines et conformément à nos pratiques de longue date, nous avons commencé à déployer des modifications pour refléter cette mise à jour. Les utilisateurs de Maps aux États-Unis verront « Golfe d’Amérique » et les utilisateurs au Mexique verront « Golfe du Mexique ». Tous les autres utilisateurs verront les deux noms », résume la société dans un billet de blog.
Cette volonté de renommer le Golfe du Mexique en Golfe d’Amérique avait été affirmée par Donald Trump et formalisée par décret dès le 20 janvier, jour de son investiture. Le président américain a par ailleurs proclamé dimanche que le 9 février serait désormais le Jour du Golfe d’Amérique.
« Alors que mon administration restaure la fierté américaine dans l’histoire de la grandeur américaine, il est juste et approprié que notre grande nation se rassemble et commémore cet événement mémorable et le changement de nom du Golfe d’Amérique », écrit Donald Trump.
Google n’évoque pas dans son billet de blog la situation du Denali, que Trump souhaitait voir renommé en Mont McKinley. Maps affichait toujours l’appellation Denali mardi matin depuis la France.
Apple de son côté utilise toujours le terme Golfe du Mexique sur son application Plans, et référence le Denali sous ce nom, à moins qu’une recherche explicite soit faite sur les termes Mont McKinley.
Le réseau ferroviaire national de la SNCF est actuellement perturbé sur plusieurs lignes, que ce soit du RER parisien ou de TER.
Ce matin, une bonne partie des comptes X/Twitter des lignes de RER parisiens ont signalé une « panne informatique » qui perturbe soit seulement les écrans en gare, soit le trafic qui a été « fortement ralenti ».
By Kevin.B – Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=81051873
Mais la panne a aussi touché le trafic des TER, par exemple, dans la région AURA ou en Occitanie. La SNCF expliquait à 8h33 sur le compte X des TER AURA que « la panne a été résolue ce matin avant 6 h, mais des perturbations vont subsister toute la matinée ».
Interrogée par Next, la SNCF nous a répondu : « Nous avons eu effectivement un dérangement informatique tôt ce matin mais nos équipes sont intervenues rapidement et il est résolu. Certaines circulations ont pu être perturbées mais l’incident est maintenant terminé ».
La suite bureautique libre et gratuite OnlyOffice s’est enrichie début février de nouvelles fonctionnalités dans le cadre de la publication de sa version 8.3. Celle-ci inaugure notamment la prise en charge des formats de fichier Apple iWork (Pages, Keynote, Numbers) et Hancom Office (.hwp, .hwpx). La compatibilité est assurée en lecture. En édition, il faudra tout de même encore passer par une conversion aux formats OOXML, indique l’éditeur.
Dans sa version 8.3, OnlyOffice promet une trentaine de nouveautés parmi lesquelles l’amélioration du support RTL (right-to-left, soit la possibilité de modifier la direction par défaut de la feuille de calcul ou du paragraphe dans un document texte). L’éditeur de PDF s’enrichit d’un mode tampons pour ajouter « une touche professionnelle à vos contrats, accords et autres fichiers PDF ». Il autorise maintenant l’annulation de ses dernières actions en édition collaborative, propose la sélection multiple et gère l’opacité.
Le tableur hérite quant à lui des mêmes possibilités d’annulation d’actions en mode collaboratif, d’une actualisation des données venant de sources liées et de nouvelles options de remplissage automatique des cellules. Il permet également d’ouvrir et d’enregistrer des éléments calculés dans les tableaux croisés dynamiques. L’outil dédié aux présentations inaugure un onglet Conception, pour simplifier la personnalisation des paramètres des diapositives, ainsi qu’un mode dessin accessible pendant une présentation en diaporama.
OnlyOffice 8.3 introduit enfin la possibilité de combiner et de comparer des documents textuels au niveau du caractère ou du mot et la localisation en albanais.
Rappelons qu’OnlyOffice se présente comme une suite bureautique libre et gratuite, disponible soit sous forme d’applications de bureau (pour Windows, macOS ou Linux), soit en versions serveurs, proposées au téléchargement ou à l’intégration via des distributeurs spécialisés. Là où un LibreOffice, récemment passé en version 25.2, se présente comme une alternative aux clients logiciels de la suite Office, OnlyOffice cherche donc pour sa part à concurrencer les offres de type Office 365.
L’arrivée de cette version 8.3 intervient peu de temps après que Microsoft a déployé son offre d’intelligence artificielle Copilot au sein de sa suite Microsoft 365, entraînant au passage une hausse de tarifs sans précédent. OnlyOffice, de son côté, propose depuis peu d’intégrer l’IA d’origine chinoise DeepSeek à ses éditeurs via un plugin dédié.
Le noyau Linux contient du code Rust depuis bientôt trois ans. De petits ajouts, qui ont surtout consisté pendant un temps à permettre à du code Rust d’être ajouté, notamment dans les pilotes. Mais la progression du langage dans le noyau reste complexe.
C’est ce qu’a tenté de faire Hector Martin. Si le nom vous parle, c’est peut-être parce qu’il est le fondateur et développeur principal de la distribution Asahi Linux, spécialisée dans le support matériel des Mac équipés d’une puce Apple Silicon. Un travail qui l’a mené d’ailleurs à la faille « M1RACLES » dans les puces M1. Ou peut-être parce qu’il fut un redoutable hacker, spécialisé dans les consoles de jeu, tout particulièrement les PlayStation et la Wii.
Garde-barrières
Le développeur a toutefois un problème : il promeut activement l’usage de Rust dans le noyau Linux et le processus de révision de ce dernier est bien trop lent selon lui. Le mois dernier, il a souhaité pousser un patch qui aurait permis aux pilotes de périphériques écrits en Rust de faire appel à la fonction DMA (Direct Memory Access) du noyau. Refus catégorique de Christoph Hellwig, mainteneur principal du noyau.
Ces tensions entre promoteurs du Rust et mainteneurs habitués au C n’est pas nouvelle. Elles avaient notamment provoqué des départs dans l’équipe de Rust for Linux. Il y a quelques jours, The Register signalait la tension montante entre Hector Martin et Christoph Hellwig, le premier poussant l’équipe de Rust for Linux à ignorer les remarques du second et d’envoyer quand même leurs propositions de modifications. Tout du moins tant que Linus Torvalds n’intervenait en personne.
« Le problème vient peut-être de vous »
Et Linus Torvalds est intervenu. Répondant directement à Hector Martin qui expliquait combien ces tensions le fatiguaient, le père du noyau Linux s’est montré franc dès la première ligne : « Et si vous acceptiez le fait que le problème vient peut-être de vous ? ». Il continue : « Vous pensez que vous savez mieux [que les autres]. Mais le processus actuel fonctionne. Il a des problèmes, mais les problèmes font partie de la vie. La perfection n’existe pas ».
Dans la suite du message, il accuse Hector Martin de « brigadage » sur les réseaux sociaux et Reddit, le développeur ayant essayé d’alerter de la situation. « Parce que si nous avons des problèmes dans le modèle de développement du noyau, alors les médias sociaux ne sont certainement pas la solution. De la même manière qu’ils n’étaient pas la solution à la politique », a ajouté Linus Torvalds.
Torvalds n’est pas contre le Rust
Au sein du noyau Linux, la priorité reste le code en C. Le mélange de deux langages est considéré comme risqué. Christoph Hellwig l’a même comparé à un « cancer », ce qui faisait dire à Hector Martin que le propos violait probablement les règles de bonne conduite. L’expression rappelle également les propos que Steve Ballmer, ancien CEO de Microsoft, avait tenu au sujet de Linux lui-même.
Linus Torvalds, de son côté, n’a rien contre le Rust en tant que tel. Sa position est connue depuis septembre dernier, lors de la version européenne de l’Open Source Summit. « Certaines discussions deviennent désagréables. Je ne sais pas vraiment pourquoi Rust est un domaine si controversé. Cela me rappelle ma jeunesse. Les gens se disputaient entre vi et EMACS. Pour une raison ou pour une autre, toute la discussion sur Rust contre C a pris des accents presque religieux dans certains domaines », avait-il alors indiqué.
Il s’était montré philosophe : « Rust est très différent, et beaucoup de gens sont habitués au modèle C. Ils n’aiment pas les différences, mais ce n’est pas grave ». Il avait toutefois plaidé pour qu’on laisse sa chance au langage : « Cela ne fait que deux ans que nous travaillons avec Rust, il est donc bien trop tôt pour dire que Rust est un échec ».
Quand c’est officiel, c’est officiel : les images valent 1 000 mots, alors imaginez 1 000 images, on va bien finir par arriver à 100 milliards, c’est lui qui vous le dit !
À la veille du Sommet pour l’action sur l’IA qui s’ouvre à Paris ce lundi, Emmanuel Macron a annoncé « 109 milliards d’euros » d’investissements « dans les prochaines années » lors d’une interview sur France 2.
Il y a moins d’un mois, Donald Trump annonçait en grande pompe le projet Stargate : jusqu’à 500 milliards de dollars d’investissements en quatre ans, réunissant les partenaires financiers SoftBank, OpenAI, Oracle et MGX et les partenaires techniques Arm, Microsoft, NVIDIA, Oracle et OpenAI.
À l’occasion du « Sommet pour l’action sur l’IA » qu’il copréside avec le Premier Ministre nationaliste indien Narendra Modi, Emmanuel Macron veut jouer dans la même cour en annonçant lui-même « 109 milliards d’euros dans les prochaines années ». Il a d’ailleurs insisté lors de l’interview qu’il a donné à France 2 dimanche 9 février : « C’est l’équivalent pour la France de ce que les États-Unis ont annoncé avec “Stargate”. C’est le même rapport ».
Si le projet états-unien semble être organisé en un partenariat financier et technique autour d’un projet précis, la somme annoncée par le président français additionne, elle, les différents investissements attendus en France dans le domaine pour les prochaines années, sans liens les uns avec les autres, mais qui se concentrent notamment sur la création de data centers.
Les milliards de MGX
L’annonce d’investissement la plus importante, et qui a permis à Emmanuel Macron de parler d’une somme symboliquement au-dessus des 100 milliards d’euros, est celle des Émirats arabes unis et de leur fonds d’investissement MGX. Elle a été faite jeudi 6 février, en marge du sommet et représente « de 30 milliards à 50 milliards d’euros » d’investissements, selon l’Élysée, comme nous l’expliquions dernièrement.
Mais pour l’instant, ce projet n’a pas encore dépassé le stade des annonces. On ne sait pas encore où il pourra être implanté et quand il sortira de terre. Cet immense montant pourrait être la somme de plusieurs annonces qui seront faites par le fonds MGX lors des sommets « Choose France » des prochaines années, l’Élysée expliquant qu’ « une annonce sur la première tranche d’investissement sera faite lors du Sommet Choose France 2025 ».
Un projet de data center à Cambrai financé par Brookfield
Un autre fonds étranger a annoncé investir en France à l’occasion de ce sommet : le journal la Tribune a appris samedi que le fonds canadien Brookfield allait investir 20 milliards d’euros dans l’Hexagone et notamment dans le développement d’un « immense data center à Cambrai » ainsi que des « infrastructures associées » comme, par exemple, de la production d’énergie.
Enfin, en termes d’investissement, la banque publique d’investissement française, Bpifrance, affirme vouloir « soutenir ce secteur stratégique pour la France » qu’est celui de l’IA « à hauteur de 10 milliards d’euros d’ici 2029 ». Sans être très précise dans les projets qu’elle prévoit de financer, Bpifrance explique vouloir accompagner « en fonds propres » des projets de modèles de fondation mais aussi investir « dans les acteurs des infrastructures IA ou des nouveaux composants/puces spécialisés IA ». Elle ajoute vouloir déployer ces investissements dans « le renforcement de l’action en fonds de fonds ».
Dans cette annonce de 109 milliards d’euros, Emmanuel Macron agrège aussi vraisemblablement les projets d’entreprises françaises comme Orange, Thales ou Iliad. Cette dernière y a, par exemple, aussi été de son communiqué de presse [PDF], avec la promesse d’un investissement de 3 milliards d’euros sur le sujet. De son côté, Mistral AI a annoncé investir « plusieurs milliards d’euros » dans un data center qui devrait, selon le Parisien, être implanté sur « plusieurs milliers de mètres carrés sur le plateau de Saclay ».
Cette somme annoncée par le Président est donc effectivement importante, mais il est difficile de savoir si elle sera réellement atteinte et quand. L’addition de tous ces projets semble être notamment un signal de communication pour afficher une « rivalité » possible avec le projet géant américain.
Le nucléaire comme réponse aux besoins énergétiques
Alors que l’accélération de l’IA pose déjà des questions de pénuries d’eau et d’énergie, lors de son interview à France 2, Emmanuel Macron a répondu sur le coût environnemental et l’énorme consommation électrique de ces data centers que, « grâce au nucléaire, nous avons l’énergie la plus décarbonée d’Europe ».
« Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres » a affirmé le Président de la République, ajoutant « nous sommes exportateurs d’électricité, donc ça ne prend pas sur la consommation des ménages ».
En effet, la France a commencé l’année 2025 avec la plus grande production mensuelle d’électricité depuis plus de trois ans (75 577 GWh), comme l’explique Reuters, après l’achèvement des travaux de maintenance des centrales. Mais la capacité de nos centrales nucléaires n’est pas infinie et il faudra quand même choisir entre l’électrification du parc automobile, l’exportation de cette énergie vers nos voisins européens, son utilisation pour de nouvelles infrastructures d’IA et/ou l’extension du parc des réacteurs nucléaires français.
D’énormes besoins en eau
L’agence de presse explique aussi qu’ « une baisse de la production globale n’est pas à exclure à l’horizon 2025, en particulier si la disponibilité de l’eau de refroidissement provenant des rivières est entravée par le temps chaud de l’été ». Cette disponibilité de l’eau touche aussi les data centers qui utilisent l’eau pour leur refroidissement.
Au Royaume-Uni, le plan IA, selon un rapport de l’Académie royale d’ingénierie, pourrait entraîner des pénuries d’eau, signalait encore récemment la BBC. « Les centres de données utilisent de l’eau du réseau de distribution courant, plutôt que de l’eau de surface, afin que les tuyaux, les pompes et les échangeurs de chaleur utilisés pour refroidir les baies de serveurs ne soient pas obstrués par des contaminants », explique le média britannique.
Le Royaume-Uni aurait émis une ordonnance obligeant Apple à introduire une porte dérobée. L’entrée permettrait à la sécurité britannique un accès aux données chiffrées, même quand toutes les options de sécurité sont activées.
Selon le Washington Post, le gouvernement anglais aurait envoyé à Apple un « avis de capacité technique ». Ce type d’ordonnance est rendu possible par la loi IPA (Investigatory Powers Act), entrée en vigueur en 2016. Elle autorise le ministère de l’Intérieur à réclamer d’une entreprise qu’elle laisse passer les agents de sécurité pour récupérer des données, même en cas de chiffrement de bout en bout.
Dans le cas d’un produit Apple (iPhone, iPad, Mac…), la majeure partie des services communiquent avec un chiffrement de bout en bout. Par défaut, la sauvegarde iCloud de la totalité des données d’une personne n’utilise cependant pas de chiffrement. Apple tient ces données à disposition des forces de l’ordre si un mandat dument délivré par un juge est présenté, dans le cadre d’une enquête.
Dans les paramètres iCloud, l’option « Protection avancée des données » permet cependant d’ajouter une défense supplémentaire. Les données issues des sauvegardes, d’iCloud Drive, Notes, Photos, Rappels, Raccourcis, Dictaphone, Cartes ainsi que les signets de Safari deviennent alors chiffrées de bout en bout. La procédure oblige l’utilisateur à créer une méthode de récupération. Apple prévient en outre qu’en cas de perte du moyen de récupération, toutes les données seront perdues, la société ne pouvant plus y accéder.
Il ne faut pas confondre cette protection supplémentaire avec le mode Isolement (Réglages > Confidentialité et sécurité), qui ajoute des barrières supplémentaires pour lutter contre les cyberattaques en réduisant la surface d’attaque.
Aucun « précédent connu dans les principales démocraties »
Selon l’article du Washington Post, c’est donc cette Protection avancée des données que le Royaume-Uni veut contourner. L’avis de capacité de technique imposerait à Apple de percer dans ses propres défenses pour offrir une porte dérobée aux forces de l’ordre. Ces dernières pourraient alors, au cours d’une enquête, accéder à toutes les données, quelles que soient les options de sécurité activées.
Cette ordonnance, « émise le mois dernier, exige une capacité générale de visualiser du matériel entièrement chiffré, et pas seulement une assistance pour craquer un compte spécifique, et n’a pas de précédent connu dans les principales démocraties », indique le Washington Post.
En mars 2024, devant la volonté du Royaume-Uni de renforcer la loi IPA, la société avait envoyé un témoignage au Parlement britannique, dans lequel elle exposait clairement ses positions. « Les pouvoirs actuels de l’IPA sont déjà extrêmement étendus et constituent un risque important pour la disponibilité mondiale de technologies de sécurité d’une importance vitale », déclarait-elle notamment.
Prétentions extraterritoriales
La société californienne mettait surtout trois points en avant. D’une part, le secrétaire d’État a le pouvoir d’exiger le silence de l’entreprise concernée, l’empêchant d’avertir ses clients de la modification demandée. D’autre part, la loi IPA a une portée extraterritoriale, « ce qui permet au gouvernement britannique d’affirmer qu’il peut imposer des exigences secrètes aux fournisseurs situés dans d’autres pays et qui s’appliquent à leurs utilisateurs dans le monde entier ». Enfin, face au renforcement de l’IPA par plusieurs amendements, les sociétés technologiques devraient notifier à l’avance le gouvernement britannique de tout ajout prévu de fonctions de sécurité, qui pourraient alors être bloquées.
Pour Apple, le Royaume-Uni chercherait à s’ériger en « régulateur mondial des technologies de sécurité ». La firme pointe les dangers pour le niveau mondial de sécurité, l’exposition des données personnelles aux piratages et les chocs juridiques avec d’autres pays.
Apple se montrait donc claire sur ses conclusions : jamais elle n’introduira de porte dérobée dans ses produits. Si le Royaume-Uni insiste, la société finira par supprimer la protection avancée des données. Si la société met sa menace à exécution, cela ne répondra toutefois pas aux exigences de la loi IPA, puisque la protection ne pourrait pas être désactivée sur les appareils l’ayant déjà. Et pour cause : Apple n’a pas la main sur le code de récupération.
La porte dérobée, encore elle
La BBC indique de son côté avoir eu confirmation de la manœuvre en cours. La volonté du gouvernement britannique serait, d’après ses sources, de cibler des individus spécifiques présentant un risque pour la sécurité nationale, plutôt que de « passer au peigne fin les données de tout le monde ». Les demandes seraient faites comme d’habitude, avec un mandat délivré par un juge dans le cadre d’une enquête, comme avec les comptes n’ayant pas activé l’option.
La procédure ne pourrait rien cependant contre l’inévitable risque que ferait peser une porte dérobée. Même si son accès était réservé à un très petit nombre, uniquement après avoir montré patte blanche, elle serait tôt ou tard trouvée par des tiers, par accident ou à force de chercher. Les pirates pourraient alors s’en emparer, provoquant un vaste pillage mondial des données sur les comptes Apple.
Colère et inquiétude des ONG
Du côté des ONG, c’est la douche froide. Pour Caroline Wilson Pallow, directrice juridique de Privacy International, c’est « une attaque sans précédent » contre les données personnelles. À la BBC, elle a ajouté : « C’est un combat que le Royaume-Uni n’aurait pas dû choisir. Ce dépassement crée un précédent extrêmement préjudiciable et enhardira les régimes abusifs dans le monde entier ».
Pour S.T.O.P (Surveillance Technology Oversight Project), le Royaume-Uni porte atteinte à la vie privée de ses citoyens, tout en affaiblissant la sécurité mondiale. L’organisation souligne elle aussi l’impossibilité d’avoir une porte dérobée réservée aux forces de l’ordre. « Non seulement cela rendrait d’innombrables utilisateurs plus à risque d’être surveillés par les gouvernements, mais cela ouvrirait la porte à une vaste gamme de menaces de la part des pirates informatiques et des cybercriminels », indique l’ONG.
À la CCIA (Computer & Communications Industry Association), la récente tempête de cybersécurité aux États-Unis, Salt Typhoon, a mis en lumière l’importance du chiffrement de bout en bout, désormais largement mis en avant par la CISA. « Les décisions concernant la vie privée et la sécurité des Américains devraient être prises aux États-Unis, de manière ouverte et transparente, et non par le biais d’ordres secrets émanant de l’étranger et exigeant que les clés soient laissées sous le paillasson », a déclaré Matthew Schruers, président de la CCIA.
Des échos de San Bernardino
Apple ne voudra sans doute rien lâcher dans son opposition au gouvernement britannique. La menace de retirer les fonctions de sécurité avancée n’est probablement pas feinte.
L’histoire rappelle le choc brutal entre l’entreprise et le FBI après la tuerie de San Bernardino, en décembre 2015. Un iPhone 5c avait été retrouvé sur le corps d’un terroriste, après un attentat ayant provoqué 14 morts et 21 blessés par balles. Le FBI, en possession de l’appareil, voulait en récupérer les données. Problème, l’iPhone était verrouillé.
Apple, à l’époque, avait aidé le FBI en fournissant certains outils. Mais la firme ne pouvait pas passer le code de verrouillage car elle ne disposait pas de cette information. Or, ce code est repris par iOS pour façonner la clé de sécurité qui chiffre ensuite les données sur l’appareil. Autre problème, le FBI ne savait pas si le terroriste avait activé l’option entrainant un effacement des données en cas de multiples tentatives ratées sur le code.
Le FBI avait fini par exiger d’Apple qu’elle perce ses propres défenses. Refus catégorique d’Apple, qui arguait que la sécurité des données faisant partie de ses arguments de vente. Ajouter une porte dérobée aurait brisé cette promesse, détériorant la confiance du public et entrainant une chute importante de son chiffre d’affaires.
Le ton est monté pendant plusieurs semaines. Jusqu’à ce que le Bureau dépose officiellement plainte contre l’entreprise, pour la faire plier. Alors qu’une intense bataille juridique se préparait, le FBI a fini par annoncer que l’aide d’Apple n’était plus requise : une faille de sécurité allait permettre la récupération des données. Apple avait réclamé les détails de cette vulnérabilité, en vain à l’époque (on ne sait pas si elle a depuis été corrigée).
Le contexte était à peu près le même cependant. John Miller, alors responsable de l’unité antiterroriste à New York, avait ainsi accusé Apple « d’aider les kidnappeurs, les voleurs et les meurtriers ». Un son de cloche régulièrement entendu au Royaume-Uni et ailleurs au sujet du chiffrement de bout en bout.
La CNIL surveille depuis longtemps le développement des intelligences artificielles, notamment au travers du RGPD. La gardienne des libertés individuelles propose deux nouvelles recommandations pour « un usage de l’IA respectueux des données personnelles » : informer les personnes et faciliter l’exercice des droits.
Elles viennent s’ajouter aux autres recommandations et proposent, selon la Commission nationale de l’informatique et des libertés, « des solutions concrètes pour informer les personnes dont les données sont utilisées et faciliter l’exercice de leurs droits ».
Informer les personnes… dans la mesure du possible
« Lorsque des données personnelles servent à l’entraînement d’un modèle d’IA et sont potentiellement mémorisées par celui-ci, les personnes concernées doivent être informées », souligne la première recommandation.
La CNIL précise le périmètre de ce qu’elle entend par « informer », et passe rapidement d’une phrase simple à quelques exceptions. Les modalités d’information peuvent ainsi « être adaptées en fonction des risques pour les personnes et des contraintes opérationnelles ».
La CNIL rappelle que le Règlement européen permet, dans certains cas, « de se limiter à une information générale (par exemple, sur le site web de l’organisme) ». Par exemple, lorsque les modèles d’IA utilisent des sources tierces et que « le fournisseur n’est pas en capacité de contacter individuellement les personnes ».
Et si jamais le modèle utilise de nombreuses sources (c’est le cas des grands modèles), « une information globale, indiquant par exemple des catégories de sources, voire le nom de quelques sources principales, est généralement suffisante », indique la CNIL. Une page dédiée aux obligations concernant l’information aux personnes est disponible par ici.
Données personnelles : « best effort » sur les droits
La seconde recommandation sonne comme un rappel : « La règlementation européenne prévoit des droits d’accès, de rectification, d’opposition et d’effacement des données personnelles ». Précisons que ces droits sont applicables aussi bien sur les bases de données d’apprentissage que sur les modèles d’IA en eux-même, du moins s’ils ne sont pas considérés comme anonymes.
La CNIL rappelle, en effet, que « certains modèles d’IA sont anonymes : ils n’ont pas à appliquer le RGPD. Mais d’autres modèles, comme le modèle de langage (LLM), peuvent contenir des données personnelles ».
Avec la quantité phénoménale de données ingurgitée par les IA (génératives) on se rend vite compte que la gestion des droits des utilisateurs sur les données personnelle est plus facile à dire qu’à faire. Face à cette problématique, la CNIL propose de mettre en place des « solutions réalistes et proportionnées afin de garantir les droits des personnes sans empêcher l’innovation en matière d’intelligence artificielle ».
La CNIL passe ainsi en mode best effort et « demande aux acteurs de faire tous leurs efforts pour prendre en compte la protection de la vie privée dès le stade de la conception du modèle ». L’histoire récente et l’actualité tendent à montrer le contraire, au moins sur les gros modèles américains et chinois (OpenAI et DeepSeek en tête) : les modèles se goinfrent généralement du maximum de données qu’ils peuvent trouver.
Quoi qu’il en soit, la Commission demande aux acteurs de « porter une attention particulière aux données personnelles présentes dans les bases d’entraînement : en s’efforçant de rendre les modèles anonymes, lorsque cela n’est pas contraire à l’objectif poursuivi ; et en développant des solutions innovantes pour empêcher la divulgation de données personnelles confidentielles par le modèle ».
De possibles « exceptions » à l’exercice des droits
La CNIL précise d’autres limitations : « le coût, l’impossibilité ou les difficultés pratiques pourront parfois justifier un refus d’exercice des droits ; lorsque le droit doit être garanti, la CNIL prendra en compte les solutions raisonnables à la disposition du créateur du modèle et les conditions de délai pourront être aménagées ».
Elle demande aux responsables de traitement de bien vérifier auprès des personnes exerçant leurs droits le motif de leur demande (données d’entraînement et/ou modèle d’IA) et de répondre de manière détaillée. Par exemple, « cela est particulièrement important lorsque la modification de leurs données dans les jeux d’entrainement n’est pas répercutée (ou du moins pas immédiatement) dans le modèle ou système d’IA déjà développé ».
À contrario, il existe des scénarios ou la conservation des données d’identification n’est pas nécessaire. Par exemple, si des personnes ont bien été informées que « l’effacement des données mémorisées par le modèle d’IA sera impossible ».
Le mot du jour : « anonymat »
La CNIL termine par un rappel d’une bonne pratique : « les solutions techniques aujourd’hui disponibles n’étant pas satisfaisantes dans tous les cas où un modèle est soumis au RGPD, la CNIL invite en priorité les fournisseurs à anonymiser les données d’entrainement ou, à défaut de pouvoir le faire, à s’assurer que le modèle d’IA est anonyme à l’issue de son entrainement ».
Dans tous les cas, la Commission en profite pour rappeler que la recherche avance rapidement et demande donc aux acteurs de se tenir informés des évolutions afin de « protéger au mieux les droits des personnes ». Là encore, une page dédiée a été mise en ligne.
Nokia a annoncé lundi que son conseil d’administration avait reçu la démission de Pekka Lundmark, son actuel CEO, effective au 31 mars prochain. L’entreprise finlandaise révèle dans le même temps qui pilotera ses activités à compter du 1ᵉʳ avril prochain : il s’agit de Justin Hotard, jusqu’ici vice-président en charge de l’IA et des centres de données chez Intel.
« Je suis ravi d’accueillir Justin chez Nokia. Il possède une solide expérience dans l’accélération de la croissance des entreprises technologiques ainsi qu’une vaste expertise dans les marchés de l’IA et des centres de données, qui sont des domaines essentiels pour la croissance future de Nokia », se réjouit Sari Baldauf, présidente du conseil d’administration de Nokia, dans un communiqué.
« Des téléphones mobiles aux réseaux, en passant par la connectivité avancée qui rend possible l’intelligence artificielle et le cloud, Nokia possède un héritage unique en matière d’innovation et de réinvention. Je suis ravi de diriger Nokia vers son prochain chapitre d’innovation, de croissance et de création de valeur », annonce de son côté le futur CEO sur LinkedIn.
Justin Hotard est entré chez Intel en février 2024, pour prendre la responsabilité de toutes les activités liées aux centres de données, des processeurs Xeon jusqu’aux accélérateurs dédiés à l’IA. Il était précédemment vice-président et directeur des activités HPC (calcul haute performance) et IA chez HPE.
Les Nations Unies ont décidé que 2025 était l’Année internationale des sciences et technologies quantiques (AISQ). La cérémonie d’ouverture s’est déroulée la semaine dernière (le replay est disponible), au siège de l’UNESCO à Paris. Une centaine d’événements sont prévus un peu partout dans le monde, explique le CERN.
« Cette initiative vise à sensibiliser le public, à favoriser l’accès à l’éducation quantique, notamment dans les pays en développement, et à encourager la recherche », explique le CNRS. Le Centre national pour la recherche scientifique ajoute que cette année 2025 coïncide avec « le centenaire de la mécanique quantique, fondement des technologies modernes comme les transistors, lasers ou communications sécurisées ».
L’Organisation européenne pour la recherche nucléaire ajoute que « le quantique est également le thème central de la saison 2025 des événements publics du CERN au Portail de la science. Le coup d’envoi de la saison des événements publics sera donné le 11 février, à l’occasion de la Journée internationale des femmes et des filles de science ».
Le premier, De Temps en Temps, aura lieu demain au CERN (Genève). Il s’agit d’une « création artistique et scientifique qui explore la perception du temps en physique et en musique, y compris la mécanique quantique, avec le quatuor à cordes féminin DoniSSi et les interventions de Yasmine Amhis, coordinatrice scientifique de l’expérience LHCb au CERN ». L’UNESCO aussi propose une liste des événements.
Durant les deux derniers jours, de nombreuses annonces ont eu lieu dans le monde de l’intelligence artificielle. Alors que s’ouvre en France le sommet sur l’IA, plusieurs entreprises ont lancé de nouveaux produits, dont Mistral, GitHub, OpenAI, Google et Kyutai. Passage en revue.
On commence par Mistral, qui vient de lancer son application mobile pour Le Chat, son assistant maison. L’application est disponible pour iOS/iPadOS (15.1 minimum) et Android (7.0 minimum) et est traduite dans de nombreuses langues, dont le français bien sûr.
Les performances comme argument
Le lancement de ces applications mobiles était attendu. L’entreprise française doit lutter dans un marché à la concurrence féroce. Continuer à proposer une simple version web devenait donc problématique.
« Alimenté par les modèles Mistral les plus performants et à la latence la plus faible, ainsi que par les moteurs d’inférence les plus rapides de la planète, le Chat raisonne, réfléchit et répond plus rapidement que n’importe quel autre assistant de chat, jusqu’à environ 1000 mots par seconde. Nous appelons cette fonctionnalité Flash Answers, et elle est actuellement disponible en avant-première pour tous les utilisateurs », annonce ainsi tout de go Mistral dans son communiqué.
La société met donc en avant ses performances pour faire la différence. Difficile pour l’instant de juger réellement d’un potentiel écart avec des données chiffrées, mais d’après nos propres constatations, Le Chat s’est avéré particulièrement rapide, avec une grande réactivité.
Autre superlatif, Le Chat bénéficierait du « meilleur traitement des téléchargements au monde », renvoyant aux capacités de l’assistant sur tout ce qui touche à la reconnaissance de documents (OCR) et à leur analyse. Le Chat serait également à la pointe dans la génération d’images, la fonction étant alimentée par le modèle Flux Ultra de Black Forest Labs, présenté comme le plus performant. Dans le communiqué, l’entreprise n’hésite pas à se comparer à ChatGPT et Grok.
Mistral n’indique pas directement quels modèles sont utilisés pour son assistant. On sait en revanche que l’entreprise développe les siens propres, comme son modèle génératif Mistral Large, ou son modèle multimodal Pixtral. Quand la version Large de ce dernier est sortie en novembre, le communiqué mentionnait que l’un des moyens de le tester était justement Le Chat. Des améliorations pour ce dernier avaient été annoncées également il y a quelques mois. Dans l’annonce d’hier, c’est à nouveau le cas. À noter que Mistral Large et Pixtral sont tous deux présents dans Amazon Bedrock, Azure AI Studio et Google Vertex AI.
Plusieurs moyens de se différencier
Mais en dehors du délicat terrain des performances, où les percées sont vite oubliées, comment Mistral compte-t-elle se différencier ? L’entreprise dispose de plusieurs arguments. D’abord sur les prix, puisque l’entreprise profite de l’occasion pour introduire un forfait Pro, à 14,99 dollars/euros par mois.
Pour ce prix, la formule donne un accès illimité aux modèles les plus performants proposés, même si l’on ne sait pas lesquels. Mistral évoque également un « accès étendu aux réponses Flash », ce qui signifie une limite plus haute, mais une limite quand même. On note aussi la possibilité de désactiver le partage de ses informations et la présence d’un support dédié.
Mistral pourrait cependant avoir une carte à jouer sur la capacité de son assistant à tourner localement. L’offre Enterprise permet en effet de déployer Le Chat sur site, dans un environnement dédié et avec des outils personnalisés, pour exploiter si besoin les propres données de l’entreprise, sans communication avec les serveurs de Mistral. Le fonctionnement de l’assistant peut également se baser sur des modèles personnalisés. Cette capacité vient d’apparaitre, mais uniquement en accès anticipé pour l’instant.
Enfin, Mistral compte proposer bientôt des agents multi-étapes, nouveau grand axe de développement chez la concurrence également. Objectif, connecter ses contenus et systèmes avec des agents capables d’automatiser « les parties ennuyeuses de votre travail ». L’entreprise n’en dit pas plus pour l’instant, mais elle aura fort à faire. Les agents sont l’une des fonctions les plus mises en avant depuis l’année dernière, notamment chez Microsoft. La conférence Build 2024 revenait ainsi régulièrement sur cette thématique.
GitHub améliore son Copilot
Le Copilot de GitHub est devenu rapidement le produit phare de l’entreprise, rachetée par Microsoft. La filiale vient d’annoncer plusieurs évolutions importantes pour son assistant, dont… un mode agent. La nouvelle fonction doit permettre à Copilot d’itérer sur son propre code et de corriger automatiquement ses erreurs.
Le lancement de ce mode agent est une réponse du berger à la bergère. GitHub a largement popularisé le concept d’assistant dans le développement, mais se retrouve menacé par de jeunes entreprises aux grandes ambitions, dont Bolt, Cursor ou encore Replit. GitHub imagine donc un monde où les développeurs seront bientôt rejoints par des équipes d’agents IA toujours plus intelligents, qui agiront comme autant de « pair-développeurs » pour prendre en charge les tâches quotidiennes.
Ce mode agent, plus autonome, cherche à analyser les exigences de la tâche complète avant de générer du code. Il peut, selon GitHub, « déduire » d’éventuelles tâches supplémentaires qui n’ont pas été spécifiées par les développeurs humains, mais qui lui semblent requises. Il va ensuite itérer sur le code produit et le résultat de ce dernier, jusqu’à ce que toutes les tâches « déduites » soient accomplies.
Et GitHub va encore plus loin. Selon l’entreprise, son mode agent est capable de reconnaitre automatiquement ses propres erreurs, peut corriger les problèmes identifiés sans intervention des développeurs, surveille les erreurs pendant l’exécution et fournit des corrections, et peut suggérer et exécuter les commandes nécessaires dans le terminal. Les nouveautés peuvent être testées en passant par la version Insiders de Visual Studio Code.
GitHub évoque également l’avenir en indiquant qu’à terme, son projet Padawan permettra d’aboutir à un agent totalement autonome, à qui on pourra confier une liste de tâches de développement. Plus précisément, on pourra confier à Padawan un problème, l’agent s’occupant alors d’en définir toutes les étapes intermédiaires et les solutions allant avec. La fonction doit arriver d’ici la fin de l’année, sans plus de précisions.
OpenAI ouvre sa recherche ChatGPT à tout le monde
Parallèlement, OpenAI vient d’ouvrir sa recherche ChatGPT à tout le monde, sans plus nécessiter de compte. Initialement, la fonction était apparue en octobre dernier pour les personnes payant un abonnement. Deux mois plus tard, elle a été étendue à l’ensemble des utilisateurs, mais en exigeant un compte. Désormais, le champ est libre pour partir plus frontalement à l’assaut de Google et des autres moteurs de recherche.
Cette ouverture aura attendu que plusieurs séries d’améliorations viennent enrichir le service. La dernière salve date de décembre, quand la recherche est devenue accessible à tous les détenteurs de comptes. OpenAI a alors ajouté diverses capacités, dont surtout l’affichage des cartes et d’informations liées, comme les points d’intérêt. Ce type de fonction progresse rapidement, Perplexity ayant par exemple fait de même récemment. Après tout, si ChatGPT et ses concurrents veulent concurrencer pleinement les moteurs de recherche, autant en reprendre tous les attributs.
Parallèlement, Microsoft a annoncé hier soir la disponibilité dans Azure OpenAI Service des préversions de GPT-4o-Mini-Realtime-Preview et GPT-4o-Mini-Audio-Preview. Le premier modèle est destiné aux interactions vocales en temps réel. Il se destine clairement aux chatbots, particulièrement ceux tournés vers la clientèle. Ce modèle doit permettre des échanges naturels avec la voix, permettant selon Microsoft une plus grande rapidité dans les questions/réponses. Le second modèle est plus général et se destine aux interactions audios au sens large. Il ne permet pas de faire plus que GPT-4o, mais peut le faire pour « une fraction de prix », selon l’éditeur.
Quand les deux modèles seront disponibles en versions finales, ils seront intégrés aux API Realtime et Chat Completion fournies par Azure OpenAI. Microsoft ne tarit pas d’éloges sur ces capacités, qui pourraient jouer un rôle dans tout ce qui touche à la génération vocale, aussi bien dans les jeux vidéo que les podcasts, en passant par le cinéma.
OpenAI a également annoncé il y a quelques jours la possibilité de stocker les données en Europe. Ce choix n’est pour l’instant disponible que pour les nouveaux projets ChatGPT Enterprise, ChatGPT Edu et pour l’API. Pour cette dernière, les demandes seront également traitées dans la région européenne. Aucune bascule ne semble prévue pour les projets existants. OpenAI ajoute dans son annonce que les données sont chiffrées au repos en AES-256, que ses modèles ne sont pas entrainés « par défaut » sur les données des clients et que ses pratiques sont conformes avec le RGPD.
Google : du raisonnement et à nouveau des agents
Chez Google également la semaine a été chargée. Mercredi, la société a publié une série d’annonces sur ses modèles Gemini 2.0, dont une version expérimentale de son très attendu Gemini 2.0 Pro, qui prendra logiquement la succession de l’actuelle version 1.5 Pro. Cette préversion est disponible dans Vertex AI et Google AI Studio, et arrivera bientôt dans l’application mobile Gemini pour les détenteurs d’un compte Advanced.
Gemini 2.0 Pro prendra la relève en tant que modèle phare, avec une fenêtre de contexte de 2 milliards de jetons, ce qui correspond à peu près à 1,5 milliard de mots. Le modèle peut également « utiliser des outils tels que la recherche Google et l’exécution de code », précise l’éditeur. Dans son annonce, Google fournit un tableau réunissant différents benchmarks de ses modèles, et où Gemini 2.0 Pro arrive bien sûr en tête.
Parallèlement, Google a mis son modèle Gemini 2.0 Flash à la disposition du grand public. Annoncé initialement en décembre, il est désormais disponible depuis l’application Gemini, ainsi que dans Vertex AI et Google AI Studio.
Et puisque l’on parle de Flash, Google donne des nouvelles de deux variantes. D’abord, Gemini 2.0 Flash-Lite, une version qui se veut économique. Disponible, elle aussi, dans Google AI Studio et Vertex AI, elle doit donner le change dans un contexte largement bousculé par le modèle chinois DeepSeek. Flash-Lite garde la même fenêtre contextuelle d’un million de jetons et accepte les entrées multimodales. Selon Google, il préserve les performances de la version 1.5, tout en donnant de meilleurs résultats.
Quant à Gemini 2.0 Flash Thinking Experimental, un modèle de raisonnement disponible uniquement dans AI Studio jusqu’à présent, il arrivera bientôt dans l’application Gemini. Google n’indique cependant aucune date.
Kyutai revient avec une technologie de traduction simultanée
Kyutai, présenté comme un laboratoire en IA open-science à but non lucratif et fondé par Xavier Niel, Rodolphe Saadé et Eric Schmidt fin 2023, revient avec une nouvelle technologie. Dans un communiqué hier, Iliad annonce ainsi Hibiki, une technologie présentée comme capable d’assurer une traduction simultanée préservant la voix du locuteur. Hibiki pourrait « adapter son rythme au contenu sémantique du discours source ». La traduction orale se ferait en temps réel.
Toujours selon Iliad, Hibiki n’a pour l’instant été entrainé que pour traduire du français vers l’anglais. Il pourrait être déployé facilement dans le cloud et se montrerait assez efficace pour une « utilisation en temps réel sur mobile ».
Enfin, toujours chez iliad, un plan d’investissement a été annoncé ce soir : « OpCore [le nouveau nom depuis juin 2023 de Scaleway Datacenter, NDLR], la filiale qui opère les 13 datacenters du Groupe, va investir 2,5 milliards d’euros afin de renforcer sa position de leader européen du datacenter hyperscale dédié notamment aux ressources de calcul IA ». Une annonce dans la continuité de celle de décembre 2024 quand iliad annonçait vouloir devenir « un leader européen du data center hyperscale ».
Dans la même veine, « le Groupe a aussi investi dans la plus grande capacité de calcul commercialisable en Europe pour l’IA. Ce sont ainsi près de 5 000 GPUs dernière génération qui sont mis à la disposition des entreprises pour entraîner et utiliser leurs modèles ». Parmi les partenaires il y a Mistral AI, H et Photoroom. Là encore, c’est la continuité d’une annonce de 2023.
Le parquet de Paris confirme vendredi l’ouverture d’une enquête sur X, chargée de déterminer si et comment les algorithmes qui régissent l’affichage des messages sur le réseau social ont pu fausser le fonctionnement de son système de traitement automatisé de données.
Révélée en milieu d’après-midi par France Info, l’ouverture de cette enquête fait suite à un signalement déposé par le député (Ensemble) Eric Bothorel, le 12 janvier dernier.
L’intéressé l’avait lui-même signalé via son compte X jeudi. « Je vois passer plusieurs publications qui évoquent « les auteurs du fonctionnement faussé de l’algorithme de recommandation du STAD du réseau X ». J’ai saisi par courrier simple le parquet cyber J3 à ce sujet le 12 Janvier dernier ».
« Le parquet de Paris a reçu ce signalement de député en date du 12 janvier 2025, dénonçant des algorithmes biaisés dans le fonctionnement de X comme susceptibles d’avoir faussé le fonctionnement d’un système de traitement automatisé de données », confirme à Next le parquet de Paris.
Il ajoute : « les magistrats et assistants spécialisés de la section de lutte contre la cybercriminalité saisis l’analysent et procèdent aux premières vérifications techniques ».
L’enquête sera selon toute vraisemblance confiée aux personnels de la section J3, spécialisée dans les sujets cyber, et notamment compétente pour les infractions qui relèvent de l’atteinte à un système de traitement automatisé de données (STAD).
X n’a pour l’instant pas réagi à l’annonce de l’ouverture de cette enquête. En 2022, le réseau social (qui s’appelait encore Twitter) avait obtenu la relaxe dans une affaire judiciaire en arguant du fait que la société de droit français Twitter France n’était pas responsable des traitements réalisés par sa maison mère, Twitter International, basée en Irlande.
Hier s’est ouvert à Paris le Sommet pour l’action sur l’IA. Que faut-il en attendre de cet événement dont le nom est souvent réduit à « Sommet sur l’IA » ? Quels sont ses objectifs ? De premières actions concrètes ont déjà été annoncées. On vous explique.
Dégrossissons les contours du Sommet pour l’action sur l’IA. Dans une interview à Maddyness, la représentante du président de la République Anne Bouverot explique que ce Sommet est « un mélange de Vivatech et de Choose France, et un objet diplomatique ».
Diplomatique, car le Sommet doit permettre de « mettre en lumière notre écosystème français et de montrer que le développement de l’IA ne se limite pas aux États-Unis ou à la Chine », quand il n’est pas réduit à une guerre entre OpenAI et DeepSeek.
#FranceIA (2017), Stratégie nationale sur l’IA (2018), Sommet sur l’IA (2025)
Ce Sommet est présenté par le gouvernement comme « une troisième étape » dans la stratégie intelligence artificielle de la France, lancée en 2017 avec le plan de bataille #FranceIA. En 2018, nous avons aussi eu une « stratégie nationale de recherche en intelligence artificielle », après un rapport de Cédric Villani.
L’Europe n’est pas en reste avec l’AI Act qui est entré en vigueur 1ᵉʳ août 2024. Une première étape a été franchie le 2 février avec l’interdiction dans l’Union européenne des systèmes d’IA présentant des « risques inacceptables ». D’autres sont à suivre cette année et en 2026.
Renforcer l’action internationale, au service de « l’intérêt général »
Revenons au Sommet. On trouve une première ligne directrice sur le site de l’Élysée : « Pendant près d’une semaine, à partir du 6 février 2025, Paris accueillera de nombreux évènements visant à renforcer l’action internationale en faveur d’une intelligence artificielle au service de l’intérêt général ».
Cinq thèmes jugés essentiels sont abordés : l’IA au service de l’intérêt public, l’avenir du travail, l’innovation et la culture, l’IA de confiance et enfin la gouvernance mondiale de l’IA. La France n’est pas seule aux commandes : cet événement est « co-présidé par la France et l’Inde », rappelle l’Agence Française de développement.
Deux journées scientifiques et un week-end culturel
Hier et aujourd’hui se déroulent des journées scientifiques avec de nombreuses conférences. Ces deux jours sont organisés par l’Institut Polytechnique de Paris, sur son campus. Il s’agit de préparer le terrain avec des « discussions sur les transformations engendrées par l’IA » et des présentations de travaux de recherche.
Pour embarquer le grand public, ce week-end des rencontres culturelles dédiées à l’IA seront organisées : « les participants, tous âges confondus, pourront s’immerger dans les différentes approches de l’IA : par la pratique, par les débats contradictoires, par la découverte d’œuvres et par des échanges avec les artistes ».
L’Élysée revient sur deux facettes de l’IA, décrite comme « une formidable source d’appui aux créateurs », qui « soulève en même temps des questionnements importants sur des sujets comme le droit d’auteur et la rémunération des artistes ». Il y a également une troisième voie (au moins) à explorer : la pollution d’articles GenAI dans des médias en français, comme le montre notre enquête.
Quoi qu’il en soit, il reste des places gratuites à certaines conférences de samedi à la Bibliothèque nationale de France. Samedi et dimanche, la Conciergerie propose un parcours artistique baptisé Machina sapiens dont le but est de « cartographier les enjeux de l’IA générative et de son impact sur la société à travers une vingtaine d’œuvres d’artistes français et internationaux ». Sur son site, la Conciergerie indique que le parcours est « gratuit sans réservation », de 9h30 à 18 h.
Vous pouvez aussi ré(écouter) notre podcast Algorithmique et lire nos différents tutos pour apprendre et tester soi-même le fonctionnement de l’intelligence artificielle et de son entrainement.
Lundi des conférences, mardi des discussions avec les chefs d’État
La semaine prochaine, deux gros morceaux sont attendus : « Le Sommet débutera le 10 février au Grand Palais avec un forum qui réunira d’importants acteurs mondiaux de l’IA (gouvernements, entreprises, chercheurs, artistes, acteurs de la société civile, journalistes) » Puis ce sera au tour du « Sommet des chefs d’État se déroulera quant à lui le 11 février, au Grand Palais ».
Lundi sera la journée de « rencontres et discussions entre participants du monde entier » avec des sujets comme l’avenir du travail, l’IA de confiance, le développement des enfants, la gouvernance, les données, les bonnes pratiques… Voici le programme (chargé de cette journée) :
La longue liste des personnalités attendues
Mardi, durant la session plénière, des chefs d’État et de gouvernement ainsi que des personnalités internationales « échangeront sur les grandes actions communes à mettre en œuvre en matière d’IA ». Reste à voir ce qui en sortira.
L’AFP dresse une liste des invités de marque : Premier ministre indien, vice-président américain, vice-Premier ministre chinois, présidente de la Commission européenne, secrétaire général des Nations Unies, directrice générale de l’OMC, secrétaire général de l’OCDE, directeur de l’Agence internationale de l’énergie.
Les patrons de la tech aussi font le déplacement : Sam Altman (OpenAI), Sundar Pichai (Alphabet/Google), Demis Hassabis (DeepMind), Brad Smith (Microsoft), Dario Amodei (Anthropic). Le cas de certaines personnalités reste en suspend, notamment Liang Wenfeng (DeepSeek) et Elon Musk (X). Les français seront évidemment bien représentés avec Xavier Niel (Iliad) et Rodolphe Saadé (CMA CGM) qui ont tous les deux lancé Kyutai, ainsi que « les patrons d’Airbus, Thales et EDF ».
Des conversations plus que des résolutions de problématiques
Anne Bouverot apporte un élément de réponse dans son interview à Maddyness. À la question « n’avez-vous pas peur que l’effet de ce sommet soit un peu comme les effets des COP Climat : beaucoup d’engagements, mais peu ou pas d’impact concret ? », elle reconnait que la portée sera très certainement limitée :
« Notre objectif, ici, n’est donc pas de résoudre l’ensemble des problématiques liées au développement de l’intelligence artificielle, mais plutôt de garantir que des conversations aient lieu, que des initiatives soient lancées, et qu’elles trouvent ensuite des cadres où elles pourront être suivies ».
L’une des dernières décisions de Google devrait alimenter les discussions. En effet, l’engagement selon lequel les IA développées par l’entreprise ne doivent pas servir à la création d’armes a été enlevée de sa déclaration encadrant ses grands principes éthiques et moraux. La société justifie ce changement par une approche basée sur la gestion du risque, grâce à un « framework » dédié.
En parallèle de cette session plénière, une centaine d’évènements sont prévus pour les acteurs de la société civile et les entreprises. Il est question de l’IA et la démocratie, de l’impact environnemental, de la manipulation de l’information, de la cybersécurité, etc.
La CNIL, l’ANSSI, la DGCCRF et la DGE seront présents à Station F mardi pour le Business Day. Son but : « pour sensibiliser les entreprises et startups aux obligations du règlement IA dont l’entrée en application s’opère graduellement depuis l’été 2024 ». Le programme est bien chargé. L’événement est complet, mais il sera possible de le regarder sur YouTube.
Des annonces tous azimuts
Vous l’avez certainement remarqué, avant même l’ouverture de ce Sommet, les annonces fusent de tous les côtés, aussi bien avec des annonces de produits chez les principaux acteurs (nous y reviendrons dans une actualité dédiée), des investissements, des tribunes où chacun donne son avis, des annonces du gouvernement sur les datacenters, etc. Impossible de les citer toutes, mais faisons tout de même une rapide recension :
Sur X, Guillaume Rozier (Conseiller du président de la République) revient sur les premières annonces de l’État autour de l’Intelligence Artificielle. « D’ici un an tous les agents publics bénéficieront de l’IA, notamment au travers d’un agent conversationnel souverain ». Il affirme que l’État « déploiera plus largement les meilleures technologies IA souveraines, proposées par des startups françaises, ou disponibles en open source ».
Deux « livrables » : une cartographie de l’INA et une fondation
Hier, l’INA a mis en ligne un des « livrables » de ce sommet de l’IA : une « cartographie des enjeux et usages de l’IA pour le journalisme ». Elle propose des pistes de réflexion sur les usages et les outils IA pour le journalisme, une analyse des enjeux et enfin une grille d’évaluation de son intérêt.
Du côté des tribunes, Le Monde en a publié plusieurs ces derniers jours. La première d’une vingtaine d’organisations intitulée « L’intelligence artificielle accélère le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs ». La seconde d’une centaine d’ONG : « L’IA telle qu’elle est développée alimente un système d’exploitation global ».
Elles demandent respectivement de « résister au déploiement massif de l’IA, au nom des droits humains, sociaux et environnementaux » et de « placer les droits humains et la justice environnementale au cœur de la régulation de l’intelligence artificielle ».
Dans La Nouvelle République, on retrouve une autre tribune de l’Alliance de la presse d’information générale, de la FNPS, du Geste, du SEPM et du Spiil : « Trois conditions pour garantir la fiabilité de l’information et préserver la démocratie à l’heure de l’IA générative ».
« Les services d’intelligence artificielle générative s’imposent à une vitesse fulgurante dans la recherche d’informations, répondant de plus en plus directement aux usagers, sans renvoyer à la source. Ce faisant, ils se substituent aux médias, mais sans leur cadre déontologique », peut-on lire dans cette tribune. Et là encore, ce n’est pas notre enquête qui dira le contraire.
Wikimedia France relaie aussi une tribune du think tank Renaissance numérique avec 43 signataires (dont Wikimédia France) : « Gouvernance mondiale de l’IA : passer à l’action avec la société civile ». Elle demande de mettre en place « d’urgence trois mesures concrètes pour renforcer et faciliter l’implication de la société civile dans la gouvernance de l’IA, pendant et surtout après le sommet : Encourager des processus de sélection plus ouverts et transparents […] Imposer un devoir de réponse aux contributions […] Faciliter le financement. »
Près de dix ans après son lancement en France, la NVIDIA Shield reçoit cette semaine une mise à jour logicielle. Son environnement, basé sur Android TV passe en version 9.2 avec quelques corrections de bugs, bien sûr, mais aussi des nouveautés fonctionnelles.
La principale d’entre elles consiste en la prise en charge du format de son AURO-3D, censé offrir une spatialisation améliorée des effets sonores, sous réserve de connecter la petite console, via HDMI, à un décodeur compatible.
NVIDIA annonce par ailleurs l’introduction du contrôle parental en langue française, une mise à jour des composants dédiés à la lecture de vidéos 4K protégées par DRM et une fonction, encore en bêta, de synchronisation des images à la fréquence d’affichage de la TV.
La mise à jour Shield Experience 9.2 permet par ailleurs à NVIDIA de corriger une vingtaine de bugs, dont des saccades susceptibles d’intervenir en sortie de veille, un problème qui empêchait le transfert de gros fichiers via le réseau, un crash au démarrage de l’application GeForce Now, ou des défauts de compatibilité avec certains casques sans fil Bluetooth. Cette nouvelle version, qui pèse environ 1 Go, est actuellement déployée par NVIDIA, mais si la notification correspondante n’est pas encore arrivée, il est possible de forcer la mise à jour via le menu paramètres.
La dernière mise à jour (hors hotfix) remontait à novembre 2022.
Le Premier ministre a annoncé jeudi, en prélude au Sommet pour l’action sur l’IA, l’identification de 35 sites industriels « clés en main » dédiés à la création de datacenters. Quelques heures plus tard, l’Élysée a révélé un projet d’investissement porté par les Émirats arabes unis, qui doit conduire à la création d’un immense datacenter adossé à un campus dédié à l’IA.
Installé en septembre 2023 par Élisabeth Borne, le comité interministériel de l’intelligence artificielle s’est réuni jeudi matin, en préambule au Sommet pour l’action sur l’IA, qui doit réunir le gratin mondial du secteur à Paris. Présidée par François Bayrou à Matignon, la rencontre a permis au gouvernement de livrer les principaux éléments de sa feuille de route en matière de soutien à l’IA.
35 sites fléchés en priorité à des projets de datacenter
Le Premier ministre a notamment annoncé à cette occasion l’identification de 35 sites industriels considérés comme particulièrement propices à l’installation de centres de données, à la fois pour leur accès à l’énergie, pour leur surface foncière et pour leur disponibilité.
« Partout en France, des Hauts-de-France à la région Provence-Alpes-Côte d’Azur, 35 sites ont été identifiés pour accueillir des centres de données, qui irriguent toute la filière IA en données. Notre pays a l’avantage considérable de pouvoir leur garantir l’accès à une énergie fiable, décarbonée et abondante », écrit le Premier ministre dans un rapport transmis par Matignon à la rédaction à l’issue de ce comité.
L’emplacement exact de ces 35 sites n’a pas été communiqué. Matignon indique en revanche qu’ils représentent des surfaces allant de « 18 à 150 hectares et plus », pour une surface totale de l’ordre de 1 200 hectares, et des possibilités en matière de raccordement électriques qui pourraient atteindre un total de 1 GW à horizon 2027.
Des procédures administratives accélérées
Aux éventuels porteurs de projet intéressés, le comité interministériel promet le soutien d’une équipe dédiée et, surtout, la perspective de procédures administratives raccourcies. Les sites concernés devraient en effet bénéficier du régime accéléré prévu par la loi sur l’Industrie verte. Pour un vrai choc de simplification, le gouvernement devra cependant en repasser par la loi.
Les centres de données ne sont en effet pas encore éligibles au statut de « Projet d’Intérêt National Majeur » (PINM). Or c’est lui qui permet aux grands projets industriels d’obtenir des dérogations en matière de protection des espèces, des adaptations des règles d’urbanisme locales ou un raccordement prioritaire aux infrastructures RTE.
Le comité annonce à ce niveau qu’il proposera d’exclure les projets de datacenters du champ de la commission nationale du débat public (qui prévoit un long temps d’échange entre le porteur de projet et les populations). « Enfin, les procédures contentieuses contre les projets de centres de données seront simplifiées, avec à la suppression du double degré de juridiction. Un gain de 9 à 18 mois est attendu à ce titre ».
L’annonce anticipée de ces futures facilités n’a rien d’un hasard : le gouvernement souhaite profiter de l’exposition offerte par le Sommet sur l’IA pour attirer l’attention des industriels du secteur, et accélérer le dépôt de nouveaux projets.
Un datacenter de 1 GW cofinancé par les Émirats Arabes Unis
En fin de journée, l’Élysée a embrayé avec une nouvelle annonce, nettement plus spectaculaire. La France et les Émirats arabes unis ont, en effet, conclu un accord dans le cadre duquel les fonds émirati participeront aux investissements nécessaires à la création d’un « campus de 1 GW dédié à l’intelligence artificielle en France ».
D’après l’Élysée, le projet représenterait une enveloppe globale de 30 à 50 milliards d’euros, amenés par « un consortium de champions franco-émiratis ». Le projet, d’une envergure inédite dans l’Hexagone, mêlerait à la fois des infrastructures informatiques, avec un immense datacenter, mais aussi des écoles, des centres de formation, des laboratoires, etc.
Où sera installé ce campus, et quand verra-t-il le jour ? « Une annonce sur la première tranche d’investissement sera faite lors du Sommet Choose France 2025 », se contente d’indiquer la présidence de la République, faisant référence à l’événement annuel, organisé au mois de mai, lors duquel l’Élysée réunit de grands acteurs économiques pour favoriser leurs investissements en France.
L’accord conclu entre la France et les Émirats « comprend des investissements dans l’IA française et émiratie, l’acquisition de puces de pointe, des centres de données, le développement de talents, ainsi que la mise en place d’ambassades virtuelles de données pour permettre la mise en place d’infrastructures souveraines d’IA et de cloud dans les deux pays », déclare encore l’Élysée.
À partir du 1ᵉʳ novembre, les heures creuses vont changer pour 11 millions de foyers. Le but est de s’adapter aux changements de modes de consommations (notamment télétravail) et à l’augmentation de la production photovoltaïque. Plus de 13 millions de clients auront deux périodes distinctes pendant la journée, avec de possibles différences entre l’hiver et l’été.
La Commission de régulation de l’énergie (CRE) vient de publier ses projets de décision sur le tarif d’utilisation des réseaux publics d’électricité (alias le TURPE). Le « TURPE 7 » entrera en vigueur le 1ᵉʳ aout, mais la hausse a pour rappel été « anticipée » à ce 1ᵉʳ février pour se « fondre » dans la baisse des coûts de l’électricité.
Si le TURPE 7 reconduit globalement la structure tarifaire du TURPE 6, la CRE explique que des changements sont à prévoir sur les heures creuses :
« La CRE, lors des différentes consultations, a proposé de revoir le placement des heures creuses pour bénéficier de la production photovoltaïque abondante et peu chère en après-midi et notamment en été. Cette proposition a été accueillie très favorablement par une grande majorité des acteurs. Elle sera mise en œuvre progressivement à compter de l’automne 2025 ».
Deux plages horaires, avec 8 h creuses par jour
La Commission rappelle que les heures creuses/pleines (HP/HC) ont été introduits dès les années 60 après la mise en service des premières centrales nucléaires. Le dispositif a ensuite été étendu dans les années 70 - 80. La journée est ainsi divisée en deux plages horaires : « 16 heures « pleines » et 8 heures « creuses » (consécutives ou non), avec deux prix différents ».
Rappelons que les plages d’heures creuses sont fixées par le Gestionnaire du Réseau de Distribution d’électricité (Enedis) ou les Entreprises Locales de Distribution (ELD). Elles peuvent varier d’un client à l’autre, mais vous ne pouvez pas les choisir ni demander à les modifier. Les heures creuses existent aussi bien pour les tarifs réglementés que les autres.
La CRE donne quelques exemples des changements qui pourront être mis en place pour différents types de foyers.
Des heures creuses plus propices entre 11 h et 17 h
La répartition 16/8 ne changera pas, affirme la CRE. Par contre les plages horaires vont bouger cette année : « L’objectif est de mettre en adéquation ces heures creuses avec les enjeux du réseau et de l’équilibre offre-demande ». La période entre 11 h et 17 h est désormais « plus propice qu’avant pour consommer l’électricité, en particulier en été ». À contrario, les heures creuses en début de matinée et de soirée ne sont « plus opportunes », du changement est donc au programme.
La Commission explique qu’une partie des « heures mal placées » (celles de 7 h à 11 h ou de 17 h à 23 h) vont ainsi être déplacées « vers des créneaux où l’énergie est abondante et peu chère », principalement l’après-midi entre 11 h et 17 h.
Pour s’adapter au mieux à la saisonnalité de la production d’électricité via le photovoltaïque, les pages horaires pourront être différentes en été (du 1ᵉʳ avril au 31 octobre, précise la CRE). Il sera possible d’avoir des heures creuses uniquement la nuit en hiver et jusqu’à 3 heures creuses pendant la journée en été. Dans tous les cas, les clients « conserveront un minimum de cinq heures creuses consécutives au cœur de la nuit ».
11 millions de foyers concernés, mais pas ceux avec Tempo
La CRE dénombre 14,5 millions de foyers avec un contrat HP/HC. 11 millions « vont connaitre une évolution dans le placement de leurs heures creuses, au moins », ce qui veut aussi dire que pour 3,5 millions de foyers rien ne change. Sur ces 3,5 millions, 2,1 millions ont déjà les heures creuses sur deux périodes pendant la journée tandis que les 1,4 million restant n’ont des heures creuses que la nuit.
Dans sa foire aux questions, la CRE précise bien que les changements ne concernent que les clients avec une offre « heures pleines / heures creuses ». Ceux avec une formule « heures super creuses », « semaine/week-end », une part d’indexation sur un prix de marché ainsi que les clients Tempo ne seront pas concernés.
Changements entre novembre 2025 et fin 2027
Les changements vont se faire progressivement entre novembre 2025 et… la fin d’année 2027. Les clients seront prévenus au moins un mois avant la date effective du changement par les fournisseurs d’électricité (qui eux ont l’information six mois avant).
Suite aux changements de tarifs et des taxes en place au 1ᵉʳ février, nous avons mis à jour notre comparatif d’une vingtaine d’offres. N’hésitez pas à le consulter et à le copier sur votre compte pour l’adapter en fonction de vos usages et de votre consommation.
Un rappel utile pour finir : vous pouvez changer de fournisseur sans frais. Les offres sont sans engagement et nous pouvez alterner entre les tarifs réglementés et les offres de marché comme bon vous semble.
Nouvelle mouture importante pour la suite bureautique libre, avec de nombreuses améliorations à la clé. LibreOffice 25.2 prend notamment en charge le format OpenDocument 1.4 et intègre une nouvelle fonction capable de supprimer toutes les informations personnelles dans les métadonnées d’un document. Par exemple, tout ce qui touche aux auteurs, aux horodatages (heures de modification et commentaires notamment), nom et configuration de l’imprimante ou encore les modifications de suivi.
Cette version 25.2 introduit également plusieurs options liées au thème, dont une sélection du thème indépendante du système ou de l’environnement de bureau. Il est également possible de choisir la couleur des caractères non imprimables ou encore celle de l’arrière-plan des commentaires. Toujours dans la catégorie personnalisation, LibreOffice permet maintenance de faire bouger les limites des objets indépendamment des marques de formatage.
Certains ajouts étaient en outre attendus de longue date. Sous macOS, LibreOffice 25.2 prend ainsi en charge Quick Look, pour visualiser rapidement un document depuis le Finder. Si un certificat de sécurité a été configuré par défaut, il peut désormais servir à signer automatiquement tous les documents.
Outre ces améliorations générales, chaque application de la suite a ses propres nouveautés. Writer dispose – enfin ! – d’un niveau de zoom par défaut personnalisable pour tous les documents. Autre outil bien pratique, la possibilité de supprimer tout ce qui se trouve dans un certain type de contenu (à l’exception des titres). Calc reçoit un nouvel outil pour gérer les doublons, des améliorations pour la recherche dans les fonctions ou encore une meilleure interopérabilité avec les fichiers XSLX.
On peut consulter la liste complète (et touffue) des nouveautés depuis cette page. Le téléchargement se fait comme d’habitude depuis le site officiel. Les personnes ayant déjà la suite installée recevront une notification les invitant à effectuer la mise à jour.
Le DOGE d’Elon Musk continue de prendre la main sur de nombreux outils informatique des agences américaines. Certains de ses membres ont pu s’immiscer dans les données de Medicare et Medicaid, les services de santé des États-Unis. Son immixtion dans les systèmes du Trésor a été l’objet d’une passe d’armes juridique, mais deux de ses employés devraient garder un accès en lecture seule.
C’est un véritable sprint qu’ont enclenché Elon Musk et son département DOGE, officiellement chargé de « l’efficacité gouvernementale ». Ils mettent la main sur le plus de données possible à propos des utilisateurs des différentes agences américaines, avant que d’éventuels contre-pouvoirs viennent leur mettre des bâtons dans les roues.
Jusqu’à présent et depuis l’investiture de Donald Trump le 20 janvier dernier, la voie est libre pour eux. Des manifestations anti-Trump et anti-Musk commencent tout de même à avoir lieu dans les 50 États, avec des messages comme « rejetons le fascisme » ou « l’oligarchie », « défendons notre démocratie », « Musk n’a pas été élu ». Les agents du DOGE ont pu accéder au système informatique du Trésor américain, aux ressources humaines fédérales, aux services informatiques fédéraux ou encore à ceux de l’agence américaine qui étudie l’atmosphère et les océans (NOAA) ou du système de connexion gouvernemental login.gov.
Medicare et Medicaid, un réservoir de données sensibles
Ils ont encore accédé à d’autres services publics cette semaine. Des agents du DOGE ont pu, selon le Wall Street Journal, accéder aux locaux des services de Medicare et Medicaid, le système d’assurance-santé public américain et le programme qui permet de fournir une assurance maladie aux personnes à très faibles revenus et ressources.
Selon les sources de nos confrères, le DOGE s’intéresse, comme pour les autres agences, aux systèmes informatiques de ces deux services de santé, rassemblés sous la responsabilité de l’Agence Fédérale du département américain de la Santé et des Services sociaux (Centers for Medicare & Medicaid Services, CMS). Ils seraient notamment à l’affût de ce qu’ils considèrent comme de la fraude ou du gaspillage.
Le CMS « est le centre névralgique d’une grande partie de l’économie complexe des soins de santé du pays, avec des dépenses d’environ 1 500 milliards de dollars pour l’exercice 2024, soit environ 22 % du total fédéral », souligne le Wall Street Journal. L’agence rassemble 6 710 employés, dont de nombreux vétérans qui y travaillent depuis des décennies.
Au journal américain, un responsable du CMS explique que « deux vétérans seniors dirigent la coordination avec le DOGE ». Les responsables seraient dans un esprit de collaboration avec le DOGE pour l’instant, dans une recherche de plus grande efficacité.
Selon le Wall Street Journal, les personnels du DOGE ont accédé en lecture seule à un logiciel qui permet notamment de gérer les contrats du CMS. Ils n’ont pas encore accédé aux bases de données contenant des informations personnelles sur la santé des bénéficiaires de Medicare ou de Medicaid, ni au système HIGLAS. Ce dernier standardise et centralise les fonctions de comptabilité financière fédérale pour tous les programmes de CMS.
Deux agents du DOGE ont toujours accès au Trésor
Du côté de l’accès aux données du Trésor américain, Ars Technica explique qu’une plainte [PDF] a été déposée lundi 3 février, par une association de retraités et des syndicats contre l’accès donné au DOGE à des informations personnelles et financières.
Mais selon notre consœur, Ashley Belanger, ces organisations auraient signé un accord [PDF] avec le ministère de la Justice (Department of justice, DOJ). Selon ses termes, le Trésor « ne donnera accès à aucun enregistrement de paiement ou système d’enregistrement de paiement géré par ou au sein du Bureau du service fiscal » aux employés du DOGE, sauf à deux d’entre eux, Tom Krause et Marko Elez. Comme l’explique Bloomberg, le premier était directeur général de Cloud Software Group (le groupe de Citrix et de Tibco). Le second est un ingénieur qui a travaillé dans les entreprises d’Elon Musk, SpaceX et X. L’accord doit encore être approuvé par le juge chargé de l’affaire.
Peur des menaces
Mais, selon le Washington Post, les agents du DOGE ont déjà eu accès à des dossiers concernant des millions d’employés fédéraux, « y compris des fonctionnaires du Trésor et du département d’État occupant des postes de sécurité sensibles ». Les sources du journal ont peur que ces informations soient utilisées de façon abusive pour menacer de représailles des fonctionnaires qui ne seraient pas jugés assez loyaux envers Donald Trump et le nouveau gouvernement.
Les données viendraient notamment de l’Office of Personnel Management (OPM, l’agence des ressources humaines des employés fédéraux américains), le DOGE ayant accédé à ses locaux et ses logiciels, comme nous l’indiquions. Le Washington Post raconte que des agents du DOGE auraient traité des responsables de l’OPM d’ « idiots » lors de réunions entre les deux services.
Pendant le Sommet sur l’IA, Next replonge dans les épisodes de son podcast Algorithmique
Du 6 au 11 février se tient à Paris le Sommet pour l’action sur l’intelligence artificielle, occasion d’une variété de moments d’échanges entre scientifiques, sociétés civiles, chefs d’État – dont le vice-président américain J.D. Vance, le vice-premier ministre chinois Ding Xuexiang, la présidente de la Commission européenne Ursula von der Leyen ou encore le premier ministre indien Narendra Modi – et patrons d’entreprises de la tech.
Mais de quoi on parle, au juste, lorsqu’on évoque l’intelligence artificielle ? Pour en comprendre les principaux enjeux, Next vous propose d’écouter ou réécouter les six épisodes de son podcast Algorithmique.
Sans nous vanter (quoique si, il faut qu’on apprenne à le faire si on veut convaincre plus de gens de s’abonner à Next), les auditeurs de ce podcast l’ont qualifié de « clair, pédagogique, avec des interlocuteurs de grande qualité » ou encore d’« excellente facture ». Il nous a même attiré des « merci » et des « re merci », auxquels nous répondons : avec grand plaisir ! Abonnez-vous, c’est votre soutien qui nous permet de créer ce genre de projet !
Six épisodes
Avec l’aide de l’informaticien et philosophe Jean-Gabriel Ganascia et de la docteure en IA Amélie Cordier, on se plonge d’abord dans une tentative de définition des contours historiques, éthiques, et même pratiques, de la discipline.
Vient ensuite l’enjeu des biais sociaux, qui revient régulièrement dans les conversations (souvenez-vous de ces résultats repérés dans Stable Diffusion ou ChatGPT). Avec la spécialiste des sciences de l’éducation et ancienne informaticienne Isabelle Collet et la chercheuse en intelligence artificielle Raziye Buse Çetin, on s’attaque à la manière dont ceux-ci s’infiltrent dans l’IA et sur certaines des pistes qui permettent d’y remédier.
À ce point de la réflexion vient la nécessité de se pencher sur des cas concrets. Valérie, chargée du numérique au collectif Changer de Cap, et Camille Lextray, créatrice de contenu, racontent ici comment des systèmes algorithmique défectueux influencent la vie de gens. La première détaille les difficultés des bénéficiaires d’aides de la Caisse d’Allocation Familiale (CAF) lorsqu’ils se retrouvent accusés à tort, et automatiquement, d’avoir reçu des paiements indus. À sa suite, l’autrice de Briser la chaîne (Leduc, 2024) retrace le combat qu’elle a mené en justice pour tenter de rendre le pouvoir sur les mécaniques de modération d’Instagram.
Un autre effet concret de l’IA est celui que ces produits, cette industrie, ont sur la planète. Pour mieux les envisager, Next rencontre dans ce quatrième épisode le sociologue des sciences et des techniques Clément Marquet et la professeure en informatique Anne-Laure Ligozat, tous deux spécialistes des enjeux environnementaux du numérique… et par extension, de l’IA.
En parallèle de ces constats, les travaux d’encadrement et de régulation sont allés bon train, que ce soit au sein des entreprises, avec divers engagements éthiques, ou dans les parlements. En Europe, l’aboutissement le plus emblématique aura été le règlement sur l’IA, qui a commencé d’entrer en vigueur ce mois-ci. Dans l’épisode 5 d’Algorithmique, le sociologue Bilel Benbouzid et la juriste spécialiste de la gouvernance de l’intelligence artificielle Imane Bello nous fournissent les boussoles pour se repérer dans les débats.
On ne saurait terminer un tel tour d’horizon sans s’interroger sur le rôle des citoyens. C’est pourquoi, pour clore cette première saison, Algorithmique a tendu le micro à Théo Alves da Costa, co-président de Data for Good, à Karl Pineau, co-président de Designers éthiques, et à Valentin Hacault, en charge des formations chez Latitudes. Le but : explorer ce que, concrètement, techniciens et non-spécialistes de la tech peuvent faire pour s’emparer du vaste sujet de débats qu’est l’intelligence artificielle.
Algorithmique a convaincu Framasoft, Dans Les Algorithmes, l’April qui les a tous retranscrits, ou encore #Règle30. À notre avis, cela signifie qu’il a toutes ses chances de vous intéresser aussi.
En plus, si vous vous abonnez à Algorithmique sur votre plateforme de podcast favorite, vous y verrez automatiquement notre prochaine série audio apparaître… d’ici quelques semaines.
Vous avez déjà tout écouté ? Dans ce cas, vous connaissez la musique : parlez-en, faites connaître le podcast autour de vous ! Vous nous aideriez beaucoup !
Après les Box 5G, la 5G StandAlone (5G SA ou 5G+) débarque dans un premier forfait de téléphonie mobile, dans la gamme « pro ». Les avantages sont nombreux pour Orange et proviennent en grande partie des fonctionnalités de la 5G SA. Explications.
Dans un communiqué de presse, Orange annonce « une offre inédite 5G + avec une bande passante dédiée pour ses clients professionnels ». Qu’est-ce que cela veut dire au-delà du discours bien rodé des équipes marketing ?
Nous avons déjà expliqué ce qu’est la 5G+ d’Orange : c’est le nom commercial de la 5G StandAlone (ou 5G SA). Pour rappel, la 5G utilisait à son lancement et durant ces dernières années un cœur de réseau 4G pour fonctionner, d’où son appellation technique de 5G Non StandAlone.
Orange remet donc le couvert aujourd’hui avec son forfait Performance série spéciale 5G+. Passons rapidement sur ses caractéristiques qui n’ont rien de particulier : 350 Go de data, appels et SMS/MMS illimités pour 79 euros HT par mois, sans engagement.
Orange reprend les poncifs habituels de la 5G : hausse des débits et baisse de la latence. Mais la 5G+ apporte aussi des nouveautés intéressantes, notamment la technologie la technologie VoNR (Voice over New Radio). Ainsi, la « connexion data est maintenue en 5G lors d’un appel voix ». Avant, la data repassait en 4G lors d’un appel avec VoLTE et en 3G dans le cas contraire.
Orange met aussi en avant « une sécurisation accrue des données sensibles grâce au chiffrement natif des identifiants IMSI et à l’authentification renforcée des utilisateurs sur le réseau ». Nous avons voulu télécharger la fiche tarifaire et la description du service indiqués sur cette page afin d’avoir de plus amples informations, mais les liens sont cassés.
Orange met en avant des débits de 1,5 Gb/s… inférieurs à ceux de la 5G
Comme chez Free, la 5G SA est uniquement disponible sur la bande des 3,5 GHz, dont le « déploiement [est] en cours ». Le débit maximum annoncé par Orange est de 1,5 Gb/s en téléchargement avec l’agrégation de la bande des 700 Mhz en 4G, et de 200 Mb/s en émission.
Selon le propre site d’Orange, la 5G+ fait donc moins bien que la 5G en débit théorique. En effet, en 5G le débit maximum théorique en réception est de 2,1 Gbit/s selon Orange. En émission, c’est la même chose avec 200 Mb/s dans les deux cas.
Cette quoi cette « bande passante dédiée » ? Du slicing…
Orange revient à plusieurs reprises sur la notion de bande « prioritaire » : « Au travers d’une bande passante dédiée Premium, le client bénéficie d’une qualité de service différenciée sur le réseau mobile Orange. Ainsi, même en cas de forte utilisation du réseau mobile, ses débits sont préservés ».
« Lors des évènements : Pour les services de billetterie ou les solutions de paiement, la bande passante dédiée permet une connexion stable et assure la fluidité des opérations », ajoute l’opérateur en guise d’exemple.
Là encore, il s’agit d’une dénomination commerciale d’une technologie bien connue de la 5G : le network-slicing. Elle permet de découper le réseau en « en plusieurs sous-réseaux, que l’on appelle des tranches, ou “slices” en anglais », explique Orange.
Les usagers sur une tranche sont d’une certaine manière isolés de ceux d’une autre tranche. Les clients d’un forfait 5G+ peuvent ainsi profiter d’une tranche rien que pour eux eux en 5G SA, tandis que les autres se partagent une autre tranche. Une surcharge sur la seconde tranche ne devrait pas avoir d’impact sur la première.
Sur cette page dédiée au network-slicing, Orange rappelle que « tout ceci était déjà possible avec la 4G d’un point de vue technique », mais la 5G apporte « une vraie valeur ajoutée » grâce « à une architecture réseau virtualisée ». SFR d’ailleurs, proposait pendant un temps des forfaits 4G avec « internet mobile prioritaire ». Ils permettaient, « en cas d’affluence » d’avoir un « débit généralement plus rapide que celui des utilisateurs du réseau SFR non détenteurs du service ». C’était il y a maintenant 10 ans, en 2015.
Orange ne précise pas quand de nouveaux forfaits 5G+ seront disponibles ni si cette technologie sera proposé au grand public dans un proche avenir.
Plus de mille sites découverts en quelques mois, et sans doute beaucoup d’autres, encore dissimulés ou en gestation. L’enquête au long cours publiée cette semaine par Next révèle que le phénomène des contenus bas de gamme générés par IA a déjà pris des proportions significatives sur le Web francophone. Si beaucoup de ces sites automatisés grâce à l’intelligence artificielle ne servent que des intérêts bassement mercantiles, leur prolifération soulève de réelles questions économiques, sociales et politiques.
Au départ, il y avait quelques articles trop mal écrits pour être honnêtes qui passaient de journaliste en journaliste : « Haha, regarde ces c*ns, ils n’ont même pas pensé à enlever les éléments de prise en compte du prompt ». Début 2025, la blague a depuis longtemps viré au comique de répétition. Du genre bien lourd, le comique.
Après tout, pourquoi pas ? Depuis la sortie de ChatGPT, en novembre 2022, la plupart des rédactions s’interrogent – avec plus ou moins de bonne volonté – sur la façon d’intégrer les possibilités offertes par l’intelligence artificielle générative dans leurs pratiques. Toutes celles qui communiquent publiquement sur leurs travaux convergent vers une même approche : l’utilisation de l’IA n’est pas exclue, et peut même se révéler souhaitable, dès lors qu’elle est encadrée par un humain, et que ses productions sont supervisées (comme chez les développeurs d’ailleurs, ainsi que nous l’expliquait Marie-Alice Blette). Chez Next aussi, on l’utilise (notre comparateur d’offres d‘électricité par exemple) : c’est une bonne aide, mais ce n’est pas elle qui est aux commandes.
L’armada de sites générés par IA dont il est question dans notre enquête ne répond pas à ce prérequis. Tous ces sites ont précisément été détectés parce que certains de leurs articles présentent des « artefacts » qui témoignent d’une génération automatisée sans réelle supervision : hallucinations flagrantes, sites capables de publier plusieurs centaines de nouveaux articles par jour, citations déformées, contresens manifestes, etc.
Dans la suite de notre enquête, nous vous montrerons qu’il suffit d’une poignée d’heures et de quelques lignes de code pour créer un site GenAI. Nous verrons aussi comment beaucoup de ces sites servent les intérêts de professionnels du référencement, qui les utilisent pour créer des univers sémantiques et des renvois de liens, éventuellement vendus à des tiers, pour doper la visibilité de business bien réels cette fois.
Souvent, il suffit de quelques clés de lecture pour détecter un site manifestement alimenté par une IA sans supervision. Mais il arrive aussi que l’exercice se révèle plus délicat. Par exemple, quand le site en question se dissimule derrière une marque média qui a eu, un temps, pignon sur rue. Ou quand les contenus produits à peu de frais s’intercalent entre des articles éditoriaux écrits par des humains. Le milieu des « éditeurs assistés par IA » monte d’ailleurs rapidement en compétences, notamment parce qu’il faut prévenir les éventuels outils de détection que pourrait mettre en place Google…
Après tout, pourquoi pas ? Des éditeurs ou des agences Web bricolent des sites grâce aux outils du moment, ils automatisaient déjà la production de contenus bien avant ChatGPT et ça leur permet de gagner leur vie : tant mieux pour eux ?
« Well, that escalated quickly »
Le problème, c’est que ces contenus générés par IA ne s’embarrassent souvent ni de véracité, ni de légalité. Plusieurs des sites identifiés dans le cadre de notre enquête plagient ainsi, de façon peu discrète, les médias qui leur servent de source. L’automatisation leur permet de le faire à une échelle industrielle, à peu de frais.
Dans une tribune parue jeudi, les grandes organisations professionnelles du monde des médias appellent le gouvernement à profiter du sommet sur l’IA, organisé cette semaine à Paris, pour « garantir la fiabilité de l’information à l’heure de l’IA Générative ». Ils demandent pour ce faire que les grands acteurs de l’IA respectent le choix des éditeurs quant à l’utilisation de leurs contenus, que la traçabilité des sources soit garantie et que les droits d’exploitation des contenus soient acquittés.
En attendant que les grands noms de l’IA acceptent, ou non, de se plier à d’éventuelles règles à ce sujet, il existe un préjudice plus immédiat, qui nous affecte tous : la pollution.
Elle attaque déjà directement les médias. Outre l’utilisation indue de leur propriété intellectuelle, ceux-ci courent ainsi le risque de voir une partie de leurs audiences, et donc de leur modèle économique, phagocytée par ces nouveaux venus automatisés.
Sur certains sujets, elle menace aussi les individus. Souvenez-vous de l’IA qui suggérait de mettre de la colle sur une pizza ou dans un sandwich. Imaginez maintenant que des sites, dédiés à la santé par exemple, multiplient les conseils à plus ou moins bon escient sur la base d’informations mal digérées, uniquement parce que la niche se révèle lucrative sur le plan publicitaire ?
Cette pollution fait enfin peser un risque social et sociétal, dont l’existence a été avérée à de multiples reprises ces derniers mois : la capacité à produire rapidement, massivement et à peu de frais des sites ayant l’apparence de médias légitimes a déjà ouvert la voie à des campagnes de manipulation de l’opinion.
Elle revêt cependant une importance cruciale en ces temps où l’actualité se révèle particulièrement outrancière. Impossible ici de ne pas faire allusion aux déclarations récentes de Donald Trump qui, en seulement quelques jours, a manifesté sa volonté de prendre le contrôle du détroit de Panama, du Groenland, du Canada et de la bande de Gaza. Dans le monde entier, les médias crient au délire, et soupèsent pourtant très sérieusement la faisabilité des différents projets. La bande de Gaza en nouvelle Riviera du Moyen-Orient, l’hypothèse vous parait-elle plausible ?
Ce n’est peut-être pas la bonne question à se poser, comme nous le rappelle un certain Steve Bannon, figure emblématique des milieux conservateurs populistes nationaux et ancien « conseiller stratégique » de Donald Trump. Le 31 janvier dernier, il se goberge, au micro du New York Times. Pour lui, les discours récents de Trump sont la mise en pratique, enfin aboutie, du mode opératoire qu’il préconisait au président des États-Unis lors de son premier mandat : « The real opposition is the media. And the way to deal with them is to flood the zone with shit ».
En termes fleuris, il expliquait alors à Trump qu’il ne fallait pas redouter le camp démocrate, mais les médias, et que le meilleur moyen de se débarrasser de ces derniers était – pardonnez ma vulgarité, qui n’est que le reflet de celle de Bannon – de les inonder de merde… Autrement dit, de générer du bruit. Tellement de bruit que l’on finit par créer un phénomène d’assourdissement ou de sidération permettant soit d’occulter les vrais problèmes, soit de concentrer l’attention de ses adversaires sur les sujets de son choix.
Quel plus bel outil que l’IA pour nourrir cet objectif ? On assiste aujourd’hui à un croisement entre performances des outils grand public, accessibilité financière et tensions politiques exacerbées qui laisse augurer d’innombrables usages malveillants.
Éduquer, informer, créer de la confiance
Signer avec OpenAI pour toucher des droits voisins sur l’entraînement des grands modèles de langage, c’est bien, mais ça n’empêchera pas une agence Web, une agence d’influence ou un simple geek dans son coin de copier-coller des articles, ou un flux RSS, et de l’injecter dans une série de grands modèles de langage pour obtenir une infinité de réécritures de moins en moins détectables, et éventuellement orientées.
On entend depuis des années que les médias doivent cultiver leur image de marque, et le lien direct avec leur lectorat, pour limiter la dépendance aux moteurs de recherche ou aux réseaux sociaux, et ainsi tenter de préserver leur modèle économique. La GenAI souligne et renforce encore le caractère impérieux de cette relation de confiance entre médias et lecteurs, parce qu’elle permet d’amplifier, à peu de frais et à grande échelle, le bruit ambiant. J’évoque l’argument économique, parce qu’il fait généralement mouche assez facilement, mais l’enjeu dépasse de loin la question des équilibres financiers : il ramène à la place que doivent occuper les médias d’information dans la société.
Quand Jean-Marc a débuté son enquête, il y a près d’un an, il aurait été facile de publier rapidement un petit tour d’horizon témoignant d’un épiphénomène. Pourtant, il a soutenu, mordicus, que le sujet méritait d’aller plus en profondeur, convaincu qu’il ne s’agissait pas que de « cinq gus dans un garage », comme disait une ancienne ministre. En dépit de notre modeste équipe (six journalistes, un dessinateur), Next a fait le choix de suivre son intuition, parce que nous pressentions que cette enquête allait se révéler nécessaire.
Le Sommet qui s’ouvre à Paris dira si et comment politiques et industriels de l’IA parviennent à converger vers un cadre commun. En attendant et sans parti pris, il nous semble important d’informer et de sensibiliser le plus largement possible, parce que le sujet touche à des valeurs qui nous sont chères. C’est la raison pour laquelle nous avons souhaité donner une dimension collaborative à cette enquête, en partageant nos trouvailles avec d’autres médias, dont Libération. C’est aussi la raison pour laquelle nous avons développé une extension dédiée, dont on espère qu’elle aidera le grand public à prendre conscience de la nécessité de systématiquement vérifier la qualité de la source d’une information.
Le Kremlin a annoncé avoir relevé de ses fonctions le directeur général de l’agence spatiale russe Roscosmos, Yury Borisov. Dans un autre message publié sur son site officiel russe, Moscou explique que c’est Dmitry Bakanov qui le remplace.
Cet été, le premier directeur général adjoint de l’agence, Andreï Elchaninov, cité par l’agence de presse Interfax déclarait que « le refus des contrats par des Etats hostiles (occidentaux, ndlr) a coûté 180 milliards de roubles à Roscosmos ». Rappelons que, suite à l’invasion de l’Ukraine par la Russie, la coopération spatiale a été arrêté entre les occidentaux et le pays dirigé par Vladimir Poutine.
La décision était attendue de pied ferme, elle est désormais là : la fibre Sosh passe d’un débit symétrique de 400 Mb/s à 1 Gb/s en téléchargement et 800 Mb/s en envoi.
Cette hausse des débits est automatique pour les nouveaux clients. Pour les personnes déjà abonnées, elle sera répercutée par vagues à compter du 10 février, la transition devant s’étaler jusqu’à la mi-avril, précise Sosh dans son annonce, tout juste publiée. Un e-mail sera envoyé pour prévenir que le compte a été mis à jour avec les nouveaux débits.
Dans sa communication, Sosh n’hésite pas à en faire des caisses. En plus d’évoquer une vitesse améliorée et une plus grande facilité lors des connexions multiples à la même connexion, le fournisseur d’accès va jusqu’à parler d’une latence réduite et d’une meilleure stabilité de la connexion.
« Dites adieu aux moments de suspense où l’image se fige pendant que vous regardez votre série préférée. Avec ce nouveau débit, profitez d’un streaming plus fluide et sans coupure ! », déclare ainsi Sosh. Pas certain qu’un streaming soit coupé par une connexion à 400 Mb/s, très au-delà des prérequis. Voici par exemple les vitesses de connexion recommandées par Netflix selon la qualité souhaitée :
En outre, même s’il s’agit bien sûr d’une très bonne nouvelle pour les abonnés (d’autant que le tarif ne change pas), Sosh ne fait que s’aligner sur la concurrence. RED et Bouygues proposent déjà des offres fibre 1 Gb/s ou même plus. Chez le premier, le débit 1 Gb/s est ainsi symétrique pour un tarif de 23,99 euros. À ce tarif, Bouygues propose même son offre B&YOU PureFibre avec des débits allant jusqu’à 8 Gb/s en téléchargement et 1 Gb/s en envoi. La box fournie est équipée en Wi-Fi 6E, là où Sosh et RED ne proposent encore que du Wi-Fi 5.
Amnesty International, la Ligue des droits de l’homme, Vox Public, Féministes contre le cyberharcèlement et une centaine d’autres organisations non gouvernementales appellent, à l’occasion du Sommet pour l’action sur l’IA, à mettre les droits humains et la justice environnementale au centre de travaux de régulation de l’intelligence artificielle.
« Telle qu’elle est développée » écrivent-ils dans une tribune parue dans Le Monde, l’IA « aggrave les inégalités, détruit la planète et alimente un système d’exploitation global ».
Hanna Barakat + AIxDESIGN & Archival Images of AI / Better Images of AI / Frontier Models 1 / CC-BY 4.0
« Se concentrer uniquement sur d’éventuels futurs risques existentiels à venir de l’IA est un leurre », argumentent-elles encore. Elles citent les effets « très concrets » sur les populations les plus vulnérables qu’ont eu les dysfonctionnements des systèmes algorithmiques utilisés dans diversservicespublics européens, les algorithmes de prédiction de risque de récidive surcatégorisant les personnes noires aux États-Unis, ou encore les systèmes automatisés utilisés par l’armée israélienne pour sélectionner des cibles gazaouies.
Les associations signataires rappellent qu’en parallèle du développement de ces outils, les émissions des grands acteurs de la tech ont augmenté, tirées par l’explosion de l’intelligence artificielle générative, tandis que les activités d’extraction se perpétuent avant tout dans les pays du Sud.
« Nos gouvernements ne cessent de parler de souveraineté de l’IA, mais les défis posés par ces systèmes transcendent les frontières » affirment les associations. Elles appellent à permettre à chacun de « pouvoir choisir la direction de ses développements, quitte à les refuser s’ils ne correspondent pas à notre projet de société ».
Next a identifié plus de 1 500 sites d’information utilisant plus ou moins massivement l’intelligence artificielle pour générer des articles censés avoir été écrits par des journalistes, soulevant des questions quant à la qualité des informations. Pour vous donner un maximum de cartes en mains, nous vous proposons une extension pour Chrome et Firefox permettant d’être alertés lorsque vous visitez un tel site.
Mise à jour du 10 février 14 h : Nous avons mis en ligne la version 1.1 de notre extension. Quelques bugs ont été corrigés, mais surtout la base de données a largement grandi pour dépasser les 1 500 sites. N’hésitez pas à installer cette mise à jour, que ce soit sur Chrome ou Firefox.
Article original du 6 février 9h47 : Dans une très longue enquête, notre journaliste Jean-Marc Manach explique comment il a découvert plus de 1 500 sites d’information francophones utilisant l’intelligence artificielle pour publier et/ou traduire des articles.
Preuve s’il en est besoin de l’ampleur du phénomène, on en retrouve même dans Google Actualités. Nous y reviendrons dans les jours à venir, avec d’autres articles consacrés aux « hallucinations » et « infox » relayées par ces articles GenAI, ceux reposant sur du plagiat, ou parasitant la presse régionale.
Nous avons décidé de développer une extension maison pour navigateur avec l’aide d’une IA (Claude.ai) et d’un développeur de chez moji (Hezirel, sur son temps libre, merci à lui !). Son but : vous prévenir lorsque vous visitez un site de notre liste de surveillance.
Le fonctionnement est on ne peut plus simple : l’extension tourne en tâche de fond et affiche un pop-up en cas d’alerte, avec le message suivant : « D’après les constatations (humaines) de Next.ink, des articles de ce site semblent avoir été (en tout ou partie) générés par IA ».
Détection sur le domaine
La détection se fait sur la base du nom de domaine, pas de chaque page individuellement. Un signalement ne veut donc pas forcément dire que l’article en question est généré à l’aide d’une IA, mais qu’on en retrouve sur ce nom de domaine.
En cliquant sur le bouton de l’extension, vous retrouverez la grille de lecture (liste non cumulative, ni exhaustive) nous ayant permis de détecter les sites d’info contenant des articles qui semblent avoir été (en tout ou partie) générés par IA :
Ils ont recours à des expressions, patterns ou hallucinations typiques des contenus GenAI,
sont signés de journalistes qui n’existent pas et/ou dont l’hyperproductivité est inhumaine,
ne sont que des traductions et/ou paraphrases d’autres articles (mais sans les mentionner),
ont recours à des images générées par IA ne correspondant pas aux critères journalistiques,
alignent des poncifs lénifiants ou moralisants plutôt que de présenter et recouper des faits,
ont été publiés sur un site sans mention légale (ou fictive) et sans directeur de publication,
usurpent la réputation de « noms de domaine expirés » pour cibler Google News & Discover,
s’apparentent plus à des contenus optimisés pour le SEO qu’à des articles journalistiques.
Suivez un des liens ci-dessous, ajoutez l’extension à votre navigateur et c’est terminé. L’extension tourne en tâche de fond. Elle est disponible sur les boutiques officielles de Chrome (compatible avec les navigateurs basés sur Chromium) et Firefox.
Depuis le début de notre enquête (il y a plusieurs mois) et face à l’ampleur du phénomène, l’idée d’une extension pour les navigateurs s’est imposée. Avec plusieurs centaines de sites référencés, on ne peut pas vérifier manuellement la liste chaque fois que l’on visite un nouveau site.
J’ai quelques connaissances en développement, je comprends donc bien la logique algorithmique. Je suis aussi capable de suivre le déroulement d’un programme, d’adapter et vérifier le code (sur du code simple comme c’est le cas ici). À l’époque de l’IA générative, je me suis donc appuyé sur cette dernière pour développer les grandes lignes de ce projet. Claude.ai a été mis à contribution et, en une soirée à peine, j’avais déjà une première version de l’extension fonctionnelle.
Nous l’avons améliorée au fil du temps, avec notamment la possibilité de nous signaler des sites. Il suffit de cliquer sur l’icône pour faire apparaitre un menu avec l’URL du site prérempli (libre à vous de la modifier), un menu pour la catégorie et un champ description (deux champs optionnels). Cliquez sur « Signaler ce site » et ces informations seront ensuite récupérées par un serveur et stockées dans une base de données que nous pouvons consulter.
Aucune autre information n’est envoyée, mais vous pouvez ajouter des précisions et/ou un email dans le champ description si besoin. Avec Hezirel, nous avons travaillé à obfusquer la base de données des URL et optimiser le code (en partant de ce que j’ai produit avec Claude.ai, il a donc fait ce qu’il a pu dans un temps contraint), pour arriver à la version proposée actuellement.
Flock s’est occupé des petites icônes, mais avec des images de 128 x 128 pixels au maximum, son talent ne pouvait guère s’exprimer. Cette extension est donc le fruit d’un travail d’équipe, mais vous pouvez quand même apprécier le Go Go gadget-au-chapeau en tête d’article.
Des bugs peuvent arriver (et arriveront surement), n’hésitez donc pas à nous les signaler. Même chose si vous avez des idées de fonctionnalités intéressantes à ajouter. Nous lirons vos retours et vos commentaires avec intérêt.
L’accès anticipé permet à des éditeurs ou même à des développeurs indépendants de publier un jeu sur Steam avant qu’il soit terminé. Le mécanisme permet le financement du reste du projet, mais obéit – normalement – à certaines règles, dont une fréquence correcte dans les mises à jour et les communications aux joueurs.
Mais à l’instar des campagnes de financement participatif, il y a des ratés. Certains éditeurs abandonnent leurs projets ou considèrent que leur devoir est rempli, occasionnant colère et frustration chez les joueurs.
Steam a donc décidé de prendre un peu plus le problème en main. Désormais, quand la page d’un jeu est inactive depuis trop longtemps, un message est ajouté pour prévenir les joueurs.
Sur la fiche de BattleBit Remastered par exemple, on peut lire : « Remarque : la dernière mise à jour a été publiée par l’équipe de développement il y a 13 mois. Les informations et le calendrier présentés ici peuvent être obsolètes ».
Même chose sur la fiche de Cavern Kings, la dernière mise à jour datant de 8 ans. À la décharge de l’éditeur (VINE), il est précisé plus bas dans la fiche que le développement a effectivement été abandonné, mais l’avertissement de Steam est autrement visible. Le message apparait en effet dans une couleur orangée qui tranche avec le fond bleu nuit du site, à l’intérieur du cadre signalant qu’il s’agit d’un accès anticipé.
Steam n’a pas encore communiqué officiellement sur ces ajouts, mais Eurogamer et PC Gamer ont signalé que la fonction avait d’abord été repérée par SteamDB. Ce dernier propose d’ailleurs une extension pour navigateur permettant d’afficher automatiquement la dernière date de mise à jour pour un jeu en allant sur sa fiche).
On ne sait pas précisément au bout de combien de temps d’inactivité le message s’affiche, même s’il semble que la période minimale soit d’un an. Il est possible que Steam soit en train de tester cet avertissement pour récoler des retours.
Next a identifié plus de 1 000 sites web d’information francophones faisant croire que leurs articles sont écrits par des journalistes ou des experts en la matière. Ils sont en fait générés et/ou traduitspar des IA, sans le mentionner. Au moins une centaine reposent sur du plagiat, et près de 150 étaient mentionnés comme sources sur Wikipédia. Vu l’ampleur du problème, nous avons proposé au service de fact-checking CheckNews de Libération de nous aider à enquêter sur ce qui s’apparente à une véritable « pollution » numérique et médiatique. Premier volet de notre enquête.
La société NewsGuard évalue « tous les sites d’information et d’actualité (plus de 7 500 sites) dont les contenus représentent 95 % de l’engagement avec l’actualité en ligne aux États-Unis, au Royaume-Uni, au Canada, en France, en Allemagne et en Italie ».
Son observatoire de suivi de la mésinformation facilitée par l’IA répertorie par ailleurs 1 150 « sites d’actualité non fiables générés par l’IA » (GenAI ou « UAINS », pour « Unreliable AI-generated News Sites » en anglais), contre seulement 49 lorsqu’elle avait commencé à les recenser, en mai 2023.
NewsGuard souligne que « ces sites portent généralement des noms génériques […] qui ressemblent pour le lecteur à des sites d’actualité classiques » :
« Dans de nombreux cas, le modèle économique de ces sites repose sur la publicité programmatique – des publicités placées de manière algorithmique par les sociétés d’ad-tech sans se soucier de la nature ou de la qualité des sites. Par conséquent, des grandes marques soutiennent ces sites involontairement. »
Or, leurs articles « contiennent parfois de fausses affirmations, telles que des infox sur la mort de célébrités, des événements fabriqués de toutes pièces et des articles présentant des événements anciens comme s’ils venaient de se produire ».
Accessible sur abonnement, sa liste de sites GenAI, établie par près de 15 fact-checkers, concerne 16 langues. Contactée par CheckNews, la société précise que sa base de données ne contiendrait qu’une vingtaine de sites en français.
Next en a de son côté identifié plus de 1 000, rien qu’en français. Et nous avons de bonnes raisons de penser qu’il en existerait plusieurs milliers, au vu du nombre de professionnels qui ont industrialisé la production de sites d’informations générés par IA. Nous avons en effet identifié une centaine de ces pros de l’info GenAI, sans pouvoir mesurer combien de dizaines (voire de centaines) d’autres se seraient lancés dans ce douteux (mais lucratif) « business ».
Signe de l’ampleur du problème et de son inflation, cette sous-estimation (tant dans les chiffres de NewsGuard que les nôtres) semble indiquer que nous serions débordés par le phénomène, qui s’apparente à une véritable « pollution » numérique et médiatique.
Une pollution quasi invisible, puisque personne ou presque ne semblait l’avoir identifiée jusque-là. En tout cas, pas à ce point.
Une « forme hybride de plagiat » facilitée, voire générée par IA
Mi-octobre, Olivier Marino, directeur adjoint des rédactions du groupe Nice Matin, déplorait sur LinkedIn une « forme hybride de plagiat » facilitée, voire générée par l’IA. Un « média d’information et d’actualité », situé lui aussi dans le Var, publie en effet des articles « sur des histoires où nous étions parfois le seul média présent ». Ce média reprend à son compte les informations recueillies par les journalistes de Nice Matin, mais « sans source, ni lien ».
L’analyse d’un échantillon de 46 articles, effectuée par une start-up spécialisée dans la détection de contenus générés par IA, « a pu déterminer que 32 d’entre eux avaient été – selon son outil – générés via de l’IA reprenant les informations de Var-matin, mais aussi d’autres médias locaux ».
En réponse, 60 millions de consommateurs, « média sans publicité commerciale et ne vivant que de ses ventes », déplorait que ses articles étaient « très rapidement plagiés et republiés depuis des années sur des sites web truffés de pub et en accès gratuit ». Surtout ses essais comparatifs, « particulièrement coûteux à réaliser, dont l’intégralité des résultats est souvent ainsi diffusée gratuitement » :
« Jusque-là, il s’agissait surtout de réécritures « manuelles » sur les sites web de « vrais » groupes de presse (notamment un dont le nom commence par « Re »). Mais on commence à voir désormais des reprises de nos articles par des sites inconnus au bataillon, vraisemblablement rédigées par de pures IA, et très très bien classés chez Google. La presse locale est donc loin d’être la seule concernée. »
Nous avons alors répondu que nous nous apprêtions à publier une enquête à ce sujet, « ayant identifié plus de 100 sites en français se faisant passer pour des sites d’informations reposant sur le travail de journalistes, mais qui sont en fait générés par des IA, dont près de 30 reposent sur du plagiat (majoritairement d’articles étrangers, traduits en français) ».
Compte tenu du nombre d’acteurs impliqués, de médias parasités voire plagiés, et des nombreuses questions (déontologiques, juridiques, légales, médiatiques, financières, notamment) que cette prolifération de sites d’info GenAI soulève, nous avons depuis proposé au service CheckNews de fact-checking de Libération d’enquêter avec nous à ce sujet (voir leur enquête).
De 100 à plus de 1 000 sites GenAI en quelques mois seulement
Le phénomène s’est, en effet, révélé d’une ampleur nettement supérieure à ce que nous anticipions. Fin octobre (soit 15 jours après notre commentaire sur LinkedIn), lorsque nous avons contacté Libé, notre recension était passée à 270 sites d’info GenAI. Le cap des 500 a été franchi à la veille de Noël, celui des 800 mi-janvier.
Entamée il y a près d’un an, notre enquête nous a depuis permis d’en identifier plus de 1 000, soit près de 750 de plus en seulement trois mois, dont une centaine au moins relevant du plagiat (nous y reviendrons dans un prochain article). Ce n’est pas tant que le phénomène serait en pleine expansion (une bonne partie de ces sites existent depuis des mois, voire des années), mais parce que nous avons affiné nos méthodes de détection.
La consultation des 28 pages de réponses, sur Google Actualités, à la requête « je suis désolé, mais je ne peux pas » (l’un des messages d’erreur bien connus liés à ChatGPT et ses avatars) était éloquente. Nous y avons découvert une quinzaine de sites d’infos GenAI qui, eux-mêmes, nous ont permis d’en identifier près de 250 autres, liés d’une manière ou d’une autre à leurs éditeurs respectifs. Ce, en moins d’une journée.
Nous revenons plus en détails sur les tactiques et procédures permettant de reconnaître les sites GenAI dans un second article dédié. Nous ne saurions par ailleurs que trop vous conseiller d’installer l’extension pour navigateur que nous avons développée afin d’alerter ses utilisateurs lorsqu’ils consultent un site dont les articles ont été, en tout ou partie, générés par IA.
S’il était prévisible que des pirates de l’info se saisissent des IA génératives pour développer de tels médias, il est par contre incompréhensible que la plupart de ces sites, référencés depuis des mois ou des années sur Google Actualités, n’en aient toujours pas été exclus, plus de deux ans après le lancement de ChatGPT puis de ses avatars.
Le SEO est-il mort ?
En janvier 2023, deux mois seulement après le lancement de ChatGPT, nous écrivions en effet que la démocratisation des intelligences artificielles génératives allait « faciliter la production d’éléments textuels assez banals, surtout destinées à booster son référencement sur Google ». Cela posait de « nouveaux risques » en matière d’accès à l’information.
Un an plus tard, le SEO est toujours là, mais l’IA a changé la donne : par son intermédiaire, des éditeurs inondent Google Actualités de prétendus sites d’information et d’articles GenAI.
Non contents de piller à bas coûts les articles de médias rémunérant leurs journalistes, ils privent leurs rédactions des revenus publicitaires qu’ils auraient pu engendrer si les internautes avaient lu les articles originaux, et non leurs plagiats générés par IA.
Une centaine de pros du SEO responsables des 3/4 de ces 1 000 sites GenAI
Une bonne partie de ces 1 000 sites sont répertoriés par Google Actualités ou cherchent à l’être (soulignant, comme s’il s’agissait d’une caution, qu’ils y ont été « approuvés »). Pourtant, leurs articles se bornent à utiliser des IA pour identifier, traduire en français, voire copier-coller de façon automatisée des articles émanant de journalistes. Ces derniers ne sont jamais mentionnés, et leurs sources quasiment jamais citées.
Non content d’induire leurs lecteurs en erreur en leur faisant croire que les informations relayées ont été vérifiées par des journalistes, ces sites GenAI vont jusqu’à relayer des informations « hallucinées » par leurs IA, donc erronées. Nous y reviendrons, dans un article à paraître sur ces « hallucinations ».
Nous avons aussi identifié environ 90 (auto-)entreprises responsables de plus des trois quarts de ces sites, dont l’écrasante majorité émanent de professionnels du SEO. Plus de 50 d’entre elles administrent au moins cinq sites GenAI, plus de 30 dix sites ou plus, 10 plus de 20, cinq plus de 30 et deux plus de 90 (au moins).
Y figurent aussi cinq entreprises se présentant comme des médias ou groupes de presse, supposées employer des journalistes (nous y reviendrons également). De nombreux sites prodiguent des conseils en matière de high-tech, de finance (notamment en termes de « cryptoactifs », d’assurance-vie, retraite ou d’ETF), de démarches administratives, de bien-être et même de santé, jusqu’à prodiguer des… « avis médicaux » (nous y reviendrons aussi).
Environ 250 sites GenAI (soit le quart de ceux que nous avons identifiés) ne fournissent, a contrario, aucune mention légale permettant d’identifier leurs responsables, en violation de la loi. Dans certains cas, ils mentionnent même des informations fictives.
S’il est impossible de savoir combien de médias sont générés par des IA, ces 1 000 et quelques sites GenAI ne sont vraisemblablement que la partie émergée de l’iceberg de ces faussaires qui polluent le web en général, et Google Actualités en particulier.
Près de 50 % des sites GenAI étaient mentionnés dans Wikipédia
Plusieurs de ces sites apparaissent régulièrement sur Discover, l’IA de Google qui met en avant des articles d’actualité sur l’application Google mobile. À tel point qu’il arrive que deux des 15 - 20 articles qui y sont mis en avant chaque jour renvoient à des sites GenAI, contribuant à alimenter le robinet à pollution (nous y reviendrons).
Plus inquiétant : sur les 327 sites que nous avions partagés en novembre avec un administrateur et une contributrice émérite de Wikipédia, tous deux habitués à y détecter les « faux nez », 14 avaient déjà été identifiés lors des enquêtes menées à l’été 2022 sur les caviardages orchestrés par la société Avisa Partners sur l’encyclopédie collaborative, et 150 étaient mentionnés dans l’encyclopédie, soit plus de la moitié.
À lui seul, ce chiffre montre que les contenus GenAI ne sont pas forcément « bas de gamme », puisqu’ils parviennent à induire en erreur des contributeurs de Wikipédia. La vérification d’un échantillon aléatoire de contributions mentionnant ces sites GenAI a d’ailleurs permis de constater que les ajouts avaient, dans la majeure partie des cas, été faits « de bonne foi ».
Plus inquiétant : les deux fact-checkers de Wikipédia ont découvert que ces mentions étaient « souvent l’œuvre de contributeurs expérimentés, voire très expérimentés, y compris lorsqu’il s’agit de sites de très mauvaise qualité (pas d’auteurs, pas de mentions légales, traduction automatique manifeste, etc.) ».
Après avoir examiné chacun des 150 sites, ils avaient pu confirmer que 105 recouraient à l’IA pour la rédaction de textes, et 65 au plagiat (avec ou sans traduction, ou reformulation par IA). Les deux fact-checkers de l’encyclopédie en fournissent le compte-rendu détaillé, avec la liste des 148 sites examinés.
81 n’avaient en outre pas de mentions légales, ou des mentions mensongères, avec des auteurs fictifs. 51 avaient été « vampirisés » après le rachat de leur nom de domaine (et alors qu’ils constituaient jusque-là des sources acceptables), 18 ayant été utilisés pour effectuer des « modifications promotionnelles » sur l’encyclopédie, et 7 pour y faire du spam.
Nous leur avons depuis transmis à la liste des 1 066 sites GenAI identifiés à ce jour : 443 sont mentionnés comme « sources » et notes de bas de page sur Wikipédia, soit plus de 40 % du total. La liste de ces noms de domaine va désormais permettre aux contributeurs de l’encyclopédie de vérifier combien peuvent légitimement continuer à y figurer, ou pas (nous y reviendrons).
Une extension web pour identifier les sites (en tout ou partie) GenAI
Nous avons aussi découvert que 29 de ces 1 000 sites GenAI figurent dans le classement SimilarWeb des 1 000 sites d’éditeurs d’actualités et médias les plus visités en France. 17 figurent même dans le Top 500 et 3 dans le Top 100. 19 d’entre eux font aussi partie de la centaine de sites reposant en tout ou partie sur du plagiat (nous y reviendrons).
« La capacité de générer en masse de tels contenus est un désastre pour notre système informationnel », déplorait Ioana Manolescu, chercheuse en informatique à Inria et professeure à l’école Polytechnique, dans une enquête du Figaro consacrée à la « pollution numérique » constituée par la déferlante de contenus visuels (images et vidéos) GenAI :
« Un terme est en train de s’imposer pour les désigner : le « AI Slop », slop étant dans la langue anglaise un terme désignant la bouillie industrielle donnée aux cochons. »
« Le slop peut disparaître si les internautes expriment un fort rejet », soulignait-elle. Elle espérait que, à l’instar de ce qui s’est passé pour le spam, les acteurs de la Tech’ allaient travailler de concert pour développer des solutions de filtrage.
Afin d’aider les internautes à éviter ces pièges, Next a développé une extension web (pour Firefox et les navigateurs basés sur Chromium) affichant un message d’alerte sur les sites dont les articles nous semblent avoir, en tout ou partie, été générés par IA.
L’extension permet également à ses utilisateurs de nous envoyer, d’un simple clic, les sites GenAI, de désinformation ou frauduleux que ses utilisateurs auraient identifiés, pour que nous puissions « crowdsourcer » la mise à jour de notre base de données.
En revanche, nous avons ne rendons pas publique l’intégralité de la liste de ces sites, pas plus que celle des entreprises, pour plusieurs raisons. Nous ne voulons pas, d’une part, que cette base de données puisse aider ceux qui voudraient améliorer leurs générateurs d’articles automatisés, et qui se targuent de ne pas être reconnus comme GenAI (nous y reviendrons).
Nous ne voulons pas non plus faire de « name and shame » et mettre sur le même plan des auto-entrepreneurs SEO ayant créé quelques sites de façon opportuniste et les entreprises (y compris individuelles) en ayant créé plusieurs dizaines.
Nous allons toutefois, au fil des nombreux articles que nous allons publier dans les jours à venir au sujet de cette enquête, mentionner quelques sites et entreprises particulièrement emblématiques des problèmes que pose cette pollution.
Des IA pour remplacer les « travailleurs du clic » sous-payés
Tout a commencé lorsque, début 2024, nous avons reçu des « Google Alerts » nous renvoyant à des articles, répertoriés sur Google Actualités, mais émanant de médias inconnus. Ces articles cumulaient plusieurs artefacts et traits caractéristiques des contenus GenAI.
Suite au lancement de ChatGPT et de plusieurs autres IA génératives, nous avions consacré deux articles aux techniques, tactiques et procédures (TTP) pour identifier les textes et images générés par des IA, en mode « deepfakes » (ou hypertrucages).
Nous avons alors commencé à les recenser, cherchant à identifier leurs points communs pour les identifier plus facilement. Nous étions loin, à l’époque, d’imaginer que nous pourrions en découvrir plus de 1 000 rien qu’en français. Pas plus que notre recension artisanale ne représenterait qu’une (toute petite ?) partie d’une véritable pollution médiatique.
La majorité de ces sites GenAI semble émaner de professionnels du SEO, qui rachètent des noms de domaine ayant expiré pour profiter de leur référencement et trafic entrant préexistants. Traditionnellement, ils s’en servent pour produire des articles à la chaîne, soit pour démultiplier le nombre de pages vues, et donc les revenus publicitaires générés par de la publicité, soit pour vendre des liens et articles sponsorisés qui ont pour principal objet d’améliorer le référencement des sites Web de leurs clients, plus que d’informer leurs lecteurs.
Nombre d’entre eux recouraient jusque-là à des « travailleurs du clic », recrutés dans des pays d’Afrique francophone ou à Madagascar, pour disposer d’une main-d’œuvre à bas coût.
Depuis le lancement de ChatGPT et de ses avatars, ils semblent de plus en plus les remplacer par des IA capables de générer, traduire ou plagier des dizaines, voire des centaines d’articles par jour, à un tarif bien moindre ou quasi-nul (nous y reviendrons).
Aucun d’entre eux ou presque ne précise qu’ils ont été générés et illustrés par des « générateurs de baratin », « perroquets stochastiques » qui se contentent d’estimer la probabilité qu’une suite de mots puisse constituer un contenu plausible en réponse à un « prompt ». Ces logiciels ne comprennent pas les écrits et dessins qu’ils « génèrent », ce qui explique qu’ils puissent « halluciner » (ou « confabuler ») des faits et informations.
Des risques de mésinformation et de contrefaçon « assistées par l’IA »
Les conclusions de la mission de l’Arcom sur l’IA, rendues publiques mi-octobre, qualifient ces « médias synthétiques » de médias « du 3ᵉ type », aux côtés des médias éditorialisés (essentiellement humains) et des médias algorithmiques (plateformes en ligne).
Or, déplorait l’Arcom, en confiant à des algorithmes la génération des contenus qu’ils diffusent, « de manière relativement désincarnée » (sans véritables auteurs ou journalistes) et « avec un contrôle humain faible voire inexistant », ces médias ne peuvent proposer qu’une « qualité diminuée par l’IA ». Ce qui soulève plusieurs questions :
« économiques : ces services peuvent venir phagocyter le marché historique des médias éditorialisés ;
qualitatives : la production de contenus à la volée, parfois sans véritable contrôle humain, augmente le risque de mésinformation ou de désinformation ;
juridiques : les médias synthétiques peuvent représenter une forme « contrefaçon assistée par l’IA », tout en profitant d’une limite du régime de responsabilité de jure. »
L’Arcom relevait à ce titre que si « la France et l’Europe ne sont pas un « far west » de l’IA », au vu des règlementations nationales ou internationales en place ou en cours d’adoption, tel n’est pas le cas de ces médias « synthétiques » :
« Les médias synthétiques s’approprient fréquemment les contenus produits par les médias traditionnels puis les reformatent ou les reformulent afin de les rediffuser auprès de leurs propres utilisateurs – à des fins lucratives voire malintentionnées. »
À compter d’août 2026, les contenus GenAI devront être identifiables
Le Règlement européen sur l’IA demande en outre que des « solutions techniques » soient mises en œuvre pour s’assurer du respect du droit d’auteur par les modèles d’IA. Il en va aussi de la traçabilité des contenus générés synthétiquement, à la fois pour permettre la rémunération des auteurs originaux, mais aussi pour assurer la vérification de l’information.
L’Arcom relevait également « un besoin d’harmonisation des différentes technologies proposées pour le suivi des contenus authentiques / synthétiques ». L’AI Act, entré en vigueur le 1ᵉʳ août 2024, mais applicable à partir du 2 août 2026, exige en effet que « les fournisseurs d’IA, y compris de systèmes d’IA à usage général, qui génèrent des contenus de synthèse de type audio, image, vidéo ou texte, veillent à ce que les sorties des systèmes d’IA soient marquées dans un format lisible par machine et identifiables comme ayant été générées ou manipulées par une IA » :
« Il convient d’exiger que les fournisseurs de ces systèmes intègrent des solutions techniques permettant le marquage dans un format lisible par machine et la détection du fait que les sorties ont été générées ou manipulées par un système d’IA, et non par un être humain. »
En outre, souligne l’AI Act, « il convient d’envisager une obligation d’information similaire en ce qui concerne le texte généré ou manipulé par l’IA dans la mesure où celui-ci est publié dans le but d’informer le public sur des questions d’intérêt public, à moins que le contenu généré par l’IA n’ait fait l’objet d’un processus d’examen humain ou de contrôle éditorial et qu’une personne physique ou morale assume la responsabilité éditoriale pour la publication du contenu ».
La mission proposait dès lors que l’Arcom entame des travaux complémentaires dans le but de :
mieux mesurer l’impact potentiel des médias synthétiques, notamment sur le plan économique et en termes de revenus publicitaires ;
étudier au travers d’une analyse pluridisciplinaire comment les textes en vigueur s’appliquent à ces nouveaux services et évaluer les éventuelles limites des régimes de responsabilités qui s’imposent à eux.
Google ne distingue pas les articles journalistiques des contenus GenAI
« Lorsque nous classons un contenu, nous nous concentrons sur sa qualité et non sur la manière dont il a été produit », avait rétorqué un porte-parole de Google à 404 Media. L’entreprise ajoutait que ses systèmes de classement Google News « visent à récompenser le contenu original qui démontre des éléments tels que l’expertise et la fiabilité ».
En février 2023, Google avait en effet annoncé vouloir « récompenser les contenus de haute qualité, quelle que soit la façon dont ils sont produits », et donc même s’ils étaient GenAI.
Le moteur de recherche y rappelait que « l’automatisation est utilisée depuis longtemps pour générer des contenus utiles comme les résultats sportifs, les prévisions météorologiques et les transcriptions ». Il estimait en outre que « l’IA peut permettre de développer de nouveaux niveaux d’expression et de créativité et d’aider les utilisateurs à créer des contenus de qualité pour le Web ».
Google y fournissait même des « conseils pour les créateurs qui envisagent d’utiliser la génération par IA ». « Quelle que soit la façon dont le contenu est créé, les personnes souhaitant réussir sur la recherche Google doivent chercher à produire des contenus originaux, de haute qualité et people-first, présentant les qualités de l’E-E-A-T », indiquait l’entreprise.
Cet acronyme désigne « l’expertise, l’expérience, la légitimité et la fiabilité ». Des valeurs cardinales mises en avant par le moteur de recherche pour y être bien référencé, et que cherchent précisément à déjouer les professionnels du « black hat SEO », notamment pour parvenir à y indexer leurs sites GenAI.
En réponse à la question « Dois-je ajouter des mentions concernant l’IA ou l’automatisation à mon contenu ? », la FAQ indique que « les mentions liées à l’IA ou à l’automatisation sont utiles pour les contenus pour lesquels quelqu’un pourrait se demander comment ce contenu a été créé ». Elle conseille d’en « ajouter là où le lecteur pourrait raisonnablement s’y attendre ». Ce que ne font quasiment aucun des 1 000 sites GenAI que nous avons identifiés.
« Le contenu généré automatiquement et produit principalement à des fins de classement est considéré comme du spam, et nous prenons les mesures qui s’imposent en vertu de nos règles », avait pourtant précisé le porte-parole de Google à 404 Media.
Les réponses de Google
Contacté mi-octobre, et relancé depuis (plusieurs fois), Google a fini par répondre à CheckNews… fin janvier. Nous rétorquant que « plusieurs sites que vous nous avez partagés n’apparaissent plus dans Google Actualités » (sans préciser lesquels), le service de presse du moteur de recherche rappelle que les éditeurs peuvent y figurer s’ils se conforment aux règles de Google Actualités. Ce qui inclut « la transparence sur la propriété du site et l’identité des auteurs ». En outre, « des mesures sont prises lorsque ces politiques sont enfreintes, pouvant aller jusqu’au retrait des sites ».
Arguant du fait que « les internautes qui consultent votre site souhaitent savoir qui écrit et publie vos contenus », ces règles exigent que les sources d’actualités sur Google comportent notamment :
« Des dates et des signatures claires.
Des informations sur les auteurs, la publication et l’éditeur.
Des informations sur l’entreprise ou le réseau à l’origine de la source.
Des coordonnées. »
Or, si les éditeurs de plus des trois quarts des sites GenAI identifiés fournissent effectivement les noms et coordonnées de leurs responsables légaux, la quasi-totalité d’entre eux mentent, en attribuant à des auteurs fictifs les articles qu’ils publient. Quitte, pour certains, à les doter de vrais-faux profils sur LinkedIn ou X.com.
Google se targue en outre de disposer de « politiques robustes en matière de spam, régulièrement mises à jour pour mieux lutter contre les nouvelles pratiques abusives qui conduisent à l’apparition de contenus non originaux et de faible qualité dans le moteur de recherche » :
« Les systèmes de Google permettent de maintenir le moteur de recherche exempte de spam à 99 %, et Google continue de les affiner et de les améliorer au fur et à mesure que le Web évolue. »
Google nous explique aussi avoir « investi de façon conséquente dans des équipes d’experts et des technologies de pointe pour prévenir les abus et appliquer nos règles » :
« Pour vous donner une idée de l’ampleur, en 2023, nous avons bloqué ou restreint la diffusion d’annonces sur plus de 2,1 milliards de pages d’éditeurs, contre 1,5 milliard de pages en 2022, et nous avons pris des mesures d’application au niveau du site sur plus de 395 000 sites d’éditeurs, contre 143 000 en 2022. »
Google nous précise enfin avoir lancé, « plus tôt cette année », une « nouvelle politique » proscrivant l’ « utilisation abusive de contenus à grande échelle », à savoir le fait de « générer de grandes quantités de contenus non originaux qui présentent peu ou pas d’intérêt pour les utilisateurs […] dans le but principal de manipuler le classement dans la recherche Google et non d’aider les utilisateurs ».
Sont notamment visés l’utilisation d’outils d’IA générative (ou outils similaires) et la création de plusieurs sites « dans le but de masquer la nature des contenus à grande échelle ». Nous avons pourtant identifié plus de 50 éditeurs administrant (au moins) cinq sites GenAI, et trois plus de 40 (au moins), plusieurs d’entre eux apparaissant régulièrement sur Discover.
La responsabilité de Google dans les dérives de la presse sur Internet
Dans un billet intitulé « Trop c’est trop ! Marre de ces sites 100% fake, 100% IA » publié sur LinkedIn, le journaliste Mathieu Cartier déplore ainsi d’avoir découvert, via Google Discover, qu’un site avait copié-collé l’une des photos publiées sur son site transitionvelo.com, sans autorisation. L’auteur de l’article plagié, « un certain Emile Faucher, « journaliste captivé par l’ingéniosité entrepreneuriale et les solutions innovantes » », s’y présente comme « diplômé d’une grande école de journalisme à Lille ».
Mathieu Cartier a d’abord cru avoir affaire à l’un de « ces sites qui n’ont pour objectif que de générer du clic et de l’affichage publicitaire avec des contenus volés à d’autres et des titres putaclics ». Il a depuis compris que le site avait probablement été généré par IA (il fait effectivement partie des 1 000 sites GenAI de notre base de données). « Quelle tristesse de voir que ce genre de sites existent et que Google, aveugle, leur donne suffisamment d’intérêt pour les mettre en avant dans sa section Discover », déplore Mathieu Cartier :
« On ne peut plus faire comme si de rien n’était et il faut pointer du doigt la responsabilité de Google dans les dérives de la presse sur Internet, poussant jusqu’à des sites réputés, que l’on aime lire, qui emploient des journalistes talentueux, tomber dans le piège du putaclic parce qu’une partie de plus en plus grande de leur audience dépend de Discover. »
Des sites qui, pour lui, « n’auraient (peut-être) jamais été aussi loin dans ces habitudes et lignes éditoriales si de faux sites sans journalistes ni contenus propres, et surtout sans aucune image à construire ou sauver, n’avaient été ainsi encouragés » :
« Le pire ? Penser que ce genre de stratégies puisse être rentables. Se dire que des sites construits sur le travail des autres (eh oui, chatGPT n’invente rien qui n’ait déjà été publié ailleurs) puisse avoir un intérêt économique, quand des gens qui investissent compétences, temps, sueur et argent pour créer des contenus pertinents, enrichis, incarnés peuvent avoir du mal à exister dans la jungle d’Internet. »
Il n’en estime pas moins qu’il faut « garder espoir », « alerter sur ces pratiques » et « expliquer aux jeunes l’importance de la presse, du journalisme, des faits, de la vérité et du débat argumenté, quand bien même ils font – eux-mêmes – faire leurs devoirs à leurs smartphones » :
« Le combat est mal engagé mais il n’est pas perdu, alors – passé le coup de colère – ne nous résignons pas. »
Nous ne saurions mieux dire, vu l’ampleur de ce que nous avons découvert lors de cette enquête au long cours. Dans les jours à venir, nous avons prévu de revenir plus particulièrement sur :
les sites GenAI reposant sur du plagiat, mais néanmoins indexés dans Google Actualités/Discover,
les sites GenAI plagiant et parasitant la presse quotidienne régionale (PQR),
les sites GenAI prodiguant des « conseils » et « recommandations » de santé,
les « hallucinations » et « infox » relayées par ces articles GenAI,
les dizaines de générateurs d’articles GenAI, optimisés pour Google Actualités/Discover, développés et commercialisés par des professionnels du SEO, qui se vantent de ne pas être identifiables par les détecteurs de contenus GenAI,
le fait que Google (en anglais) a de son côté été capable de désindexer 1 500 sites GenAI.
L’autorité française chargée de la protection des données publie un premier bilan de son action en 2024 et communique sur le doublement du nombre de sanctions prises par rapport à l’année précédente. Pourtant, ce chiffre est loin d’être énorme.
87, c’est le nombre de sanctions que la CNIL affiche avoir prises pendant l’année 2024. L’autorité française de la protection des données a calculé qu’au total, elle avait récolté un montant de 55 212 400 euros à travers ces décisions.
En détaillant un peu ces données, la CNIL explique avoir donné « 72 amendes (dont 14 avec injonctions sous astreinte), 8 décisions de liquidation d’astreinte (c’est-à-dire le paiement d’une somme en raison du non-respect d’un ordre donné par la CNIL dans sa décision de sanction) et 4 rappels à l’ordre ».
Mais l’autorité a décidé seulement 12 fois de rendre ces décisions publiques. Parmi celles-ci, on se rappelle, par exemple, du scraping sauvage de LinkedIn par Kaspr, qui a écopé d’une amende de 240 000 euros. Ou encore de la sanction contre Orange, à qui la CNIL a infligé « une amende de 50 millions d’euros, notamment pour avoir affiché des publicités entre les courriels des utilisateurs de son service de messagerie électronique, sans leur consentement ».
La CNIL explique avoir notamment ciblé la prospection commerciale dans ses décisions. Elle « a ainsi rappelé à plusieurs occasions que les organismes qui utilisent à des fins de prospection commerciale électronique des données personnelles transmises par des partenaires primo-collectants (qui organisent des jeux-concours par exemple) ou des courtiers en données doivent s’assurer que les conditions dans lesquelles les données ont été collectées sont conformes au RGPD (si nécessaire, avec le consentement de la personne et après la fourniture d’une information claire et concise) ».
Elle ajoute avoir « rappelé qu’un fournisseur de messagerie électronique qui insère des publicités entre les courriels reçus par ses utilisateurs dans leur boite de réception doit préalablement recueillir leur consentement ».
De 21 sanctions en 2022 à 87 en 2024
L’autorité se félicite d’avoir rendu plusieurs décisions marquantes en matière d’anonymisation des données de santé. Elle rappelle que même ainsi traitées, elles « restent des données personnelles auxquelles la législation s’applique ».
Mais si la CNIL met en avant que « le nombre total de sanctions prononcées est passé de 21 en 2022 à 42 en 2023 puis 87 en 2024 », celui-ci reste encore assez faible en comparaison, par exemple, du nombre de décisions que prend son homologue espagnole, l’Agencia Española de Protección de Datos (AEPD). Si celle-ci n’a pas encore communiqué sur ces chiffres de l’année dernière, elle avait pris 367 sanctions en 2023, et même 378 en 2022.
L’autorité déclare néanmoins qu’elle est passée 69 fois par sa procédure de sanction simplifiée, mise en place en 2022. « Soit près de trois fois plus qu’en 2023 », s’enorgueillit-elle, puisqu’elle ne l’avait utilisée que 24 fois à l’époque.
180 mises en demeure en 2024
La CNIL a aussi prononcé 180 mises en demeure, « décision de la présidente de la CNIL ordonnant à un organisme de se mettre en conformité dans un délai fixé », comme elle le précise.
On peut se rappeler que l’autorité annonçait encore en décembre une nouvelle salve de mises en demeure sur les bannières de cookies trompeuses, sans pour autant donner aucune indication sur la suite des événements. Pourtant, en juillet 2024, elle constatait, comme tout internaute peut le faire, que les dark patterns étaient partout.
Parmi ces 180 mises en demeures, l’autorité cite l’accès au dossier patient informatisé : « la CNIL a mis en demeure plusieurs établissements de santé de prendre les mesures permettant d’assurer la sécurité du dossier patient informatisé, rappelant que les données des patients ne doivent être accessibles qu’aux personnes justifiant du besoin d’en connaître ».
Nous avons expérimenté encore récemment le dépôt d’une plainte à la CNIL pour l’envoi en clair par la Scam d’un mot de passe, sans que rien ne bouge.
Google a publié mardi la version remaniée de la déclaration qui encadre ses grands principes éthiques et moraux autour de l’intelligence artificielle. L’engagement selon lequel les IA développées par Google ne doivent pas servir à la création d’armes disparait de cette nouvelle révision. La société justifie ce changement par une approche basée sur la gestion du risque, grâce à un « framework » dédié.
Inaugurée en 2018 et mise à jour, depuis, sur une base annuelle, la déclaration de Google relative à ses grands principes en matière d’IA affirmait explicitement depuis sa création que les outils maison ne devaient pas servir à la conception d’armes ou de technologies susceptibles de causer un préjudice général.
Mardi, le moteur de recherche est revenu sur cette promesse. Il a en effet mis en ligne une nouvelle révision de ses « AI Principles », dans laquelle il n’est plus fait mention des applications de l’IA que la société s’engage à ne pas poursuivre.
Limiter les risques, sans interdire les applications
Google et sa maison mère, Alphabet, se disent bien sûr toujours particulièrement soucieux des questions morales et éthiques soulevées par l’IA, mais la rhétorique n’est plus la même. « Nous pensons que notre approche de l’IA doit être à la fois audacieuse et responsable », écrit la société, qui met en avant l’importance de préserver « la sécurité, la sûreté et la confidentialité des utilisateurs ».
En la matière, Google s’engage par exemple à mettre en œuvre « une conception, des tests, une surveillance et des mesures de protection rigoureux pour atténuer les résultats imprévus ou nuisibles et éviter les préjugés injustes ». Rien n’est dit en revanche d’éventuelles lignes rouges.
La précédente version des IA Principles (ici datée de 2023, via Archive.org), se montre nettement plus précise. En complément de ses principes généraux, Google s’engageait ainsi à ne pas concevoir ou déployer d’IA dans des domaines d’application susceptibles de causer un préjudice à des tiers.
Elle interdisait par ailleurs l’IA au service des « armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement des blessures à des personnes ». Google disait par ailleurs se refuser à développer l’IA pour des applications qui « collectent ou utilisent des informations à des fins de surveillance, en violation des normes internationalement acceptées ».
Capture d’écran de la page AI Principles de Google en juin 2023 via Archive.org
Cette décision intervient quelques jours après que Donald Trump, nouveau président des États-Unis, a révoqué un décret relatif à la sécurité des systèmes IA. Signé par son prédécesseur, Joe Biden, le texte obligeait les développeurs à partager les résultats de leurs tests de sécurité avec le gouvernement avant la mise sur le marché de leurs produits, dès lors que ces derniers étaient susceptibles de soulever un risque lié à la sécurité nationale, à l’économie ou à la santé publique.
Officiellement, ces nouveaux principes n’ont rien à voir avec la politique. C’est du moins ce que sous-entendent Demis Hassabis, CEO de Google DeepMind, et James Manyika, vice-président senior en charge de la recherche, dans un billet de blog qui accompagne à la fois la mise en ligne de ces nouveaux principes, et la publication du sixième rapport annuel de Google sur l’IA responsable.
Ils commencent par rappeler que le paysage de l’IA a changé dans des proportions telles qu’une évolution des principes associés s’impose. Ils y expliquent ensuite comment les travaux nourris des équipes de Google sur la gouvernance de l’IA les a amenées à changer d’approche sur le sujet de la gestion des risques, notamment en élaborant un ensemble de protocoles dédiés, le « Frontier Safety Framework », censé permettre de prévenir les risques associés à l’IA. Le document adopte une approche plus technique des principes dont se revendique Google.
Un ensemble d’outils pour prévenir les risques
Initialement publié en mai 2024, ce FSF est depuis le 4 février amendé sous forme d’une version 2.0 (PDF). Il se présente comme un cadre, construit autour de « niveaux de capacité critiques » qui, s’ils sont atteints dans une IA, doivent déclencher des mesures spécifiques d’analyse de risque.
Google classe ces niveaux selon deux cas de figure. D’abord, le mésusage, soit une IA détournée de sa finalité première pour une application engendrant du risque comme, par exemple, la création d’une arme chimique ou l’orchestration d’une attaque cyber. Le FSF envisage ensuite le « risque d’alignement trompeur », qui intervient quand les capacités d’une IA sont susceptibles de dépasser le cadre de ce pourquoi elle est censée fonctionner de façon fiable.
Sur la base de ces deux familles de risque, le FSF envisage un ensemble de réponses et de procédures (dont beaucoup restent à concevoir), placées sous la responsabilité d’une gouvernance réunissant les principales instances internes de Google impliquées dans la conformité, l’éthique et l’IA. L’approche se veut donc plus technique, mais elle se révèle nettement moins explicite qu’une simple déclaration affichée noir sur blanc.
Google et Meta, même combat
Google entretient de longue date des rapports contestés avec les industriels de l’armement et du renseignement. En 2018, alors que la société venait d’abandonner sa devise historique « Don’t be evil », elle avait d’ailleurs dû gérer un conflit interne lié au lancement d’un programme d’intelligence artificielle conçu pour le Pentagone. Trois ans après ce projet Maven finalement abandonné, Google avait de nouveau manifesté des velléités de se positionner comme le partenaire de choix de la Défense états-unienne.
« Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l’Amérique, ainsi que de ses alliés les plus proches. L’adoption généralisée des modèles d’IA open source américains sert à la fois les intérêts économiques et sécuritaires », justifiait alors Nick Clegg, président des affaires internationales de Meta.
La nouvelle approche de Google en matière de gestion des risques rejoint d’ailleurs celle que prône dorénavant Meta. La firme dirigée par Mark Zuckerberg a en effet annoncé le 3 février qu’elle allait encadrer ses propres travaux en matière d’IA à l’aide d’un ensemble de protocoles dédiés, baptisé cette fois Frontier AI Framework. Le fonctionnement semble similaire à celui adopté par Google : identifier des risques potentiels, mettre en place des routines de détection ou de prévention, pour en dernier recours décider ou non d’intervenir. Quitte à ce qu’il soit parfois trop tard ?
Dans un billet publié hier soir, Microsoft proposer d’amender l’API Notifications pour lui ajouter des capacités liées aux appels audios et vidéos. Cette API joue un rôle important aujourd’hui, puisque c’est par elle qu’un site web peut demander la permission d’émettre des notifications. Si l’internaute accepte, le site peut alors prévenir de certains évènements, selon le service fourni.
Dans le cas de la visioconférence cependant, ces notifications sont limitées, car essentiellement statiques. Un service de communication peut par exemple prévenir d’un appel, mais cliquer sur la notification ne pourra qu’envoyer vers le site concerné, où seront les boutons d’actions tels que « Répondre » et « Refuser ».
Microsoft propose donc de modifier l’API standardisée pour y inclure plusieurs nouvelles capacités : autoriser la personnalisation permettant à un service de se distinguer d’un autre, permettre l’ajout de boutons personnalisés utilisables pour répondre ou rejeter un appel, ajouter une sonnerie personnalisée, obtenir une priorité plus élevée que les autres notifications (si la plateforme l’autorise).
Ces fonctions seraient présentes en fonction de scénarios comme « incoming-call », définissant alors un périmètre d’action et doté d’une plus grande priorité, pour s’assurer que la notification est immédiate. La possibilité d’attacher une sonnerie personnalisée, dont beaucoup pourraient abuser, requiert également une étape supplémentaire : que le site web ait été installé sous forme de PWA (ce qui exclut d’emblée Firefox).
Dans son billet, Microsoft donne la marche à suivre pour tester la fonction. Elle consiste surtout à lancer Edge avec le flag « msedge.exe –enable-features=IncomingCallNotifications » depuis la ligne de commande, puis à se rendre sur une page spécifique. Après avoir autorisé les notifications, on peut effectivement voir ce que la réception d’un appel donnerait. En installant le site en PWA, la notification est effectivement accompagnée d’une sonnerie. On note que les labels des boutons disposent déjà d’une traduction.
Comme le note Neowin, cet ajout permettrait aux navigateurs d’obtenir les mêmes capacités qu’Android et iOS sur la gestion des appels.
AMD boucle son exercice 2024 sur une croissance annuelle de 14 %, portée principalement par la demande sur le marché des centres de données, mais aussi par le succès commercial des processeurs Ryzen sur la fin de l’année. Pour 2025, la firme ambitionne sans surprise de capitaliser sur les développements liés à l’intelligence artificielle. Elle prévoit pour ce faire d’anticiper le lancement de ses puces Instinct MI350.
Sa croissance n’a rien à voir avec celle du grand concurrent sur le marché du GPU, NVIDIA, mais AMD peut tout de même se targuer d’avoir bouclé son exercice fiscal 2024 sur un chiffre d’affaires de 25,8 milliards de dollars, en hausse de 14 % sur un an. Présentés mardi soir, ces résultats financiers découlent notamment d’un quatrième trimestre aux performances exceptionnelles : AMD enregistre ainsi 7,7 milliards de dollars de chiffre d’affaires sur les trois derniers mois de l’année, en hausse de 24 % sur un an.
+ 94 % pour les composants destinés au datacenter
Sur le trimestre comme sur l’année, c’est la division datacenter qui génère l’essentiel de la croissance. En 2024, elle représente ainsi 12,6 milliards de dollars de chiffre d’affaires, en croissance de 94 % par rapport à l’année précédente. « Le chiffre d’affaires annuel de la division datacenter a presque doublé grâce à l’accélération de l’adoption des processeurs EPYC, et aux plus de 5 milliards de dollars de chiffre d’affaires générés par les accélérateurs AMD Instinct », se réjouit Lisa Su, CEO d’AMD, dans un communiqué.
Le marché des centres de données constitue, de nouveau et sans surprise, le principal levier de croissance identifié pour 2025 dans la mesure où tous les grands acteurs du logiciel, des services en ligne ou de l’infrastructure rivalisent de projets d’investissements. Sur ce volet, AMD se félicite d’avoir signé en 2024 des contrats de premier plan avec Meta, Microsoft ou IBM, et anticipe une accélération des livraisons en 2025.
Les accélérateurs Instinct MI350 sont en avance
Chez AMD comme chez NVIDIA, le marché ne dépend toutefois pas uniquement de la demande, mais aussi et surtout des capacités d’approvisionnement. Sur ce point, Lisa Su s’est voulue rassurante. Lors d’un échange (audio) avec les analystes financiers, elle a affirmé mardi que la production des MI250X – dernière génération en date de ses accélérateurs dédiés au calcul haute performance et à l’IA – avait décollé conformément aux attentes sur le quatrième trimestre.
AMD profite de l’occasion pour évoquer sa future architecture CDNA 4, dont les premiers représentants, les accélérateurs Instinct MI350, étaient initialement attendus pour le deuxième semestre 2025. « En se basant sur les progrès réalisés sur les préséries et sur l’accueil enthousiaste des clients, nous prévoyons maintenant de livrer les premiers échantillons à nos principaux clients au cours de ce trimestre, et de passer en production de masse aux alentours du milieu de l’année », a annoncé Lisa Su.
AMD affiche également des performances en hausse sur la division « Client », qui réunit ses principales gammes de CPU et APU. Sur l’année, la branche réalise un chiffre d’affaires de 7,1 milliards de dollars, en hausse de 52 % sur un an, avec une croissance tirée majoritairement par les CPU Ryzen.
AMD indique que plus de 150 plateformes estampillées Ryzen AI (en référence à ses dernières générations de processeurs) seront disponibles cette année, et se félicite tout particulièrement de son partenariat renforcé avec Dell.
Rappelons que la marque a lancé toute une nouvelle gamme de processeurs visant à la fois les PC fixes et les portables à l’occasion du CES de Las Vegas.
Les cartes graphiques Radeon RX 9070 pour début mars
D’aucuns s’étaient toutefois alarmés, au moment du CES, du silence assourdissant entourant les cartes graphiques Radeon RX 9070 et leur architecture RDNA 4, attendues comme une réponse à la génération des GeForce RTX 50×0 Blackwell chez NVIDIA. AMD devrait finalement procéder à leur annonce officielle fin février, pour un lancement commercial programmé courant mars, a dévoilé mardi Lisa Su. Elle reconnait que ce retard a porté préjudice aux ventes de GPU dédiés, qui accusent un recul (non précisé) sur l’année.
Il ne faut cependant pas s’attendre à des Radeon RX 9070 concurrentes du très haut de gamme incarné par la GeForce RTX 5090. « Notre objectif avec cette génération est de nous adresser au segment le plus important en volume du marché des passionnés », révèle la dirigeante. La bataille devrait donc se jouer sur le terrain du rapport performances/prix plus que sur celui des performances brutes.
100 millions de consoles équipées d’une puce AMD
Chasse gardée d’AMD, le segment des designs semi-personnalisés destinés aux fabricants de console a lui aussi reculé en 2024. Sur sa division gaming (qui réunit cartes graphiques dédiées et activités graphiques pour les fabricants de console), AMD accuse ainsi un recul de 58 % sur un an, avec un chiffre d’affaires qui s’établit à 2,6 milliards de dollars. Sur le marché des consoles, AMD se félicite toutefois d’avoir franchi le cap symbolique des 100 millions de consoles équipées. La répartition entre Sony et Microsoft n’est pas précisée, mais Sony indiquait en novembre dernier avoir vendu 65,5 millions de PS5 à l’échelle mondiale, à l’occasion du lancement de la PS5 Pro.
Dernier volet du catalogue AMD, le segment dédié à l’embarqué réalise quant à lui 3,6 milliards de dollars de chiffre d’affaires sur l’année. Une baisse de 33 % sur un an, essentiellement due, selon la société, à des clients qui « normalisent » leurs stocks.