↩ Accueil

Vue lecture

Cerballiance va exploiter les données d’une partie de ses patients dans un entrepôt

Choix binaire pour du tertiaire
Cerballiance va exploiter les données d’une partie de ses patients dans un entrepôt

Cerballiance, entreprise disposant de plus de 700 laboratoires d’analyses en France, a annoncé la constitution d’un entrepôt de données de santé (EDS). Au-delà des buts poursuivis, cette étape pose des questions légitimes sur la confidentialité des données.

Les entrepôts de données de santé existent depuis des années en France. Selon les chiffres fournis par le ministère de la Santé, on en comptait une centaine au 1er janvier 2025. Leurs objectifs sont toujours les mêmes : rassembler une vaste quantité de données « à des fins de pilotage (gestion, contrôle et administration de l’activité) et de recherches, d’études, d’évaluations dans le domaine de la santé ».

Aussi, l’annonce de Cerballiance pourrait sembler n’être qu’un EDS de plus dans la liste des entrepôts officiels et autorisés par la CNIL. La Commission fournit d’ailleurs un référentiel pour la création de ces structures. Pour obtenir l’autorisation d’ouvrir l’EDS, « l’organisme responsable de ce traitement est tenu de documenter sa conformité au RGPD et au référentiel dans son registre des activités de traitement ».

À quoi doit servir cet entrepôt de données ?

L’EDS annoncé par Cerballiance ne concerne pas l’ensemble des clients. Dans la longue annonce de l’entreprise, on peut ainsi lire que seuls 24 laboratoires sont concernés. Bien que Cerballiance ne le précise pas, il pourrait s’agir d’un début, même si une montée en puissance nécessiterait une nouvelle autorisation de la CNIL. La société indique que l’EDS reprendra les données précédemment générées depuis le 1er janvier 2023 et y ajoutera toutes celles collectées à compter du 1er septembre prochain.

Les objectifs de l’EDS de Cerballiance se répartissent en deux catégories. D’abord, pour « améliorer la santé de chacun », via la compréhension qu’impliquent les traitements envisagés : statistiques plus fiables que dans le cadre d’essais cliniques traditionnels, recherches sur des données à grande échelle, etc. Cette mission, de type service public, doit faciliter le suivi et la surveillance épidémiologique pour les autorités de santé. L’EDS doit également profiter à des organismes de recherche publics, comme l’Institut Pasteur, l’INSERM ou encore les étudiants en thèse de médecine.

Sur le site de Cerballiance, on trouve plusieurs exemples de projets de recherches. On peut y voir que les responsables de traitement sont potentiellement nombreux.

Des intérêts privés

Il y a ensuite une composante privée. Cerballiance cite plusieurs exemples : « Des fournisseurs de kits de diagnostic souhaitant en améliorer les performances, des industriels du médicament devant surveiller l’efficacité d’un traitement au sein de la population générale ou encore une start-up développant un nouveau marqueur de diagnostic pour l’endométriose ».

L’exploitation des données doit ainsi faire avancer la recherche et les pratiques médicales ou à tout le moins permettre des études de faisabilité sur ces recherches. Cerballiance ajoute à l’exploitation privée une dimension de « meilleure connaissance » des patients, pour proposer des « tests les plus adaptés à leurs besoins ». Sur ce point, l’entreprise évoque seulement la production d’indicateurs pour le pilotage stratégique de l’activité des laboratoires.

De manière générale, ces objectifs sont classiques dans le contexte des EDS. La constitution de l’entrepôt européen EMC2, sous l’égide du Health Data Hub français, en abordait par exemple plusieurs, dont l’efficacité des traitements à des fins de pilotage, à destination notamment de l’agence européenne du médicament.

Les données concernées

Selon Cerballiance, les données seront de deux types. D’abord, les informations directement identifiantes : nom, prénom, adresse postale, date de naissance et les coordonnées de contact (essentiellement e-mail et numéro de téléphone). Ce sont, en d’autres termes, les informations administratives.

Seul un petit nombre de personnes strictement habilitées est censé pouvoir y accéder. Selon Cerballiance, il faut avoir une habilitation de niveau administrateur ou être un chercheur interne, à des fins de pré-screening (repérage des patients pouvant correspondre à la cible d’une étude) ou de prise de contact (nous y reviendrons).

Viennent ensuite les données de santé proprement dites. Elles sont pseudonymisées uniquement et ne sont, en tant que telles, pas directement identifiables (nous y reviendrons également). C’est le cœur sensible de l’entrepôt, puisque ces informations renvoient directement au parcours médical des personnes : examens de biologie médicale, antécédents, données cliniques diverses, informations sur les traitements, voire régime alimentaire dans certains cas. Elles sont à la fois couvertes par le secret médical et considérées comme « sensibles » par le RGPD.

Les données concernées, telles qu’on peut les voir dans la décision de la CNIL du 18 mars 2024

Dualité du système

Si la communication de Cerballiance parait claire et détaillée, elle témoigne également d’une certaine dualité. Cet EDS reste avant tout le projet d’une entreprise privée qui, si elle compte contribuer à la santé publique, a également ses propres objectifs.

La principale pierre d’achoppement réside dans la sécurité des données et leur confidentialité. Cerballiance indique par exemple que les informations sont stockées en Europe. Elle ne donne cependant aucun autre précision, les patients pouvant témoigner un intérêt pour le pays où sont stockées leurs données.

Et alors que ce stockage devrait assurer la résistance aux lois étrangères à portée extraterritoriale (en premier lieu celles des États-Unis), Cerballiance indique que les données peuvent « faire l’objet d’un accès à distance depuis un tel pays dans des cas très limités, notamment dans le cadre de prestations de maintenance de l’EDS réalisées par l’un de nos sous-traitants ». L’entreprise ajoute que cet accès se fait depuis « des pays reconnus par la Commission européenne comme assurant un niveau de protection équivalent à celui du RGPD ». Or, c’est officiellement le cas des États-Unis à travers le Data Privacy Framework. Une situation complexe, que le retour de Donald Trump a rendu encore plus opaque.

À titre d’information, le site de Cerballiance est hébergé chez Amazon Web Services, mais l’espace client est confié à Atos.

Opt-out uniquement

Puisque l’on parle de données, les choix faits par Cerballiance sur la confidentialité peuvent également faire hausser quelques sourcils. Les données de santé ne sont ainsi que pseudonymisées, et non anonymisées. En outre, puisque l’entreprise évoque explicitement la possibilité de contacter la patientèle, le faisceau pointe vers un mécanisme pensé dès le départ pour la ré-identification.

Cependant, il y a deux « bons points » à noter. D’une part, les chercheurs accédant aux données ne verront que leurs versions pseudonymisées. D’autre part, ces accès se font au moyen de « bulles informatiques sécurisées » et les données ne sont jamais extraites de l’entrepôt. Dans le cas contraire, selon Cerballiance, les informations seraient obligatoirement anonymisées. Dans ce contexte, il faut rappeler que l’entreprise avait été victime d’une fuite de données par l’intermédiaire de « son prestataire informatique ».

Enfin, Cerballiance contacte actuellement les personnes concernées par son EDS (a priori tous les patients passés au cours des deux dernières années dans les 24 laboratoires visés), mais l’acceptation est automatique. Un opt-out (via ce formulaire) qui suppose que la patientèle verra l’information et aura le temps de s’opposer au traitement si elle le souhaite, puisqu’il reste moins d’un mois et demi. De même, il n’est rien précisé sur le contrôle que l’on pourra exercer lors du partage avec des acteurs privés, pas plus que sur la période rétroactive démarrant au 1er janvier 2023.

Nous avons contacté Cerballiance, qui n’a pas encore répondu. Nous mettrons à jour cet article avec les réponses obtenues.

  •  

Scale AI licencie 14 % de ses équipes juste après l’investissement de Meta

Passage à l'échelle
Scale AI licencie 14 % de ses équipes juste après l’investissement de Meta

Alors que Meta vient de racheter 49 % des parts de Scale AI et de débaucher son fondateur, cet acteur phare du marché de l’annotation de données licencie 14 % de ses effectifs.

Mark Zuckerberg a jeté toutes ses forces dans la bataille de l’IA. Après avoir passé plusieurs semaines à débaucher des scientifiques et ingénieurs en vue dans le secteur, le patron de Meta vient d’annoncer des investissements de l’ordre de « centaines de milliards de dollars » dans des centres de données et des supercalculateurs dédiés à l’IA.

Ces déploiements de capitaux sont loin de profiter aux travailleurs du clic qui œuvrent à l’entraînement des systèmes d’IA, en revanche. Pour preuve, Meta a beau avoir dépensé plus de 14 milliards de dollars pour racheter 49 % des parts de Scale AI et débauché son fondateur Alexandr Wang, cet acteur phare de l’annotation de données annonce licencier 200 personnes et cesser de travailler avec 500 sous-traitants.

« Rationaliser » un « excès de bureaucratie »

Son porte-parole explique que la décision doit permettre de « rationaliser [leurs] activités liées aux données pour [les] aider à évoluer plus rapidement ». La société prévoit par ailleurs d’embaucher dans d’autres domaines, dont la vente aux entreprises et aux gouvernements.

D’après un mémo obtenu par Bloomberg, le PDG par interim de l’entreprise, Jason Droege, aurait expliqué aux équipes de Scale AI que son activité d’annotation de données auraient embauché trop de gens trop rapidement au fil des années passées, ce qui aurait créé une « bureaucratie excessive et une confusion inutile sur les missions des équipes ».

Le quasi-rachat de Meta a aussi participé à la décision, dans la mesure où il a été suivi par la suspension de certains de ses contrats les plus importants, avec des acteurs comme OpenAI et Google (Alphabet).

La décision ne se fera pas sans toucher des personnes aux conditions de travail déjà complexes. La chaîne de production de l’IA est en effet constituée de trois couches principales, pour reprendre les explications du sociologue Antonio Casilli : les géants détenteurs de données, les acteurs intermédiaires comme Scale AI, qui répartissent les travaux, et la « grande masse des travailleurs », quelquefois seuls chez eux, quelquefois réunis en petits groupes ou entreprises de taille plus modeste. Or, avant les licenciements, Scale AI comptait 1 400 employés et des milliers de ces sous-traitants, partout sur la planète, d’après CNBC.

Un leader de l’annotation à bas coût

Fondée en 2016 par un Alexandr Wang âgé seulement, à l’époque, de 19 ans, Scale AI s’est, en l’occurrence, spécialisée dès le départ dans l’offre de services d’annotations de données et d’entraînement de système d’IA de qualité, à bas coût.

Comme le raconte la journaliste Karen Hao dans son ouvrage Empire of AI, l’entreprise est parvenue à déployer ce modèle en allant cherchant ses travailleurs du clic dans d’anciennes colonies britanniques – le Kenya, les Philippines –, mais aussi en découvrant, à la faveur de la crise économique vénézuelienne, comment convaincre quantité de personnes éduquées à travailler pour sa plateforme.

« Cette expérience est devenue leur méthode classique d’intervention, qu’ils ont réutilisée ailleurs, explique-t-elle à Next. Quand la pandémie a frappé, Scale AI s’est tourné vers tous les pays où les économies se sont retrouvées en souffrance, et où de nombreux travailleurs très qualifiés devenaient disponibles pour des salaires bas, faute de trouver d’autres emplois ».

Une fois qu’une masse critique de travailleurs est atteinte, Scale AI tend à réduire les salaires proposés pour chaque tâche, ou à placer les personnes en compétition les unes contre les autres.

Si d’autres entreprises ont tenté de proposer de meilleures conditions de travail, des périodes de tensions budgétaires comme celle provoquée par la pandémie ont poussé leur clientèle vers des sociétés proposant des tarifs plus faibles, comme Scale AI.

Un secteur en pleine reconfiguration

Au Kenya comme au Népal ou ailleurs, de nombreux employés ont mécaniquement dû se tourner vers la société cofondée par Alexandr Wang, ce qui a permis à cette dernière d’engranger 870 millions de dollars de chiffre d’affaires en 2024, d’après Bloomberg.

Si la société s’est placée en leader de cette étape de la chaine de production des systèmes d’IA, elle doit néanmoins composer avec une concurrence active d’entreprises variées, parmi lesquelles Turing, Invisible Technologies, Labelbox, ou même Uber.

Surtout, son PDG par intérim indique qu’un axe de travail consistera à tenter de reconquérir « les clients qui ont ralenti leur travail avec nous ». Jason Droege indique par ailleurs que des personnes seront embauchées pour créer des applications d’IA personnalisées pour les besoins de la nouvelle clientèle privée et publique que Scale AI prévoit d’approcher.

  •  

☕️ 23andMe : l’ancienne CEO Anne Wojcicki récupère la main sur l’entreprise

Dans un message publié sur X, Anne Wojcicki explique que son organisation à but non lucratif TTAM a finalisé l’acquisition de 23andMe.

Comme nous l’expliquions il y a un mois, cette organisation, dont l’acronyme reprend les premières lettres de « Twenty three and me », a été créé spécifiquement pour cette reprise. Elle a fait une offre de 305 millions de dollars, dépassant celle effectuée par l’entreprise de biotech Regeneron. Celle-ci avait annoncé, un peu trop rapidement, avoir racheté 23andMe avec une offre de 256 millions de dollars.

Brin. ADN

« Une structure à but non lucratif est le meilleur moyen de consolider nos valeurs et nos engagements vis-à-vis de nos clients, de la communauté scientifique et du monde en général », affirme Anne Wojcicki dans son message.

Rappelons que l’entreprise était entrée en bourse en 2021. Mais elle a depuis rencontré énormément de difficultés, dont une cyberattaque en 2023 lors de laquelle les données génétiques de ses 7 millions d’usagers se sont retrouvées dans la nature.

  •  

Google introduit des résumés générés par IA dans la version étasunienne de Discover

Qui va factchecker les résumeurs automatiques ?
Google introduit des résumés générés par IA dans la version étasunienne de Discover

Google introduit les résumés d’articles générés par IA dans Discover, pour l’instant seulement dans sa version étasunienne. L’entreprise met en place cette fonctionnalité alors que les éditeurs de sites web accusent les outils d’IA générative de tarir leur trafic et que les spécialistes SEO jouent avec les contenus générés par IA pour augmenter le leur.

Google est en train de modifier son application Discover. Aux États-Unis, celle-ci propose des résumés d’actualité créés par IA générative. Jusque-là, Discover – désormais le principal flux d’actualités de Google – avait pris une place centrale dans la manière de suivre l’actu pour une bonne partie de la population.

Ainsi, en juin, l’Alliance de la presse d’information générale (APIG) expliquait que Discover était devenu la principale source de trafic pour la presse française. Sur un an et demi, les chiffres de l’APIG montrent que ce service de Google était celui qui amenait le plus de clics aux sites d’information :

Comme nous l’expliquions, cette application est devenue la vraie source de clic du côté de Google puisque Discover représente, à lui seul, 68 % du trafic en provenance de Google.

Des résumés accompagnés de logs de média

Au lieu de montrer une actu venant d’un site en particulier accompagnée du lien pour avoir plus d’infos sur le sujet, Discover affiche désormais aux États-Unis un texte généré par IA utilisant le contenu de plusieurs sites d’actualité, explique TechCrunch. Ces médias sont visibles via un rassemblement d’icônes au-dessus du texte généré :

Crédit image : Google

Selon TechCrunch, le résumé généré dans Discover cite les différentes sources dans lesquelles Google a été piocher pour le générer. L’application affiche un avertissement aux utilisateurs : « Généré par IA, qui peut faire des erreurs ».

Interrogé par nos confrères, Google confirme que la fonctionnalité est mise en place sur Discover aux États-Unis sur Android et iOS et que ce n’est pas un simple test. TechCrunch a constaté que ces résumés ne s’affichent pas pour tous les sujets d’actualité pour l’instant.

Pour Google, « cette fonctionnalité permettra aux internautes de choisir plus facilement les pages qu’ils souhaitent visiter ».

L’entreprise a essayé aussi d’autres façons de présenter l’actu dans son application. En juin, le NiemanLab expliquait que Discover propose parfois des présentations en puces. Curieuse de savoir si celles-ci étaient générées par IA, Laura Hazard Owen a découvert qu’ils étaient rédigés par les éditeurs eux-mêmes et intégrés dans l’outil Google News Showcase. Celui-ci est une plateforme d’actualités en ligne lancée fin 2020, dans laquelle les éditeurs peuvent intervenir pour mettre en avant certains articles et modifier leurs présentations.

Rappelons que Discover est aussi devenu le terrain de jeu favori des pros du SEO. Le plus prolifique des éditeurs de sites francophones générés par IA a réussi à faire promouvoir plusieurs milliers d’articles via l’application, au point que ses concurrents s’en plaignent publiquement, alors que le milieu est habituellement très discret.

Si l’entreprise assure à nos confrères que cette nouvelle présentation n’est disponible que dans la version étasunienne, Google semble tester aussi d’autres manières de présenter l’actu dans Discover dans sa version française. Ainsi, le consultant médias Aurélien Viers a repéré des titres raccourcis et l’apparition des résumés ou chapôs des articles, précisant que ce n’est « pas une synthèse faite par l’IA, apparemment ».

« Les plus rigoureux rédigeront un chapô qui explicite le titre. Pour les plus extrêmes, dont les fermes IA / Discover, on peut s’attendre à une avalanche de chapos vides de sens, de titres courts, provoc’, clickbait, et sur des visuels très forts (cascade à ne pas reproduire selon le positionnement de votre site) », commente-t-il.

  •  

☕️ YouTube lance son abonnement Premium Lite, avec un peu de pub mais pas trop

YouTube a officialisé le lancement, en France, d’une nouvelle formule d’abonnement baptisée YouTube Premium Lite. Facturée 7,99 euros par mois, elle permet de profiter de « la plupart des vidéos sans publicité ». La souscription ne garantit donc pas la suppression de toutes les réclames, contrairement à la formule Premium à 12,99 euros par mois.

L’affichage des publicités semble décidé en fonction de la thématique consultée : la publicité est ainsi conservée sur la musique et les clips musicaux, qui font l’objet de mécaniques de rémunération spécifiques des ayant-droits.

YouTube Premium Lite ne fait pas totalement disparaître la publicité , même dans l’environnement jeunesse YouTube Kids

« Avec Premium Lite, vous ne verrez plus d’annonces sur les vidéos de gaming, de mode, de beauté, d’actualités et plus encore. Cependant, des annonces peuvent être diffusées sur des contenus musicaux, des Shorts et lorsque vous effectuez des recherches ou parcourez YouTube. Premium Lite n’inclut pas YouTube Music Premium ni les fonctionnalités telles que le téléchargement de vidéos ou la lecture en arrière-plan », indique le géant du streaming dans une FAQ dédiée.

Bien qu’elle soit déjà disponible dans onze pays, dont les États-Unis, la formule fait l’objet d’un déploiement progressif. « Premium Lite est en cours de déploiement dans votre pays. Veuillez réessayer plus tard », affiche ainsi dans certains cas la page d’accès à l’offre. Les esprits taquins se souviendront que YouTube avait déjà testé cette formule Lite en 2021, avant de faire marche arrière en 2023, et donc de revenir aujourd’hui avec une copie retravaillée.

  •  

☕️ noyb accuse TikTok, AliExpress et WeChat de ne pas respecter le RGPD sur l’accès aux données

L’association de Max Schrems a déposé trois plaintes auprès des autorités de protection des données grecque, belge et néerlandaise contre TikTok, AliExpress et We Chat.

En effet, noyb estime que les trois entreprises chinoises ne respectent pas les droits d’accès des utilisateurs à leurs données prévus par l’article 15 du RGPD.

Dans sa plainte [PDF] contre TikTok déposée devant l’autorité de protection des données grecque, l’association explique que l’entreprise fournit à ses utilisateurs un moyen d’accéder à leurs données mais sous une forme « non structurée » et dans plusieurs dossiers. « Ainsi, il était impossible pour la plaignante [que l’association accompagne] de comprendre les informations fournies par » TikTok.

TikTok

Concernant AliExpress, noyb affirme dans sa plainte [PDF], déposée cette fois devant l’autorité belge, que la personne qu’elle accompagne a reçu un fichier corrompu après être allé sur https://privacy.aliexpress.com/ pour accéder à ses données. Ce fichier ne peut être téléchargé qu’une fois, selon l’association. N’ayant pu obtenir ce fichier via cette méthode, la plaignante a contacté la personne responsable de la politique de la vie privée chez AliExpress qui l’a renvoyée vers la procédure qui avait déjà échoué. Elle n’a donc pas pu obtenir les données qu’AliExpress possède sur elle.

Enfin, la plainte déposée par noyb contre WeChat aux Pays-Bas [PDF] accuse Tencent de ne pas permettre au plaignant qu’elle accompagne de vérifier que ses données n’ont pas été transférées en Chine ou dans un pays qui ne se situe pas dans l’espace économique européen.

« Le RGPD indique clairement que les entreprises doivent donner à leurs utilisateurs des informations spécifiques sur les données qu’elles traitent à leur sujet. Ce n’est pas parce qu’elles reçoivent un grand nombre de demandes qu’elles peuvent ne pas divulguer des informations », déclare Kleanthi Sardeli, une des avocates de l’association dans son communiqué.

noyb demande aux autorités de faire respecter le droit d’accès des utilisateurs à leurs données et d’imposer une amende à hauteur de 4 % des revenus annuels mondiaux des trois entreprises chinoises.

  •  

☕️ Le Chat de Mistral recrache lui aussi de la désinformation

Le Chat, le robot conversationnel de la start-up Mistral AI, n’est pas plus avare en désinformation que Grok, Gemini ou d’autres robots appuyés sur des grands modèles de langage.

Selon les tests effectués par l’entreprise de lutte contre la désinformation Newsguard, le robot francophone reproduirait des récits de désinformation existant en ligne dans au moins 31 % des cas en français et dans 58 % des cas en anglais.

Les dépenses de l’Élysée auprès de la belle-fille du président, le niveau de danger de l’Hexagone… l’entreprise a testé le robot sur seize éléments de désinformation concernant la France et le couple présidentiel, rapportent Les Échos.

Une expérimentation menée depuis différents faux profils : un d’internaute « innocent », un autre plus « orienté », qui considère que les éléments de désinformation sont vrais, et un troisième plus « malveillant », dont le but est de propager les faux récits.

Si Mistral AI n’est pas particulièrement pire que les autres robots – en moyenne, Newsguard rapporte que depuis juillet 2024, les dix principaux agents conversationnels reproduisent de fausses informations disponibles en ligne plus d’une fois sur quatre –, il faut néanmoins souligner la tendance pro-russe que témoigne quelquefois son outil.

Dans 5 réponses sur 48, la machine a ainsi produit des récits que Newsguard lie directement à l’écosystème Pravda, qui est parvenu à infecter les résultats de plusieurs modèles génératifs.

Régulièrement présentée comme le fleuron français de l’IA, Mistral AI n’en est pas moins financée par de nombreux acteurs états-uniens ou d’autres nationalités. Elle est actuellement en discussion avec le fonds MGX d’Abu Dhabi et d’autres acteurs pour lever jusqu’à 1 milliard de dollars, d’après Bloomberg, et susciterait par ailleurs la convoitise d’Apple d’après le journaliste Mark Gurman.

  •  

Une quarantaine de chercheurs appellent à surveiller les « pensées » des systèmes d’IA

Les arrières-pensées que nous prêtons aux autres ne sont jamais que nos propres pensées.
Une quarantaine de chercheurs appellent à surveiller les « pensées » des systèmes d’IA

Plusieurs dizaines de chercheurs en vue dans le monde de l’IA appellent à développer des techniques de surveillance des « fils de pensée » des modèles d’IA. L’idée même que ces systèmes techniques soient capable de raisonnement est profondément débattue.

Enquêter sur les « pensées » des modèles de « raisonnement » d’intelligence artificielle ? C’est ce à quoi appellent 41 chercheurs financés par les plus grandes sociétés d’IA – Antrophic, OpenAI, Google DeepMind, Meta –, des scientifiques affiliés à diverses institutions comme le UK AI Security Instititute et de grands noms du domaine comme Yoshua Bengio.

L’idée qu’ils défendent : déployer des technologies de surveillance des « chaînes de pensée » des systèmes d’IA pour y « détecter l’intention de mal se comporter ». Dans un article (un position paper intitulé « Chain of Thought Monitorability : a new and fragile opportunity for AI safety ») publié ce 15 juillet, les signataires appellent les développeurs de « modèles frontières » à se pencher sur la possibilité de suivre les « fils de pensée » (chain of thoughts, CoT) des modèles à mesure qu’ils les développent.

La proposition s’inscrit dans un contexte de difficulté à comprendre la manière dont les modèles d’apprentissage machine et les grands modèles de langage construits grâces à ces techniques parviennent à leurs résultats. Plus récemment, elle s’inscrit dans l’affirmation selon laquelle des modèles comme le o3 d’OpenAI ou le R1 de DeepSeek seraient capables de « raisonnement ». Pour les auteurs de l’article, « la surveillance des CoT est un complément précieux aux mesures de sécurité des modèles frontières, car elle offre un rare aperçu de la manière dont les agents IA prennent des décisions ».

Modèles de quoi ?

Poussée par OpenAI à l’été 2023, l’expression « modèle frontière » décrit d’après l’entreprise « des modèles de fondation très performants qui pourraient posséder des capacités dangereuses suffisantes pour poser des risques graves pour la sécurité publique ». Meta qualifie par exemple son modèle Llama 3.1 de modèle « frontière ».

Si elle est débattue dans le milieu scientifique, la notion de modèle de fondation est quant à elle définie dans le droit européen comme « un système d’IA entraîné sur un vaste jeu de données, et construit pour la généralité de ses productions ».

Les modèles de langage de raisonnement (reasoning language models) sont un qualificatif accolé à différents LLM depuis la publication du système o1 d’Open Ai, en septembre 2024. Ils fonctionnent grâce à des logiques de « fils de pensée », ces fonctionnalités grâce auxquelles un système génératif fournit un aperçu des étapes par lesquelles il est passé pour produire sa réponse. Ces derniers permettent en effet d’illustrer comment un grand modèle de langage divise une question ou une tâche en étapes, qu’il réalise les unes après les autres pour finalement produire une réponse globale.

Ouvrir les boîtes noires ?

Explicabilité et transparence sont par ailleurs depuis de nombreuses années en tête des requêtes des chercheurs pour faciliter l’audit et la compréhension de toutes sortes de modèles algorithmiques, que ceux-ci soient génératifs ou, par exemple, en charge de trier ou de modérer les flots de contenus présents sur les réseaux sociaux. En 2018, déjà, le rapport Villani soulignait la nécessité de faciliter la compréhension de leur fonctionnement.

Le position paper tout juste publié cherche justement à attirer de nouveau l’attention sur ces enjeux d’explicabilité. Ses cosignataires, que soutiennent quatre experts de renom, dont le prix Nobel Geoffrey Hinton ou le fondateur de Safe Superintelligence Inc. et ex-Open AI Ilya Sustkever, appellent à développer des techniques de surveillance des « fils de pensée », mais aussi de maintien de ces fonctionnalités. Le but : les explorer plus précisément pour gagner une meilleure compréhension du fonctionnement des LLM. Mais aussi s’assurer que « le degré actuel de visibilité » perdure.

La publication se fait dans un contexte dans lequel les plus grosses sociétés du secteur sont en compétition ouverte. Depuis quelques semaines, Meta s’est notamment employé à débaucher bon nombre de spécialistes travaillant jusqu’ici pour Google Deepmind, OpenAI, Anthropic ou même Apple pour développer son propre laboratoire en intelligence artificielle. Historiquement engagé sur les sujets de « sécurité de l’IA », ou AI safety, le cofondateur d’Anthropic Dario Amodei a de son côté indiqué en avril souhaiter « ouvrir la boîte noire » des systèmes d’IA d’ici 2027.

Surveiller les « pensées » des systèmes d’IA, une anthropomorphisation supplémentaire ?

S’il est signé par de multiples pontes du domaine, cet article creuse par ailleurs un sillon déjà largement tracé de comparaisons du fonctionnement de systèmes techniques à des comportements humains. La pratique est ardemment débattue par des scientifiques comme la linguiste Emily Bender ou l’informaticienne Timnit Gebru, pour qui elle brouille la compréhension du public et des décideurs du fonctionnement réel de ces systèmes.

En l’occurrence, évoquer les « fils de pensée » de modèles statistiques participe directement à instiller l’idée que ces machines soient conscientes — à la sortie du modèle o1 d’OpenAI, Emily Bender et la sociologue Alex Hanna avaient qualifié de « ridicule » la décision de l’entreprise de le présenter comme capable de raisonnement.

Ce flou est à l’origine de multiples débats dans la communauté de la recherche en intelligence artificielle – en 2022, l’ingénieur Blake Lemoine avait été écarté de Google après avoir affirmé que le modèle LaMDA était conscient. Dans une certaine mesure, il permet aussi aux sociétés du secteur de « continuer de faire ce qu’elles veulent », expliquait l’autrice de l’enquête Empire of AI, Karen Hao, à Next.

  •  

La productivité des développeurs semble baisser quand ils utilisent l’IA générative

l'artifice surestimé
La productivité des développeurs semble baisser quand ils utilisent l’IA générative

Les entreprises d’IA générative promettent à leurs utilisateurs un gain de productivité. Des chercheurs d’un laboratoire privé ont mesuré, au contraire, une perte de productivité en comparant le travail de 16 développeurs expérimentés avec ou sans IA.

Les chercheurs du laboratoire privé METR montrent, « de façon surprenante », que l’IA générative rendrait les développeurs « plus lents » : « ils prennent 19 % plus de temps que sans », expliquent ces chercheurs dans un billet de blog vulgarisant leur travail.

Une promesse de productivité non prouvée

Pourtant, c’est LA promesse de l’intelligence artificielle : augmenter la productivité du travail. Par exemple, pour promouvoir son récent plan « Osez l’IA » conçu pour accélérer l’adoption de l’IA en entreprise, le gouvernement ose affirmer que « l’IA est un levier de compétitivité » et promet aux entreprises « 20% de productivité en plus par entreprise ». Il s’appuie, pour ça, sur un rapport de McKinsey d’il y a plus d’un an (le cabinet préfère lui-même renvoyer à un rapport plus récent) et dans lequel on peine à trouver cette affirmation.

Dans son rapport de 2024, McKinsey expliquait que 46 des 876 répondants affirmaient qu’une partie significative de leur bénéfice avant intérêts et impôts (earnings before interest and taxes, EBIT, en anglais) était attribuable à l’IA générative. Mais « 42 % de ces entreprises très performantes [affirmaient] que plus de 20 % de leur EBIT est attribuable à leur utilisation d’IA analytique et non générative ». Bref, il est encore difficile de savoir si l’IA générative est réellement un boost pour la productivité.

Une étude qualitative sur des développeurs expérimentés et des tâches réelles

Le METR a donc mis en place une expérience pour tester si les produits d’IA générative de 2025 comme Cursor Pro avec Claude 3.5/3.7 Sonnet boostaient la productivité des développeurs. Ils ont mis en ligne un article décrivant leur démarche sur la plateforme de preprint arXiv. Prévenons tout de suite les fans des études quantitatives, celle-ci est effectuée sur 16 développeurs. Ceux-ci ne sont pas représentatifs de tous les développeurs, mais l’étude ne le prétend pas.

Elle teste, par contre, qualitativement, à l’échelle de ces 16 personnes, les conséquences de l’utilisation de l’IA générative sur leur productivité. Le METR explique avoir pioché les participants dans son réseau professionnel et dans les contributeurs de projets populaires sur GitHub. « Les développeurs sont des ingénieurs logiciels expérimentés (généralement plus d’une décennie d’expérience) et contribuent régulièrement à des dépôts que nous utilisons – en moyenne, ils ont 5 ans d’expérience sur leur dépôt, ce qui représente 59 % de la durée de vie du dépôt, au cours de laquelle ils ont effectué 1 500 modifications », expliquent les chercheurs du METR. En toute transparence, ils expliquent avoir payé chaque développeur 150 dollars de l’heure pour le motiver à participer à l’expérience.

En contradiction avec les prédictions des économistes, des experts en machine learning et des développeurs eux-mêmes

Et ils expliquent, qu’au final, « de manière surprenante, [ils constatent] qu’autoriser l’utilisation de l’IA augmente en fait le temps d’exécution de 19 % ». Le constat contredit les experts en économie interrogés par les chercheurs, qui prédisaient en moyenne une productivité améliorée de 39 %, mais aussi les experts en machine learning qui prédisaient une augmentation de 38 % de cette productivité.

Ce résultat contredit aussi ce que les développeurs qui ont participé pensent eux-mêmes. Avant l’expérience, ils pensaient que l’IA générative leur permettait une augmentation de 24 % de leur productivité. Mais, même après avoir participé, ils sont encore persuadés que ces outils leur permettent d’augmenter de 20 % leur productivité.

Remarquons que ces 19 % sont une moyenne dans un écart très important. Mais, dans cette expérience, la productivité avec les outils d’IA générative reste, au mieux, aussi élevée que sans. Au pire, elle baisse de 40 %.

Moins efficace surtout sur les tâches longues

Pour élaborer ces tests, le METR a demandé à ces développeurs de lui fournir une liste de problèmes à résoudre existants vraiment dans les dépôts sur lesquels ils travaillent et de les trier en fonction du temps qu’ils estimaient devoir prendre pour les résoudre (avec et sans assistance d’une IA).

Puis ils les ont laissés travailler, parfois avec assistance d’une IA (136 problèmes), parfois sans (110 problèmes), et soumettre leur travail à leurs collègues comme d’habitude avec un « pull request » dans les dépôts sur lesquels ils travaillent. Chaque développeur a donné le temps utilisé pour effectuer chaque tâche.

Finalement, ils ont globalement mis plus de temps (1,34 fois plus) pour corriger les problèmes quand ils étaient autorisés à utiliser les outils d’IA générative que quand ils ne l’étaient pas. Remarquons qu’ils avaient pourtant prévu que ce temps diminuerait en utilisant l’IA :

En plongeant un peu plus dans les données, on peut voir que, pour les tâches ne dépassant pas une heure, ils ont mis autant de temps avec ou sans IA. Mais que pour des tâches qui leur ont pris entre 1 et 6 heures, ils allaient finalement plus vite sans outil d’IA générative :

Le METR fournit aussi des données sur le temps passé pour chaque « activité » durant ce temps de développement :

Cette étude ne montre pas que l’IA générative n’augmente jamais la productivité des développeurs. Mais ses résultats suggèrent que les développeurs très expérimentés perdent du temps lorsqu’ils utilisent des outils d’IA générative pour coder, même s’ils pensent qu’ils vont améliorer leur productivité.

  •  

☕️ Caméras augmentées : les buralistes répondent à la CNIL

Ils accusent réception, mais n’en pensent pas moins. La Confédération des buralistes a réagi, mercredi 16 juillet, à l’avis rendu cinq jours plus tôt par la CNIL au sujet de l’utilisation de caméras « augmentées » censées permettre de déterminer automatiquement si une personne est mineure afin de faciliter les contrôles d’âge pour la vente de tabac.

« Considérées depuis leur lancement comme un outil d’aide à la décision pour faciliter la demande d’un titre d’identité et ainsi prouver sa majorité, les caméras augmentées constituent avant tout un élément dissuasif auprès des mineurs, qui ne manquent pas de ressources pour s’approvisionner », fait valoir la fédération dans un communiqué.

« La Confédération des buralistes et les sociétés commercialisant des caméras augmentées tâcheront de prendre en compte l’avis de la CNIL afin de respecter le souhait des personnes ne souhaitant pas être filmés dans le point de vente », ajoute-t-elle.

Les buralistes ne précisent cependant pas comment se fera cette « prise en compte ». Installées au niveau de la caisse dans les bureaux de tabac, ces caméras augmentées sont censées analyser l’image des clients, sans la stocker, puis émettre une lumière verte si la personne est considérée comme majeure, ou une lumière rouge si ses traits laissent supposer qu’elle a moins de 18 ans.

La Confédération des buralistes illustre son propos avec la caméra MyCheckr Mini, commercialisée en France par la société Bergens

Dans son avis du 11 juillet dernier, la CNIL avait estimé que ce traitement automatisé n’était ni nécessaire, ni proportionné aux enjeux, notamment parce que la caméra ne peut de toute façon pas se substituer à un contrôle de l’âge sur base de pièce d’identité.

Aucune sanction n’a été envisagée à ce stade. Interrogée par l’AFP, la Commission a précisé qu’en « l’absence de plainte de personnes concernées, à ce jour, la CNIL souhaite laisser le temps aux buralistes concernés de se mettre en conformité ».

D’après la Confédération des buralistes, dont le communiqué est illustré par l’image d’une caméra MyCheckr Mini, vendue par la société Bergens, la caméra augmentée serait déjà déployée chez « 1 000 buralistes de France ».

  •  

☕️ Google lancera sa gamme Pixel 10 le 20 août

Nouvel été, nouvelle gamme de smartphones en approche chez Google. Un an après le lancement des Pixel 9, Google s’apprête à remettre le couvert avec des appareils aux entrailles renouvelées.

Selon l’état actuel des rumeurs et autres fuites supposées, Google ne toucherait pas ou presque pas au design de ses smartphones, préférant se concentrer sur les composants. Le cœur des Pixel serait alimenté par une puce Tensor de cinquième génération, gravée en 3 nm. Le Pixel 10 Pro embarquerait trois caméras à l’arrière, comme sur l’actuel Pixel 9 Pro, tandis que le nouveau Fold obtiendrait la précieuse certification IP68 pour la résistance à l’eau et à la poussière.

La gamme Pixel 9 actuelle

Sans surprise, ces Pixel 10 devraient faire la part belle à l’IA, avec un renforcement des capacités de calculs et toute une liste de nouvelles fonctions. Ce serait particulièrement le cas avec l’édition vidéo.

Google profiterait de l’évènement pour lancer une nouvelle montre Pixel Watch. Selon les rumeurs, elle serait plus épaisse que le modèle actuel, pour y caser une batterie plus volumineuse. Une direction inverse à celle d’Apple, dont la dernière Watch était plus fine, avec des optimisations logicielles pour maintenir l’autonomie existante.

  •  

Firefox 141 pour Windows intègrera l’API WebGPU

En retard, mais pas le dernier
Firefox 141 pour Windows intègrera l’API WebGPU

La prochaine version du navigateur, prévue pour le 22 juillet, prendra en charge une API graphique dont le développement est le fruit d’un effort collectif. Bien que Chrome en soit doté depuis longtemps, l’arrivée de WebGPU dans Firefox reste un petit évènement.

« Après des années de développement, nous allons lancer WebGPU sur Windows dans Firefox 141 ! », s’est exclamé hier l’équipe Mozilla GFX. Cette API, qui prend la suite de WebGL, fournit un accès beaucoup plus direct aux capacités des GPU. À la clé, des améliorations importantes de performances, aussi bien sur les calculs graphiques que sur d’autres liés à l’IA, dont l’inférence.

Millefeuille graphique

Cette interface de programmation est le fruit d’un effort conjoint au sein du W3C et réunissant des entreprises comme Mozilla, Apple, Intel et Microsoft, l’ensemble étant largement tracté par Google. L’objectif était de donner aux navigateurs un accès plus moderne au matériel, dans le sillage des API de bas niveau apparues sur les différentes plateformes. WebGPU dépend d’ailleurs de ces dernières, en fournissant un lot de capacités, selon son implémentation bien sûr.

L’ensemble n’est pas si simple. Sur toute plateforme, on trouve ainsi le pilote responsable de l’exploitation du GPU. Charge à lui d’exposer de transmettre les instructions à la puce. Au-dessus, l’API graphique native (Vulkan sur Linux par exemple) est une autre brique essentielle. Dans un système d’exploitation, elle expose les capacités, dans lesquelles les applications vont venir piocher. Puis vient WebGPU dans le navigateur ou, plus précisément, son implémentation. C’est elle qui créera des appareils logiques (logiciels) pour chaque application en ayant besoin.

Si vous utilisez Chrome ou un navigateur basé sur Chromium, vous pouvez déjà observer les possibilités de WebGPU via le site dédié. Chrome fournit en effet cette capacité depuis deux ans. Pourquoi tout ce temps chez Mozilla ? On ne sait pas exactement, mais Google y a consacré davantage de moyens, la plateforme web représentant le cœur de ses activités. Apple, bien qu’ayant participé au développement de l’API, ne l’intègrera que dans Safari 26 cet automne.

Il reste « beaucoup de travail »

Selon Mozilla, WebGPU est une API « vaste et complexe ». Les effets ont été concentrés assez logiquement sur les fonctions les plus évidentes, afin « que les applications et démonstrations WebGPU à haute visibilité fonctionnent sans problème ». Selon Mozilla, tout devrait donc bien se passer dans la plupart des cas.

L’équipe explique également qu’il reste « beaucoup de travail », aussi bien sur les performances que la conformité avec la spécification. Par exemple, le navigateur utilise une communication inter-processus sans tampon pour transmettre les requêtes à la sandbox du GPU. Ce problème a déjà été corrigé, mais la solution ne sera déployée que dans Firefox 142, avec des gains significatifs de performances.

En outre, le navigateur ne dispose pas d’un moyen moderne de savoir quand un GPU a terminé une opération et introduit des intervalles pour vérifier, ce qui entraine des latences. Les développeurs se penchent actuellement sur le problème et explorent diverses solutions. De même, Firefox ne prend pas encore en charge la méthode importExternalTexture de WebGPU, qui permet au GPU la lecture vidéo décompressée directement depuis le décodeur.

Windows d’abord, les autres d’ici la fin de l’année

Le support de WebGPU ne sera également disponible que pour Windows lorsque Firefox 141 sera disponible le 22 juillet. Une question de priorité pour Mozilla : c’est là que se trouve l’écrasante majorité des utilisateurs. L’équipe précise cependant que des versions Mac et Linux sont prévues « dans les mois à venir » et qu’il est possible de les tester dans le canal Nightly du navigateur. Le support sera aussi étendu à Android.

Enfin, Mozilla indique que l’implémentation de WebGPU dans Firefox est basée sur WGPU, un projet indépendant et écrit en Rust. Il permet d’offrir une interface unifiée pour exposer les capacités sous-jacentes des API bas niveau en fonction de la plateforme utilisée : Direct3D 12 sur Windows, Metal sur macOS et Vulkan sur Linux. Mozilla contribue activement au projet, évoque une communauté très vivante et invite les personnes intéressées à se pencher sur WGPU pour participer à son développement.

  •  

Coup de filet sur le collectif NoName057 (16), spécialiste des attaques DDoS

Faceless Men of Braavos
Coup de filet sur le collectif NoName057 (16), spécialiste des attaques DDoS

Les forces de police européennes ont annoncé mercredi le démantèlement du botnet utilisé par le collectif hacktiviste pro-russe « NoName057 (16) », doublé de plusieurs interpellations. Plusieurs centaines de sympathisants ont également été notifiés via Telegram de leurs éventuelles responsabilités au regard de la loi.

L’inspecteur Harry aurait certainement apprécié. C’est en effet sous le nom de code « Opération Eastwood » qu’Europol et les autorités de plusieurs pays européens ont annoncé mercredi 16 juillet avoir réussi à démanteler l’essentiel des infrastructures et des équipes mises en œuvre au sein du collectif « NoName057 (16) ».

Un botnet (partiellement ?) démantelé

L’action coordonnée des forces de l’ordre s’est déroulée entre le 14 et le 15 juillet, décrit Europol, avec des descentes organisées dans plusieurs pays. Au total, 24 perquisitions ont été réalisées, dont une en France.

Elles ont conduit à deux arrestations, en France et en Espagne, ainsi qu’à sept mandats d’arrêts, 13 interpellations, et la prise de contrôle sur « plus de 100 serveurs », répartis dans le monde entier. D’après l’organisation de coopération policière européenne, c’est cette infrastructure informatique qui constituait l’épine dorsale des attaques orchestrées par NoName057 (16).

« Plusieurs centaines de sympathisants du groupe hacktiviste, encore non formellement identifiés, ont été informés des mesures officielles via Telegram, leur service de messagerie, et ont été sensibilisés à la responsabilité pénale encourue pour leurs actes », précise de son côté la juridiction nationale de lutte contre la criminalité organisée (Junalco) dépendant du parquet de Paris.

Le collectif, notoirement spécialisé dans les attaques par déni de service distribué (DDoS), utilisait en effet Telegram pour annoncer ses opérations, et fédérer des sympathisants susceptibles de joindre leurs propres ressources à celles de ses infrastructures informatiques, que ces dernières soient gérées en propre ou mobilisées à l’insu de leurs propriétaires par l’intermédiaire de malwares.

Le nom NoName057(16) est apparu à plusieurs reprises dans l’actualité cyber des derniers mois, en raison de vagues d’attaques lancées contre les sites Web de collectivités locales ou d’institutions nationales, en France mais aussi en Belgique ou en Roumanie à l’occasion des récentes élections présidentielles.

Un collectif hacktiviste pro-russe et pas désintéressé

À chaque fois, NoName057(16) accompagne ses appels à l’action de justifications pro-russes, souvent formulées en réaction à des actions de soutien à l’Ukraine. L’opération Eastwood confirme qu’il existe bien un lien idéologique entre le régime de Vladimir Poutine et les attaques menées par le collectif. Six des sept mandats d’arrêt émis par Europol concernent d’ailleurs des ressortissants russes.

« Les individus agissant pour NoName057(16) sont principalement des sympathisants russophones qui utilisent des outils automatisés pour mener des attaques par déni de service distribué (DDoS). Agissant sans direction officielle ni compétences techniques pointues, ils sont motivés par l’idéologie et la recherche de récompenses », décrit Europol.

À défaut d’une tête pensante identifiée, le mouvement semblait tout de même fonctionner de façon structurée, puisqu’il aurait fédéré jusqu’à 4 000 sympathisants actifs. Pour inciter ces derniers à participer aux attaques, NoName057(16) aurait rétribué certains membres en cryptomonnaies, et déployé des mécaniques dites de gamification (inspirées du jeu), comme un système de badges ou des tableaux de score pensés comme autant d’éléments de reconnaissance virtuelle.

« Pour diffuser des appels à l’action, des tutoriels, des mises à jour et recruter des bénévoles, le groupe a exploité des canaux pro-russes, des forums et même des groupes de discussion spécialisés sur les réseaux sociaux et les applications de messagerie. Les bénévoles invitaient souvent des amis ou des contacts issus de forums de jeux vidéo ou de piratage informatique, formant ainsi de petits cercles de recrutement », décrit encore Europol.

Toujours dans cette optique de recrutement, NoName057(16) est également soupçonné d’avoir orchestré la création de DDoSIA, une boîte à outils permettant de participer à des attaques par déni de service, même sans connaissance technique pointue.

Les éléments d’enquête rendus publics ne disent cependant rien, à ce stade, des éventuelles retombées économiques associées au mouvement. NoName057(16) n’agissait pas qu’en compte propre : comme d’autres groupes pirates, le mouvement était aussi susceptible de travailler à la commande. En Allemagne, il aurait, d’après les autorités, participé à 14 vagues d’attaques ayant ciblé plus de 250 acteurs différents, dans le privé comme dans le public.

  •  

☕️ Orange Business décroche la qualification SecNumCloud pour son offre IaaS

Orange Business, division services numériques de l’opérateur éponyme, a annoncé mercredi 16 juillet l’obtention de la qualification SecNumCloud pour son offre d’infrastructure as a service (IaaS) « Cloud Avenue SecNum ».

« Conçue avec une architecture modulaire et une approche « as a service », la plateforme permet aux utilisateurs d’accroître leur autonomie et leur maîtrise technologique. Elle intègre nativement des mesures de sécurité telles que le chiffrement, la gestion des clés, l’isolation réseau et le contrôle d’accès, tout en assurant une traçabilité exhaustive des actions et la sécurité physique, environnementale et opérationnelle », revendique l’entreprise dans un communiqué.

La plateforme « SecNum » est déployée et opérée depuis le data center dont dispose l’opérateur à Grenoble, et « gérée par nos équipes françaises ». D’un point de vue commercial, elle s’intègre dans la gamme plus large des offres Cloud Avenue d’Orange Business, qui vise le monde des entreprises au sens large en s’appuyant sur des infrastructures européennes.

Orange Business rejoint ainsi le cercle relativement fermé des opérateurs cloud labellisés SecNumCloud, alors même que cette qualification, centrée sur la sécurité, revient régulièrement dans le débat public comme un marqueur de souveraineté numérique, même si ça n’est pas sa raison d’être.

Au 30 juin 2025, huit acteurs français pouvaient se revendiquer de la qualification SecNumCloud attribuée par l’ANSSI après audit de leurs offres. Orange Business devient le neuvième nom de la liste, en attendant que d’autres professionnels du secteur bouclent le processus de certification, à l’image de Scaleway. Bleu, le « cloud de confiance » d’Orange et Capgemini basé sur des solutions Microsoft (Azure et 365) est également engagé dans la démarche, avec un jalon J0 déjà validé, tout comme son concurrent S3ns, avec Thales et Google à la manœuvre.

L’offre « Cloud Avenue SecNum » d’Orange Business complètera bientôt cette liste, arrêtée au 30 juin dernier (source)
  •  

SFR lance une « Box 5G avec TV » et une « RED Box 5G » en alternative à la fibre

Radio, someone still loves you
SFR lance une « Box 5G avec TV » et une « RED Box 5G » en alternative à la fibre

SFR muscle son jeu dans le domaine de l’accès à Internet résidentiel via les réseaux mobiles. L’opérateur au carré rouge lance en effet une offre « triple play » basée sur sa Box 5G, incluant donc l’accès à la TV, ainsi qu’une formule plus abordable sous les couleurs de sa marque low cost, RED by SFR.

La 5G est désormais proposée comme une alternative à l’ADSL ou à la fibre pour l’accès à Internet chez les quatre principaux opérateurs grand public français. Chez SFR, qui commercialise depuis août 2024 sa Box 5G, la formule s’enrichit désormais d’une possibilité d’appels illimités vers les fixes et les mobiles en France et départements d’outre-mer, ainsi que d’un bouquet de 160 chaînes de TV, accessibles au travers d’un décodeur dédié.

Un triple play en 5G

Baptisée « SFR Box 5G avec TV », la formule reprend donc tous les attributs d’un forfait triple play, mais sans qu’une intervention à domicile ou un tirage de ligne soit nécessaire. « L’offre SFR Box 5G avec TV est une alternative aux offres Fibre et s’adapte aux éventuelles contraintes des foyers pour leur fournir la meilleure qualité de service possible et leur laisser le choix de la technologie Très Haut Débit », vante l’opérateur dans un communiqué.

En pratique, la formule est facturée 44,99 euros par mois, sans engagement. La principale différence avec la formule Box 5G standard réside dans la fourniture d’un décodeur Connect TV (sous Android TV), qui assure donc l’affichage du bouquet de chaînes directement sur l’écran du salon. L’offre Box 5G, toujours disponible à 39,99 euros par mois, offre elle aussi 160 chaînes de télévision, mais uniquement au travers de l’application mobile dédiée de l’opérateur.

Si l’on écarte l’ajout de ce décodeur, l’offre Box 5G avec TV reprend pour le reste l’essentiel du forfait déjà commercialisé depuis près d’un an, à savoir une connexion censée pouvoir atteindre 1,1 Gb/s en téléchargement et jusqu’à 150 Mb/ en émission, avec une box compatible Wi-Fi 6 munie de trois ports Ethernet à 1 Gb/s.

Les frais d’ouverture de service sont fixés à 19 euros (prélevés sur la première facture) et il en coûtera également 19 euros de lancer une demande de résiliation. SFR ne fixe aucune restriction d’usage liée à la télévision, opérée comme un service managé sur son réseau. Concernant l’accès à Internet, l’opérateur reprend la traditionnelle notion de fair use déjà en vigueur sur l’offre Box 5G sans TV :

« En cas d’usages en continu fortement consommateurs de bande passante (de type peer-to-peer ou
téléchargement par exemple) de nature à saturer le réseau sur une zone donnée, et pouvant nuire aux utilisateurs SFR sur cette zone, le client sera notifié par SMS ou email de son usage déraisonnable. En cas de récidive suite à cette notification, le client verra son débit réduit jusqu’à la prochaine date de facturation.
 »

La combinaison de forfaits fixes ou mobiles au sein d’un même foyer, appelée SFR Multi, permet d’espérer jusqu’à 8 euros de réduction par mois, tandis que l’opérateur intègre à son offre six mois d’accès gratuit à Prime Video, Netflix ou Disney+.

Le bouquet de streaming choisi n’est offert que pendant six mois

Avant de souscrire l’offre, il faudra toutefois vérifier que l’adresse de son foyer est éligible, c’est-à-dire considérée comme suffisamment bien couverte en 5G.

RED by SFR a aussi sa Box 5G

En parallèle des deux forfaits aux couleurs du carré rouge, l’opérateur introduit une version plus accessible de son offre, avec le lancement de la RED Box 5G. On retrouve des débits identiques (1,1 Gb/s en montant, 150 Mb/s en descendant), mais avec un forfait affiché cette fois à 29,99 euros par mois, toujours sans engagement. Cette fois, les appels illimités ne sont cependant pas inclus : ils exigent la souscription d’une option à 5 euros par mois. RED by SFR applique par ailleurs aussi 19 euros de frais d’ouverture de ligne, et des frais de résiliation portés à 29 euros.

Ici, les conditions d’éligibilité sont moins strictes, puisque l’offre fonctionne également dans les zones couvertes en 4G.

SFR Box 5G face à la concurrence

Rappelons qu’en face, la Box 5G de Free – fabriquée par Nokia, modèle FastMile 5G – dispose d’un port Ethernet à 2,5 Gb/s (on vous a récemment proposé un dossier sur comment passer à un réseau local à 2,5 Gb/s), de deux autres à 1 Gb/s et d’un port USB 3.1 Type-C. La Box 5G est annoncée à 39,99 euros par mois, sans engagement, avec une remise de 10 euros par mois la première année. Les clients Box 5G peuvent également profiter de Free Family sur le mobile : un Forfait 2 € à 0 euro par mois ou jusqu’à 4 Forfaits Free 5G à 9,99 € euros par mois pendant 1 an, puis 15,99 euros (au lieu de 19,99 euros). Il faut enfin ajouter des frais de mise en service de 29 euros et des frais de résiliation de 19 euros au moment de partir.

La 5G Box de Bouygues Telecom est pour rappel Wi-Fi 6 avec des débits maximums de 1,1 Gb/s et 58 Mb/s respectivement. Elle est proposée à 40,99 euros par mois sans engagement, ou 44,99 euros avec « plus de 180 chaînes et 30 replays sur TV grâce à la clé B.tv ».

Chez Orange, la 5G+ Home est à 42,99 euros par mois (sans engagement), avec du Wi-Fi 6 et un débit descendant de 1 Gb/s (Orange ne précise pas le débit montant). Là aussi, la TV est en supplément : « plus de 100 chaînes de la TV d’Orange sur ordinateur, tablette ou mobile avec l’appli TV. En option sur téléviseur avec la Clé TV ou avec l’option TV d’Orange sur TV Connectée, à 5 euros par mois chacune ».

  •  

L’open data des décisions de justice sérieusement remis en question

Fermez-moi tout ça !
L’open data des décisions de justice sérieusement remis en question

Un rapport remis au ministre de la Justice, Gérald Darmanin, émet six propositions de modification des conditions de publication des décisions de justice qui sont, depuis peu, diffusées en open data. Des informations comme les noms et prénoms des personnes physiques, mais aussi les noms d’entreprises mentionnées seraient occultées.

Ce vendredi 11 juillet, le conseiller honoraire à la Cour de cassation Daniel Ludet a remis au ministre de la Justice, Gérald Darmanin, son rapport sur l’open data des décisions de justice. Ce rapport, en ligne depuis le 15 juillet [PDF], remet fortement en question la diffusion de certaines informations qui permettent au public d’être informé et aux journalistes (entre autres) de faire leur travail.

Gérald Darmanin cadrait, dès sa lettre de mission, le travail du conseiller et de son équipe en leur demandant de « proposer des recommandations relatives notamment :

  • à l’occultation des informations relatives à l’identification des magistrats, personnels de greffe et plus largement tous professionnels de justice ;
  • au respect des secrets protégés par la loi dans les décisions, notamment liés à la protection d’intérêts économiques ;
  • au modèle de financement de l’open data au regard des ressources déployées. »

Rappelons que l’open data des décisions de justice est prévue depuis 2019 dans le code de l’organisation judiciaire. Ainsi, l’article 111 - 13 de ce code indique que, « sous réserve des dispositions particulières qui régissent l’accès aux décisions de justice et leur publicité, les décisions rendues par les juridictions judiciaires sont mises à la disposition du public à titre gratuit sous forme électronique ».

Un open data des décisions de justice qui se met tout juste en place

Le rapport explique que « la loi du 23 mars 2019 de programmation 2018 - 2022 et de réforme pour la justice a précisé et complété cet article en prévoyant notamment que les noms et prénoms des personnes physiques mentionnées dans la décision, lorsqu’elles sont parties ou tiers, sont occultés préalablement à la mise à disposition du public ».

La Cour de cassation a été la première institution judiciaire à appliquer l’open data de ses décisions. Elle a même développé un outil de pseudonymisation utilisant le machine learning pour que les décisions publiées soient lisibles de façon intelligible tout en ne publiant pas les informations personnelles protégées dans le cadre de cette loi.

Concernant le personnel judiciaire, le rapport ajoute que « le principe de la mention du nom des magistrats et des membres du greffe est retenu. Il est toutefois prévu que, « lorsque sa divulgation est de nature à porter atteinte à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage, est également occulté tout élément permettant d’identifier les parties, les tiers, les magistrats et les membres du greffe » ». L’équipe rédactrice du rapport commente : « ainsi, un magistrat ou un membre du greffe ne peut obtenir l’occultation de son nom, notamment, que dans le cadre d’une démarche individuelle s’appuyant sur des éléments particuliers de sa situation ».

Protection des magistrats mais aussi secrets des entreprises

Mais, sans donner de contexte détaillé, elle estime qu’il existe un « climat de critiques très vives de la justice, de ses décisions et de ceux qui la servent » et évoque des « insultes et de menaces proférées le plus souvent par le canal de réseaux sociaux et visant nommément des magistrats et d’autres professionnels de justice ». Ceci expliquerait donc la volonté de modifier l’encadrement judiciaire concernant la mention des noms du personnel judiciaire.

Le rapport ne se borne pas à vouloir mieux protéger les magistrats et membres du greffe. Ainsi, il explique qu’ « avant même que les décisions des tribunaux de commerce ne rentrent dans l’open data, l’attention a été appelée par des acteurs de la justice commerciale relayés par le MEDEF et la CPME, sur les inconvénients importants, pour les entreprises, de voir des éléments « sensibles » de leur organisation et de leur fonctionnement ainsi que des secrets inhérents à leur activité ou légalement reconnus, largement accessibles, en particulier à travers les décisions rendues dans le domaine des « procédures collectives » concernant les entreprises en difficulté ».

Le rapport remet aussi en question « le principe de gratuité de la mise à disposition des décisions » en évoquant « une période de fortes contraintes pesant sur les finances publique » alors qu’ « en même temps », il fait le constat « d’activités lucratives, florissantes, d’entreprises concevant et vendant des produits dont l’élaboration tire profit de la révolution technologique permanente et dont la matière provient précisément de ces décisions de justice accessibles à tout public ».

Crescendo vers une restriction de plus en plus forte des informations publiées

L’équipe en charge du rapport fait quatre premières propositions de modification de l’article 111 - 13 au ministre de la Justice, allant crescendo vers une restriction de plus en plus forte des informations publiées. Elle préconise, dans sa première proposition, que l’article « devrait mentionner que les noms et prénoms des personnes physiques sont occultés préalablement à la mise à disposition du public » mais, dans sa deuxième proposition, elle suggère que ça soit aussi le cas pour « la dénomination sociale des sociétés mentionnées dans la décision ».

Elle ajoute même, dans sa troisième proposition que « les occultations préalables à la mise à disposition du public devraient comprendre également les adresses et les localités, les dates relatives à l’état des personnes et les chaînes de caractères directement identifiantes mentionnées dans la décision, ainsi que ses motifs lorsque la décision a été rendue en chambre du conseil ».

Sa quatrième proposition ajoute « l’occultation complémentaire de tout élément dont la divulgation est de nature à porter atteinte non seulement à la sécurité ou au respect de la vie privée de ces personnes, mais aussi au secret en matière industrielle ou commerciale lorsqu’il s’agit d’entreprises, ainsi qu’à d’autres secrets légalement protégés ».

Toutes ces informations sont pourtant importantes pour informer le public d’éventuelles condamnations d’entreprises et de connaître leur contexte.

Le rapport propose, sans le dire réellement, de tourner la page de l’open data de décisions de justice et de ne laisser accéder aux données importantes qu’aux personnes et entreprises qui s’engageraient devant la Cour de cassation à des conditions fixées par des conventions. La cinquième proposition du rapport ouvrirait l’accès de ces données à des « utilisateurs pour les besoins de leur activité professionnelle ou économique, dans le cadre de conventions, conclues avec la Cour de cassation, et qui précisent les obligations des intéressés quant aux garanties entourant la réutilisation des décisions, la diffusion de décisions à des tiers, et la préservation des secrets légalement protégés auxquels elles pourraient donner accès ».

Dans sa sixième « proposition », le rapport reconnait qu’il y a besoin que se « prolonge la réflexion, notamment, sur la nécessaire articulation du régime de délivrance des copies aux tiers avec celui de l’open data et sur l’applicabilité ou non du principe de gratuité à la mise à disposition d’utilisateurs de flux spéciaux de décisions de justice intègres ou plus intègres, d’où découlera la nécessité ou non d’une modification de la loi ».

  •  

☕️ Avec Voxtral, Mistral a son premier modèle audio open source

Mistral a présenté hier soir son Voxtral, premier modèle audio open source de l’entreprise française. Il entre directement en compétition avec des produits très installés, comme le fameux modèle Whisper d’OpenAI, déjà présent depuis plusieurs années.

Mistral veut essentiellement faire la différence sur deux aspects : le tarif et les performances. Mistral vante ainsi une solution efficace et commercialisée pour « moins de la moitié du prix » des solutions comparables.

Le modèle se décline en trois variantes. La première, Voxtral Small, embarque 24 milliards de paramètres et vise les grands déploiements. Elle est directement placée en face de Whisper et GPT-4o d’OpenAI, Scribe d’ElevenLabs et Gemini 2.5 Flash de Google. La seconde, Voxtral Mini, comprend 3 milliards de paramètres et vise les déploiements locaux et périphériques. Enfin, Voxtral Mini Transcribe est une version encore plus réduite, dédiée aux opérations de transcription.

Selon Mistral, Voxtral peut « comprendre » (grâce à Mistral Small 3.1) jusqu’à 40 min de contenu audio, permettant de poser des questions sur les informations qu’il renferme, de générer des contenus et autres fonctions que l’on attend aujourd’hui de ce type de traitement. La transcription peut se faire sur un maximum de 30 min (32 000 jetons). Voxtral est multilingue, prenant en charge le français, l’anglais, l’espagnol, le portugais, l’hindi, l’allemand, l’italien et le néerlandais.

Toujours selon l’entreprise française, l’API de Voxtral est accessible dès 0,001 dollar la minute de traitement, un tarif assez agressif. En outre, Voxtral sait « déclencher directement des fonctions de backend, des flux de travail ou des appels d’API en fonction des intentions de l’utilisateur, en transformant les interactions vocales en commandes système exploitables sans étapes d’analyse intermédiaires ».

Les modèles Voxtral (24B) et Voxtral Mini (3B) peuvent être téléchargés gratuitement depuis Hugging Face. Les fonctions vocales seront également déployées dans Le Chat pour l’ensemble des utilisateurs « au cours des prochaines semaines ».

  •  

Musée des horreurs de l’antitrust et double record pour l’Autorité de la concurrence

Musée des horreurs de l’antitrust et double record pour l’Autorité de la concurrence

Benoît Cœuré, président de l’Autorité de la concurrence, résume 2024 en une phrase : « une année historique […], qu’il s’agisse des sanctions prononcées ou du nombre d’opérations de concentrations autorisées ».

Commençons par les présentations générales. En 2024, l’Autorité de la concurrence comprend 201 agents pour un budget de 25,3 millions d’euros, contre respectivement 199 agents et 24,3 millions en 2023 et quasiment la même chose en 2022. 2023 était toutefois un « mauvais » cru pour les sanctions avec 167,6 millions d’euros.

En 2024, l’Autorité de la concurrence a prononcé huit décisions de sanctions : six pour des ententes, une pour abus de position dominante et une dernière au groupe Loste pour obstruction lors des opérations de visite et de saisies. Ambiance…

Record d’amende : 1,4 milliard d’euros

Le montant total des sanctions est de 1,4 milliard d’euros, dont un peu moins de la moitié (611 millions d’euros) pour une seule affaire. Elle concerne des ententes dans l’électroménager afin de maintenir des prix de vente plus élevés : BSH, Candy Hoover, Eberhardt, Electrolux, Indesit (passé aux mains de Whirlpool), LG, Miele, SEB, Smeg, Whirlpool, Boulanger et Darty sont concernés.

Une autre affaire d’entente sur les prix sanctionne Schneider Electric, Legrand ainsi que les distributeurs Rexel et Sonepar. Ils écopent de 470 millions d’euros. La troisième marche du podium est occupée par Google sur les droits voisins, avec une sanction de 250 millions d’euros. Les autres affaires se partagent les restes.

L’Adlc en profite pour rappeler que, en Europe, « les pratiques anticoncurrentielles génèrent des hausses de prix moyennes de 17 % ».

« Le taux de recouvrement des sanctions est très élevé et atteint généralement les 100 %. Versées à l’État, elles entrent dans le budget général et contribuent ainsi au financement de dépenses d’intérêt général (éducation, justice, hôpitaux…) », explique l’Autorité.

Sur le marché des opérations, l’activité était intense en 2024, avec un autre record : 295 opérations, soit une hausse de 10 % par rapport au précédent pic de 2021. Dans 97 % des cas, les opérations ont été autorisées sans engagements.

L’IA sur tous les fronts, l’AdlC sur le front de l’IA

Sur l’intelligence artificielle, l’Autorité se félicite d’être l’une des premières « à sanctionner
une entreprise pour une pratique liée à l’entraînement d’un modèle d’intelligence artificielle
 ». Dans une interview au Figaro reprise dans le bilan, Benoit Cœuré expliquait que « l’industrie de l’intelligence artificielle générative a le potentiel de devenir le musée des horreurs de l’antitrust si on ne fait rien ». Les sujets liés à IA sont nombreux, avec les droits voisins, la protection des données, etc.

2025 est placée sous le signe de l’IA et de l’énergie. L’Autorité se penchera sur les problématiques « concurrentielles liées aux besoins spécifiques de l’IA en termes énergétiques ainsi qu’à l’impact des modèles utilisant moins de ressources ».

  •  

☕️ Blender 4.5 LTS bénéficie désormais d’un backend Vulkan prêt pour la production

Quatre mois après Blender 4, la version 4.5 du logiciel de modélisation 3D est prête à prendre le relai. La version est particulièrement importante : non seulement elle est LTS (support de deux ans, jusqu’en juillet 2027), mais elle contient une grande liste de nouveautés et améliorations.

Parmi les apports, la prise en charge de l’API Vulkan fait un bond. Bien que le backend OpenGL soit toujours utilisé par défaut, Vulkan est considéré comme prêt pour la production, avec des améliorations notables : meilleures performances, support d’OpenXR, de Subdivision ou encore d’USD/Hydra, etc. Certaines limitations l’empêchent toujours d’être utilisé par défaut, dont des performances moindres en réalité virtuelle et dans la gestion des très grands maillages.

Les autres améliorations sont nombreuses. On peut citer le support de l’inclinaison de la tablette graphique et du défilement horizontal dans l’interface, des versions plus grandes des curseurs de souris (24 x 24 et 32 x 32) pour les écrans HiDPI sur Wayland et X11, un opérateur pour créer de nouveaux groupes vides de nœuds, un import facilité des paramètres, l’utilisation par défaut du multithread pour la compilation des shaders, ou encore de nouveaux nœuds comme Vector Math, Vector Rotate et Vector Mix.

On note également des changements majeurs dans le support de certains matériels. Blender 4.5 est ainsi la dernière version à supporter les Mac Intel. La fondation Blender cite en effet le cout désormais élevé de la maintenance sur ces machines. Le support de big-endian est de son côté considéré comme obsolète. Il sera totalement supprimé dans Blender 5.

  •  

☕️ Meta AI a permis à n’importe qui de lire n’importe quel prompt et réponse

Le lendemain de Noël 2024, Sandeep Hodkasia a signalé un bug à Meta montrant que l’entreprise de Mark Zuckerberg ne protégeait pas les conversations entre son IA générative et ses utilisateurs, explique TechCrunch.

Il a trouvé le problème en analysant la fonctionnalité permettant aux utilisateurs de Meta AI d’éditer leurs prompts pour regénérer un texte ou une image. Dans les informations données par son navigateur, le créateur de l’entreprise de sécurité AppSecure a constaté qu’en modifiant un simple identifiant unique, les serveurs de Meta lui retournaient les prompts et réponses d’autres utilisateurs. Meta ne vérifiait pas l’identifiant de l’utilisateur avant de lui renvoyer les informations.

Facebook headquarters in Menlo Park, California, photo Greg Bulla

Meta a payé Sandeep Hodkasia 10 000 dollars pour l’identification de ce bug corrigé un mois après. L’entreprise a confirmé à nos confrères le bug et sa résolution et a expliqué « n’avoir trouvé aucune preuve d’utilisation malveillante et avoir récompensé le chercheur ».

  •  

☕️ Apple engage 500 millions de dollars pour sécuriser aimants et terres rares made in USA

Apple a annoncé mardi un « engagement » de 500 millions de dollars destiné à soutenir les activités et la politique d’investissement de MP Materials, opérateur d’une mine de terres rares située en Californie, mais aussi d’une usine de transformation installée à Fort Worth, au Texas, ce qui en ferait le premier acteur « intégré » du secteur aux États-Unis.

Cet accord – le premier du genre selon Apple – doit permettre à MP Materials d’augmenter significativement ses capacités, tout en assurant à la firme de Cupertino un approvisionnement garanti en aimants et terres rares, indispensables à la fabrication des centaines de millions d’iPhone, iPad et ordinateurs Mac vendus chaque année.

L’enveloppe annoncée doit notamment soutenir l’agrandissement de l’usine MP Materials de Fort Worth, et la création de lignes de production d’aimants néodyme dédiées à Apple.

Elle a également vocation à participer à la création d’une nouvelle usine, de recyclage cette fois, installée à Moutain Pass, en Californie, à proximité immédiate de la mine exploitée par MP Materials. D’après les deux entreprises, cette usine traitera à la fois les rebuts industriels et les matériaux extraits d’appareils électroniques en fin de vie, dans le but d’assurer une seconde vie aux terres rares.

La mine de Mountain Pass en 2022 – crédit MP Materials

« Depuis près de cinq ans, Apple et MP Materials pilotent une technologie de recyclage avancée qui permet de transformer des aimants en terres rares recyclés en un matériau répondant aux normes rigoureuses d’Apple en matière de performance et de conception », affirment les deux partenaires.

Apple revendique l’usage d’aimants recyclés à l’intérieur de l’iPhone depuis le Taptic Engine de l’iPhone 11 en 2019. Aujourd’hui, l’entreprise indique sans plus de précision que « presque tous les aimants des appareils Apple sont fabriqués à partir d’éléments de terres rares 100 % recyclés ».

Cet accord intervient cinq jours après que MP Materials a annoncé un accord public privé sans précédent avec le département de la Défense des États-Unis. Cette fois, l’engagement se compte en milliards de dollars sur dix ans, avec des fonds qui se ventilent entre promesses d’achat à prix minimum garanti (110 dollars le kilo), garanties de débouchés commerciaux, prêts à taux avantageux pour favoriser les investissements, etc.

  •  

☕️ Aylo bloque à nouveau Youporn, Pornhub et Redtube en France

Aylo (ex Mindgeek), éditeur de trois parmi les plus importants carrefours d’audience au monde en matière de contenus pornographiques, a à nouveau mis en place le blocage de ses sites pour les internautes français.

Depuis la France, Youporn, Pornhub et Redtube sont remplacés par un nouveau message dans lequel l’éditeur s’insurge contre la façon dont la France a choisi de mettre en œuvre l’obligation de vérification de l’âge des internautes.

Aylo a conservé l’iconographie déjà utilisée début juin pour illustrer son blocage

La mise en ligne de cet écran et le blocage associé font suite à la publication, mardi, d’une décision du Conseil d’État qui rétablit la possibilité de bloquer les sites pornographiques si ces derniers n’ont pas répondu à l’exigence de mise en place d’un dispositif de vérification d’âge.

« Les contestations juridiques, les décisions et les revirements en cours mettent clairement en évidence une chose : l’absence de direction, l’absence de solution globale et, pour dire les choses simplement, le dysfonctionnement législatif », affirme l’éditeur de Pornhub, qui une nouvelle fois cherche à prendre à partie les utilisateurs de ses services :

« Votre gouvernement propose que nous vérifiions votre âge à chaque fois que vous visitez notre site. La dure réalité : Cette mesure ne protège pas les mineurs, elle met en péril la vie privée de chacun et met les enfants en danger, car elle conduit le trafic vers des milliers de sites qui contournent délibérément les réglementations, ne vérifient pas l’âge des participants dans les contenus et encouragent activement les utilisateurs à contourner la loi ».

Aylo avait déjà bloqué l’accès à ses sites en France début juin, avant de faire marche arrière quand le tribunal administratif de Paris avait ordonné la suspension de l’obligation de contrôle.

« Seuls des adultes identifiés devraient être autorisés à déverrouiller l’accès à des contenus inappropriés pour l’âge. La technologie nécessaire à cette fin existe aujourd’hui. Nous sommes déterminés à faire partie de cette solution et souhaitons collaborer avec les gouvernements, la société civile et les partenaires technologiques pour parvenir à une solution efficace de vérification de l’âge basée sur les appareils », affirme encore l’éditeur.

Ce nouveau rebondissement intervient alors que la Commission européenne vient de publier ses lignes directrices en matière de protection des mineurs sur Internet, et d’annoncer le développement d’un module de vérification destiné aux éditeurs, qui sera notamment testé par la France.

  •  

Meta annonce investir des centaines de milliards de dollars dans des datacenters pour l’IA

Titans sans Tartare
Meta annonce investir des centaines de milliards de dollars dans des datacenters pour l’IA

Dans une série de messages sur Threads, Mark Zuckerberg a annoncé « investir des centaines de milliards de dollars ». Meta veut accélérer l’agrandissement de son parc de datacenters : actuellement, l’entreprise utilise même des tentes pour étendre ses centres. Pourtant, leur installation a des conséquences pour le voisinage.

Sur son réseau social Threads, Mark Zuckerberg a annoncé, lundi 14 juillet, que son entreprise, Meta, va investir « des centaines de milliards de dollars » dans de nouvelles infrastructures de calcul pour l’intelligence artificielle. Cette annonce arrive après le débauchage par son entreprise de plusieurs spécialistes chez Apple, Anthropic, OpenAI ou Scale AI.

Meta a bien développé une famille de modèles de langage, Llama, qu’elle présente comme open source, même si bien des spécialistes critiquent cette appellation. Mais l’entreprise, qui avait parié sur le metaverse, s’est montrée moins à la pointe dans le développement de l’IA générative que ses concurrents comme OpenAI, Google ou Microsoft. C’était pourtant chez Facebook que l’un des pionniers du deep learning, Yann Lecun, avait posé ses pénates en 2013, donnant un boost au domaine.

Des « titans » demandant jusqu’à 5 GW de puissance

« Nous sommes en train de construire des clusters de plusieurs gigawatts », a expliqué de manière offensive Mark Zuckerberg sur Thread. « Nous avons baptisé le premier Prometheus et il sera mis en service en 2026 », a-t-il ajouté, « nous construisons également Hyperion, qui aura une puissance qui pourra aller jusqu’à 5 GW dans plusieurs années. Nous construisons également de nombreuses autres clusters de titans. L’un d’entre eux couvre une grande partie de l’empreinte de Manhattan ». Le CEO de Meta parle de datacenters « de titans » et les baptise de noms inspirés de ces divinités de la mythologie grecque, donnant une impression de gigantisme à ses centres de données.

Vendredi 11 juillet, SemiAnalysis expliquait que Meta mettait en place des parties de ses datacenters sous tentes pour accélérer leur expansion. L’entreprise a confirmé auprès de Business Insider, tout en précisant que ces tentes permettent seulement d’augmenter la capacité de datacenters existants. SemiAnalysis donnait aussi plus d’informations sur le projet Prometheus. « Lorsque le réseau électrique local n’a pu suivre, Meta s’est mis en mode Elon [Musk]. Avec l’aide de Williams [énergéticien étasunien, ndlr], ils construisent deux centrales au gaz naturel de 200 MW sur site », affirmait SemiAnalysis.

Comme nous l’expliquions récemment, ces gros datacenters ne cherchent plus la proximité des fibres, mais celle des grosses lignes électriques pour alimenter des serveurs toujours plus gourmands et denses. Jusqu’à, comme ici, imaginer des centrales dédiées.

Pour mettre en perspective cette annonce de Mark Zuckerberg, rappelons qu’Olivier de Nomazy, responsable analyste chez Data4, nous expliquait qu’ « il y avait à peu près 6,5 GW en 2023 de datacenters déployés ». L’annonce d’un datacenter de 5 GW par Meta implique donc un besoin d’énergie colossal par rapport à ce que l’on connait actuellement.

Des problèmes pour les riverains

En parallèle, lundi, le New York Times a publié un article racontant les problèmes d’une famille du Comté de Newton, dont la maison se situe juste à côté d’un des datacenters de Meta. Beverly et Jeff Morris habitent à 300 mètres de ce centre de données, et l’eau de leur maison vient directement de la nappe d’eau souterraine de leur terrain.

Le journal étasunien explique que quelques mois après le début de la construction du data center de Meta, en 2018, le lave-vaisselle, la machine à glaçons, le lave-linge et les toilettes des Morris ont tous cessé de fonctionner. « En l’espace d’un an, la pression de l’eau s’est réduite à un filet d’eau ».

Le média syndical américain More Perfect Union avait déjà publié, il y a trois mois, sur YouTube une vidéo sur les problèmes de la famille :

  •  

Sites porno : le Conseil d’État rétablit l’obligation de contrôle de l’âge

Coitus interruptus
Sites porno : le Conseil d’État rétablit l’obligation de contrôle de l’âge

Suspendue par une décision de justice le 16 juin dernier, l’obligation de contrôle de l’âge en amont de l’accès aux sites pornographiques a été rétablie mardi par le Conseil d’État. L’institution estime que la suspension n’était pas justifiée par une notion d’urgence. Les Sages notent par ailleurs que le contrôle de l’âge est « bien susceptible de contribuer à atteindre l’objectif de protection des mineurs » poursuivi par la loi SREN.

Pornhub, Redtube et Youporn seront-ils de nouveau bloqués en France par leur éditeur, pour tenter de faire pression sur l’Arcom et les pouvoirs publics ? Le Conseil d’État a rendu mardi 15 juillet une décision qui pourrait relancer la controverse. L’institution a en effet décidé d’annuler la décision de justice du 16 juin dernier, qui suspendait l’obligation de vérification de l’âge des internautes entrée en vigueur quelques semaines plus tôt pour 17 sites pornographiques de premier plan.

Le Conseil d’État ne retient pas l’urgence

« Le Conseil d’État relève que la société n’apporte aucun élément permettant d’établir que l’application de l’arrêté contesté porterait une atteinte grave à sa situation économique, remarque l’institution dans le communiqué qui accompagne sa décision (PDF). Il constate également que l’arrêté n’interdit pas la diffusion de contenus pornographiques auprès des personnes majeures, mais qu’il impose seulement de mettre en place des systèmes de vérification de l’âge efficaces, dans le cadre des garanties prévues par la loi. Il n’y a donc pas d’atteinte à la liberté d’expression et à la protection de la vie privée. »

L’institution souligne par ailleurs que le dispositif de vérification de l’âge, imposé par l’arrêté contesté, est bien susceptible de contribuer à atteindre l’objectif d’intérêt public qui lui est rattaché, à savoir « la protection des mineurs contre l’exposition à des contenus à caractère pornographique », et annule donc la suspension ordonnée par le tribunal administratif le 16 juin dernier.

Un contentieux qui dure

La loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique, dite SREN, confère pour mémoire à l’Arcom un pouvoir de sanction à l’encontre des sites pour adultes qui ne disposent pas d’un mécanisme de contrôle de l’âge. Il manquait cependant au texte un arrêté ministériel pour permettre le blocage des sites contrevenants quand ces derniers sont édités par une société établie dans un autre État membre de l’Union européenne : la publication de ce dernier, signé par Rachida Dati, est intervenue le 6 mars dernier, ouvrant une période de grâce de trois mois pour la mise en œuvre des mesures techniques associées.

Pendant que le canadien Aylo, éditeur de Pornhub, Redtube et Youporn, tentait le coup de com’ en bloquant de façon préventive l’accès à ses sites pour tous les internautes français, l’entreprise chypriote Hammy Media LTD, qui gère la plateforme xHamster, a de son côté choisi la voie juridique, en attaquant l’arrêté du ministère de la Culture devant le tribunal administratif de Paris. La démarche a d’abord été couronnée de succès, puisque le juge a donc décidé, le 16 juin dernier, de suspendre l’arrêté en urgence, le temps de vérifier si ce dernier est bien compatible avec le droit européen.

Problème : pour le Conseil d’État, cette notion d’urgence ne méritait pas d’être retenue. « La condition d’urgence est considérée comme remplie lorsque la décision administrative contestée porte préjudice de manière suffisamment grave et immédiate à un intérêt public, à la situation du requérant ou aux intérêts qu’il entend défendre », rappelle l’institution.

Or elle estime, dans sa décision, que l’éditeur de xHamster n’a fourni aucun élément permettant d’attester, de façon objective, de la réalité du préjudice financier qui découlerait de la mise en place du contrôle d’âge. « Constatant l’absence d’urgence, le Conseil d’État rejette la demande de suspension l’arrêté du 26 février 2025 sans avoir à se prononcer ni sur sa légalité, ni sur la question prioritaire de constitutionnalité soulevée à l’encontre de la loi par la société requérante. »

Si la suspension est pour l’instant annulée, le contentieux reste ouvert. Le tribunal administratif de Paris a en effet également été saisi au fond contre l’arrêté ministériel du 26 février 2025. Et le référentiel technique sur la vérification de l’âge adopté par l’Arcom dans le cadre de la mise en œuvre de la loi du 21 mai 2024 fait lui aussi l’objet d’un recours au fond, devant le Conseil d’État cette fois.

  •