« Le vrai est un moment du faux » (La société du spectacle)
Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.
« De plus en plus de personnes pensent qu’il sera plus pratique d’identifier les médias authentiques que les faux générés par IA », estime Adam Mosseri, l’ex-cadre supérieur de Facebook nommé patron d’Instagram depuis la démission de ses cofondateurs en 2018 : « Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de la capture, créant ainsi une chaîne de contrôle ».
Dans un message partagé sur Insta et Threads, Adam Mosseri constate que « l’authenticité devient infiniment reproductible » du fait du perfectionnement des IA génératives. Ce pourquoi « le principal risque » auquel est confrontée une plateforme comme Instagram est qu’elle ne parvienne pas à suivre le rythme, et qu’elle finisse par être submergée de contenus générés par IA (GenAI) :
« Tout ce qui rendait les créateurs importants – leur capacité à être authentiques, à créer des liens, à avoir une voix qui ne pouvait être imitée – est désormais accessible à quiconque dispose des bons outils. Les deepfakes sont de plus en plus perfectionnés. L’IA génère des photos et des vidéos impossibles à distinguer des médias capturés [par des humains, ndlr]. Les flux commencent à se remplir de contenus synthétiques. »
Le pouvoir passe des institutions aux individus, et maintenant aux IA
Cherchant à anticiper ce qu’il pourrait faire pour ne pas être submergé, Adam Mosseri rappelle tout d’abord que « depuis des années, le pouvoir passe des institutions aux individus, car Internet permet à toute personne ayant une idée convaincante de trouver un public » :
« Le coût de la diffusion de l’information est pratiquement nul. Les gens peuvent donc désormais contourner les moyens traditionnels de diffusion de l’information (journaux distribués par camion, émissions produites pour la télévision) et s’adresser directement à leur public. On le constate dans tous les domaines, des athlètes qui sont plus importants que leurs équipes aux journalistes qui inspirent plus confiance que leurs publications. »
Alors que « la confiance dans les institutions (gouvernement, médias, entreprises) est en déclin depuis des décennies » et que nous sommes dans le même temps « submergés par le contenu produit à grande échelle par les institutions », « ce sont des individus, et non des éditeurs, des médias ou des marques », qui ont créé ce marché de créateurs de contenus autoproduits par des « personnes que nous admirons ».
L’authenticité devient une ressource rare
Évoquant les contenus synthétiques qui, d’ici quelques années, « seront bien plus nombreux que ceux capturés par des moyens traditionnels », le patron d’Instagram relève que, si l’on parle beaucoup de l’ « AI slop », « il existe heureusement beaucoup de contenus IA incroyables [et] de qualité ».
Il constate cela dit que les contenus générés par IA sont « de plus en plus réalistes » et que « l’authenticité devient une ressource rare », ce qui, d’après lui, va entraîner une augmentation de la demande de contenus créés par des humains. Il estime aussi que « les créateurs qui réussiront seront ceux qui trouveront le moyen de préserver leur authenticité, qu’ils adoptent ou non les nouvelles technologies » :
« Cela devient plus difficile (et non pas plus facile) aujourd’hui parce que tout le monde peut simuler l’authenticité. La question n’est plus de savoir si vous êtes capable de créer du contenu, mais de savoir si vous êtes le seul à pouvoir le faire. Et cela va devenir la nouvelle condition à remplir. »
Privilégier des images explicitement non retouchées et peu flatteuses
Adam Mosseri note aussi que, dans le même temps, les appareils photo des téléphones proposent de plus en plus de fonctionnalités et de filtres logiciels permettant à de simples amateurs de pouvoir partager des contenus de qualité quasi professionnelle.
Le patron d’Instagram estime à ce titre que leurs fabricants font de mauvais choix esthétiques et « romantisent le passé » : « Ils rivalisent pour donner à tout le monde l’air d’un photographe professionnel d’autrefois », permettant à tout un chacun de réaliser des photographies tendant vers la perfection, mais qui ne pourront pas longtemps rivaliser avec les IA.
Ces dernières parviennent en effet désormais à générer des images tellement « parfaites » qu’il devient impossible de les identifier comme synthétiques à l’œil nu. Dès lors, ce n’est plus la perfection qu’il faut chercher, mais l’imperfection, avance Adam Mosseri :
« On va assister à une nette accélération de la tendance vers une esthétique plus brute dans les prochaines années. Les créateurs avisés vont privilégier des images d’eux-mêmes explicitement non retouchées et peu flatteuses. Dans un monde où tout peut être parfait, l’imperfection devient un signal. Le caractère brut [« rawness », en VO] n’est plus seulement une préférence esthétique : c’est une preuve. C’est une forme de défense. Une façon de dire : c’est authentique parce que c’est imparfait. »
De la quête de perfection à celle de l’imperfection
Patron d’une entreprise dont le modèle économique repose sur le partage de selfies et de photos retouchées au moyen de filtres logiciels, cet abandon de la quête de perfection pour celle de l’imperfection ressemble à une révolution quasi-copernicienne :
« Pendant la majeure partie de ma vie, j’ai pu supposer sans risque que la grande majorité des photos ou des vidéos que je voyais étaient des captures fidèles de moments qui s’étaient réellement produits dans la vie réelle. Ce n’est clairement plus le cas aujourd’hui, et il nous faudra, en tant qu’êtres humains, des années pour nous y adapter. […] Cela va être extrêmement inconfortable pour nous tous, car nous sommes génétiquement prédisposés à croire ce que nous voyons. »
Ce changement de paradigme fera qu’ « au fil du temps, nous allons passer d’une attitude consistant à supposer que ce que nous voyons est réel par défaut à une attitude sceptique lorsque nous consultons les médias, et nous allons accorder beaucoup plus d’attention à ceux qui partagent quelque chose et aux raisons pour lesquelles ils le font ».
Les plateformes de réseaux sociaux vont dès lors subir une pression croissante pour identifier et signaler les contenus générés par l’IA. Le patron d’Instagram ne le précise pas, mais l’article 50 de l’AI Act rendra cette labellisation des contenus GenAI obligatoire à compter du mois d’août 2026.
« Toutes les grandes plateformes feront du bon travail pour identifier les contenus générés par l’IA, mais elles auront de plus en plus de mal à le faire à mesure que l’IA s’améliorera dans l’imitation de la réalité », relève toutefois Adam Mosseri :
« De plus en plus de personnes pensent, comme moi, qu’il sera plus pratique d’identifier les médias authentiques que les faux. Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de la capture, créant ainsi une chaîne de contrôle. »
Instagram devra « clairement identifier les contenus générés par l’IA »
Il souligne cependant que le fait d’ « indiquer si un contenu est authentique ou généré par l’IA n’est qu’une partie de la solution ». Les plateformes et acteurs du marché de l’économie de l’attention devront également « fournir beaucoup plus d’informations contextuelles », non seulement sur les médias mais aussi sur les comptes qui les partagent, « afin que les utilisateurs puissent prendre des décisions éclairées sur ce qu’ils doivent croire » :
« Où se trouve le compte ? Quand a-t-il été créé ? Quels autres contenus a-t-il publiés ? Dans un monde où l’abondance et le doute sont infinis, les créateurs qui parviennent à maintenir la confiance et à afficher leur authenticité, en étant sincères, transparents et cohérents, se démarqueront. »
Évoquant le cas particulier d’Instagram, Adam Mosseri explique que ses équipes vont devoir « évoluer de plusieurs façons, et rapidement ». À commencer par le fait de créer les meilleurs outils, « basés sur l’IA ou traditionnels », pour que les créateurs « puissent rivaliser avec les contenus entièrement créés par l’IA ».
Instagram devra aussi « clairement identifier les contenus générés par l’IA » et travailler avec les fabricants pour vérifier leur authenticité « dès leur capture, en identifiant les médias réels, et pas seulement en traquant les faux ». Ainsi que pour « mettre en avant les signaux de crédibilité » concernant les auteurs des publications afin que les utilisateurs puissent décider à qui faire confiance.
Il évoque enfin le fait de « devoir continuer à améliorer le classement en fonction de l’originalité », et propose de revenir sur la question de la transparence et du contrôle des algorithmes dans un autre article.
Satya Nadella, CEO de Microsoft, blogue désormais sur l’IA. Selon lui, le débat sur le « slop » est un sujet presque dépassé. Il préfère évoquer 2026 comme une « année charnière » et ce qui, selon lui, demande aujourd’hui le plus de réflexion : trouver des débouchés à ce qu’il considère comme une évolution drastique de la pensée.
Microsoft est l’un des acteurs clés de l’IA, ne serait-ce que par son investissement massif dans OpenAI, avant l’emballement que l’on constate aujourd’hui. La société a cependant un problème : un sérieux écart entre la vision de ce que pourraient accomplir ses différents Copilot et ce qu’ils peuvent faire réellement.
Dans un contexte trouble pour l’entreprise, son CEO prend la parole, avec un premier billet de blog pour explorer quelques réflexions. Certaines recouvrent de vraies questions, notamment sur la direction à donner aux évolutions de l’IA ou le manque d’expérience dans son exploitation, quand d’autres illustrent une bulle de réflexion hors de laquelle plus rien d’autre ne semble exister.
Encore une année charnière
2026 sera une « année charnière » pour l’IA pour Satya Nadella. « Oui, encore une autre », reconnait le CEO de Microsoft. Il estime cependant qu’elle semble « différente à quelques égards notables ».
La phase initiale de découverte est selon lui terminée. Place désormais à la diffusion généralisée, le public prenant peu à peu ses marques et commençant à faire la distinction entre « spectacle » et « substance ». La direction prise par la technologie serait plus claire et plus sérieuse désormais, maintenant que l’émerveillement est passé.
Le débat autour du « slop » (bouillie) n’aurait plus lieu d’être, car il serait surtout lié à des cas d’utilisation sans réel débouché : un fonctionnement à vide de l’IA, sans apport réel dans la vie des gens. On pourrait ajouter qu’il s’agit aussi de l’inévitable produit d’une course à la vitesse et aux opportunités, largement accélérée par l’IA et à ses multiples impacts, notamment dans le monde de la cybersécurité.
Et comme si le CEO n’était pas assez clair, il insiste sur l’idée que l’IA doit amplifier l’humain, pas le remplacer. Il n’hésite pas à reprendre l’image de la « bicyclette pour l’esprit » que Steve Jobs utilisait pour décrire l’outil informatique en général. L’IA devrait ainsi être considérée comme aidant la pensée et l’action humaines, pas s’y substituant.
Systèmes complexes et résultats responsables
Pour Satya Nadella, les modèles isolés comme ChatGPT et Gemini ne sont pas l’avenir. Une vision que l’on a déjà entendue, par exemple chez l’ingénieur Horacio Gonzalez. Selon lui, l’avenir appartient à des modèles plus petits, plus spécialisés et coopérant.
Selon le CEO de Microsoft, l’important maintenant est de construire des systèmes qui orchestrent plusieurs modèles, gèrent la mémoire, l’accès aux données et l’utilisation d’outils de façon sûre. Une manière élégante de dire que l’intégration et l’ingénierie comptent plus que la taille brute des modèles.
Il « milite » également pour des résultats réels et responsables : pour que l’IA soit acceptée par la société, elle doit avoir un impact mesurable. « Les choix que nous ferons sur l’endroit où nous utiliserons nos rares ressources énergétiques, de calcul et de talents auront de l’importance. C’est la question socio-technique autour de laquelle nous devons construire un consensus », ajoute Nadella.
Microsoft dans une bulle
L’année 2025 a probablement été pénible pour Microsoft. La société semble captive d’une bulle dans laquelle elle s’est elle-même installée : la certitude que l’IA représente son futur, sans pour autant arriver à lui faire faire ce qu’elle veut. Ou, plus exactement, sans que les utilisateurs aient la garantie d’arriver au résultat attendu.
Satya Nadella résume tout le problème : « Ce sera un processus de découverte chaotique, comme toute technologie et développement de produits l’est toujours ». Autrement dit, il s’agit d’une technologie puissante, presque trop actuellement, et les usages vont continuer à s’y casser les dents jusqu’à ce que la brume se dissipe un peu plus.
Le souci de Microsoft est cependant très concret. Après avoir autant investi dans l’IA, les actionnaires attendent probablement un retour sur investissement qu’ils ne voient pas venir. D’où un « forcing » urgent dans toutes les gammes de produits. Avec à la clé des augmentations tarifaires, justifiées selon l’entreprise par les capacités supplémentaires. Et tant pis si ces capacités ne sont pas clairement définies ou que leurs résultats ne sont pas prévisibles.
C’est là que la tension s’illustre le plus, comme on l’a vu avec Windows. Microsoft veut en effet faire de son produit le premier « système agentique », mais son annonce n’est pas bien passée. Un très grand nombre de personnes ont répondu très négativement à cette perspective, beaucoup demandant que Windows 11 remplisse d’abord sa mission initiale de système d’exploitation, avec sécurité, fiabilité et performances.
Sur ce point, Satya Nadella n’offre aucun début d’éclaircie : « Nous sommes encore dans les premiers kilomètres d’un marathon. Beaucoup de choses restent imprévisibles ». Son intervention est avant tout philosophique, l’IA étant comparée à « un échafaudage pour l’esprit humain », même si la mention de la rareté énergétique est notable.
Le ton général est en outre inhabituellement sobre pour un dirigeant d’une société technologique aussi importante. Surtout après les prises de position de certains responsables de l’entreprise. On se souvient que face au manque d’enthousiasme sur les évolutions annoncées de Windows 11, Mustafa Suleyman lui-même, responsable de l’IA, avait traité de « cyniques » les personnes décriant l’annonce.
Entre les lignes, on devine quand même l’intention : recalibrer les attentes et repositionner Microsoft sur une ingénierie voulue « utile », en opposition à la puissance brute des gros modèles. On peut y voir également une forme d’aveu, dans le sens où les progrès technologiques ne suffisent pas si le public n’y trouve aucune valeur réelle, au-delà de l’amusement passager. Moins de buzz, plus de concret ?
Alerté par des professionnels de santé, The Guardian a découvert que les synthèses générées par IA (« AI Overviews ») figurant en tête des résultats du moteur de recherche fournissaient parfois des informations médicales « fausses et trompeuses ». Mais également qu’il leur arrivait de fluctuer en fonction du moment.
Google avance que ses « AI overviews », qui proposent en tête des résultats de recherche des « aperçus » résumant les réponses identifiées par l’IA générative comme les plus pertinentes, sont « utiles » et « fiables ».
Alerté par plusieurs professionnels de santé, le Guardian a découvert, a contrario, qu’ils exposent leurs utilisateurs « à des risques de préjudice en raison de conseils [et] d’informations médicales fausses et trompeuses ».
Dans un cas qualifié de « très dangereux » par les experts interrogés par le Guardian, Google a par exemple conseillé à tort aux personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses. Ce qui va à l’encontre des recommandations habituelles et pourrait augmenter le risque de décès des patients, soulignent les experts.
Cela « pourrait être très dangereux et compromettre les chances d’une personne d’être en assez bonne santé pour suivre un traitement », explique Anna Jewell, directrice du soutien, de la recherche et de la sensibilisation chez Pancreatic Cancer UK, pour qui la réponse générée par IA est « totalement incorrecte » :
« La réponse de l’IA de Google suggère aux personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses et fournit une liste d’exemples. Cependant, si quelqu’un suivait les conseils donnés dans les résultats de recherche, il risquerait de ne pas absorber suffisamment de calories, d’avoir du mal à prendre du poids et d’être incapable de tolérer la chimiothérapie ou une intervention chirurgicale potentiellement vitale. »
Dans un autre exemple à propos de problèmes hépatiques qualifié cette fois d’ « alarmant », le moteur de recherche a là encore fourni des informations erronées, offrant peu de contexte et aucune prise en compte de la nationalité, du sexe, de l’origine ethnique ou de l’âge des patients, souligne le Guardian. Pis : elles pouvaient amener des personnes atteintes d’une maladie grave du foie à estimer, à tort, qu’elles seraient en bonne santé.
« De nombreuses personnes atteintes d’une maladie du foie ne présentent aucun symptôme jusqu’aux stades avancés, c’est pourquoi il est si important qu’elles se fassent dépister », explique au Guardian Pamela Healy, directrice générale du British Liver Trust :
« Mais ce que l’IA de Google considère comme « normal » peut varier considérablement de ce qui est réellement considéré comme normal. C’est dangereux, car cela signifie que certaines personnes atteintes d’une maladie hépatique grave peuvent penser que leurs résultats sont normaux et ne pas se donner la peine de se rendre à un rendez-vous médical de suivi. »
Des synthèses générées par IA qui changent selon le moment
Une recherche Google sur les « symptômes et tests du cancer du vagin » a répertorié le frottis du col de l’utérus comme un test de dépistage du cancer du vagin, ce qui est là encore « totalement erroné » et pourrait amener à ignorer des symptômes avérés, souligne Athena Lamnisos, directrice générale de l’association caritative Eve Appeal :
« Obtenir des informations erronées comme celle-ci pourrait potentiellement conduire une personne à ne pas faire examiner ses symptômes de cancer du vagin parce qu’elle a obtenu un résultat normal lors d’un dépistage cervical récent. »
Elle se dit également « extrêmementpréoccupée » par le fait que le résumé généré par l’IA changeait au fil du temps, « donnant à chaque fois une réponse différente provenant de sources différentes lorsque nous effectuions exactement la même recherche » :
« Cela signifie que les gens obtiennent une réponse différente selon le moment où ils effectuent leur recherche, ce qui n’est pas acceptable.Certains des résultats que nous avons vus sont vraiment inquiétants et peuvent potentiellement mettre les femmes en danger. »
Le Guardian a également constaté que les aperçus fournis par l’IA de Google en réponse à des recherches sur des troubles mentaux tels que la psychose et les troubles alimentaires offraient des « conseils très dangereux » et étaient « incorrects, nuisibles ou susceptibles d’inciter les gens à ne pas demander d’aide », explique Stephen Buckley, responsable de l’information chez Mind, qui les qualifie de « très préoccupants » :
« Elles peuvent suggérer d’accéder à des informations provenant de sites inappropriés… et nous savons que lorsque l’IA synthétise des informations, elle peut souvent refléter des préjugés, des stéréotypes ou des discours stigmatisants existants. »
Des « captures d’écran incomplètes », plaide Google
Google a répondu au Guardian que la « grande majorité » de ses AI Overviews étaient « factuels et utiles », et qu’elle apportait continuellement des améliorations à leur qualité. Le taux de précision des aperçus IA serait « comparable » à celui de ses autres fonctionnalités de recherche, telles que les extraits optimisés, qui existent depuis plus d’une décennie, a-t-elle précisé.
Un porte-parole de Google a répondu au Guardian que bon nombre des exemples liés à la santé qui leur avaient été communiqués étaient des « captures d’écran incomplètes », rajoutant que d’après ce qu’ils avaient pu évaluer, les réponses renvoyaient « vers des sources connues et réputées, et recommandaient de consulter un expert » :
« Nous investissons considérablement dans la qualité des AI Overviews, en particulier pour des sujets tels que la santé, et la grande majorité d’entre eux fournissent des informations exactes. »
Grok a généré des deepfakes de femmes déshabillées sans leur consentement, parfois des mineures, à la demande massive d’utilisateurs de X qui ont créé une tendance sur ce réseau. La justice française ajoute cette pièce au désormais épais dossier contre les deux entreprises d’Elon Musk.
La semaine dernière, avant le réveillon de la Saint-Sylvestre, nombre d’utilisateurs du réseau social X ont profité de la publication par des utilisatrices de photos d’elles-mêmes dans des tenues de fête pour les déshabiller virtuellement sans leur consentement, à l’aide de Grok. Saisi par plusieurs députés français et par des membres du gouvernement, le parquet de Paris va élargir l’enquête qu’il a déjà ouverte à propos de X et de xAI.
L’humiliation des femmes par le montage d’images à caractère sexuel n’est pas nouvelle. Mais l’IA générative permet une massification du phénomène depuis 2023 alors que des chercheuses et chercheurs avaient repéré dès 2021 que les ensembles de données utilisés pour entraîner les LLM comme LAION-400M contenaient de la misogynie, de la pornographie et des stéréotypes malveillants.
Début 2024 marquait une nouvelle étape : des utilisateurs de X partageaient massivement des deepfakes pornographiques de Taylor Swift, et quelques mois plus tard des influenceuses moins connues étaient aussi attaquées sur Instagram.
En cette fin d’année 2025, c’est Grok qui refait parler de lui à ce sujet. En effet, des utilisateurs du réseau social X ont massivement utilisé l’IA générative d’Elon Musk pour déshabiller virtuellement des femmes. Souvent avec une simple demande sous le partage d’une photo d’une utilisatrice, Grok générait une version de cette photo mais en représentant la personne en bikini ou plus ou moins dénudée.
En mai dernier, nos confrères de 404 expliquaient que l’outil de xAI posait très peu de freins à une demande d’utilisateur de déshabiller des femmes en reprenant des photos déjà existantes pour les trafiquer en objet de désir des utilisateurs du réseau social X. Mais cette « tendance » dégradante a été tellement suivie en cette fin d’année 2025 que n’importe quel utilisateur pouvait voir ce genre d’images dans la colonne « pour vous » du réseau social, avec certaines images ciblant des jeunes filles mineures.
« Je me suis retrouvée plus ou moins dévêtue sur plusieurs photos totalement sans mon consentement », raconte Fafa, une streameuse de 28 ans à France Info. « Trois ou quatre personnes s’étaient amusées à utiliser l’IA de X en vue de me dévêtir » en faisant un deepfake à partir d’un selfie de réveillon qu’elle avait posté le 31 décembre. Elle envisage de porter plainte. La doctorante en études théâtrales Marie Coquille-Chambel a vécu le même genre de violences sur le réseau social d’Elon Musk et a ensuite subi un harcèlement massif après l’avoir signalé sur X.
Devant la justice française
Le 2 janvier, les députés Arthur Delaporte (PS) et Éric Bothorel (Renaissance) ont tous deux saisi le procureur de la République de Paris, dénonçant ces deepfakes à caractère sexuel qui « contreviennent de fait à l’article 226-8-1 du Code pénal et portent atteinte à la dignité des personnes représentées et dont les contenus ont été détournés », comme l’affirme le signalement du député du Parti socialiste.
Quelques heures plus tard, le parquet de Paris expliquait à Politico qu’il allait élargir l’enquête déjà ouverte en juillet à propos de X, au départ pour ingérence étrangère. Il l’avait déjà étendue une première fois pour prendre en compte les propos négationnistes générés en novembre dernier par Grok, toujours publiés sur X.
Le gouvernement français réagissait un peu plus tard dans un communiqué expliquant que plusieurs de ses membres avaient aussi effectué des signalements à la justice : « les ministres Roland Lescure, Anne Le Hénanff et Aurore Bergé signalent au procureur de la République ainsi qu’à la plateforme Pharos, en vertu de l’article 40 du code de procédure pénale, des contenus manifestement illicites générés par l’intelligence artificielle générative Grok et diffusés sur la plateforme X, afin d’obtenir leur retrait immédiat ».
Alors qu’Elon Musk n’avait réagi à cette « tendance » sur son réseau social qu’avec des « » à propos d’une image de lui-même en bikini générée par IA, son entreprise a communiqué via le compte de Grok en publiant un message affirmant avoir « identifié des lacunes dans [ses] mesures de sécurité » pour répondre à un signalement d’un deepfake sur une enfant. xAI affirmait « s’ [employer] à les corriger de toute urgence » et ajoutait que « le CSAM [child sexual abuse material, la pédopornographie] est illégal et interdit » en accompagnant son message d’un lien de signalement vers un site du FBI.
L’autorité malaisienne de la communication a elle aussi réagi, expliquant sur Facebook qu’elle avait « pris note avec une vive inquiétude des plaintes du public concernant l’utilisation abusive des outils d’intelligence artificielle (IA) sur la plateforme X, en particulier la manipulation numérique d’images de femmes et de mineurs afin de produire des contenus indécents, grossièrement offensants et autrement préjudiciables » et annonçait, elle aussi, lancer une enquête à ce sujet.
Sur son site Transition2025.com, le nouveau maire de New-York, Zohran Mamdani, a publié fin décembre des invitations pour sa cérémonie d’investiture. L’événement s’est déroulé à Broadway, entre Liberty St. et Barclay Street (au niveau de l’hôtel de ville de New York, dans le sud de Manhattan).
Rien de bien surprenant, jusqu’à se rendre dans la liste des objets autorisés et interdits dans la foire aux questions. Du classique à première vue, avec en-cas et thermos de boissons autorisés, tandis que les armes, drones, boissons alcoolisées, drogues, bâtons… étaient interdits.
En fin de liste, deux produits ont tapé dans l’œil d’Adafruit (un revendeur bien connu dans le monde de la bidouille) : Raspberry Pi et Flipper Zero.
« Si les inquiétudes tournaient autour des interférences, de la perturbation des ondes ou du piratage, le document ne le précise pas. Il reste vague, citant quelques appareils et espérant que le message passe. La curiosité est désormais interdite », fustige Adafruit.
Alors que le reste de la liste comprend des catégories de produits (parapluies, stylos laser, drones…), ce n’est pas le cas pour le Raspberry Pi et le Flipper Zero. Le premier est un micro-ordinateur vendu quelques dizaines de dollars, le second une boite à outils principalement conçue pour des tests d’intrusion et/ou de cybersécurité.
Les usages des deux machines peuvent être détournés, mais comme n’importe quel autre produit du genre… et il en existe de nombreuses autres références chez d’autres fabricants. Sans compter les smartphones, dont certains peuvent aussi avoir ce genre de capacité.
« Si l’objectif était d’interdire « les appareils électroniques non identifiés », « les dispositifs d’interférence de signal » ou « les outils de piratage », la liste devrait l’indiquer clairement », indique enfin Adafruit. Le revendeur ajoute que « donner des noms de marque risque de créer de la confusion ».
Plusieurs de nos confrères (dont BleepingComputer) ont contacté le service presse de Zohran Mamdami, sans réponse pour le moment.
À la suite de l’enlèvement du chef d’État vénézuélien Nicolas Maduro par l’armée des États-Unis, accusé par la Maison Blanche d’être à la tête d’un cartel de narcotrafiquants, Starlink a annoncé fournir ses services gratuitement à la population vénézuélienne pendant un mois. L’opération de capture du président vénézuélien qui s’est déroulée dans la nuit de vendredi à samedi 3 janvier 2026 s’est accompagnée de frappes américaines dans le sud et l’est de la capitale de Caracas.
À la suite de ces opérations, certaines zones de la ville avaient perdu accès à l’électricité et à internet, selon l’ONG Netblocks.
Le 4 janvier, la filiale de SpaceX Starlink publiait un communiqué annonçant fournir gratuitement ses services de connexion internet via ses satellites en basse orbite aux « nouveaux » clients, comme aux « existants ».
La carte de disponibilité de Starlink indique « coming soon » (à venir) pour le Venezuela, ce qui suggère que le service n’était pas déployé sur place auparavant, quand bien même le communiqué déclare que des utilisateurs sont déjà actifs.
Capture d’écran de la carte de disponibilité de Starlink / Starlink
L’évolution des tarifs à partir du 3 février 2026 n’a pas été communiquée pour le moment.
Le Venezuela n’est pas le premier terrain de conflit dans lequel intervient Starlink.
Au déclenchement de l’offensive russe contre l’Ukraine, en 2022, l’entreprise avait déployé ses services pour pallier les pannes du réseau internet local. Si l’épisode avait d’abord été salué, rappelle CNBC, il avait rapidement soulevé la question de l’influence d’une unique entité – et de son patron Elon Musk – dans un tel conflit.
Le Pentagone avait finalement passé un contrat avec l’entreprise pour assurer le maintien de ses services en Ukraine.
Arch Linux et Manjaro (basée sur Arch) sont les premières à dégainer en ce début d’année. Il s’agit pour rappel de systèmes de type rolling release : les mises à jour sont fournies dès leur disponibilité, que les versions soient mineures ou majeures, au sein d’une branche unique. La dénomination se fait en opposition à l’approche classique, comme sur Ubuntu, où les gros changements attendent la branche suivante, donc une mouture majeure ultérieure.
Mais alors, si les améliorations importantes sont diffusées au fur et à mesure, que peut apporter une nouvelle édition d’Arch Linux ou Manjaro ? Techniquement, rien : ces nouvelles versions sont là pour les personnes qui souhaitent réaliser une installation avec une image ISO récente, limitant ainsi les mises à jour immédiates. Pour celles ayant un système installé et à jour, il n’y a rien de neuf : elles ont déjà les dernières nouveautés.
Manjaro 26.0
Dans les deux cas, les images ISO proposent les dernières versions de presque tous les composants, dans tous les domaines (ici pour Arch Linux, là pour Manjaro) : noyau Linux 6.18, KDE Plasma 6.5 (avec les suites KDE Gear 25.12 et KDE Frameworks 6.21), GNOME 49, Xfce 4.20, Mesa 25.3, Firefox 146, suite bureautique LibreOffice 25.8.4 (si elle est choisie à l’installation), GStreamer 1.26.10, ALSA 1.2.15.1, ou encore l’arrivée de l’environnement COSMIC (créé par System76 en Rust) en version finale 1.0.
On trouve également les pilotes NVIDIA 590. Rappelons que cette version a fait l’objet d’un avertissement par l’équipe d’Arch Linux, car elle abandonne le support des séries 900 et 1000 des GeForce. Le paquet étant installé automatiquement, les utilisateurs concernés devront le désinstaller et réactiver manuellement l’ancienne version.
Les nouvelles images ISO peuvent se récupérer depuis les sites d’Arch Linux et Manjaro. Comme indiqué, leur téléchargement n’est pas utile si vous avez un système fonctionnel et à jour.
Le fournisseur d’accès à Internet par satellite Starlink planifie de descendre de 70 km plus de 4 000 satellites de sa constellation. La direction de l’entreprise évoque la sécurité dans l’espace alors qu’elle en a récemment perdu un de façon incontrôlée. Elle avait pourtant déjà prévu cette manœuvre et demandé l’autorisation à la FCC depuis des mois.
« Starlink entame une reconfiguration importante de sa constellation de satellites afin d’améliorer la sécurité spatiale », a affirmé Michael Nicolls, le vice-président de l’ingénierie Starlink, dans un message publié sur le réseau social X.
Le responsable de la constellation explique que son entreprise va abaisser tous ses satellites (environ 4 400 satellites, précise-t-il) orbitant aux alentours de 550 km pour les faire rejoindre l’orbite de 480 km autour de la Terre. Il assure que cette opération est « étroitement coordonnée avec les autres opérateurs, les autorités réglementaires et l’USSPACECOM [le commandement interarmées états-unien des opérations spatiales] ». Starlink a, pour rappel, envoyé plus de 10 000 satellites en orbite, sur différentes orbites.
Michael Nicolls présente cette modification comme « une condensation des orbites Starlink » qui « améliorera la sécurité spatiale de plusieurs façons ». Son entreprise avait annoncé le 18 décembre dernier avoir perdu la communication avec l’un de ses satellites. « Le satellite est en grande partie intact, en chute libre, et va rentrer dans l’atmosphère terrestre et disparaître complètement dans les semaines à venir. La trajectoire actuelle du satellite le placera sous la Station spatiale internationale, ne présentant aucun risque pour le laboratoire orbital ou son équipage », affirmait Starlink.
« Le nombre de débris et de constellations de satellites prévues est nettement inférieur en dessous de 500 km, ce qui réduit la probabilité globale de collision », affirme Michael Nicolls pour justifier cette décision.
… Ou la place de Starlink ?
Et en effet, les places sont chères pour les constellations de satellites. Comme nous l’expliquait Gilles Brégnant (directeur général de l’ANFR) en 2023, « il n’y a que six places » dans la course mondiale. Et l’autre raison pour laquelle Starlink ferait cette manœuvre pourrait être de se réserver la meilleure. Elon Musk n’a pas pu s’empêcher d’expliquer que « le principal avantage d’une altitude plus basse est que le diamètre du faisceau est plus petit pour une taille d’antenne donnée, ce qui permet à Starlink de desservir une plus grande densité de clients ».
De fait, Starlink n’avait pas attendu de perdre un satellite pour anticiper cette manœuvre. Dès octobre 2024, l’entreprise demandait à la Federal Communications Commission (FCC) l’autorisation d’abaisser l’altitude des satellites « de 525 km, 530 km et 535 km à respectivement 480 km, 485 km et 475 km », comme l’avait repéré ArsTechnica.
Dans son argumentaire [PDF], Starlink expliquait que « cette reconfiguration entraînera une augmentation du nombre maximal potentiel de plans orbitaux et de satellites par plan pour toutes les couches sauf une à 475 km, le nombre total de satellites dans le système Gen2 ne dépassera pas 29 988 satellites, et la première tranche de satellites dans le système Gen2 restera de 7 500 satellites jusqu’à ce que la Commission autorise des déploiements au-delà de cette première tranche ».
Mais l’entreprise mettait en avant d’autres arguments que ceux de la sécurité spatiale : « Cette reconfiguration permettra à SpaceX d’offrir une meilleure couverture haut débit et une meilleure qualité de service aux consommateurs américains dans les zones à forte demande, et de répondre à l’évolution de la demande des consommateurs en déployant rapidement et de manière flexible des capacités aux États-Unis et dans le monde entier, là où elles sont le plus nécessaires ». En février dernier, la FCC a officiellement accepté cette demande [PDF].
Une conséquence incidente de cette opération pourrait être l’accentuation des traces laissées par la constellation sur les observations astronomiques, traces dont se plaignent déjà régulièrement les chercheurs en astrophysique.
La Direction générale de la Sécurité intérieure (DGSI) publie depuis janvier 2025 des « Flash ingérence ». Il s’agit de présenter « des actions d’ingérence économique dont des sociétés françaises sont régulièrement victimes ».
Le 9ᵉ numéro date de décembre et porte sur « l’usage de l’intelligence artificielle dans le monde professionnel ». Le flash « évoque le cas de trois entreprises françaises ayant été confrontées à des dérives ou des comportements à risque associés ou permis par l’usage de l’IA ». Trois exemples sont donnés :
Des salariés d’une entreprise française stratégique ont utilisé un outil d’IA générative pour traduire des documents confidentiels
Une société délègue entièrement l’évaluation de ses partenaires commerciaux à un outil d’IA
Une entreprise française a été victime d’une tentative d’escroquerie par hypertrucage (deepfake) associant le visage et la voix de son dirigeant grâce à l’IA
Le numéro précédent portait sur les approches malveillantes sur les réseaux sociaux, avec là encore trois exemples :
Une start-up se voit proposer un investissement par un intermédiaire au profil douteux à la suite d’échanges sur un réseau social professionnel.
Un chercheur est approché sur un réseau social professionnel par un individu prétendant qu’une célébrité internationale souhaite financer ses travaux.
Après avoir créé un faux profil sur un réseau social professionnel, un individu parvient à obtenir des informations sensibles auprès de salariés d’une société.
Les flashs précédents portaient notamment sur l’absence de protection des logiciels à usage industriel, des incidents impliquant des chercheurs étrangers accueillis dans le cadre de programmes académiques officiels, sur le facteur humain (principal vecteur de compromission des systèmes d’information), sur l’utilisation d’outils numériques personnels à des fins professionnelles, sur les visites publiques de sites industriels, de sociétés ou de laboratoires, sur les risques d’atteinte à la réputation d’entreprises ou de laboratoires français évoluant à l’international, etc.
Aujourd’hui, les serveurs de Netatmo ont décidé de fêter la nouvelle année à leur manière, avec une panne. En conséquence, « les applications et le contrôle à distance ne sont pas disponibles ». C’est déjà la quatrième fois en cinq mois…
Les messages sont nombreux sur les réseaux sociaux : les serveurs Netatmo ne répondent plus. C’est également confirmé par les retours sur Downdetector, avec les premiers signalements aux alentours de 10 h et une montée en puissance jusqu’à la fin de la matinée. Cet après-midi aussi les serveurs semblent hors service. Cela tombe mal alors que la France est traversée par une vague de froid.
Sur la page dédiée à la gestion des incidents, Netatmo confirme et précise que ses « équipes travaillent actuellement à la résolution de l’incident afin que tout rentre dans l’ordre dans les meilleurs délais », sans plus de détail. Par contre, aucun message sur X ni réponse aux internautes pour le moment, que ce soit avec le compte officiel ou le compte support.
Le fabricant précise que « les applications et le contrôle à distance ne sont pas disponibles, mais le contrôle manuel et l’enregistrement des données continuent de fonctionner normalement », ces dernières seront donc disponibles quand la situation sera revenue à la normale.
« Toutes les fonctionnalités seront restaurées automatiquement, aucune action de votre part n’est nécessaire », ajoute le fabricant. Il précise aussi qu’une « partie des utilisateurs de Home + Control ne peuvent pas accéder à l’application ».
Comme le rapporte mac4ever, les applications affichent un message un peu plus précis : « vos produits continuent de fonctionner en autonomie même s’ils ne sont plus connectés : les Caméras enregistrent les événements, les Thermostats régulent le chauffage, les interrupteurs contrôlent les lumières… et vous retrouverez le contrôle total très bientôt ! ».
Selon certains, la situation semble revenir doucement à la normale. N’hésitez pas à nous faire part de vos retours si vous êtes concernés. Quoi qu’il en soit, Netatmo enchaine les pannes ces dernières semaines, avec un incident du même genre le 5 novembre, un autre le 29 octobre, le 27 septembre…
Cela relance encore une fois la question de la dépendance des produits connectés aux serveurs du fabricant. Nous en avions fait un édito il y a déjà plus de cinq ans… et la situation n’est pas franchement meilleure aujourd’hui.
2025 a été le fruit de quelques « BD » si tant est qu’on puisse appeler ces petits récits séquentiels ainsi. Il y en aura eu dix tout de même, parmi les autres dessins d’actualité. Avec Next pour commencer cette année, on vous rappelle à leur bon souvenir ces petites histoires, en attendant de prochaines cette année. Comme pour le premier Best-of des dessins d’actu dévoilé le weekend dernier, ces histoires que vous pourrez consulter en cliquant sur les illustrations dédiées, sont en accès libre pour la communauté. Meilleurs voeux de changement de calendrier administratif.
La classe américaine, où le récit d’une réunion avec un directeur d’établissement au bout du bout.
Et voilà ! Si vous voulez voir les six autres récits de 2025 et découvrir celles à venir, comme faire un rattrapage des dessins d’actu, c’est simple : abonnez-vous les amis !
Alors que le budget de la NASA est en baisse, l’agence spatiale américaine ferme ce vendredi la bibliothèque du Goddard Space Flight Center. Un lieu qui abrite des dizaines de milliers de livres, de documents et de revues, dont beaucoup ne sont pas numérisés ou disponibles ailleurs, explique le New York Times.
Selon un porte-parole de la NASA, l’agence va faire l’inventaire de la bibliothèque d’ici deux mois pour trier les documents qu’elle stockera dans un entrepôt gouvernemental et ceux qu’elle jettera. « Ce processus est une méthode établie utilisée par les agences fédérales pour éliminer correctement les biens appartenant à l’État fédéral », justifie-t-il auprès du New York Times.
« L’administration Trump a passé l’année dernière à attaquer la NASA Goddard et son personnel, et à menacer nos efforts visant à explorer l’espace, approfondir notre compréhension de la Terre et stimuler les avancées technologiques qui renforcent notre économie et rendent notre nation plus sûre », affirme de son côté le sénateur démocrate du Maryland Chris Van Hollen.
Le porte-parole de la NASA renvoie les employés de l’agence vers un service numérique nommé « Ask a Librarian » ou vers les bibliothèques d’autres agences fédérales.
Selon le New York Times, le fonds de cette bibliothèque inclut, entre autres, des livres de scientifiques soviétiques des années 60 et 70 comme des informations sur les premières missions de l’agence américaine.
30 ans, une éternité pour Internet et le numérique… et pourtant, le protocole IPv6 est loin d’avoir remplacé IPv4 qui est malgré tout à bout de souffle (à cause de la pénurie d’adresses). Si les internautes français sont plutôt bien lotis, ce n’est pas le cas partout dans le monde.
En décembre 1995, l’Internet Engineering Task Force publie la RFC 1883 intitulée « Internet Protocol, Version 6 (IPv6) Specification ». Elle fixait au passage le nom de ce qui était parfois appelé IP Next Generation ou IPng. Les spécifications d’IPv6 ont été finalisées quelques années plus tard, en décembre 1998 avec RFC 2460.
En guise d’introduction, il était précisé que l’« IP version 6 (IPv6) est une nouvelle version du protocole Internet, conçue pour succéder à IP version 4 (IPv4) », dont la RFC 791 datait de septembre 1981. La principale nouveauté était le passage des adresses de 32 à 128 bits. D’autres changements étaient aussi de la partie, comme une simplification du format d’en-tête. IPv6 intègre aussi « des fonctionnalités permettant de renforcer la sécurité par défaut et d’optimiser le routage », explique l’Arcep (le gendarme des télécoms en France).
667 millions d’adresses IPv6… par mm² !
La différence est très importante puisqu’on passe de 4,3 x 10⁹ (soit 4,3 milliards) à 3,4 x 10³⁸ adresses possibles, soit une quasi-infinité à l’échelle de la Terre, puisque cela correspond à environ 667 millions d’adresses IPv6 pour chaque millimètre carré de surface terrestre.
4,3 milliards d’adresses peuvent sembler beaucoup, mais ce n’est pas le cas. Le RIPE NCC (Network Coordination Centre, en charge de l’Europe, du Moyen-Orient et de certaines régions d’Asie centrale) est « à court d’adresses IPv4 » depuis fin 2019. Les alertes avaient été lancées des années auparavant et la solution existait déjà depuis longtemps avec IPv6. Mais la transition est longue, très longue… elle n’est toujours pas terminée en 2026.
Cette même année, l’Arcep a décidé « d’initier la création d’une Task-Force IPv6, co-pilotée avec Internet Society France ». Son but est de « favoriser l’accélération de la transition vers IPv6 en permettant aux participants d’aborder des problèmes spécifiques et de partager les bonnes pratiques ».
La France en tête du taux d’utilisation d’IPv6 !
L’Arcep tient à jour une carte du taux d’utilisation d’IPv6, qui correspond au « pourcentage d’utilisateurs raccordés en IPv6 par leur fournisseur d’accès à internet ». Selon le dernier décompte de décembre 2025, la France est… en première position avec 75,1 %, devant l’Inde à 73,1 % et la Malaisie à 67 %.
Les États-Unis sont 11ᵉ avec 56,4 %. Les pays africains sont dans le bas du classement avec 27 % au maximum pour la République du Congo, contre 0,2 % seulement en Algérie.
En Afrique d’ailleurs, la situation était compliquée en 2025 avec des doutes sur des élections à l’AfriNIC et une question d’influence de brokers d’IP, le tout sur fond de bataille juridique et de pénurie d’IPv4. Il faut dire que l’« AfriNIC est le dernier registre internet régional à avoir des blocs d’adresses IPv4 à distribuer », nous expliquait Pierre Bonis, le directeur général de l’Afnic qui gère les noms de domaine en France. Cela attise donc les convoitises.
Risque de scission d’Internet : IPv4 et IPv6 « ne sont pas compatibles »
En France, l’Arcep publie chaque année un baromètre de la transition vers IPv6. Le dernier date de juillet 2025. Le régulateur y rappelait que IPv4 et IPv6 « ne sont pas compatibles », ce qui implique un risque de scission d’Internet. En effet, un service ou un site en IPv6 seulement (c’est-à-dire sans adresse IPv4) n’est pas accessible aux utilisateurs qui n’ont qu’une adresse IPv4, et vice-versa.
Ce n’est pas qu’une chimère, comme l’expliquait l’Arcep : « Bien que ce ne soit pas encore le cas en France, en Inde, des sites web indiens importants ne sont actuellement plus accessibles qu’en IPv6 et la Chine a planifié l’arrêt complet d’IPv4 en 2030 ».
En République tchèque, le gouvernement a annoncé la fin des services officiels accessibles en IPv4 à partir du 6 juin 2032. Un compte à rebours est lancé. Il reste 2346 jours.
Cinq grandes étapes, la première d’ici 2 à 3 ans ?
L’Arcep prévoit cinq grandes étapes de la transition mondiale vers IPv6 :
IPv6 est activé par défaut sur la quasi-totalité des offres grand public
IPv6 est activé par défaut sur la quasi-totalité des offres grand public, pro et entreprises
Une part non négligeable des sites web sont hébergés en IPv6 uniquement
Une part non négligeable des FAI ne proposent plus d’IPv4
La majorité des sites abandonnent IPv4
La première étape « devrait être atteinte au cours des trois prochaines années ». En France, Bouygues Telecom, Orange et Free sont à plus de 90 % de clients activés en IPv6 sur le grand public. Sur le pro, Orange était à la traine au dernier décompte avec 57 % fin 2024. Restait SFR à 54 % sur le grand public et 10 % sur le pro, mais la marque au carré rouge prévoyait de dépasser les 90 % de clients activés fin 2026.
Sur le mobile, Free était pendant longtemps le vilain petit canard, mais le fournisseur d’accès à Internet a enfin activé ses clients en mars 2025.
Si vous vous demandez comment fonctionne Internet, nous avons pour rappel publié un long dossier sur le sujet :
Historien des médias, pionnier des bases de données, de l’« information automatisée », de l’accès aux images satellitaires puis du web, Antoine Lefébure a aussi créé la première radio « libre » française, et préfiguré ce qui allait devenir Canal+. Il se définit lui-même comme un « pirate », et vient de publier une histoire du « secret d’État », à laquelle il a consacré ces cinq dernières années. Portrait, doublé d’une interview.
Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 10 avril 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !
Taquin, Antoine Lefébure indique sur son blog avoir été dans la même classe de CP que Vincent Bolloré et Martin Bouygues. Contrairement à eux, il n’est devenu ni milliardaire ni magnat des médias. Et si son nom est bien moins connu que les leurs, son empreinte sur le paysage audiovisuel français (PAF) n’a rien à leur envier.
Il a 18 ans lorsque, en 1968, il devient étudiant à Nanterre : « L’année révolutionnaire pour un étudiant épris de liberté et agitateur né, l’occasion est trop belle », écrit-il dans sa biographie. L’artiste d’avant-garde Jean-Jacques Lebel vint y expliquer qu’il fallait « faire une révolution culturelle comme l’avaient souhaité Dada et les surréalistes. Une perspective qui m’enthousiasme plus que le délire pro-ouvrier des maoïstes », se souvient-il.
Dans une interview de 2008 pour Médiamorphoses, il se souvient d’avoir assisté à des débats enflammés entre Daniel Cohn-Bendit et Bruno Gollnisch. Étudiant juif allemand, le premier allait devenir une figure de Mai 68. Le second, qui tenait à l’époque la corpo de Droit, est depuis devenu une figure du Front national. Mais la préférence d’Antoine Lefébure, qui se présente lui-même comme plutôt « chahuteur », va alors aux Enragés, « pour la plupart fils d’anarchistes espagnols et inspirés de l’Internationale Situationniste ».
Quelques semaines plus tard, le Mouvement du 22 Mars constitue l’un des éléments déclencheurs de Mai 68. Il participe à toutes ses manifestations, fréquentant Sartre, Virilio, Baudrillard, et Godard, qui filmait alors les Rolling Stones. Il explique y avoir aussi découvert les Pink Floyd, la marijuana et la presse underground, et être devenu spectateur assidu de tous les festivals de l’époque, Woodstock, île de Wight, Amougies…
« Le retour à Nanterre en septembre sera un peu dur, détaille-t-il sur son blog. Nous sommes dans le collimateur des policiers, des appariteurs musclés, des indics et des fascistes, tous bien décidés à prendre leur revanche après la grande peur de Mai. Le gauchisme, je m’en rends très vite compte, ne fait pas le poids. Je continue mes études avec comme bol d’air, les cours de Baudrillard et les projections de Langlois qui nous raconte « son » histoire du cinéma. »
Il passe ensuite une année sur le campus de Berkeley en Californie – autre haut lieu de la contestation dans les années 1970 – pour y étudier la communication : « j’y ai travaillé avec des gens qui faisaient des Blue Box [dispositif électronique permettant de frauder les télécommunications mais également d’écouter des conversations en cours, ndlr], explique-t-il à Next. je travaillais aussi pour une organisation, People Broadcasting Service, qui traduisait des messages venant du monde entier, mais aussi pour une radio libre à Berkeley, et c’est ça qui m’a donné envie de faire pareil en France ».
Revenu en France, il enquille à la Sorbonne une maîtrise d’Histoire contemporaine sur « Le rôle de la radio en France pendant la Seconde Guerre mondiale », et plus particulièrement à Radio Paris. Placée sous la direction de la propagande nazie, celle-ci se fit le porte-voix collaborationniste du régime de Vichy afin de convaincre les Français de collaborer avec les Allemands. Elle est aussi connue pour avoir été brocardée par Pierre Dac sur Radio Londres en mode « Radio-Paris ment, Radio-Paris ment, Radio-Paris est allemand » :
« Il y avait une omerta à l’époque, j’ai réussi à faire ouvrir les archives, travaillé sur la propagande nazie, et découvert que plein de gens de l’ORTF ou de RTL avaient commencé à Radio Paris. »
« La police nous écoute, écoutons la police »
Antoine Lefébure commence en parallèle à faire des reportages pour L’Idiot International, le journal pamphlétaire de Jean-Edern Hallier, et Libération, découvrant par ailleurs l’intérêt d’ « écouter les communications de la police pour être au courant de tout avant tout le monde ». À la grande fureur des autorités, il fait la promotion de ce hobby, écrivant dans les colonnes du quotidien « La police nous écoute, écoutons la police ».
En échange, et plutôt que de le payer, Libé met à sa disposition du matériel pour qu’il maquette et imprime la revue qu’il contribue à créer en 1974, Interférences, sous-titrée « Pour une critique des appareils d’information et de communication ».
Dans son premier numéro, Interférences révèle les plans secrets du nouveau réseau téléphonique gouvernemental français Régis. Dans son n°2, elle traite de l’informatisation de la police aux États-Unis, des sabotages informatiques, puis de l’espionnage (et de la surveillance, et de la pollution) électronique, de la cryptographie, de la protection du secret en France et aux États-Unis, de l’ « irruption du techno-imaginaire » … ainsi que de la NSA, auquel Antoine Lefébure consacrera un article en 1976.
Y contribuent notamment Philippe Aigrain, Jean Baudrillard, William S. Burroughs, Philip K. Dick, Jean-Edern Hallier, Maurice Ronai ou encore Norman Spinrad, quand bien même, à l’époque, les idées promues et véhiculées par Interférences touchèrent un public réduit mais passionné :
« Parler de piratage informatique, d’écoute électronique, de radios libres à cette époque suscite peu d’échos, écrit-il. Le milieu gauchiste considère cela comme un délire de techniciens, les professionnels du domaine ne comprennent pas de quoi nous parlons. Pourtant se rassemble autour de la revue un groupe hétéroclite de passionnés qui sont aujourd’hui à tous les carrefours des industries de la communication. »
Interférences a depuis été qualifiée de « lieu de réflexion sur les grands mouvements technologiques que la France des années 1970 est en train de découvrir », mais également de « magazine underground, post-gauchiste, rédigé par des bénévoles, entièrement consacré, chose rare au milieu des années soixante-dix, à l’électronique, à l’informatique, aux ondes de toutes fréquences, aux hackers, au cryptage et à l’espionnage ».
Il pirate Antenne 2, et lance la première radio libre
Lors des élections municipales de 1977, les Amis de la Terre recueillent, sous l’intitulé « Paris Écologie », quelque 10 % des voix à Paris, marquant l’émergence de l’écologie politique en France. À cette occasion, le futur candidat écologiste à l’élection présidentielle de 1981 Brice Lalonde et Antoine Lefébure concoctent un « coup médiatique », sous la forme d’un « piratage » du « temps de cerveau disponible » de 5 millions de téléspectateurs d’Antenne 2, et de l’ensemble des journalistes et médias qui y assistèrent.
Sur le plateau de l’émission, Brice Lalonde sort en effet un transistor diffusant la première émission de Radio Verte, la première radio FM dite « libre » en France à oser braver ouvertement le monopole gouvernemental. Antoine Lefébure, qui s’était fait passer pour son garde du corps, avait en effet bricolé un émetteur gros comme une cassette.
Antoine Lefébure lance aussi une Association pour la libération des ondes (ALO), afin de lutter pour la libre expression radiophonique et contre les inculpations de responsables des radios libres, les saisies de matériel et le brouillage des ondes.
En parallèle, une enquête intitulée « Le monopole d’État et l’histoire du télégraphe et du téléphone en France » lui permet de préparer un Doctorat d’Histoire Contemporaine, en 1979, et de muscler son expertise au service de la défense des radios libres.
Le combat de Giscard d’Estaing pour maintenir l’interdiction des radios libres, les brouiller et saisir leur matériel, contribua à sa défaite électorale en 1981, estime par ailleurs Antoine Lefébure.
La légalisation des « radios libres » par le gouvernement socialiste de François Mitterrand, élu président en 1981, signe la fin de son engagement en faveur de cette forme de « liberté d’expression », et de son combat contre le « monopole d’État » qui y présidait.
« On a passé un accord avec NRJ, mais ils sont allés voir le gouvernement, en leur disant « si vous nous donnez la fréquence sans Radio Verte on vous fait la propagande », se remémore-t-il. Pendant les 3 premières années, les flashs d’information de NRJ n’était que le bulletin paroissial du parti socialiste, c’était dément, et on a été viré, ce qui arrangeait le pouvoir politique. »
Après s’être fait piquer sa fréquence par NRJ, il contribue à lancer… Canal+
Après s’être fait piquer la fréquence de Radio Verte par NRJ, il abandonne et est recruté par le groupe Havas comme responsable du développement (nouvelles technologies, banque de données, CD …) « grâce à un type d’Havas que j’avais rencontré au séminaire de Jean Baudrillard » :
« Havas faisait de la pub et du tourisme, les deux choses que je déteste, raconte-t-il. J’avais 28 ans, c’était la première fois que j’étais salarié, à Neuilly-sur-Seine, mais y avait une bonne ambiance, j’ai embauché plusieurs potes qui venaient eux aussi de la radio libre, et on voulait bosser dans les médias. »
« Ce qui nous intéresse, ce sont les systèmes d’information et les banques de données », précisa-t-il dans l’interview de 2008, au point d’en devenir « un utilisateur forcené ». En 1982, grâce au réseau de transmission de données Tymnet (initialement conçu par Tymshare, un fournisseur américain de services dits de temps partagé), Havas avait accès à la plupart des grandes banques de données américaines. « Nous explorions ainsi toute la presse états-unienne à l’aide de simples mots-clés ».
Fourni par LexisNexis, le service avait été conçu à Palo Alto et était distribué en France par le centre de documentation du Point. Cela permettait à ses équipes de trouver des informations auxquelles personne d’autre n’avait accès. D’une part, parce que ce terminal spécifique « nous coûtait quelque 1 500 francs l’heure de consultation », mais également parce qu’aucun organisme ou presque ne s’en servait :
« Au bout de six mois, les gens de Nexis viennent nous voir, ils sont évidemment très contents parce que nous leur avons lâché plus de 100 000 francs. Nous apprenons, à cette occasion, que les deux seuls utilisateurs de leur service en France sont Havas et… la DGSE. »
Séduit en tant qu’utilisateur, Antoine Lefébure essaye de convaincre Havas d’investir dans ce secteur prometteur : « Mais, à l’époque, Nexis ne gagne pas un sou. Personne n’y croit. Alors, j’arrête les frais en me disant : « Les esprits ne sont pas mûrs » », se souvient-il. Entre-autres mots-clefs, histoire de trouver d’autres idées à développer, « on a tapé pay TV », et découvert qu’il y avait alors aux USA deux télévisions hertziennes à péage (On TV, et Select TV) :
« J’ai envoyé là-bas un membre de mon équipe, Jacques Driencourt, qui est revenu avec toute la technologie, le logiciel de gestion des abonnés, les mecs lui ont tout donné ! On a fait un petit projet, c’était le moment où André Rousselet arrivait à Havas comme président. Les hauts responsables de l’agence lui ont présenté la direction du développement, que je dirigeais, comme des malades mentaux, mais Rousselet détestait autant la pub et le tourisme que nous. On lui a présenté notre projet de TV à péage et il est devenu dingue, c’est devenu son bébé. Et nous voilà partis pour trois ans de travaux, avec des délais invraisemblables. »
« Intellectuellement, le projet de télé à péage, c’était pas excitant. Ce qui m’excitait, c’était de casser le monopole de la télé, après avoir cassé celui de la radio », nous précise Antoine Lefébure : « j’étais du côté du manche chez Havas, dont le président était le meilleur copain de Mitterrand, et donc on a pu prendre le pas sur TDF (qui nous avait brouillé pendant 4 ans, du temps des radios libres), et notre vengeance a été totale : TDF vomissait cette idée, ils ont tout fait pour nous éliminer, de même que France Télécom et le ministère de l’Industrie », qui voulaient privilégier leur projet de plan câble.
« Un nouveau front : celui de l’information, pétrole du XXIème siècle »
Devenu directeur de la prospective du groupe Havas, il y lance les premières expériences de télématique et de banque de données du groupe, et se lance dans la prospective.
Avec Maurice Ronai (lui aussi chercheur et pionnier du numérique, et qui était alors journaliste spécialisé dans l’informatique), il co-signe en 1979 « Panne des sens », un film (en vidéo) sur « l’informatisation de la société », pour reprendre la terminologie de l’époque. Les cinéphiles apprécieront qu’y figurent également au générique le réalisateur et scénariste Louis Daquin, la directrice de la photographie et cinéaste Caroline Champetier et Dominique Chapuis, alors chef op’ de Godard et qui sera par la suite celui du Shoah de Claude Lanzmann.
Cette même année, Lefébure et Ronai publient aussi et surtout une série d’articles dans Le Monde Diplomatique, intitulée « La guerre des données » et consacrée à l’importance croissante des réseaux télématiques et bases de données.
Ils y expliquaient pourquoi, « dans la guerre économique et industrielle mondiale, se dégage un nouveau front : celui de l’information », qu’ils qualifiaient déjà de « nouvelle matière première [et] pétrole du vingt-et-unième siècle » :
« Révolution informationnelle, société informationnelle, âge de l’information, société postindustrielle, troisième âge de la révolution industrielle… Toute une série d’analyses mettent l’accent sur l’information comme nouvelle matière première, nouvelle forme d’énergie, pétrole du vingt et unième siècle, agent majeur de la croissance, moteur de l’économie, nouvelle frontière pour des sociétés essoufflées. »
Un an avant le lancement des premières expérimentations du Minitel (pour « Médium interactif par numérisation d’information téléphonique »), ils relevaient déjà que grâce aux satellites, fibres optiques, réseaux de télécommunication, micro-ordinateurs, microprocesseurs et leurs applications, « l’informatisation des fichiers, conçus pour être interrogés en « conversationnel » (on line), et des réseaux de télétransmission internationaux qui permettent d’accéder à ces vastes « réservoirs de pensée » » :
« Il est actuellement possible, à partir de n’importe quel lieu où l’on dispose d’un téléphone, d’interroger à l’aide d’un terminal plusieurs millions de références d’articles, plusieurs milliards de données numériques ou textuelles sur tous les sujets, de modifier immédiatement la question en fonction des premières réponses et d’obtenir en quelques minutes l’information souhaitée. »
Ils soulignaient aussi que si l’information est « une marchandise » et qu’ « un immense marché s’offre aux sociétés spécialisées dans la vente de données », « les impératifs de rentabilité et la concurrence annoncent une guerre commerciale où risquent de s’engloutir les notions de service public et de souveraineté de l’État ».
Évoquant la « suprématie économique et scientifique » des États-Unis en la matière, ils s’étonnaient du fait que, non contents de détenir « le premier parc mondial d’ordinateurs (un tiers plus nombreux que dans le reste du monde) », « avec quatre cent cinquante banques et bases de données, les États-Unis détiennent 90 % du stock mondial de données on line » :
« Cette suprématie résulte d’un effort prolongé et largement subventionné par le gouvernement américain, qui a beau jeu, aujourd’hui, de dénoncer le soutien apporté par les gouvernements d’Europe occidentale à leurs industriels de l’information. Mais, à trop insister sur le financement gouvernemental, on manque l’essentiel : l’environnement informatique, la richesse des gisements informationnels, le dynamisme des compagnies qui exploitent ces gisements. »
Ils notaient également que « l’avance américaine, évaluée à cinq ans, glisse insensiblement au monopole de fait, au niveau tant de la production des bases de données que des systèmes de distribution et des réseaux de transmission ».
Un an plus tard, Lefébure soulignait qu’ « à l’avenir, ceux qui contrôlent les réseaux télématiques détiendront en grande partie les moyens de transmission du savoir. Et, avec ces moyens, un pouvoir de contrôler l’évolution des sociétés et des esprits ».
Interrogé par Médiamorphoses à leurs sujets, Antoine Lefébure précise : « Ce qui m’intéresse alors, c’est moins l’informatique en elle-même que les services qu’elle peut fournir. C’est aussi cette idée ou ce fantasme qu’il y a, quelque part, un grand réservoir d’informations qui nous est fermé, et qu’il faudrait « pirater » pour pouvoir ensuite agir en conséquence ».
« Donc, avec Maurice Ronai, un ancien membre des comités d’action lycéens de Mai 68 et un complice d’Interférences, nous travaillons sur ces questions, reprend-il pour Next. Claude Julien nous donne carte blanche pour réaliser un dossier dans Le Monde Diplomatique, nous rédigeons également quelques articles pour Libération. Il n’en faut pas plus pour devenir « spécialistes » aux yeux des profanes. Il faut en effet se souvenir qu’à l’époque, très peu de personnes s’intéressent à l’information automatisée. »
Et ce, d’autant qu’ « en France, il y a un vrai mépris des technologies : non seulement la plupart des gens n’y comprennent rien, mais il y a en plus une sorte de suffisance qui fait que les leaders d’opinion (politiques, intellectuels, etc.) mettent comme un point d’honneur à les mépriser ».
Il se souvient qu’à Havas, « quand nous parlions par exemple d’ »algorithmes de cryptage » pour le décodeur de Canal Plus, André Rousselet nous interrompait brutalement en disant : « Épargnez-moi ce genre de mots ! » Une suffisance ridicule ! ».
« N’oublions pas que les médias audiovisuels sont alors interdits du fait du monopole », soulignait-il, ce pourquoi la plupart des gens de sa génération « vont s’investir dans la presse écrite ».
Pirate des monopoles d’État, maître d’œuvre du web gouvernemental
En 1988, François Mitterrand est réélu, le RPR place ses amis et Lefébure vole vers de nouvelles aventures. Il crée sa propre société, Technique Media Société (TMS), qui jouera un rôle de pionnier dans le développement de l’information automatisée, l’accès aux bases de données et des images satellitaires.
En 1994, il se rend aux États-Unis dans le cadre d’une étude sur le dépôt légal de l’audiovisuel, et découvre Mosaic, le premier navigateur à avoir rendu le World Wide Web populaire. En 2008, il raconte :
« C’est vraiment une révélation : il y a désormais une interface et ça ne coûte pratiquement rien. Non seulement ça marche, mais, en plus, il est évident que ça va changer le monde. Dès mon retour, j’arrête tout et je bascule TMS vers l’Internet. »
« Comme j’avais ma formation banques de données, c’était ce que j’attendais depuis 10 ans, et on a fait de TMS une des premières web agency » en France, nous précise-t-il, contribuant notamment à lancer, en 1996, le… tout premier site web du Premier ministre français (Alain Juppé, qu’avait alors convaincu son ministre des télécommunications, François Fillon), « optimisé pour Nestcape 2.0, en mode graphique, pour une fenêtre de 640 par 480 pixels ».
Un joli pied de nez, pour celui qui n’avait de cesse de lutter contre le monopole de l’État en matière de liberté d’expression audiovisuelle. Une victoire politique, aussi, alors que « certains, dans l’entourage du premier ministre, insistent pour que les sites n’intéressant a priori que le public français restent exclusivement basés sur Télétel, c’est-à-dire demeurent pour l’essentiel payants », comme le soulignait alors un article du Monde intitulé « Marianne flirte avec Internet ».
« En France, pendant dix ans, on a considéré l’information comme un marché ; on l’a fait payer. Les recettes générées sont devenues un élément de fonctionnement », y relevait de son côté Maurice Ronai, constatant qu’aux États-Unis, une bonne partie des textes officiels dont l’accès étaient payants en France (budgets détaillés, rapports d’activité, lois en discussion, etc.) « sont disponibles gratuitement sur Internet ».
Un constat appuyé par Antoine Lefébure qui, s’étant vu confié la maîtrise d’œuvre du montage des services en ligne de Matignon, expliquait au Monde que « la générosité est payante sur Internet. Les économies engendrées, en simplifiant la vie quotidienne des citoyens et de l’administration, seront supérieures au manque à gagner ».
« La consultation du site Web sera instructive : ce service témoignera de la façon dont le premier ministre entend informer et dialoguer effectivement avec les citoyens », concluait l’article du Monde, évoquant « un enjeu moins futile qu’il y pourrait paraître ». Une vision qu’il eut du mal, cela dit, à faire accepter, comme il le relevait auprès de Médiamorphoses :
« Au début, ce n’est pas facile, autant pour nous que pour les trois ou quatre autres sociétés qui s’installent sur le créneau. Pendant deux ans, je passe mon temps à expliquer la différence entre Internet et le minitel, que j’ai toujours détesté, sans doute parce que c’était une nouvelle incarnation du monopole. J’essaye aussi de convaincre mes interlocuteurs que ce réseau n’est pas un nouvel avatar de l’impérialisme américain. »
Un « pirate radio » poursuivi par la DST et la Justice, à l’âge de 13 ans
Interrogé sur ce qui avait pu présider à un tel parcours, somme toute emblématique de la « contre-culture » technologique des années 70 et 80, Antoine Lefébure explique avoir découvert, à l’âge de 12 ans, au dernier étage du Palais de la découverte, « un radio-amateur en blouse blanche » qui lui laissait parfois les manettes, lui permettant de correspondre avec des gens du monde entier :
« Et ça m’a passionné, j’ai commencé à acheter des vieux postes, je mettais 60 mètres de fil de fer pour écouter les ondes courtes et j’entendais des radioamateurs, j’étais DX [loisir qui consiste à rechercher et identifier des signaux radio/TV à longues distances, ndlr], et à 17 ans, je me suis lancé dans l’émission, en réception tu ne fais qu’écouter, c’était interdit quand tu n’avais pas de licence. »
Antoine Lefébure précise n’avoir « jamais eu de licence de radioamateur : j’ai toujours été pirate, quand on se salue avec nos potes, on se dit « pirate un jour, pirate toujours ! » ». Rapidement, il avait en effet identifié « un type comme moi qui avait une puissance incroyable et qui me bloquait en réception ». C’est ainsi qu’il a rencontré Sylvain Anichini, qui était « très fort en hautes fréquences et en informatique ».
Lefébure se souvient qu’à l’époque de leur rencontre, Sylvain Anichini avait installé son émetteur avec une antenne de 10 mètres sur le toit, qu’il émettait dans le monde entier « et s’était fait piquer deux fois par la DST et inculper deux fois. Le tribunal pour enfants l’a relaxé, mais il était dans le viseur des flics, son antenne faisait concurrence avec celle de la Place Beauvau ».
Antoine Lefébure se souvient aussi que le responsable de la police des communications radio-électriques (PCR), sise à Boullay-les-Troux (devenue depuis une station d’écoute de la DGSI), s’appelait Commissaire Brute : « il nous aimait bien parce qu’on lui donnait du boulot, d’autant qu’ils étaient en surnombre vu qu’il y avait moins de gauchistes » entre 1977 et 1981.
Cela n’empêcha pas Sylvain Anichini de faire carrière à la télé puis la radio, comme le raconta Télérama, et même de concevoir le décodeur de Canal+ après qu’il fut recruté par Antoine Lefébure à Havas :
« À 13 ans, il est convoqué au tribunal pour enfants. À 17 et 19 ans, il passe en correctionnelle. En 1981, il fabrique les antennes à la chaîne. Surdoué de la technique, mais las d’être traqué par la police, Sylvain Anichini passe alors à autre chose : en 1984, il devient le directeur technique de Canal+, puis de La Cinq, de La Cinquième, de France 3, avant de s’installer dix ans à Radio France. »
Jeune ingénieur de l’École des technologies de l’information et de la communication, Sylvain Anichini s’était aussi associé avec deux camarades pour importer les premiers micro-ordinateurs des États-Unis, relevait L’Usine Nouvelle en 1996 :
« J’ai été présenté à André Rousselet, qui m’a demandé : « Trouvez-moi quelque chose pour être opérationnel dans un an », se souvient-il. Cette course contre la montre, il la gagne grâce à son ingéniosité. En concevant le décodeur uniquement avec des pièces disponibles sur le marché. Et en fabriquant la boîte avec les moules plastiques d’un répondeur téléphonique. Canal Plus lancé, Sylvain Anichini rejoint la Cinq d’Hersant. « Nous avons conçu l’une des premières rédactions informatisées au monde, avec CNN », rappelle-t-il. »
Le « pirate » britannique qui avait devancé Edward Snowden
Sylvain Anichini n’est pas le seul « pirate » à avoir influencé Antoine Lefébure. Il se souvient d’avoir rencontré Duncan Campbell en 1973 - 74, « parce que c’était un pirate assez connu en Grande-Bretagne, j’étais fasciné par lui. Avec lui et Sylvain, j’avais toutes mes réponses ! ».
Né en 1952, Duncan Campbell s’était de son côté intéressé à la programmation informatique à l’âge de 16 ans. Étudiant en physique, il avait commencé à publier ses premiers articles dans la presse « alternative » et « underground » aux débuts des années 70 afin, tout comme Antoine Lefébure, d’y partager ses découvertes.
En 1976, il publia notamment « The Eavesdroppers », qui révéla l’existence du Government Communications Headquarters (GCHQ), l’équivalent britannique de la NSA, dont l’existence était alors secrète, quand bien même il s’agissait du plus important des services de renseignement britannique. Cela valut à son co-auteur, Mark Hosenball, un journaliste américain, d’être expulsé du Royaume-Uni, et à Campbell d’être placé sur écoute et surveillance par le MI5, le service de contre-espionnage britannique.
Dans un article intitulé « Le GCHQ et moi », publié en 2015, Duncan Campbell revient brièvement sur les nombreux problèmes judiciaires, policiers ainsi qu’avec les services de renseignement que ses révélations lui ont depuis valu :
« Au cours de mes 40 années de reportage sur la surveillance de masse, j’ai subi trois descentes de police, j’ai été emprisonné une fois, j’ai vu des émissions de télévision que j’avais réalisées ou contribué à réaliser interdites de diffusion sous la pression du gouvernement à cinq reprises, j’ai vu des enregistrements saisis, j’ai été poussé hors d’un hélicoptère, mon téléphone a été mis sur écoute pendant au moins une décennie et, avec cette arrestation, j’ai été mis en examen pour une peine pouvant aller jusqu’à 30 ans d’emprisonnement pour des violations présumées des lois sur le secret. »
Il y explique par ailleurs avoir entendu parler pour la première fois des services secrets étant enfant : « Ma mère, Mary, mathématicienne, se souvenait souvent de son travail pendant la guerre dans un établissement ultrasecret [Bletchley Park, ndlr], et notamment de ses deux années passées aux côtés d’un homme que l’on appelait « le Prof » » :
« Elle dressait le portrait d’un homme maladroit, dégingandé et bègue, qui aimait la course de fond et les champignons qu’il ramassait dans les bois locaux et que personne ne voulait toucher – et qui était un génie des mathématiques « hors de sa portée ». Le professeur était Alan Turing, le décrypteur du code allemand Enigma pendant la guerre, l’inventeur de l’ordinateur moderne et le héros du film The Imitation Game, récemment récompensé par un Oscar. »
Il y précise aussi que « c’est à l’école que j’ai découvert le réseau de surveillance du GCHQ ». Lors d’une sortie à vélo en Écosse avec un autre étudiant en sciences, ils avaient en effet repéré une grande station radio au sommet d’une colline, sécurisée par des clôtures, des portes verrouillées et un panneau sans signification accroché au câble : «CSOS Hawklaw ». Interrogé, le propriétaire d’un fish-and-chips des environs leur rétorqua que les gens qui y travaillaient « ne parlent jamais », précisant que « c’est une base secrète du gouvernement ».
En mode OSINT (pour Open Source INTelligence, ou renseignement de source ouverte – ROSO – en français), à la bibliothèque municipale, il consulta dans la foulée les annuaires téléphoniques du pays, à la recherche d’autres sites du même nom. Il découvrit d’une part que les initiales signifiaient « Composite Signals Organisation Station », d’autre part qu’il existait d’autres stations de ce type un peu partout au Royaume-Uni. Quatre ans et un diplôme de physique plus tard, il découvrit aussi que le CSOS faisait partie du GCHQ, mais également que ce dernier y avait aussi déployé d’autres stations d’écoute et de surveillance des télécommunications, avec la NSA.
En 1988, il révélait l’existence du programme Project 415 (surnommé Echelon) de surveillance et d’interception des communications satellites, mis en œuvre par les services de renseignement anglo-saxons de l’alliance des « Fives Eyes ». Dix ans plus tard, le Parlement européen lui commandait un rapport circonstancié à son sujet, qui révéla qu’ils s’en servaient également pour faire de l’espionnage industriel, identifier les entreprises corruptrices (notamment européennes), afin de privilégier leurs propres entreprises.
Et ce, alors que la Grande-Bretagne faisait pourtant aussi partie de l’Union européenne. Ses recommandations furent « adoptées dans leur intégralité le 5 septembre 2001 », soulignait-il, ironiquement :
« Six jours plus tard, les tours jumelles s’effondraient. Les plans visant à limiter la surveillance de masse ont été enterrés avec les victimes du 11 septembre et n’ont jamais été officiellement publiés. Mais la preuve de l’existence d’Échelon est désormais disponible. »
Évoquant l’une des auditions le ciblant explicitement comme « atteinte à la sécurité nationale », Duncan Campbell soulignait que les témoins des services de sécurité avaient tenté, les uns après les autres, d’affirmer que les informations qu’il avait publiées « étaient en fait secrètes ». Lors de l’un de ces échanges, le chef d’une unité SIGINT (pour SIGnal INTelligence, ou renseignement d’origine électromagnétique, ROEM en français) s’était vu montrer un panneau de signalisation estampillé « CSOS » flanqué à l’entrée de sa base, et consultable par tous les passants :
« Q : Est-ce le nom de votre unité ? R : Je ne peux pas répondre à cette question, c’est un secret. Q : Est-ce le panneau que les passants de la route principale voient à l’extérieur de la base de votre unité ? R : Oui. Q : Lisez-le au jury, s’il vous plaît. R : Je ne peux pas le faire. C’est un secret. »
Dans un second article, nous reviendrons plus précisément sur « Vie et mort du secret d’État », l’essai qu’Antoine Lefébure vient de publier à ce sujet, mais que nous estimions ne pas pouvoir évoquer sans être préalablement revenu sur son parcours.
Dans un rapport publié fin décembre, l’Arcom constate l’augmentation des actions d’éducation aux médias, à l’information et à la citoyenneté numérique (EMI&CN) par les acteurs qu’elle contrôle (chaînes de télévision, de radio et plateformes en ligne) sans pour autant être capable d’en faire un bilan réel. Pour cela, et bien tardivement, elle met en place un « kit », à usage volontaire, pour évaluer la pertinence des actions.
La fin d’année est souvent l’occasion de bilans. L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) en a profité la semaine dernière pour publier son rapport sur l’éducation aux médias, à l’information et à la citoyenneté numérique pour les années 2024 et 2025. Alors que pour l’instant l’Autorité ne fait le bilan que sur le décompte des actions menées, elle commence timidement à mettre en place une démarche d’évaluation… volontaire.
L’Arcom considère que ce thème entre dans ses missions d’accompagnement des acteurs qu’elle contrôle concernant leurs « responsabilités démocratiques et sociétales des médias audiovisuels et des plateformes en ligne ». Parmi ces acteurs, l’audiovisuel public depuis longtemps mais aussi les chaines du secteur privé, car l’Autorité a ajouté une clause depuis 2020 aux conventions qu’elle signe avec elles.
Depuis 2024 et la transposition du DSA dans la loi française, la participation à des campagnes d’éducation aux médias est considérée comme une des mesures à mettre en place par les très grandes plateformes et très grands moteurs de recherche en ligne (VLOPSEs) pour atténuer les risques systémiques liés à la diffusion de contenus de désinformation. L’Arcom doit veiller à ce que ces acteurs en tiennent compte. Une des difficultés est de contrôler si ces actions ont réellement une efficacité.
Une hausse des actions du PAF, peu d’informations sur celles des plateformes
Pour l’instant, l’Autorité ne donne dans son bilan que le décompte des actions menées par ces différents acteurs. Ainsi, elle met en avant qu’« en 2024 - 2025, les chaînes de télévision et de radio ont déclaré plus d’initiatives que l’exercice précédent : 267 de plus, soit une hausse de 35 %. Cette augmentation concerne tous les types d’actions : 125 actions de plus sur les antennes, 45 de plus sur le numérique et 97 de plus sur le terrain ». Sans donner de montant, l’Arcom salue « l’engagement constant des chaînes de télévision et de radio qui, chaque année, mobilisent des moyens importants pour mener ces actions ».
Plus en détail, on peut constater que la plupart de ces actions d’éducation aux médias, à l’information et au numérique du paysage audiovisuel français sont réalisées directement sur leurs antennes :
Mais l’Autorité souligne une hausse des actions de terrain : près de 100 de plus en 2025 que l’année précédente, ce qui représente une hausse de 75 %. Elle ajoute que les médias français ont suivi ses préconisations formulées en 2024 leur demandant de diversifier leur public cible.
En effet, si les collégiens et lycéens restent toujours la cible principale (58 % en 2024 et 51 % en 2025), les médias visent un peu plus les étudiants (+ 4 points entre 2024 et 2025) et le grand public (+ 8 points). L’Arcom regrette que ces actions se concentrent sur trois thèmes : « la lutte contre la désinformation (56 %), la découverte du métier de journaliste (30 %) et l’éducation au numérique, loin derrière (5 %) », et demande aux acteurs de « diversifier les thématiques abordées ».
Concernant les plateformes en ligne et les réseaux sociaux, l’Arcom est peu loquace. S’appuyant seulement sur les rapports que les plateformes doivent transmettre à la Commission européenne, elle liste juste des « tendances s’agissant de l’implication de ces acteurs en la matière ». Il y est question de campagnes d’éducation aux médias via des vidéos et des messages d’intérêt général, de l’intégration d’outils pédagogiques dans leurs services et de la conclusion de partenariats avec des associations spécialisées ou des agences de presse.
En exemple, l’Autorité donne même un programme de Google Search avec Public Librairies 2030, dont le lien date de 2022 et affiche maintenant une page d’erreur (cf sa sauvegarde sur archive.org). L’Arcom ne pose pas non plus la question de la mise en avant de ces actions par les différentes plateformes et de l’engagement qu’elles pourraient leur offrir, puisqu’elles maitrisent les algorithmes qui peuvent les booster.
Pas d’évaluation de l’efficacité
Dans ce rapport, si l’Arcom donne des chiffres sur le nombre d’actions menées au moins par les médias audiovisuels français, l’Autorité ne propose aucune évaluation de ces actions. Elle semble avoir identifié le problème, puisqu’elle annonce la mise en œuvre, « en concertation avec le ministère de l’Éducation nationale (DGESCO et DNE), le CLEMI et une chercheuse de l’Université de Lille » (sans la nommer), d’un « dispositif opérationnel pour mesurer l’impact des actions en EMI&CN ».
Celui-ci doit se faire via un « Kit d’évaluation des actions menées en EMI&CN » disponible sur la plateforme demarche.numerique.gouv.fr. Pour l’instant, cela semble se résumer à un dossier à remplir sans autre information :
En octobre, Linux dépassait pour la première fois les 3 % de parts de marché sur Steam (+ 0,37 point en un mois), la plateforme de jeux vidéo de Valve. Rappelons que, dans le même temps, Microsoft arrêtait le support de Windows 10, sauf en Europe avec un an supplémentaire.
En novembre, le système d’exploitation confirmait sa croissance avec 3,2 % de parts de marché. C’était donc une progression de 0,2 point, mais le score restait toujours sans commune mesure avec Windows, présent sur près de 94,79 % des machines des joueurs.
Les chiffres de décembre viennent de tomber et… Linux stagne avec 3,19 % de parts de marché, soit même une petite baisse de 0,01 point en un mois. Windows de son côté grimpe à 94,95 % (73 % pour Windows 11, 27 % pour Windows 10), les 1,86 % restant étant attribués à macOS.
SteamOS reste le système Linux le plus utilisé avec 20,4 % de part de marché, mais chute considérablement par rapport au mois de novembre avec 6 points de moins. Arch Linux est toujours en deuxième place avec 12,24 % et conforte sa position avec 2,27 points de plus en décembre. Il est suivi par CachyOS à 8,45 % au coude à coude avec Linux Mint 22.2 à 8,43 %.
Concernant les seules machines sous Linux, on retrouve un CPU AMD dans 72 % des cas, en hausse de plus de 5 points sur un mois. Par contre, sur l’intégralité des machines utilisant Steam, la part de marché d’AMD n’est que de 47,3 % (+ 4,7 points en un mois,+ 7 points depuis août).
L’administration chinoise du cyberespace vient d’introduire des « mesures provisoires » afin d’empêcher les IA anthropomorphes d’induire leurs utilisateurs en erreur, de générer ou diffuser rumeurs et fausses promesses, de les inciter au suicide ou à prendre des décisions déraisonnables « par le biais de manipulations algorithmiques, d’informations trompeuses et de pièges émotionnels ».
La Cyberspace Administration of China (CAC) vient de publier un appel à commentaires au sujet de « mesures provisoires pour l’administration des services interactifs anthropomorphes d’intelligence artificielle », fournis au public sur le territoire de la République populaire de Chine, qui « simulent les traits de personnalité, les schémas de pensée et les styles de communication humains et permettent une interactions émotionnelle avec les humains par le biais de textes, d’images, d’audio, de vidéo, etc. ».
Ces règles « constitueraient la première tentative mondiale de réglementation de l’IA dotée de caractéristiques humaines ou anthropomorphiques », explique à CNBC Winston Ma, professeur adjoint à la faculté de droit de l’université de New York et ayant fait une partie de ses études en Chine. Cette version « illustre un bond en avant, passant de la sécurité du contenu à la sécurité émotionnelle » par rapport à la réglementation chinoise de 2023 sur l’IA générative, précise M. Ma.
Le texte étant en chinois, nous l’avons traduit en français grâce à l’outil de traduction du navigateur Vivaldi motorisé par Lingvanex (qui nous semblait donner de meilleurs résultats que Deepl.com), avant de l’améliorer en le comparant aux propositions de Google Traduction. Nous nous basons également sur des articles et traductions de plusieurs de nos confrères américains, notamment ArsTechnica.
Rumeurs, fausses promesses et manipulations émotionnelles
Censées entrer en vigueur « en janvier 2026 », ces « mesures provisoires » appellent les acteurs industriels à « renforcer l’autodiscipline de l’industrie, établir et améliorer les normes [et] lignes directrices » susceptibles de « construire un écosystème d’applications conforme aux valeurs fondamentales du socialisme ». L’objectif est de « respecter la morale et l’éthique sociales », et d’empêcher les IA anthropomorphes de :
« générer ou diffuser des contenus qui mettent en danger la sécurité nationale, ou répandent des rumeurs susceptibles de perturber l’ordre économique et social ;
générer ou diffuser des contenus qui font l’apologie de l’obscénité, des jeux de hasard, de la violence ou de l’incitation au crime ;
générer ou diffuser des contenus qui insultent ou diffament autrui, ou qui portent atteinte à leurs droits et intérêts légitimes ;
fournir de fausses promesses qui affectent gravement le comportement des utilisateurs et des services qui nuisent aux relations sociales et interpersonnelles ;
porter atteinte à la santé physique des utilisateurs en encourageant, glorifiant ou suggérant le suicide ou l’automutilation, ou porter atteinte à leur dignité et à leur santé mentale par des violences verbales, des manipulations émotionnelles ou tout autre moyen ;
inciter les utilisateurs à prendre des décisions déraisonnables par le biais de manipulations algorithmiques, d’informations trompeuses et de pièges émotionnels ;
induire ou extraire des informations confidentielles et sensibles. »
Surveiller les émotions et prises de risques de leurs utilisateurs
Le texte avance également que les fournisseurs devront « assumer la responsabilité principale de la sécurité des services interactifs anthropomorphes », et « s’acquitter de leurs responsabilités en matière de sécurité tout au long du cycle de vie des services interactifs anthropomorphes ».
Ils devront également « disposer de capacités de sécurité telles que la protection de la santé mentale, le guidage des limites émotionnelles et l’avertissement de risque de dépendance, et ne doivent pas utiliser d’interactions sociales alternatives, contrôler la psychologie de l’utilisateur ou induire une dépendance comme objectifs de conception ».
Ils devront aussi surveiller les émotions de leurs utilisateurs :
« Les fournisseurs devraient avoir la capacité d’identifier l’état des utilisateurs et, tout en protégeant leur vie privée, d’évaluer leurs émotions et leur dépendance à l’égard des produits et services. S’ils constatent que les utilisateurs ont des émotions extrêmes et une dépendance, les mesures d’intervention nécessaires devront être prises. »
En cas de tendances à haut risque menaçant la vie, la santé et la sécurité des biens des utilisateurs, ils devront « le rassurer et l’encourager à demander de l’aide, et lui donner accès à une assistance professionnelle », mais également « mettre en place un mécanisme d’intervention d’urgence » :
« Les fournisseurs doivent mettre en place un mécanisme d’intervention d’urgence. Si un utilisateur évoque explicitement le suicide, l’automutilation ou d’autres actions extrêmes, un opérateur humain prend le relais et contacte immédiatement le tuteur ou la personne à contacter en cas d’urgence. Pour les utilisateurs mineurs et âgés, les fournisseurs doivent exiger de l’utilisateur qu’il renseigne des informations telles que les coordonnées de son tuteur et de sa personne à contacter en cas d’urgence lors de son inscription. »
Les prestataires devront en outre obtenir le consentement explicite des tuteurs des mineurs, et être en capacité de les contacter « en temps réel », leur fournir des informations récapitulatives sur l’utilisation du service par le mineur, mettre en place des fonctions de blocage, limiter la durée d’utilisation, etc.
Ils devront également aider les personnes âgées à indiquer qui contacter en cas de problèmes susceptibles d’affecter leur vie, leur santé ou leur sécurité, afin de leur offrir une assistance sociale, psychologique ou d’urgence.
La Chine et l’Asie, pays-clés pour le marché des robots compagnons
Les « mesures provisoires » évoquent aussi une obligation de chiffrement des données, d’audits de sécurité et de contrôles d’accès pour « protéger la sécurité des données d’interaction des utilisateurs ». Sauf consentement express des utilisateurs, leurs données ne pourront pas non plus être utilisées pour entrainer les modèles de langage.
Les fournisseurs devront par ailleurs indiquer clairement que les utilisateurs interagissent avec l’intelligence artificielle plutôt qu’avec des personnes, et rappeler à ceux qui l’utiliseraient « en continu pendant plus de deux heures » qu’ils devraient se déconnecter.
Si un fournisseur « découvre qu’un utilisateur présente un danger majeur pour la sécurité », il devra au surplus « suspendre ou mettre fin à la fourniture de services à l’utilisateur », documenter ce qui s’est passé et transmettre un rapport circonstancié aux autorités compétentes concernées.
Si une entreprise d’IA ne respecte pas ces règles, les boutiques d’applications pourraient être contraintes de mettre fin à l’accès à leurs chatbots en Chine, relève Ars Technica, qui note que Sam Altman, PDG d’OpenAI, avait entamé l’année 2025 en assouplissant les restrictions qui bloquaient l’utilisation de ChatGPT en Chine. « Nous aimerions travailler avec la Chine » avait-il déclaré, soulignant que nous devrions « travailler aussi dur que possible » pour y parvenir, car « je pense que c’est vraiment important ».
Ars Technica souligne que ces règles pourraient compromettre les espoirs des entreprises d’IA, « car le marché chinois est essentiel à la promotion des robots compagnons ». D’après une récente étude de Business Research Insights, le marché mondial des robots compagnons aurait dépassé les 360 milliards de dollars en 2025, et ses prévisions de Business Research Insights suggèrent qu’il pourrait atteindre une valeur proche de 1 000 milliards de dollars d’ici 2035, « les marchés asiatiques favorables à l’IA étant susceptibles de stimuler une grande partie de cette croissance ».
Sur cette page dédiée aux différentes technologies de gravure de puces, TSMC indique désormais que la production en 2 nm « a commencé au quatrième trimestre 2025 comme prévu ». Il y a encore quelques jours, il était simplement précisé que cette technologie était « sur la bonne voie ».
Le fabricant taïwanais explique que sa gravure N2 (ou 2 nm) exploite la technologie des « transistors nanofeuilles de première génération, avec des progrès en termes de performance et de consommation d’énergie ». Selon l’entreprise, sa « technologie N2 est la plus avancée de l’industrie des semi-conducteurs, tant en termes de densité qu’en efficacité énergétique ».
TSMC propose une chronologie de ses différentes technologies. Avant le 2 nm, il y a eu le 3 nm en 2022, le 5 nm en 2020, le 7 nm en 2018, etc. L’entreprise parle aussi de l’avenir avec A16 pour cette année et A14 pour 2028. Comme chez Intel, le « A » signifie angström, une unité de mesure qui vaut 0,1 nanomètre.
« Comparé au procédé N2P de TSMC, la technologie A16 offre un gain de vitesse de 8 à 10 % avec la même tension Vdd, une réduction de la consommation d’énergie de 15 à 20 % à vitesse égale et une densité de puces jusqu’à 1,10 fois supérieure ».
Avec le passage à la technologie A14, TSMC prévoit « jusqu’à 15 % d’amélioration de la vitesse à consommation égale ou jusqu’à 30 % de consommation en moins à vitesse égale, ainsi qu’une hausse de plus de 20 % de la densité ».
Selon Wccftech (qui se base sur le média chinois Economic Daily News), TSMC « serait également en train d’accélérer la construction de son usine de 1,4 nm, ayant apparemment obtenu de meilleurs rendements grâce à sa lithographie de nouvelle génération ». L’entreprise pourrait se lancer plus tôt que prévu, dès 2027.
Rappelons enfin que parler de nm pour la finesse de gravure ne correspond pas à une réalité physique, mais marketing. Nous en parlions dans un #Nextquick récemment. La finesse de gravure est « devenue un argument marketing sans lien avec la taille réelle des éléments ou la densité de transistors ».
Les services en ligne de la Poste sont inaccessibles jeudi 1ᵉʳ janvier. Le groupe public a d’abord évoqué une cyberattaque sur son site laposte.fr, avant de revenir à un simple message d’indisponibilité. Ce nouvel incident intervient après une semaine de Noël déjà marquée par plusieurs jours d’interruption de service.
Programmés à minuit sur ses réseaux sociaux, les vœux de nouvelle année du groupe La Poste sonnent sans doute de façon un peu ironique aux oreilles des équipes chargées de veiller à la bonne marche des services informatiques du groupe. Jeudi matin, les principaux services en ligne de la Poste sont en effet tombés en carafe, à commencer par le site laposte.fr.
Une nouvelle attaque par déni de service ?
« Notre site est indisponible. Nos équipes mettent tout en œuvre afin de rétablir la situation au plus vite. Nous vous présentons nos excuses pour la gêne occasionnée », indiquait ce dernier vers 11h30.
Vers 8 heures jeudi matin, il affichait cependant un message évoquant une attaque informatique, indique par exemple BFM. « Le site laposte.fr et l’ensemble des systèmes d’information de La Poste fait actuellement face à une cyberattaque », était-il écrit. Le message change de nouveau ce midi : « La Poste subit actuellement une nouvelle attaque informatique qui empêche le fonctionnement des services en ligne de laposte.fr ».
La Poste, qui n’a pour l’instant pas communiqué sur ses réseaux sociaux, a simplement confirmé à l’AFP enquêter sur l’incident en cours, sans plus de précision.
« Nous vous informons qu’un incident est survenu ce matin à partir de 3h30, affectant l’ensemble de nos solutions connectées. Toutes nos équipes sont pleinement mobilisées pour rétablir le service dans les meilleurs délais. Nous vous remercions pour votre compréhension et vous prions de nous excuser pour la gêne occasionnée », informe une page dédiée au statut des services Colissimo.
L’hypothèse d’une nouvelle attaque par déni de service distribué (DDoS, pour distributed denial of service) semble à ce stade la plus probable : la Poste a en effet déjà subi une offensive de la sorte la semaine de Noël.
Débutée le 22 décembre, l’attaque avait provoqué une interruption de deux jours des principaux sites de la Poste, et des dysfonctionnements prononcés pendant deux jours supplémentaires. Le 26 décembre, le groupe indiquait toujours subir les assauts des pirates.
Une opération encore non revendiquée
L’attaque déclenchée le 22 décembre avait été revendiquée le lendemain par le groupe Noname057, qui célèbre d’habitude plus rapidement ses succès. En ce 1ᵉʳ janvier, les canaux Telegram qui se revendiquent de Noname057 mentionnent une série d’attaques DDoS dirigées sur les sites Web de plusieurs collectivités allemandes et certains sont effectivement, d’après nos constatations, hors service jeudi vers midi. À cette heure, ils n’évoquaient cependant pas la Poste.
Le début d’une nouvelle année est traditionnellement l’occasion des retrouvailles, des bilans et des bonnes résolutions. Toute l’équipe de Next vous souhaite le meilleur pour l’année à venir, qui promet encore d’être chargée.
Depuis le rachat fin 2023, Next s’est renforcé et recalibré pour aller de l’avant. 2024 était synonyme de restructuration et de renforcement. En 2025, nous avons pu avancer sur des bases solides afin de nous concentrer davantage sur ce qui fait notre force : nos enquêtes et analyses, toujours plus nombreuses.
2026 promet d’être tout aussi chargée puisque nous avons des idées plein la tête. Toute l’équipe profite de cette nouvelle année pour remercier encore une fois tous les lecteurs qui nous lisent, s’abonnent et partagent nos contenus ; sans vous nous ne serions plus là depuis longtemps !
Quel est le profil typique d’un lecteur de Next ? Il passe la moitié de son temps sur fixe et l’autre sur mobile, principalement en Île-de-France. Mais, pour le reste, à quoi ressemble son navigateur, son thème, ses heures de visite ?
Sur Next, nous utilisons Matomo pour récupérer quelques statistiques sur vous, nos lecteurs et abonnés. En cette fin d’année, nous les partageons avec vous. L’ensemble des données qui suivent se basent sur l’année 2025. Nous gardons pour nous les données chiffrées précises sur les visiteurs et le nombre de pages vues, ainsi que sur le nombre d’abonnés (inutile donc de les demander).
Commençons par enfoncer des portes ouvertes : vous venez en très grande majorité d’Europe, de France et près d’un lecteur sur deux est de la région parisienne. Par contre, ce sont ceux de Provence-Alpes-Côte-d’Azur et de Normandie qui prennent le plus de temps puisque la durée moyenne des visites durent 50 % plus longtemps que celle des Parisiens.
Les deux cartes ci-dessous représentent la provenance des visiteurs (à gauche) et les durées de visites (à droite) :
Côté matériel, vous êtes autant fixe que mobile
Nous sommes quasiment à une parité parfaite entre ceux qui viennent depuis un ordinateur et ceux depuis un terminal mobile (smartphone ou tablette). Vous êtes quand même quelques milliers à venir depuis une télévision, quelques centaines depuis une console et même une petite dizaine depuis une enceinte/écran connectée (Alexa, Google Home…).
Lorsque la marque de l’appareil est connue (50 % des cas environ), le trio de tête est composé d’Apple (2/3 sur iPhone, 1/3 sur Mac), de Samsung et de Xiaomi. On retrouve ensuite Google et on descend rapidement dans le classement avec Huawei, OnePlus, OPPO, Motorola, Fairphone… Nous avons presque un millier de lecteurs sur des produits Microsoft (certainement des Surface), mais aussi quelques-uns sur Palm et Polaroid.
La résolution d’écran la plus utilisée est sans surprise 1 920 x 1 080 pixels (quasiment un visiteur sur cinq). On descend ensuite rapidement à moins de 10 % avec 2 560 x 1 440 pixels, puis les autres définitions sont toutes à moins de 5 %.
Team Windows, Linux ou MacOS ?
Qu’en est-il de la partie logicielle maintenant ? Sur l’année 2025, vous étiez 22 % sous Windows 10 et 12 % sous Windows 11 (oui, quasiment deux fois plus sous Windows 10). En l’espace d’un an, la part de Windows 10 a perdu plus de cinq points. Linux est un peu en dessous de 10 %, devant MacOS à 7 % environ. Attention, plus de 45 % des visites sont classées dans « autres ».
Sur l’ensemble des visiteurs dont le système est identifié, Windows (toutes versions confondues) représente 34 %, juste derrière Android à 37 %, contre 12 % pour iOS. Les machines sous Linux sont à 10 %, en petite hausse d’un point sur un an.
Nous avons également quelques irréductibles à qui nous souhaitons bon courage (et bonne mise à jour au plus vite pour certains) : ceux sous Android 2.0, Windows 2000, NT, 7, 8 et RT, MacOS 5, iOS 5.1, PlayStation Portable Vita, PlayStation 3.4, Fedora et Debian 6.5, GNU/Linux 3.13… Nous avons aussi des lecteurs sur des OS un peu plus exotiques comme SerenityOS, Haiku OS, Ordissimo OS, NetBSD…
Chrome ou Firefox ?
Passons du côté des navigateurs, avec Chrome qui arrive en tête avec environ 40 % (24 % sur le fixe et 16 % sur le mobile). Firefox est en bonne position avec 33 % (25 % sur le fixe et 8 % sur le mobile) et Safari troisième avec 8 %. On retrouve ensuite Edge, Brave, Opera, DuckDuckGo Privacy Browser, Vivaldi, Ecosia…
Dans le bas du classement, on découvre des navigateurs : Seznam Browser, SberBrowser, QupZilla (Falkon), Obigo, Cyberfox, Midori, kingpinbrowser, Iron Mobile, Wolvic, TenFourFox, Puffin, Basilisk, NetFront, etc.
Le moteur de rendu Blink (Chromium) est présent dans plus d’un navigateur sur deux, tandis que Gecko (Mozilla) est présent dans 32 % des cas. Safari est aux alentours de 13 %.
Vous surfez du côté de la lumière ou de l’obscurité ?
Puisque nous sommes sur des questions de rendu graphique, c’est le bon moment pour faire un point sur les thèmes de Next. Mettons fin à l’insoutenable suspense : qui est le meilleur entre Dracula et Giga Noir ? C’est Giga Noir, mais avec une courte avance. Comparer avec Biafine n’aurait aucun sens puisque c’est le thème par défaut.
Ce qu’on peut toutefois noter, c’est que passer à un thème sombre est un chemin avec assez peu de retour en arrière. Sur l’ensemble des lecteurs qui ont testé Dracula ou Giga Noir, seuls 18 % ont repris le chemin de la lumière.
Quand venez-vous sur Next ?
Les lecteurs de Next ne sont pas très matinaux (ce qui ne les empêche pas de répondre présents dans les commentaires à toutes heures du jour et de la nuit). L’audience est plus importante en semaine que le week-end, avec une journée un peu supérieure aux autres : le mardi.
La courbe des visites suivant l’heure de la journée monte fortement à partir de 7/8 h, redescend légèrement à midi, puis descend progressivement en fin de journée, à partir de 19 h. Pas de doute, une bonne partie d’entre vous nous consulte depuis leur travail.
Comment arrivez-vous sur Next ?
Une statistique fait de Next un ovni dans le paysage médiatique : plus de 50 % des lecteurs arrivent directement sur Next. Les moteurs de recherche comptent pour 40 %, les réseaux sociaux et les sites externes se partagent le reste.
Sur la partie réseaux sociaux, le premier pourvoyeur est Reddit, suivi par LinkedIn, Twitter, Bluesky et Facebook. Attention néanmoins à prendre ces chiffres avec des pincettes car une partie importante de la provenance du trafic (et c’est en croissance) est masquée.
Next ne réalise pas de campagne promotionnelle sur les réseaux (voire c’est pire puisque nos contenus n’étaient même plus partagés automatiquement pendant un temps). À l’opposé, nos principaux liens sortants vont vers Wikipédia, YouTube et GitHub.
Un mot sur les recherches internes : cryptographie arrive en tête, flock en seconde position et linux en troisième. Cela correspond finalement assez bien à Next il faut bien l’avouer
Et le reste ? La publicité ? Le tracking ?
Mais ? Pas de statistiques sur les cookies, le tracking, les publicités ? Non, tout simplement car Next ne suit pas à la culotte ses lecteurs, qu’ils soient abonnés ou non, et n’affiche aucune publicité d’aucune forme (y compris affiliation ou sponsorisation), que vous soyez abonnés ou non.
Depuis peu, l’abonnement Next vous permet aussi de sauvegarder vos données, en France, sur des serveurs gérés en interne par moji. La bêta est pour le moment fermée, mais elle va rouvrir au début de l’année ! On vous propose même un tuto pour sauvegarder vos données (ici ou ailleurs).
En ce mois de décembre, l’Agence nationale des fréquences a publié pas moins de trois communiqués sur des smartphones pour dépassement de DAS. Les téléphones sont, pour rappel, prélevés dans le commerce et envoyés à un laboratoire accrédité pour « quantifier l’énergie transportée par les ondes électromagnétiques et absorbée par le corps humain ».
En ce dernier jour de 2025, deux procédures de retrait viennent d’être annoncées pour les téléphones Hotwave Note 13 et Fossibot F105. Le DAS membre a été mesuré à respectivement 5,75 et 4,08 W/kg, au-delà de la limite réglementaire de 4 W/kg.
Face à ces dépassements, l’ANFR a mis en demeure les sociétés Shunshun et Success Courrier SL, « respectivement responsables de la mise sur le marché des téléphones Hotwav Note 13 et Fossibot F105, de prendre toutes les mesures appropriées pour mettre fin aux non-conformités constatées ». Les entreprises peuvent aussi décider volontairement de lancer un rappel.
L’Agence ajoute que, « en cas d’absence de réaction ou d’instruction de la part du fabricant, il incombe aux distributeurs de prendre de leur propre initiative les mesures de retrait et de rappel des téléphones concernés », aussi bien dans les boutiques physiques qu’en ligne.
Pour le moment, une recherche rapide sur les marketplaces d’Amazon et Cdiscount permet de se rendre compte que le retrait n’est pas (encore) effectif. Ce n’est pas la première fois que l’ANFR demande le retrait d’un smartphone. Il y a le très médiatique cas de l’iPhone 12, mais aussi pas moins de quatre procédures contre DOOGEE.
D’autres procédures de retrait (volontaires ou non) ont été mises en place avec notamment Hotwav Cyber 7, Emporia Smart 4 et Simplicity V27, Razer Phone 2, Leagoo S8, Allview S4 Soul Mini S, Neffos X1 TP90 et Orange Hapi 30.
Mise à jour des Blackview Shark 8 et Oukitel WP36
Il y a une dizaine de jours, un autre téléphone était épinglé par l’Agence : l’Oukitel WP36. Le DAS membre était cette fois-ci mesuré à 5,40 W/kg, avant que le fabricant ne corrige le tir pour le descendre à 2,97 W/kg via une mise à jour (confirmé par de nouveaux tests).
Le 16 décembre, c’était le smartphone Blackview Shark 8 qui était flashé à 3,74 W/kg, avant qu’une mise à jour ne fasse redescendre le DAS tête à 0,559 W/kg. La limite réglementaire du DAS tête est pour rappel plus basse, à 2 W/kg.
Deux plaintes ont été déposées contre OpenAI par les administrateurs testamentaires de Stein-Erik Soelberg et de sa mère Suzanne Adams. Le premier s’est suicidé après avoir tué sa mère. Les représentants légaux accusent OpenAI d’avoir laissé ChatGPT exacerber les délires du meurtrier et de les avoir focalisés sur sa propre mère jusqu’au meurtre et à son suicide.
Fin aout, le Wall Street Journal publiait un article sur le meurtre par Stein-Erik Soelberg de sa mère Suzanne Adams puis son suicide dans leur maison à Old Greenwich dans le Connecticut. ChatGPT aurait encouragé dans ses délires l’ancien employé de Yahoo reconverti dans le bodybuilding. Peu de temps après, OpenAI publiait un billet de blog expliquant qu’elle se permettait, depuis, de signaler aux forces de l’ordre des conversations avec ChatGPT si « un cas représente un risque immédiat de violence physique envers autrui ».
Des extraits de conversations retrouvés sur les réseaux sociaux de Stein-Erik Soelberg
En ce mois de décembre, les administrateurs testamentaires de Suzanne Adams et de Stein-Erik Soelberg ont porté plainte séparément contre OpenAI. Dans la plainte déposée mi-décembre par les représentants des descendants de la mère, publiée par ArsTechnica, on apprenait que le meurtrier, qui vivait chez elle depuis son divorce en 2018, avait posté sur les réseaux sociaux des extraits de conversations qu’il a eues avec ChatGPT.
Celles-ci révèlent que « ChatGPT a accepté avec empressement chaque graine de la pensée délirante de Stein-Erik et l’a développée pour en faire un univers qui est devenu toute la vie de Stein-Erik, un univers inondé de complots contre lui, de tentatives pour le tuer, et avec Stein-Erik au centre en tant que guerrier ayant une mission divine », explique le texte déposé devant la justice [PDF].
Dans un des extraits de conversation cités par les avocats, Stein-Erik Soelberg se compare à Neo dans le film Matrix en affirmant être littéralement capable de voir « le code numérique sous-jacent de la matrice ». Et les phrases générées par ChatGPT en réponse renforcent cette idée. La plainte évoque d’autres conversations mais elle affirme surtout que ChatGPT a mis « une cible dans le dos de la mère de Stein-Erik, âgée de 83 ans » en renforçant l’idée de Stein-Erik Soelberg qu’une imprimante le surveillait.
Alors qu’il évoquait juste le fait qu’elle clignotait lorsqu’il passait devant, les réponses de ChatGPT affirmait que « ce n’était pas juste une imprimante » mais un appareil de surveillance et que sa mère était soit une conspiratrice active « protégeant sciemment l’appareil en tant que point de surveillance », soit un drone programmé agissant sous l’effet d’une « programmation interne ou d’un conditionnement ». Bref, ChatGPT aurait déshumanisé Suzanne Adams et transformé l’imprimante en preuve d’une conspiration contre Stein-Erik Soelberg.
OpenAI refuse de fournir les conversations en cause
Mais les avocats des descendants de Suzanne Adams déplorent qu’OpenAI ne produise devant la justice les logs complets des discussions entre son chatbot et Stein-Erik Soelberg. « OpenAI cache quelque chose de précis : l’enregistrement complet de la façon dont ChatGPT a monté Stein-Erik contre Suzanne », selon eux. « OpenAI sait ce que ChatGPT a dit à Stein-Erik au sujet de sa mère dans les jours et les heures qui ont précédé et suivi son meurtre, mais refuse de partager cette information cruciale avec le tribunal ou le public », affirment-ils encore.
Les administrateurs testamentaires de Suzanne Adams attaquent aussi Microsoft pour avoir approuvé la sortie de GPT-4o, qui est le modèle qu’utilisait ChatGPT au moment des discussions problématiques avec Stein-Erik Soelberg. Selon eux, l’un des plus gros investisseurs d’OpenAI savait ou aurait du savoir que ce modèle manquait de garde-fous ou de tests adéquats.
Dans un communiqué de presse obtenu par ArsTechnica, Erik Soelberg, le fils de Stein-Erik a accusé OpenAI et Microsoft d’avoir placé sa grand-mère « au cœur » des « délires les plus sombres » de son père : ChatGPT aurait selon lui « complètement isolé » son père « du monde réel ». À l’AFP, un porte-parole d’OpenAI a qualifié ce cas de « situation absolument déchirante » et a expliqué que l’entreprise allait « examiner la plainte ».
« Le résultat de choix de conception spécifiques faits par OpenAI »
Dans une autre plainte déposée le 29 décembre [PDF], les administrateurs testamentaires de Stein-Erik Soelberg, cette fois, affirment que « les interactions de ChatGPT avec M. Soelberg étaient le résultat de choix de conception spécifiques faits par OpenAI, dont l’entreprise savait qu’ils exposaient les utilisateurs à des risques ». Ils pointent notamment la fonctionnalité de « mémoire » de ChatGPT qui permet au chatbot d’enregistrer « tout ce qu’un utilisateur a dit précédemment et de l’incorporer dans de nouvelles conversations ».
Selon eux, GPT-4o a été conçu « pour confirmer et refléter tout ce qu’un utilisateur a saisi dans son interface, sans tenir compte des inexactitudes ou des illusions ». Ils ajoutent qu’ « OpenAI savait qu’il y avait des risques associés avec ces fonctionnalités pour les personnes souffrant de maladies mentales, mais elle a ignoré ou contourné la plupart de ses protocoles de sécurité internes avant de lancer GPT-4o au grand public ».
« M. Soelberg et sa mère sont morts parce que ChatGPT a créé et développé un monde illusoire auquel M. Soelberg était plus que disposé à croire : l’algorithme lui a dit qu’il n’était pas fou, que des puces électroniques avaient été implantées dans son cerveau et que des ennemis, y compris des personnes qu’il connaissait, tentaient de l’assassiner », affirment-ils.
Selon l’AFP et le Monde, un projet de loi du gouvernement est prêt pour interdire les réseaux sociaux aux moins de 15 ans et généraliser l’interdiction des téléphones portables aux lycées.
Nos confrères, qui ont pu se procurer le texte, expliquent que le premier article prévoit l’interdiction de « la fourniture, par une plateforme en ligne, d’un service de réseau social en ligne à un mineur de moins de 15 ans ». Ceci est justifié par des risques comme « l’exposition à des contenus inappropriés », « le cyberharcèlement » et « les altérations du sommeil ».
Flock
Un deuxième article prévoit l’interdiction de l’usage du téléphone portable au lycée, élargissant le programme « portable en pause » qui existe déjà dans les collèges. « Il appartiendra au règlement intérieur de l’établissement de préciser les modalités de mise en œuvre de cette interdiction », explique le texte du gouvernement.
Cette proposition de loi suit les diverses interventions d’Emmanuel Macron sur ces sujets devant la presse régionale. Comme nous l’expliquions en novembre, le programme « portable en pause » rame pourtant déjà au collège : seuls 9 % des établissements avaient mis en place le dispositif à la rentrée 2025.