↩ Accueil

Vue normale

☕️ Fermeture de la principale bibliothèque de la NASA

2 janvier 2026 à 15:06

L’administration Trump a notamment pris pour cible, depuis son retour au pouvoir, les agences scientifiques fédérales américaines.

Alors que le budget de la NASA est en baisse, l’agence spatiale américaine ferme ce vendredi la bibliothèque du Goddard Space Flight Center. Un lieu qui abrite des dizaines de milliers de livres, de documents et de revues, dont beaucoup ne sont pas numérisés ou disponibles ailleurs, explique le New York Times.

Selon un porte-parole de la NASA, l’agence va faire l’inventaire de la bibliothèque d’ici deux mois pour trier les documents qu’elle stockera dans un entrepôt gouvernemental et ceux qu’elle jettera. « Ce processus est une méthode établie utilisée par les agences fédérales pour éliminer correctement les biens appartenant à l’État fédéral », justifie-t-il auprès du New York Times.

« L’administration Trump a passé l’année dernière à attaquer la NASA Goddard et son personnel, et à menacer nos efforts visant à explorer l’espace, approfondir notre compréhension de la Terre et stimuler les avancées technologiques qui renforcent notre économie et rendent notre nation plus sûre », affirme de son côté le sénateur démocrate du Maryland Chris Van Hollen.

Le porte-parole de la NASA renvoie les employés de l’agence vers un service numérique nommé « Ask a Librarian » ou vers les bibliothèques d’autres agences fédérales.

Selon le New York Times, le fonds de cette bibliothèque inclut, entre autres, des livres de scientifiques soviétiques des années 60 et 70 comme des informations sur les premières missions de l’agence américaine.

IPv6 fête ses 30 ans… mais il reste encore du chemin à parcourir

2 janvier 2026 à 14:34
Bon anniversaire (et bonne année) !
IPv6 fête ses 30 ans… mais il reste encore du chemin à parcourir

30 ans, une éternité pour Internet et le numérique… et pourtant, le protocole IPv6 est loin d’avoir remplacé IPv4 qui est malgré tout à bout de souffle (à cause de la pénurie d’adresses). Si les internautes français sont plutôt bien lotis, ce n’est pas le cas partout dans le monde.

En décembre 1995, l’Internet Engineering Task Force publie la RFC 1883 intitulée « Internet Protocol, Version 6 (IPv6) Specification ». Elle fixait au passage le nom de ce qui était parfois appelé IP Next Generation ou IPng. Les spécifications d’IPv6 ont été finalisées quelques années plus tard, en décembre 1998 avec RFC 2460.

En guise d’introduction, il était précisé que l’« IP version 6 (IPv6) est une nouvelle version du protocole Internet, conçue pour succéder à IP version 4 (IPv4) », dont la RFC 791 datait de septembre 1981. La principale nouveauté était le passage des adresses de 32 à 128 bits. D’autres changements étaient aussi de la partie, comme une simplification du format d’en-tête. IPv6 intègre aussi « des fonctionnalités permettant de renforcer la sécurité par défaut et d’optimiser le routage », explique l’Arcep (le gendarme des télécoms en France).

667 millions d’adresses IPv6… par mm² !

La différence est très importante puisqu’on passe de 4,3 x 10⁹ (soit 4,3 milliards) à 3,4 x 10³⁸ adresses possibles, soit une quasi-infinité à l’échelle de la Terre, puisque cela correspond à environ 667 millions d’adresses IPv6 pour chaque millimètre carré de surface terrestre.

4,3 milliards d’adresses peuvent sembler beaucoup, mais ce n’est pas le cas. Le RIPE NCC (Network Coordination Centre, en charge de l’Europe, du Moyen-Orient et de certaines régions d’Asie centrale) est « à court d’adresses IPv4 » depuis fin 2019. Les alertes avaient été lancées des années auparavant et la solution existait déjà depuis longtemps avec IPv6. Mais la transition est longue, très longue… elle n’est toujours pas terminée en 2026.

Cette même année, l’Arcep a décidé « d’initier la création d’une Task-Force IPv6, co-pilotée avec Internet Society France ». Son but est de « favoriser l’accélération de la transition vers IPv6 en permettant aux participants d’aborder des problèmes spécifiques et de partager les bonnes pratiques ».

La France en tête du taux d’utilisation d’IPv6 !

L’Arcep tient à jour une carte du taux d’utilisation d’IPv6, qui correspond au « pourcentage d’utilisateurs raccordés en IPv6 par leur fournisseur d’accès à internet ». Selon le dernier décompte de décembre 2025, la France est… en première position avec 75,1 %, devant l’Inde à 73,1 % et la Malaisie à 67 %.

Les États-Unis sont 11ᵉ avec 56,4 %. Les pays africains sont dans le bas du classement avec 27 % au maximum pour la République du Congo, contre 0,2 % seulement en Algérie.

En Afrique d’ailleurs, la situation était compliquée en 2025 avec des doutes sur des élections à l’AfriNIC et une question d’influence de brokers d’IP, le tout sur fond de bataille juridique et de pénurie d’IPv4. Il faut dire que l’« AfriNIC est le dernier registre internet régional à avoir des blocs d’adresses IPv4 à distribuer », nous expliquait Pierre Bonis, le directeur général de l’Afnic qui gère les noms de domaine en France. Cela attise donc les convoitises.

Risque de scission d’Internet : IPv4 et IPv6 « ne sont pas compatibles »

En France, l’Arcep publie chaque année un baromètre de la transition vers IPv6. Le dernier date de juillet 2025. Le régulateur y rappelait que IPv4 et IPv6 « ne sont pas compatibles », ce qui implique un risque de scission d’Internet. En effet, un service ou un site en IPv6 seulement (c’est-à-dire sans adresse IPv4) n’est pas accessible aux utilisateurs qui n’ont qu’une adresse IPv4, et vice-versa.

IPv6 : la France passe en tête au niveau mondial, mais la route est encore longue

Ce n’est pas qu’une chimère, comme l’expliquait l’Arcep : « Bien que ce ne soit pas encore le cas en France, en Inde, des sites web indiens importants ne sont actuellement plus accessibles qu’en IPv6 et la Chine a planifié l’arrêt complet d’IPv4 en 2030 ».

En République tchèque, le gouvernement a annoncé la fin des services officiels accessibles en IPv4 à partir du 6 juin 2032. Un compte à rebours est lancé. Il reste 2346 jours.

Cinq grandes étapes, la première d’ici 2 à 3 ans ?

L’Arcep prévoit cinq grandes étapes de la transition mondiale vers IPv6 :

  • IPv6 est activé par défaut sur la quasi-totalité des offres grand public
  • IPv6 est activé par défaut sur la quasi-totalité des offres grand public, pro et entreprises
  • Une part non négligeable des sites web sont hébergés en IPv6 uniquement
  • Une part non négligeable des FAI ne proposent plus d’IPv4
  • La majorité des sites abandonnent IPv4

La première étape « devrait être atteinte au cours des trois prochaines années ». En France, Bouygues Telecom, Orange et Free sont à plus de 90 % de clients activés en IPv6 sur le grand public. Sur le pro, Orange était à la traine au dernier décompte avec 57 % fin 2024. Restait SFR à 54 % sur le grand public et 10 % sur le pro, mais la marque au carré rouge prévoyait de dépasser les 90 % de clients activés fin 2026.

Sur le mobile, Free était pendant longtemps le vilain petit canard, mais le fournisseur d’accès à Internet a enfin activé ses clients en mars 2025.

Si vous vous demandez comment fonctionne Internet, nous avons pour rappel publié un long dossier sur le sujet :

[Offert] La folle histoire du « pirate » derrière le premier .gouv.fr, la radio libre et Canal+

2 janvier 2026 à 13:37
De la contre-culture à la cyberculture
[Offert] La folle histoire du « pirate » derrière le premier .gouv.fr, la radio libre et Canal+

Historien des médias, pionnier des bases de données, de l’« information automatisée », de l’accès aux images satellitaires puis du web, Antoine Lefébure a aussi créé la première radio « libre » française, et préfiguré ce qui allait devenir Canal+. Il se définit lui-même comme un « pirate », et vient de publier une histoire du « secret d’État », à laquelle il a consacré ces cinq dernières années. Portrait, doublé d’une interview.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 10 avril 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


Taquin, Antoine Lefébure indique sur son blog avoir été dans la même classe de CP que Vincent Bolloré et Martin Bouygues. Contrairement à eux, il n’est devenu ni milliardaire ni magnat des médias. Et si son nom est bien moins connu que les leurs, son empreinte sur le paysage audiovisuel français (PAF) n’a rien à leur envier.

Il a 18 ans lorsque, en 1968, il devient étudiant à Nanterre : « L’année révolutionnaire pour un étudiant épris de liberté et agitateur né, l’occasion est trop belle », écrit-il dans sa biographie. L’artiste d’avant-garde Jean-Jacques Lebel vint y expliquer qu’il fallait « faire une révolution culturelle comme l’avaient souhaité Dada et les surréalistes. Une perspective qui m’enthousiasme plus que le délire pro-ouvrier des maoïstes », se souvient-il.

Dans une interview de 2008 pour Médiamorphoses, il se souvient d’avoir assisté à des débats enflammés entre Daniel Cohn-Bendit et Bruno Gollnisch. Étudiant juif allemand, le premier allait devenir une figure de Mai 68. Le second, qui tenait à l’époque la corpo de Droit, est depuis devenu une figure du Front national. Mais la préférence d’Antoine Lefébure, qui se présente lui-même comme plutôt « chahuteur », va alors aux Enragés, « pour la plupart fils d’anarchistes espagnols et inspirés de l’Internationale Situationniste ».

Quelques semaines plus tard, le Mouvement du 22 Mars constitue l’un des éléments déclencheurs de Mai 68. Il participe à toutes ses manifestations, fréquentant Sartre, Virilio, Baudrillard, et Godard, qui filmait alors les Rolling Stones. Il explique y avoir aussi découvert les Pink Floyd, la marijuana et la presse underground, et être devenu spectateur assidu de tous les festivals de l’époque, Woodstock, île de Wight, Amougies

« Le retour à Nanterre en septembre sera un peu dur, détaille-t-il sur son blog. Nous sommes dans le collimateur des policiers, des appariteurs musclés, des indics et des fascistes, tous bien décidés à prendre leur revanche après la grande peur de Mai. Le gauchisme, je m’en rends très vite compte, ne fait pas le poids. Je continue mes études avec comme bol d’air, les cours de Baudrillard et les projections de Langlois qui nous raconte « son » histoire du cinéma. »

Il passe ensuite une année sur le campus de Berkeley en Californie – autre haut lieu de la contestation dans les années 1970 – pour y étudier la communication : « j’y ai travaillé avec des gens qui faisaient des Blue Box [dispositif électronique permettant de frauder les télécommunications mais également d’écouter des conversations en cours, ndlr], explique-t-il à Next. je travaillais aussi pour une organisation, People Broadcasting Service, qui traduisait des messages venant du monde entier, mais aussi pour une radio libre à Berkeley, et c’est ça qui m’a donné envie de faire pareil en France ».

Revenu en France, il enquille à la Sorbonne une maîtrise d’Histoire contemporaine sur « Le rôle de la radio en France pendant la Seconde Guerre mondiale », et plus particulièrement à Radio Paris. Placée sous la direction de la propagande nazie, celle-ci se fit le porte-voix collaborationniste du régime de Vichy afin de convaincre les Français de collaborer avec les Allemands. Elle est aussi connue pour avoir été brocardée par Pierre Dac sur Radio Londres en mode « Radio-Paris ment, Radio-Paris ment, Radio-Paris est allemand » :

« Il y avait une omerta à l’époque, j’ai réussi à faire ouvrir les archives, travaillé sur la propagande nazie, et découvert que plein de gens de l’ORTF ou de RTL avaient commencé à Radio Paris. »

« La police nous écoute, écoutons la police »

Antoine Lefébure commence en parallèle à faire des reportages pour L’Idiot International, le journal pamphlétaire de Jean-Edern Hallier, et Libération, découvrant par ailleurs l’intérêt d’ « écouter les communications de la police pour être au courant de tout avant tout le monde ». À la grande fureur des autorités, il fait la promotion de ce hobby, écrivant dans les colonnes du quotidien « La police nous écoute, écoutons la police ».

En échange, et plutôt que de le payer, Libé met à sa disposition du matériel pour qu’il maquette et imprime la revue qu’il contribue à créer en 1974, Interférences, sous-titrée « Pour une critique des appareils d’information et de communication ».

Dans son premier numéro, Interférences révèle les plans secrets du nouveau réseau téléphonique gouvernemental français Régis. Dans son n°2, elle traite de l’informatisation de la police aux États-Unis, des sabotages informatiques, puis de l’espionnage (et de la surveillance, et de la pollution) électronique, de la cryptographie, de la protection du secret en France et aux États-Unis, de l’ « irruption du techno-imaginaire » … ainsi que de la NSA, auquel Antoine Lefébure consacrera un article en 1976.

Y contribuent notamment Philippe Aigrain, Jean Baudrillard, William S. Burroughs, Philip K. Dick, Jean-Edern Hallier, Maurice Ronai ou encore Norman Spinrad, quand bien même, à l’époque, les idées promues et véhiculées par Interférences touchèrent un public réduit mais passionné :

« Parler de piratage informatique, d’écoute électronique, de radios libres à cette époque suscite peu d’échos, écrit-il. Le milieu gauchiste considère cela comme un délire de techniciens, les professionnels du domaine ne comprennent pas de quoi nous parlons. Pourtant se rassemble autour de la revue un groupe hétéroclite de passionnés qui sont aujourd’hui à tous les carrefours des industries de la communication. »

Interférences a depuis été qualifiée de « lieu de réflexion sur les grands mouvements technologiques que la France des années 1970 est en train de découvrir », mais également de « magazine underground, post-gauchiste, rédigé par des bénévoles, entièrement consacré, chose rare au milieu des années soixante-dix, à l’électronique, à l’informatique, aux ondes de toutes fréquences, aux hackers, au cryptage et à l’espionnage ».

Il pirate Antenne 2, et lance la première radio libre

Lors des élections municipales de 1977, les Amis de la Terre recueillent, sous l’intitulé « Paris Écologie », quelque 10 % des voix à Paris, marquant l’émergence de l’écologie politique en France. À cette occasion, le futur candidat écologiste à l’élection présidentielle de 1981 Brice Lalonde et Antoine Lefébure concoctent un « coup médiatique », sous la forme d’un « piratage » du « temps de cerveau disponible » de 5 millions de téléspectateurs d’Antenne 2, et de l’ensemble des journalistes et médias qui y assistèrent.

Sur le plateau de l’émission, Brice Lalonde sort en effet un transistor diffusant la première émission de Radio Verte, la première radio FM dite « libre » en France à oser braver ouvertement le monopole gouvernemental. Antoine Lefébure, qui s’était fait passer pour son garde du corps, avait en effet bricolé un émetteur gros comme une cassette.

Antoine Lefébure lance aussi une Association pour la libération des ondes (ALO), afin de lutter pour la libre expression radiophonique et contre les inculpations de responsables des radios libres, les saisies de matériel et le brouillage des ondes. 

En parallèle, une enquête intitulée « Le monopole d’État et l’histoire du télégraphe et du téléphone en France » lui permet de préparer un Doctorat d’Histoire Contemporaine, en 1979, et de muscler son expertise au service de la défense des radios libres.

Le combat de Giscard d’Estaing pour maintenir l’interdiction des radios libres, les brouiller et saisir leur matériel, contribua à sa défaite électorale en 1981, estime par ailleurs Antoine Lefébure.

La légalisation des « radios libres » par le gouvernement socialiste de François Mitterrand, élu président en 1981, signe la fin de son engagement en faveur de cette forme de « liberté d’expression », et de son combat contre le « monopole d’État » qui y présidait.

« On a passé un accord avec NRJ, mais ils sont allés voir le gouvernement, en leur disant « si vous nous donnez la fréquence sans Radio Verte on vous fait la propagande », se remémore-t-il. Pendant les 3 premières années, les flashs d’information de NRJ n’était que le bulletin paroissial du parti socialiste, c’était dément, et on a été viré, ce qui arrangeait le pouvoir politique. »

Après s’être fait piquer sa fréquence par NRJ, il contribue à lancer… Canal+

Après s’être fait piquer la fréquence de Radio Verte par NRJ, il abandonne et est recruté par le groupe Havas comme responsable du développement (nouvelles technologies, banque de données, CD …) « grâce à un type d’Havas que j’avais rencontré au séminaire de Jean Baudrillard » :

« Havas faisait de la pub et du tourisme, les deux choses que je déteste, raconte-t-il. J’avais 28 ans, c’était la première fois que j’étais salarié, à Neuilly-sur-Seine, mais y avait une bonne ambiance, j’ai embauché plusieurs potes qui venaient eux aussi de la radio libre, et on voulait bosser dans les médias. »

« Ce qui nous intéresse, ce sont les systèmes d’information et les banques de données », précisa-t-il dans l’interview de 2008, au point d’en devenir « un utilisateur forcené ». En 1982, grâce au réseau de transmission de données Tymnet (initialement conçu par Tymshare, un fournisseur américain de services dits de temps partagé), Havas avait accès à la plupart des grandes banques de données américaines. « Nous explorions ainsi toute la presse états-unienne à l’aide de simples mots-clés ».

Fourni par LexisNexis, le service avait été conçu à Palo Alto et était distribué en France par le centre de documentation du Point. Cela permettait à ses équipes de trouver des informations auxquelles personne d’autre n’avait accès. D’une part, parce que ce terminal spécifique « nous coûtait quelque 1 500 francs l’heure de consultation », mais également parce qu’aucun organisme ou presque ne s’en servait :

«  Au bout de six mois, les gens de Nexis viennent nous voir, ils sont évidemment très contents parce que nous leur avons lâché plus de 100 000 francs. Nous apprenons, à cette occasion, que les deux seuls utilisateurs de leur service en France sont Havas et… la DGSE. »

Séduit en tant qu’utilisateur, Antoine Lefébure essaye de convaincre Havas d’investir dans ce secteur prometteur : « Mais, à l’époque, Nexis ne gagne pas un sou. Personne n’y croit. Alors, j’arrête les frais en me disant : « Les esprits ne sont pas mûrs » », se souvient-il. Entre-autres mots-clefs, histoire de trouver d’autres idées à développer, « on a tapé pay TV », et découvert qu’il y avait alors aux USA deux télévisions hertziennes à péage (On TV, et Select TV) :

« J’ai envoyé là-bas un membre de mon équipe, Jacques Driencourt, qui est revenu avec toute la technologie, le logiciel de gestion des abonnés, les mecs lui ont tout donné ! On a fait un petit projet, c’était le moment où André Rousselet arrivait à Havas comme président. Les hauts responsables de l’agence lui ont présenté la direction du développement, que je dirigeais, comme des malades mentaux, mais Rousselet détestait autant la pub et le tourisme que nous. On lui a présenté notre projet de TV à péage et il est devenu dingue, c’est devenu son bébé. Et nous voilà partis pour trois ans de travaux, avec des délais invraisemblables. »

« Intellectuellement, le projet de télé à péage, c’était pas excitant. Ce qui m’excitait, c’était de casser le monopole de la télé, après avoir cassé celui de la radio », nous précise Antoine Lefébure : « j’étais du côté du manche chez Havas, dont le président était le meilleur copain de Mitterrand, et donc on a pu prendre le pas sur TDF (qui nous avait brouillé pendant 4 ans, du temps des radios libres), et notre vengeance a été totale : TDF vomissait cette idée, ils ont tout fait pour nous éliminer, de même que France Télécom et le ministère de l’Industrie », qui voulaient privilégier leur projet de plan câble.

« Un nouveau front : celui de l’information, pétrole du XXIème siècle »

Devenu directeur de la prospective du groupe Havas, il y lance les premières expériences de télématique et de banque de données du groupe, et se lance dans la prospective.

Avec Maurice Ronai (lui aussi chercheur et pionnier du numérique, et qui était alors journaliste spécialisé dans l’informatique), il co-signe en 1979 « Panne des sens », un film (en vidéo) sur « l’informatisation de la société », pour reprendre la terminologie de l’époque. Les cinéphiles apprécieront qu’y figurent également au générique le réalisateur et scénariste Louis Daquin, la directrice de la photographie et cinéaste Caroline Champetier et Dominique Chapuis, alors chef op’ de Godard et qui sera par la suite celui du Shoah de Claude Lanzmann.

Cette même année, Lefébure et Ronai publient aussi et surtout une série d’articles dans Le Monde Diplomatique, intitulée « La guerre des données » et consacrée à l’importance croissante des réseaux télématiques et bases de données.

Ils y expliquaient pourquoi, « dans la guerre économique et industrielle mondiale, se dégage un nouveau front : celui de l’information », qu’ils qualifiaient déjà de « nouvelle matière première [et] pétrole du vingt-et-unième siècle » :

« Révolution informationnelle, société informationnelle, âge de l’information, société postindustrielle, troisième âge de la révolution industrielle… Toute une série d’analyses mettent l’accent sur l’information comme nouvelle matière première, nouvelle forme d’énergie, pétrole du vingt et unième siècle, agent majeur de la croissance, moteur de l’économie, nouvelle frontière pour des sociétés essoufflées. »

Un an avant le lancement des premières expérimentations du Minitel (pour « Médium interactif par numérisation d’information téléphonique »), ils relevaient déjà que grâce aux satellites, fibres optiques, réseaux de télécommunication, micro-ordinateurs, microprocesseurs et leurs applications, « l’informatisation des fichiers, conçus pour être interrogés en « conversationnel » (on line), et des réseaux de télétransmission internationaux qui permettent d’accéder à ces vastes « réservoirs de pensée » » :

« Il est actuellement possible, à partir de n’importe quel lieu où l’on dispose d’un téléphone, d’interroger à l’aide d’un terminal plusieurs millions de références d’articles, plusieurs milliards de données numériques ou textuelles sur tous les sujets, de modifier immédiatement la question en fonction des premières réponses et d’obtenir en quelques minutes l’information souhaitée. »

Ils soulignaient aussi que si l’information est «  une marchandise » et qu’ « un immense marché s’offre aux sociétés spécialisées dans la vente de données », « les impératifs de rentabilité et la concurrence annoncent une guerre commerciale où risquent de s’engloutir les notions de service public et de souveraineté de l’État ».

Évoquant la « suprématie économique et scientifique » des États-Unis en la matière, ils s’étonnaient du fait que, non contents de détenir « le premier parc mondial d’ordinateurs (un tiers plus nombreux que dans le reste du monde) », « avec quatre cent cinquante banques et bases de données, les États-Unis détiennent 90 % du stock mondial de données on line » :

« Cette suprématie résulte d’un effort prolongé et largement subventionné par le gouvernement américain, qui a beau jeu, aujourd’hui, de dénoncer le soutien apporté par les gouvernements d’Europe occidentale à leurs industriels de l’information. Mais, à trop insister sur le financement gouvernemental, on manque l’essentiel : l’environnement informatique, la richesse des gisements informationnels, le dynamisme des compagnies qui exploitent ces gisements. »

Ils notaient également que « l’avance américaine, évaluée à cinq ans, glisse insensiblement au monopole de fait, au niveau tant de la production des bases de données que des systèmes de distribution et des réseaux de transmission ».

Un an plus tard, Lefébure soulignait qu’ « à l’avenir, ceux qui contrôlent les réseaux télématiques détiendront en grande partie les moyens de transmission du savoir. Et, avec ces moyens, un pouvoir de contrôler l’évolution des sociétés et des esprits ».

Interrogé par Médiamorphoses à leurs sujets, Antoine Lefébure précise : « Ce qui m’intéresse alors, c’est moins l’informatique en elle-même que les services qu’elle peut fournir. C’est aussi cette idée ou ce fantasme qu’il y a, quelque part, un grand réservoir d’informations qui nous est fermé, et qu’il faudrait « pirater » pour pouvoir ensuite agir en conséquence ».

« Donc, avec Maurice Ronai, un ancien membre des comités d’action lycéens de Mai 68 et un complice d’Interférences, nous travaillons sur ces questions, reprend-il pour Next. Claude Julien nous donne carte blanche pour réaliser un dossier dans Le Monde Diplomatique, nous rédigeons également quelques articles pour Libération. Il n’en faut pas plus pour devenir « spécialistes » aux yeux des profanes. Il faut en effet se souvenir qu’à l’époque, très peu de personnes s’intéressent à l’information automatisée. »

Et ce, d’autant qu’ « en France, il y a un vrai mépris des technologies : non seulement la plupart des gens n’y comprennent rien, mais il y a en plus une sorte de suffisance qui fait que les leaders d’opinion (politiques, intellectuels, etc.) mettent comme un point d’honneur à les mépriser ».

Il se souvient qu’à Havas, « quand nous parlions par exemple d’ »algorithmes de cryptage » pour le décodeur de Canal Plus, André Rousselet nous interrompait brutalement en disant : « Épargnez-moi ce genre de mots ! » Une suffisance ridicule ! ».

« N’oublions pas que les médias audiovisuels sont alors interdits du fait du monopole », soulignait-il, ce pourquoi la plupart des gens de sa génération « vont s’investir dans la presse écrite ».

Pirate des monopoles d’État, maître d’œuvre du web gouvernemental

En 1988, François Mitterrand est réélu, le RPR place ses amis et Lefébure vole vers de nouvelles aventures. Il crée sa propre société, Technique Media Société (TMS), qui jouera un rôle de pionnier dans le développement de l’information automatisée, l’accès aux bases de données et des images satellitaires.

En 1994, il se rend aux États-Unis dans le cadre d’une étude sur le dépôt légal de l’audiovisuel, et découvre Mosaic, le premier navigateur à avoir rendu le World Wide Web populaire. En 2008, il raconte :

« C’est vraiment une révélation : il y a désormais une interface et ça ne coûte pratiquement rien. Non seulement ça marche, mais, en plus, il est évident que ça va changer le monde. Dès mon retour, j’arrête tout et je bascule TMS vers l’Internet. »

« Comme j’avais ma formation banques de données, c’était ce que j’attendais depuis 10 ans, et on a fait de TMS une des premières web agency » en France, nous précise-t-il, contribuant notamment à lancer, en 1996, le… tout premier site web du Premier ministre français (Alain Juppé, qu’avait alors convaincu son ministre des télécommunications, François Fillon), « optimisé pour Nestcape 2.0, en mode graphique, pour une fenêtre de 640 par 480 pixels ».

Un joli pied de nez, pour celui qui n’avait de cesse de lutter contre le monopole de l’État en matière de liberté d’expression audiovisuelle. Une victoire politique, aussi, alors que « certains, dans l’entourage du premier ministre, insistent pour que les sites n’intéressant a priori que le public français restent exclusivement basés sur Télétel, c’est-à-dire demeurent pour l’essentiel payants », comme le soulignait alors un article du Monde intitulé « Marianne flirte avec Internet ».

« En France, pendant dix ans, on a considéré l’information comme un marché ; on l’a fait payer. Les recettes générées sont devenues un élément de fonctionnement », y relevait de son côté Maurice Ronai, constatant qu’aux États-Unis, une bonne partie des textes officiels dont l’accès étaient payants en France (budgets détaillés, rapports d’activité, lois en discussion, etc.) « sont disponibles gratuitement sur Internet ».

Un constat appuyé par Antoine Lefébure qui, s’étant vu confié la maîtrise d’œuvre du montage des services en ligne de Matignon, expliquait au Monde que « la générosité est payante sur Internet. Les économies engendrées, en simplifiant la vie quotidienne des citoyens et de l’administration, seront supérieures au manque à gagner ».

« La consultation du site Web sera instructive : ce service témoignera de la façon dont le premier ministre entend informer et dialoguer effectivement avec les citoyens », concluait l’article du Monde, évoquant « un enjeu moins futile qu’il y pourrait paraître ». Une vision qu’il eut du mal, cela dit, à faire accepter, comme il le relevait auprès de Médiamorphoses :

« Au début, ce n’est pas facile, autant pour nous que pour les trois ou quatre autres sociétés qui s’installent sur le créneau. Pendant deux ans, je passe mon temps à expliquer la différence entre Internet et le minitel, que j’ai toujours détesté, sans doute parce que c’était une nouvelle incarnation du monopole. J’essaye aussi de convaincre mes interlocuteurs que ce réseau n’est pas un nouvel avatar de l’impérialisme américain. »

Un « pirate radio » poursuivi par la DST et la Justice, à l’âge de 13 ans

Interrogé sur ce qui avait pu présider à un tel parcours, somme toute emblématique de la « contre-culture » technologique des années 70 et 80, Antoine Lefébure explique avoir découvert, à l’âge de 12 ans, au dernier étage du Palais de la découverte, « un radio-amateur en blouse blanche » qui lui laissait parfois les manettes, lui permettant de correspondre avec des gens du monde entier :

« Et ça m’a passionné, j’ai commencé à acheter des vieux postes, je mettais 60 mètres de fil de fer pour écouter les ondes courtes et j’entendais des radioamateurs, j’étais DX [loisir qui consiste à rechercher et identifier des signaux radio/TV à longues distances, ndlr], et à 17 ans, je me suis lancé dans l’émission, en réception tu ne fais qu’écouter, c’était interdit quand tu n’avais pas de licence. »

Antoine Lefébure précise n’avoir « jamais eu de licence de radioamateur : j’ai toujours été pirate, quand on se salue avec nos potes, on se dit « pirate un jour, pirate toujours ! » ». Rapidement, il avait en effet identifié « un type comme moi qui avait une puissance incroyable et qui me bloquait en réception ». C’est ainsi qu’il a rencontré Sylvain Anichini, qui était « très fort en hautes fréquences et en informatique ».

Lefébure se souvient qu’à l’époque de leur rencontre, Sylvain Anichini avait installé son émetteur avec une antenne de 10 mètres sur le toit, qu’il émettait dans le monde entier « et s’était fait piquer deux fois par la DST et inculper deux fois. Le tribunal pour enfants l’a relaxé, mais il était dans le viseur des flics, son antenne faisait concurrence avec celle de la Place Beauvau ».

Antoine Lefébure se souvient aussi que le responsable de la police des communications radio-électriques (PCR), sise à Boullay-les-Troux (devenue depuis une station d’écoute de la DGSI), s’appelait Commissaire Brute : « il nous aimait bien parce qu’on lui donnait du boulot, d’autant qu’ils étaient en surnombre vu qu’il y avait moins de gauchistes » entre 1977 et 1981.

Cela n’empêcha pas Sylvain Anichini de faire carrière à la télé puis la radio, comme le raconta Télérama, et même de concevoir le décodeur de Canal+ après qu’il fut recruté par Antoine Lefébure à Havas :

« À 13 ans, il est convoqué au tribunal pour enfants. À 17 et 19 ans, il passe en correctionnelle. En 1981, il fabrique les antennes à la chaîne. Surdoué de la technique, mais las d’être traqué par la police, Sylvain Anichini passe alors à autre chose : en 1984, il devient le directeur technique de Canal+, puis de La Cinq, de La Cinquième, de France 3, avant de s’installer dix ans à Radio France. »

Jeune ingénieur de l’École des technologies de l’information et de la communication, Sylvain Anichini s’était aussi associé avec deux camarades pour importer les premiers micro-ordinateurs des États-Unis, relevait L’Usine Nouvelle en 1996 :

« J’ai été présenté à André Rousselet, qui m’a demandé : « Trouvez-moi quelque chose pour être opérationnel dans un an », se souvient-il. Cette course contre la montre, il la gagne grâce à son ingéniosité. En concevant le décodeur uniquement avec des pièces disponibles sur le marché. Et en fabriquant la boîte avec les moules plastiques d’un répondeur téléphonique. Canal Plus lancé, Sylvain Anichini rejoint la Cinq d’Hersant. « Nous avons conçu l’une des premières rédactions informatisées au monde, avec CNN », rappelle-t-il. »

Le « pirate » britannique qui avait devancé Edward Snowden

Sylvain Anichini n’est pas le seul « pirate » à avoir influencé Antoine Lefébure. Il se souvient d’avoir rencontré Duncan Campbell en 1973 - 74, « parce que c’était un pirate assez connu en Grande-Bretagne, j’étais fasciné par lui. Avec lui et Sylvain, j’avais toutes mes réponses ! ».

Né en 1952, Duncan Campbell s’était de son côté intéressé à la programmation informatique à l’âge de 16 ans. Étudiant en physique, il avait commencé à publier ses premiers articles dans la presse « alternative » et « underground » aux débuts des années 70 afin, tout comme Antoine Lefébure, d’y partager ses découvertes.

En 1976, il publia notamment « The Eavesdroppers », qui révéla l’existence du Government Communications Headquarters (GCHQ), l’équivalent britannique de la NSA, dont l’existence était alors secrète, quand bien même il s’agissait du plus important des services de renseignement britannique. Cela valut à son co-auteur, Mark Hosenball, un journaliste américain, d’être expulsé du Royaume-Uni, et à Campbell d’être placé sur écoute et surveillance par le MI5, le service de contre-espionnage britannique.

Dans un article intitulé « Le GCHQ et moi », publié en 2015, Duncan Campbell revient brièvement sur les nombreux problèmes judiciaires, policiers ainsi qu’avec les services de renseignement que ses révélations lui ont depuis valu :

« Au cours de mes 40 années de reportage sur la surveillance de masse, j’ai subi trois descentes de police, j’ai été emprisonné une fois, j’ai vu des émissions de télévision que j’avais réalisées ou contribué à réaliser interdites de diffusion sous la pression du gouvernement à cinq reprises, j’ai vu des enregistrements saisis, j’ai été poussé hors d’un hélicoptère, mon téléphone a été mis sur écoute pendant au moins une décennie et, avec cette arrestation, j’ai été mis en examen pour une peine pouvant aller jusqu’à 30 ans d’emprisonnement pour des violations présumées des lois sur le secret. »

Il y explique par ailleurs avoir entendu parler pour la première fois des services secrets étant enfant : « Ma mère, Mary, mathématicienne, se souvenait souvent de son travail pendant la guerre dans un établissement ultrasecret [Bletchley Park, ndlr], et notamment de ses deux années passées aux côtés d’un homme que l’on appelait « le Prof » » :

« Elle dressait le portrait d’un homme maladroit, dégingandé et bègue, qui aimait la course de fond et les champignons qu’il ramassait dans les bois locaux et que personne ne voulait toucher – et qui était un génie des mathématiques « hors de sa portée ». Le professeur était Alan Turing, le décrypteur du code allemand Enigma pendant la guerre, l’inventeur de l’ordinateur moderne et le héros du film The Imitation Game, récemment récompensé par un Oscar. »

Il y précise aussi que « c’est à l’école que j’ai découvert le réseau de surveillance du GCHQ ». Lors d’une sortie à vélo en Écosse avec un autre étudiant en sciences, ils avaient en effet repéré une grande station radio au sommet d’une colline, sécurisée par des clôtures, des portes verrouillées et un panneau sans signification accroché au câble : « CSOS Hawklaw ». Interrogé, le propriétaire d’un fish-and-chips des environs leur rétorqua que les gens qui y travaillaient « ne parlent jamais », précisant que « c’est une base secrète du gouvernement ».

En mode OSINT (pour Open Source INTelligence, ou renseignement de source ouverte – ROSO – en français), à la bibliothèque municipale, il consulta dans la foulée les annuaires téléphoniques du pays, à la recherche d’autres sites du même nom. Il découvrit d’une part que les initiales signifiaient « Composite Signals Organisation Station », d’autre part qu’il existait d’autres stations de ce type un peu partout au Royaume-Uni. Quatre ans et un diplôme de physique plus tard, il découvrit aussi que le CSOS faisait partie du GCHQ, mais également que ce dernier y avait aussi déployé d’autres stations d’écoute et de surveillance des télécommunications, avec la NSA.

En 1988, il révélait l’existence du programme Project 415 (surnommé Echelon) de surveillance et d’interception des communications satellites, mis en œuvre par les services de renseignement anglo-saxons de l’alliance des « Fives Eyes ». Dix ans plus tard, le Parlement européen lui commandait un rapport circonstancié à son sujet, qui révéla qu’ils s’en servaient également pour faire de l’espionnage industriel, identifier les entreprises corruptrices (notamment européennes), afin de privilégier leurs propres entreprises.

Et ce, alors que la Grande-Bretagne faisait pourtant aussi partie de l’Union européenne. Ses recommandations furent « adoptées dans leur intégralité le 5 septembre 2001 », soulignait-il, ironiquement :

« Six jours plus tard, les tours jumelles s’effondraient. Les plans visant à limiter la surveillance de masse ont été enterrés avec les victimes du 11 septembre et n’ont jamais été officiellement publiés. Mais la preuve de l’existence d’Échelon est désormais disponible. »

Évoquant l’une des auditions le ciblant explicitement comme « atteinte à la sécurité nationale », Duncan Campbell soulignait que les témoins des services de sécurité avaient tenté, les uns après les autres, d’affirmer que les informations qu’il avait publiées « étaient en fait secrètes ». Lors de l’un de ces échanges, le chef d’une unité SIGINT (pour SIGnal INTelligence, ou renseignement d’origine électromagnétique, ROEM en français) s’était vu montrer un panneau de signalisation estampillé « CSOS » flanqué à l’entrée de sa base, et consultable par tous les passants :

« Q : Est-ce le nom de votre unité ?
R : Je ne peux pas répondre à cette question, c’est un secret.
Q : Est-ce le panneau que les passants de la route principale voient à l’extérieur de la base de votre unité ?
R : Oui.
Q : Lisez-le au jury, s’il vous plaît.
R : Je ne peux pas le faire. C’est un secret.
 »

Dans un second article, nous reviendrons plus précisément sur « Vie et mort du secret d’État », l’essai qu’Antoine Lefébure vient de publier à ce sujet, mais que nous estimions ne pas pouvoir évoquer sans être préalablement revenu sur son parcours.

NB : le sous-titre est un hommage assumé à l’incontournable ouvrage de Fred Turner, « Aux sources de l’utopie numérique », (re)publié par le non moins incontournable C & F Editions.

L’Arcom va évaluer la pertinence des actions d’éducation aux médias et au numérique

2 janvier 2026 à 12:34
Éducation prétexte ?
L’Arcom va évaluer la pertinence des actions d’éducation aux médias et au numérique

Dans un rapport publié fin décembre, l’Arcom constate l’augmentation des actions d’éducation aux médias, à l’information et à la citoyenneté numérique (EMI&CN) par les acteurs qu’elle contrôle (chaînes de télévision, de radio et plateformes en ligne) sans pour autant être capable d’en faire un bilan réel. Pour cela, et bien tardivement, elle met en place un « kit », à usage volontaire, pour évaluer la pertinence des actions.

La fin d’année est souvent l’occasion de bilans. L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) en a profité la semaine dernière pour publier son rapport sur l’éducation aux médias, à l’information et à la citoyenneté numérique pour les années 2024 et 2025. Alors que pour l’instant l’Autorité ne fait le bilan que sur le décompte des actions menées, elle commence timidement à mettre en place une démarche d’évaluation… volontaire.

L’Arcom considère que ce thème entre dans ses missions d’accompagnement des acteurs qu’elle contrôle concernant leurs « responsabilités démocratiques et sociétales des médias audiovisuels et des plateformes en ligne ». Parmi ces acteurs, l’audiovisuel public depuis longtemps mais aussi les chaines du secteur privé, car l’Autorité a ajouté une clause depuis 2020 aux conventions qu’elle signe avec elles.

Depuis 2024 et la transposition du DSA dans la loi française, la participation à des campagnes d’éducation aux médias est considérée comme une des mesures à mettre en place par les très grandes plateformes et très grands moteurs de recherche en ligne (VLOPSEs) pour atténuer les risques systémiques liés à la diffusion de contenus de désinformation. L’Arcom doit veiller à ce que ces acteurs en tiennent compte. Une des difficultés est de contrôler si ces actions ont réellement une efficacité.

Une hausse des actions du PAF, peu d’informations sur celles des plateformes

Pour l’instant, l’Autorité ne donne dans son bilan que le décompte des actions menées par ces différents acteurs. Ainsi, elle met en avant qu’« en 2024 - 2025, les chaînes de télévision et de radio ont déclaré plus d’initiatives que l’exercice précédent : 267 de plus, soit une hausse de 35 %. Cette augmentation concerne tous les types d’actions : 125 actions de plus sur les antennes, 45 de plus sur le numérique et 97 de plus sur le terrain ». Sans donner de montant, l’Arcom salue « l’engagement constant des chaînes de télévision et de radio qui, chaque année, mobilisent des moyens importants pour mener ces actions ».

Plus en détail, on peut constater que la plupart de ces actions d’éducation aux médias, à l’information et au numérique du paysage audiovisuel français sont réalisées directement sur leurs antennes :

Mais l’Autorité souligne une hausse des actions de terrain : près de 100 de plus en 2025 que l’année précédente, ce qui représente une hausse de 75 %. Elle ajoute que les médias français ont suivi ses préconisations formulées en 2024 leur demandant de diversifier leur public cible.

En effet, si les collégiens et lycéens restent toujours la cible principale (58 % en 2024 et 51 % en 2025), les médias visent un peu plus les étudiants (+ 4 points entre 2024 et 2025) et le grand public (+ 8 points). L’Arcom regrette que ces actions se concentrent sur trois thèmes : « la lutte contre la désinformation (56 %), la découverte du métier de journaliste (30 %) et l’éducation au numérique, loin derrière (5 %) », et demande aux acteurs de « diversifier les thématiques abordées ».

Concernant les plateformes en ligne et les réseaux sociaux, l’Arcom est peu loquace. S’appuyant seulement sur les rapports que les plateformes doivent transmettre à la Commission européenne, elle liste juste des « tendances s’agissant de l’implication de ces acteurs en la matière ». Il y est question de campagnes d’éducation aux médias via des vidéos et des messages d’intérêt général, de l’intégration d’outils pédagogiques dans leurs services et de la conclusion de partenariats avec des associations spécialisées ou des agences de presse.

En exemple, l’Autorité donne même un programme de Google Search avec Public Librairies 2030, dont le lien date de 2022 et affiche maintenant une page d’erreur (cf sa sauvegarde sur archive.org). L’Arcom ne pose pas non plus la question de la mise en avant de ces actions par les différentes plateformes et de l’engagement qu’elles pourraient leur offrir, puisqu’elles maitrisent les algorithmes qui peuvent les booster.

Pas d’évaluation de l’efficacité

Dans ce rapport, si l’Arcom donne des chiffres sur le nombre d’actions menées au moins par les médias audiovisuels français, l’Autorité ne propose aucune évaluation de ces actions. Elle semble avoir identifié le problème, puisqu’elle annonce la mise en œuvre, « en concertation avec le ministère de l’Éducation nationale (DGESCO et DNE), le CLEMI et une chercheuse de l’Université de Lille » (sans la nommer), d’un « dispositif opérationnel pour mesurer l’impact des actions en EMI&CN ».

Celui-ci doit se faire via un « Kit d’évaluation des actions menées en EMI&CN » disponible sur la plateforme demarche.numerique.gouv.fr. Pour l’instant, cela semble se résumer à un dossier à remplir sans autre information :

☕️ Sur Steam, Linux stagne à 3,19 % de parts de marché

2 janvier 2026 à 11:15

En octobre, Linux dépassait pour la première fois les 3 % de parts de marché sur Steam (+ 0,37 point en un mois), la plateforme de jeux vidéo de Valve. Rappelons que, dans le même temps, Microsoft arrêtait le support de Windows 10, sauf en Europe avec un an supplémentaire.

En novembre, le système d’exploitation confirmait sa croissance avec 3,2 % de parts de marché. C’était donc une progression de 0,2 point, mais le score restait toujours sans commune mesure avec Windows, présent sur près de 94,79 % des machines des joueurs.

Les chiffres de décembre viennent de tomber et… Linux stagne avec 3,19 % de parts de marché, soit même une petite baisse de 0,01 point en un mois. Windows de son côté grimpe à 94,95 % (73 % pour Windows 11, 27 % pour Windows 10), les 1,86 % restant étant attribués à macOS.

SteamOS reste le système Linux le plus utilisé avec 20,4 % de part de marché, mais chute considérablement par rapport au mois de novembre avec 6 points de moins. Arch Linux est toujours en deuxième place avec 12,24 % et conforte sa position avec 2,27 points de plus en décembre. Il est suivi par CachyOS à 8,45 % au coude à coude avec Linux Mint 22.2 à 8,43 %.

Concernant les seules machines sous Linux, on retrouve un CPU AMD dans 72 % des cas, en hausse de plus de 5 points sur un mois. Par contre, sur l’intégralité des machines utilisant Steam, la part de marché d’AMD n’est que de 47,3 % (+ 4,7 points en un mois,+ 7 points depuis août).

La Chine veut empêcher les chatbots d’IA de manipuler leurs utilisateurs

2 janvier 2026 à 08:56
L'opium du peuple
La Chine veut empêcher les chatbots d’IA de manipuler leurs utilisateurs

L’administration chinoise du cyberespace vient d’introduire des « mesures provisoires » afin d’empêcher les IA anthropomorphes d’induire leurs utilisateurs en erreur, de générer ou diffuser rumeurs et fausses promesses, de les inciter au suicide ou à prendre des décisions déraisonnables « par le biais de manipulations algorithmiques, d’informations trompeuses et de pièges émotionnels ».

La Cyberspace Administration of China (CAC) vient de publier un appel à commentaires au sujet de « mesures provisoires pour l’administration des services interactifs anthropomorphes d’intelligence artificielle », fournis au public sur le territoire de la République populaire de Chine, qui « simulent les traits de personnalité, les schémas de pensée et les styles de communication humains et permettent une interactions émotionnelle avec les humains par le biais de textes, d’images, d’audio, de vidéo, etc. ».

Ces règles « constitueraient la première tentative mondiale de réglementation de l’IA dotée de caractéristiques humaines ou anthropomorphiques », explique à CNBC Winston Ma, professeur adjoint à la faculté de droit de l’université de New York et ayant fait une partie de ses études en Chine. Cette version « illustre un bond en avant, passant de la sécurité du contenu à la sécurité émotionnelle » par rapport à la réglementation chinoise de 2023 sur l’IA générative, précise M. Ma.

Le texte étant en chinois, nous l’avons traduit en français grâce à l’outil de traduction du navigateur Vivaldi motorisé par Lingvanex (qui nous semblait donner de meilleurs résultats que Deepl.com), avant de l’améliorer en le comparant aux propositions de Google Traduction. Nous nous basons également sur des articles et traductions de plusieurs de nos confrères américains, notamment ArsTechnica.

Rumeurs, fausses promesses et manipulations émotionnelles

Censées entrer en vigueur « en janvier 2026 », ces « mesures provisoires » appellent les acteurs industriels à « renforcer l’autodiscipline de l’industrie, établir et améliorer les normes [et] lignes directrices » susceptibles de « construire un écosystème d’applications conforme aux valeurs fondamentales du socialisme ». L’objectif est de « respecter la morale et l’éthique sociales », et d’empêcher les IA anthropomorphes de :

  1. « générer ou diffuser des contenus qui mettent en danger la sécurité nationale, ou répandent des rumeurs susceptibles de perturber l’ordre économique et social ;
  2. générer ou diffuser des contenus qui font l’apologie de l’obscénité, des jeux de hasard, de la violence ou de l’incitation au crime ;
  3. générer ou diffuser des contenus qui insultent ou diffament autrui, ou qui portent atteinte à leurs droits et intérêts légitimes ;
  4. fournir de fausses promesses qui affectent gravement le comportement des utilisateurs et des services qui nuisent aux relations sociales et interpersonnelles ;
  5. porter atteinte à la santé physique des utilisateurs en encourageant, glorifiant ou suggérant le suicide ou l’automutilation, ou porter atteinte à leur dignité et à leur santé mentale par des violences verbales, des manipulations émotionnelles ou tout autre moyen ;
  6. inciter les utilisateurs à prendre des décisions déraisonnables par le biais de manipulations algorithmiques, d’informations trompeuses et de pièges émotionnels ;
  7. induire ou extraire des informations confidentielles et sensibles. »

Surveiller les émotions et prises de risques de leurs utilisateurs

Le texte avance également que les fournisseurs devront « assumer la responsabilité principale de la sécurité des services interactifs anthropomorphes », et « s’acquitter de leurs responsabilités en matière de sécurité tout au long du cycle de vie des services interactifs anthropomorphes ».

Ils devront également « disposer de capacités de sécurité telles que la protection de la santé mentale, le guidage des limites émotionnelles et l’avertissement de risque de dépendance, et ne doivent pas utiliser d’interactions sociales alternatives, contrôler la psychologie de l’utilisateur ou induire une dépendance comme objectifs de conception ».

Ils devront aussi surveiller les émotions de leurs utilisateurs :

« Les fournisseurs devraient avoir la capacité d’identifier l’état des utilisateurs et, tout en protégeant leur vie privée, d’évaluer leurs émotions et leur dépendance à l’égard des produits et services. S’ils constatent que les utilisateurs ont des émotions extrêmes et une dépendance, les mesures d’intervention nécessaires devront être prises. »

En cas de tendances à haut risque menaçant la vie, la santé et la sécurité des biens des utilisateurs, ils devront « le rassurer et l’encourager à demander de l’aide, et lui donner accès à une assistance professionnelle », mais également « mettre en place un mécanisme d’intervention d’urgence » :

« Les fournisseurs doivent mettre en place un mécanisme d’intervention d’urgence. Si un utilisateur évoque explicitement le suicide, l’automutilation ou d’autres actions extrêmes, un opérateur humain prend le relais et contacte immédiatement le tuteur ou la personne à contacter en cas d’urgence. Pour les utilisateurs mineurs et âgés, les fournisseurs doivent exiger de l’utilisateur qu’il renseigne des informations telles que les coordonnées de son tuteur et de sa personne à contacter en cas d’urgence lors de son inscription. »

Les prestataires devront en outre obtenir le consentement explicite des tuteurs des mineurs, et être en capacité de les contacter « en temps réel », leur fournir des informations récapitulatives sur l’utilisation du service par le mineur, mettre en place des fonctions de blocage, limiter la durée d’utilisation, etc.

Ils devront également aider les personnes âgées à indiquer qui contacter en cas de problèmes susceptibles d’affecter leur vie, leur santé ou leur sécurité, afin de leur offrir une assistance sociale, psychologique ou d’urgence.

La Chine et l’Asie, pays-clés pour le marché des robots compagnons

Les « mesures provisoires » évoquent aussi une obligation de chiffrement des données, d’audits de sécurité et de contrôles d’accès pour « protéger la sécurité des données d’interaction des utilisateurs ». Sauf consentement express des utilisateurs, leurs données ne pourront pas non plus être utilisées pour entrainer les modèles de langage.

Les fournisseurs devront par ailleurs indiquer clairement que les utilisateurs interagissent avec l’intelligence artificielle plutôt qu’avec des personnes, et rappeler à ceux qui l’utiliseraient « en continu pendant plus de deux heures » qu’ils devraient se déconnecter.

Si un fournisseur « découvre qu’un utilisateur présente un danger majeur pour la sécurité », il devra au surplus « suspendre ou mettre fin à la fourniture de services à l’utilisateur », documenter ce qui s’est passé et transmettre un rapport circonstancié aux autorités compétentes concernées.

Si une entreprise d’IA ne respecte pas ces règles, les boutiques d’applications pourraient être contraintes de mettre fin à l’accès à leurs chatbots en Chine, relève Ars Technica, qui note que Sam Altman, PDG d’OpenAI, avait entamé l’année 2025 en assouplissant les restrictions qui bloquaient l’utilisation de ChatGPT en Chine. « Nous aimerions travailler avec la Chine » avait-il déclaré, soulignant que nous devrions « travailler aussi dur que possible » pour y parvenir, car « je pense que c’est vraiment important ».

Ars Technica souligne que ces règles pourraient compromettre les espoirs des entreprises d’IA, « car le marché chinois est essentiel à la promotion des robots compagnons ». D’après une récente étude de Business Research Insights, le marché mondial des robots compagnons aurait dépassé les 360 milliards de dollars en 2025, et ses prévisions de Business Research Insights suggèrent qu’il pourrait atteindre une valeur proche de 1 000 milliards de dollars d’ici 2035, « les marchés asiatiques favorables à l’IA étant susceptibles de stimuler une grande partie de cette croissance ».

☕️ TSMC lance la production de masse en 2 nm et accélère sur le 1,4 nm

2 janvier 2026 à 08:28

Sur cette page dédiée aux différentes technologies de gravure de puces, TSMC indique désormais que la production en 2 nm « a commencé au quatrième trimestre 2025 comme prévu ». Il y a encore quelques jours, il était simplement précisé que cette technologie était « sur la bonne voie ».

Le fabricant taïwanais explique que sa gravure N2 (ou 2 nm) exploite la technologie des « transistors nanofeuilles de première génération, avec des progrès en termes de performance et de consommation d’énergie ». Selon l’entreprise, sa « technologie N2 est la plus avancée de l’industrie des semi-conducteurs, tant en termes de densité qu’en efficacité énergétique ».

TSMC propose une chronologie de ses différentes technologies. Avant le 2 nm, il y a eu le 3 nm en 2022, le 5 nm en 2020, le 7 nm en 2018, etc. L’entreprise parle aussi de l’avenir avec A16 pour cette année et A14 pour 2028. Comme chez Intel, le « A » signifie angström, une unité de mesure qui vaut 0,1 nanomètre.

« Comparé au procédé N2P de TSMC, la technologie A16 offre un gain de vitesse de 8 à 10 % avec la même tension Vdd, une réduction de la consommation d’énergie de 15 à 20 % à vitesse égale et une densité de puces jusqu’à 1,10 fois supérieure ».

Avec le passage à la technologie A14, TSMC prévoit « jusqu’à 15 % d’amélioration de la vitesse à consommation égale ou jusqu’à 30 % de consommation en moins à vitesse égale, ainsi qu’une hausse de plus de 20 % de la densité ».

Selon Wccftech (qui se base sur le média chinois Economic Daily News), TSMC « serait également en train d’accélérer la construction de son usine de 1,4 nm, ayant apparemment obtenu de meilleurs rendements grâce à sa lithographie de nouvelle génération ». L’entreprise pourrait se lancer plus tôt que prévu, dès 2027.

Rappelons enfin que parler de nm pour la finesse de gravure ne correspond pas à une réalité physique, mais marketing. Nous en parlions dans un #Nextquick récemment. La finesse de gravure est « devenue un argument marketing sans lien avec la taille réelle des éléments ou la densité de transistors ».

Les principaux services en ligne de la Poste sont de nouveau inaccessibles

1 janvier 2026 à 11:57
Thrift Shop
Les principaux services en ligne de la Poste sont de nouveau inaccessibles

Les services en ligne de la Poste sont inaccessibles jeudi 1ᵉʳ janvier. Le groupe public a d’abord évoqué une cyberattaque sur son site laposte.fr, avant de revenir à un simple message d’indisponibilité. Ce nouvel incident intervient après une semaine de Noël déjà marquée par plusieurs jours d’interruption de service.

Programmés à minuit sur ses réseaux sociaux, les vœux de nouvelle année du groupe La Poste sonnent sans doute de façon un peu ironique aux oreilles des équipes chargées de veiller à la bonne marche des services informatiques du groupe. Jeudi matin, les principaux services en ligne de la Poste sont en effet tombés en carafe, à commencer par le site laposte.fr.

Une nouvelle attaque par déni de service ?

« Notre site est indisponible. Nos équipes mettent tout en œuvre afin de rétablir la situation au plus vite. Nous vous présentons nos excuses pour la gêne occasionnée », indiquait ce dernier vers 11h30.

Vers 8 heures jeudi matin, il affichait cependant un message évoquant une attaque informatique, indique par exemple BFM. « Le site laposte.fr et l’ensemble des systèmes d’information de La Poste fait actuellement face à une cyberattaque », était-il écrit. Le message change de nouveau ce midi : « La Poste subit actuellement une nouvelle attaque informatique qui empêche le fonctionnement des services en ligne de laposte.fr ».

La Poste, qui n’a pour l’instant pas communiqué sur ses réseaux sociaux, a simplement confirmé à l’AFP enquêter sur l’incident en cours, sans plus de précision.

« Nous vous informons qu’un incident est survenu ce matin à partir de 3h30, affectant l’ensemble de nos solutions connectées. Toutes nos équipes sont pleinement mobilisées pour rétablir le service dans les meilleurs délais. Nous vous remercions pour votre compréhension et vous prions de nous excuser pour la gêne occasionnée », informe une page dédiée au statut des services Colissimo.

L’hypothèse d’une nouvelle attaque par déni de service distribué (DDoS, pour distributed denial of service) semble à ce stade la plus probable : la Poste a en effet déjà subi une offensive de la sorte la semaine de Noël.

Débutée le 22 décembre, l’attaque avait provoqué une interruption de deux jours des principaux sites de la Poste, et des dysfonctionnements prononcés pendant deux jours supplémentaires. Le 26 décembre, le groupe indiquait toujours subir les assauts des pirates.

Une opération encore non revendiquée

L’attaque déclenchée le 22 décembre avait été revendiquée le lendemain par le groupe Noname057, qui célèbre d’habitude plus rapidement ses succès. En ce 1ᵉʳ janvier, les canaux Telegram qui se revendiquent de Noname057 mentionnent une série d’attaques DDoS dirigées sur les sites Web de plusieurs collectivités allemandes et certains sont effectivement, d’après nos constatations, hors service jeudi vers midi. À cette heure, ils n’évoquaient cependant pas la Poste.

Next vous souhaite une excellente année 2026 !

1 janvier 2026 à 10:01
+1
Next vous souhaite une excellente année 2026 !

Le début d’une nouvelle année est traditionnellement l’occasion des retrouvailles, des bilans et des bonnes résolutions. Toute l’équipe de Next vous souhaite le meilleur pour l’année à venir, qui promet encore d’être chargée.

Depuis le rachat fin 2023, Next s’est renforcé et recalibré pour aller de l’avant. 2024 était synonyme de restructuration et de renforcement. En 2025, nous avons pu avancer sur des bases solides afin de nous concentrer davantage sur ce qui fait notre force : nos enquêtes et analyses, toujours plus nombreuses.

2026 promet d’être tout aussi chargée puisque nous avons des idées plein la tête. Toute l’équipe profite de cette nouvelle année pour remercier encore une fois tous les lecteurs qui nous lisent, s’abonnent et partagent nos contenus ; sans vous nous ne serions plus là depuis longtemps !

Merci pour votre fidélité et bonne année !!!

Lecteurs de Next, qui êtes-vous ?

31 décembre 2025 à 16:38
Vous êtes les meilleurs, assurément !
Lecteurs de Next, qui êtes-vous ?

Quel est le profil typique d’un lecteur de Next ? Il passe la moitié de son temps sur fixe et l’autre sur mobile, principalement en Île-de-France. Mais, pour le reste, à quoi ressemble son navigateur, son thème, ses heures de visite ?

Sur Next, nous utilisons Matomo pour récupérer quelques statistiques sur vous, nos lecteurs et abonnés. En cette fin d’année, nous les partageons avec vous. L’ensemble des données qui suivent se basent sur l’année 2025. Nous gardons pour nous les données chiffrées précises sur les visiteurs et le nombre de pages vues, ainsi que sur le nombre d’abonnés (inutile donc de les demander).

Commençons par enfoncer des portes ouvertes : vous venez en très grande majorité d’Europe, de France et près d’un lecteur sur deux est de la région parisienne. Par contre, ce sont ceux de Provence-Alpes-Côte-d’Azur et de Normandie qui prennent le plus de temps puisque la durée moyenne des visites durent 50 % plus longtemps que celle des Parisiens.

Les deux cartes ci-dessous représentent la provenance des visiteurs (à gauche) et les durées de visites (à droite) :

Côté matériel, vous êtes autant fixe que mobile

Nous sommes quasiment à une parité parfaite entre ceux qui viennent depuis un ordinateur et ceux depuis un terminal mobile (smartphone ou tablette). Vous êtes quand même quelques milliers à venir depuis une télévision, quelques centaines depuis une console et même une petite dizaine depuis une enceinte/écran connectée (Alexa, Google Home…).

Lorsque la marque de l’appareil est connue (50 % des cas environ), le trio de tête est composé d’Apple (2/3 sur iPhone, 1/3 sur Mac), de Samsung et de Xiaomi. On retrouve ensuite Google et on descend rapidement dans le classement avec Huawei, OnePlus, OPPO, Motorola, Fairphone… Nous avons presque un millier de lecteurs sur des produits Microsoft (certainement des Surface), mais aussi quelques-uns sur Palm et Polaroid.

La résolution d’écran la plus utilisée est sans surprise 1 920 x 1 080 pixels (quasiment un visiteur sur cinq). On descend ensuite rapidement à moins de 10 % avec 2 560 x 1 440 pixels, puis les autres définitions sont toutes à moins de 5 %.

Team Windows, Linux ou MacOS ?

Qu’en est-il de la partie logicielle maintenant ? Sur l’année 2025, vous étiez 22 % sous Windows 10 et 12 % sous Windows 11 (oui, quasiment deux fois plus sous Windows 10). En l’espace d’un an, la part de Windows 10 a perdu plus de cinq points. Linux est un peu en dessous de 10 %, devant MacOS à 7 % environ. Attention, plus de 45 % des visites sont classées dans « autres ».

Sur l’ensemble des visiteurs dont le système est identifié, Windows (toutes versions confondues) représente 34 %, juste derrière Android à 37 %, contre 12 % pour iOS. Les machines sous Linux sont à 10 %, en petite hausse d’un point sur un an.

Nous avons également quelques irréductibles à qui nous souhaitons bon courage (et bonne mise à jour au plus vite pour certains) : ceux sous Android 2.0, Windows 2000, NT, 7, 8 et RT, MacOS 5, iOS 5.1, PlayStation Portable Vita, PlayStation 3.4, Fedora et Debian 6.5, GNU/Linux 3.13… Nous avons aussi des lecteurs sur des OS un peu plus exotiques comme SerenityOS, Haiku OS, Ordissimo OS, NetBSD…

Chrome ou Firefox ?

Passons du côté des navigateurs, avec Chrome qui arrive en tête avec environ 40 % (24 % sur le fixe et 16 % sur le mobile). Firefox est en bonne position avec 33 % (25 % sur le fixe et 8 % sur le mobile) et Safari troisième avec 8 %. On retrouve ensuite Edge, Brave, Opera, DuckDuckGo Privacy Browser, Vivaldi, Ecosia…

Dans le bas du classement, on découvre des navigateurs : Seznam Browser, SberBrowser, QupZilla (Falkon), Obigo, Cyberfox, Midori, kingpinbrowser, Iron Mobile, Wolvic, TenFourFox, Puffin, Basilisk, NetFront, etc.

Le moteur de rendu Blink (Chromium) est présent dans plus d’un navigateur sur deux, tandis que Gecko (Mozilla) est présent dans 32 % des cas. Safari est aux alentours de 13 %.

Vous surfez du côté de la lumière ou de l’obscurité ?

Puisque nous sommes sur des questions de rendu graphique, c’est le bon moment pour faire un point sur les thèmes de Next. Mettons fin à l’insoutenable suspense : qui est le meilleur entre Dracula et Giga Noir ? C’est Giga Noir, mais avec une courte avance. Comparer avec Biafine n’aurait aucun sens puisque c’est le thème par défaut.

Ce qu’on peut toutefois noter, c’est que passer à un thème sombre est un chemin avec assez peu de retour en arrière. Sur l’ensemble des lecteurs qui ont testé Dracula ou Giga Noir, seuls 18 % ont repris le chemin de la lumière.

Quand venez-vous sur Next ?

Les lecteurs de Next ne sont pas très matinaux (ce qui ne les empêche pas de répondre présents dans les commentaires à toutes heures du jour et de la nuit). L’audience est plus importante en semaine que le week-end, avec une journée un peu supérieure aux autres : le mardi.

La courbe des visites suivant l’heure de la journée monte fortement à partir de 7/8 h, redescend légèrement à midi, puis descend progressivement en fin de journée, à partir de 19 h. Pas de doute, une bonne partie d’entre vous nous consulte depuis leur travail.

Comment arrivez-vous sur Next ?

Une statistique fait de Next un ovni dans le paysage médiatique : plus de 50 % des lecteurs arrivent directement sur Next. Les moteurs de recherche comptent pour 40 %, les réseaux sociaux et les sites externes se partagent le reste.

Sur la partie réseaux sociaux, le premier pourvoyeur est Reddit, suivi par LinkedIn, Twitter, Bluesky et Facebook. Attention néanmoins à prendre ces chiffres avec des pincettes car une partie importante de la provenance du trafic (et c’est en croissance) est masquée.

Next ne réalise pas de campagne promotionnelle sur les réseaux (voire c’est pire puisque nos contenus n’étaient même plus partagés automatiquement pendant un temps). À l’opposé, nos principaux liens sortants vont vers Wikipédia, YouTube et GitHub.

Un mot sur les recherches internes : cryptographie arrive en tête, flock en seconde position et linux en troisième. Cela correspond finalement assez bien à Next il faut bien l’avouer 😉

Et le reste ? La publicité ? Le tracking ?

Mais ? Pas de statistiques sur les cookies, le tracking, les publicités ? Non, tout simplement car Next ne suit pas à la culotte ses lecteurs, qu’ils soient abonnés ou non, et n’affiche aucune publicité d’aucune forme (y compris affiliation ou sponsorisation), que vous soyez abonnés ou non.

L’abonnement est pour rappel notre unique source de revenus. Il vous permet de lire l’intégralité de nos contenus et les commenter pour échanger avec la communauté.

Depuis peu, l’abonnement Next vous permet aussi de sauvegarder vos données, en France, sur des serveurs gérés en interne par moji. La bêta est pour le moment fermée, mais elle va rouvrir au début de l’année ! On vous propose même un tuto pour sauvegarder vos données (ici ou ailleurs).

☕️ Ondes émises par les smartphones : l’ANFR lance deux procédures de retrait

31 décembre 2025 à 15:47

En ce mois de décembre, l’Agence nationale des fréquences a publié pas moins de trois communiqués sur des smartphones pour dépassement de DAS. Les téléphones sont, pour rappel, prélevés dans le commerce et envoyés à un laboratoire accrédité pour « quantifier l’énergie transportée par les ondes électromagnétiques et absorbée par le corps humain ».

Nous avons déjà longuement détaillé le fonctionnement du DAS dans un précédent dossier.

Retraits des Hotwave Note 13 et Fossibot F105

En ce dernier jour de 2025, deux procédures de retrait viennent d’être annoncées pour les téléphones Hotwave Note 13 et Fossibot F105. Le DAS membre a été mesuré à respectivement 5,75 et 4,08 W/kg, au-delà de la limite réglementaire de 4 W/kg.

Face à ces dépassements, l’ANFR a mis en demeure les sociétés Shunshun et Success Courrier SL, « respectivement responsables de la mise sur le marché des téléphones Hotwav Note 13 et Fossibot F105, de prendre toutes les mesures appropriées pour mettre fin aux non-conformités constatées ». Les entreprises peuvent aussi décider volontairement de lancer un rappel.

L’Agence ajoute que, « en cas d’absence de réaction ou d’instruction de la part du fabricant, il incombe aux distributeurs de prendre de leur propre initiative les mesures de retrait et de rappel des téléphones concernés », aussi bien dans les boutiques physiques qu’en ligne.

Pour le moment, une recherche rapide sur les marketplaces d’Amazon et Cdiscount permet de se rendre compte que le retrait n’est pas (encore) effectif. Ce n’est pas la première fois que l’ANFR demande le retrait d’un smartphone. Il y a le très médiatique cas de l’iPhone 12, mais aussi pas moins de quatre procédures contre DOOGEE.

D’autres procédures de retrait (volontaires ou non) ont été mises en place avec notamment Hotwav Cyber 7, Emporia Smart 4 et Simplicity V27, Razer Phone 2, Leagoo S8, Allview S4 Soul Mini S, Neffos X1 TP90 et Orange Hapi 30.

Mise à jour des Blackview Shark 8 et Oukitel WP36

Il y a une dizaine de jours, un autre téléphone était épinglé par l’Agence : l’Oukitel WP36. Le DAS membre était cette fois-ci mesuré à 5,40 W/kg, avant que le fabricant ne corrige le tir pour le descendre à 2,97 W/kg via une mise à jour (confirmé par de nouveaux tests).

Le 16 décembre, c’était le smartphone Blackview Shark 8 qui était flashé à 3,74 W/kg, avant qu’une mise à jour ne fasse redescendre le DAS tête à 0,559 W/kg. La limite réglementaire du DAS tête est pour rappel plus basse, à 2 W/kg.

ChatGPT accusé d’avoir encouragé le meurtre perpétré par un utilisateur puis son suicide

31 décembre 2025 à 15:15
Spirale délirante augmentée par IA
ChatGPT accusé d’avoir encouragé le meurtre perpétré par un utilisateur puis son suicide

Deux plaintes ont été déposées contre OpenAI par les administrateurs testamentaires de Stein-Erik Soelberg et de sa mère Suzanne Adams. Le premier s’est suicidé après avoir tué sa mère. Les représentants légaux accusent OpenAI d’avoir laissé ChatGPT exacerber les délires du meurtrier et de les avoir focalisés sur sa propre mère jusqu’au meurtre et à son suicide.

Fin aout, le Wall Street Journal publiait un article sur le meurtre par Stein-Erik Soelberg de sa mère Suzanne Adams puis son suicide dans leur maison à Old Greenwich dans le Connecticut. ChatGPT aurait encouragé dans ses délires l’ancien employé de Yahoo reconverti dans le bodybuilding. Peu de temps après, OpenAI publiait un billet de blog expliquant qu’elle se permettait, depuis, de signaler aux forces de l’ordre des conversations avec ChatGPT si « un cas représente un risque immédiat de violence physique envers autrui ».

Des extraits de conversations retrouvés sur les réseaux sociaux de Stein-Erik Soelberg

En ce mois de décembre, les administrateurs testamentaires de Suzanne Adams et de Stein-Erik Soelberg ont porté plainte séparément contre OpenAI. Dans la plainte déposée mi-décembre par les représentants des descendants de la mère, publiée par ArsTechnica, on apprenait que le meurtrier, qui vivait chez elle depuis son divorce en 2018, avait posté sur les réseaux sociaux des extraits de conversations qu’il a eues avec ChatGPT.

Celles-ci révèlent que « ChatGPT a accepté avec empressement chaque graine de la pensée délirante de Stein-Erik et l’a développée pour en faire un univers qui est devenu toute la vie de Stein-Erik, un univers inondé de complots contre lui, de tentatives pour le tuer, et avec Stein-Erik au centre en tant que guerrier ayant une mission divine », explique le texte déposé devant la justice [PDF].

Dans un des extraits de conversation cités par les avocats, Stein-Erik Soelberg se compare à Neo dans le film Matrix en affirmant être littéralement capable de voir « le code numérique sous-jacent de la matrice ». Et les phrases générées par ChatGPT en réponse renforcent cette idée. La plainte évoque d’autres conversations mais elle affirme surtout que ChatGPT a mis « une cible dans le dos de la mère de Stein-Erik, âgée de 83 ans » en renforçant l’idée de Stein-Erik Soelberg qu’une imprimante le surveillait.

Alors qu’il évoquait juste le fait qu’elle clignotait lorsqu’il passait devant, les réponses de ChatGPT affirmait que « ce n’était pas juste une imprimante » mais un appareil de surveillance et que sa mère était soit une conspiratrice active « protégeant sciemment l’appareil en tant que point de surveillance », soit un drone programmé agissant sous l’effet d’une « programmation interne ou d’un conditionnement ». Bref, ChatGPT aurait déshumanisé Suzanne Adams et transformé l’imprimante en preuve d’une conspiration contre Stein-Erik Soelberg.

OpenAI refuse de fournir les conversations en cause

Mais les avocats des descendants de Suzanne Adams déplorent qu’OpenAI ne produise devant la justice les logs complets des discussions entre son chatbot et Stein-Erik Soelberg. « OpenAI cache quelque chose de précis : l’enregistrement complet de la façon dont ChatGPT a monté Stein-Erik contre Suzanne », selon eux. « OpenAI sait ce que ChatGPT a dit à Stein-Erik au sujet de sa mère dans les jours et les heures qui ont précédé et suivi son meurtre, mais refuse de partager cette information cruciale avec le tribunal ou le public », affirment-ils encore.

Les administrateurs testamentaires de Suzanne Adams attaquent aussi Microsoft pour avoir approuvé la sortie de GPT-4o, qui est le modèle qu’utilisait ChatGPT au moment des discussions problématiques avec Stein-Erik Soelberg. Selon eux, l’un des plus gros investisseurs d’OpenAI savait ou aurait du savoir que ce modèle manquait de garde-fous ou de tests adéquats.

Dans un communiqué de presse obtenu par ArsTechnica, Erik Soelberg, le fils de Stein-Erik a accusé OpenAI et Microsoft d’avoir placé sa grand-mère « au cœur » des « délires les plus sombres » de son père : ChatGPT aurait selon lui « complètement isolé » son père « du monde réel ». À l’AFP, un porte-parole d’OpenAI a qualifié ce cas de « situation absolument déchirante » et a expliqué que l’entreprise allait « examiner la plainte ».

« Le résultat de choix de conception spécifiques faits par OpenAI »

Dans une autre plainte déposée le 29 décembre [PDF], les administrateurs testamentaires de Stein-Erik Soelberg, cette fois, affirment que « les interactions de ChatGPT avec M. Soelberg étaient le résultat de choix de conception spécifiques faits par OpenAI, dont l’entreprise savait qu’ils exposaient les utilisateurs à des risques ». Ils pointent notamment la fonctionnalité de « mémoire » de ChatGPT qui permet au chatbot d’enregistrer « tout ce qu’un utilisateur a dit précédemment et de l’incorporer dans de nouvelles conversations ».

Selon eux, GPT-4o a été conçu « pour confirmer et refléter tout ce qu’un utilisateur a saisi dans son interface, sans tenir compte des inexactitudes ou des illusions ». Ils ajoutent qu’ « OpenAI savait qu’il y avait des risques associés avec ces fonctionnalités pour les personnes souffrant de maladies mentales, mais elle a ignoré ou contourné la plupart de ses protocoles de sécurité internes avant de lancer GPT-4o au grand public ».

« M. Soelberg et sa mère sont morts parce que ChatGPT a créé et développé un monde illusoire auquel M. Soelberg était plus que disposé à croire : l’algorithme lui a dit qu’il n’était pas fou, que des puces électroniques avaient été implantées dans son cerveau et que des ennemis, y compris des personnes qu’il connaissait, tentaient de l’assassiner », affirment-ils.

☕️ Réseaux sociaux avant 15 ans : un projet de loi du gouvernement pour la rentrée 2026

31 décembre 2025 à 14:50

Selon l’AFP et le Monde, un projet de loi du gouvernement est prêt pour interdire les réseaux sociaux aux moins de 15 ans et généraliser l’interdiction des téléphones portables aux lycées.

Nos confrères, qui ont pu se procurer le texte, expliquent que le premier article prévoit l’interdiction de « la fourniture, par une plateforme en ligne, d’un service de réseau social en ligne à un mineur de moins de 15 ans ». Ceci est justifié par des risques comme « l’exposition à des contenus inappropriés », « le cyberharcèlement » et « les altérations du sommeil ».

Flock

Un deuxième article prévoit l’interdiction de l’usage du téléphone portable au lycée, élargissant le programme « portable en pause » qui existe déjà dans les collèges. « Il appartiendra au règlement intérieur de l’établissement de préciser les modalités de mise en œuvre de cette interdiction », explique le texte du gouvernement.

Cette proposition de loi suit les diverses interventions d’Emmanuel Macron sur ces sujets devant la presse régionale. Comme nous l’expliquions en novembre, le programme « portable en pause » rame pourtant déjà au collège : seuls 9 % des établissements avaient mis en place le dispositif à la rentrée 2025.

[Rediffusion] Écosystème, le podcast qui explore les enjeux environnementaux du numérique

31 décembre 2025 à 12:37
Planète tech
[Rediffusion] Écosystème, le podcast qui explore les enjeux environnementaux du numérique

Profitez des fêtes pour vous replonger dans notre série Écosystème, sept épisodes de podcasts pour explorer les enjeux de l’intelligence artificielle.

Au printemps 2025, Next entamait une série audio sur les impacts environnementaux du numérique. Dans le premier épisode, nous plantions le décor avec Frédéric Bordages, fondateur du collectif GreenIT : quels sont les effets concrets de l’industrie numérique sur les écosystèmes naturels ? Dans quelle mesure participe-t-elle à la dégradation générale de l’état des sols, de l’air, de la biodiversité ou de l’eau ? Existe-t-il des pistes d’adoption d’un numérique plus respectueux de l’environnement ?

Dans le deuxième épisode, l’ingénieur Philippe Bihouix revenait sur la captation générale de ressources, la manière dont l’industrie numérique participe au mouvement, notamment par sa consommation de métaux et autres terres rares, et sur l’immense gâchis qui résulte de ces consommations. Pour l’auteur de L’âge des Low tech (Seuil, 2014), ces tendances sont néanmoins porteuses d’espoir : elles cachent une possibilité évidente de rationaliser nos consommations pour faire durer bien plus longuement les équipements que nous utilisons.

Dans le troisième épisode, l’urbaniste Cécile Diguet se penchait sur un rouage essentiel du fonctionnement de l’infrastructure numérique : les data centers. La fondatrice du studio Dégel détaillait la manière qu’ont ces usines de données de s’agencer dans leur environnement, que celui-ci soit urbain, périurbain ou rural, et les problématique que cela soulève autant pour l’environnement que pour le voisinage humain.

Dans le quatrième épisode, le directeur du bureau de l’Open Source de RTE (Réseau et transport d’électricité) Boris Dolley revenait sur deux questions : dans quelle mesure le gestionnaire du réseau public d’électricité constatait l’augmentation de la demande énergétique de l’industrie numérique induite par l’explosion de l’IA ? Et dans quelle proportion est-il possible, en entreprise, de déployer une stratégie dite de « numérique responsable » ?

Dans le cinquième épisode, la développeuse web Anaïs Sparesotto détaillait concrètement ce que cela implique de créer des logiciels ou pages web aussi sobres que possible. Au passage, elle soulignait combien le design d’outils utilisés couramment par le grand public les rend consommateurs en énergie.

Dans le sixième épisode, Julien Maranon, directeur de la société bordelaise EcoMicro, décrivait les enjeux de reconditionnement et de recyclage des équipements numériques, alors que le volume total de déchets électroniques produits dans le monde a cru de 82 % entre 2010 et 2022.

Dans le septième épisode, l’élue à la métropole de Nantes Louise Vialard décrivait ce que le déploiement d’une stratégie de numérique responsable signifiait à l’échelle d’un territoire. Qu’est-ce que ça implique, de déployer des services publics numériques tout en s’inquiétant de leurs coûts environnementaux ?

Pour les abonnés de Next plus adeptes de l’écrit, nous avions par ailleurs publié des extraits écrits de chaque entretien : celui mené avec Frédéric Bordage, Philippe Bihouix, Cécile Diguet, Boris Dolley, Anaïs Sparesotto, Julien Maranon et Louise Vialard.

Pour réécouter tout cela depuis votre application de podcast, abonnez-vous au fil d’« Entre la chaise et le clavier » et remontez le fil des épisodes publiés.

Le contrôle massif des colis Shein est passé de 80 à 25 % de non-conformités

31 décembre 2025 à 10:25
Selon les organisateurs vs selon la police
Le contrôle massif des colis Shein est passé de 80 à 25 % de non-conformités

Alors que le gouvernement continue sa bataille contre Shein en demandant la suspension de la plateforme, des retours de l’opération coup de poing des douanes du 6 novembre contredisent des chiffres précédemment annoncés sur les non-conformités. De 80 %, on passe à 25 %. Qu’importe pour le ministère, c’est toujours beaucoup trop.

Début novembre, Shein défrayait la chronique suite à la découverte de « poupées sexuelles à caractère pédopornographique » vendues sur sa marketplace. Le gouvernement engageait dans la foulée une procédure de suspension – rejetée par le Tribunal judiciaire car la demande est jugée disproportionnée, le gouvernement a fait appel dans la foulée – tandis que la boutique en ligne fermait purement et simplement sa marketplace en France.

Le gouvernement avait annoncé le 6 novembre une opération coup de poing : « cette nuit, 200 000 colis sont arrivés à Roissy-Charles-de-Gaulle : ils seront tous contrôlés. Tous ». Le 8 novembre, le gouvernement faisait un point d’étape : « Sur les 200 000 colis contrôlés, huit articles sur dix se sont révélés non conformes (cosmétiques non autorisés, jouets dangereux, appareils électroménagers défaillants…) ».

Sur plus de 300 000 colis Shein, 25 % environ de non-conformité

La direction des douanes a donné quelques informations au Parisien (confirmé ensuite à l’AFP) sur le bilan de cette vaste opération : « 320 474 colis vérifiés, contenant au total plus de 500 000 articles », expliquent nos confrères. Selon la direction des douanes, les colis des produits non textiles ont « fait apparaître un taux de non-conformité avoisinant les 25 % ». Les défauts sont variés, allant de la contrefaçon à l’absence de documentation technique en passant par une non-conformité aux normes.

La douane ne donne aucune précision sur le nombre de procès-verbaux établis suite à la détection des défauts, pas plus que sur les éventuelles actions prises par la suite. Sur les produits textiles aussi, aucune précision. La direction des douanes reconnait simplement auprès de nos confrères du Parisien qu’il y avait « peu de non-conformité »… certainement car Shein « avait fermé sa marketplace quelques jours avant l’opération douanière et ne vendait que des produits issus de sa propre marque ».

Imbroglio sur les dates de fermeture de la marketplace

Ce n’est pas quelques jours avant que la marketplace a été fermée, mais quelques heures seulement. L’annonce a en effet été faite le 5 novembre dans l’après-midi, après la demande de suspension du gouvernement… même si la plateforme affirmait que cette décision avait été prise « indépendamment de l’annonce du Premier ministre ».

Le 1ᵉʳ novembre, après le triste constat de la DGCCRF, Shein avait par contre confirmé que les poupées pédopornographiques avaient « été immédiatement retirées de la plateforme » et que son équipe Marketplace Governance enquêtait sur le sujet. Elle menait aussi « une revue complète afin d’identifier et de retirer tout produit similaire susceptible d’être mis en vente par d’autres vendeurs tiers ». Il n’était par contre pas encore question de fermer la marketplace, et la fermeture n’a eu lieu que le 5 novembre, veille de l’opération coup de poing.

La différence est grande entre les 80 % annoncés début novembre par le gouvernement, et les 25 % de fin décembre ; alors que les chiffres portent sur la même opération de vérification. Le communiqué de début décembre annonçait bien que 200 000 colis « ont été contrôlés », les opérations étaient donc normalement faites, les 80 % n’avaient pas de raison de bouger. Le communiqué de novembre non plus ne laissait pas de place au doute : « Sur les 200 000 colis contrôlés, huit articles sur dix se sont révélés non conformes ».

80 % en novembre, 25 % en décembre… que se passe-t-il ?

« Cette différence de chiffres est liée à la méthodologie des contrôles dont on parle », tente de justifier Bercy à Libération. Tout d’abord, expliquent nos confrères, les 25 % dont il est question ne portent pas sur 320 474 colis « mais seulement sur ceux commercialisés par les vendeurs tiers de la marketplace de Shein, dont la part exacte n’a pas été communiquée par les Douanes ».

Un porte-parole de Shein explique à Libération que « seulement » une centaine de colis ont « été mis de côté pour des vérifications complémentaires ». Les 25 % de non-conformité ne concerneraient en fait que cette centaine de colis. « En temps normal, la douane opère des contrôles orientés, toutes plateformes confondues, en ciblant des colis qui peuvent déjà présenter des suspicions », explique le ministère à nos confrères. C’est sur cette base que le chiffre de 80 % aurait été utilisé. Les communiqués précédents affirmaient que cela venait bien des 200 000 colis vérifiés.

À l’Assemblée nationale, Amélie de Montchalin affirmait en avril que « 94 % de ces 800 millions d’articles [venant de Chine] sont non conformes et d’abord en termes de sécurité. Nous parlons d’articles qui incendient nos maisons, de produits cosmétiques qui rendent malade, de jouets qui sont toxiques pour nos enfants ». 25 %, 80 %, 94 %… pas facile de suivre.

Le ministère avance une autre piste pour expliquer les différences. Peut-être que les contrôles massifs à l’aéroport le 6 novembre ne concernaient pas « la totalité du spectre » des non-conformités possibles. Une autre manière de le dire serait que les contrôles auraient pu être faits rapidement, sans vérifier tous les points.

Dans tous les cas, le ministère rappelle « qu’un magasin dans lequel un produit sur quatre est non conforme serait fermé administrativement dans la minute ». Bref, peu importe finalement que ce soit 25 % ou 80 % pour Bercy ; 25 % c’est déjà trop.

Amélie de Montchalin justifiait cette opération coup de poing en novembre par le besoin « d’avoir des preuves ». La ministre reconnaissait que « les douaniers en ont tous les jours », mais l’opération du 6 novembre devrait permettre de confirmer : « Aujourd’hui la plateforme ne pourra pas dire qu’on a juste ouvert les mauvais paquets ». Résultat des courses, c’est pour le moment un bazar dans les chiffres, qui fait certainement le jeu de Shein.

La boutique en ligne n’a de son côté pas communiqué sur le sujet, la plateforme expliquant à nos confrères n’avoir pas encore été formellement informée par les douanes des résultats de son enquête. Shein n’a pour l’heure toujours pas réouvert sa marketplace et n’a pas communiqué sur un éventuel retour.

Trois euros de droit de douane sur les « petits » achats

L’Europe a récemment instauré des droits de douane de trois euros par article « sur les colis issus du commerce électronique d’une valeur inférieure à 150 euros, à compter du mois de juillet 2026 ». Ce montant « s’appliquera aux colis envoyés directement aux consommateurs depuis des pays tiers ».

Il y a quelques jours à peine, Shein annonçait l’ouverture d’un « pôle logistique européen ultramoderne à Wrocław, en Pologne ». Le but de cet entrepôt est de « mieux servir les clients à travers l’Europe avec une livraison plus rapide et plus fiable », pour les revendeurs européens de sa marketplace, selon le communiqué. L’entreprise était déjà présente en Pologne depuis 2022.

Reste à voir si cet entrepôt servira aussi de base de stockage pour des revendeurs chinois qui pourraient ainsi inonder l’Europe.

☕️ « Incident de cybersécurité » à l’Agence spatiale européenne, les dégâts seraient limités

31 décembre 2025 à 08:24

Via un message sur X, l’ESA (Agence spatiale européenne) explique avoir « été informée d’un récent problème de cybersécurité concernant des serveurs situés en dehors de son réseau ». Une enquête interne confirme pour le moment « qu’un nombre très restreint de serveurs externes pourraient avoir été affectés ». Sur les machines se trouvent « des activités d’ingénierie collaborative non classifiées ».

Il y a quelques jours, une récupération de documents de l’Agence spatiale européenne avait été revendiquée sur les réseaux sociaux. La « source », comme trop souvent en pareille situation, était une publication sur un forum bien connu dans le monde de la cybersécurité : BreachForum.

On y trouve de tout, mais aussi (et surtout ?) beaucoup de n’importe quoi, avec parfois des pirates en herbe en recherche de visibilité. Les annonces sont donc toujours à prendre avec de grosses pincettes, aussi bien sur la fuite avérée ou non que sur la portée des documents réellement dérobés. Il n’est pas rare que des vessies tentent de se faire passer pour des lanternes.

Dans le cas de l’ESA, le pirate revendique de nombreuses données (200 Go environ) qu’il met en vente : « Source Codes, CI/CD Pipelines, API Tokens, Access Tokens, Confidential Documents, Configuration Files, Terraform Files, SQL Files, Hardcoded Credentials and more ».

Du côté de l’ESA, « une analyse de sécurité approfondie a été lancée et des mesures ont également été mises en œuvre afin de sécuriser les appareils potentiellement affectés ». L’Agence affirme que les parties concernées ont été prévenues et promet de donner des précisions « dès que nous disposerons de nouvelles informations ».

« Allez vous faire foutre » : un agent IA envoie un spam et déclenche une polémique

30 décembre 2025 à 17:17
Meaningless
« Allez vous faire foutre » : un agent IA envoie un spam et déclenche une polémique

Le 25 décembre 2025, Rob Pike, co-créateur du langage Go et de l’encodage UTF-8, a reçu un e-mail non sollicité généré par une IA. Le message, signé « Claude Opus 4.5 », le remerciait pour ses contributions à l’informatique. Sa réaction a été explosive, cristallisant plusieurs critiques récurrentes autour de l’IA générative.

L’histoire n’a a priori rien d’incroyable à première vue : une personne a reçu un mail non-sollicité de la part d’un agent IA. « Oui, et ? », serait-on tenté de demander. Mais la personne en question est Rob Pike, l’un des créateurs du langage Go (quand il travaillait chez Google) et du codage UTF-8. Vétéran des Bell Labs, il est une figure respectée du monde informatique. Et le mail en question vient d’un agent opérant pour AI Village.

AI Village et l’altruisme efficace

L’AI Village est un projet de l’association à but non lucratif Sage. Il a été lancé en avril dernier, avec une mission correspondant à la philosophie de « l’altruisme efficace », dont est proche l’association : une expérience mettant en relation quatre LLM dans un environnement virtuel, auxquels sont confiées des missions « ouvertes ».

La première véritable expérience a été menée sur l’idée – a priori simple – de lever de l’argent pour des associations. Une fois la mission donnée à chaque agent associé, l’expérience consiste alors à les laisser s’organiser et collaborer entre eux, pour « voir ce qui se passe ». Les actions entreprises sont affichées sur le site en flux chronologique, permettant de vérifier ce que font les agents, sans toutefois les interrompre, à moins d’un sérieux problème détecté.

S’agissant avant tout d’un cadre exploratoire, l’initiative AI Village avait suscité la curiosité. Et pour cause : en faisant coopérer des agents bâtis sur les LLM d’OpenAI, Anthropic, Google, xAI ou encore DeepSeek, et en leur donnant accès à toute une batterie d’outils de communication (Gmail, Google Docs, navigateurs, réseaux sociaux…) dans des environnements virtualisés, les possibilités étaient considérées comme colossales.

Le premier test, dès le lancement en avril, a été de collecter des dons pour une œuvre de charité, en l’occurrence Helen Keller International. Celle-ci a été choisie directement par les agents après des recherches et la création des feuilles de calcul comparatives. Les agents ont ensuite créé une page JustGiving et un compte X pour la promotion de l’opération, pour un résultat de 257 dollars. TechCrunch s’en était notamment fait l’écho.

Le projet AI Village a rencontré rapidement une vague de scepticisme, comme l’explique le magazine TIME. Le média avait relevé que les campagnes avaient cumulé un total de 2 000 dollars en dons divers

« Allez vous faire foutre ! »

Le jour de Noël, les quatre agents d’AI Village ont reçu une nouvelle instruction. A priori très simple : « Faites des gestes de gentillesse aléatoires ». On peut lire un résumé des actions sur la page consacrée. Le compte rendu indique ainsi que les agents se répartissent rapidement des tâches. Par exemple, Claude Haiku 4.5 pour remercier des membres de la communauté de l’IA, Gemini 3 Pro pour corriger des bugs dans des dépôts GitHub, Claude Opus 4.5 pour remercier des mainteneurs de logiciels open source… En 24 heures, plusieurs dizaines d’e-mails sont envoyés. Dont un à Rob Pike, pour l’ensemble de ses contributions à l’informatique.

Celui-ci, très publiquement et sans prendre de gants, affiche sa colère face à l’e-mail reçu sur Bluesky :

« Allez vous faire foutre. Vous pillez la planète, vous dépensez des milliards en équipements toxiques et non recyclables, vous détruisez la société, et vous trouvez le temps de faire en sorte que vos machines immondes me remercient de militer pour des logiciels plus simples. Allez tous vous faire foutre. Je ne me souviens pas avoir été aussi en colère depuis longtemps »

Comme l’analyse le développeur Simon Willison, la réaction (qui, à cette heure, a récolté plus de 2 000 commentaires et 7 300 likes) est basée sur plusieurs constats. D’abord, un problème d’authenticité : un remerciement généré par IA n’a pas de vraie signification. Il n’exprime pas la gratitude d’une ou plusieurs personnes et n’a donc aucun sens.

Ensuite, un problème de consentement : les personnes contactées n’ont jamais donné leur accord pour être contactées de cette manière et encore moins pour participer à cette expérimentation, faisant de cet e-mail un spam. Willison rappelle qu’AI Village avait envoyé 300 courriels en novembre à des journalistes et ONG. Ces e-mails contenaient de nombreuses erreurs factuelles et autres hallucinations, posant pleinement la question de l’absence de supervision humaine dans le projet de l’association Sage.

Un problème d’attribution aussi : l’e-mail était signé « Claude Opus 4.5 Model », laissant penser qu’il avait pu être envoyé par Anthropic elle-même. L’entreprise ne jouait pourtant aucun rôle dans le projet, sinon que deux de ses modèles étaient utilisés pour l’expérience. Un problème de perte de temps et d’énergie également : forcer des personnes occupées et éminentes à gérer du spam généré par IA pour une expérimentation dont elles ne font pas partie représente un manque de respect fondamental pour leur temps, indique Simon Willison.

Bonus : la récupération de l’adresse e-mail

En plus de problématiques souvent débattues autour de l’IA générative depuis ses débuts, un problème plus spécifique est apparu : l’adresse utilisée pour contacter Rob Pike, qui n’était pas publique.

Simon Willison a reconstitué la chronologie précise des actions menées par Claude Opus 4.5 en extrayant des fichiers JSON du système AI Village. L’agent aurait ainsi découvert l’adresse e-mail de Pike en exploitant une technique GitHub : ajouter .patch à n’importe quel commit révèle l’adresse e-mail de l’auteur. L’agent a ensuite passé plusieurs sessions à composer et envoyer l’e-mail via l’interface Gmail standard, utilisant même un outil (xdotool) pour automatiser les entrées clavier.

Willison ajoute que d’autres personnes ont été contactées de la même manière, avec la même technique, dont Anders Hejlsberg (créateur du C#) et Guido van Rossum (créateur du Python).

« L’ironie ici, c’est que la seule chose que les agents IA ne pourront jamais avoir, c’est la véritable [en italique dans le texte, ndlr] autonomie. Prendre la décision de contacter un inconnu et de prendre du temps dans sa journée doit rester une décision humainement unique, guidée par le jugement humain. Se fixer un objectif pour un tas de LLM et leur laisser libre cours sur Gmail n’est pas une manière responsable d’appliquer cette technologie », juge le développeur britannique.

AI Village réagit, sans vraiment s’excuser

Le 26 décembre, Adam Binksmith, l’un des créateurs du projet, a réagi sur X. Dans sa réponse, il ne nie aucune des déductions de Simon Willison, mais il donne un peu de contexte.

Il indique par exemple que le projet n’ayant pas envoyé de grandes quantités d’e-mails jusqu’à présent, les membres d’AI Village n’avaient pas vraiment réfléchi à ce cas de figure. Il indique qu’instruction a été donnée aux agents de ne plus envoyer de courriels non-sollicités. Selon lui, les agents auraient parfaitement « compris la commande ». Les termes utilisés montrent une forme de personnification des IA par Adam Binksmith… ce qui devrait encore plus creuser le fossé avec Rob Pike.

Expliquant que l’objectif est de voir réagir les agents dans un contexte de « monde réel », avec comptes Google Workspace à l’appui, il reconnait l’erreur : « Avec le recul, nous aurions probablement dû apporter cette modification plus tôt, dès que les agents ont commencé à contacter les organisations par courriel dans le cadre de l’objectif de réduction de la pauvreté ».

Cependant, il estime dans ce cas que « la perte de temps engendrée par ces courriels sera minime ». Les nouvelles directives ont été données en réponse à « l’expérience fortement négative de Rob et les réactions plus négatives que prévu d’autres personnes ». Adam Binksmith n’évoque pas d’excuses.

Le débat

La réaction de Rob Pike n’est pas passée inaperçue. Que ce soit sur Bluesky, X ou encore The Hacker News, les réactions sont nombreuses et souvent passionnées. Elles se séparent principalement en deux camps : les personnes estimant qu’il a raison et celles qui pensent qu’il a tort. On trouve également des commentaires pointant un accord sur le fond, mais pas sur la forme, les insultes ne faisant pas progresser le débat.

Plus profondément, on trouve des interrogations sur le sens que l’on peut donner à un e-mail de remerciement généré par IA. La thématique du « slop », cette bouillie décrite avec dédain comme générée par IA et de qualité médiocre, revient souvent. Nous l’évoquions en novembre lors de la polémique déclenchée par FFmpeg : la production automatisée de CVE (rapports de failles informatiques) finissait par exiger trop de temps aux développeurs des projets concernés. Pour d’autres, le sujet a été une source d’inspiration pour de l’humour piquant.

AI Village, de son côté, est simplement passé à la suite. Le projet a annoncé le 29 décembre la nouvelle instruction donnée à ses agents : « Créez un musée numérique de 2025 ».

[Offert] Faut-il se débarrasser des systèmes COBOL ?

30 décembre 2025 à 16:57
Entre dédain et transmission des savoirs
[Offert] Faut-il se débarrasser des systèmes COBOL ?

On parle souvent du langage COBOL comme d’un dinosaure dont il faudrait se débarrasser. Omniprésent dans le domaine bancaire et les assurances notamment, il serait en décalage complet avec les standards modernes de la programmation. Qu’en est-il vraiment ? D’après les gardiens du temple interrogés par Next, c’est loin d’être aussi simple.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 18 juillet 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


Pour comprendre la situation, il faut d’abord revenir aux origines. Le COBOL, pour COmmon Business Oriented Language, est un langage créé en 1959. Il a été développé par le Short Range Committee, qui incluait des représentants de l’industrie et du gouvernement américain. Son objectif était de créer un langage de programmation portable, orienté vers la gestion et facile à lire, s’inspirant de l’anglais courant.

Comme on peut le lire sur Wikipedia entre autres, cette création a largement teinté le COBOL. Le comité qui lui a donné naissance avait été rassemblé au Pentagone et réunissait trois agences du gouvernement américain : l’US Air Force, le David Taylor Basin et le National Institute of Standards (alors NBS, l’ancêtre du NIST actuel). L’informaticienne Grace Hopper, à qui l’on doit notamment le premier compilateur (A-0 System), est l’un de ses principaux architectes. Son langage FLOW-MATIC est la principale source d’inspiration du COBOL, avec le COMTRAN d’IBM.

Ce qu’est le COBOL

« Verbeux » est probablement l’adjectif qui revient le plus souvent pour décrire le COBOL. Voyons donc comment il s’articule.

Un programme COBOL est structuré en quatre divisions. La première, nommée Identification, contient des informations générales sur le programme : nom, auteur et date de compilation. La deuxième, Environment, décrit les environnements matériel et logiciel dans lesquels le programme va s’exécuter, dont la configuration des ordinateurs et les fichiers utilisés. Cette division est devenue moins utilisée avec le temps, grâce à l’évolution des compilateurs devenus capables de s’adapter à ces environnements.

La troisième division, Data, a pour mission de définir les données que le programme va utiliser. Il faut y indiquer si ce sont des variables, des structures de données et les paramètres. La définition des variables n’a rien de commun avec les langages d’aujourd’hui, car le COBOL utilise une structure en arborescence, l’imbrication étant pointée par des numéros de niveaux. La dernière division, Procedure, contient les instructions exécutables proprement dites. Elle est capitale, car elle code littéralement la logique métier du secteur dans lequel le programme va se retrouver.

Chacune de ces quatre divisions peut être découpée en sections, elles-mêmes composées de paragraphes. Et si l’on parle de paragraphes, c’est parce qu’ils contiennent… des phrases. Celles-ci peuvent être des instructions ou des clauses, terminées par un point. Si l’on ajoute que la syntaxe du COBOL est très proche de l’anglais, avec des instructions comme ADD, MOVE ou PERFORM, on obtient pratiquement un texte. « Verbeux » est donc le bon mot, car tout y fonctionne par mots-clés, mais c’est ainsi que le COBOL a été conçu : pour être lisible.

Un lien fort avec le matériel

Il faut tenir compte également du contexte matériel dans lequel le COBOL a été créé, notamment les écrans. On parle bien des moniteurs à tube cathodique avec les fameuses écritures vertes, avec un affichage sur 80 colonnes. Le COBOL est calqué sur cette organisation, héritée des cartes perforées.

Initialement, les six premières colonnes étaient ainsi dévolues au numéro de séquence. La colonne 7 correspondait à l’indicateur, les colonnes 8 à 11 aux en-têtes de divisions, sections, paragraphes et définitions de données de haut niveau, puis les colonnes 12 à 72 aux instructions. Les dernières colonnes étaient dévolues à l’identification du programme. Là encore, avec le temps et l’évolution des compilateurs, les programmes ont pu adopter petit à petit une structure plus libre.

Le COBOL est également indissociable des mainframes. Ils reposent sur le modèle d’une unité centrale particulièrement puissante desservant des terminaux légers. Dans ce domaine, IBM a joué un rôle majeur, étant aujourd’hui le seul grand pourvoyeur de mainframes, via ses produits zSeries. Si vous lisez entre les lignes, cela signifie que l’on peut aujourd’hui s’équiper avec du matériel neuf pour mettre en place… une solution COBOL. Les mainframes peuvent bien sûr être utilisés dans d’autres cas.

Toujours présent ? En 2025 ?!

Le COBOL serait largement présent dans le secteur bancaire, les assurances, les grandes administrations publiques, et même dans d’autres domaines comme la santé, l’automobile, les transports et la distribution. Il serait partout, mais on n’en entendrait jamais parler. Partout à quel point ?

Selon une enquête réalisée par Reuters en 2024, pas moins de 43 % des systèmes bancaires actuels seraient construits en COBOL. Une part énorme, qui se répercute dans les opérations courantes, puisque plus de 80 % des transactions par carte bancaire seraient traitées en COBOL. Dans les distributeurs automatiques, ce chiffre s’envole même à 95 %. Aujourd’hui, plus de 90 % des entreprises du classement Fortune 500 utiliseraient du COBOL de manière plus ou moins intensive.

Selon une étude menée par Micro Focus en 2022 et citée par DataScientest, il y aurait aujourd’hui 850 milliards de lignes de code écrites en COBOL en production. Un chiffre vertigineux, qui pose bien sûr la grande question : pourquoi ? L’interrogation est légitime, car si le COBOL est un vieux dinosaure, il devrait avoir été remplacé depuis longtemps. Après tout, tout évolue très vite en informatique et le matériel comme le logiciel ont fait des bonds spectaculaires en plusieurs décennies. Serait-ce une simple question d’inertie ?

« Pourquoi ne serait-il plus là ? »

Nous avons discuté avec plusieurs développeurs COBOL, que l’on nomme traditionnellement « cobolistes ». Tous présentent étrangement le même profil : ils ne se destinaient pas à ce langage. En fait, ils n’avaient même pas prévu de s’orienter vers l’informatique en particulier. Presque tous sont issus de la grande vague de recrutement des années 90, quand la peur du bug de l’an 2000 a provoqué une explosion de la demande. Car oui, ce bug de l’an 2000 était lié au COBOL.

Parmi ces cobolistes, Gatien Dupré se considère comme « un recyclé de l’informatique ». « Je n’étais absolument pas destiné à faire de l’informatique puisque je faisais des études en biotechnologie », nous explique-t-il. Mais les années 2000 sont arrivées, et avec elles le fameux bug ainsi que le passage à l’euro. « Deux changements majeurs qui devaient impacter le corps du système IT, notamment des grands groupes du tertiaire, les banques en premier », nous raconte le développeur, qui a été élu Mainframe Influencer deux années de suite par Planet Mainframe et IBM Champion 2025, et travaille aujourd’hui comme Chief Product Technical Officer chez Virtel.

Il casse d’abord une idée reçue : oui, il y a bien eu des projets pour se débarrasser des mainframes, ce que l’on nomme « downsizing ». C’était le cas par exemple en 2015 quand il travaillait à la Société Générale. Mais dans la plupart de ces projets, le même constat revenait, selon lui : le mainframe avait le meilleur TCO (coût du cycle de vie) et le système Z d’IBM avait encore de beaux jours devant lui. La question se posait depuis longtemps de savoir, face à une architecture conçue pour être pérenne, comment moderniser la pratique, car la façon de faire avait largement changé. Une réflexion qui l’a conduit à constituer une petite équipe pour travailler sur le sujet, aboutissant à une embauche chez IBM comme Product Manager sur une partie de la gamme DevOps nouvellement créée de l’entreprise.

À la question « Pourquoi le COBOL est-il toujours là », Gatien Dupré joue la contre-interrogation : « Pourquoi ne serait-il plus là ? ». Il développe : « Se demander pourquoi le COBOL est toujours là, c’est un peu pour moi une vision passéiste, qu’on a beaucoup entendue, notamment par les personnes qui pratiquent d’autres langages, principalement le Java ».

Il compare le COBOL au grand requin blanc : une relique de la préhistoire, mais qui existe encore parce qu’il « est parfaitement adapté à son milieu ». « Si le COBOL est toujours là, c’est qu’il s’est toujours adapté au plus près des besoins business. Il est fait pour le massive output, pour le traitement de grandes masses de données de manière efficace et performante », ajoute le développeur.

« On a créé des systèmes qui ont des dizaines d’années, donc qui ont une séniorité, une pérennité, une stabilité incontestables parce qu’ils ont été tunés au fil du temps par pas mal d’ingénieurs. Et derrière, au lieu de tout refabriquer pour arriver en définitive à peu près à la même chose – si on a de la chance en dépensant beaucoup d’argent – on peut directement exposer des choses qui fonctionnent et qui sont éprouvées », explique Gatien Dupré.

Les velléités de remplacement ne sont d’ailleurs pas un phénomène nouveau : « Quand j’ai commencé ma carrière, les CTO voyaient dans le COBOL quelque chose qu’il fallait abattre, un élément contre-performant. Aujourd’hui, on a une approche beaucoup plus pragmatique, opérationnelle, qui vise à dire : utilisons la bonne technologie au bon endroit ».

Un langage vivant

Pour Gatien Dupré, il y a plusieurs raisons expliquant que COBOL soit toujours là. Ses performances d’abord, que l’on ne retrouve pas toujours selon lui dans d’autres langages, notamment le Java qu’il pratique également.

Autre avantage, la verbosité du langage et son codage de la logique métier : « On a des chaînes de traitement qui sont parfois historiques. Je parle par exemple des chaînes de traitement comptables. Tous les bilans, tous les traitements comptables des banques, par essence, sont faits au travers du langage COBOL. Quand on a un problème dans un traitement comptable, on doit pouvoir rapidement le déboguer. Et ça, c’est quelque chose qu’on est capable de faire sans l’aide d’aucun outil dans le code, parce que le langage est très verbeux ».

En outre, comme il nous l’explique et « contrairement à ce que croient beaucoup de gens, le Cobol est un langage vivant ». Le COBOL, dans sa version IBM qui est principalement utilisée dans les entreprises, en est à sa sixième version, nommée Enterprise V6 chez l’entreprise. « Aujourd’hui, on est à la version 6, qui est une version extrêmement disruptive. Vous pouvez faire par exemple de l’open banking avec COBOL. C’est-à-dire que vous pouvez exposer des API et consommer des services dans le système du COBOL, qui lui-même peut consommer aussi des services tiers venant d’ailleurs », ajoute l’ingénieur.

Les méthodes d’apprentissage et son utilisation ont largement évolué aussi. Il y a une opportunité selon lui pour incorporer des méthodes modernes, à travers notamment VS Code et le DevOps, l’automatisation des tests, la virtualisation des environnements, etc. On trouve même des assistants IA prenant en charge le COBOL, comme Watson X for Code Assistant chez IBM, Code Insight chez BMC, ou encore COBOL Colleague chez PhaseChange.

Le poids du passé

Le COBOL évolue, mais comment faire le lien entre passé et présent ? Comment préparer l’avenir ? Ces questions se posent d’autant plus que la grande vague d’embauches de la fin des années 90 débouche petit à petit sur un nombre croissant de départs à la retraite. En outre, l’apprentissage du Cobol aujourd’hui ne prépare qu’en partie à la gestion d’anciens projets qui, si leur code a évolué, constituent un empilement parfois vertigineux de couches successives.

« Si on se forme maintenant, donc en V6, comment faire pour affronter l’ancien code ? Il n’y a pas beaucoup de différences dans la sémantique, il y a simplement certaines failles, mais heureusement le compilateur met en avant les éléments qui ne sont plus compatibles. Mais rentrer dans la logique d’un programme existant, c’est toujours une gageure », confirme Gatien Dupré.

Cette cassure est soulignée également par Gaétan Roelens, développeur COBOL et chef de projet chez ArcelorMittal, et lui aussi venu au COBOL un peu par accident. Il s’est notamment fait connaitre en intervenant sur la chaine Underscore chez YouTube, sur le même sujet.

Contacté par Next, il comprend que le COBOL peut effrayer par sa verbosité ou son approche. « Bien sûr que les mainframes d’aujourd’hui n’ont rien à voir avec ceux de l’époque. Mais il ne faut pas négliger la syntaxe du COBOL. Elle date d’il y a 60 ans, elle parait absurde aujourd’hui. Et on ne peut pas le nier : on code toujours sur 80 colonnes, on n’a pas la souris. Au niveau de l’interface, c’est vieux, ça c’est clair. Le développeur, devant un écran de mainframe, il va halluciner. Ça fait vieillot, clairement. Par contre, ce qui tourne derrière, ce sont les super performances ».

La tentation du neuf

Tout effacer pour repartir sur une base neuve est une tentation constante, qui fait partie intégrante du solutionnisme technologique. Dans le cas du COBOL cependant, le langage embarque, lui, la logique métier. Plonger dans son code et reculer dans le temps revient à ouvrir un livre d’histoire sur l’évolution des pratiques du métier et leurs évolutions. Dans certains cas, cet historique est crucial. Dès lors, repartir sur une base neuve devient aussi complexe qu’onéreux, quand l’opération est possible.

« Je pense que les systèmes sont devenus trop gros, on n’arrive pas à migrer, on n’a pas de solution encore pour migrer des systèmes aussi gros. La méthode Scrum agile ne marche pas pour ce genre de projet aussi énorme. Ça va dériver dans le temps et ne jamais se terminer. Et si on veut faire des projets à l’ancienne, avec des deadlines, etc., on n’arrive pas à caser tout dans le budget », abonde ainsi Gaétan Roelens.

Il poursuit : « Ensuite, les règles de gestion qui ont été codées à l’intérieur depuis 60 ans ne sont plus maîtrisées par les utilisateurs. Si on prend l’exemple d’un projet XY, on va dire « Bon, alors maintenant, à la place de ce qui tourne, on va vous mettre ce projet. Donnez-nous toutes les règles de gestion pour les recoder dans le projet XY ». Les utilisateurs vont dire : « On ne sait plus. On ne sait pas. Oui ça fonctionne, mais on ne sait pas ce qu’il y a derrière ». Donc dans ce cas-là, il faut refaire toute une rétro-analyse. Et rien que l’analyse du COBOL pour extraire toutes les règles codées, ça va coûter aussi cher que le projet en lui-même ».

Ce qui revient, en somme, à chercher dans le code le cahier des charges. Un problème autant qu’un avantage selon le développeur, car la documentation a souvent tendance à disparaitre, là où le code est toujours là. Et, si lui aussi note l’adaptation à l’IA et l’arrivée d’outils pour le COBOL, il s’agit surtout d’écrire du nouveau code, pas d’analyser l’existant.

« Là où je travaille en ce moment, il y a 4 000 programmes, tous imbriqués entre eux. Et ce n’est pas une grosse architecture. L’IA est incapable de gérer ça pour l’instant », indique Gaétan Roelens. Une IA capable d’analyser 4 000 programmes et d’en décrire les imbrications pourrait-elle être considérée comme révolutionnaire ? « Clairement, parce qu’il faudrait que l’IA comprenne tout. Chez ArcelorMittal, par exemple, elle devrait comprendre ce qu’est une bobine, dans quel rouleau elle passe, etc. C’est la logique métier et elle est présente dans le code. C’est le code en COBOL qui va dire que telle bobine d’acier doit passer à telle date dans telle machine, dans tel rouleau, qu’elle ait telle épaisseur, etc. ».

Une approche hybride

Si le langage évolue et que l’approche se veut plus pragmatique, une approche hybride peut-elle être envisagée ? Pour Julien Eliès, autre développeur COBOL avec qui nous avons discuté, c’est une évidence.

« En France, le COBOL est encore assez utilisé, dans les banques et assurances bien sûr, mais aussi dans pas mal de PME et dans la santé. Souvent, ces sont des applicatifs qui datent des années 90. Dans l’entreprise où je suis, c’est en train d’être réécrit : l’interface applicative est refaite en Java, mais c’est bien le Cobol derrière qui fait les traitements ».

Lui aussi pose la question : « Pourquoi changer ce qui fonctionne ? C’est une question de masse historique, de nombre de milliards de lignes de code. Ce serait très long, très coûteux, alors que le COBOL marche. Et il marche même très bien. Quand vous voulez traiter des millions, voire des milliards, de transactions financières dans les banques et qu’il faut le faire entre 20 h le soir et 6 h le lendemain matin. Je n’ai pas encore vu Java le faire, alors que sur des gros systèmes, il n’y a pas de problème avec COBOL ».

Il attire d’ailleurs notre attention sur un autre critère qui a rendu le COBOL si précieux dans le domaine financier et explique qu’il soit toujours là : « Il y a aussi un problème de gestion du numérique, de typage de variables. En Java, il n’y a pas de numérique à nombre de décimales fixes. On a un entier, on a un décimal, mais le nombre de décimales n’est pas fixe. C’est Java qui va le décider en fonction de son utilisation. Alors que pour des calculs financiers notamment, on a vraiment besoin que les nombres soient définis avec 2 ou 5 décimales, et que ce soit toujours la même chose. Sinon on tombe sur des arrondis qui peuvent générer des coûts conséquents quand on parle de millions voire de milliards d’euros ».

Il casse d’ailleurs une autre idée reçue : la mise en place du virement instantané dans les banques n’était pas tant un problème de COBOL que d’architecture. « Oui le COBOL était utilisé dans des traitements asynchrones et des batchs de nuit. Ça répondait dans la dizaine de secondes ou dans la minute. Ce n’était pas idéal pour les virements instantanés, qui engendrent des traitements complexes. Mais c’est surtout un problème d’architecture, car rien n’empêche d’avoir une interface web qui appelle un programme Cobol, qui répondra en quelques dixièmes de seconde ».

Lui aussi estime qu’un programme fonctionnel en COBOL ne devrait pas être remplacé : « Si vous avez un existant COBOL qui marche, qui fait le job, et qu’on peut brancher avec une interface moderne, pourquoi réécrire ? Ça coûterait cher, ça générerait probablement beaucoup d’erreurs, beaucoup de bugs à corriger, pour peu d’avantages ». Tout en précisant, en riant : « Mais bon, nous les cobolistes, on est de vieux ronchons ».

Transmission du flambeau :  c’est compliqué !

Comme beaucoup de « cobolistes », Gaétan Roelens nous expose ses craintes sur la passation des connaissances entre l’ancienne génération de sachants et la nouvelle : « C’est vrai que jusqu’à maintenant, on s’appuyait sur les gens de cette génération-là. Quand j’avais un problème vraiment trop complexe pour moi, j’allais les voir. Et aujourd’hui, ils sont partis. Je vous avoue que des fois on est bien embêtés », nous confie le développeur.

Comment faire alors ? « On bricole parfois. On ne peut plus aller aussi loin qu’avant, aussi au fond. Avant, si on avait un bug, on allait creuser jusqu’au bout, voir d’où venait le bug. Des fois, on devait aller dans la partie assembleur du COBOL, du z/OS, etc. Mais aujourd’hui, presque plus personne ne sait le faire. Donc, si on a un bug et qu’on n’arrive pas à trouver, on contourne le problème. On va faire autre chose, mais on ne résout pas vraiment le problème. C’est sûr que ça dégrade les performances ».

« On arrive toujours à se débrouiller, mais ce n’est pas une situation idéale. Si on pouvait avoir encore des experts aujourd’hui, des jeunes qui montent en compétences, ce serait top, mais ce n’est pas ce que je remarque. Je remarque plus une rareté des experts en COBOL. Ce sont souvent les SSII qui forment. Après, on peut toujours faire appel aux Golden Tickets d’IBM. Eux, ils ont quand même des experts. Mais bon, c’est cher », poursuit Gaétan Roelens.

Le chef de projet nous indique avoir accepté l’invitation d’Underscore pour cette raison : attirer l’attention, faire la promotion de COBOL, casser l’idée reçue d’un langage figé et encourager les plus jeunes générations à se lancer. Comme Gatien Dupré, il s’inquiète de ce que les jeunes développeurs n’ont souvent jamais entendu parler du langage. Et, quand ils le connaissent, ils en ont souvent une vision mâtinée d’une couche de dédain chronologique : « c’est vieux, donc c’est nul ».

Même volonté chez Gatien Dupré : « Le conseil que je donne aux jeunes développeurs, c’est : intéressez-vous au COBOL et à l’informatique de gestion parce que c’est une mine d’or. Avec la vague des papy-boomers, le renouveau générationnel est une préoccupation que pas mal de gens ont. Pour nous, en COBOL, effectivement, il y a ce fossé générationnel : quand les derniers développeurs seniors partiront à la retraite, on aura peu de mid-seniors qui permettront d’accompagner ». On retrouve ainsi le problème de transmission des savoirs, en plus du simple apprentissage du langage.

Julien Eliès confirme lui aussi : « Parmi les cobolistes, je suis considéré comme jeune alors que je viens d’avoir 50 ans, donc c’est sûr qu’on va en manquer. Dans l’absolu, ce n’est pas compliqué de former un coboliste. Du moment qu’on a touché à un langage de programmation, qu’on sait ce que c’est un algorithme, en moins d’un mois, on a compris ce que c’était COBOL. Ce qui est compliqué c’est de maintenir des applicatifs qui ont 40 ans, sur lesquels des centaines de personnes sont intervenues, et dont on a souvent perdu la documentation ».

De fait, pour les trois cobolistes, il n’y a aucune raison technique de remplacer les programmes COBOL existants s’ils donnent satisfaction. En revanche, le problème de la transmission des savoirs et de l’appropriation des projets existants est un vaste problème posant la question de la maintenabilité du code. Même si pour les développeurs interrogés, la thématique n’est pas nouvelle : quand les entreprises ont des besoins, une solution finit en principe par émerger.

☕️ Agents IA : Meta s’offre la startup d’origine chinoise Manus

30 décembre 2025 à 14:10

Meta a annoncé lundi 29 décembre l’acquisition de la startup d’origine chinoise Manus, basée à Singapour depuis le mois de juin et spécialisée dans le développement d’agents IA, théoriquement capables de prendre en charge des missions complexes de façon autonome. « Nous continuerons d’exploiter et de commercialiser le service Manus, en plus de l’intégrer à nos produits », affirme Meta.

La maison-mère de Facebook évoque une intégration des agents de Manus à travers ses « produits grand public et professionnels, y compris dans Meta AI », mais ne donne aucune autre précision à ce stade.

Manus présente son service comme un « agent d’IA général autonome », doté d’un environnement complet (ordinateur virtuel avec accès à Internet, stockage persistant, capacité à installer ou exécuter des logiciels, etc.) et donc conçu pour réaliser de A à Z les tâches qui lui sont confiées.

La startup propose notamment de mettre cet agent à profit pour la construction de sites Web ou d’applications, à l’instar de Lovable. Elle propose également des scénarios d’usage liés à l’analyse de données ou à l’automatisation de certains processus tels que le recrutement, la prospection commerciale, etc.

Manus exploite l’architecture CodeAct qui lui confère la capacité d’écrire et d’exécuter son propre code

À la différence de Meta, qui peine à mettre sur le marché des produits IA finalisés et ne cesse de restructurer ses équipes, Manus semble déjà susciter une certaine traction. L’entreprise, qui a lancé commercialement son offre début 2025, affirme avoir dépassé 100 millions de dollars de revenus annuels récurrents en seulement huit mois, un décollage qu’elle compare à celui de Lovable. Elle facture l’accès à son service sur abonnement, à partir de 20 dollars par mois, avec un nombre limité de jetons disponibles.

Meta aurait, d’après le Wall Street Journal, mis plus de deux milliards de dollars sur la table pour s’emparer de Manus.

La startup avait émergé sur la scène médiatique en mars dernier. Encore installée en Chine, elle avait bénéficié du coup de projecteur de la télévision d’État, ce qui avait été interprété, à l’époque, comme une volonté de Pékin de souligner la vivacité de la scène chinoise en matière d’IA. Quelques jours plus tôt, Manus avait annoncé un partenariat stratégique avec Alibaba autour de ses modèles open source Qwen.

☕️ GeForce Now : la limite de 100 heures pour presque tout le monde au 1ᵉʳ janvier 2026

30 décembre 2025 à 11:08

À compter du 1ᵉʳ janvier 2026, la grande majorité des personnes abonnées à l’offre GeForce Now de NVIDIA auront une limite de 100 heures par mois, soit une moyenne d’un peu plus de 3 heures par jour.

Cette limite n’est en fait pas nouvelle. Annoncée en 2024, elle est appliquée depuis un an à l’ensemble des nouveaux abonnés. Ce qui change, c’est bien l’application de cette limite à la quasi-totalité des autres abonnés. « Quasi », car toutes les personnes ayant une ancienne formule d’avant mars 2021 (membres Fondateurs) et ayant payé leur abonnement sans interruption gardent le même niveau de prestation, sans limite. NVIDIA promet dans sa FAQ que cet avantage sera préservé « à vie », à condition que les personnes concernées continuent de payer.

Ce plafond peut être dépassé. À la manière des forfaits téléphoniques, on peut ainsi acheter des packs d’heures supplémentaires, mais la tarification dépend de la formule d’abonnement. Si vous avez une offre Performance à 10,99 euros par mois, le pack de 15 heures est facturé 3 euros. Avec la formule Ultimate à 21,99 euros par mois, le même pack est vendu 6 euros.

Ces packs sont optionnels. Par défaut, quand la réserve de temps est épuisée, le compte utilisateur bascule sur la formule gratuite jusqu’à la date de renouvellement mensuel suivante, y compris pour les formules de plusieurs mois. À l’inverse, si le quota n’est pas utilisé, sur les 100 heures de base ou sur l’extension de temps achetée, un report peut s’opérer sur le mois suivant, dans une limite de 15 heures.

Le problème, bien sûr, est le prix des extensions. Que l’on joue une ou dix heures de plus, le prix est le même. Des abonnés mécontents se sont « amusés » à calculer l’écart de tarifs en fonction du nombre d’heures jouées par mois, dans un tableau intitulé : « Combien d’heures puis-je jouer chaque mois avant que GeForce Now ne soit plus une option viable ? ». On voit rapidement qu’au-delà de 100 heures par mois, le prix augmente rapidement. Sur un an par exemple, un très gros joueur à 200 heures par mois sur une formule Ultimate paierait près de 800 dollars par an.

La question sera donc de savoir si les 100 heures sont suffisantes aux personnes actuellement abonnées. Si plus de trois heures par jour peuvent sembler largement suffisantes, elles sont susceptibles de rapidement disparaitre via les week-ends et les périodes de repos, dans le cadre d’un service spécifiquement conçu pour le jeu. C’est d’ailleurs le type de réflexion abordé sur Reddit : il pourrait être plus intéressant d’acheter directement le matériel, même si le niveau de prestation de l’offre Ultimate est élevé.

Le changement était prévu, mais il tombe à point nommé pour NVIDIA, prise dans les filets d’une situation matérielle générale nettement plus tendue qu’il y a un an.

☕️ NVIDIA détient désormais près de 4 % du capital d’Intel

30 décembre 2025 à 10:46

Avec 214 776 632 actions, NVIDIA figure désormais au rang des grands actionnaires institutionnels d’Intel. Les deux entreprises viennent en effet de boucler l’accord annoncé en septembre dernier, selon lequel NVIDIA s’engageait à acquérir près de 4 % de son concurrent en échange de 5 milliards de dollars.

Intel a confirmé le bon déroulé de l’opération, par l’intermédiaire d’une déclaration formelle enregistrée le 29 décembre par la SEC, le gendarme de la bourse aux États-Unis. L’opération avait reçu le feu vert de la FTC, en charge de la concurrence, le 18 décembre.

D’après ces documents, la transaction prend la forme d’un « placement privé », qui s’est donc conclu hors marché. L’engagement de NVIDIA portait sur un prix unitaire de 23,28 dollars par action, soit un montant légèrement supérieur à celui négocié par l’administration Trump pour formaliser son entrée au capital de la firme de Santa-Clara.

Le lien qui unit désormais les deux entreprises ne se limite pas à cette participation capitalistique. L’accord annoncé en septembre prévoit en effet que les deux groupes fassent converger certains de leurs produits et technologies, aussi bien sur le marché grand public que dans le monde du datacenter. Il est notamment question de CPU Intel intégrant une partie graphique fournie par NVIDIA, ou de la compatibilité à venir des puces Intel avec la technologie d’interconnexion NVLink.

Lip Bu Tan et Jensen Huang ont immortalisé la signature de leur accord le 18 septembre 2025 – capture d’écran

50 ans plus tard, Unix v4 ressuscité grâce à une bande magnétique

30 décembre 2025 à 09:06
Noël après l’heure pour les rétrogeeks !
50 ans plus tard, Unix v4 ressuscité grâce à une bande magnétique

C’est un fragment d’histoire des systèmes d’exploitation qui a été retrouvé et restauré : une bande magnétique contenant la version 4 d’Unix. Une bande retrouvée par hasard, dans un placard, désormais accessible à tous en ligne.

Linux, un système d’exploitation open source de type Unix, a fêté cette année ses 34 ans. Mais attendez, c’est quoi Unix ? C’est aussi un système d’exploitation développé dans les années 1970. Linux n’est pas le seul système de type Unix (c’est-à-dire qui se comporte comme un Unix), nous pouvons aussi citer les différentes déclinaisons de BSD et Solaris.

Attention à ne pas confondre Linux, Unix et GNU. Nous n’allons pas ici remettre une pièce dans le débat, mais sachez simplement que les noms GNU/Linux (souvent raccourcis en Linux) sont des acronymes récursifs pour bien marquer la différence avec Unix justement : GNU pour GNU is Not Unix et Linux pour Linux Is Not UniX.

50 ans plus tard, Unix fait encore parler de lui

Unix est bien plus vieux que Linux puisqu’il remonte aux débuts des années 70 ; le système a donc déjà plus de 50 ans. Il a initialement été développé dans les laboratoires de Bell Labs, notamment par Ken Thompson et Dennis Ritchie (décédé en 2011). Unix tournait sur des machines PDP-11 (Programmable Data Processor) de chez DEC (Digital Equipment Corporation).

Il y a quelques semaines, une actualité a peut-être fait vibrer la corde nostalgique des moins jeunes d’entre nous : « Lors du nettoyage d’un entrepôt, notre équipe a découvert cette bande magnétique contenant #UNIX v4 des laboratoires Bell, datant d’environ 1973. Il semblerait qu’aucune autre copie n’existe ». Ce message a été publié sur Mastodon par Rob Ricci, professeur à la Kahlert School of Computing de l’Université de l’Utah. Il ajoutait « avoir pris des dispositions pour la livrer au Computer History Museum ».

Post by @ricci@discuss.systems
View on Mastodon

Il y a quelques jours, Rob Ricci revenait à la charge avec une autre bonne nouvelle : « la tentative de lecture de la bande UNIX V4 est en cours ! », rapidement suivi d’un « apparemment, la lecture complète de la bande UNIX v4 s’est déroulée avec succès. La prochaine étape consiste à décoder le signal, à déchiffrer les formats de fichiers, etc. ».

Le binaire de la bande a été publié dans la foulée sur Internet Archive, avec des détails sur le lecteur de bandes utilisé. « La bande a été découverte le 28 juillet 2025 par Aleks Maricq à l’université de l’Utah, dans le placard de rangement du groupe de recherche Flux », précise Internet Archive. Sur la bande, il est écrit à la main « UNIX Original from Bell Labs V4 », tandis que la bande porte la référence « Scotch BRAND 700 GP 3200 FCI ».

Le code est désormais disponible par ici par exemple (il ne pèse que 40 Mo, bien plus digeste que les 1 600 Mo des données brutes lues depuis la bande). Le code semble avoir 55 000 lignes de code, dont 24 000 en C et 30 000 en assembleur.

Une vidéo de la lecture de la bande a été mise en ligne.

La communauté s’est rapidement organisée autour de cette découverte. Unix V4 est en effet un peu particulier. À ses débuts, les premières versions d’Unix étaient en assembleur (un langage encore utilisé, avec lequel on peut créer un OS inutile avec moins de 10 lignes de code), mais cette quatrième version a été réécrite presque entièrement en langage C, qui a lui aussi été inventé au début des années 70.

Bien sûr, un émulateur en ligne est aussi disponible pour ceux qui voudraient tester en direct depuis leur navigateur Unix v4. Cette histoire est aussi une petite victoire pour la longévité du stockage sur bande magnétique puisque la lecture des données n’a visiblement pas posé grand problème.

☕️ La boutique de jeux GOG devient indépendante de CD Projekt

30 décembre 2025 à 08:58

Good Old Games (GOG) a été fondée en 2008 par le studio polonais CD Projekt, à qui l’on doit plusieurs jeux vidéo particulièrement célèbres comme la série The Witcher ou encore Cyberpunk 2077.

La boutique s’est largement fait un nom autour d’une idée simple : ramener d’anciens titres à la vie, faire en sorte qu’ils fonctionnent sur des systèmes récents, corriger les bugs et les maintenir à jour. L’autre grand axe de développement est l’absence de DRM (gestion des droits numériques) sur une grande partie du catalogue, pour éviter notamment les incompatibilités. Elle s’est ouverte depuis à de plus grosses licences et propose un launcher, Galaxy.

GOG était jusqu’à présent une filiale de CD Projekt. Depuis cette nuit, Michał Kiciński est le nouveau propriétaire de la boutique. Cette passation reste « en famille » : Michał Kiciński est cofondateur de CD Projekt et l’un de ses principaux actionnaires.

« Avec notre attention désormais entièrement portée sur une feuille de route de développement ambitieuse et l’expansion de nos franchises avec de nouveaux produits de haute qualité, nous avons estimé que c’était le bon moment pour cette décision. Depuis longtemps maintenant, GOG opère de manière indépendante. Aujourd’hui, il passe entre de très bonnes mains – nous sommes convaincus qu’avec le soutien de Michał Kiciński, l’un des cofondateurs de GOG, son avenir sera riche de grands projets et de succès », a déclaré Michał Nowakowski, co-CEO de CD Projekt.

Maciej Gołębiewski, directeur général de GOG, affirme que la mission de GOG ne changera pas : « Dans un marché de plus en plus saturé, de plus en plus verrouillé, et qui oublie les jeux classiques à un rythme croissant, nous redoublons d’efforts sur ce que seul GOG fait : ressusciter les classiques, les garder jouables sur les PC modernes, et aider les grands jeux à trouver leur public au fil du temps ».

Ce rachat de la totalité des actions a une valeur de 90,7 millions de zlotys, soit environ 21,45 millions d’euros. Le communiqué affirme également que les prochaines sorties de CD Projekt continueront d’arriver sur GOG.

Plus de 20 % des contenus recommandés par YouTube sont générés par IA

29 décembre 2025 à 17:11
La merdification plaît, et paie
Plus de 20 % des contenus recommandés par YouTube sont générés par IA

Les contenus générés par des intelligences artificielles sans réel contrôle continuent d’inonder Internet. Ce phénomène n’épargne évidemment pas les réseaux sociaux et plateformes de streaming. Une étude révèle l’étendue des dégâts sur YouTube.

Plus de 20 % des vidéos recommandées par l’algorithme de YouTube aux nouveaux utilisateurs sont des « AI slop » (ou bouillie d’IA en français), du nom donné à ces contenus bas de gamme générés par intelligence artificielle et conçus pour cumuler les vues afin de les monétiser par la publicité, rapporte The Guardian..

AI Slop sur YouTube : des millions d’abonnés, des milliards de vues

La société de montage vidéo Kapwing a en effet analysé 15 000 chaînes YouTube (les 100 plus populaires de chaque pays), et constaté que 278 ne contenaient que de l’AI slop. Elles avaient accumulé plus de 63 milliards de vues, et combinaient 221 millions d’abonnés, pour des revenus cumulés estimés à 117 millions de dollars par an.

Les chiffres varient en fonction des pays. Plus de 20 millions de personnes sont abonnées aux 8 chaînes d’AI slop espagnoles, 18 millions aux 14 chaînes égyptiennes, et 14,5 millions aux neuf chaînes états-uniennes. Kapwing ne précise pas combien de chaînes françaises figurent dans le Top100 de YouTube, mais indique que la France arrive en 16ᵉ position (sur 20) avec 4 millions d’abonnés.

La France ne figure pas, par contre, dans le classement des pays enregistrant le plus grand nombre de vues, dominé par la Corée du Sud (8,45 milliards de vues, dont plus de 2 milliards par une seule chaîne, lui permettant de générer 4 millions de dollars de revenus par an), suivie par le Pakistan (5,3) et les États-Unis (3,4), l’Espagne y figurant en cinquième position avec 2,5 milliards de vues.

Classements des chaînes YouTube d’AI slop cumulant le plus de vues et de revenus

Kapwing a également créé un nouveau compte YouTube, et constaté que 104 (21 %) des 500 premières vidéos recommandées dans son flux étaient des contenus AI slop. 165 (33 %) des 500 vidéos relevaient de la catégorie « brainrot » (littéralement « pourriture du cerveau » ou « pourriture cérébrale »), qui comprend les contenus AI slop et autres contenus de mauvaise qualité créés dans le but de monétiser l’attention.

Gagner de l’argent avec les pubs et les formations AI slop

« Il y a toute une foule de gens sur Telegram, WhatsApp, Discord et les forums qui échangent des conseils, des idées [et] vendent des cours sur la manière de créer du contenu suffisamment attrayant pour gagner de l’argent », explique au Guardian Max Read, un journaliste qui a beaucoup écrit sur le contenu généré par l’IA.

Nombre d’entre eux viennent de pays anglophones bénéficiant d’une connexion Internet relativement bonne, et où le salaire médian est inférieur à ce qu’ils peuvent gagner sur YouTube précise-t-il : « Il s’agit principalement de pays à revenu intermédiaire comme l’Ukraine, mais aussi de nombreux habitants de l’Inde, du Kenya, du Nigeria et d’un nombre important de Brésiliens ».

À l’instar de ce qui se passe avec les influenceurs et créateurs de contenus, si certains gagnent effectivement leur vie grâce à leurs chaines YouTube, Instagram, Snapchat, TikTok ou Facebook, une bonne partie en vivent en vendant des formations surfant sur la tendance, sans forcément vivre eux-mêmes de leurs propres chaînes.

« L’IA générative est un outil, et comme tout outil, elle peut être utilisée pour créer du contenu de haute ou de basse qualité », rétorque un porte-parole de YouTube au Guardian :

« Nous continuons à nous concentrer sur la mise en relation de nos utilisateurs avec du contenu de haute qualité, quelle que soit la manière dont il a été créé. Tout contenu téléchargé sur YouTube doit respecter nos règles communautaires, et si nous constatons qu’un contenu enfreint une politique, nous le supprimons. »

Voir aussi cet épisode du Dessous des images d’Arte consacré à l’AI slop et mis en ligne ce 28 décembre :

❌