↩ Accueil

Vue lecture

IPv6 fête ses 30 ans… mais il reste encore du chemin à parcourir

Bon anniversaire (et bonne année) !
IPv6 fête ses 30 ans… mais il reste encore du chemin à parcourir

30 ans, une éternité pour Internet et le numérique… et pourtant, le protocole IPv6 est loin d’avoir remplacé IPv4 qui est malgré tout à bout de souffle (à cause de la pénurie d’adresses). Si les internautes français sont plutôt bien lotis, ce n’est pas le cas partout dans le monde.

En décembre 1995, l’Internet Engineering Task Force publie la RFC 1883 intitulée « Internet Protocol, Version 6 (IPv6) Specification ». Elle fixait au passage le nom de ce qui était parfois appelé IP Next Generation ou IPng. Les spécifications d’IPv6 ont été finalisées quelques années plus tard, en décembre 1998 avec RFC 2460.

En guise d’introduction, il était précisé que l’« IP version 6 (IPv6) est une nouvelle version du protocole Internet, conçue pour succéder à IP version 4 (IPv4) », dont la RFC 791 datait de septembre 1981. La principale nouveauté était le passage des adresses de 32 à 128 bits. D’autres changements étaient aussi de la partie, comme une simplification du format d’en-tête. IPv6 intègre aussi « des fonctionnalités permettant de renforcer la sécurité par défaut et d’optimiser le routage », explique l’Arcep (le gendarme des télécoms en France).

667 millions d’adresses IPv6… par mm² !

La différence est très importante puisqu’on passe de 4,3 x 10⁹ (soit 4,3 milliards) à 3,4 x 10³⁸ adresses possibles, soit une quasi-infinité à l’échelle de la Terre, puisque cela correspond à environ 667 millions d’adresses IPv6 pour chaque millimètre carré de surface terrestre.

4,3 milliards d’adresses peuvent sembler beaucoup, mais ce n’est pas le cas. Le RIPE NCC (Network Coordination Centre, en charge de l’Europe, du Moyen-Orient et de certaines régions d’Asie centrale) est « à court d’adresses IPv4 » depuis fin 2019. Les alertes avaient été lancées des années auparavant et la solution existait déjà depuis longtemps avec IPv6. Mais la transition est longue, très longue… elle n’est toujours pas terminée en 2026.

Cette même année, l’Arcep a décidé « d’initier la création d’une Task-Force IPv6, co-pilotée avec Internet Society France ». Son but est de « favoriser l’accélération de la transition vers IPv6 en permettant aux participants d’aborder des problèmes spécifiques et de partager les bonnes pratiques ».

La France en tête du taux d’utilisation d’IPv6 !

L’Arcep tient à jour une carte du taux d’utilisation d’IPv6, qui correspond au « pourcentage d’utilisateurs raccordés en IPv6 par leur fournisseur d’accès à internet ». Selon le dernier décompte de décembre 2025, la France est… en première position avec 75,1 %, devant l’Inde à 73,1 % et la Malaisie à 67 %.

Les États-Unis sont 11ᵉ avec 56,4 %. Les pays africains sont dans le bas du classement avec 27 % au maximum pour la République du Congo, contre 0,2 % seulement en Algérie.

En Afrique d’ailleurs, la situation était compliquée en 2025 avec des doutes sur des élections à l’AfriNIC et une question d’influence de brokers d’IP, le tout sur fond de bataille juridique et de pénurie d’IPv4. Il faut dire que l’« AfriNIC est le dernier registre internet régional à avoir des blocs d’adresses IPv4 à distribuer », nous expliquait Pierre Bonis, le directeur général de l’Afnic qui gère les noms de domaine en France. Cela attise donc les convoitises.

Risque de scission d’Internet : IPv4 et IPv6 « ne sont pas compatibles »

En France, l’Arcep publie chaque année un baromètre de la transition vers IPv6. Le dernier date de juillet 2025. Le régulateur y rappelait que IPv4 et IPv6 « ne sont pas compatibles », ce qui implique un risque de scission d’Internet. En effet, un service ou un site en IPv6 seulement (c’est-à-dire sans adresse IPv4) n’est pas accessible aux utilisateurs qui n’ont qu’une adresse IPv4, et vice-versa.

IPv6 : la France passe en tête au niveau mondial, mais la route est encore longue

Ce n’est pas qu’une chimère, comme l’expliquait l’Arcep : « Bien que ce ne soit pas encore le cas en France, en Inde, des sites web indiens importants ne sont actuellement plus accessibles qu’en IPv6 et la Chine a planifié l’arrêt complet d’IPv4 en 2030 ».

En République tchèque, le gouvernement a annoncé la fin des services officiels accessibles en IPv4 à partir du 6 juin 2032. Un compte à rebours est lancé. Il reste 2346 jours.

Cinq grandes étapes, la première d’ici 2 à 3 ans ?

L’Arcep prévoit cinq grandes étapes de la transition mondiale vers IPv6 :

  • IPv6 est activé par défaut sur la quasi-totalité des offres grand public
  • IPv6 est activé par défaut sur la quasi-totalité des offres grand public, pro et entreprises
  • Une part non négligeable des sites web sont hébergés en IPv6 uniquement
  • Une part non négligeable des FAI ne proposent plus d’IPv4
  • La majorité des sites abandonnent IPv4

La première étape « devrait être atteinte au cours des trois prochaines années ». En France, Bouygues Telecom, Orange et Free sont à plus de 90 % de clients activés en IPv6 sur le grand public. Sur le pro, Orange était à la traine au dernier décompte avec 57 % fin 2024. Restait SFR à 54 % sur le grand public et 10 % sur le pro, mais la marque au carré rouge prévoyait de dépasser les 90 % de clients activés fin 2026.

Sur le mobile, Free était pendant longtemps le vilain petit canard, mais le fournisseur d’accès à Internet a enfin activé ses clients en mars 2025.

Si vous vous demandez comment fonctionne Internet, nous avons pour rappel publié un long dossier sur le sujet :

  •  

IPv6 fête ses 30 ans… mais il reste encore du chemin à parcourir

Bon anniversaire (et bonne année) !
IPv6 fête ses 30 ans… mais il reste encore du chemin à parcourir

30 ans, une éternité pour Internet et le numérique… et pourtant, le protocole IPv6 est loin d’avoir remplacé IPv4 qui est malgré tout à bout de souffle (à cause de la pénurie d’adresses). Si les internautes français sont plutôt bien lotis, ce n’est pas le cas partout dans le monde.

En décembre 1995, l’Internet Engineering Task Force publie la RFC 1883 intitulée « Internet Protocol, Version 6 (IPv6) Specification ». Elle fixait au passage le nom de ce qui était parfois appelé IP Next Generation ou IPng. Les spécifications d’IPv6 ont été finalisées quelques années plus tard, en décembre 1998 avec RFC 2460.

En guise d’introduction, il était précisé que l’« IP version 6 (IPv6) est une nouvelle version du protocole Internet, conçue pour succéder à IP version 4 (IPv4) », dont la RFC 791 datait de septembre 1981. La principale nouveauté était le passage des adresses de 32 à 128 bits. D’autres changements étaient aussi de la partie, comme une simplification du format d’en-tête. IPv6 intègre aussi « des fonctionnalités permettant de renforcer la sécurité par défaut et d’optimiser le routage », explique l’Arcep (le gendarme des télécoms en France).

667 millions d’adresses IPv6… par mm² !

La différence est très importante puisqu’on passe de 4,3 x 10⁹ (soit 4,3 milliards) à 3,4 x 10³⁸ adresses possibles, soit une quasi-infinité à l’échelle de la Terre, puisque cela correspond à environ 667 millions d’adresses IPv6 pour chaque millimètre carré de surface terrestre.

4,3 milliards d’adresses peuvent sembler beaucoup, mais ce n’est pas le cas. Le RIPE NCC (Network Coordination Centre, en charge de l’Europe, du Moyen-Orient et de certaines régions d’Asie centrale) est « à court d’adresses IPv4 » depuis fin 2019. Les alertes avaient été lancées des années auparavant et la solution existait déjà depuis longtemps avec IPv6. Mais la transition est longue, très longue… elle n’est toujours pas terminée en 2026.

Cette même année, l’Arcep a décidé « d’initier la création d’une Task-Force IPv6, co-pilotée avec Internet Society France ». Son but est de « favoriser l’accélération de la transition vers IPv6 en permettant aux participants d’aborder des problèmes spécifiques et de partager les bonnes pratiques ».

La France en tête du taux d’utilisation d’IPv6 !

L’Arcep tient à jour une carte du taux d’utilisation d’IPv6, qui correspond au « pourcentage d’utilisateurs raccordés en IPv6 par leur fournisseur d’accès à internet ». Selon le dernier décompte de décembre 2025, la France est… en première position avec 75,1 %, devant l’Inde à 73,1 % et la Malaisie à 67 %.

Les États-Unis sont 11ᵉ avec 56,4 %. Les pays africains sont dans le bas du classement avec 27 % au maximum pour la République du Congo, contre 0,2 % seulement en Algérie.

En Afrique d’ailleurs, la situation était compliquée en 2025 avec des doutes sur des élections à l’AfriNIC et une question d’influence de brokers d’IP, le tout sur fond de bataille juridique et de pénurie d’IPv4. Il faut dire que l’« AfriNIC est le dernier registre internet régional à avoir des blocs d’adresses IPv4 à distribuer », nous expliquait Pierre Bonis, le directeur général de l’Afnic qui gère les noms de domaine en France. Cela attise donc les convoitises.

Risque de scission d’Internet : IPv4 et IPv6 « ne sont pas compatibles »

En France, l’Arcep publie chaque année un baromètre de la transition vers IPv6. Le dernier date de juillet 2025. Le régulateur y rappelait que IPv4 et IPv6 « ne sont pas compatibles », ce qui implique un risque de scission d’Internet. En effet, un service ou un site en IPv6 seulement (c’est-à-dire sans adresse IPv4) n’est pas accessible aux utilisateurs qui n’ont qu’une adresse IPv4, et vice-versa.

IPv6 : la France passe en tête au niveau mondial, mais la route est encore longue

Ce n’est pas qu’une chimère, comme l’expliquait l’Arcep : « Bien que ce ne soit pas encore le cas en France, en Inde, des sites web indiens importants ne sont actuellement plus accessibles qu’en IPv6 et la Chine a planifié l’arrêt complet d’IPv4 en 2030 ».

En République tchèque, le gouvernement a annoncé la fin des services officiels accessibles en IPv4 à partir du 6 juin 2032. Un compte à rebours est lancé. Il reste 2346 jours.

Cinq grandes étapes, la première d’ici 2 à 3 ans ?

L’Arcep prévoit cinq grandes étapes de la transition mondiale vers IPv6 :

  • IPv6 est activé par défaut sur la quasi-totalité des offres grand public
  • IPv6 est activé par défaut sur la quasi-totalité des offres grand public, pro et entreprises
  • Une part non négligeable des sites web sont hébergés en IPv6 uniquement
  • Une part non négligeable des FAI ne proposent plus d’IPv4
  • La majorité des sites abandonnent IPv4

La première étape « devrait être atteinte au cours des trois prochaines années ». En France, Bouygues Telecom, Orange et Free sont à plus de 90 % de clients activés en IPv6 sur le grand public. Sur le pro, Orange était à la traine au dernier décompte avec 57 % fin 2024. Restait SFR à 54 % sur le grand public et 10 % sur le pro, mais la marque au carré rouge prévoyait de dépasser les 90 % de clients activés fin 2026.

Sur le mobile, Free était pendant longtemps le vilain petit canard, mais le fournisseur d’accès à Internet a enfin activé ses clients en mars 2025.

Si vous vous demandez comment fonctionne Internet, nous avons pour rappel publié un long dossier sur le sujet :

  •  

☕️ Sur Steam, Linux stagne à 3,19 % de parts de marché

En octobre, Linux dépassait pour la première fois les 3 % de parts de marché sur Steam (+ 0,37 point en un mois), la plateforme de jeux vidéo de Valve. Rappelons que, dans le même temps, Microsoft arrêtait le support de Windows 10, sauf en Europe avec un an supplémentaire.

En novembre, le système d’exploitation confirmait sa croissance avec 3,2 % de parts de marché. C’était donc une progression de 0,2 point, mais le score restait toujours sans commune mesure avec Windows, présent sur près de 94,79 % des machines des joueurs.

Les chiffres de décembre viennent de tomber et… Linux stagne avec 3,19 % de parts de marché, soit même une petite baisse de 0,01 point en un mois. Windows de son côté grimpe à 94,95 % (73 % pour Windows 11, 27 % pour Windows 10), les 1,86 % restant étant attribués à macOS.

SteamOS reste le système Linux le plus utilisé avec 20,4 % de part de marché, mais chute considérablement par rapport au mois de novembre avec 6 points de moins. Arch Linux est toujours en deuxième place avec 12,24 % et conforte sa position avec 2,27 points de plus en décembre. Il est suivi par CachyOS à 8,45 % au coude à coude avec Linux Mint 22.2 à 8,43 %.

Concernant les seules machines sous Linux, on retrouve un CPU AMD dans 72 % des cas, en hausse de plus de 5 points sur un mois. Par contre, sur l’intégralité des machines utilisant Steam, la part de marché d’AMD n’est que de 47,3 % (+ 4,7 points en un mois,+ 7 points depuis août).

  •  

☕️ Sur Steam, Linux stagne à 3,19 % de parts de marché

En octobre, Linux dépassait pour la première fois les 3 % de parts de marché sur Steam (+ 0,37 point en un mois), la plateforme de jeux vidéo de Valve. Rappelons que, dans le même temps, Microsoft arrêtait le support de Windows 10, sauf en Europe avec un an supplémentaire.

En novembre, le système d’exploitation confirmait sa croissance avec 3,2 % de parts de marché. C’était donc une progression de 0,2 point, mais le score restait toujours sans commune mesure avec Windows, présent sur près de 94,79 % des machines des joueurs.

Les chiffres de décembre viennent de tomber et… Linux stagne avec 3,19 % de parts de marché, soit même une petite baisse de 0,01 point en un mois. Windows de son côté grimpe à 94,95 % (73 % pour Windows 11, 27 % pour Windows 10), les 1,86 % restant étant attribués à macOS.

SteamOS reste le système Linux le plus utilisé avec 20,4 % de part de marché, mais chute considérablement par rapport au mois de décembre avec 6 points de moins. Arch Linux est toujours en deuxième place avec 12,24 % et conforte sa position avec 2,27 points de plus en décembre. Il est suivi par CachyOS à 8,45 % au coude à coude avec Linux Mint 22.2 à 8,43 %.

Concernant les seules machines sous Linux, on retrouve un CPU AMD dans 72 % des cas, en hausse de plus de 5 points sur un mois. Par contre, sur l’intégralité des machines utilisant Steam, la part de marché d’AMD n’est que de 47,3 % (+ 4,7 points en un mois,+ 7 points depuis août).

  •  

☕️ TSMC lance la production de masse en 2 nm et accélère sur le 1,4 nm

Sur cette page dédiée aux différentes technologies de gravure de puces, TSMC indique désormais que la production en 2 nm « a commencé au quatrième trimestre 2025 comme prévu ». Il y a encore quelques jours, il était simplement précisé que cette technologie était « sur la bonne voie ».

Le fabricant taïwanais explique que sa gravure N2 (ou 2 nm) exploite la technologie des « transistors nanofeuilles de première génération, avec des progrès en termes de performance et de consommation d’énergie ». Selon l’entreprise, sa « technologie N2 est la plus avancée de l’industrie des semi-conducteurs, tant en termes de densité qu’en efficacité énergétique ».

TSMC propose une chronologie de ses différentes technologies. Avant le 2 nm, il y a eu le 3 nm en 2022, le 5 nm en 2020, le 7 nm en 2018, etc. L’entreprise parle aussi de l’avenir avec A16 pour cette année et A14 pour 2028. Comme chez Intel, le « A » signifie angström, une unité de mesure qui vaut 0,1 nanomètre.

« Comparé au procédé N2P de TSMC, la technologie A16 offre un gain de vitesse de 8 à 10 % avec la même tension Vdd, une réduction de la consommation d’énergie de 15 à 20 % à vitesse égale et une densité de puces jusqu’à 1,10 fois supérieure ».

Avec le passage à la technologie A14, TSMC prévoit « jusqu’à 15 % d’amélioration de la vitesse à consommation égale ou jusqu’à 30 % de consommation en moins à vitesse égale, ainsi qu’une hausse de plus de 20 % de la densité ».

Selon Wccftech (qui se base sur le média chinois Economic Daily News), TSMC « serait également en train d’accélérer la construction de son usine de 1,4 nm, ayant apparemment obtenu de meilleurs rendements grâce à sa lithographie de nouvelle génération ». L’entreprise pourrait se lancer plus tôt que prévu, dès 2027.

Rappelons enfin que parler de nm pour la finesse de gravure ne correspond pas à une réalité physique, mais marketing. Nous en parlions dans un #Nextquick récemment. La finesse de gravure est « devenue un argument marketing sans lien avec la taille réelle des éléments ou la densité de transistors ».

  •  

☕️ TSMC lance la production de masse en 2 nm et accélère sur le 1,4 nm

Sur cette page dédiée aux différentes technologies de gravure de puces, TSMC indique désormais que la production en 2 nm « a commencé au quatrième trimestre 2025 comme prévu ». Il y a encore quelques jours, il était simplement précisé que cette technologie était « sur la bonne voie ».

Le fabricant taïwanais explique que sa gravure N2 (ou 2 nm) exploite la technologie des « transistors nanofeuilles de première génération, avec des progrès en termes de performance et de consommation d’énergie ». Selon l’entreprise, sa « technologie N2 est la plus avancée de l’industrie des semi-conducteurs, tant en termes de densité qu’en efficacité énergétique ».

TSMC propose une chronologie de ses différentes technologies. Avant le 2 nm, il y a eu le 3 nm en 2022, le 5 nm en 2020, le 7 nm en 2018, etc. L’entreprise parle aussi de l’avenir avec A16 pour cette année et A14 pour 2028. Comme chez Intel, le « A » signifie angström, une unité de mesure qui vaut 0,1 nanomètre.

« Comparé au procédé N2P de TSMC, la technologie A16 offre un gain de vitesse de 8 à 10 % avec la même tension Vdd, une réduction de la consommation d’énergie de 15 à 20 % à vitesse égale et une densité de puces jusqu’à 1,10 fois supérieure ».

Avec le passage à la technologie A14, TSMC prévoit « jusqu’à 15 % d’amélioration de la vitesse à consommation égale ou jusqu’à 30 % de consommation en moins à vitesse égale, ainsi qu’une hausse de plus de 20 % de la densité ».

Selon Wccftech (qui se base sur le média chinois Economic Daily News), TSMC « serait également en train d’accélérer la construction de son usine de 1,4 nm, ayant apparemment obtenu de meilleurs rendements grâce à sa lithographie de nouvelle génération ». L’entreprise pourrait se lancer plus tôt que prévu, dès 2027.

Rappelons enfin que parler de nm pour la finesse de gravure ne correspond pas à une réalité physique, mais marketing. Nous en parlions dans un #Nextquick récemment. La finesse de gravure est « devenue un argument marketing sans lien avec la taille réelle des éléments ou la densité de transistors ».

  •  

Lecteurs de Next, qui êtes-vous ?

Vous êtes les meilleurs, assurément !
Lecteurs de Next, qui êtes-vous ?

Quel est le profil typique d’un lecteur de Next ? Il passe la moitié de son temps sur fixe et l’autre sur mobile, principalement en Île-de-France. Mais, pour le reste, à quoi ressemble son navigateur, son thème, ses heures de visite ?

Sur Next, nous utilisons Matomo pour récupérer quelques statistiques sur vous, nos lecteurs et abonnés. En cette fin d’année, nous les partageons avec vous. L’ensemble des données qui suivent se basent sur l’année 2025. Nous gardons pour nous les données chiffrées précises sur les visiteurs et le nombre de pages vues, ainsi que sur le nombre d’abonnés (inutile donc de les demander).

Commençons par enfoncer des portes ouvertes : vous venez en très grande majorité d’Europe, de France et près d’un lecteur sur deux est de la région parisienne. Par contre, ce sont ceux de Provence-Alpes-Côte-d’Azur et de Normandie qui prennent le plus de temps puisque la durée moyenne des visites durent 50 % plus longtemps que celle des Parisiens.

Les deux cartes ci-dessous représentent la provenance des visiteurs (à gauche) et les durées de visites (à droite) :

Côté matériel, vous êtes autant fixe que mobile

Nous sommes quasiment à une parité parfaite entre ceux qui viennent depuis un ordinateur et ceux depuis un terminal mobile (smartphone ou tablette). Vous êtes quand même quelques milliers à venir depuis une télévision, quelques centaines depuis une console et même une petite dizaine depuis une enceinte/écran connectée (Alexa, Google Home…).

Lorsque la marque de l’appareil est connue (50 % des cas environ), le trio de tête est composé d’Apple (2/3 sur iPhone, 1/3 sur Mac), de Samsung et de Xiaomi. On retrouve ensuite Google et on descend rapidement dans le classement avec Huawei, OnePlus, OPPO, Motorola, Fairphone… Nous avons presque un millier de lecteurs sur des produits Microsoft (certainement des Surface), mais aussi quelques-uns sur Palm et Polaroid.

La résolution d’écran la plus utilisée est sans surprise 1 920 x 1 080 pixels (quasiment un visiteur sur cinq). On descend ensuite rapidement à moins de 10 % avec 2 560 x 1 440 pixels, puis les autres définitions sont toutes à moins de 5 %.

Team Windows, Linux ou MacOS ?

Qu’en est-il de la partie logicielle maintenant ? Sur l’année 2025, vous étiez 22 % sous Windows 10 et 12 % sous Windows 11 (oui, quasiment deux fois plus sous Windows 10). En l’espace d’un an, la part de Windows 10 a perdu plus de cinq points. Linux est un peu en dessous de 10 %, devant MacOS à 7 % environ. Attention, plus de 45 % des visites sont classées dans « autres ».

Sur l’ensemble des visiteurs dont le système est identifié, Windows (toutes versions confondues) représente 34 %, juste derrière Android à 37 %, contre 12 % pour iOS. Les machines sous Linux sont à 10 %, en petite hausse d’un point sur un an.

Nous avons également quelques irréductibles à qui nous souhaitons bon courage (et bonne mise à jour au plus vite pour certains) : ceux sous Android 2.0, Windows 2000, NT, 7, 8 et RT, MacOS 5, iOS 5.1, PlayStation Portable Vita, PlayStation 3.4, Fedora et Debian 6.5, GNU/Linux 3.13… Nous avons aussi des lecteurs sur des OS un peu plus exotiques comme SerenityOS, Haiku OS, Ordissimo OS, NetBSD…

Chrome ou Firefox ?

Passons du côté des navigateurs, avec Chrome qui arrive en tête avec environ 40 % (24 % sur le fixe et 16 % sur le mobile). Firefox est en bonne position avec 33 % (25 % sur le fixe et 8 % sur le mobile) et Safari troisième avec 8 %. On retrouve ensuite Edge, Brave, Opera, DuckDuckGo Privacy Browser, Vivaldi, Ecosia…

Dans le bas du classement, on découvre des navigateurs : Seznam Browser, SberBrowser, QupZilla (Falkon), Obigo, Cyberfox, Midori, kingpinbrowser, Iron Mobile, Wolvic, TenFourFox, Puffin, Basilisk, NetFront, etc.

Le moteur de rendu Blink (Chromium) est présent dans plus d’un navigateur sur deux, tandis que Gecko (Mozilla) est présent dans 32 % des cas. Safari est aux alentours de 13 %.

Vous surfez du côté de la lumière ou de l’obscurité ?

Puisque nous sommes sur des questions de rendu graphique, c’est le bon moment pour faire un point sur les thèmes de Next. Mettons fin à l’insoutenable suspense : qui est le meilleur entre Dracula et Giga Noir ? C’est Giga Noir, mais avec une courte avance. Comparer avec Biafine n’aurait aucun sens puisque c’est le thème par défaut.

Ce qu’on peut toutefois noter, c’est que passer à un thème sombre est un chemin avec assez peu de retour en arrière. Sur l’ensemble des lecteurs qui ont testé Dracula ou Giga Noir, seuls 18 % ont repris le chemin de la lumière.

Quand venez-vous sur Next ?

Les lecteurs de Next ne sont pas très matinaux (ce qui ne les empêche pas de répondre présents dans les commentaires à toutes heures du jour et de la nuit). L’audience est plus importante en semaine que le week-end, avec une journée un peu supérieure aux autres : le mardi.

La courbe des visites suivant l’heure de la journée monte fortement à partir de 7/8 h, redescend légèrement à midi, puis descend progressivement en fin de journée, à partir de 19 h. Pas de doute, une bonne partie d’entre vous nous consulte depuis leur travail.

Comment arrivez-vous sur Next ?

Une statistique fait de Next un ovni dans le paysage médiatique : plus de 50 % des lecteurs arrivent directement sur Next. Les moteurs de recherche comptent pour 40 %, les réseaux sociaux et les sites externes se partagent le reste.

Sur la partie réseaux sociaux, le premier pourvoyeur est Reddit, suivi par LinkedIn, Twitter, Bluesky et Facebook. Attention néanmoins à prendre ces chiffres avec des pincettes car une partie importante de la provenance du trafic (et c’est en croissance) est masquée.

Next ne réalise pas de campagne promotionnelle sur les réseaux (voire c’est pire puisque nos contenus n’étaient même plus partagés automatiquement pendant un temps). À l’opposé, nos principaux liens sortants vont vers Wikipédia, YouTube et GitHub.

Un mot sur les recherches internes : cryptographie arrive en tête, flock en seconde position et linux en troisième. Cela correspond finalement assez bien à Next il faut bien l’avouer 😉

Et le reste ? La publicité ? Le tracking ?

Mais ? Pas de statistiques sur les cookies, le tracking, les publicités ? Non, tout simplement car Next ne suit pas à la culotte ses lecteurs, qu’ils soient abonnés ou non, et n’affiche aucune publicité d’aucune forme (y compris affiliation ou sponsorisation), que vous soyez abonnés ou non.

L’abonnement est pour rappel notre unique source de revenus. Il vous permet de lire l’intégralité de nos contenus et les commenter pour échanger avec la communauté.

Depuis peu, l’abonnement Next vous permet aussi de sauvegarder vos données, en France, sur des serveurs gérés en interne par moji. La bêta est pour le moment fermée, mais elle va rouvrir au début de l’année ! On vous propose même un tuto pour sauvegarder vos données (ici ou ailleurs).

  •  

Lecteurs de Next, qui êtes-vous ?

Vous êtes les meilleurs, assurément !
Lecteurs de Next, qui êtes-vous ?

Quel est le profil typique d’un lecteur de Next ? Il passe la moitié de son temps sur fixe et l’autre sur mobile, principalement en Île-de-France. Mais, pour le reste, à quoi ressemble son navigateur, son thème, ses heures de visite ?

Sur Next, nous utilisons Matomo pour récupérer quelques statistiques sur vous, nos lecteurs et abonnés. En cette fin d’année, nous les partageons avec vous. L’ensemble des données qui suivent se basent sur l’année 2025. Nous gardons pour nous les données chiffrées précises sur les visiteurs et le nombre de pages vues, ainsi que sur le nombre d’abonnés (inutile donc de les demander).

Commençons par enfoncer des portes ouvertes : vous venez en très grande majorité d’Europe, de France et près d’un lecteur sur deux est de la région parisienne. Par contre, ce sont ceux de Provence-Alpes-Côte-d’Azur et de Normandie qui prennent le plus de temps puisque la durée moyenne des visites durent 50 % plus longtemps que celle des Parisiens.

Les deux cartes ci-dessous représentent la provenance des visiteurs (à gauche) et les durées de visites (à droite) :

Côté matériel, vous êtes autant fixe que mobile

Nous sommes quasiment à une parité parfaite entre ceux qui viennent depuis un ordinateur et ceux depuis un terminal mobile (smartphone ou tablette). Vous êtes quand même quelques milliers à venir depuis une télévision, quelques centaines depuis une console et même une petite dizaine depuis une enceinte/écran connectée (Alexa, Google Home…).

Lorsque la marque de l’appareil est connue (50 % des cas environ), le trio de tête est composé d’Apple (2/3 sur iPhone, 1/3 sur Mac), de Samsung et de Xiaomi. On retrouve ensuite Google et on descend rapidement dans le classement avec Huawei, OnePlus, OPPO, Motorola, Fairphone… Nous avons presque un millier de lecteurs sur des produits Microsoft (certainement des Surface), mais aussi quelques-uns sur Palm et Polaroid.

La résolution d’écran la plus utilisée est sans surprise 1 920 x 1 080 pixels (quasiment un visiteur sur cinq). On descend ensuite rapidement à moins de 10 % avec 2 560 x 1 440 pixels, puis les autres définitions sont toutes à moins de 5 %.

Team Windows, Linux ou MacOS ?

Qu’en est-il de la partie logicielle maintenant ? Sur l’année 2025, vous étiez 22 % sous Windows 10 et 12 % sous Windows 11 (oui, quasiment deux fois plus sous Windows 10). En l’espace d’un an, la part de Windows 10 a perdu plus de cinq points. Linux est un peu en dessous de 10 %, devant MacOS à 7 % environ. Attention, plus de 45 % des visites sont classées dans « autres ».

Sur l’ensemble des visiteurs dont le système est identifié, Windows (toutes versions confondues) représente 34 %, juste derrière Android à 37 %, contre 12 % pour iOS. Les machines sous Linux sont à 10 %, en petite hausse d’un point sur un an.

Nous avons également quelques irréductibles à qui nous souhaitons bon courage (et bonne mise à jour au plus vite pour certains) : ceux sous Android 2.0, Windows 2000, NT, 7, 8 et RT, MacOS 5, iOS 5.1, PlayStation Portable Vita, PlayStation 3.4, Fedora et Debian 6.5, GNU/Linux 3.13… Nous avons aussi des lecteurs sur des OS un peu plus exotiques comme SerenityOS, Haiku OS, Ordissimo OS, NetBSD…

Chrome ou Firefox ?

Passons du côté des navigateurs, avec Chrome qui arrive en tête avec environ 40 % (24 % sur le fixe et 16 % sur le mobile). Firefox est en bonne position avec 33 % (25 % sur le fixe et 8 % sur le mobile) et Safari troisième avec 8 %. On retrouve ensuite Edge, Brave, Opera, DuckDuckGo Privacy Browser, Vivaldi, Ecosia…

Dans le bas du classement, on découvre des navigateurs : Seznam Browser, SberBrowser, QupZilla (Falkon), Obigo, Cyberfox, Midori, kingpinbrowser, Iron Mobile, Wolvic, TenFourFox, Puffin, Basilisk, NetFront, etc.

Le moteur de rendu Blink (Chromium) est présent dans plus d’un navigateur sur deux, tandis que Gecko (Mozilla) est présent dans 32 % des cas. Safari est aux alentours de 13 %.

Vous surfez du côté de la lumière ou de l’obscurité ?

Puisque nous sommes sur des questions de rendu graphique, c’est le bon moment pour faire un point sur les thèmes de Next. Mettons fin à l’insoutenable suspense : qui est le meilleur entre Dracula et Giga Noir ? C’est Giga Noir, mais avec une courte avance. Comparer avec Biafine n’aurait aucun sens puisque c’est le thème par défaut.

Ce qu’on peut toutefois noter, c’est que passer à un thème sombre est un chemin avec assez peu de retour en arrière. Sur l’ensemble des lecteurs qui ont testé Dracula ou Giga Noir, seuls 18 % ont repris le chemin de la lumière.

Quand venez-vous sur Next ?

Les lecteurs de Next ne sont pas très matinaux (ce qui ne les empêche pas de répondre présents dans les commentaires à toutes heures du jour et de la nuit). L’audience est plus importante en semaine que le week-end, avec une journée un peu supérieure aux autres : le mardi.

La courbe des visites suivant l’heure de la journée monte fortement à partir de 7/8 h, redescend légèrement à midi, puis descend progressivement en fin de journée, à partir de 19 h. Pas de doute, une bonne partie d’entre vous nous consulte depuis leur travail.

Comment arrivez-vous sur Next ?

Une statistique fait de Next un ovni dans le paysage médiatique : plus de 50 % des lecteurs arrivent directement sur Next. Les moteurs de recherche comptent pour 40 %, les réseaux sociaux et les sites externes se partagent le reste.

Sur la partie réseaux sociaux, le premier pourvoyeur est Reddit, suivi par LinkedIn, Twitter, Bluesky et Facebook. Attention néanmoins à prendre ces chiffres avec des pincettes car une partie importante de la provenance du trafic (et c’est en croissance) est masquée.

Next ne réalise pas de campagne promotionnelle sur les réseaux (voire c’est pire puisque nos contenus n’étaient même plus partagés automatiquement pendant un temps). À l’opposé, nos principaux liens sortants vont vers Wikipédia, YouTube et GitHub.

Un mot sur les recherches internes : cryptographie arrive en tête, flock en seconde position et linux en troisième. Cela correspond finalement assez bien à Next il faut bien l’avouer 😉

Et le reste ? La publicité ? Le tracking ?

Mais ? Pas de statistiques sur les cookies, le tracking, les publicités ? Non, tout simplement car Next ne suit pas à la culotte ses lecteurs, qu’ils soient abonnés ou non, et n’affiche aucune publicité d’aucune forme (y compris affiliation ou sponsorisation), que vous soyez abonnés ou non.

L’abonnement est pour rappel notre unique source de revenus. Il vous permet de lire l’intégralité de nos contenus et les commenter pour échanger avec la communauté.

Depuis peu, l’abonnement Next vous permet aussi de sauvegarder vos données, en France, sur des serveurs gérés en interne par moji. La bêta est pour le moment fermée, mais elle va rouvrir au début de l’année ! On vous propose même un tuto pour sauvegarder vos données (ici ou ailleurs).

  •  

☕️ Ondes émises par les smartphones : l’ANFR lance deux procédures de retrait

En ce mois de décembre, l’Agence nationale des fréquences a publié pas moins de trois communiqués sur des smartphones pour dépassement de DAS. Les téléphones sont, pour rappel, prélevés dans le commerce et envoyés à un laboratoire accrédité pour « quantifier l’énergie transportée par les ondes électromagnétiques et absorbée par le corps humain ».

Nous avons déjà longuement détaillé le fonctionnement du DAS dans un précédent dossier.

Retraits des Hotwave Note 13 et Fossibot F105

En ce dernier jour de 2025, deux procédures de retrait viennent d’être annoncées pour les téléphones Hotwave Note 13 et Fossibot F105. Le DAS membre a été mesuré à respectivement 5,75 et 4,08 W/kg, au-delà de la limite réglementaire de 4 W/kg.

Face à ces dépassements, l’ANFR a mis en demeure les sociétés Shunshun et Success Courrier SL, « respectivement responsables de la mise sur le marché des téléphones Hotwav Note 13 et Fossibot F105, de prendre toutes les mesures appropriées pour mettre fin aux non-conformités constatées ». Les entreprises peuvent aussi décider volontairement de lancer un rappel.

L’Agence ajoute que, « en cas d’absence de réaction ou d’instruction de la part du fabricant, il incombe aux distributeurs de prendre de leur propre initiative les mesures de retrait et de rappel des téléphones concernés », aussi bien dans les boutiques physiques qu’en ligne.

Pour le moment, une recherche rapide sur les marketplaces d’Amazon et Cdiscount permet de se rendre compte que le retrait n’est pas (encore) effectif. Ce n’est pas la première fois que l’ANFR demande le retrait d’un smartphone. Il y a le très médiatique cas de l’iPhone 12, mais aussi pas moins de quatre procédures contre DOOGEE.

D’autres procédures de retrait (volontaires ou non) ont été mises en place avec notamment Hotwav Cyber 7, Emporia Smart 4 et Simplicity V27, Razer Phone 2, Leagoo S8, Allview S4 Soul Mini S, Neffos X1 TP90 et Orange Hapi 30.

Mise à jour des Blackview Shark 8 et Oukitel WP36

Il y a une dizaine de jours, un autre téléphone était épinglé par l’Agence : l’Oukitel WP36. Le DAS membre était cette fois-ci mesuré à 5,40 W/kg, avant que le fabricant ne corrige le tir pour le descendre à 2,97 W/kg via une mise à jour (confirmé par de nouveaux tests).

Le 16 décembre, c’était le smartphone Blackview Shark 8 qui était flashé à 3,74 W/kg, avant qu’une mise à jour ne fasse redescendre le DAS tête à 0,559 W/kg. La limite réglementaire du DAS tête est pour rappel plus basse, à 2 W/kg.

  •  

☕️ Ondes émises par les smartphones : l’ANFR lance deux procédures de retrait

En ce mois de décembre, l’Agence nationale des fréquences a publié pas moins de trois communiqués sur des smartphones pour dépassement de DAS. Les téléphones sont, pour rappel, prélevés dans le commerce et envoyés à un laboratoire accrédité pour « quantifier l’énergie transportée par les ondes électromagnétiques et absorbée par le corps humain ».

Nous avons déjà longuement détaillé le fonctionnement du DAS dans un précédent dossier.

Retraits des Hotwave Note 13 et Fossibot F105

En ce dernier jour de 2025, deux procédures de retrait viennent d’être annoncées pour les téléphones Hotwave Note 13 et Fossibot F105. Le DAS membre a été mesuré à respectivement 5,75 et 4,08 W/kg, au-delà de la limite réglementaire de 4 W/kg.

Face à ces dépassements, l’ANFR a mis en demeure les sociétés Shunshun et Success Courrier SL, « respectivement responsables de la mise sur le marché des téléphones Hotwav Note 13 et Fossibot F105, de prendre toutes les mesures appropriées pour mettre fin aux non-conformités constatées ». Les entreprises peuvent aussi décider volontairement de lancer un rappel.

L’Agence ajoute que, « en cas d’absence de réaction ou d’instruction de la part du fabricant, il incombe aux distributeurs de prendre de leur propre initiative les mesures de retrait et de rappel des téléphones concernés », aussi bien dans les boutiques physiques qu’en ligne.

Pour le moment, une recherche rapide sur les marketplaces d’Amazon et Cdiscount permet de se rendre compte que le retrait n’est pas (encore) effectif. Ce n’est pas la première fois que l’ANFR demande le retrait d’un smartphone. Il y a le très médiatique cas de l’iPhone 12, mais aussi pas moins de quatre procédures contre DOOGEE.

D’autres procédures de retrait (volontaires ou non) ont été mises en place avec notamment Hotwav Cyber 7, Emporia Smart 4 et Simplicity V27, Razer Phone 2, Leagoo S8, Allview S4 Soul Mini S, Neffos X1 TP90 et Orange Hapi 30.

Mise à jour des Blackview Shark 8 et Oukitel WP36

Il y a une dizaine de jours, un autre téléphone était épinglé par l’Agence : l’Oukitel WP36. Le DAS membre était cette fois-ci mesuré à 5,40 W/kg, avant que le fabricant ne corrige le tir pour le descendre à 2,97 W/kg via une mise à jour (confirmé par de nouveaux tests).

Le 16 décembre, c’était le smartphone Blackview Shark 8 qui était flashé à 3,74 W/kg, avant qu’une mise à jour ne fasse redescendre le DAS tête à 0,559 W/kg. La limite réglementaire du DAS tête est pour rappel plus basse, à 2 W/kg.

  •  

Le contrôle massif des colis Shein est passé de 80 à 25 % de non-conformités

Selon les organisateurs vs selon la police
Le contrôle massif des colis Shein est passé de 80 à 25 % de non-conformités

Alors que le gouvernement continue sa bataille contre Shein en demandant la suspension de la plateforme, des retours de l’opération coup de poing des douanes du 6 novembre contredisent des chiffres précédemment annoncés sur les non-conformités. De 80 %, on passe à 25 %. Qu’importe pour le ministère, c’est toujours beaucoup trop.

Début novembre, Shein défrayait la chronique suite à la découverte de « poupées sexuelles à caractère pédopornographique » vendues sur sa marketplace. Le gouvernement engageait dans la foulée une procédure de suspension – rejetée par le Tribunal judiciaire car la demande est jugée disproportionnée, le gouvernement a fait appel dans la foulée – tandis que la boutique en ligne fermait purement et simplement sa marketplace en France.

Le gouvernement avait annoncé le 6 novembre une opération coup de poing : « cette nuit, 200 000 colis sont arrivés à Roissy-Charles-de-Gaulle : ils seront tous contrôlés. Tous ». Le 8 novembre, le gouvernement faisait un point d’étape : « Sur les 200 000 colis contrôlés, huit articles sur dix se sont révélés non conformes (cosmétiques non autorisés, jouets dangereux, appareils électroménagers défaillants…) ».

Sur plus de 300 000 colis Shein, 25 % environ de non-conformité

La direction des douanes a donné quelques informations au Parisien (confirmé ensuite à l’AFP) sur le bilan de cette vaste opération : « 320 474 colis vérifiés, contenant au total plus de 500 000 articles », expliquent nos confrères. Selon la direction des douanes, les colis des produits non textiles ont « fait apparaître un taux de non-conformité avoisinant les 25 % ». Les défauts sont variés, allant de la contrefaçon à l’absence de documentation technique en passant par une non-conformité aux normes.

La douane ne donne aucune précision sur le nombre de procès-verbaux établis suite à la détection des défauts, pas plus que sur les éventuelles actions prises par la suite. Sur les produits textiles aussi, aucune précision. La direction des douanes reconnait simplement auprès de nos confrères du Parisien qu’il y avait « peu de non-conformité »… certainement car Shein « avait fermé sa marketplace quelques jours avant l’opération douanière et ne vendait que des produits issus de sa propre marque ».

Imbroglio sur les dates de fermeture de la marketplace

Ce n’est pas quelques jours avant que la marketplace a été fermée, mais quelques heures seulement. L’annonce a en effet été faite le 5 novembre dans l’après-midi, après la demande de suspension du gouvernement… même si la plateforme affirmait que cette décision avait été prise « indépendamment de l’annonce du Premier ministre ».

Le 1ᵉʳ novembre, après le triste constat de la DGCCRF, Shein avait par contre confirmé que les poupées pédopornographiques avaient « été immédiatement retirées de la plateforme » et que son équipe Marketplace Governance enquêtait sur le sujet. Elle menait aussi « une revue complète afin d’identifier et de retirer tout produit similaire susceptible d’être mis en vente par d’autres vendeurs tiers ». Il n’était par contre pas encore question de fermer la marketplace, et la fermeture n’a eu lieu que le 5 novembre, veille de l’opération coup de poing.

La différence est grande entre les 80 % annoncés début novembre par le gouvernement, et les 25 % de fin décembre ; alors que les chiffres portent sur la même opération de vérification. Le communiqué de début décembre annonçait bien que 200 000 colis « ont été contrôlés », les opérations étaient donc normalement faites, les 80 % n’avaient pas de raison de bouger. Le communiqué de novembre non plus ne laissait pas de place au doute : « Sur les 200 000 colis contrôlés, huit articles sur dix se sont révélés non conformes ».

80 % en novembre, 25 % en décembre… que se passe-t-il ?

« Cette différence de chiffres est liée à la méthodologie des contrôles dont on parle », tente de justifier Bercy à Libération. Tout d’abord, expliquent nos confrères, les 25 % dont il est question ne portent pas sur 320 474 colis « mais seulement sur ceux commercialisés par les vendeurs tiers de la marketplace de Shein, dont la part exacte n’a pas été communiquée par les Douanes ».

Un porte-parole de Shein explique à Libération que « seulement » une centaine de colis ont « été mis de côté pour des vérifications complémentaires ». Les 25 % de non-conformité ne concerneraient en fait que cette centaine de colis. « En temps normal, la douane opère des contrôles orientés, toutes plateformes confondues, en ciblant des colis qui peuvent déjà présenter des suspicions », explique le ministère à nos confrères. C’est sur cette base que le chiffre de 80 % aurait été utilisé. Les communiqués précédents affirmaient que cela venait bien des 200 000 colis vérifiés.

À l’Assemblée nationale, Amélie de Montchalin affirmait en avril que « 94 % de ces 800 millions d’articles [venant de Chine] sont non conformes et d’abord en termes de sécurité. Nous parlons d’articles qui incendient nos maisons, de produits cosmétiques qui rendent malade, de jouets qui sont toxiques pour nos enfants ». 25 %, 80 %, 94 %… pas facile de suivre.

Le ministère avance une autre piste pour expliquer les différences. Peut-être que les contrôles massifs à l’aéroport le 6 novembre ne concernaient pas « la totalité du spectre » des non-conformités possibles. Une autre manière de le dire serait que les contrôles auraient pu être faits rapidement, sans vérifier tous les points.

Dans tous les cas, le ministère rappelle « qu’un magasin dans lequel un produit sur quatre est non conforme serait fermé administrativement dans la minute ». Bref, peu importe finalement que ce soit 25 % ou 80 % pour Bercy ; 25 % c’est déjà trop.

Amélie de Montchalin justifiait cette opération coup de poing en novembre par le besoin « d’avoir des preuves ». La ministre reconnaissait que « les douaniers en ont tous les jours », mais l’opération du 6 novembre devrait permettre de confirmer : « Aujourd’hui la plateforme ne pourra pas dire qu’on a juste ouvert les mauvais paquets ». Résultat des courses, c’est pour le moment un bazar dans les chiffres, qui fait certainement le jeu de Shein.

La boutique en ligne n’a de son côté pas communiqué sur le sujet, la plateforme expliquant à nos confrères n’avoir pas encore été formellement informée par les douanes des résultats de son enquête. Shein n’a pour l’heure toujours pas réouvert sa marketplace et n’a pas communiqué sur un éventuel retour.

Trois euros de droit de douane sur les « petits » achats

L’Europe a récemment instauré des droits de douane de trois euros par article « sur les colis issus du commerce électronique d’une valeur inférieure à 150 euros, à compter du mois de juillet 2026 ». Ce montant « s’appliquera aux colis envoyés directement aux consommateurs depuis des pays tiers ».

Il y a quelques jours à peine, Shein annonçait l’ouverture d’un « pôle logistique européen ultramoderne à Wrocław, en Pologne ». Le but de cet entrepôt est de « mieux servir les clients à travers l’Europe avec une livraison plus rapide et plus fiable », pour les revendeurs européens de sa marketplace, selon le communiqué. L’entreprise était déjà présente en Pologne depuis 2022.

Reste à voir si cet entrepôt servira aussi de base de stockage pour des revendeurs chinois qui pourraient ainsi inonder l’Europe.

  •  

Le contrôle massif des colis Shein est passé de 80 à 25 % de non-conformités

Selon les organisateurs vs selon la police
Le contrôle massif des colis Shein est passé de 80 à 25 % de non-conformités

Alors que le gouvernement continue sa bataille contre Shein en demandant la suspension de la plateforme, des retours de l’opération coup de poing des douanes du 6 novembre contredisent des chiffres précédemment annoncés sur les non-conformités. De 80 %, on passe à 25 %. Qu’importe pour le ministère, c’est toujours beaucoup trop.

Début novembre, Shein défrayait la chronique suite à la découverte de « poupées sexuelles à caractère pédopornographique » vendues sur sa marketplace. Le gouvernement engageait dans la foulée une procédure de suspension – rejetée par le Tribunal judiciaire car la demande est jugée disproportionnée, le gouvernement a fait appel dans la foulée – tandis que la boutique en ligne fermait purement et simplement sa marketplace en France.

Le gouvernement avait annoncé le 6 novembre une opération coup de poing : « cette nuit, 200 000 colis sont arrivés à Roissy-Charles-de-Gaulle : ils seront tous contrôlés. Tous ». Le 8 novembre, le gouvernement faisait un point d’étape : « Sur les 200 000 colis contrôlés, huit articles sur dix se sont révélés non conformes (cosmétiques non autorisés, jouets dangereux, appareils électroménagers défaillants…) ».

Sur plus de 300 000 colis Shein, 25 % environ de non-conformité

La direction des douanes a donné quelques informations au Parisien (confirmé ensuite à l’AFP) sur le bilan de cette vaste opération : « 320 474 colis vérifiés, contenant au total plus de 500 000 articles », expliquent nos confrères. Selon la direction des douanes, les colis des produits non textiles ont « fait apparaître un taux de non-conformité avoisinant les 25 % ». Les défauts sont variés, allant de la contrefaçon à l’absence de documentation technique en passant par une non-conformité aux normes.

La douane ne donne aucune précision sur le nombre de procès-verbaux établis suite à la détection des défauts, pas plus que sur les éventuelles actions prises par la suite. Sur les produits textiles aussi, aucune précision. La direction des douanes reconnait simplement auprès de nos confrères du Parisien qu’il y avait « peu de non-conformité »… certainement car Shein « avait fermé sa marketplace quelques jours avant l’opération douanière et ne vendait que des produits issus de sa propre marque ».

Imbroglio sur les dates de fermeture de la marketplace

Ce n’est pas quelques jours avant que la marketplace a été fermée, mais quelques heures seulement. L’annonce a en effet été faite le 5 novembre dans l’après-midi, après la demande de suspension du gouvernement… même si la plateforme affirmait que cette décision avait été prise « indépendamment de l’annonce du Premier ministre ».

Le 1ᵉʳ novembre, après le triste constat de la DGCCRF, Shein avait par contre confirmé que les poupées pédopornographiques avaient « été immédiatement retirées de la plateforme » et que son équipe Marketplace Governance enquêtait sur le sujet. Elle menait aussi « une revue complète afin d’identifier et de retirer tout produit similaire susceptible d’être mis en vente par d’autres vendeurs tiers ». Il n’était par contre pas encore question de fermer la marketplace, et la fermeture n’a eu lieu que le 5 novembre, veille de l’opération coup de poing.

La différence est grande entre les 80 % annoncés début novembre par le gouvernement, et les 25 % de fin décembre ; alors que les chiffres portent sur la même opération de vérification. Le communiqué de début décembre annonçait bien que 200 000 colis « ont été contrôlés », les opérations étaient donc normalement faites, les 80 % n’avaient pas de raison de bouger. Le communiqué de novembre non plus ne laissait pas de place au doute : « Sur les 200 000 colis contrôlés, huit articles sur dix se sont révélés non conformes ».

80 % en novembre, 25 % en décembre… que se passe-t-il ?

« Cette différence de chiffres est liée à la méthodologie des contrôles dont on parle », tente de justifier Bercy à Libération. Tout d’abord, expliquent nos confrères, les 25 % dont il est question ne portent pas sur 320 474 colis « mais seulement sur ceux commercialisés par les vendeurs tiers de la marketplace de Shein, dont la part exacte n’a pas été communiquée par les Douanes ».

Un porte-parole de Shein explique à Libération que « seulement » une centaine de colis ont « été mis de côté pour des vérifications complémentaires ». Les 25 % de non-conformité ne concerneraient en fait que cette centaine de colis. « En temps normal, la douane opère des contrôles orientés, toutes plateformes confondues, en ciblant des colis qui peuvent déjà présenter des suspicions », explique le ministère à nos confrères. C’est sur cette base que le chiffre de 80 % aurait été utilisé. Les communiqués précédents affirmaient que cela venait bien des 200 000 colis vérifiés.

À l’Assemblée nationale, Amélie de Montchalin affirmait en avril que « 94 % de ces 800 millions d’articles [venant de Chine] sont non conformes et d’abord en termes de sécurité. Nous parlons d’articles qui incendient nos maisons, de produits cosmétiques qui rendent malade, de jouets qui sont toxiques pour nos enfants ». 25 %, 80 %, 94 %… pas facile de suivre.

Le ministère avance une autre piste pour expliquer les différences. Peut-être que les contrôles massifs à l’aéroport le 6 novembre ne concernaient pas « la totalité du spectre » des non-conformités possibles. Une autre manière de le dire serait que les contrôles auraient pu être faits rapidement, sans vérifier tous les points.

Dans tous les cas, le ministère rappelle « qu’un magasin dans lequel un produit sur quatre est non conforme serait fermé administrativement dans la minute ». Bref, peu importe finalement que ce soit 25 % ou 80 % pour Bercy ; 25 % c’est déjà trop.

Amélie de Montchalin justifiait cette opération coup de poing en novembre par le besoin de « d’avoir des preuves ». La ministre reconnaissait que « les douaniers en ont tous les jours », mais l’opération du 6 novembre devrait permettre de confirmer : « Aujourd’hui la plateforme ne pourra pas dire qu’on a juste ouvert les mauvais paquets ». Résultat des courses, c’est pour le moment un bazar dans les chiffres, qui fait certainement le jeu de Shein.

La boutique en ligne n’a de son côté pas communiqué sur le sujet, la plateforme expliquant à nos confrères n’avoir pas encore été formellement informée par les douanes des résultats de son enquête. Shein n’a pour l’heure toujours pas réouvert sa marketplace et n’a pas communiqué sur un éventuel retour.

Trois euros de droit de douane sur les « petits » achats

L’Europe a récemment instauré des droits de douane de trois euros par article « sur les colis issus du commerce électronique d’une valeur inférieure à 150 euros, à compter du mois de juillet 2026 ». Ce montant « s’appliquera aux colis envoyés directement aux consommateurs depuis des pays tiers ».

Il y a quelques jours à peine, Shein annonçait l’ouverture d’un « pôle logistique européen ultramoderne à Wrocław, en Pologne ». Le but de cet entrepôt est de « mieux servir les clients à travers l’Europe avec une livraison plus rapide et plus fiable », pour les revendeurs européens de sa marketplace, selon le communiqué. L’entreprise était déjà présente en Pologne depuis 2022.

Reste à voir si cet entrepôt servira aussi de base de stockage pour des revendeurs chinois qui pourraient ainsi inonder l’Europe.

  •  

☕️ « Incident de cybersécurité » à l’Agence spatiale européenne, les dégâts seraient limités

Via un message sur X, l’ESA (Agence spatiale européenne) explique avoir « été informée d’un récent problème de cybersécurité concernant des serveurs situés en dehors de son réseau ». Une enquête interne confirme pour le moment « qu’un nombre très restreint de serveurs externes pourraient avoir été affectés ». Sur les machines se trouvent « des activités d’ingénierie collaborative non classifiées ».

Il y a quelques jours, une récupération de documents de l’Agence spatiale européenne avait été revendiquée sur les réseaux sociaux. La « source », comme trop souvent en pareille situation, était une publication sur un forum bien connu dans le monde de la cybersécurité : BreachForum.

On y trouve de tout, mais aussi (et surtout ?) beaucoup de n’importe quoi, avec parfois des pirates en herbe en recherche de visibilité. Les annonces sont donc toujours à prendre avec de grosses pincettes, aussi bien sur la fuite avérée ou non que sur la portée des documents réellement dérobés. Il n’est pas rare que des vessies tentent de se faire passer pour des lanternes.

Dans le cas de l’ESA, le pirate revendique de nombreuses données (200 Go environ) qu’il met en vente : « Source Codes, CI/CD Pipelines, API Tokens, Access Tokens, Confidential Documents, Configuration Files, Terraform Files, SQL Files, Hardcoded Credentials and more ».

Du côté de l’ESA, « une analyse de sécurité approfondie a été lancée et des mesures ont également été mises en œuvre afin de sécuriser les appareils potentiellement affectés ». L’Agence affirme que les parties concernées ont été prévenues et promet de donner des précisions « dès que nous disposerons de nouvelles informations ».

  •  

☕️ « Incident de cybersécurité » à l’Agence spatiale européenne, les dégâts seraient limités

Via un message sur X, l’ESA (Agence spatiale européenne) explique avoir « été informée d’un récent problème de cybersécurité concernant des serveurs situés en dehors de son réseau ». Une enquête interne confirme pour le moment « qu’un nombre très restreint de serveurs externes pourraient avoir été affectés ». Sur les machines se trouvent « des activités d’ingénierie collaborative non classifiées ».

Il y a quelques jours, une récupération de documents de l’Agence spatiale européenne avait été revendiquée sur les réseaux sociaux. La « source », comme trop souvent en pareille situation, était une publication sur un forum bien connu dans le monde de la cybersécurité : BreachForum.

On y trouve de tout, mais aussi (et surtout ?) beaucoup de n’importe quoi, avec parfois des pirates en herbe en recherche de visibilité. Les annonces sont donc toujours à prendre avec de grosses pincettes, aussi bien sur la fuite avérée ou non que sur la portée des documents réellement dérobés. Il n’est pas rare que des vessies tentent de se faire passer pour des lanternes.

Dans le cas de l’ESA, le pirate revendique de nombreuses données (200 Go environ) qu’il met en vente : « Source Codes, CI/CD Pipelines, API Tokens, Access Tokens, Confidential Documents, Configuration Files, Terraform Files, SQL Files, Hardcoded Credentials and more ».

Du côté de l’ESA, « une analyse de sécurité approfondie a été lancée et des mesures ont également été mises en œuvre afin de sécuriser les appareils potentiellement affectés ». L’Agence affirme que les parties concernées ont été prévenues et promet de donner des précisions « dès que nous disposerons de nouvelles informations ».

  •  

50 ans plus tard, Unix v4 ressuscité grâce à une bande magnétique

Noël après l’heure pour les rétrogeeks !
50 ans plus tard, Unix v4 ressuscité grâce à une bande magnétique

C’est un fragment d’histoire des systèmes d’exploitation qui a été retrouvé et restauré : une bande magnétique contenant la version 4 d’Unix. Une bande retrouvée par hasard, dans un placard, désormais accessible à tous en ligne.

Linux, un système d’exploitation open source de type Unix, a fêté cette année ses 34 ans. Mais attendez, c’est quoi Unix ? C’est aussi un système d’exploitation développé dans les années 1970. Linux n’est pas le seul système de type Unix (c’est-à-dire qui se comporte comme un Unix), nous pouvons aussi citer les différentes déclinaisons de BSD et Solaris.

Attention à ne pas confondre Linux, Unix et GNU. Nous n’allons pas ici remettre une pièce dans le débat, mais sachez simplement que les noms GNU/Linux (souvent raccourcis en Linux) sont des acronymes récursifs pour bien marquer la différence avec Unix justement : GNU pour GNU is Not Unix et Linux pour Linux Is Not UniX.

50 ans plus tard, Unix fait encore parler de lui

Unix est bien plus vieux que Linux puisqu’il remonte aux débuts des années 70 ; le système a donc déjà plus de 50 ans. Il a initialement été développé dans les laboratoires de Bell Labs, notamment par Ken Thompson et Dennis Ritchie (décédé en 2011). Unix tournait sur des machines PDP-11 (Programmable Data Processor) de chez DEC (Digital Equipment Corporation).

Il y a quelques semaines, une actualité a peut-être fait vibrer la corde nostalgique des moins jeunes d’entre nous : « Lors du nettoyage d’un entrepôt, notre équipe a découvert cette bande magnétique contenant #UNIX v4 des laboratoires Bell, datant d’environ 1973. Il semblerait qu’aucune autre copie n’existe ». Ce message a été publié sur Mastodon par Rob Ricci, professeur à la Kahlert School of Computing de l’Université de l’Utah. Il ajoutait « avoir pris des dispositions pour la livrer au Computer History Museum ».

Post by @ricci@discuss.systems
View on Mastodon

Il y a quelques jours, Rob Ricci revenait à la charge avec une autre bonne nouvelle : « la tentative de lecture de la bande UNIX V4 est en cours ! », rapidement suivi d’un « apparemment, la lecture complète de la bande UNIX v4 s’est déroulée avec succès. La prochaine étape consiste à décoder le signal, à déchiffrer les formats de fichiers, etc. ».

Le binaire de la bande a été publié dans la foulée sur Internet Archive, avec des détails sur le lecteur de bandes utilisé. « La bande a été découverte le 28 juillet 2025 par Aleks Maricq à l’université de l’Utah, dans le placard de rangement du groupe de recherche Flux », précise Internet Archive. Sur la bande, il est écrit à la main « UNIX Original from Bell Labs V4 », tandis que la bande porte la référence « Scotch BRAND 700 GP 3200 FCI ».

Le code est désormais disponible par ici par exemple (il ne pèse que 40 Mo, bien plus digeste que les 1 600 Mo des données brutes lues depuis la bande). Le code semble avoir 55 000 lignes de code, dont 24 000 en C et 30 000 en assembleur.

Une vidéo de la lecture de la bande a été mise en ligne.

La communauté s’est rapidement organisée autour de cette découverte. Unix V4 est en effet un peu particulier. À ses débuts, les premières versions d’Unix étaient en assembleur (un langage encore utilisé, avec lequel on peut créer un OS inutile avec moins de 10 lignes de code), mais cette quatrième version a été réécrite presque entièrement en langage C, qui a lui aussi été inventé au début des années 70.

Bien sûr, un émulateur en ligne est aussi disponible pour ceux qui voudraient tester en direct depuis leur navigateur Unix v4. Cette histoire est aussi une petite victoire pour la longévité du stockage sur bande magnétique puisque la lecture des données n’a visiblement pas posé grand problème.

  •  

MongoBleed : une très vilaine faille MongoDB laisse fuiter des données sensibles

Et Joyeux Noël !
MongoBleed : une très vilaine faille MongoDB laisse fuiter des données sensibles

Une faille MongoDB laisse fuiter des données sensibles des serveurs, y compris des mots de passe et des clés secrètes. Le danger est réel, d’autant plus que la faille existe depuis plus de huit ans et que des preuves de concept sont librement disponibles sur Internet. Des correctifs sont disponibles, à déployer au plus vite si ce n’est pas encore fait !

MongoDB est de nouveau victime d’une vilaine faille de sécurité, baptisée cette fois CVE-2025-14847. « De multiples vulnérabilités ont été découvertes dans MongoDB Server. Certaines d’entre elles permettent à un attaquant de provoquer un déni de service à distance, une atteinte à la confidentialité des données et une atteinte à l’intégrité des données », explique le CERT-FR.

Depuis 2017, il était possible de récupérer des données en mémoire

Le CERT Santé français donne quelques détails sur la faille et ses conséquences. Elle est exploitable par le réseau avec une complexité « faible » et ne nécessite aucun privilège, ce qui explique sa dangerosité. Dans tous les cas, elle ne permet pas d’obtenir des privilèges plus élevés, mais tout de même d’accéder à des « espaces mémoire non initialisés sans authentification ».

Cette vulnérabilité rappelle Heartbleed qui avait secoué Internet il y a plus de 10 ans, avec des conséquences parfois très graves.

Le CVE lui attribue une note de dangerosité de 7,5 sur 10 dans la version 3.1 du CVSS et de 8,7 sur 10 pour la version 4.0. L’alerte date du 19 décembre 2025 et fait suite à cinq bulletins de sécurité publiés par MongoDB les 25 novembre (1, 2 et 3), le 9 décembre (4) et enfin le 19 décembre (5). Le CERT indiquait le 23 décembre que la faille n’était pas activement exploitée… mais la situation va rapidement changer.

Dans le dernier bulletin de MongoDB, on peut lire que la faille concerne toutes les versions de MongoDB Server à partir de la 3.6. Le bug a été ajouté dans ce commit du 1ᵉʳ juin 2017… il y a donc plus de huit ans. Il est ensuite resté dans les versions plus récentes, de la 4.x à la 8.2 en passant par les 5.x, 6.x et 7.x. Des correctifs sont disponibles avec les versions 8.2.3, 8.0.17, 7.0.28, 6.0.27, 5.0.32 et 4.4.30. Les moutures 4.2, 4.0 et 3.6 de MongoDB sont donc laissées sur le côté.

Si vous ne pouvez pas mettre à jour rapidement, MongoDB recommande de « désactiver la compression zlib sur le serveur MongoDB en démarrant mongod ou mongos avec l’option networkMessageCompressors ou net.compression.compressors qui exclut explicitement zlib ».

Selon un rapport du moteur de recherche Censys (un concurrent de Shodan), plus de 87 000 bases de données seraient vulnérables.

Pour Noël, des « experts » publient des preuves de concept

Dans une mise à jour, le CERT Santé affirme maintenant qu’une preuve de concept « est disponible en sources ouvertes », permettant donc à n’importe qui d’exploiter facilement cette brèche si elle n’est pas corrigée. Les documents nécessaires pour créer un outil afin d’exploiter cette brèche ont été mis en ligne dans la nuit du 25 au 26 décembre sur un dépôt GitHub, soit une semaine après l’annonce de MongoDB et la mise en ligne des correctifs, en pleine période de préparation des fêtes de fin d’année.

Ils ont été publiés par un utilisateur qui serait responsable technique chez Elastic Security, qui se présente comme une « plateforme open source qui optimise la recherche, l’observabilité et la sécurité ». Le chercheur en cybersécurité Kevin Beaumont affirme avoir testé le PoC et confirme « que cet exploit est réel ».

C’est visiblement aussi simple à exploiter que HeartBleed, avec les mêmes dangers : « il suffit de fournir l’adresse IP d’une instance MongoDB et elle commencera à dénicher en mémoire des choses comme les mots de passe de base de données (qui sont en texte brut), les clés secrètes AWS, etc. », détaille Kevin Beaumont.

Ce dernier ajoute qu’une « autre entreprise a jugé bon de publier des détails techniques la veille de Noël » ; il s’agit d’Ox Security. Le ton est volontairement sarcastique car le calendrier est tout sauf idéal. La faille peut se révéler extrêmement dangereuse et publier les détails techniques de son exploitation permet à quasiment n’importe qui de tenter sa chance. Plusieurs s’étonnent d’ailleurs de voir des experts ainsi publier les détails d’exploitation d’une faille de sécurité aussi sensible, surtout en pleine période de fête.

Nous en parlions avec des experts en cybersécurité lors des Assises de Monaco en octobre dernier : « Quand une vulnérabilité est rendue publique avec son code d’exploitation, des acteurs malveillants vont lancer une campagne sur l’ensemble d’Internet en mode « /0 » pour tester si des sites ou services sont vulnérables ». Désormais, le plus difficile est presque d’estimer le bon montant de la rançon.

Publier ainsi des PoC revient à faciliter la vie des pirates, comme relayer tout et n’importe quoi sur les fuites de données… et ainsi se faire les « commerciaux » des pirates. Un sujet sensible, qui nécessite souvent des vérifications incompatibles avec la course à l’information. Next a déjà depuis longtemps choisi son camp sur ce point.

Corriger est une chose, mais comment savoir si on a été victime ?

Que des chercheurs en cybersécurité postent des preuves de concepts et des détails techniques en plein pendant le réveillon n’est certainement pas l’idée de l’année… même s’il faut aussi reconnaitre que laisser des serveurs vulnérables pendant une semaine n’est pas mieux.

Aussi bien de la part du chercheur de chez Elastic Security que chez Ox Security, on ne trouve aucune précision sur comment détecter une exploitation de cette vulnérabilité dans les journaux par exemple. Un autre expert en cybersécurité s’est attelé à la tâche : Eric Capuano. Sur son blog, il recommande évidemment d’appliquer les correctifs, mais ajoute que « le patch seul ne suffit pas — il faut savoir si vous avez été ciblé avant le patch ».

Il explique que la particularité de cette brèche est qu’elle ne semble « détectable que dans les journaux du serveur MongoDB, qui ont très peu de chance d’être transmis à un système SIEM [Security Information and Event Management ou gestion des événements et des informations de sécurité, ndlr], et nécessite une logique relativement complexe qui pourrait être difficile à intégrer à la plupart des moteurs de détection SIEM ». Il propose un « artefact » pour Velociraptor, une plateforme open source de collecte et d’analyse. Si vous avez d’autres moyens de vérifier ce qu’il en est, n’hésitez pas à nous le signaler via les commentaires.

Ce n’est pas la première fois que MongoDB défraye la chronique. On se souvient par exemple en 2015 que plusieurs dizaines de milliers de bases de données étaient ouvertes aux quatre vents. Pas à cause d’une faille, mais d’un défaut de configuration avec des administrateurs qui laissaient les bases accessibles depuis n’importe quelle adresse IP. MongoDB avait alors réagi avec quasiment un simple RTFM (Read The Fucking Manual). Deux ans plus tard, rebelote. En 2023, MongoDB s’était fait pirater et des données de ses clients avaient été dérobées.

  •  

☕️ Rainbow Six Siege piraté : Ubisoft a fermé ses serveurs et annulé les transactions

Tout commence ce week-end par un cadeau de Noël totalement inattendu pour certains joueurs : des crédits, des objets, des skins et des packs ont été distribués « gratuitement ». Selon BleepingComputer, pas moins de deux milliards de crédits R6 qui auraient été distribués. Actuellement, 15 000 crédits R6 sont vendus 99,99 euros.

Selon l’ancien joueur et désormais streameur KingGeorge, des joueurs ont aussi été bannis et/ou réautorisés dans le jeu. De faux messages étaient aussi affichés sur le bandeau d’information du bannissement. Bref, c’est un peu le scénario catastrophe avec une pénétration des pirates en profondeur dans les mécanismes du jeu.

Ubisoft has apparently been breached by an unknown group that gifted random items and billions of R6 credits pic.twitter.com/Z8qnTWuClT

— Nevermiss (@Nevermissgg) December 27, 2025

La réaction officielle d’Ubisoft ne s’est pas fait attendre. Samedi 27 décembre (à 15h10 heure française), l’entreprise publiait un message sur le compte officiel de Rainbow Six Siege sur X : « Nous sommes au courant d’un incident […] Nos équipes travaillent à sa résolution ». Rapidement suivi d’un deuxième message, plus inquiétant : le jeu et sa marketplace « ont été volontairement mis hors service le temps que l’équipe se concentre sur la résolution du problème ».

Quelques heures plus tard, toujours sur X, Rainbow Six Siege répondait à la crainte de certains joueurs :

« Personne ne sera banni pour avoir dépensé les crédits reçus. Une annulation de toutes les transactions effectuées depuis 11 h (heure UTC) est en cours. L’indicateur de bannissement a été désactivé lors d’une mise à jour précédente. Les messages affichés ne sont pas de notre fait. Une vague officielle d’interdiction de R6 ShieldGuard s’est déroulée, mais n’est pas liée à cet incident. Nous travaillons d’arrache-pied pour que ce problème soit résolu et que les joueurs puissent rejouer ».

Hier après-midi, le compte officiel annonçait qu’une « restauration [était] en cours. Et, par la suite, des tests de contrôle approfondis seront effectués afin de garantir l’intégrité des comptes et l’efficacité des modifications ». Il y a quelques heures seulement, Ubisoft annonçait un « retour progressif, en ouvrant le jeu à un petit nombre de joueurs seulement ». Deux heures plus tard (ce matin à 3h12), « le jeu est ouvert à tous », mais pas la marketplace, qui reste fermée « jusqu’à nouvel ordre ».

Le retour en arrière est désormais terminé : : « Les joueurs qui ne se sont pas connectés entre le samedi 27 décembre à 10h49 UTC et le 29 décembre ne devraient voir aucun changement dans leur inventaire ». Par contre, pour ceux « qui se sont connectés après le 27 décembre à 10h49 UTC : un faible pourcentage d’entre eux pourraient temporairement perdre l’accès à certains objets leur appartenant. Des investigations et des corrections seront menées au cours des deux prochaines semaines ».

Ubisoft ne donne pas de détail sur le piratage de son jeu, mais des yeux se tournent vers une faille MongoDB massivement exploitée ces derniers jours. Nous aurons l’occasion d’y revenir dans la matinée.

  •  

☕️ Au tour de Mondial Relay d’être piraté, avec une fuite de données personnelles des clients

Alors que la Poste s‘est tout juste remise d’une cyberattaque de type DDoS qui a paralysé ses services pendant plusieurs jours (mais sans fuite de données des clients), Mondial Relay expliquait ce week-end à l’AFP avoir détecté « des accès non autorisés à sa plateforme ». L’entreprise ne donne pas de détails sur l’origine précise de la fuite ni son ampleur.

« Sur la plateforme, dédiée au suivi des colis et au support client, se trouvaient le nom, prénom, adresse e-mail et postale et numéro de téléphone des clients. Aucune donnée bancaire ou de paiement n’était accessible », expliquent nos confrères de l’AFP, via Sud Ouest. Les clients de l’entreprise « potentiellement exposés » sont contactés.

Mondial Relay affirme avoir informé la CNIL, comme la loi l’y oblige. Elle a également fait part de son intention de déposer plainte.

Les risques en pareilles situations sont un peu toujours les mêmes : du phishing personnalisé, d’autant plus en cette période de fête où les livraisons de colis sont en forte augmentation. Redoublez donc de prudence en cas de correspondance venant de Mondial Relay.

  •  

20 milliards de dollars, débauche des dirigeants… NVIDIA a-t-elle acqui-hire Groq ?

C’est toujours mieux que se faire hara-kiri
20 milliards de dollars, débauche des dirigeants… NVIDIA a-t-elle acqui-hire Groq ?

NVIDIA signe un accord de licence non exclusif avec Groq et récupère au passage une partie des dirigeants et le fondateur. 20 milliards de dollars auraient été déposés sur la table par le géant américain de l’intelligence artificielle. Après cette opération qualifiée de « acqui-hire » par certains, Groq va continuer de vivre de manière indépendante.

La veille de Noël, Groq annonçait un « accord de licence non exclusif » au niveau mondial avec NVIDIA, sur l’inférence de l’intelligence artificielle. Le communiqué ne fait que quelques lignes et annonce « un objectif commun d’élargir l’accès à de l’inférence haute performance et à faible coût ». Attention à ne pas confondre Groq et Grok, l’intelligence artificielle générative de xAI (Elon Musk).

L’inférence est, pour rappel, le terme utilisé pour désigner les opérations liées au traitement des demandes des utilisateurs afin de mettre en pratique des capacités acquises par le modèle de langage après la phase d’apprentissage.

C’est un domaine dans lequel d’autres acteurs de poids veulent se faire une place au Soleil, notamment Amazon avec ses puces Trainium3 et Google avec ses TPU Ironwood, qui est déjà à la septième génération de puces dédiées à l’intelligence artificielle (Anthropic va en utiliser jusqu’à un million pour son IA générative).

Le fondateur et le président partent chez NVIDIA

Groq de son côté développe des LPU, pour Language Processing Unit. Groq veut se différencier de NVIDIA en affirmant que ses puces sont pensées et développées depuis le début pour l’inférence, contrairement aux puces modifiées pour s’adapter à ces nouveaux usages… une manière de tacler au passage NVIDIA avec ses GPU d’abord pensés pour les jeux.

Pour en revenir à l’accord du jour, l’entreprise américaine annonce que « Jonathan Ross, fondateur de Groq, Sunny Madra, président de Groq, ainsi que d’autres membres de l’équipe Groq rejoindront NVIDIA »… mais le communiqué affirme dans le même temps que « Groq continuera de fonctionner en tant qu’entreprise indépendante ». Pour la petite histoire, Jonathan Ross est passé pendant quatre ans chez Google, où il s’occupait notamment des… TPU. Un domaine qu’il connait donc très bien.

Simon Edwards est le nouveau CEO alors qu’il était jusqu’à présent directeur financier (CFO ou Chief Financial Officer). Quel plan stratégique pour l’entreprise ? Qui pour remplacer les départs ? Aucune précision n’est donnée. D’autant que Simon Edwards a fait toute sa carrière dans la finance, notamment pendant plus de 10 ans chez GE.

Non, ce n’est pas un rachat, affirme NVIDIA

Avant l’annonce officielle de Groq, CNBC affirmait que NVIDIA rachetait les actifs de cette entreprise pour 20 milliards de dollars, en se basant sur des déclarations d’Alex Davis, patron de Disruptive, « qui a mené le dernier tour de financement de la startup en septembre ». Alors que la rumeur d’un rachat pur et simple se répandait comme une trainée de poudre, NVIDIA affirmait à TechCrunch (et d’autres) que ce n’est pas un rachat, sans toutefois préciser les contours de l’accord, et sans non plus confirmer les 20 milliards de dollars.

Lors de sa dernière levée de fonds en septembre 2025, Groq revendiquait « 750 millions de dollars de nouveaux financements et une valorisation à 6,9 milliards de dollars ». L’entreprise revendiquait au passage deux millions de développeurs sur sa plateforme. À titre de comparaison, NVIDIA a dépassé les 4 000 milliards de dollars de valorisation en juillet de cette année, puis plus récemment les 5 000 milliards, avant de redescendre à 4 600 milliards environ.

Acqui-hire plutôt qu’un rachat ?

Seules certitudes actuelles : NVIDIA signe un accord de licence non exclusif et récupère des têtes dirigeantes de l’entreprise, qui va continuer d’exister de manière indépendante… au moins sur le papier. Pour l’AFP, via Le Monde, cette opération s’apparente à un acqui-hire, un mot-valise qui est la contraction d’acquisition et recrutement.

C’est un « concept ancien mais remis au goût du jour ces dernières années dans le secteur technologique. Il consiste pour une entreprise à débaucher les principaux cadres d’une autre et, dans certains cas, à s’assurer de l’accès à sa technologie. La manœuvre est parfois assortie d’une prise de participation, mais minoritaire », expliquent nos confrères.

Ils y voient deux avantages pour NVIDIA. Le premier étant que, comme il n’y a pas de prise de contrôle, il n’y a pas de risque de rejet des régulateurs. De plus, avec ce genre de montage, la société prédatrice « s’évite les dépenses substantielles liées au rachat des parts des investisseurs existants ».

Meta a utilisé ce procédé avec Scale AI, rachetant 49 % des parts et récupérant son fondateur (Alexandr Wang). Scale AI a ensuite annoncé licencier 200 personnes, et cessé de travailler avec 500 sous-traitants.

  •  

☕️ Google permet de changer l’adresse Gmail.com liée à son compte

Depuis son lancement le 1ᵉʳ avril 2004, la messagerie Gmail de Google ne permettait pas de changer son adresse. C’est désormais possible, comme le rapporte 9to5Google.

Une page d’aide dédiée a été mise en ligne. Elle indique que « vous pouvez remplacer l’adresse e-mail de votre compte Google se terminant par gmail.com par une nouvelle adresse se terminant par gmail.com ».

Votre ancienne adresse deviendra alors automatiquement une adresse secondaire toujours liée à votre compte Google. Vous pourrez d’ailleurs y revenir « à tout moment ». La nouvelle s’affichera par défaut sur les services Google, mais « les anciennes instances ne seront pas modifiées de manière rétroactive. Cela signifie que certains éléments, tels que les événements d’agenda créés avant le changement, continueront d’afficher votre ancienne adresse e-mail ».

La foire aux questions dresse une liste des limitations. On apprend notamment que l’ancienne adresse email ne peut pas être supprimée et qu’il n’est pas possible de l’empêcher de s’afficher dans le compte Google.

De plus, « vous ne pouvez créer une adresse e-mail de compte Google se terminant par @gmail.com qu’une fois tous les 12 mois et trois fois au total », soit un total de quatre adresses en gmail.com pour votre compte Google (d’ici trois ans minimum).

Cette fonctionnalité est en cours de déploiement « pour tous les utilisateurs », précise Google. Sur notre compte, il n’est pour le moment pas possible de la modifier.

  •  

[Offert] Google Groupes : depuis 20 ans, des données personnelles et bancaires en accès libre

"On m'a dit de venir, pas de venir avec des bagages"
[Offert] Google Groupes : depuis 20 ans, des données personnelles et bancaires en accès libre

En naviguant dans les Google Groupes, il ne faut pas plus de quelques minutes pour tomber sur des informations qui ne devraient pas être librement accessibles : devis, relevés de compte, bilans de santé, rendez-vous médicaux, etc. Parents d’élèves, associations, syndicats de copropriété, entreprises… tout le monde est concerné. Pire encore, certaines données sont en ligne depuis près de 20 ans.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 2 juillet 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


En décembre 2024, nous parlions d’un cas emblématique de Shadow IT : l’équipe d’une clinique privée utilisait Google Groupes pour parler des patients et s’échanger des documents confidentiels avec des données personnelles et médicales. Nous avions contacté l’établissement de santé et le groupe de discussions avait été rendu inaccessible dans la foulée.

Mais en trainant un peu sur les Google Groupes, on se rend rapidement compte que c’est loin, très loin d’être un cas isolé. Il serait quasiment impossible de boucher toutes les brèches potentielles, sauf à rendre privés l’ensemble des groupes, dont certains ont plus de 20 ans.

C’est, en effet, début 2001 que Google rachète Deja.com et sa base de données contenant les discussions des Newgroups, soit pas moins de 500 millions de messages, selon le communiqué de l’époque. Le tout est rendu accessible sur Groups.google.com. C’est encore aujourd’hui l’adresse des Google Groupes.

Ils sont accessibles à condition d’avoir un compte Google et se sont largement développés au fil des années. Ils continuent aujourd’hui d’attirer du monde. Souvent, il s’agit d’avoir un email commun pour partager des informations au sein d’une communauté. Problème, suivant les réglages de visibilité, tout le monde peut lire les emails envoyés au groupe. Comme nous allons le voir, certains utilisent même cette adresse comme email d’identification.

En première ligne : les associations sportives et syndics de copropriété

Les exemples de données accessibles par tout un chacun, nous pourrions presque les multiplier à l’infini, mais nous allons nous limiter à quelques cas emblématiques. Accrochez-vous, certains sont inquiétants ; d‘autant qu’ils peuvent avoir quelques mois comme quelques (dizaines d’) années.

Un club de sport pour commencer. Des dossiers d’inscriptions des membres, des autorisations RGPD et des certificats médicaux sont disponibles en toute liberté sur un groupe ouvert à tous. Nous y retrouvons aussi des comptes rendus des réunions de bureau ainsi que divers documents, certains bancaires.

Voici un exemple d’échange librement accessible :

Ce groupe a été créé en 2013 et il est toujours actif. Nous avons contacté l’association sportive pour lui signaler le problème il y a plusieurs mois déjà, sans aucune réponse ou action de sa part jusqu’à présent.

On retrouve aussi beaucoup de groupes autour des copropriétés et/ou des conseils syndicaux. Devis, querelles de voisinage, photos, codes, etc. tout y passe ou presque. On y retrouve aussi des coordonnées téléphoniques et des adresses de certaines personnes.

L’une d’entre elles est même ingénieure chez Thales depuis plus de 20 ans, selon son profil LinkedIn. On pourrait se dire qu’elle est un minimum rompue aux questions de cybersécurité, mais on retrouve son adresse et ses numéros de téléphones dans un message.

Encore une fois, le souci principal vient de la configuration du Google Groupe qui permet à tout le monde de consulter les messages. Il suffit donc d’envoyer un email à une adresse branchée sur un Google Groupe pour que toute la correspondance soit visible.

Le compte Google Groupe sert à s’identifier dans une banque

Toujours sur le principe des choses à ne pas faire, certains utilisent l’email associé au compte Google Groupes comme identifiant pour les réseaux sociaux et, pire, pour des comptes bancaires, PayPal, des cagnottes…

Résultats des courses, si quelqu’un fait une demande de mot de passe perdu, l’email est envoyé sur l’adresse du Google Groupe… qui est donc automatiquement publié dans le groupe de discussions visible par tout le monde.

Ce n’est pas un cas isolé : en moins de temps qu’il en faut pour le dire, nous avons identifié plusieurs messages du genre.

Il y a également des entreprises qui utilisent l’adresse du compte Google Groupes comme une messagerie interne, pour discuter des devis envoyés à des prospects et clients (avec le détail des prestations évidemment).

Nous avons l’exemple d’une entreprise qui, en plus des discussions internes, s’en sert aussi pour réceptionner les mails de sa banque Qonto et d’abonnements à Starlink. Son activité ? Elle vend des solutions d’accès à Internet par satellite de SpaceX.

Nous avons voulu vérifier si la procédure fonctionnait. En l’espace de quelques secondes, les emails de réinitialisation de mot de passe pour Qonto et Starlink sont arrivés sur le Google Groupes, visible par tout le monde…

« Pas seulement par simplicité, mais par nécessité »

Contacté par Next, l’administrateur du groupe a toutefois rapidement fermé les vannes. Il nous explique avoir « choisi cela non pas seulement par simplicité, mais par nécessité » :

« J’ai besoin d’une multitude d’adresses email différentes pour les différents services que j’utilise sans que je puisse utiliser les mêmes à chaque fois. Donc, soit je m’achète un domaine et je me crée des tonnes d’adresses email, soit je détourne l’usage de ce groupe pour me rendre destinataire de tous ces services ».

À lire les emails envoyés dans le Google Groupes, on se rend compte que l’entreprise dispose déjà d’un nom de domaine et d’un site, bien que ce soit principalement une coquille vide.

Bilan de santé et de fertilité

Dans le domaine de la santé, un service dédié à la reproduction est aussi sur Google Groupes, avec le planning des interventions, des comptes rendus opératoires, des résultats d’analyses, etc. Nous avons contacté il y a plusieurs mois le médecin responsable de cette unité (hors Europe), sans réponse. Les premiers messages remontent à 2022, les derniers ont quelques jours.

Il s’agit là de comptes récents, dont nous avons à chaque fois tenté de contacter les responsables pour leur expliquer le problème. Mais il y a également d’autres groupes, laissés à l’abandon depuis des années, mais toujours librement accessibles.

Des groupes abandonnés depuis 10, 15, 20 ans…

On y retrouve une multitude d’informations qui n’ont rien à faire en ligne, à la vue de tous. Problème, il y a très peu de chances de contacter l’administrateur d’un groupe créé en 2010 et inactif depuis plus de 15 ans… D’autres remontent même aux années 2000 et sont encore accessibles.

Or, Google Groupes regorge de groupes de parents d’élèves, d’associations locales, de syndicats, etc. Chaque année scolaire, chaque événement, chaque action peut être l’occasion de créer un groupe et de le laisser tomber rapidement par la suite. Souvent, les responsables ne savent peut-être même pas que les informations sont librement accessibles. Qui plus est, les pièces jointes envoyées (PDF, images…) sur les Google Groupes sont hébergées par Google, et donc toujours téléchargeables, des années plus tard.

Pour ne rien arranger, les questions du respect de la vie privée, des informations personnelles et du fait qu’Internet n’oublie rien, n’étaient pas aussi présentes dans les années 2000 et 2010 qu’elles le sont aujourd’hui. Beaucoup de groupes se sont lancés (et se lancent encore) pour « simplifier » la discussion entre plusieurs personnes d’horizons différents. En témoignent d’ailleurs certains messages d’ouverture des groupes qui vantent la simplicité d’utilisation du service pour leurs usages, sans penser une seconde à la confidentialité.

Sur la plupart des groupes qui ne sont plus actifs, il y a quand même des messages parfois publiés au fil du temps : du spam, en masse, pour des sites plus que douteux.

La (molle) réponse de Google

L’ampleur du phénomène est telle qu’il nous est impossible de contacter l’ensemble des groupes divulguant des données personnelles. Nous avons contacté plusieurs associations, leur avons expliqué comment faire pour limiter la visibilité, mais face à la déferlante de résultats, ce n’est qu’une petite goutte d’eau. Nous ne parlons là que des groupes récents, la chance d’avoir une réponse sur ceux abandonnés depuis plus de 10 ans est proche de zéro.

Une autre approche serait de basculer, par défaut, l’ensemble des groupes sur une visibilité limitée aux membres. C’est le cas pour les nouveaux groupes lors d’une création, comme nous avons pu le confirmer encore récemment.

Nous avons aussi contacté Google, en lui demandant s’il comptait agir sur cette problématique et, si oui, de quelle manière. Comme indiqué précédemment, Google nous rappelle que « les Groupes sont privés par défaut, et ce sont les propriétaires de ces Groupes qui contrôlent ces paramètres ».

« S’il y a des exemples de contenus de Groupe qui violent les règles de contenu ou nos conditions d’utilisation, les utilisateurs peuvent alerter sur le sujet en suivant ce process (par groupe ou par message) », ajoute Google. Pas de changement de masse sur les Groupes donc, mais un traitement au cas par cas suite à des signalements.

Dans le règlement relatif au contenu de Google Groupes, un paragraphe est dédié aux « informations personnelles et confidentielles : il est interdit de communiquer les informations personnelles et confidentielles d’autrui telles que les numéros de carte de paiement, les numéros de Sécurité sociale, les numéros de téléphone sur liste rouge et les numéros de permis de conduire. Sachez que, dans la plupart des cas, les informations déjà disponibles sur Internet ou dans des archives publiques ne sont pas considérées comme privées ou confidentielles selon notre règlement ».

Hasard ou pas du calendrier, Google vient d’annoncer des changements pour les Groupes avec la mise en place pour tout le monde d’une option permettant de les verrouiller pour « empêcher les modifications sensibles ». Quand un groupe est « locked », cela « restreint considérablement la possibilité de modifier les attributs du groupe, tels que le nom et l’adresse e-mail) et les membres ». Cette fonction permet d’« éviter qu’il ne se désynchronise avec une source externe ».

Une fois activé, seuls certains administrateurs peuvent modifier le nom, la description, l’adresse e-mail, les alias, ajouter ou retirer des membres, supprimer le groupe, configurer une restriction d’adhésion, qui peut rejoindre le groupe, ce qu’il en est pour les membres externes, etc.

Dans tous les cas, cela ne change rien pour les données déjà exposées sur Internet dans les Google Groupes.

  •  

☕️ Les services de La Poste sont de retour, mais la cyberattaque est toujours en cours

Le mercredi 24 décembre au matin, La Poste annonçait sur X un retour partiel à la normale : « nos services Banque en ligne et App mobile sont rétablis ». La société ajoutait que ses équipes restaient « pleinement mobilisées ». En effet, la cyberattaque (DDoS) était toujours en cours et, quatre jours plus tard, elle n’est toujours pas terminée.

C’est en effet le sens du message affiché sur laposte.fr ce vendredi 26 matin : « L’attaque informatique est toujours en cours. L’accès à nos services en ligne s’améliore progressivement. Les opérations bancaires et postales en bureau de poste fonctionnent normalement. La Poste met tout en œuvre pour rétablir le service aussi vite que possible ».

À l’AFP (via Le Monde), La Poste expliquait hier soir que le suivi de colis sur le site avait repris, mais en ajoutant qu’il « peut rester des colis qui n’y sont pas encore référencés, mais c’est très marginal ». C’était le dernier service de La Poste en mode dégradé. Le groupe affirme que 5,5 millions de colis ont été acheminés depuis lundi matin, dont « 2 millions pour la seule journée du 24 décembre ».

La Poste a évidemment déposé plainte auprès du parquet de Paris, qui a ouvert une enquête pour des « faits d’entrave au fonctionnement d’un système de traitement automatisé de données ». Le groupe pro-russe NoName057(016) a revendiqué l’attaque, mais ce genre de revendications est à prendre avec de grosses pincettes.

  •  

☕️ Contrôle parental : après Apple, Google se fait épingler par l’ANFR

Avec la loi n° 2022 – 300 du 2 mars 2022, l’ANFR a hérité de la vérification du contrôle parental. Depuis le 13 juillet 2024, cela concerne « l’ensemble des nouveaux appareils connectés à internet mis sur le marché », notamment les smartphones.

L’Agence nationale des fréquences a contrôlé le Pixel 9 de Google : « Les analyses ont mis en évidence que, dans certains cas d’usage concernant les mineurs de plus de 15 ans, l’appareil ne respectait pas l’exigence réglementaire consistant à proposer l’activation du dispositif de contrôle parental lors de la première mise en service de l’équipement ».

Google a été mis en demeure de corriger le tir, ce qui a été fait via la mise à jour BP3A.251105.015 du 14 novembre 2025. Elle est déployée sur les Pixel 7 à 9, ainsi que les Pixel Tablet et Fold, avec divers autres correctifs.

« L’ANFR a vérifié l’efficacité de cette mesure », mais précise : « Toutefois, l’ANFR attire l’attention des utilisateurs sur le fait que, dans certains cas, cette activation, du fait qu’elle se poursuit au-delà de la procédure d’initialisation de l’appareil, peut être abandonnée sans que ceux-ci en aient clairement manifesté l’intention ».

Il y a tout juste un mois, c’était l’iPhone 16 qui était épinglé par l’ANFR pour le même genre de problème. Apple aussi avait corrigé le tir. Que ce soit chez Apple ou Google, on peut supposer que les modifications ne concernent pas que les deux smartphones testés (iPhone 16 et Pixel 9), mais plus largement iOS et Android.

  •  

[Tuto Next] 1 To de stockage offert : comment sauvegarder ses données sur le S3 Next

Plus d’excuse pour ne pas sauvegarder ses données !
[Tuto Next] 1 To de stockage offert : comment sauvegarder ses données sur le S3 Next

Avec votre abonnement Next vous avez désormais droit à 1 To de stockage offert (et même davantage selon votre ancienneté), mais vous ne savez pas comment en profiter ? Voici un tuto pour configurer un ordinateur (Windows, macOS, Linux) ou un NAS.

moji (qui a racheté Next il y a un peu plus de deux ans) nous permet de proposer à nos abonnés Premium de profiter de 1 To de stockage S3, avec 100 Go supplémentaires par année d’ancienneté de votre compte.

C’est du stockage « compatible S3 », utilisable par de très nombreux services pour sauvegarder des données. Pour ce lancement en pleine période de fêtes, l’accès est limité aux cent premiers lecteurs, mais les vannes seront ouvertes plus largement dès le mois de janvier.

1 To de S3 offert et les explications pour l’exploiter au mieux !

Pour profiter du To offert, il faut commencer par demander vos codes d’accès. Cela se passe dans votre compte Next. Si vous disposez d’un abonnement actif, un nouvel onglet « Stockage S3 » est désormais disponible entre les paramètres et la liste des utilisateurs bloqués.

Sur cet onglet, il vous suffit de demander l’activation de votre espace de stockage, puis de valider les conditions d’utilisation. Veillez à bien les lire et les comprendre (promis, elles ne sont pas longues).

Point important et répété par la suite, votre clé privée n’est proposée qu’une seule fois lors du parcours, et uniquement à la création de votre espace (via le téléchargement d’un fichier texte) ! Il ne faut pas la perdre, sous peine de ne plus pouvoir accéder à vos données. Ni Next, ni moji, n’ont la moindre trace de cette clé.

En cas de perte, vous disposerez (notez l’emploi du futur, la fonctionnalité arrivera rapidement, promis !) d’une option permettant de réinitialiser votre espace de stockage. Elle permettra de disposer d’une nouvelle clé privée, et de mettre en place une nouvelle sauvegarde, mais toutes les données hébergées sur votre sauvegarde précédente seront supprimées.

Par défaut, la capacité de stockage est de 1 To (1024 Go) pour les abonnés Premium, avec 100 Go supplémentaires par année d’ancienneté du compte (on parle bien du compte, pas du statut Premium), au travers d’un bucket unique (puisque le service est à usage individuel).

Une fois votre espace de stockage créé, vous retrouvez sur l’onglet dédié de votre compte les informations nécessaires à son utilisation, à l’exception donc de la fameuse clé privée. Un tableau récapitule les infos dont vous aurez besoin pour paramétrer votre sauvegarde : l’adresse du service de stockage, une clé d’accès publique, un paramètre de région, et le nom du bucket (s3-next-ink), qui n’est pas modifiable.

Dans cet article, nous vous détaillons comment mettre à profit ces informations pour créer une sauvegarde automatisée, sur votre espace de stockage Next, à partir d’un ordinateur sous Windows, macOS ou Linux, mais aussi depuis un NAS QNAP ou Synology. Ce ne sont que quelques exemples, il n’y a évidemment aucune limitation sur la manière d’utiliser votre espace S3.

Nous expliquons la procédure pour le cas des utilisateurs de Next sur cet espace offert dans le cadre de l’abonnement, mais notre tuto fonctionne pour n’importe quel service de stockage exploitant S3. Dans ce cas, il faut simplement adapter l’adresse du serveur S3, les clés et éventuellement le nom bucket, mais le reste de la procédure est identique. Il est d’ailleurs possible d’ajouter le stockage Next comme une sauvegarde distante supplémentaire, en plus de celles que vous avez déjà.

Dans tous les cas, pensez à chiffrer vos données avant de les envoyer dans le cloud, que ce soit chez Next ou n’importe où ailleurs. Toutes les solutions présentées ici permettent d’activer le chiffrement côté client.

Pour sauvegarder ses données depuis un ordinateur, nous allons utiliser une seule « application » dans le cadre de ce tuto : Duplicati. Elle est disponible aussi bien sur Windows, macOS et Linux. Une image Docker est aussi proposée. L’interface est donc la même pour tout le monde. Pour ne rien gâcher, le code source est disponible sur GitHub.

Windows, macOS, Linux : sauvegarder et chiffrer ses données

La version gratuite est suffisante pour un usage grand public, avec jusqu’à cinq machines prises en charge, 200 sauvegardes et un an d’historique des logs. Une version à 5 dollars par mois et par machine permet d’avoir des messages d’alerte, des webhooks, une analyse par IA des sauvegardes, un accès prioritaire au support, etc.

Une fois installée, la particularité de Duplicati est de fonctionner en ligne de commande ou sous la forme d’un site web accessible à une adresse locale (c’est-à-dire depuis votre ordinateur) via votre navigateur Internet (Brave, Chrome, Edge, Firefox, Opera, Safari…) : http://127.0.0.1:8200/.

Pour créer une sauvegarde, cliquez sur « Add + » dans la partie Backups et laissez-vous guider. Pensez à activer le chiffrement dans le second menu. C’est le cas par défaut avec AES sur 256 bits, mais vous pouvez aussi passer sur GNU Privacy Guard (GnuPG). Pensez à sauvegarder votre mot de passe, faute de quoi vous ne pourrez plus accéder à vos données.

Dans la page Destination, choisissez Compatible S3. L’adresse du serveur (on parle aussi d’endpoint) est s3.fr1.next.ink. Saisissez ensuite votre access et secret key récupérés depuis votre compte Next. Pensez à ajouter un dossier pour éviter que les sauvegardes se retrouvent à la racine de votre bucket, puis cliquez sur « Test destination » pour vérifier que tout est bon avant d’aller plus loin.

L’écran suivant vous permet de sélectionner les dossiers et fichiers de votre ordinateur à sauvegarder. Chacun sélectionnera en fonction de ses besoins. Vous pouvez ajouter des filtres et/ou exclure certains fichiers, comme ceux dépassant une certaine taille.

La page suivante permet de régler la récurrence des sauvegardes, aussi bien au niveau des jours que des heures. Dans les options, deux paramètres. Le premier concerne la taille des volumes, à 50 Mo par défaut. Duplicati découpera les sauvegardes par morceaux de 50 Mo avant de les uploader sur S3. Laissez la valeur par défaut sauf si vous avez des besoins particuliers et que vous savez ce que vous faites. Le deuxième paramètre permet de mettre en place une rotation des sauvegardes.

Si vous lancez une sauvegarde à la fin du processus, vous pouvez voir l’état de l’avancement dans le haut de la page.

Synology : sauvegarder et chiffrer ses données avec Hyper Backup

Chez Synology, la sauvegarde des données de son NAS sur un espace de stockage S3 passe par l’application Hyper Backup. Nous l’avons installé sur un NAS DiskStation 1520 + dont nous disposons. Pour mettre en place une tâche de sauvegarde, cliquez sur le bouton « + » dans le menu de gauche de Hyper Backup.

Il faut ensuite cocher « Dossiers et paquets » puis S3 Storage dans le menu Cloud Service. L’adresse du serveur S3 doit être personnalisée avec s3.fr1.next.ink. Ajoutez vos clés d’accès et secrète, puis sélectionnez votre bucket (l’interface vous le propose automatiquement) et modifiez le répertoire si besoin. Par défaut c’est le nom de votre NAS avec « _1 » en plus à la fin pour la première tâche de sauvegarde, « _2 » pour la seconde, etc.

La page suivante vous permet de sélectionner les répertoires à sauvegarder, et par ailleurs d’ajouter des filtres pour exclure ou inclure certains fichiers par exemple. Vous pouvez aussi sauvegarder des applications (avec leurs paramètres).

La page suivante est celle des paramètres où l’on peut activer le chiffrement côté client, c’est-à-dire avant d’envoyer les données sur un stockage S3. Saisissez un mot de passe (Hyper Backup impose une longueur minimum de 8 caractères) et cliquez sur suivant. Activez et ajustez une rotation des sauvegardes si besoin, puis validez le résumé avec le bouton « Effectué ».

La configuration est terminée, vous pouvez lancer la sauvegarde immédiatement si vous le désirez.

QNAP : sauvegarder et chiffrer ses données avec Hybrid Backup Sync

Sur les NAS QNAP, la sauvegarde des données dans un bucket S3 passe par l’application du fabricant Hybrid Backup Sync 3 (ou HBS 3). Comme celle de Synology, elle permet aussi de mettre en place des sauvegardes locales et distantes, mais nous allons nous concentrer sur celle dans le cloud. N’ayant pas de NAS physique QNAP récents sous la main, nous avons installé QuTScloud sur une machine virtuelle, nous permettant ainsi de la transformer en NAS QNAP.

Dans HBS 3, rendez-vous dans la partie « Sauvegarder et Restaurer », puis cliquez sur créer une tâche de sauvegarde. Sélectionnez le ou les dossiers à sauvegarder, puis cliquez sur suivant. Dans le stockage de destination, descendez dans la partie Serveur Cloud puis choisissez « Compatible Amazon S3 et S3 ».

Le fournisseur de services n’est pas Amazon Web Services (AWS) comme indiqué par défaut, mais moji. Il faut donc le changer et choisir Compatible S3. Entrez l’adresse suivante : s3.fr1.next.ink et vos clés. Sur la page suivante, choisissez votre bucket (vous n’en avez qu’un seul et il n’est pas possible d’en créer de nouveau) et laissez le reste par défaut, sauf à savoir exactement ce que vous faites et pourquoi. Cliquez sur Sélectionner.

Le menu suivant vous permet de choisir ou créer le répertoire pour sauvegarder les données de votre NAS QNAP. Nous avons créé le répertoire Sav-QNAP dans notre bucket grâce à la petite icône en forme de dossier avec un « + » dedans.

Un menu récapitule enfin les informations de la tâche de sauvegarde. Si tout est bon, cliquez sur suivant et choisissez si vous le désirez une planification des tâches (périodique, quotidienne, hebdomadaire, mensuelle).

Pensez à faire un tour sur le menu à gauche, vous pouvez définir la gestion des versions et la vérification de l’intégrité des données. Il y a la possibilité de filtrer les fichiers, d’inclure ou d’exclure certains fichiers, de compresser les données et enfin d’utiliser ou non la déduplication.

De nouveau sur la gauche, allez faire un tour dans Politiques pour activer le chiffrement côté client afin de chiffrer vos données avant de les envoyer. Entrez votre mot de passe et pensez à le sauvegarder. Si vous le perdez, l’accès à vos données ne sera plus possible ; notez-le précieusement dans un endroit sûr.

C’est la dernière ligne droite. Vérifiez les informations et créez la tâche de sauvegarde si tout est bon. Lancez-la immédiatement si vous le souhaitez.

C’est à vous ! Pensez à chiffrer !!

Une fois les différentes sauvegardes en place, elles s’exécuteront automatiquement en fonction de la récurrence que vous avez demandée. Vous pouvez multiplier les ordinateurs et les NAS, il n’y a pas de limite. La seule limite étant la capacité de stockage S3 : 1 To pour tous les abonnés Next, avec 100 Go de plus par année d’ancienneté.

On ne le répétera jamais assez, mais chiffrez vos données AVANT de les envoyer dans le cloud, que ce soit chez moji ou n’importe qui d’autre. Duplicati est un exemple, mais bien d’autres solutions sont possibles. Le S3 de moji est évidemment agnostique de l’application. Vous avez l’adresse du serveur (endpoint) et les clés, et êtes donc totalement libre de vos choix.

  •