La distribution Tails, spécialisée dans la sécurité, est disponible en version 7.0 Release Candidate. Cette version RC1 est donc proche de la version finale (prévue le 16 octobre), même si elle comporte encore quelques problèmes spécifiques, comme un démarrage plus long.
Les principales nouveautés de cette mouture majeure se concentrent dans une vaste modernisation de la base. Tails 7.0 se base en effet sur Debian 13 (« Trixie »), dont la sortie est désormais imminente. Le noyau utilisé sera une version 6.12 LTS.
La quasi-totalité des paquets sera mise à jour. L’environnement par défaut, GNOME, passera ainsi en version 48, y compris avec les nouvelles applications Console et Loupe. On y retrouvera également Tor 0.4.8.17, Thunderbird 128.13 ESR, OnionShare 2.6.3, Kleopatra 24.12, KeePassXC 2.7.10, GIMP 3.0.4, Inkscape 1.4, Audacity 3.7.3 et Electrum 4.5.8.
Tails 7.0 corrige également de nombreux problèmes, que l’on peut consulter depuis cette page. On note par exemple la résolution d’un vieux bug sur la sélection du clavier dans certaines langues, qui existait depuis plusieurs versions de la distribution. Enfin, Tails 7.0 fait le ménage dans les paquets embarqués. Par exemple, unar, aircrack-ng et sq disparaissent de l’image ISO.
Bien qu’il s’agisse d’une Release Candidate, son utilisation n’est pas recommandée en environnement de production. Cette version n’est proposée qu’à des fins de tests.
OVHcloud vient de lancer ses nouvelles offres de serveurs privés virtuels (VPS). Nettement plus agressives sur le plan tarifaire, elles intègrent également des services supplémentaires, notamment pour la sauvegarde.
Les nouvelles configurations sont disponibles depuis quelques heures. Elles sont au nombre de six, avec une tarification plus offensive. L’offre de base, nommée VPS-1, présente ainsi une configuration de 4 vCores (x86), 8 Go de mémoire, 75 Go de SSD et 400 Mb/s de bande passante, à partir de 4,58 euros TTC par mois avec engagement de 12 mois. Ce prix inclut le trafic illimité et la sauvegarde quotidienne automatique, alors que cette dernière était auparavant en option.
Des configurations plus puissantes, moins chères
Les configurations s’étalent ainsi jusqu’à VPS-6, qui propose 24 vCores, 96 Mo de mémoire et 400 Go de SSD pour 49,98 euros TTC avec engagement de 12 mois. Le tarif intègre les mêmes services que précédemment, mais la bande passante passe à 3 Gb/s, toujours avec trafic illimité.
OVHcloud nous a indiqué que toutes les offres présentent des cœurs x86. Il peut s’agir de Xeon, mais leur disponibilité n’est pas garantie. Les précédentes offres permettaient de choisir entre des CPU AMD ou Intel, ce n’est plus le cas. Toutes les configurations peuvent être commandées sans engagement, au prix de tarifs un peu plus élevés.
Si l’on compare avec l’offre qui était disponible jusqu’à aujourd’hui – et qui a aussitôt disparu – la différence est flatteuse pour les nouvelles configurations. L’une des formules les moins chères, Value, proposait en effet un seul vCore (mais en Xeon garanti), 2 à 4 Go de mémoire, 40 à 80 Go de SSD et une bande passante de 250 Mb/s (trafic illimité) pour un tarif qui débutait à 5,92 euros TTC avec un engagement de 24 mois. L’écart est donc significatif.
Toutes les nouvelles configurations sont proposées par défaut avec Ubuntu 25.04, mais on peut choisir Debian 12, Fedora 42, AlmaLinux 9, Rocky Linux 9 ou CloudLinux gratuitement (ou des versions plus anciennes dans certains cas si besoin). Windows Server est proposé en option à 9 euros TTC (attention, tous les tarifs d’OVHcloud sont exprimés hors taxes sur le site), faisant significativement grimper la facture.
Encore un peu d’attente pour les Local Zones…
Ces offres ne sont disponibles pour l’instant que dans une partie des datacenters de l’entreprise. En France, on peut choisir par exemple entre Strasbourg et Gravelines. Les nouvelles configurations VPS ne sont par ailleurs pas disponibles dans les Local Zones (LZ). Ces dernières sont pour rappel des espaces de collocation, où OVHcloud dispose d’installations, mais dans un centre ne lui appartenant pas.
Interrogée, l’entreprise nous a indiqué que le déploiement des nouvelles offres VPS dans les Local Zones devait arriver en septembre. Dans un tweet, Octave Klaba, fondateur et président d’OVHcloud, indique que ce type d’installation, nommé Low Latency, sera facturé 1 euro de plus par mois. Là encore, l’entreprise nous a confirmé qu’il s’agissait bien de la possibilité d’installer son VPS dans une Local Zone, le nom Low Latency reflétant la capacité de choisir le centre le plus proche de chez soi.
… et quelques limitations
à l’heure où nous écrivons ces lignes, contrairement à ce qui est indiqué dans la FAQ des nouvelles offres, les VPS en Local Zones disposeront bien de la protection anti-DDoS et de la sauvegarde quotidienne automatique. En revanche, certaines options plus avancées ne seront pas disponibles, comme les IP additionnelles et le load balancing.
D’autres limitations sont annoncées, comme la compatibilité avec les distributions Linux exclusivement : les VPS dans les Local Zones « ne prennent actuellement pas en charge Windows, Plesk, cPanel ou Docker ». La configuration matérielle reste par contre la même.
Deux options sont également communes aux installations classiques et en Local Zones : la sauvegarde automatique premium, qui permet un roulement sur 7 jours, et les Snapshots, qui capturent l’état du serveur pour pouvoir le restaurer plus tard si besoin. Ces deux options sont facturées respectivement 2,21 et 0,60 euro TTC par mois.
Notez enfin que dans le cas d’une installation dans la région Asie/Pacifique, OVHcloud précise : « Les VPS en Asie-Pacifique (Mumbai, Singapour, Sydney) disposent d’un quota mensuel de trafic : 1 To pour les VPS-1 et VPS-2, 3 To pour les VPS-3 et VPS-4, 4 To pour les VPS-5 et VPS-6. Au-delà, la bande passante est limitée à 10 Mbit/s ».
La suite bureautique open source continue son bonhomme de chemin en ajoutant des fonctions. La nouvelle version 9.0.4 affiche ainsi plusieurs nouveautés, dont un agent IA.
On ne parle pas vraiment d’un agent IA prêt à servir. L’agent est disponible sous forme d’un plug-in, qu’il faut activer dans l’onglet dédié. Dans le gestionnaire de plug-ins, il faut ensuite se connecter à un modèle d’IA grâce à une clé pour OpenAI, Anthropic, Mistral ou autre. Les capacités sont donc externes, mais peuvent ensuite être utilisées sur le contenu des documents. On retrouve alors des capacités classiques : reformulation, génération, explication de termes, synthèse, présentation, création de graphiques…
Les autres nouveautés sont plus classiques avec par exemple l’intégration d’un plus grand nombre de plug-ins, comme Thesaurus, OCR, Typograf et Doc2md. La nouvelle mouture simplifie également le maniement des zones d’édition restreintes, crée des fichiers marqueurs pour empêcher d’autres applications d’accéder aux documents déjà ouverts et bloque par défaut le code JavaScript trouvé dans les propriétés personnalisées d’un document.
La mouture 9.0.4 corrige en outre une série de bugs, dont un problème d’affichage avec la barre de défilement lorsqu’on utilise le thème Moderne sombre. On trouve aussi des correctifs pour une fuite de mémoire qui pouvait survenir à la lecture d’un tableau croisé dynamique dans certains fichiers XSLX, un blocage de l’éditeur lors de la copie de lignes ou de colonnes dans certains navigateurs, ou encore l’impossibilité parfois d’ouvrir des fichiers depuis Google Drive quand le compte était connecté via l’assistant GNOME.
Comme d’habitude, la suite se met à jour automatiquement. Elle est pour rappel disponible sur toutes les plateformes principales : Windows, macOS, Linux, Android et iOS.
Dans un message aussi court que direct, Donald Trump appelle à la démission du nouveau CEO d’Intel. Il est question d’inquiétude pour « la sécurité nationale des États-Unis » et de liens avec des entreprises, l’armée et le parti communiste chinois.
Depuis mars de cette année, Lip-Bu Tan (un Américain de 65 ans né en Malaisie) a pris les suites de Pat Gelsinger, licencié le 1ᵉʳ décembre, alors qu’Intel accumulait des pertes sur plusieurs trimestres et vivait une situation financière difficile avec des licenciements massifs.
C’est encore le cas avec 15 % de licenciements d’ici à la fin de l’année, l’annulation d’investissements en Europe et des pertes nettes de 2,9 milliards de dollars au dernier trimestre (en partie à cause du plan de restructuration). Actuellement, Intel est valorisé près de 90 milliards de dollars, contre plus du double cinq ans auparavant.
C’est dans ce climat difficile que Donald Trump a publié un message lapidaire sur son réseau social : « Le CEO d’Intel fait face à un grave CONFLIT d’intérêts et doit immédiatement démissionner. Il n’y a pas d’autre solution à ce problème ».
Cette annonce intervient après que le sénateur républicain de l’Arkansas Tom Cotton a envoyé une lettre au président du Conseil d’administration d’Intel (Frank D. Yeary) « avec des questions sur les liens du nouveau CEO Lip-Bu Tan avec des entreprises chinoises et une récente affaire pénale impliquant son ancienne société Cadence Design », une entreprise américaine de CAO, comme le rapporte Reuters.
Des questions sur « la sécurité nationale des États-Unis »
Le sénateur y fait part de « son inquiétude quant à la sécurité et à l’intégrité des opérations d’Intel et à son impact potentiel sur la sécurité nationale des États-Unis ». Tom Cotton ne s’arrête pas en si bon chemin : « Lip-Bu Tan contrôlerait des dizaines d’entreprises chinoises et détient des parts dans des entreprises chinoises de semi-conducteurs et d’industrie avancée, au moins huit de ces entreprises auraient des liens avec l’armée chinoise », rapporte l’AFP.
Il détaille aussi son propos sur Cadence Design : l’entreprise « avait « plaidé coupable pour avoir vendu illégalement » des produits « à l’Université de l’armée chinoise et avoir transféré sa technologie à une entreprise chinoise sans avoir obtenu de licence » », expliquent nos confrères. Selon Le Monde, l’entreprise « a accepté de verser 140 millions de dollars (près de 120 millions d’euros) », mais « il n’est pas avéré que M. Tang ait été au courant de ces fraudes ».
Qu’en est-il actuellement ?
Il demande au conseil d’administration du fondeur s’il avait « exigé de Lip-Bu Tan qu’il retire ses investissements des entreprises de puces en Chine liées à l’armée ou au Parti communiste, et s’il avait dévoilé d’autres liens avec des entreprises chinoises ».
Le sujet n’est pas nouveau, après son arrivée à la tête d’Intel, le parcours et les investissements de Lip-Bu Tan avaient été passés au crible par plusieurs médias. Reuters expliquait ainsi en avril que le nouveau CEO avait « investi dans des centaines d’entreprises chinoises », certaines en liens avec l’armée.
La lettre ouverte de Lip-Bu Tan
Dans un communiqué transmis à nos confrères, le fondeur indique qu’« Intel et M. Tan sont profondément attachés à la sécurité nationale des États-Unis et à l’intégrité de leur rôle dans l’écosystème de défense américain ». De plus amples précisions seront données dans la réponse au sénateur.
Lip-Bu Tan a adressé une lettre ouverte à ses employés : « Beaucoup de désinformations ont circulé concernant mes anciens postes chez Walden International et Cadence Design. Je veux être absolument clair : en plus de 40 ans dans l’industrie, j’ai établi des relations dans le monde entier et à travers tout notre écosystème diversifié – et j’ai toujours opéré dans le respect des normes juridiques et éthiques les plus élevées ».
Il termine avec un message pour le sénateur et Donald Trump : « Nous collaborons avec l’administration pour régler les questions qui ont été soulevées et nous assurer qu’elle dispose des faits. Je partage pleinement l’engagement du président à faire progresser la sécurité nationale et économique des États-Unis, j’apprécie son leadership pour faire avancer ces priorités et je suis fier de diriger une entreprise qui est si centrale dans ces objectifs ».
Depuis 2018, et le départ de Brian Krzanich qui était arrivé en 2013, Intel a changé régulièrement de CEO. Bob Swan de 2018 à 2021, puis Pat Gelsinger de 2021 à 2023 et désormais Lip-Bu Tan. Les phases de transition étaient à chaque fois relativement longues, la quête d’un CEO chez Intel n’est pas chose aisée visiblement.
GPT-5 est là, après une attente de plusieurs mois et de nombreuses rumeurs. Premier modèle unifié d’OpenAI, il affiche de grandes ambitions et veut mettre tout le monde d’accord. Selon l’entreprise, il est le meilleur partout, se trompe moins et est plus sobre.
Le nouveau modèle phare d’OpenAI a été présenté hier soir. GPT-5 est le premier modèle unifié de la société : il combine les réponses rapides habituelles de la série GPT aux capacités de raisonnement des modèles o. La présentation de l’entreprise fait la part belle aux superlatifs, le nouveau modèle devrait marquer le début d’une nouvelle ère pour OpenAI.
Un modèle unifié
En tant que modèle unifié, GPT-5 doit décider de lui-même quel degré de précision apporter aux réponses. Cette évaluation doit déboucher sur le choix de la branche vers laquelle diriger le traitement, selon la complexité de la requête. Ce fonctionnement est valable pour l’intégralité des demandes, GPT-5 se voulant le modèle à tout faire d’OpenAI, que ce soit pour des questions d’ordre général, de la génération de code ou de l’analyse de fichiers multimédia, le modèle acceptant à peu près tout en entrée.
Durant la présentation, Sam Altman n’a pas hésité à qualifier GPT-5 de « meilleur modèle au monde ». Il représente « une étape significative » pour l’entreprise dans sa quête d’une intelligence artificielle générale (AGI).
Et pour s’assurer que le modèle fasse la différence, il est disponible pour l’ensemble des utilisateurs, gratuits ou payants, même si les fonctions les plus avancées sont réservées – sans surprise – aux comptes payants. GPT-5 est en effet disponible en versions basique et Pro, la seconde étant réservée aux détenteurs d’un abonnement. À noter que les capacités de « raisonnement », sont disponibles dans les deux versions, mais que leur usage est limité en version gratuite.
OpenAI vante les performances de son modèle
L’entreprise affirme que GPT-5 fait mieux que tous les concurrents, y compris les modèles d’Anthropic dans des domaines comme le développement logiciel, d’ordinaire la chasse gardée de l’IA Claude. Sam Altman évoque même des « performances de pointe », surpassant les autres modèles sur l’ensemble des benchmarks. La version Pro du modèle affiche systématiquement de meilleurs résultats que le GPT-5 de base.
Sur le test AIME 2025 de mathématiques par exemple, GPT-5 affiche dans sa version classique un score de 61,99 %, tandis que la mouture Pro grimpe à 96,7 %. Si on lui adjoint Python et que l’on active le raisonnement, les chiffres s’envolent respectivement à 99,6 et 100 %. Sur le test Humanity’s last exam, réputé difficile, les scores vont de 6,3 à 42 %, s’étalant de la version basique à la version Pro avec Python et la recherche avec liste de blocage. Sur ce test, il n’est dépassé que par Grok4 Heavy de xAI, qui a atteint 44,4 %.
Sur le développement, où OpenAI est attendue au tournant, le nouveau modèle affiche un score SWE-benchmark Verified de 74,9 % avec raisonnement. C’est légèrement supérieur qu’Opus 4.1 (74,5), lancé il y a quelques jours à peine. Ce qui permet en théorie à OpenAI de faire au moins jeu égal avec Anthropic dans un domaine vu comme très porteur, notamment car il alimente le « vibe coding », au cœur de nombreuses attentions.
Les performances sont également visibles dans le temps de traitement. Selon OpenAI, les raisonnements de GPT-5 sont « plus rapides et plus efficaces ». Dans ce mode, les performances du nouveau modèle dépassent celles d’o3 en utilisant 50 à 80 % de jetons de moins en sortie, sur toutes les capacités. En clair, GPT-5 doit faire mieux, en moins de temps et pour moins cher.
GPT-5 est moins « flagorneur »
OpenAI assure que son nouveau modèle est « moins agréable ». L’affirmation peut paraitre étonnante, mais l’entreprise a constaté une certaine lassitude dans le ton des réponses données. Elles flattent souvent l’utilisateur, par exemple en affirmant que les questions posées sont très pertinentes, ou en répondant à l’utilisateur qu’il a « tout à fait raison » à la suite d’une remarque. « Cela devrait ressembler moins à « parler à l’IA » qu’à discuter avec un ami utile doté d’une intelligence de niveau doctorat », vante OpenAI.
GPT-5 se veut donc moins flatteur, plus direct et sobre, tout en utilisant moins d’emojis « inutiles ». Le « taux de flagornerie », mesuré par OpenAI, serait ainsi passé de 14,5 à moins de 6 %.
Cette ambiance générale peut se compléter avec quatre nouveaux modes pour modifier le ton des réponses : Cynic, Robot, Listener et Nerd. En fonction du mode choisi, le style des réponses évoluera, se fera plus ou moins plaisant, Cynic pouvant parfois se montrer piquant dans ses réponses, là où Listener (Attentionné) sera plus doux. Ces « personnalités » sont disponibles en options et désactivées par défaut.
Parmi les nouvelles fonctions, on note aussi un mode « Thinking », censé pousser plus loin encore les capacités de GPT-5, même avec raisonnement. Pensé pour la sécurité, ce mode permet d’allouer des capacités supplémentaires aux requêtes. Il est présenté comme le mode de fonctionnement idéal pour les tâches requérant une grande précision, notamment les travaux scientifiques. Face à une question complexe, GPT-5 Thinking est censé répondre qu’il ne sait pas plutôt que de sortir une erreur ou halluciner la réponse. Cette fonction est disponible pour tous les comptes, mais son quota d’utilisation est beaucoup plus élevé sur les versions payantes.
Un effort sur la sécurité
En dehors des performances, la sécurité semble avoir été une préoccupation plus marquée d’OpenAI. Par exemple, sur les questions de santé, le test HealthBench Hard Hallucinations a montré que GPT-5 avec raisonnement n’hallucinait que 1,6 % du temps. Un score nettement inférieur à ceux obtenus auparavant par GPT-4o (12,9 %) et o3 (15,8 %). Sans réflexion, le score de GPT-5 remonte à 3,6 %. Bien que les scores baissent notablement, rappelons que les LLM peuvent produire des erreurs factuelles et que leurs résultats doivent être contrôlés, notamment sur des sujets aussi sensibles que la santé.
GPT-5 veut également marquer un tournant dans la manière dont la sécurité est abordée chez OpenAI. Selon l’entreprise, la formation à la sécurité était basée jusqu’ici sur le refus, donc sur une évaluation de la demande. Les résultats sont bons sur les requêtes ouvertement malveillantes, moins quand l’intention est plus diffuse. Selon OpenAI, cette approche était d’autant plus problématique dans des domaines « à double usage ». La virologie est citée en exemple, la demande pouvant émaner d’un professionnel pour des raisons légitimes ou d’un acteur malveillant.
GPT-5 se montre dorénavant moins catégorique, sauf pour les requêtes ouvertement malveillantes. En cas de refus, le modèle en expliquera les raisons. Pour le reste, il donnera « la réponse la plus utile lorsque cela est possible tout en restant dans les limites de sécurité ». OpenAI assure que cette approche plus nuancée – baptisée « safe-completion » – permet « une meilleure navigation dans les questions à double usage, une plus grande robustesse à l’intention ambiguë et moins de refus excessifs inutiles ».
Disponibilité et vent en poupe
La disponibilité de GPT-5 est immédiate pour l’ensemble des utilisateurs. Comme toujours, les personnes détentrices d’une formule payante ont des plafonds d’utilisation nettement plus élevés. En revanche, la version Pro du modèle est pour l’instant réservée aux comptes Pro, facturés 200 euros par mois. Dès la semaine prochaine, les formules Team, Edu et Enterprise basculeront toutes sur GPT-5 comme modèle par défaut. Apple, de son côté, a confirmé que GPT-5 serait utilisé comme modèle intégré pour les fonctions ChatGPT dans les nouvelles versions de ses systèmes à la rentrée.
Pour les développeurs, le nouveau modèle est proposé en trois versions : gpt-5, gpt-5-mini et gpt-5-nano. Plus le modèle est petit, moins il raisonne. L’API dispose également d’un paramètre pour régler le degré de « verbosité », permettant de faire varier la taille des réponses. Un changement qui peut paraître anodin, mais qui permet de contrôler le coût des réponses. Dans son modèle standard, GPT-5 affiche une tarification de 1,25 dollar par million de jetons en entrée et de 10 dollars par million de jetons en sortie.
Le lancement de ce modèle, particulièrement attendu, doit donc marquer une étape importante pour OpenAI. La société a d’ailleurs le vent en poupe actuellement, avec plusieurs nouvelles significatives en l’espace de quelques jours. Elle a ainsi lancé cette semaine ses premiers modèles « ouverts » depuis presque six ans, la série gpt-oss, capable de fonctionner localement (si la machine a assez de puissance).
OpenAI a également annoncé un contrat triomphal pour sa renommée : ChatGPT va équiper l’intégralité de l’administration fédérale américaine. Ce contrat est limité pour l’instant à une seule année et ne va rapporter qu’un dollar symbolique à l’entreprise. Mais il s’agit clairement d’un investissement sur l’avenir, OpenAI espérant sans doute que l’administration ne pourra plus se passer de ses services, tout en s’attirant les bonnes grâces de Donald Trump.
La première génération de NAS rackables Lockerstor 12R Pro et 16R Pro a été annoncée il y a cinq ans, avec un Xeon E-2224 aux commandes. Le fabricant revient cet été avec une « Gen2 », toujours avec 12 et 16 baies respectivement pour les 12R Pro et 16R Pro.
Les deux NAS sont animés par un CPU AMD Ryzen 7 7745HX (8C/16T). Asustor annonce une fréquence maximale de 5,3 GHz, un peu plus élevé que les 5,1 GHz du « Max. Boost Clock » sur la fiche produit d’AMD.
16 Go de DDR5-4800 ECC sont de la partie, extensibles jusqu’à 192 Go. Deux alimentations redondantes certifiées 80 Plus Platinum de 550 W sont chargées de faire tourner la machine.
Les NAS proposent un emplacement pour SSD M.2 (NVMe) en PCIe 5.0. Deux ports d’extension sont aussi de la partie : un PCIe 5.0 x8 et un autre en PCIe 5.0 x4, par exemple, pour des cartes 25, 40 ou 50 GbE.
La connectique comprend deux ports Ethernet 10 GbE et deux autres à 1 Gb/s, pour des débits pouvant atteindre (via l’agrégation de liens) 2309 et 1886 Mo/s en lecture et écriture. Quatre USB 3.2 Gen 1 sont aussi présents.
Les Lockerstor 12R et 16R Pro Gen2 sont livrés avec DM 5.0, dont la version finale est arrivée pendant le Computex au mois de juin. Comme d’autres NAS de la gamme Asustor, les disques durs Seagate IronWolf de 30 To, permettant ainsi d’atteindre 360 ou 480 To de stockage avec 12 et 16 baies respectivement.
Le fabricant annonce « une garantie de cinq ans et des mises à jour régulières », mais ne donne pas de détails sur la disponibilité ni sur les prix.
Dans un communiqué et à travers un message envoyé aux utilisateurs concernés, Dashlane (société française) explique qu’elle « rationalise ses offres grand public et abandonne l’offre gratuite le 16 septembre 2025 ».
Le changement de politique va se faire en plusieurs étapes. D’abord, la « carotte » : un mois d’essai gratuit de la version payante. Ensuite, le « bâton » dès le 16 septembre avec la fin de l’essai gratuit : « Vous ne pourrez plus ajouter, modifier, copier ou afficher vos données dans Dashlane, mais simplement les exporter ».
Enfin, vous aurez jusqu’au 16 septembre 2026 pour passer à une version payante ou récupérer vos données.
Dashlane explique ses « raisons » de mettre fin à l’offre gratuite : « se concentrer sur l’innovation rapide et une protection renforcée contre les menaces émergentes telles que les cyberattaques avec l’aide de l’IA ». On ne voit pas trop le rapport avec la fin de l’offre gratuite… Mais, de cette manière, Dashlane pousse ses clients gratuits vers la porte ou à ouvrir leur portefeuille.
Le site de l’éditeur ne propose désormais plus que deux formules : Premium à 3,68 euros HT et Friends & Family (10 comptes) à 5,55 euros HT par mois. Il y a peu, l’offre gratuite était encore affichée, avec de très fortes limitations : 25 mots de passe sur un seul appareil.
Il y a une semaine, des médias évoquaient l’apparition de discussions ChatGPT dans les résultats de Google. Un chercheur a même trouvé plus de 100 000 conversations. La faute à une fonction de partage qu’OpenAI a supprimée depuis. L’entreprise a assuré qu’il s’agissait d’une expérience de courte durée.
Tout a commencé avec un article de Fast Company le 30 juillet. Nos confrères y indiquaient que Google indexait des conversations de ChatGPT « que les utilisateurs ont envoyées à des amis, des membres de leur famille ou des collègues ». Pour les envoyer, les personnes avaient utilisé la fonction de partage, qui permet de pointer un morceau d’échange jugé intéressant.
Bien que la fonction doive être actionnée manuellement, les utilisateurs n’ont peut-être pas saisi entièrement les conséquences de l’action. Les informations contenues dans les échanges devenaient en effet publiques et donc indexables par Google. De fait, avec les bons paramètres de recherche, on pouvait trouver de nombreux échanges privés, renvoyant souvent à des informations très personnelles ou sensibles.
Florilège
Les informations apparaissant dans les échanges montrent l’ampleur de ce que l’on peut demander à un chatbot. Dans le cas de ChatGPT, la santé mentale est souvent abordée. Pas étonnant que l’entreprise ait annoncé récemment des changements à ce sujet.
En outre, comme l’indique Fast Company, plus d’un Américain sur deux se tourne vers les grands modèles de langage pour obtenir un soutien psychologique. Nos confrères rappellent cependant qu’à la grande différence d’un entretien avec un(e) psychologue, ces échanges ne sont pas soumis au secret médical.
Les informations trouvées dans les échanges contenaient de nombreux passages sensibles. Un utilisateur a par exemple décrit sa vie sexuelle en détails et ses déboires dans un pays étranger. Un autre affirme être un survivant d’une programmation psychologique et cherche le moyen de se déprogrammer. D’autres poussent loin les détails sur leurs relations familiales. Le phénomène est d’autant plus visible qu’à peine quelques jours avant, Sam Altman, CEO d’OpenAI, indiquait dans une interview qu’il ne valait mieux pas partager les « informations les plus sensibles » avec ChatGPT.
404 Media, qui a plongé également dans ces échanges, cite d’autres exemples. Nos confrères y ont trouvé des accords de non-divulgation présumés, de nombreuses demandes d’aide pour des problèmes relationnels, d’autres pour trouver des formulations sur LinkedIn, de l’aide pour écrire un dernier message à une ex-petite amie, une demande pour rédiger un contrat, etc. D’après 404 Media, ces échanges contenaient de très nombreuses informations identifiantes, dont des noms de personnes.
OpenAI désindexe les conversations, mais…
Le problème a rapidement pris de l’ampleur. Si 4 500 conversations avaient initialement été trouvées, le chercheur Henk van Ess en a déterré 110 000, en collaboration avec Nicolas Deleur, un autre analyste. Pire, ces échanges ont été trouvés après la réaction d’OpenAI. La société avait en effet annoncé que le contenu incriminé avait été désindexé de Google.
Comment a fait Henk van Ess pour trouver 110 000 échanges ? En cherchant dans la Wayback Machine d’Archive.org. Le chercheur estime qu’OpenAI a commis une erreur grossière en oubliant que tout contenu publié sur internet ne pouvait plus vraiment disparaitre.
Et certaines conversations sortaient clairement de l’ordinaire, comme le cas d’une personne se présentant comme « l’avocat d’un groupe multinational actif dans le secteur de l’énergie » cherchant à déplacer « une petite communauté autochtone amazonienne de ses territoires afin de construire un barrage et une centrale hydroélectrique ».
« Restez à l’écoute »
Dane Stuckey, directeur de la sécurité de l’entreprise, a cependant déclaré le 5 août à 404 Media : « Nous venons de supprimer une fonctionnalité de [ChatGPT] qui permettait aux utilisateurs de rendre leurs conversations détectables par les moteurs de recherche, tels que Google. Il s’agissait d’une expérience de courte durée pour aider les gens à découvrir des conversations utiles ».
L’interface était-elle suffisamment claire pour que les utilisateurs se sentent véritablement informés des conséquences ? OpenAI semble estimer que la présentation n’était pas optimale : « En fin de compte, nous pensons que cette fonctionnalité a introduit trop d’opportunités pour que les gens puissent partager accidentellement des choses qu’ils n’avaient pas l’intention de faire, nous supprimons donc l’option ».
Surtout, OpenAI confirmé à nos confrères que le contenu indexé avait été supprimé. Et la Wayback Machine ? Là aussi, le tir semble avoir été corrigé. Une requête comportant la chaine « chatgpt.com/share » renvoie le résultat : « This URL has been excluded from the Wayback Machine ». Sur X, Erik van Ess a confirmé le 4 août que la requête ne pouvait effectivement plus être exploitée. Cependant, il laisse entendre que l’histoire n’est pas terminée, encourageant à « rester à l’écoute » (« Stay tuned »).
Ajoutons enfin que si Bing affichait encore hier un résultat, ce n’est plus le cas au moment où nous publions ces lignes. En revanche, il en reste un dans Qwant.
Suite à un accident mortel en 2019 impliquant une Model S, Tesla a fait tout son possible pour dissimuler à la justice et aux plaignants les données de l’ECU (l’ordinateur en charge des composants) de la voiture. Le fabricant a été confondu des années plus tard et a fini par reconnaitre les faits.
Cette semaine est intense pour Tesla, mais le fabricant se serait certainement bien passé de toute cette « publicité ». Il a, en effet, été reconnu partiellement coupable dans un accident mortel en 2019. L’entreprise doit payer 240 millions de dollars, mais elle a annoncé faire appel du verdict.
Au-delà de la décision de justice, nos confrères d’Electrek ont épluché la transcription du procès pour avoir de plus amples détails sur les tenants et aboutissants de cette affaire. Leur conclusion est sans appel : « Tesla a fait de la rétention de données, menti, mal orienté la police et les plaignants pour éviter d’être blâmé ». Pour nos confrères, cela ne fait aucun doute : Tesla « couvrait indéniablement l’Autopilot » et a essayé « de rejeter toute la faute sur le conducteur ».
Fichier de la discorde : Snapshot_collision_airbag-deployment.tar
La transcription du procès est, en effet, accablante pour Tesla. Nos confrères expliquent que, dans les trois minutes suivant la collision, la Model S a envoyé toutes les données (vidéos, flux du bus CAN, données EDR, etc.) sur les serveurs de Tesla, via un fichier snapshot_collision_airbag-deployment.tar. Ensuite, le véhicule a supprimé le fichier de son stockage en local. De fait, Tesla était donc « la seule entité à avoir accès » à ce fichier.
Bien évidemment, la police et les plaignants ont demandé à plusieurs reprises d’obtenir ces données, mais Tesla les « a entraîné dans un long voyage de tromperie et de désorientation, qui a duré des années » : de 2019 à fin 2024. L’affaire a été mise au grand jour grâce aux plaignants qui ont embauché un ingénieur expert en reconstitution d’accident (Alan Moore) afin qu’il récupère les données de l’ECU (Electronic Control Unit), l’ordinateur en charge des différents composants de la voiture.
Electrek détaille le déroulement des faits, qui débutent en avril 2019 au moment de l’accident, mortel. Tesla a d’abord « entourloupé » l’enquêteur de la Florida Highway Patrol, en faisant mine de collaborer. L’avocat du fabricant lui explique que ce n’est pas la peine d’assigner Tesla pour récupérer les données et se propose d’aider l’enquêteur à rédiger une demande.
Ayez confiansssse…
Ce dernier obtient de nombreuses données, mais pas celles cruciales en rapport avec la collision. L’avocat avait « spécifiquement rédigé la lettre pour omettre de partager » le fichier envoyé par la voiture, expliquent nos confrères. L’enquêteur pensait, visiblement à tort, que Tesla souhaitait collaborer.
Quelques semaines plus tard, l’enquêteur récupère l’ECU et le MCU (Media Control Unit, l’ordinateur de bord avec l’écran tactile) et demande de l’aide à Tesla pour récupérer les données depuis les équipements informatiques.
L’avocat organise un rendez-vous, dans des locaux de l’entreprise, avec un technicien de Tesla qui n’avait jamais extrait de données d’un ordinateur Autopilot auparavant, c’est du moins ce qu’il a précisé dans un témoignage. Après avoir branché les composants, il affirme que les données étaient « corrompues » et inutilisables. Or, et « Pour être clair, Tesla avait déjà toutes ces données dans ses serveurs et aurait pu simplement les envoyer », ajoute Electrek.
Dans les années qui ont suivi, Tesla n’a jamais mentionné être en possession des données, que ce soit à la police, aux plaignants ou au tribunal. Pire, selon nos confrères, « Tesla a inventé une fonction de « suppression automatique » ».
Impossible de récupérer les données selon Tesla. La preuve que non
Ce n’est que fin 2024 que le tribunal autorise les plaignants à faire appel à un expert pour accéder aux données de l’ECU, du moins à faire une copie « bit par bit » des informations qu’il contient. Le but étant de travailler sur une copie des données, sans toucher aux originales. « Les ingénieurs de Tesla ont dit que c’était impossible… pourtant, cela a été fait par des gens extérieurs à Tesla », explique Alan Moore.
En plus d’avoir pu accéder à toutes les données, l’ingénieur a identifié des métadonnées du fichier snapshot_collision_airbag-deployment.tar, notamment sa somme de contrôle SHA-1 et le chemin exact vers le serveur. Et à la place du fichier, un emplacement vide dans la mémoire de la voiture.
Face à ces éléments, les plaignants ont pu exiger les journaux AWS de Tesla. Le fabricant a fini par donner le fichier compressé ainsi que les journaux d’accès « montrant qu’il était stocké depuis 18h16 PDT le 25 avril 2019 ». Finalement, « Tesla n’a admis l’existence des données qu’une fois qu’on lui a présenté des preuves légales qu’elles existaient et qu’elles avaient été transférées sur ses serveurs ».
Autopilot et Autosteer en marche, sans alerte
Toujours selon Electrek et la transcription du procès, l’Autopilot et l’Autosteer (assistance au maintien de cap) de la Tesla étaient bien actifs. D’après la carte et les données de l’ECU, la voiture se trouvait dans une zone « restricted Autosteer zone », mais l’Autopilot était « resté engagé à pleine vitesse ».
L’ordinateur de bord n’a enregistré aucun freinage manuel ni changement de direction de la part du conducteur. De son côté, la voiture n’a pas envoyé d’alerte demandant au conducteur (il n’avait alors pas les mains sur le volant) de « prendre le contrôle immédiatement » alors qu’une intersection était en approche, avec une voiture à l’arrêt dans sa trajectoire (celle qui a été percutée).
Responsabilité : 33 % pour Tesla, 66 % pour le conducteur
Comme le rappellent nos confrères, le conducteur de la Tesla a reconnu sa part de responsabilité dans l’accident. Il expliquait avoir eu « trop confiance en la technologie […] Je croyais que si la voiture voyait quelque chose devant elle, elle émettrait un avertissement et freinerait ».
Nos confrères précisent que l’objectif des plaignants étaient « d’attribuer une partie de la responsabilité de l’accident à Tesla pour ne pas avoir empêché un tel abus du système malgré le risque évident ».
C’est finalement le cas puisque la justice a reconnu Tesla coupable à 33 % de l’accident mortel. Cela pourrait changer puisque le fabricant a déjà annoncé son intention de faire appel de la décision. Affaire à suivre.
Apple était menacée par la volonté de la Maison-Blanche d’imposer des surtaxes de 100 % sur les importations de semi-conducteurs. L’entreprise a dû montrer patte blanche et a annoncé plusieurs investissements majeurs. La stratégie a payé.
La journée du 6 août aura été mouvementée pour Tim Cook, CEO d’Apple. Le programme de la journée était chargé : se rendre à la Maison-Blanche et convaincre le maitre des lieux qu’Apple investissait assez pour échapper aux nouveaux droits de douane.
Pour rappel, Donald Trump a promis une surtaxe de 100 % pour les puces et semi-conducteurs importés. Seule condition pour y échapper : produire aux États-Unis, ou s’engager à le faire et à tenir parole. Au risque sinon de voir arriver une facture rétroactive sur les droits dus depuis l’exemption. Les entreprises sont prévenues.
En conséquence, Tim Cook avait pour mission hier de prouver au président américain que les investissements démontraient qu’Apple était sérieuse dans son intention de produire aux États-Unis. Plusieurs annonces ont donc été faites en ce sens.
100 milliards pour renforcer les partenariats existants
La plus importante est la rallonge de 100 milliards de dollars sur les investissements déjà annoncés, pour un total désormais de 600 milliards de dollars. Le tout se fait à travers un nouveau plan baptisé American Manufacturing Program, ou AMP. Via ce dernier, Apple renforce ses partenariats existants avec dix entreprises sur le territoire américain : Corning, Coherent, GlobalWafers America, Applied Materials, Texas Instruments, Samsung, GlobalFoundries, Amkor, MP Materials et Broadcom.
Apple cite des exemples de travail commun avec chacune de ces entreprises. GlobalWafers va fournir des wafers de 300 mm à Texas Instruments et TSMC pour la production de semi-conducteurs, Applies Materials va renforcer sa production d’équipements visant à fabriquer des semi-conducteurs, GlobalFoundries va mettre l’accent sur les technologies sans fil et la gestion avancée de l’alimentation, etc.
Mention spéciale à Samsung, qui travaille avec Apple sur un mystérieux projet de fabrication de puces dans son usine d’Austin (Texas). Dans son communiqué, Apple évoque « une nouvelle technologie innovante […] qui n’a jamais été utilisée auparavant dans le monde ».
Ces 600 milliards seront progressivement investis au cours des quatre prochaines années. Le programme, très ambitieux, prévoit également l’embauche de 20 000 personnes sur la même période. Selon Apple, la grande majorité d’entre elles alimenteront la R&D, l’ingénierie du silicium, le développement de logiciel, l’IA et l’apprentissage automatique. Mi-juillet, l’accord de 500 millions de dollars avec l’Américain MP Materials pour sécuriser des approvisionnements en terres rares entrait également dans ce cadre.
En verre et contre tous
Hier, Apple a fait une autre annonce majeure : la totalité du verre produit pour les iPhone et les Watch sera bientôt produite aux États-Unis. L’ensemble va prendre place via un investissement supplémentaire de 2,5 milliards de dollars dans l’usine de Harrodsburg (Kentucky) de Corning. Rappelons que Corning travaille avec Apple depuis le premier iPhone pour fournir le verre de l’écran.
Dans la vidéo de l’annonce, un peu après la 4e minute, on peut voir Tim Cook ouvrir une boite pour en sortir une plaque circulaire de verre gravée pour l’occasion. Du verre produit par Corning dans son usine du Kentucky, pour insister sur la dimension patriotique de l’instant, à laquelle le président américain a répondu favorablement.
« Corning est une entreprise américaine historique, et nous sommes heureux de travailler ensemble à produire la plus grande et la plus avancée des lignes de productions concernant le verre pour smartphones. Grâce à la puissance de l’industrie américaine, n’importe quel client dans le monde achetant un nouvel iPhone ou une nouvelle Apple Watch aura entre les mains un verre de haute précision fabriqué ici, dans le Kentucky. Nous remercions le président et son administration pour leur soutien à l’industrie américaine, et nous sommes impatients d’en débloquer tout le potentiel », s’est enthousiasmé Tim Cook dans un communiqué calibré pour la Maison-Blanche.
Corning, pour sa part, se montre tout aussi dithyrambique, évoquant Apple comme « un partenaire extraordinaire » et des limites de l’innovation repoussées « aussi loin que possible ». « Grâce à ce nouveau contrat avec Apple, et les capacités de notre plateforme industrielle la plus avancée, nous allons embaucher encore plus d’Américains et rapatrier 100 % des besoins en verre d’iPhone et d’Apple Watch dans leur pays de création original », a ajouté l’entreprise.
Mission réussie
Dans la même vidéo, Donald Trump et Tim Cook semblent s’être rapprochés, après des mois d’une relation particulièrement tendue. Le président américain a qualifié le patron d’Apple de « véritable grande légende de notre temps ».
Il a surtout annoncé ce qu’Apple était venue chercher : l’entreprise à la pomme échappera aux 100 % de droits de douane imposés sur les importations pour les composants dont elle a besoin. Le rêve d’un iPhone intégralement produit sur le sol américain, cher à Donald Trump, est encore loin, mais les efforts d’Apple ont manifestement convaincu le président.
La version 3.7.5 d’Audacity, un logiciel libre et gratuit pour enregistrer et éditer des fichiers audio, marque son entrée dans le monde de Windows on Arm, une version du système d’exploitation pour les CPU exploitant l’architecture Arm. C’est le cas des Snapdragon X Plus et Elite de Qualcomm par exemple.
Sur GitHub, il est précisé que Windows 11 est nécessaire, Windows RT n’est pas supporté. Les plugins ne sont pas pris en charge et il faut avoir la version Windows on ARM de FFmpeg. Cette version « n’a pas été testée de manière approfondie avec toutes les fonctionnalités en raison d’un manque d’appareils – vos commentaires sont les bienvenus », indiquent les développeurs.
Des mises à jour ont lieu au passage : libopus 1.5.2, libcurl 8.12.1, libpng 1.6.50 et l’importateur FLAC prend désormais en charge le PCM 32 bits. Des correctifs sont aussi de la partie.
Le constructeur est accusé par la Chine d’avoir introduit un kill switch dans ses GPU, une fonction qui permettrait de déclencher à distance l’arrêt de leur fonctionnement. NVIDIA nie vigoureusement, mais des députés américains évoquent déjà une législation qui pourrait aboutir à une telle fonction.
La semaine dernière, l’administration chinoise du cyberespace a déclaré qu’elle s’était entretenue avec NVIDIA au sujet de « graves problèmes de sécurité ». Les puces du géant sont dans le collimateur de la Chine, car des experts auraient montré que « les puces informatiques de NVIDIA ont un suivi de localisation et peuvent arrêter la technologie à distance », rapportait le Financial Times.
La Chine vise spécifiquement les puces H20 de l’entreprise. Elles ont été conçues spécifiquement pour l’Empire du milieu, pour tenir compte des restrictions imposées par la Maison-Blanche. Dans la foulée, NVIDIA avait nié les accusations, déclarant à plusieurs médias qu’aucun de ses GPU n’avait de porte dérobée ou fonction équivalente et qu’elle n’avait aucun moyen de contrôler à distance qui accédait et utilisait ses produits.
Mais la situation est plus complexe qu’il n’y parait. En mai, on apprenait ainsi que le Congrès américain travaillait sur un projet de loi visant à renforcer la sécurité des semi-conducteurs, ou plus précisément leur commercialisation.
Parmi les mesures envisagées, ce Chip Security Act rendrait obligatoire l’introduction dans les puces d’un mécanisme permettant de vérifier la position géographique des composants. L’idée serait de pouvoir contrôler que les GPU (ou d’autres puces) ne seraient pas utilisés dans des pays faisant l’objet de sanctions ou de restrictions.
Le sénateur républicain Tom Cotton a confirmé que ce projet de loi avait pour objectif d’ « empêcher les puces américaines avancées de tomber entre les mains d’adversaires comme la Chine communiste en améliorant la surveillance des puces avancées ». Conséquence, le Chip Security Act demanderait également d’évaluer la possibilité d’introduire des mécanismes pour couper court à une utilisation non autorisée ou dégrader les performances. Autrement dit, un kill switch.
Outre-Atlantique, le Congrès n’est d’ailleurs pas seul à se pencher sur la question. La Maison-Blanche a son propre plan d’action sur tout ce qui touche à l’intelligence artificielle. Le gouvernement américain aurait été agacé des soupçons pesant sur la société chinoise DeepSeek, qui aurait réussi à se procurer des puces NVIDIA pour l’entrainement de ses modèles, en dépit des contrôles à l’exportation pesant sur le pays.
Dans son plan d’action (PDF), publié le mois dernier, la Maison-Blanche demande elle aussi que les agences gouvernementales réfléchissent à l’exploitation de « fonctionnalités de vérification de localisation nouvelles et existantes sur le calcul avancé de l’IA pour s’assurer que les puces ne se trouvent pas dans des pays préoccupants ».
NVIDIA répond désormais sur deux fronts
Dans un nouveau billet publié hier soir, NVIDIA exprime tout le mal qu’elle pense de l’idée des kill switchs. Cette fois, l’entreprise répond aussi bien aux accusations chinoises qu’aux changements législatifs en préparation aux États-Unis.
« Pour atténuer le risque d’utilisation abusive, certains experts et décideurs politiques proposent d’exiger des « kill switchs » matériels ou des contrôles intégrés qui peuvent désactiver à distance les GPU à l’insu de l’utilisateur et sans son consentement. Certains soupçonnent qu’ils existent déjà. Les GPU NVIDIA n’ont pas et ne devraient pas avoir de kill switches et de portes dérobées », a ainsi écrit David Reber Jr., directeur de la sécurité de l’entreprise. « Il n’y a pas de portes dérobées dans les puces NVIDIA. Pas d’interrupteurs d’arrêt. Pas de logiciel espion. Ce n’est pas ainsi que les systèmes fiables sont construits et ils ne le seront jamais », a-t-il ajouté.
L’argumentaire du responsable a un air de déjà-vu. Et pour cause : il est pratiquement identique à celui utilisé par d’innombrables experts en sécurité au sujet du chiffrement de bout en bout, régulièrement menacé par des projets législatifs qui conduiraient à son affaiblissement. Ce fut le cas en France pendant l’hiver dernier.
L’argument principal est donc le même : il n’existe pas de « bonne » manière d’introduire une porte dérobée. Celle-ci, une fois en place, peut être trouvée et exploitée par n’importe qui, y compris des pirates. De tels mécanismes « seraient un cadeau pour les pirates et les acteurs hostiles », renchérit David Reber Jr.. Selon lui, cette obligation « saperait l’infrastructure numérique mondiale et briserait la confiance dans la technologie américaine ». Et de rappeler que la loi américaine actuelle oblige les entreprises à corriger les failles dans leurs produits, non à en créer.
Un kill switch serait « un défaut permanent hors du contrôle de l’utilisateur, et une invitation ouverte au désastre ». NVIDIA compare la situation à l’achat d’un véhicule dont le concessionnaire garderait en sa possession une télécommande pour le frein à main, dans le cas où il déciderait que le client ne doit pas conduire.
Un écho du passé
L’entreprise rappelle qu’un cas similaire a déjà eu lieu avec le gouvernement Clinton. « La communauté de la cybersécurité a appris ces leçons à ses dépens dans les années 1990 avec l’initiative Clipper Chip de la NSA. Introduite en 1993, la puce Clipper a été conçue pour fournir un chiffrement fort tout en maintenant l’accès par porte dérobée du gouvernement par le biais d’un système de séquestre de clés », rappelle ainsi NVIDIA.
Résultat ? « Les chercheurs en sécurité ont découvert des failles fondamentales dans le système qui auraient pu permettre à des parties malveillantes de falsifier le logiciel. Il créait des vulnérabilités centralisées qui pouvaient être exploitées par des adversaires. La simple existence de portes dérobées gouvernementales a sapé la confiance des utilisateurs dans la sécurité des systèmes », déclare NVIDIA.
L’entreprise, pour clore, indique que les portes dérobées « créent des points de défaillance uniques et violent les principes fondamentaux de la cybersécurité ».
AMD, de son côté, n’a pas encore réagi. Rappelons cependant que la création de kill switchs est loin d’être une nouveauté et que certains existent bel et bien. C’est le cas notamment chez le constructeur néerlandais ASML, qui construit les machines permettant la fabrication des puces. Comme nous l’indiquions l’année dernière, les machines exportées à TSMC à Taiwan comportent une telle fonction, dans le cas où l’île serait envahie par la Chine, afin que le pays ne fasse pas main-basse sur ce matériel.
Sur les réseaux sociaux, plusieurs personnes indiquent avoir reçu un email d’Air France et/ou de KLM pour les informer d’une « violation de données qui a compromis certaines de vos informations ».
« Nos équipes de sécurité informatique, en collaboration avec le fournisseur de service concerné, ont rapidement pris les mesures nécessaires pour remédier à la situation et ont renforcé les mesures de protection afin d’éviter que cela ne se reproduise », affirme la société.
Dans les données concernées, on retrouve le nom, prénom, information de contact, numéro et statut Flying Blue (programme de fidélité) ainsi que l’objet des demandes formulées par email. « Les données telles que les informations de carte de crédit, les numéros de passeport, le solde de miles Flying Blue, le mot de passe ou les informations de réservation n’ont pas été divulguées », affirme l’entreprise.
La CNIL a été notifiée, précise Air France. Pour rappel, la compagnie avait déjà été piratée début 2023, avec une fuite de données des clients, comme l’expliquait alors Numerama. Air France-KLM recommandait alors à ses clients de changer leur mot de passe. Ce n’est pas le cas cette fois-ci.
Il y a quelques semaines, une autre compagnie aérienne était victime d’un incident cyber du même genre : Qantas, avec des données sur pas moins de 5,7 millions de clients.
Sans aucune surprise, le débit sera doublé par rapport au PCIe 7.0, qui vient tout juste d’être finalisé par le PCI-SIG. La version finale du PCIe 8.0 est attendue pour 2028.
Le PCI-SIG cible large avec la prise en charge d’applications émergentes comme l’intelligence artificielle et l’apprentissage automatique, les réseaux à haut débit, l’informatique quantique, les marchés à forte intensité comme l’automobile, les hyperscalers, le calcul haute performance, l’armée, l’aérospatiale, etc.
Peu de détails techniques sont donnés, si ce n’est que le PAM4 introduit avec le PCIe 6.0 sera encore de la partie. Il est aussi question de passer en revue de nouveaux connecteurs. Pour rappel, le PCIe Optical Interconnect Solution a récemment été présenté pour passer à la fibre optique. La fiabilité est aussi mise en avant, ainsi que la réduction de la consommation d’énergie. La rétrocompatibilité est toujours de mise.
Al Yanes, président du conseil d’administration du consortium se réjouit de « poursuivre ainsi la tradition de doubler la bande passante tous les trois ans pour prendre en charge les applications de nouvelle génération ». Le PCIe 8.0 sur une seule ligne (x1) sera donc capable de tenir les mêmes débits théoriques que le PCIe 4.0 sur 16 lignes (x16).
Voici pour rappel les huit générations de PCIe, avec les débits maximum en x16 en mode bi-directionnel :
Bouygues Telecom prévient actuellement pas moins de 6,4 millions de clients d’un accès non autorisé à certaines de leurs données personnelles… mais aussi bancaires. Attention donc aux risques de phishing et de prélèvements sur vos comptes.
Après une fin d’année 2024 et un début 2025 sur les chapeaux de roues pour les fuites de données, la situation s’était un peu calmée, mais ce fut de courte durée. L’été est chargé, avec des incidents cyber chez Louis Vuitton, France Travail, Allianz Life, Pandora et maintenant Bouygues Telecom.
On y retrouve des informations personnelles telles que les coordonnées, des données contractuelles liées à votre abonnement, des données d’état civil ou celles de l’entreprise si vous êtes un professionnel, ainsi que les IBAN sur la partie bancaire. Toutefois, « les numéros de cartes bancaires et les mots de passe de vos comptes Bouygues Telecom ne sont pas impactés ».
L’IBAN (International Bank Account Number) est l’identifiant international de votre compte bancaire, rattaché à une institution financière dans un pays (il commence par FR pour France, DE pour Allemagne…).
Selon la Banque de France, « communiquer son RIB n’est pas risqué en soi ». Mais « comme pour tout document contenant des informations personnelles, il convient de bien identifier la personne à laquelle vous communiquez un RIB. Un escroc pourrait utiliser ces informations de manière malveillante (ex : usurpation d’identité) », ajoute l’institution.
De son côté, Bouygues Telecom assure qu’une « personne qui détient un numéro IBAN ne pourrait pas émettre de virement sans votre accord ». À juste titre, l’opérateur prend soin d’ajouter que, concernant les prélèvements, c’est plus compliqué : « il est normalement nécessaire que le titulaire du compte signe un mandat SEPA, mais on ne peut pas exclure qu’un fraudeur parvienne à réaliser une telle opération en se faisant passer pour vous ».
En effet, lorsque la signature consiste en un SMS ou un email, une usurpation d’identité est facile à mettre en place.
Bouygues Telecom conseille donc à ses clients de vérifier les prélèvements et d’appeler la banque en cas de doute : « Sachez que la règlementation bancaire prévoit que vous puissiez vous opposer pendant 13 mois à tous les prélèvements effectués sans votre accord sur votre compte bancaire ».
Les cyberattaques sont « très fréquentes et n’épargnent » personne
L’opérateur ne donne pas de détails sur la cyberattaque. Il précise simplement avoir bloqué l’accès, renforcé la surveillance « et mis en œuvre des mesures complémentaires nécessaires ». L’entreprise rappelle aussi que les cyberattaques sont « très fréquentes et n’épargnent aucune entreprise »… un argument repris récemment par Pandora, dans une communication pour le moins surprenante.
Comme l’y oblige la loi, la CNIL a été informée de la situation. De plus, une plainte a été déposée auprès des autorités judiciaires.
Le risque en pareille situation, sans parler des prélèvements sur votre compte, est d’être la cible de phishing. Des pirates peuvent utiliser les données récoltées pour se faire passer pour Bouygues Telecom ou votre banque, afin de récupérer des données supplémentaires.
Avec Genie 3, DeepMind (Google) propose un modèle d’IA capable de générer des vidéos de mondes virtuels et interactifs, à la volée. Il y a encore des limitations, mais les premiers résultats semblent prometteurs.
La première version de Genie – acronyme de GENerative Interactive Environments – est sortie en février 2024 chez DeepMind. Elle a été suivie par une seconde mouture en décembre dernier « capable de générer une variété infinie d’environnements 3D jouables et contrôlables ». Chez Google, Veo, un modèle de génération de vidéos, était présenté au même moment.
DeepMind (qui appartient à Google), revient avec une troisième version de son GENerative Interactive Environments : Genie 3, qui prend la suite de Genie 2 et Veo. Ce « modèle à usage général est capable de générer une diversité de monde sans précédent d’environnements interactifs », le tout à partir d’un simple prompt. Il est aussi possible d’ajouter de « nouveaux événements à votre monde à la volée », simplement en modifiant le prompt.
Depuis un prompt, DeepMind affirme que vous pouvez ainsi créer « des mondes dynamiques que vous pouvez parcourir en temps réel à 24 fps, en conservant une cohérence de plusieurs minutes, avec une résolution de 720p ». C’est un bond en avant par rapport à Genie 2, limité à 10 ou 20 secondes.
Pour DeepMind, ce ne sont pas de simples mondes interactifs dans lesquels on peut évoluer quelques minutes, c’est aussi « un tremplin » pour arriver à une intelligence artificielle générale (IAG). Une telle IA est le Graal actuellement recherché par les géants de l’intelligence artificielle, OpenAI en tête.
Explications de l’entreprise : « Ces systèmes d’IA sont capables d’utiliser leur compréhension du monde pour en simuler certains aspects, permettant aux agents de prédire à la fois comment un environnement évoluera et comment leurs actions l’affecteront ». Il serait ainsi possible de « former des agents d’IA dans un programme illimité d’environnements ».
Les environnements peuvent s’approcher du monde réel (dans une certaine limite, nous y reviendrons), ou au contraire totalement virtuels. Une vidéo valant mille mots dans le cas présent, voici la présentation de DeepMind (de multiples exemples sont aussi disponibles ici) :
DeepMind affirme « repousser les limites des capacités en temps réel »
Genie 3 est capable de modéliser des éléments physiques (eau, lumière…), des objets, des personnages, des animaux, des végétaux, etc. Pour arriver à ce résultat, DeepMind affirme rien de moins qu’avoir « repoussé les limites des capacités en temps réel », et liste quelques-uns des défis rencontrés.
Pour générer les images (24 chaque seconde. pour rappel), le modèle doit prendre en compte la trajectoire, s’adapter au changement de directions et se « souvenir » des endroits où il est déjà passé. Genie 3 a une « mémoire » d’une minute selon l’entreprise.
Il faut aussi garder de la cohérence dans le rendu des images, ce que le modèle serait capable de faire pendant « plusieurs minutes ». Néanmoins, plusieurs heures seraient certainement nécessaires pour former des agents IA de manière approfondie, ajoute DeepMind.
Et les agents ont encore de la marge de progression, reconnait Jack Parker-Holder (scientifique et chercheur chez DeepMind), comme le rapporte TechCrunch. Nos confrères étaient présents à un point presse organisé par Google.
« Nous n’avons pas encore vraiment eu de coup 37 [en référence au coup de « maitre » d’AlphaGo contre Lee Sedol au jeu de go, ndlr] avec les agents », ajoute le chercheur. C’est pour rappel un coup non conventionnel qui a surpris les spécialistes, mais qui a rapidement été qualifié de brillant. Ce 37ᵉ coup est « devenu symbolique de la capacité de l’IA à découvrir de nouvelles stratégies au-delà de la compréhension humaine », rappelle TechCrunch.
TechCrunch ajoute que, « comme Veo, Genie 3 ne s’appuie pas sur un moteur physique codé en dur. À la place, selon DeepMind, le modèle apprend par lui-même comment le monde fonctionne – comment les objets bougent, tombent et interagissent – en se souvenant de ce qu’il a généré ». « Le modèle est auto-régressif, ce qui signifie qu’il génère une image à la fois » en se basant sur les précédentes images, explique Shlomi Fruchter (directeur de recherche chez DeepMind) dans une interview à nos confrères.
Des limitations et un accès très limité
DeepMind met en avant plusieurs limitations connues. Tout d’abord, le rayon et les possibilités d’action pour les agents d’IA sont limités. Autre point : « la modélisation précise d’interactions complexes entre plusieurs agents indépendants dans des environnements partagés reste un défi », une manière polie de dire que c’est compliqué et pas opérationnel.
Oubliez le photoréalisme : Genie 3 n’est pas en mesure de simuler des lieux réels avec une précision parfaite. Autre point, classique : « Un texte clair et lisible n’est souvent généré que lorsqu’il est fourni dans la description du monde d’entrée ».
Genie 3 n’est pour le moment disponible que sous la forme d’un accès anticipé à une petite sélection d’universitaires et de créateurs.
OpenAI a annoncé ce 5 août la disponibilité de deux modèles « ouverts », distribués sous licence open source et disponibles gratuitement depuis Hugging Face. Ils sont censés fournir des performances correctes et peuvent être exécutés localement.
C’est peu dire que des modèles ouverts étaient attendus chez OpenAI. L’ouverture, censée se refléter jusque dans le nom de l’entreprise, n’était plus un argument depuis des années. Les derniers modèles ouverts lancés par OpenAI remontaient en effet à 2019 avec GPT-2.
OpenAI a donc présenté hier soir une nouvelle famille de modèles. Baptisée GPT-OSS, elle représente a priori un changement stratégique intéressant, après plus de cinq ans de modèles exclusivement propriétaires. Mais attention, car si ces modèles sont présentés comme ouverts, avec une licence adaptée (Apache 2.0), les reproches faits dans ce domaine restent valables : les architectures et données utilisées sont tenues secrètes.
Des modèles pensés pour le fonctionnement local
Les deux premiers modèles de la famille GPT-OSS sont nommés gpt-oss-120b et gpt-oss-20b. Leurs caractéristiques se reflètent dans ces appellations : le premier comporte 117 milliards de paramètres, le second, plus compact, 21 milliards. Le gros modèle est multimodal, mais le petit doit se contenter du texte.
Les deux modèles peuvent être exécutés « localement ». Il faut cependant une machine capable de supporter ce fonctionnement, surtout pour le premier. OpenAI recommande ainsi 80 Go de mémoire pour le plus gros modèle. Ce qui le rend exécutable sur un seul GPU H100 de NVIDIA. L’autre modèle, nettement plus petit, peut se contenter de 16 Go.
Selon OpenAI, les deux modèles ont été entrainés « à l’aide d’un mélange d’apprentissage par renforcement et de techniques inspirées des modèles internes les plus avancés ». Toujours selon l’entreprise, les performances seraient à la hauteur. Le modèle gpt-oss-120b afficherait ainsi une « quasi-parité » avec o4-mini sur les tests de raisonnement de base. Le modèle gtp-oss-20b est quant à lui comparé à o3-mini.
Des hallucinations omniprésentes
Toutefois, ayant bénéficié de certaines avancées plus récentes, les modèles seraient plus à l’aise que les anciens auxquels ils sont comparés dans certaines tâches, comme l’appel de fonction et le raisonnement CoT (incitation à la chaine de pensée). Dans ces domaines, ils afficheraient des performances supérieures à o1 et GPT-4o. Dans les deux cas, la fenêtre contextuelle peut grimper jusqu’à 128 000 jetons.
Mais en dépit de ces chiffres, ces modèles open source hallucinent, et pas qu’un peu. Ainsi, gpt-oss-120b et gpt-oss-20b ont halluciné à 49,1 et 53,2 % respectivement lors des tests sur PersonQA, l’outil d’OpenAI pour mesurer la précision des réponses portant sur des personnes. Pour comparaison, o1 affiche un score de 16 %, tandis qu’o4-mini a obtenu 36 %. Ces chiffres sont donnés par OpenAI dans la Model Card de gpt-oss-120b et gpt-oss-20b (PDF).
Pourquoi maintenant ?
OpenAI semble changer son fusil d’épaule, mais pourquoi maintenant ? La piste la plus évidente serait la concurrence. Des sociétés comme Meta et Mistral publient de nombreux modèles en open source, même si cette ouverture est toujours limitée. La concurrence chinoise est également vive, depuis l’arrivée fracassante de DeepSeek, qui a remis en question l’hégémonie américaine dans le domaine de l’IA générative.
Une autre raison, comme le souligne TechCrunch, est que la Maison-Blanche a exhorté le mois dernier les développeurs d’IA à ouvrir leurs technologies. Une ouverture considérée non pas comme éthique, mais comme une arme pour diffuser plus efficacement les valeurs américaines.
« Si l’on remonte à nos débuts en 2015, la mission d’OpenAI était de garantir une AGI qui profite à toute l’humanité. À cette fin, nous sommes ravis que le monde s’appuie sur une pile d’IA ouverte créée aux États-Unis, basée sur des valeurs démocratiques, disponible gratuitement pour tous et pour un large bénéfice », a ainsi déclaré Sam Altman, CEO d’OpenAI, à nos confrères.
Large disponibilité
L’annonce des nouveaux modèles a été suivie de plusieurs autres. Chez Microsoft, on a ainsi vu la disponibilité de gpt-oss-20b confirmée sur Azure AI Foundry et Windows AI Foundry, dans une mouture optimisée pour Windows. Le second indique que le modèle est considéré comme prêt pour fonctionner sur des machines classiques, même si le prérequis de 16 Go en VRAM reste une exigence élevée pour beaucoup. Microsoft indique que le modèle sera bientôt mis à disposition pour macOS également.
En parallèle, et pour la première fois, les deux modèles d’OpenAI sont disponibles chez Amazon Web Services, à travers Amazon AI Bedrock et SageMaker AI. C’est là encore un changement important, car AWS, bien que proposant divers modèles, mettait surtout en avant Claude d’Anthropic. DeepSeek, Meta et Mistral sont également référencés chez AWS. Il est probable que la montée en puissance de Microsoft ait secoué Amazon dans sa stratégie, AWS devant maintenant jouer sur tous les tableaux et être vu comme un fournisseur neutre de tous les principaux modèles disponibles.
« L’ajout d’OpenAI en tant que nouveau fournisseur de modèles open-weight [les poids associés aux neurones sont connus, ndlr] marque une progression naturelle dans notre engagement à apporter une IA de pointe aux organisations du monde entier, et la taille inégalée de notre clientèle marque un changement transformateur dans l’accès à la technologie avancée d’OpenAI », a simplement déclaré Atul Deo, directeur des produits chez AWS.
Orange est également de la partie, en tant que « partenaire privilégié » d’OpenAI. L’entreprise annonce ainsi être l’une des premières au monde à déployer les nouveaux modèles dans ses propres infrastructures. Le déploiement se fait aussi bien sur les grands centres de données régionaux en France que les « petits serveurs locaux ou sites en périphérie ». L’opérateur indique se servir de son expertise dans le domaine pour personnaliser et distiller les modèles, créant ses propres sous-modèles pour des besoins spécifiques.
Orange évoque en outre son engagement pour une IA responsable et son approche « frugale ». La société française dit chercher « une haute performance tout en nécessitant moins de puissance de calcul, moins de données et moins d’énergie ». Ces modèles doivent servir à améliorer l’expérience client (dont une meilleure compréhension du langage naturel), renforcer la qualité et la résilience de ses réseaux (exploration et diagnostic) et proposer des solutions commerciales.
« Elon Musk et X obtiennent gain de cause contre la loi californienne sur le deepfake », titre POLITICO. Le juge fédéral John Mendez vient en effet d’estimer que la loi fédérale l’emportait sur la loi de l’État, précise Courthouse News, et qu’elle était en conflit avec la section 230 de la loi fédérale sur la décence des communications (Communications Decency Act), qui protège les plates-formes en ligne de toute responsabilité pour ce que des tiers publient sur leurs sites.
X.com et la plateforme de vidéos prisée par l’extrême-droite et les complotistes Rumble avaient contesté le projet de loi 2655 « Defending Democracy from Deepfake Deception Act of 2024 », qui exige que certaines plateformes suppriment les « contenus matériellement trompeurs » concernant les candidats politiques, les responsables des élections et les fonctionnaires élus, au motif que de tels « deepfakes » sont des outils dangereux en termes de désinformation.
En octobre dernier, John Mendez avait déjà bloqué une loi relativement similaire, pour inconstitutionnalité. La loi AB 2839 visait spécifiquement tout contenu faux ou trompeur « raisonnablement susceptible » de nuire « à la réputation ou aux perspectives électorales d’un candidat ». Or, pour le juge fédéral, elle violait le premier amendement de la Constitution états-unienne, qui interdit d’adopter des lois limitant la liberté de religion, d’expression et de la presse.
Gavin Newsom, gouverneur de la Californie, avait signé ces lois l’an passé après qu’Elon Musk avait partagé une vidéo « deepfake » de l’ancienne vice-présidente Kamala Harris.
« Je pense que la loi échoue lamentablement à accomplir ce qu’elle voudrait faire », a déclaré M. Mendez. Les lois qui restreignent la liberté d’expression doivent passer un test strict, et notamment déterminer s’il existe des moyens moins restrictifs d’atteindre les objectifs de l’État, souligne POLITICO. Et Mendez s’est précisément demandé s’il ne serait pas préférable d’adopter des approches moins susceptibles d’entraver la liberté d’expression. Mais sans non plus préciser comment.
Anthropic avait lancé ses modèles Claude 4 en grande pompe fin mai. On retrouvait bien sûr Sonnet, mais un nouveau venu entrant dans la place comme nouvelle star de l’entreprise : Opus. Anthropic vantait ses capacités de raisonnement, sa précision et ses résultats supérieurs, notamment en développement logiciel.
Une version 4.1 du modèle est désormais disponible. Annoncée hier soir, elle présente des scores plus élevés dans tous les domaines. Les gains ne sont pas majeurs, mais ils sont là, avec le grand avantage pour la clientèle de remplacer Opus 4 de manière transparente. Les tarifs ne changent pas pour l’accès via l’API, et le modèle reste limité aux formules payantes pour son accès via le chatbot ou Claude Code. Le nouveau modèle est également disponible sur Vertex AI (Google) et Bedrock (Amazon).
Source : Anthropic
Selon Anthropic, plusieurs entreprises ont dit tout le bien qu’elles pensaient des améliorations. Selon Github par exemple, les gains de performances seraient ainsi « particulièrement notables dans la refactorisation de code multi-fichiers ». Pour Rakuten, Opus 4.1 serait particulièrement fort pour « identifier les corrections exactes dans de grandes bases de code sans faire d’ajustements inutiles ni introduire de bogues ».
Plus étonnant, Anthropic cite le témoignage de Windsurf, selon qui le bond en performances serait équivalent à celui existant entre Sonnet 3.7 et Sonnet 4. Or, Anthropic et Windsurf étaient en froid récemment, le premier ayant coupé l’accès API au second. Début juin, Anthropic confirmait que cette coupure avait tout à voir avec les rumeurs de rachat de Windsurf par OpenAI. Mais la situation a évolué brusquement en juillet : la direction est partie travailler chez Google, tandis que le reste de l’équipe et la propriété industrielle ont été rachetées par la startup Cognition. Les tensions avec Anthropic ont donc disparu.
Enfin, Anthropic promet que d’autres mises à jour de ses modèles arriveront au cours des prochaines semaines. On attend notamment une version 4.1 pour Claude Sonnet.
Proxmox, une plateforme de virtualisation open source, vient de recevoir une version 9.0 flambante neuve. Les nouveautés sont multiples et certaines sont majeures, dont la possibilité de réaliser des instantanés sur des machines virtuelles dont l’espace a été intégralement provisionné à la création.
Parmi les nouveautés, on note d’abord une modernisation générale de la base, avec un passage à Debian 13 (Trixie) et au noyau Linux 6.14.8 - 2 par défaut. Cette base s’accompagne de QEMU 10.0.2, de LXC 6.0.4 et d’OpenZFS 2.3.3.
Des snapshots pour les espaces provisionnés
Proxmox 9.0 embarque des évolutions majeures. La plus notable est sans douter le support des snapshots (instantanés) de machines virtuelles sur le stockage partagé LVM à provisionnement épais (thick provisioning), c’est-à-dire quand tout l’espace disque est alloué dès la création de la machine virtuelle, avec des bénéfices sur les performances (au prix d’une plus grande consommation d’espace au départ). Il s’agit d’une vieille limitation de Proxmox, l’arrivée de cette fonction s’étant fait attendre depuis des années.
Proxmox 9.0 introduit également les Fabrics pour la pile SDN (Software-Defined Networking). Ils doivent permettre de construire des topologiques réseau complexes avec un effort minimal et simplifier la configuration de réseaux virtuels, y compris d’infrastructures existantes.
Des améliorations diverses
La nouvelle version s’accompagne aussi d’une refonte des mécanismes de haute disponibilité. On trouve par exemple de nouvelles règles d’affinité permettant une allocation poussée des ressources. Elles visent à garantir que les VM et les conteneurs sont placés sur les bons nœuds, pour limiter les conflits et améliorer la résistance générale. L’ensemble s’appuie sur les intégrations KVM et LXC de Proxmox.
On note une série d’autres nouveautés. Par exemple, l’interface mobile, réécrite en Rust, a été modernisée. Elle présente notamment une vue rapide pour les invités, tâches, stockages et autres ressources. Il y a des améliorations pour les notifications, dont plusieurs corrections pour le SMTP.
Signalons également une meilleure gestion des traductions (d’ailleurs mises à jour, dont la française), la possibilité pour les migrations live de migrer l’état conntrack vers le nœud ciblé, la création sans privilèges pour les nouveaux conteneurs par défaut, ou encore de nombreuses corrections un peu partout.
La liste des nouveautés est disponible depuis cette page, avec les liens de téléchargement. Rappelons que Proxmox est un produit open source autrichien, les locaux de l’entreprise étant basés à Vienne.
Signalons aussi que la version finale de Debian 13 – qui sert justement de fondation à Proxmox VE 9.0 – devrait arriver samedi 9 aout.
La fonctionnalité a été repérée par WABetaInfo dans le code de la dernière version bêta 2.25.22.13 de l’application Android. Elle n’est pas encore disponible pour les utilisateurs, mais permettra de discuter avec un contact, assurent nos confrères.
Le fonctionnement semble des plus simples : un lien à partager avec un contact pour qu’il rejoigne la conversation, sans avoir à installer l’application ni à créer de compte. Il y a évidemment des limitations : pas de conversations de groupe, de vocal, de vidéo, de fichiers multimédias…
WABetaInfo affirme que « tous les messages envoyés dans les chats invités seront protégés par un chiffrement de bout en bout ». Meta, propriétaire de WhatsApp, n’a pas communiqué sur le sujet pour le moment, impossible donc de savoir quand elle sera déployée pour les utilisateurs.
Des gendarmes de l’Unité nationale cyber (UNCyber) du général Hervé Pétry se sont rendus en Ukraine, en juillet, pour interpeller un membre du groupe de rançongiciels LockBit, révèle Franceinfo. Âgé d’une trentaine d’années, il serait impliqué dans plusieurs dizaines d’attaques, dont plusieurs en France.
« Nous savons précisément ce qu’il a fait, quel était son rôle dans le système, lui était plus un affilié », précise le général : « Cela lui assurait un revenu confortable, mais il faudra évaluer précisément combien il a réussi à gagner avec ce type d’activité ».
Pour autant, « Lockbit est affaibli, les affiliés voient que ce n’est pas aussi fiable qu’auparavant et donc se détournent aussi de Lockbit. Son système n’est plus aussi attractif » et il a « perdu en crédibilité », se félicite le général.
LockBit, dont l’infrastructure avait été saisie en février 2024 dans le cadre de l’opération Cronos coordonnée par Europol, aurait fait plus de 2 500 victimes, dont plus de 200 en France, rappelle Franceinfo, qui ne précise pas si le pirate ukrainien a été extradé ou incarcéré.
NCA LockBit
Si quelques-uns de ses affiliés ont depuis été identifiés, voire arrêtés, son cerveau, Dmitry Khoroshev, un Russe de 32 ans, ne risque rien car il vit en Russie. Les autorités états-uniennes offrent jusqu’à 10 millions de dollars de récompense pour toute information susceptible de permettre son arrestation.
L’Arcom vient de mettre en demeure cinq sites pornographiques se trouvant dans l’Union européenne. Ils ont trois semaines pour mettre en place des mesures de vérification de l’âge, faute de quoi une procédure de déréférencement et de blocage sera lancée. Un autre site écope d’une lettre d’observations.
Une des missions de l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique, fusion du CSA et de Hadopi) est de « faire respecter l’interdiction de l’accès des mineurs aux sites pornographiques », notamment en accord avec la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) et la loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique (SREN).
Dans ce but, l’Autorité dispose de « pouvoirs de sanction financière, de blocage et de déréférencement des sites pornographiques laissés accessibles aux mineurs en infraction avec le droit pénal français, qu’ils soient établis en France ou en dehors de l’Union européenne, ainsi que de ceux situés dans l’Union européenne dès lors qu’ils figurent sur un arrêté ministériel ».
Cette distinction entre sites européens et en dehors de l’Union est une forme d’une pirouette sémantique loin d’être anodine. En effet, elle a pour but d’éviter de rentrer dans le champ du droit européen (qui prime sur le droit national), comme nous l’avons déjà expliqué.
C’est en mars 2025 qu’un arrêté (daté du 26 février) donne la liste des sites dans le collimateur des autorités ; ils sont au nombre de 17. Les fournisseurs sont basés dans plusieurs pays de l’Union européenne : Chypre, République tchèque, Portugal, Espagne, Hongrie, Pays-Bas et Luxembourg.
Trois semaines, « top chrono »
Ce lundi 4 aout, l’Arcom rappelle que, le 11 juin 2025, elle avait déjà « constaté l’absence de mesures de vérification de l’âge » sur cinq sites pornographiques établis dans l’Union européenne et référencé dans l’arrêté. Elle leur avait alors adressé des lettres d’observations.
« Constatant que les sites concernés ne s’étaient pas mis en conformité avec la loi dans le délai imparti, le collège de l’Arcom a décidé de les mettre en demeure de se conformer à leurs obligations, dans un délai de trois semaines ». Faute de quoi, l’Autorité annonce qu’elle passera la seconde avec « une procédure de déréférencement et de blocage à leur encontre ».
Les cinq sites ne sont pas précisés, mais on les retrouve dans les décisions publiées dans le Journal officiel du jour : TNAFlix, xHamster, xHamsterLive, XNXX et XVideos. Deux articles composent chaque décision. Le premier met « en demeure de prendre toute mesure de nature à empêcher l’accès des mineurs à du contenu à caractère pornographique », le second informe de la publication et de la notification de la décision.
Un ping-pong commencé il y a plusieurs semaines
Trois sites sont pour rappel bloqué en France, suite à une décision de leur éditeur Aylo (ex Mindgeek) : Youporn, Pornhub et Redtube. Cela fait suite à un jeu de ping-pong entre Aylo et les autorités françaises.
L’éditeur explique sa position et tire à boulet rouge sur cette obligation de vérification : « Cette mesure ne protège pas les mineurs, elle met en péril la vie privée de chacun et met les enfants en danger, car elle conduit le trafic vers des milliers de sites qui contournent délibérément les réglementations, ne vérifient pas l’âge des participants dans les contenus et encouragent activement les utilisateurs à contourner la loi ».
Aylo avait déjà bloqué l’accès à ses sites en France début juin, deux jours à peine avant la date butoir du 6 juin permettant à l’Arcom d’agir. En effet, l’arrêté du 26 février avait été publié le 6 mars et entrait en vigueur « trois mois après sa publication au Journal officiel de la République français », soit le 6 juin.
L’éditeur a ensuite fait marche arrière deux semaines plus tard quand le tribunal administratif de Paris a ordonné la suspension de l’obligation de contrôle. Mi-juillet, le Conseil d’État rétablissait l’obligation de contrôle d’âge, Aylo rebloquait dans la foulée l’accès aux sites pour les utilisateurs venant de France. Il suffit cela dit d’utiliser un VPN transitant par un autre pays (y compris dans l’Union européenne) pour accéder aux contenus d’Aylo, après avoir simplement confirmé avoir plus de 18 ans d’un clic.
Encore des sites pornos accessibles d’un simple clic
L’Autorité ajoute aussi qu’elle a également « décidé d’adresser une lettre d’observations à un fournisseur qui avait retiré son système de vérification de l’âge à la suite de la suspension de l’arrêté ». Là encore, elle ne donne aucun nom. Nous savons simplement que le site se trouve dans la liste des 17 de l’arrêté de février.
Hormis les trois sites d’Aylo qui sont bloqués et les cinq mis en demeure cette semaine, il reste donc neuf sites. La plupart demandent une vérification d’âge, avec des procédures diverses et variées. Cela va d’un selfie à un document officiel, en passant par des applications mobiles, un ticket à un euro à acheter chez les buralistes…
Néanmoins, sur certains sites, un clic suffit encore parfois. C’est le cas de Heureporno dont la vérification de l’âge se limite à entrer une année de naissance. 2007 est entrée par défaut, d’un clic on valide donc cette étape. Il faut ensuite accepter les cookies… avec 1 561 « partenaires ». Sur reference-sexe c’est encore plus simple : il suffit de cliquer sur « Accepter » en réponse au message « ATTENTION SITE PORNOGRAPHIQUE l’accès à ce site est interdit aux mineurs ».
Pour rappel, Heureporno, édité par Techpump Solutions, avait déjà écopé d’une mise en demeure en avril 2023 afin « d’empêcher l’accès des mineurs » à ses sites. Même chose pour Technius Ltd, éditeur de xHamster.
« Dès 12 ans, plus de la moitié des garçons »…
Dans une étude publiée en 2023, l’Arcom affirmait que, « chaque mois, 2,3 millions de mineurs fréquentent des sites pornographiques, un chiffre en croissance rapide au cours des dernières années ». Les mineurs y passent en moyenne « 50 minutes par mois et 7 minutes par jour ».
De plus, « dès 12 ans, plus de la moitié des garçons se rendent sur des sites adultes en moyenne chaque mois », contre un peu moins d’un tiers des filles.
La série noire continue. C’est au tour de Pandora de prévenir ses clients d’une « violation de données personnelles ». La communication du joaillier danois est pour le moins surprenante puisqu’elle se dit victime « d’une attaque de cybersécurité » (sic).
Quoi qu’il en soit, « certaines données clients ont été consultées via une plateforme tierce ». Pandora parle de « données courantes […] copiées par l’attaquant, à savoir votre nom, date de naissance, et adresse e-mail ». La société se veut rassurante : « aucun mot de passe, numéro de carte bancaire ou autre donnée confidentielle similaire n’a été concerné par cet incident ».
Pandora affirme que, selon ses vérifications, « rien n’indique que ces données aient été partagées ou publiées ». La société rappelle que la protection de la vie privée est « une priorité absolue » et qu’elle prend cette « situation très au sérieux ».
Ce qui ne l’empêche pas de se cacher derrière ses camarades, rappelant que ce type d’incident est « devenu malheureusement plus courant ces dernières années, en particulier chez les entreprises internationales ». Il est vrai que les fuites se multiplient, mais cela n’en fait pas une bonne raison d’être victime d’une cyberattaque, avec le vol de données personnelles.
Le risque est toujours le même : « des tentatives d’hameçonnage (phishing) menées par des tiers se faisant passer pour Pandora » afin de récupérer davantage d’informations.