↩ Accueil

Vue lecture

« Vol de salaires » : comment la filiale de Scale AI Outlier traite les travailleurs du clic

Aberration
« Vol de salaires » : comment la filiale de Scale AI Outlier traite les travailleurs du clic

Alors qu’une société comme Scale AI tire largement profit de l’explosion de l’intelligence artificielle générative, le traitement qu’elle réserve aux travailleurs et travailleuses des données interroge.

Au Royaume-Uni, fin 2024, quiconque cherchait de quoi se faire un peu d’argent pouvait se tourner vers le programme d’entraînement de grands modèles de langage Outlier. À une condition près : accepter de n’être payé que 15 dollars de l’heure, soit à peine quelques centimes au-dessus du salaire minimum local.

Seconde condition, que certains travailleurs n’allaient découvrir qu’au fil des tâches : le temps passé à se former pour ces tâches n’était pas payé. Le temps passé à discuter avec les managers, les temps de pause, les réunions, les vacances, rien de tout cela n’était payé. Et si les intéressés tentent de faire des heures supplémentaires, celles-ci sont payées à un taux plus faible – autant de pratiques relativement récurrentes dans l’économie de la plateforme.

Outlier est une filiale de la société Scale AI, spécialiste de l’entraînement des systèmes d’IA dont Meta a racheté 49 % des parts pour 14 milliards de dollars fin juin, et débauché le fondateur Alexandr Wang.

Activités non payées

Que ce soit au Portugal, aux États-Unis, en Allemagne ou en Argentine, la cinquantaine de travailleurs des données interrogés par Algorithm Watch témoignent de pratiques similaires. S’ils incluaient le temps passé en formation, en travail administratif ou en réunion au calcul de leur temps dédié à entraîner des systèmes d’IA, alors le salaire perçu pour leurs tâches d’entraînement serait inférieur aux minimums légaux de chacun de leurs pays.

D’après les sociologues Milagros Miceli et Antonio Casilli, les pratiques consistant à ne pas rémunérer les périodes d’onboarding ou d’heures supplémentaires constituent du « vol de salaires ». D’autant que certains indiquent se retrouver coincés à effectuer des tâches dont le temps de réalisation est indiqué d’une heure, mais qui sont en réalité « trop complexes pour être réalisées en temps et en heure, si bien que la personne réalise bientôt qu’elle dépense bien plus de temps dans cette activité que ce que cette dernière doit leur rapporter ».

De fait, selon une étude menée en 2022 auprès d’employés des pays du sud, près de 34 % du temps alloué aux plateformes d’entrainement de système d’IA n’était pas payé. Auprès de Next, Antonio Casilli qualifiait l’IA d’industrie extractiviste, tant pour ses besoins en ressources matérielles et en énergie que pour le traitement qu’elle réservait aux entraîneurs et modérateurs de ses différents modèles.

Suspension inexpliquées et salaires non versés

Dans certains cas, les travailleurs ne sont même pas payés pour leurs activités, que ce soit à cause de divers bugs technique décrits par la journaliste Karen Hao dans son enquête Empire of AI (Penguin Random House, non traduit), ou pour d’incompréhensibles suspensions de comptes. Auprès d’Algorithm Watch, un travailleur indien explique ainsi y avoir passé cinq heures par jour, pendant trois jours, pour l’équivalent de 20 à 30 dollars.

« Alors que j’attendais le paiement, ils m’ont envoyé un e-mail m’informant que j’avais enfreint leur politique et suspendu mon compte, indique-t-il au média. Lorsque je les ai contactés, je n’ai reçu aucune réponse satisfaisante. Je n’ai pas été payé du tout. » Alors que le patron de Scale AI déclarait en 2023 s’engager pour que les travailleurs de l’IA perçoivent des « salaires décents », les enquêtes s’accumulent qui montrent l’inverse.

Plusieurs affaires judiciaires aux États-Unis

Fondée en 2016 par Alexandr Wang, Scale AI s’est attirée les financements du Founders Fund de Peter Thiel, qui y a versé 100 millions de dollars en 2019, avant d’être suivi par Amazon et Meta. Parmi ses clients, l’entreprise compte Accenture, SAP ou encore Deloitte en Europe, et la plupart des acteurs de l’IA (Meta, OpenAI, Alphabet) aux États-Unis.

Dans la mesure où les pratiques salariales problématiques se multiplient – beaucoup de travailleurs se plaignent aussi de l’absence de régularité des tâches disponibles –, trois plaintes ont été déposées devant des tribunaux californiens contre plusieurs acteurs de l’entraînement de l’IA.

Dans l’une d’elle, déposée en décembre 2024, l’ancien contractuel Steve McKinney accuse Scale AI de « vol de salaire » et de « mauvaise classification des travailleurs ». La plainte comporte par ailleurs une mention de tactiques trompeuses, avec des promesses de salaire horaire de 25 dollars au moment de l’embauche, pour ensuite n’en verser qu’une portion une fois le travail effectué.

Une autre, déposée en janvier 2025, affirme que Scale AI aurait « délibérément refusé de payer des heures supplémentaires » et d’autres indemnités légales. Une troisième, déposée à la fois contre Scale AI, Outlier et HireArt, accuse les différents programmes et sociétés d’avoir mis fin aux emplois de 500 personnes sans respecter la durée légale de préavis.

  •  

Alltricks piraté : de faux mails avec de vrais pièges envoyés aux clients

Allphishings
Alltricks piraté : de faux mails avec de vrais pièges envoyés aux clients

Alltricks s’est fait pirater son système d’envoi d’e-mails, qui passe visiblement par Sendinblue (Brevo). Des clients ont reçu des tentatives de phishing. La société continue son enquête pour voir s’il y a eu exfiltration de données.

La saison des fuites de données est au beau fixe, au grand dam de vos données personnelles et bancaires, avec des risques de phishing. C’est au tour de la boutique en ligne spécialisée dans le cyclisme d’en faire les frais, comme vous avez été plusieurs à nous le signaler (merci à vous !).

Certains ont, en effet, reçu un email de phishing provenant de la boutique en ligne, parfois sur alias utilisé uniquement pour cette enseigne, ce qui ne laisse que peu de doute quant à la provenance de « l’incident de cybersécurité » pour reprendre un terme à la mode.

Le système d’envoi d’e-mails piratés pour envoyer du phishing

L’email piégé affiche en gros un lien « Open in OneDrive », sur lequel il ne faut évidemment pas cliquer. Le lien semble légitime puisqu’il est de la forme « https://r.sb3.alltricks.com/xxxx ». Il reprend donc bien le domaine d’Alltricks, avec un sous domaine « r.sb3 ». Mais ce lien n’est qu’une redirection vers une autre adresse. Le domaine r.sb3.alltricks.com renvoie vers Sendinblue, une plateforme de gestion des newsletters.

C’est une pratique courante avec ce genre de service : les liens sont modifiés afin de pouvoir récupérer des statistiques sur le taux d’ouverture par exemple. Problème, impossible de savoir où mène ce lien juste en le regardant. Plus embêtant dans le cas présent, son domaine principal pourrait laisser penser que c’est un lien légitime, alors que non !

Hier, le revendeur a communiqué auprès de ses clients : « Nous souhaitons vous informer qu’une intrusion récente a affecté notre système d’envoi d’e-mails. Il est possible que vous ayez reçu, au cours des derniers jours, un message provenant d’adresses telles que : pro@alltricks.com, infos@alltricks.com
ou no-reply@alltricks.com
 ». La société ne donne pas plus de détails sur la méthode utilisée par les pirates.

Suivant les cas, « ces e-mails pouvaient contenir un lien vous invitant à : renouveler votre mot de passe, ouvrir un fichier Excel, consulter un document OneDrive ». Le revendeur ajoute qu’ils « ne proviennent pas de [son] équipe et ne doivent pas être ouverts ». Dans le cas contraire, il recommande « de modifier rapidement le mot de passe associé à votre compte e-mail ».

Pas de données bancaires… quid des données personnelles ?

Alltricks affirme « qu’aucune données bancaires et/ou de paiement ne sont concernées ». Comme toujours ou presque en pareille situation, l’enseigne affirme : « la sécurité de vos données est notre priorité. Nous avons immédiatement mis en place des mesures pour sécuriser notre système et éviter que cette situation ne se reproduise ».

Un lecteur nous précise avoir contacté le service client et obtenu une réponse précisant qu’une enquête était en cours afin de vérifier si des données avaient été exfiltrées. Dans sa réponse que nous avons consultée, la société affirme aussi qu’elle va se rapprocher de la CNIL afin de déclarer cet incident, comme la loi l’y oblige.

L’entreprise ne communique par contre pas de manière publique, que ce soit sur son site ou les réseaux sociaux. Pourtant, des clients en parlent sous une publication Facebook, l’un d’entre eux s’étonne d’ailleurs d’avoir reçu cet email de phishing.

  •  

☕️ Constellation Kuiper : Amazon dispose désormais de 102 satellites en orbite

Le 11 août, Amazon a lancé sa quatrième mission Kuiper : KF-02, pour Kuiper Falcon 2. Comme celle de juillet, 24 satellites Kuiper étaient installés dans une fusée Falcon 9 de SpaceX. Avant cela, deux autres missions sur des fusées Atlas V d’United Launch Alliance s’étaient déroulées en juin et avril avec respectivement KA-02 et KA-01 (KA pour Kuiper Atlas).

« Les satellites se sont séparés de la fusée à une altitude de 465 kilomètres au-dessus de la Terre. Au cours des prochains mois, ils s’élèveront progressivement jusqu’à l’altitude qui leur a été assignée de 630 km », explique Amazon. Ils viendront donc rejoindre les 78 déjà en place. De son côté, SpaceX a récupéré son premier étage sur la barge « A Shortfall of Gravitas » dans l’océan Atlantique.

Le géant américain a déjà « sécurisé plus de 80 lancements » afin de déployer sa constellation en orbite basse, avec une combinaison de fusées d’Arianespace, de Blue Origin, de SpaceX et de United Launch Alliance (ULA). Plus de 3 200 satellites sont prévus à terme.

Amazon kuiper

Il y a quelques semaines, Amazon recevait le feu vert de l’Arcep (régulateur des télécoms) pour déployer son système de communication par satellites Kuiper en France. Starlink de SpaceX est déjà disponible dans de nombreux pays à travers le monde, notamment la France, et compte plus de 10 000 satellites en orbite.

  •  

☕️ Reddit a décidé de bloquer l’archivage par Internet Archive pour éviter le scraping des IA

Le réseau social a décidé de bloquer l’archivage de ses pages de discussion par Internet Archive pour éviter le scraping effectué par des entreprises d’IA, explique The Verge.

Reddit et l’IA générative est une histoire compliquée. L’entreprise, dont le CEO d’OpenAI Sam Altman possède 9 % des parts, a rapidement rendu son API payante en réaction à la vague de l’IA générative. L’entreprise a maintenu ce projet malgré une fronde importante de ses utilisateurs.

une icône de l'application reddit affiche 2 notifications en attente

Plus récemment, l’entreprise expliquait qu’elle envisageait de vérifier ses utilisateurs avec l’outil de scan d’iris de Sam Altman pour contrer les messages générés par IA.

Maintenant, Reddit explique vouloir bloquer l’indexation de ses pages détaillées des publications, les commentaires et les pages de profils de ses utilisateurs par l’outil d’archivage Wayback Machine. À The Verge, l’entreprise explique : « Internet Archive fournit un service pour tout le web, mais nous avons été informés de cas où des entreprises spécialisées dans l’intelligence artificielle enfreignent les politiques des plateformes, y compris la nôtre, et extraient des données de Wayback Machine ». Reddit va permettre à Internet Archive d’archiver seulement sa page d’accueil.

« Nous entretenons une relation de longue date avec Reddit et continuons à discuter de ce sujet avec eux », a expliqué à nos confrères le directeur de la Wayback Machine, Mark Graham.

  •  

☕️ Copyright : Anthropic pourrait faire face à la plus grande class action jamais réunie

Une action de groupe qui pourrait « ruiner financièrement » l’intégralité de l’industrie de l’IA, si les plus de 7 millions de requérants potentiels finissent par rejoindre le litige et imposer une forme de règlement financier.

Telle est l’action judiciaire face à laquelle Anthropic a fait appel il y a quelques jours aux États-Unis, estimant que si l’action suivait son cours, elle pourrait se retrouver à devoir payer des « centaines de milliards de dollars de dommages et intérêts » à l’issue d’un procès qui doit se tenir dans quatre mois.

En jeu, rappelle Ars Technica : le droit des auteurs de plus de sept millions d’œuvres, dont chaque auteur ou ayant-droit pourrait potentiellement se joindre à l’action et déclencher une amende susceptible de s’élever à 150 000 dollars.

Face à la justice, Anthropic souligne qu’elle pourrait décider plus prudent de trouver un accord à l’amiable en amont du procès, plutôt que de présenter des moyens de défense de ses modèles d’IA lors de ce dernier. L’entreprise s’inquiète de créer là un précédent pour toute l’industrie de l’IA, dans la mesure où les plaintes sur les questions de copyrights sont nombreuses.

Plusieurs groupes de défense des droits des auteurs soutiennent Anthropic dans sa requête, parmi lesquelles l’Authors Alliance, l’Electronic Frontier Foundation, l’American Library Association, l’Association of Research Libraries et Public Knowledge.

Ensemble, ces entités ont souligné que le format de l’action collective était complexe à mettre en œuvre pour des enjeux de droits d’auteur, et que l’affaire des Google Books avait déjà démontré la complexité, pour les auteurs, de faire valoir leurs droits, avoir connaissance du procès en cours, et éventuellement récupérer les dommages et intérêts qui leur étaient dus.

  •  

GPT-5 face aux critiques quelques jours après sa sortie

Pas d'un si haut niveau de réflexion
GPT-5 face aux critiques quelques jours après sa sortie

OpenAI affirmait à la sortie que GPT-5 était plus performant et moins flatteur que les versions précédentes. Quelques jours après, le modèle « unifié » essuie les mêmes critiques que ses prédécesseurs sur ses réponses à de simples questions logiques ou mathématiques. Ce constat bat en brèche l’affirmation d’une expertise de niveau doctorat sur n’importe quel sujet clamé par Sam Altman.

Lors de la présentation du nouveau modèle GPT-5 de son entreprise, le CEO d’OpenAI, Sam Altman, a déclaré que c’est « la première fois que l’on a vraiment l’impression de parler à un expert dans n’importe quel domaine, comme un expert titulaire d’un doctorat », racontait la semaine dernière la BBC. Depuis, des utilisateurs ont montré les limites de ce modèle présenté comme « une étape significative » pour l’entreprise par son dirigeant.

Ce n’est pas la première fois qu’OpenAI clame un niveau PhD (doctorat) pour l’un de ses modèles. Comme nous l’écrivions il y a deux mois, l’entreprise affirmait déjà en septembre 2024 que son modèle o1 « dépassait le niveau d’un docteur [human PhD-level accuracy] » sur un benchmark de physique, de biologie et de chimie (le GPQA, créé en 2023 par des chercheurs de l’Université de New York, d’Anthropic et de la startup Cohere). Rappelons encore, comme nous le faisions à l’époque, que l’attribution d’un doctorat ne se fait pas sur la base d’un savoir à recracher.

Des difficultés sur des problèmes simples de logique

Plusieurs utilisateurs, comme le journaliste de l’agence de presse Reuters Peter Thal Larsen, ont pu tester les difficultés de GPT-5 pour compter le nombre de « b » dans le mot « blueberry », par exemple. Le modèle génère un message affirmant qu’il y en a 3. Il faut créer une discussion d’accompagnement comme avec un enfant de primaire pour qu’il génère un message avec le bon compte.

D’autres ont montré avec des questions de logique simple que le modèle présenté par OpenAI comme d’un niveau très élevé de réflexion réitérait le même genre d’erreurs que ses prédécesseurs. Interrogé pour savoir si, d’un point de vue théorique, il préférait avoir une jambe plus courte ou une jambe plus longue, le chatbot d’OpenAI utilisant ce nouveau modèle génère ainsi une réflexion pseudo-logique en faveur d’une jambe plus courte.

Ces exemples montrent que GPT-5 n’est sans doute pas une étape si « significative » que ça dans l’avancée de l’IA générative. Mais, pour le développeur Simon Willison, qui a pu tester le modèle avant sa sortie, « c’est [son] nouveau modèle préféré ». « Il s’agit toujours d’un LLM, ce n’est pas un changement radical par rapport à ce que nous avions auparavant, mais il fait rarement des erreurs et semble généralement compétent, voire parfois impressionnant, dans les domaines où j’aime utiliser des modèles », ajoute-t-il.

Un système pas au point le jour du lancement

Répondant aux premières impressions négatives de certains utilisateurs, Sam Altman a affirmé vendredi 8 aout sur X que « GPT-5 semblera plus intelligent à partir d’aujourd’hui ». Il a ajouté qu’ « hier [jeudi 7 aout, ndlr], l’autoswitcher est tombé en panne et a été hors service pendant une bonne partie de la journée, ce qui a donné l’impression que GPT-5 était beaucoup moins intelligent. De plus, nous apportons quelques modifications au fonctionnement de la limite de décision, ce qui devrait vous aider à obtenir plus souvent le bon modèle ».

En tant que « modèle unifié », GPT-5 est censé évaluer le degré de précision de la réponse à apporter et choisir la branche vers laquelle diriger le traitement, selon la complexité de la requête. Il semble que ce système n’était pas au point lors du lancement.

Dans un billet au vitriol, largement repris, Gary Marcus avance que GPT-5 est à la fois « en retard, surfait et décevant », et que s’il « représente peut-être une amélioration quantitative modérée (et il est peut-être moins cher), il échoue toujours de la même manière qualitative que ses prédécesseurs, aux échecs, au raisonnement, à la vision ; même parfois au décompte et aux mathématiques de base », et « les hallucinations persistent ».

Une stratégie révisée à la hâte

D’ailleurs, dans un « Ask me anything » organisé par Reddit ce week-end, le CEO d’OpenAI semblait revenir sur la décision de l’entreprise de ne plus laisser le choix de l’utilisation de tel ou tel modèle à ses utilisateurs, comme il l’avait présenté la semaine dernière. Sam Altman a affirmé qu’OpenAI allait réintroduire la possibilité de choisir spécifiquement le modèle GPT-4o pour les utilisateurs Plus.

Le principe de « modèle unifié » doit aussi permettre à l’entreprise de mieux gérer ses dépenses énergétiques, en donnant à traiter les réponses simples à des modèles moins énergivores. Mais comme le rappelle le Guardian, OpenAI est très opaque concernant ses dépenses énergétiques et il est donc difficile de savoir si ce système permettra de réelles économies d’énergie.

  •  

☕️ Donald Trump vante maintenant l‘« histoire incroyable » du CEO d’Intel

En fin de semaine dernière, Donald Trump affirmait sans détours, sur sa plateforme Truth, que le CEO d’Intel faisait « face à un grave CONFLIT d’intérêts » et qu’il devait « immédiatement démissionner ». Le ton était ferme, le verdict sans appel : « Il n’y a pas d’autre solution à ce problème ». Depuis le week-end est passé et Donald Trump a changé d’avis.

Cette déclaration faisait suite à une lettre d’un sénateur avec des questions sur « la sécurité nationale des États-Unis » et les liens de Lip-Bu Tan avec des entreprises chinoises. Le CEO d’Intel avait répondu dans une lettre ouverte que « beaucoup de désinformations ont circulé concernant mes anciens postes ». Une réunion était prévue avec le président des États-Unis hier.

C’est de nouveau sur son réseau social que Donald Trump donne des nouvelles de cet entretien, réalisé avec Howard Lutnick (secrétaire au Commerce) et Scott Bessent (secrétaire au Trésor) : « La réunion a été très intéressante. Son succès et son ascension sont une histoire incroyable ». Il ne parle plus de démission.

Le président ajoute que les discussions vont se poursuivre avec son cabinet, qui lui fera des suggestions la semaine prochaine. Pour Engadget, cela ne fait aucun doute, « le CEO d’Intel a réussi à courtiser le président Trump »… pour l’instant ? Les choses peuvent bouger d’ici à la semaine prochaine.

  •  

☕️ États-Unis : sur le marché de l’occasion aussi, le prix des Tesla continue de plonger

Alors que le prix à la revente des cybertruck traduit les difficultés de Tesla à remonter dans l’estime de la population, un acquéreur bien spécifique a signifié son intérêt pour deux véhicules de ce type : l’armée des États-Unis, qui a décidé de s’en servir… comme cible d’entraînement.

Quand bien même le pick-up électrique avait été présenté comme véhicule du futur, totalisant plus de 180 000 pré-commandes quelques jours à peine après avoir été dévoilé en 2019, voilà que son prix moyen de revente a plongé de plus de 30 % sur un an aux États-Unis.

À ses côtés, repère Gizmodo, le prix moyen de rachat de n’importe quel véhicule Tesla est désormais passé sous la moyenne du prix de rachat des véhicules aux États-Unis (qui se situe à 28 048 dollars). À 27 852 dollars, le montant des Tesla d’occasions encaisse une baisse de 14 % sur un an, tiré vers le bas par les engagements et action politique du patron de la marque.

D’après The War Zone, il y a bien un acteur intéressé par les véhicules : l’armée des États-Unis vient en effet de se porter acquéreur de deux Cybertruck pour en faire des cibles d’entraînements.

S’ils sont les seuls à être explicitement nommés, les véhicules électriques sont néanmoins cités aux côtés de plusieurs modèles de voitures dans les documents officiels. 
L’armée ne suffira pas à renflouer les caisses de Tesla avec cet usage inhabituel, cela dit : elle indique que les modèles recherchés n’ont « pas besoin d’être en état de marche ».

  •  

L’administration Trump impose son idéologie dans les financements de la recherche

Sans gêne
L’administration Trump impose son idéologie dans les financements de la recherche

Un décret signé par Donald Trump et publié jeudi 7 août impose sa vision au monde scientifique en modifiant la façon dont les financements aux différents projets scientifiques sont attribués aux États-Unis. Le texte implique de prendre davantage en compte l’avis des directions nommées par Trump plutôt que celui des scientifiques qui auront évalué les projets.

Après avoir déstabilisé le fonctionnement de la recherche de son pays, supprimé des milliers de postes de personnels scientifiques, baissé drastiquement les budgets d’agences scientifiques comme la NASA et censuré le travail de chercheuses et chercheurs sur le climat, le genre et bien d’autres sujets, Donald Trump impose sa vision aux agences scientifiques étasuniennes.

Des récompenses seulement pour « la réalisation des priorités politiques du président »

Les financements de la recherche aux États-Unis vont maintenant dépendre davantage de l’avis des responsables des agences nommé par Donald Trump que de celui des chercheurs. Dans un arrêté publié ce jeudi 7 aout, le président étasunien a décidé d’une évolution importante dans l’attribution des financements pour que les projets qui ne suivent pas ses idées ne soient pas financés.

Ce texte, qui s’appuie sur des accusations de politisations de la recherche par la gauche, demande aux directions des agences étasuniennes de financement de la recherche comme la National Science Foundation (NSF) et le National Institutes of Health (NIH) de ne récompenser que des projets qui « contribuent de manière manifeste à la réalisation des priorités politiques du président ».

Le peer-review des financements outrepassé politiquement

Selon ce texte, les responsables d’agences nommés par Donald Trump et leurs équipes ne devront plus « ratifier de manière administrative ni se conformer systématiquement aux recommandations d’autrui lors de l’examen des appels à projets ou des attributions discrétionnaires, mais [devront] plutôt faire appel à leur jugement indépendant ». Si « autrui » n’est pas spécifié, la revue Science explique que cela permettrait aux directions des agences de passer outre les avis des chercheurs, processus nommé « peer-review » dans le milieu.

Depuis des années, les agences étasuniennes de financement de la recherche (NSF, NIH et les autres) ont mis en place un système qui alloue de l’argent à des projets de recherche sur appels. Les chercheurs remplissent des dossiers et ceux-ci sont évalués par leurs pairs. Ce système a été copié un peu partout dans le monde. L’European Research Council (ERC) et en France, l’ANR, fonctionne de cette façon pour l’attribution de leurs financements.

Jusque-là, les agences étatsuniennes s’appuyaient notamment sur l’évaluation par des chercheurs extérieurs aux projets pour décider lesquels allaient avoir droit à un financement. Comme l’explique Forbes, « bien que les systèmes [d’attribution des financements] et les processus qui en découlent soient loin d’être parfaits, ils ont été mis en place pour que les décisions soient davantage fondées sur la recherche et les priorités scientifiques et qu’elles soient davantage entre les mains de véritables scientifiques plutôt que de politiciens et d’autres personnes ayant des intérêts politiques ou commerciaux. Ils sont également conçus pour aider à prévenir la corruption ».

« Nous avons déjà vu cette administration prendre des mesures pour exercer son autorité qui ont entraîné des retards, des gels et la résiliation de subventions représentant des milliards de dollars », affirme à la revue Science l’ancienne responsable à la NIH, Carrie Wolinetz, aujourd’hui lobbyiste pour Lewis-Burke Associates. « Cela reviendrait à codifier ces mesures d’une manière qui représente une véritable politisation de la science, ce qui serait une très mauvaise idée », ajoute-t-elle.

Une politisation justifiée par des accusations de politisations antérieures

Ce texte, qui donne donc plus de pouvoir à l’administration politique dans l’attribution des financements, s’appuie sur des accusations de politisation du système par les républicains depuis des années. Le texte signé par Donald Trump s’appuie sur un rapport [PDF] du sénateur républicain Ted Cruz de 2024 qu’il qualifie d’ « étude » pour accuser la NSF d’avoir financé des études sur la diversité, l’équité et l’inclusion, ainsi que d’autres initiatives que le président s’empresse de qualifier « d’initiatives d’extrême gauche » sans entrer dans les détails.

Il cite également le financement par le NIH du laboratoire de Wuhan qui serait à l’origine de la pandémie de Covid-19, mais aussi celui d’outils de modération des réseaux sociaux par IA comme WiseDex, qualifiés par les Républicains [PDF] d’ « outils de censure ».

Dans ce texte, Donald Trump déplore que la NSF ait financé des chercheurs qui n’ont pas les mêmes regards politiques qu’il accuse d’avoir « promu le marxisme, la propagande de la lutte des classes et d’autres idéologies anti-américaines dans leurs classes, sous le couvert d’une recherche rigoureuse et réfléchie ». Rappelons que ces financements sont attribués à des projets de recherche et non à des enseignements.

« Il s’agit là d’une prise de pouvoir considérable par décret présidentiel… », déplore sur Bluesky l’ancien directeur de l’institut des sciences médicales du NIH, Jeremy Berg. « Jamais aucune personne nommée à des fonctions politiques n’a exercé ce genre de pouvoir par le passé », a-t-il ajouté auprès de la revue scientifique Nature.

Une pression politique qui se fait sentir partout dans l’administration étasunienne

La pression de Donald Trump sur les administrations étasuniennes ne se fait pas sentir que sur les agences scientifiques. En effet, début aout, après de très mauvais chiffres de l’emploi, le dirigeant des États-Unis a renvoyé la responsable des statistiques Erika McEntarfer et a affirmé sur son réseau social Truth que « L’économie est en plein essor sous “Trump”  ».

Du côté du renseignement aussi, des anciens membres des services de renseignement, de la diplomatie, de la défense et de la sécurité nationale des États-Unis tirent la sonnette d’alarme contre la politisation et les représailles dans une lettre ouverte publiée ce samedi 9 aout.

  •  

☕️ USA : les défenseurs de la neutralité du Net ne feront pas appel devant la Cour suprême

Les groupes de défense états-uniens qui avaient tenté de défendre les règles fédérales en matière de neutralité du Net devant les tribunaux ne feront pas appel, avançant qu’ils ne font pas confiance à la Cour suprême pour statuer équitablement sur la question, relève Ars Technica.

Les règles en faveur de la neutralité du net avaient été mises en œuvre par la Federal Communications Commission (FCC) sous l’ère Obama, puis abrogées pendant le premier mandat de Trump, et rétablies sous Biden. Les lobbies du secteur des télécommunications avaient contesté leur rétablissement, et obtenu son invalidation par la FCC en janvier 2025.

Dans un communiqué de presse, quatre ONG expliquent qu’il ne sert à rien de faire appel : quand bien même la Cour Suprême leur donnerait raison, la FCC supprimerait de nouveau la neutralité du Net.

« L’élection de Trump a fait basculer la majorité de la FCC vers des idéologues qui ont toujours pris le parti de l’industrie du haut débit sur cette question cruciale », explique Matt Wood, vice-président de la Free Press. Il note en outre que « les juges qui composent la majorité actuelle de la Cour suprême ont fait preuve d’hostilité à l’égard d’un raisonnement juridique solide sur cette question précise et sur toute une série d’autres sujets ».

« La décision de la 6e Cour d’appel en début d’année était spectaculairement erronée, et les protections qu’elle a annulées sont extrêmement importantes. Mais plutôt que d’essayer de vaincre une agence qui a changé de mains et une majorité de la Cour suprême qui se soucie très peu de l’État de droit, nous continuerons à nous battre pour l’accessibilité et l’ouverture de l’internet au Congrès, dans les assemblées législatives des États et dans d’autres procédures judiciaires dans tout le pays », a précisé M. Wood.

Ars Technica souligne que la Californie a en effet réussi à consacrer la neutralité du Net. Les fournisseurs de services Internet ont tenté de faire annuler la loi, mais les tribunaux ont décidé que les États pouvaient réglementer la neutralité du réseau lorsque la FCC ne le faisait pas.

  •  

☕️ Firefox 141 critiqué pour la consommation excessive des suggestions par IA

Avec la version 141 du navigateur, Firefox a ajouté une nouvelle fonctionnalité : utiliser une IA (locale) pour « suggérer des onglets et des noms pour les groupes d’onglets ». Le fonctionnement est détaillé par ici.

L’éditeur est critiqué sur Reddit par des utilisateurs se plaignant d’une consommation excessive des ressources CPU, avec donc une baisse de l’autonomie sur un ordinateur portable, comme le rapporte Neowin.

Selon plusieurs retours, la cause serait imputable au processus Inference, qui ne laisse que peu de doute quant à son utilité. Nos confrères rappellent qu’il est possible de désactiver ces fonctionnalités en se rendant dans « about:config ».

Pour désactiver le chatbot AI, il faut mettre le paramètre browser.ml.chat.enabled à false et pour le regroupement des onglets, c’est browser.tabs.groups.smart.enabled.

Mozilla a mis en ligne des versions 141.0.2 et 141.0.3 de son navigateur, mais les notes de versions n’indiquent pas de changement sur l’inférence de l’IA locale.

Si vous utilisez Firefox et si vous êtes confronté à ce souci, n’hésitez pas à nous en faire part dans les commentaires.

  •  

Le gouvernement des États-Unis prendra une part des ventes de NVIDIA et AMD en Chine

Profits vs security
Le gouvernement des États-Unis prendra une part des ventes de NVIDIA et AMD en Chine

NVIDIA et AMD ont conclu un accord inhabituel avec le gouvernement des États-Unis sur leurs ventes de puces dédiées à l’IA en Chine.

NVIDIA et AMD devraient verser aux États-Unis 15 % du chiffre d’affaires réalisé en vendant des puces dédiées à l’intelligence artificielle en Chine. Cet accord très inhabituel a été signé un mois après que Nvidia a obtenu l’autorisation de vendre sa puce H20 en Chine. Depuis, le gouvernement n’avait pourtant pas publié les licences qui auraient effectivement permis ces ventes.

Le 6 août, le directeur général de NVIDIA Jensen Huang s’est rendu à la Maison-Blanche, selon les sources du Financial Times et du New-York Times, et a accepté de céder des parts du profit tiré des ventes en Chine. Deux jours plus tard, le ministère du Commerce accordait les premières licences nécessaires aux ventes.

Licences d’export accordées

De même, les ventes des puces MI308 d’AMD en Chine avaient été bloquées par le gouvernement Trump en avril et devraient profiter du même accord.

S’il est arrivé par le passé que le ministère du Commerce des États-Unis n’accepte de fournir des licences d’export qu’en l’échange d’une part des revenus, cette opération-ci s’intègre dans des pratiques interventionnistes désormais récurrentes du gouvernement Trump.

Avec des prévisions de ventes de 15 milliards de dollars de puces NVIDIA et de 800 millions de dollars de puces AMD, selon l’institut Bernstein Research, le gouvernement pourrait récupérer jusqu’à 2 milliards de dollars de cet accord.

Suspicions chinoises

Pour les experts du secteur, en revanche, celui-ci pourrait pousser la Chine à exercer le même type de pression financière sur d’autres sociétés stratégiques du numérique. Quand bien même les États-Unis continuent d’empêcher NVIDIA de vendre ses puces les plus avancées, beaucoup redoutent que le commerce des H20 suffisent à accélérer les compétences chinoises en matières d’IA. Les dirigeants du domaine, eux, argumentent que leur permettre de vendre leurs produits leur permet de rester dans la course concurrentielle.

La semaine dernière, Donald Trump a indiqué que les entreprises de la tech devraient payer des droits de douane de 100 % sur leurs semi-conducteurs construits à l’étranger si elles n’investissaient pas aux États-Unis.

En Chine, le gouvernement chinois a de son côté convoqué Jensen Huang en juillet pour évoquer avec lui la possibilité que les puces H20 soient équipées de backdoor posant des risques de sécurité. En réaction, NVIDIA a publié un article niant une telle possibilité et critiquant le projet du Congrès des États-Unis de passer un texte dédié à la sécurité des puces électroniques, qui obligerait l’entreprise à suivre ses produits pour éviter que la technologie ne soit introduite clandestinement en Chine.

  •  

☕️ Marks & Spencer a mis près de quatre mois à se relever d’une cyberattaque

En avril, Marks & Spencer était victime d’un « incident de cybersécurité ». La chaine de magasins avait alors suspendu les commandes en ligne et son service Click and Collect ! Il n’était plus possible de payer en sans contact, rapportait la BBC. Les pirates, qui se revendiquent comme appartenant au groupe DragonForce, avaient envoyé au patron de Marks & Spencer une lettre d’insultes et une demande de rançons, toujours selon nos confrères.

Cette cyberattaque était, selon l’enseigne, les conséquences d’une « erreur humaine », sans plus de précision. Le National Cyber Security Centre et le régulateur britannique Information Commissioner’s Office (ICO) avaient été informés de l’incident. Pour juguler cette cyberattaque qualifiée de « traumatisante », la société anglaise s’était aussi tournée vers… les autorités américaines et le FBI.

des petits lapins face à de multiples pièges et dangers sournois

L’attente aura été longue pour un retour complet à la normale. Marks & Spencer « a repris les commandes de vêtements en click and collect après une interruption de près de quatre mois suite à un piratage informatique et à un vol de données », explique Reuters. Les commandes en ligne ont repris en juin, après 46 jours d’indisponibilité.

En mai, l’entreprise prévoyait que cette cyberattaque lui couterait la bagatelle de 300 millions de livres (soit 346 millions d’euros environ) sur son exercice 2025/26, mais « espérait réduire de moitié l’impact grâce à l’assurance et à une maîtrise des coûts ».

Entre le début de la cyberattaque en avril et la résolution des derniers soucis, il s’est donc passé près de quatre mois. L’occasion de rappeler l’importance des protections face aux attaques toujours plus nombreuses, mais aussi des plans de reprise d’activité.

  •  

Free Mobile met en service des milliers de sites 4G dans les 900 MHz

Le début d’un mercato des fréquences ?
Free Mobile met en service des milliers de sites 4G dans les 900 MHz

Free Mobile passe la seconde sur la 4G dans les 900 MHz. L’opérateur obtient près de 6 000 autorisations supplémentaires en un mois et met en service près de 4 000 sites.

Au mois de juillet, l’Agence nationale des fréquences indiquait dans son rapport que Free Mobile accélérait dans le déploiement de la 4G sur les 900 MHz. Alors que l’opérateur n’avait aucune autorisation de déploiement au début de l’année, il est passé à moins d’une vingtaine en mars, un peu plus de 300 en avril et près d’un millier en juillet.

Au 1ᵉʳ août, l’opérateur pulvérise les compteurs avec 5 873 autorisations supplémentaires, pour arriver à un total de 6 796 sites autorisés dans les 900 MHz pour de la 4G. Attention, il ne s’agit que d’autorisation, pas de sites mis en service.

Free met en service ses premiers sites 4G dans les 900 MHz

L’observatoire qui vient d’être mis en ligne fait aussi le point sur les mises en services : ils sont au nombre de 3 873. C’est la première fois que des sites ont été mis en service, selon les rapports de l’ANFR. Free est d’ailleurs toujours le seul sur cette fréquence pour la 4G. Orange a bien quatre autorisations depuis un moment, mais aucune mise en service.

Le graphique ci-dessous montre bien l’explosion du nombre de sites 4G dans les 900 MHz :

Pourquoi les fréquences dans les 900 MHz sont-elles intéressantes ?

Pour rappel, cette fréquence de 900 MHz est intéressante, car elle porte loin et pénètre mieux dans les bâtiments. On parle parfois de fréquences en or pour celle sous le GHz. Contrairement à Free, les trois autres opérateurs utilisent les 900 MHz pour la 2G, avec environ 20 000 autorisations et presque autant de mises en service.

Free Mobile a bien activé des sites 2G dans les 900 MHz pendant quelques mois en 2022, mais il les a rapidement fermés. Comme nous l’avions expliqué, le calendrier avait de quoi surprendre. En décembre 2022, l’Arcep validait la prolongation de l’itinérance de la 2G et de la 3G de Free Mobile sur le réseau d’Orange, au 1ᵉʳ janvier 2023, plus aucun site 2G n’est en service par Free Mobile.

Les quatre opérateurs déploient par contre de la 3G sur les 900 MHz. Comme la 2G et la 3G sont vouées à disparaitre des réseaux mobiles français à plus ou moins courte échéance – ce qui n’est pas sans faire grincer des dents –, la réutilisation de la bande des 900 MHz devrait être de plus en plus courante.

Pour rappel, les licences des opérateurs sont neutres technologiquement depuis bien longtemps, ils peuvent donc déployer la technologie qu’ils souhaitent sur leurs fréquences. De la 2G à la 5G, mais aussi de la 6G quand elle sera disponible ou tout autre technologie.

700, 800 et 900 MHz : les vases communicants version télécoms

La situation de Free sur les fréquences basses est différente de celle de ses concurrents : l’opérateur n’a remporté aucune enchère dans les 800 MHz et ne dispose donc pas de fréquence. L’idée de Free est donc visiblement d’utiliser une partie de la bande des 900 MHz pour de la 4G et ainsi libérer de la place dans les 700 MHz pour la 5G. Cette fréquence est pour rappel actuellement utilisée aussi bien pour la 4G que la 5G.

L’opérateur applique donc le principe des vases communicants, surtout avec la fin de la 3G en approche : les 900 MHz utilisés par la 3G passent progressivement vers de la 4G, permettant de libérer de la place dans les 700 MHz en 4G, qui libère à son tour de la place dans les 700 MHz pour la 5G.

Bilan de la 4G chez les quatre opérateurs

Dans le bilan de l’ANFR, il est précisé que, au 1er août, 70 685 sites 4G sont autorisés. 67 109 sont en métropole, dont 62 555 ont été mis en service. Voici le bilan des sites 4G en métropole, opérateur par opérateur :

  • Bouygues Télécom (29 918 sites,+ 140 en juillet 2025) ;
  • Free Mobile (29 521 sites,+ 177 sur la même période) ;
  • Orange (31 913 sites, – 17 sur la même période) ;
  • SFR (29 418 sites,+ 237 sur la même période).

Le nombre négatif en face d’Orange n’est pas une erreur typographique, il s’agit vraiment d’une baisse selon l’observatoire. Ce dernier fonctionne sur des déclaratifs des opérateurs, il se peut donc que des erreurs aient été remontées et que des correctifs aient été appliqués. Bien évidemment, Orange et les autres peuvent aussi arrêter d’utiliser certains sites, expliquant aussi une baisse des autorisations et des mises en service.

Voici les deux tableaux de l’ANFR sur la 4G. Celui de gauche représente le bilan au 1er août, celui de droite les variations par rapport aux chiffres du mois dernier. Le bilan complet de l’observatoire se trouve par ici (pdf).

  •  

☕️ AOL va arrêter son offre d’accès à Internet par ligne commutée fin septembre

Rappelez-vous ce son nasillard parsemé de quelques bips qui symbolisait la connexion à Internet. À la fin des années 90, la plupart des utilisateurs se connectaient à Internet via leur ligne téléphonique et un modem permettant un débit de 1,2 à 56 kbit/s.

En 2000, AOL dominait le marché avec plus de 20 millions d’utilisateurs. L’entreprise, maintenant détenue par yahoo!, s’apprête à arrêter son service.

« AOL évalue régulièrement ses produits et services et a décidé de mettre fin à son service d’accès Internet par ligne commutée. Ce service ne sera plus disponible dans les forfaits AOL. En conséquence, le 30 septembre 2025, ce service et les logiciels associés, à savoir le logiciel AOL Dialer et le navigateur AOL Shield, qui sont optimisés pour les anciens systèmes d’exploitation et les connexions Internet par ligne commutée, seront supprimés », explique l’entreprise dans un message adressé à ses derniers utilisateurs localisés aux États-Unis et au Canada.

En France, et dans d’autres pays à travers le monde, les lignes de cuivre qui servaient de support aux lignes commutées pour accéder à Internet sont en train d’être décommissionnées afin de laisser la place à la fibre.

  •  

☕️ Tails 7.0 : dernière ligne droite avant la version finale

La distribution Tails, spécialisée dans la sécurité, est disponible en version 7.0 Release Candidate. Cette version RC1 est donc proche de la version finale (prévue le 16 octobre), même si elle comporte encore quelques problèmes spécifiques, comme un démarrage plus long.

Les principales nouveautés de cette mouture majeure se concentrent dans une vaste modernisation de la base. Tails 7.0 se base en effet sur Debian 13 (« Trixie »), dont la sortie est désormais imminente. Le noyau utilisé sera une version 6.12 LTS.

La quasi-totalité des paquets sera mise à jour. L’environnement par défaut, GNOME, passera ainsi en version 48, y compris avec les nouvelles applications Console et Loupe. On y retrouvera également Tor 0.4.8.17, Thunderbird 128.13 ESR, OnionShare 2.6.3, Kleopatra 24.12, KeePassXC 2.7.10, GIMP 3.0.4, Inkscape 1.4, Audacity 3.7.3 et Electrum 4.5.8.

Tails 7.0 corrige également de nombreux problèmes, que l’on peut consulter depuis cette page. On note par exemple la résolution d’un vieux bug sur la sélection du clavier dans certaines langues, qui existait depuis plusieurs versions de la distribution. Enfin, Tails 7.0 fait le ménage dans les paquets embarqués. Par exemple, unar, aircrack-ng et sq disparaissent de l’image ISO.

Bien qu’il s’agisse d’une Release Candidate, son utilisation n’est pas recommandée en environnement de production. Cette version n’est proposée qu’à des fins de tests.

  •  

OVHcloud lance de nouveaux VPS aux tarifs agressifs, dans les Local Zones en septembre

Haut les coeurs x86 !
OVHcloud lance de nouveaux VPS aux tarifs agressifs, dans les Local Zones en septembre

OVHcloud vient de lancer ses nouvelles offres de serveurs privés virtuels (VPS). Nettement plus agressives sur le plan tarifaire, elles intègrent également des services supplémentaires, notamment pour la sauvegarde.

Les nouvelles configurations sont disponibles depuis quelques heures. Elles sont au nombre de six, avec une tarification plus offensive. L’offre de base, nommée VPS-1, présente ainsi une configuration de 4 vCores (x86), 8 Go de mémoire, 75 Go de SSD et 400 Mb/s de bande passante, à partir de 4,58 euros TTC par mois avec engagement de 12 mois. Ce prix inclut le trafic illimité et la sauvegarde quotidienne automatique, alors que cette dernière était auparavant en option.

Des configurations plus puissantes, moins chères

Les configurations s’étalent ainsi jusqu’à VPS-6, qui propose 24 vCores, 96 Go de mémoire et 400 Go de SSD pour 49,98 euros TTC avec engagement de 12 mois. Le tarif intègre les mêmes services que précédemment, mais la bande passante passe à 3 Gb/s, toujours avec trafic illimité.

OVHcloud nous a indiqué que toutes les offres présentent des cœurs x86. Il peut s’agir de Xeon, mais leur disponibilité n’est pas garantie. Les précédentes offres permettaient de choisir entre des CPU AMD ou Intel, ce n’est plus le cas. Toutes les configurations peuvent être commandées sans engagement, au prix de tarifs un peu plus élevés.

Si l’on compare avec l’offre qui était disponible jusqu’à aujourd’hui – et qui a aussitôt disparu – la différence est flatteuse pour les nouvelles configurations. L’une des formules les moins chères, Value, proposait en effet un seul vCore (mais en Xeon garanti), 2 à 4 Go de mémoire, 40 à 80 Go de SSD et une bande passante de 250 Mb/s (trafic illimité) pour un tarif qui débutait à 5,92 euros TTC avec un engagement de 24 mois. L’écart est donc significatif.

Toutes les nouvelles configurations sont proposées par défaut avec Ubuntu 25.04, mais on peut choisir Debian 12, Fedora 42, AlmaLinux 9, Rocky Linux 9 ou CloudLinux gratuitement (ou des versions plus anciennes dans certains cas si besoin). Windows Server est proposé en option à 9 euros TTC (attention, tous les tarifs d’OVHcloud sont exprimés hors taxes sur le site), faisant significativement grimper la facture.

Encore un peu d’attente pour les Local Zones…

Ces offres ne sont disponibles pour l’instant que dans une partie des datacenters de l’entreprise. En France, on peut choisir par exemple entre Strasbourg et Gravelines. Les nouvelles configurations VPS ne sont par ailleurs pas disponibles dans les Local Zones (LZ). Ces dernières sont pour rappel des espaces de collocation, où OVHcloud dispose d’installations, mais dans un centre ne lui appartenant pas.

Interrogée, l’entreprise nous a indiqué que le déploiement des nouvelles offres VPS dans les Local Zones devait arriver en septembre. Dans un tweet, Octave Klaba, fondateur et président d’OVHcloud, indique que ce type d’installation, nommé Low Latency, sera facturé 1 euro de plus par mois. Là encore, l’entreprise nous a confirmé qu’il s’agissait bien de la possibilité d’installer son VPS dans une Local Zone, le nom Low Latency reflétant la capacité de choisir le centre le plus proche de chez soi.

… et quelques limitations

à l’heure où nous écrivons ces lignes, contrairement à ce qui est indiqué dans la FAQ des nouvelles offres, les VPS en Local Zones disposeront bien de la protection anti-DDoS et de la sauvegarde quotidienne automatique. En revanche, certaines options plus avancées ne seront pas disponibles, comme les IP additionnelles et le load balancing.

D’autres limitations sont annoncées, comme la compatibilité avec les distributions Linux exclusivement : les VPS dans les Local Zones « ne prennent actuellement pas en charge Windows, Plesk, cPanel ou Docker ». La configuration matérielle reste par contre la même.

Deux options sont également communes aux installations classiques et en Local Zones : la sauvegarde automatique premium, qui permet un roulement sur 7 jours, et les Snapshots, qui capturent l’état du serveur pour pouvoir le restaurer plus tard si besoin. Ces deux options sont facturées respectivement 2,21 et 0,60 euro TTC par mois.

Notez enfin que dans le cas d’une installation dans la région Asie/Pacifique, OVHcloud précise : « Les VPS en Asie-Pacifique (Mumbai, Singapour, Sydney) disposent d’un quota mensuel de trafic : 1 To pour les VPS-1 et VPS-2, 3 To pour les VPS-3 et VPS-4, 4 To pour les VPS-5 et VPS-6. Au-delà, la bande passante est limitée à 10 Mbit/s ».

  •  

☕️ OnlyOffice 9.0.4 se dote d’un agent IA, en quelque sorte

La suite bureautique open source continue son bonhomme de chemin en ajoutant des fonctions. La nouvelle version 9.0.4 affiche ainsi plusieurs nouveautés, dont un agent IA.

On ne parle pas vraiment d’un agent IA prêt à servir. L’agent est disponible sous forme d’un plug-in, qu’il faut activer dans l’onglet dédié. Dans le gestionnaire de plug-ins, il faut ensuite se connecter à un modèle d’IA grâce à une clé pour OpenAI, Anthropic, Mistral ou autre. Les capacités sont donc externes, mais peuvent ensuite être utilisées sur le contenu des documents. On retrouve alors des capacités classiques : reformulation, génération, explication de termes, synthèse, présentation, création de graphiques…

Les autres nouveautés sont plus classiques avec par exemple l’intégration d’un plus grand nombre de plug-ins, comme Thesaurus, OCR, Typograf et Doc2md. La nouvelle mouture simplifie également le maniement des zones d’édition restreintes, crée des fichiers marqueurs pour empêcher d’autres applications d’accéder aux documents déjà ouverts et bloque par défaut le code JavaScript trouvé dans les propriétés personnalisées d’un document.

La mouture 9.0.4 corrige en outre une série de bugs, dont un problème d’affichage avec la barre de défilement lorsqu’on utilise le thème Moderne sombre. On trouve aussi des correctifs pour une fuite de mémoire qui pouvait survenir à la lecture d’un tableau croisé dynamique dans certains fichiers XSLX, un blocage de l’éditeur lors de la copie de lignes ou de colonnes dans certains navigateurs, ou encore l’impossibilité parfois d’ouvrir des fichiers depuis Google Drive quand le compte était connecté via l’assistant GNOME.

Comme d’habitude, la suite se met à jour automatiquement. Elle est pour rappel disponible sur toutes les plateformes principales : Windows, macOS, Linux, Android et iOS.

  •  

« Il n’y a pas d’autre solution » : Donald Trump demande au CEO d’Intel de démissionner

OSS 117 à la rescousse
« Il n’y a pas d’autre solution » : Donald Trump demande au CEO d’Intel de démissionner

Dans un message aussi court que direct, Donald Trump appelle à la démission du nouveau CEO d’Intel. Il est question d’inquiétude pour « la sécurité nationale des États-Unis » et de liens avec des entreprises, l’armée et le parti communiste chinois.

Depuis mars de cette année, Lip-Bu Tan (un Américain de 65 ans né en Malaisie) a pris les suites de Pat Gelsinger, licencié le 1ᵉʳ décembre, alors qu’Intel accumulait des pertes sur plusieurs trimestres et vivait une situation financière difficile avec des licenciements massifs.

C’est encore le cas avec 15 % de licenciements d’ici à la fin de l’année, l’annulation d’investissements en Europe et des pertes nettes de 2,9 milliards de dollars au dernier trimestre (en partie à cause du plan de restructuration). Actuellement, Intel est valorisé près de 90 milliards de dollars, contre plus du double cinq ans auparavant.

« Un grave CONFLIT d’intérêts »

C’est dans ce climat difficile que Donald Trump a publié un message lapidaire sur son réseau social : « Le CEO d’Intel fait face à un grave CONFLIT d’intérêts et doit immédiatement démissionner. Il n’y a pas d’autre solution à ce problème ».

Cette annonce intervient après que le sénateur républicain de l’Arkansas Tom Cotton a envoyé une lettre au président du Conseil d’administration d’Intel (Frank D. Yeary) « avec des questions sur les liens du nouveau CEO Lip-Bu Tan avec des entreprises chinoises et une récente affaire pénale impliquant son ancienne société Cadence Design », une entreprise américaine de CAO, comme le rapporte Reuters.

Des questions sur « la sécurité nationale des États-Unis »

Le sénateur y fait part de « son inquiétude quant à la sécurité et à l’intégrité des opérations d’Intel et à son impact potentiel sur la sécurité nationale des États-Unis ». Tom Cotton ne s’arrête pas en si bon chemin : « Lip-Bu Tan contrôlerait des dizaines d’entreprises chinoises et détient des parts dans des entreprises chinoises de semi-conducteurs et d’industrie avancée, au moins huit de ces entreprises auraient des liens avec l’armée chinoise », rapporte l’AFP.

Il détaille aussi son propos sur Cadence Design : l’entreprise « avait « plaidé coupable pour avoir vendu illégalement » des produits « à l’Université de l’armée chinoise et avoir transféré sa technologie à une entreprise chinoise sans avoir obtenu de licence » », expliquent nos confrères. Selon Le Monde, l’entreprise « a accepté de verser 140 millions de dollars (près de 120 millions d’euros) », mais « il n’est pas avéré que M. Tang ait été au courant de ces fraudes ».

Qu’en est-il actuellement ?

Il demande au conseil d’administration du fondeur s’il avait « exigé de Lip-Bu Tan qu’il retire ses investissements des entreprises de puces en Chine liées à l’armée ou au Parti communiste, et s’il avait dévoilé d’autres liens avec des entreprises chinoises ».

Le sujet n’est pas nouveau, après son arrivée à la tête d’Intel, le parcours et les investissements de Lip-Bu Tan avaient été passés au crible par plusieurs médias. Reuters expliquait ainsi en avril que le nouveau CEO avait « investi dans des centaines d’entreprises chinoises », certaines en liens avec l’armée.

La lettre ouverte de Lip-Bu Tan

Dans un communiqué transmis à nos confrères, le fondeur indique qu’« Intel et M. Tan sont profondément attachés à la sécurité nationale des États-Unis et à l’intégrité de leur rôle dans l’écosystème de défense américain ». De plus amples précisions seront données dans la réponse au sénateur.

Lip-Bu Tan a adressé une lettre ouverte à ses employés : « Beaucoup de désinformations ont circulé concernant mes anciens postes chez Walden International et Cadence Design. Je veux être absolument clair : en plus de 40 ans dans l’industrie, j’ai établi des relations dans le monde entier et à travers tout notre écosystème diversifié – et j’ai toujours opéré dans le respect des normes juridiques et éthiques les plus élevées ».

Il termine avec un message pour le sénateur et Donald Trump : « Nous collaborons avec l’administration pour régler les questions qui ont été soulevées et nous assurer qu’elle dispose des faits. Je partage pleinement l’engagement du président à faire progresser la sécurité nationale et économique des États-Unis, j’apprécie son leadership pour faire avancer ces priorités et je suis fier de diriger une entreprise qui est si centrale dans ces objectifs ».

Depuis 2018, et le départ de Brian Krzanich qui était arrivé en 2013, Intel a changé régulièrement de CEO. Bob Swan de 2018 à 2021, puis Pat Gelsinger de 2021 à 2023 et désormais Lip-Bu Tan. Les phases de transition étaient à chaque fois relativement longues, la quête d’un CEO chez Intel n’est pas chose aisée visiblement.

  •  

Premier modèle unifié d’OpenAI, GPT-5 se veut plus performant et moins flatteur

The next big thing, again
Premier modèle unifié d’OpenAI, GPT-5 se veut plus performant et moins flatteur

GPT-5 est là, après une attente de plusieurs mois et de nombreuses rumeurs. Premier modèle unifié d’OpenAI, il affiche de grandes ambitions et veut mettre tout le monde d’accord. Selon l’entreprise, il est le meilleur partout, se trompe moins et est plus sobre.

Le nouveau modèle phare d’OpenAI a été présenté hier soir. GPT-5 est le premier modèle unifié de la société : il combine les réponses rapides habituelles de la série GPT aux capacités de raisonnement des modèles o. La présentation de l’entreprise fait la part belle aux superlatifs, le nouveau modèle devrait marquer le début d’une nouvelle ère pour OpenAI.

Un modèle unifié

En tant que modèle unifié, GPT-5 doit décider de lui-même quel degré de précision apporter aux réponses. Cette évaluation doit déboucher sur le choix de la branche vers laquelle diriger le traitement, selon la complexité de la requête. Ce fonctionnement est valable pour l’intégralité des demandes, GPT-5 se voulant le modèle à tout faire d’OpenAI, que ce soit pour des questions d’ordre général, de la génération de code ou de l’analyse de fichiers multimédia, le modèle acceptant à peu près tout en entrée.

Durant la présentation, Sam Altman n’a pas hésité à qualifier GPT-5 de « meilleur modèle au monde ». Il représente « une étape significative » pour l’entreprise dans sa quête d’une intelligence artificielle générale (AGI).

Et pour s’assurer que le modèle fasse la différence, il est disponible pour l’ensemble des utilisateurs, gratuits ou payants, même si les fonctions les plus avancées sont réservées – sans surprise – aux comptes payants. GPT-5 est en effet disponible en versions basique et Pro, la seconde étant réservée aux détenteurs d’un abonnement. À noter que les capacités de « raisonnement », sont disponibles dans les deux versions, mais que leur usage est limité en version gratuite.

OpenAI vante les performances de son modèle

L’entreprise affirme que GPT-5 fait mieux que tous les concurrents, y compris les modèles d’Anthropic dans des domaines comme le développement logiciel, d’ordinaire la chasse gardée de l’IA Claude. Sam Altman évoque même des « performances de pointe », surpassant les autres modèles sur l’ensemble des benchmarks. La version Pro du modèle affiche systématiquement de meilleurs résultats que le GPT-5 de base.

Sur le test AIME 2025 de mathématiques par exemple, GPT-5 affiche dans sa version classique un score de 61,99 %, tandis que la mouture Pro grimpe à 96,7 %. Si on lui adjoint Python et que l’on active le raisonnement, les chiffres s’envolent respectivement à 99,6 et 100 %. Sur le test Humanity’s last exam, réputé difficile, les scores vont de 6,3 à 42 %, s’étalant de la version basique à la version Pro avec Python et la recherche avec liste de blocage. Sur ce test, il n’est dépassé que par Grok4 Heavy de xAI, qui a atteint 44,4 %.

Sur le développement, où OpenAI est attendue au tournant, le nouveau modèle affiche un score SWE-benchmark Verified de 74,9 % avec raisonnement. C’est légèrement supérieur à Opus 4.1 (74,5), lancé il y a quelques jours à peine. Ce qui permet en théorie à OpenAI de faire au moins jeu égal avec Anthropic dans un domaine vu comme très porteur, notamment car il alimente le « vibe coding », au cœur de nombreuses attentions.

Les performances sont également visibles dans le temps de traitement. Selon OpenAI, les raisonnements de GPT-5 sont « plus rapides et plus efficaces ». Dans ce mode, les performances du nouveau modèle dépassent celles d’o3 en utilisant 50 à 80 % de jetons de moins en sortie, sur toutes les capacités. En clair, GPT-5 doit faire mieux, en moins de temps et pour moins cher.

GPT-5 est moins « flagorneur »

OpenAI assure que son nouveau modèle est « moins agréable ». L’affirmation peut paraitre étonnante, mais l’entreprise a constaté une certaine lassitude dans le ton des réponses données. Elles flattent souvent l’utilisateur, par exemple en affirmant que les questions posées sont très pertinentes, ou en répondant à l’utilisateur qu’il a « tout à fait raison » à la suite d’une remarque. « Cela devrait ressembler moins à « parler à l’IA » qu’à discuter avec un ami utile doté d’une intelligence de niveau doctorat », vante OpenAI.

GPT-5 se veut donc moins flatteur, plus direct et sobre, tout en utilisant moins d’emojis « inutiles ». Le « taux de flagornerie », mesuré par OpenAI, serait ainsi passé de 14,5 à moins de 6 %.

Cette ambiance générale peut se compléter avec quatre nouveaux modes pour modifier le ton des réponses : Cynic, Robot, Listener et Nerd. En fonction du mode choisi, le style des réponses évoluera, se fera plus ou moins plaisant, Cynic pouvant parfois se montrer piquant dans ses réponses, là où Listener (Attentionné) sera plus doux. Ces « personnalités » sont disponibles en options et désactivées par défaut.

Parmi les nouvelles fonctions, on note aussi un mode « Thinking », censé pousser plus loin encore les capacités de GPT-5, même avec raisonnement. Pensé pour la sécurité, ce mode permet d’allouer des capacités supplémentaires aux requêtes. Il est présenté comme le mode de fonctionnement idéal pour les tâches requérant une grande précision, notamment les travaux scientifiques. Face à une question complexe, GPT-5 Thinking est censé répondre qu’il ne sait pas plutôt que de sortir une erreur ou halluciner la réponse. Cette fonction est disponible pour tous les comptes, mais son quota d’utilisation est beaucoup plus élevé sur les versions payantes.

Un effort sur la sécurité

En dehors des performances, la sécurité semble avoir été une préoccupation plus marquée d’OpenAI. Par exemple, sur les questions de santé, le test HealthBench Hard Hallucinations a montré que GPT-5 avec raisonnement n’hallucinait que 1,6 % du temps. Un score nettement inférieur à ceux obtenus auparavant par GPT-4o (12,9 %) et o3 (15,8 %). Sans réflexion, le score de GPT-5 remonte à 3,6 %. Bien que les scores baissent notablement, rappelons que les LLM peuvent produire des erreurs factuelles et que leurs résultats doivent être contrôlés, notamment sur des sujets aussi sensibles que la santé.

GPT-5 veut également marquer un tournant dans la manière dont la sécurité est abordée chez OpenAI. Selon l’entreprise, la formation à la sécurité était basée jusqu’ici sur le refus, donc sur une évaluation de la demande. Les résultats sont bons sur les requêtes ouvertement malveillantes, moins quand l’intention est plus diffuse. Selon OpenAI, cette approche était d’autant plus problématique dans des domaines « à double usage ». La virologie est citée en exemple, la demande pouvant émaner d’un professionnel pour des raisons légitimes ou d’un acteur malveillant.

GPT-5 se montre dorénavant moins catégorique, sauf pour les requêtes ouvertement malveillantes. En cas de refus, le modèle en expliquera les raisons. Pour le reste, il donnera « la réponse la plus utile lorsque cela est possible tout en restant dans les limites de sécurité ». OpenAI assure que cette approche plus nuancée – baptisée « safe-completion » – permet « une meilleure navigation dans les questions à double usage, une plus grande robustesse à l’intention ambiguë et moins de refus excessifs inutiles ».

Disponibilité et vent en poupe

La disponibilité de GPT-5 est immédiate pour l’ensemble des utilisateurs. Comme toujours, les personnes détentrices d’une formule payante ont des plafonds d’utilisation nettement plus élevés. En revanche, la version Pro du modèle est pour l’instant réservée aux comptes Pro, facturés 200 euros par mois. Dès la semaine prochaine, les formules Team, Edu et Enterprise basculeront toutes sur GPT-5 comme modèle par défaut. Apple, de son côté, a confirmé que GPT-5 serait utilisé comme modèle intégré pour les fonctions ChatGPT dans les nouvelles versions de ses systèmes à la rentrée.

Pour les développeurs, le nouveau modèle est proposé en trois versions : gpt-5, gpt-5-mini et gpt-5-nano. Plus le modèle est petit, moins il raisonne. L’API dispose également d’un paramètre pour régler le degré de « verbosité », permettant de faire varier la taille des réponses. Un changement qui peut paraître anodin, mais qui permet de contrôler le coût des réponses. Dans son modèle standard, GPT-5 affiche une tarification de 1,25 dollar par million de jetons en entrée et de 10 dollars par million de jetons en sortie.

Le lancement de ce modèle, particulièrement attendu, doit donc marquer une étape importante pour OpenAI. La société a d’ailleurs le vent en poupe actuellement, avec plusieurs nouvelles significatives en l’espace de quelques jours. Elle a ainsi lancé cette semaine ses premiers modèles « ouverts » depuis presque six ans, la série gpt-oss, capable de fonctionner localement (si la machine a assez de puissance).

OpenAI a également annoncé un contrat triomphal pour sa renommée : ChatGPT va équiper l’intégralité de l’administration fédérale américaine. Ce contrat est limité pour l’instant à une seule année et ne va rapporter qu’un dollar symbolique à l’entreprise. Mais il s’agit clairement d’un investissement sur l’avenir, OpenAI espérant sans doute que l’administration ne pourra plus se passer de ses services, tout en s’attirant les bonnes grâces de Donald Trump.

  •  

☕️ Lockerstor 12R/16R Pro Gen2 d’Asustor : Ryzen 7 Pro, PCIe 5.0, 2x 10 GbE…

La première génération de NAS rackables Lockerstor 12R Pro et 16R Pro a été annoncée il y a cinq ans, avec un Xeon E-2224 aux commandes. Le fabricant revient cet été avec une « Gen2 », toujours avec 12 et 16 baies respectivement pour les 12R Pro et 16R Pro.

Les deux NAS sont animés par un CPU AMD Ryzen 7 7745HX (8C/16T). Asustor annonce une fréquence maximale de 5,3 GHz, un peu plus élevé que les 5,1 GHz du « Max. Boost Clock » sur la fiche produit d’AMD.

16 Go de DDR5-4800 ECC sont de la partie, extensibles jusqu’à 192 Go. Deux alimentations redondantes certifiées 80 Plus Platinum de 550 W sont chargées de faire tourner la machine.

Les NAS proposent un emplacement pour SSD M.2 (NVMe) en PCIe 5.0. Deux ports d’extension sont aussi de la partie : un PCIe 5.0 x8 et un autre en PCIe 5.0 x4, par exemple, pour des cartes 25, 40 ou 50 GbE.

La connectique comprend deux ports Ethernet 10 GbE et deux autres à 1 Gb/s, pour des débits pouvant atteindre (via l’agrégation de liens) 2309 et 1886 Mo/s en lecture et écriture. Quatre USB 3.2 Gen 1 sont aussi présents.

Les Lockerstor 12R et 16R Pro Gen2 sont livrés avec DM 5.0, dont la version finale est arrivée pendant le Computex au mois de juin. Comme d’autres NAS de la gamme Asustor, les disques durs Seagate IronWolf de 30 To, permettant ainsi d’atteindre 360 ou 480 To de stockage avec 12 et 16 baies respectivement.

Le fabricant annonce « une garantie de cinq ans et des mises à jour régulières », mais ne donne pas de détails sur la disponibilité ni sur les prix.

  •  

☕️ Le gestionnaire de mots de passe Dashlane met fin à son offre gratuite

Dans un communiqué et à travers un message envoyé aux utilisateurs concernés, Dashlane (société française) explique qu’elle « rationalise ses offres grand public et abandonne l’offre gratuite le 16 septembre 2025 ».

Le changement de politique va se faire en plusieurs étapes. D’abord, la « carotte » : un mois d’essai gratuit de la version payante. Ensuite, le « bâton » dès le 16 septembre avec la fin de l’essai gratuit : « Vous ne pourrez plus ajouter, modifier, copier ou afficher vos données dans Dashlane, mais simplement les exporter ».

Enfin, vous aurez jusqu’au 16 septembre 2026 pour passer à une version payante ou récupérer vos données.

Dashlane explique ses « raisons » de mettre fin à l’offre gratuite : « se concentrer sur l’innovation rapide et une protection renforcée contre les menaces émergentes telles que les cyberattaques avec l’aide de l’IA ». On ne voit pas trop le rapport avec la fin de l’offre gratuite… Mais, de cette manière, Dashlane pousse ses clients gratuits vers la porte ou à ouvrir leur portefeuille.

Le site de l’éditeur ne propose désormais plus que deux formules : Premium à 3,68 euros HT et Friends & Family (10 comptes) à 5,55 euros HT par mois. Il y a peu, l’offre gratuite était encore affichée, avec de très fortes limitations : 25 mots de passe sur un seul appareil.

  •  

110 000 conversations ChatGPT étaient publiques à cause d’une fonction de partage

Mon IA, mes chats, mes emmerdes
110 000 conversations ChatGPT étaient publiques à cause d’une fonction de partage

Il y a une semaine, des médias évoquaient l’apparition de discussions ChatGPT dans les résultats de Google. Un chercheur a même trouvé plus de 100 000 conversations. La faute à une fonction de partage qu’OpenAI a supprimée depuis. L’entreprise a assuré qu’il s’agissait d’une expérience de courte durée.

Tout a commencé avec un article de Fast Company le 30 juillet. Nos confrères y indiquaient que Google indexait des conversations de ChatGPT « que les utilisateurs ont envoyées à des amis, des membres de leur famille ou des collègues ». Pour les envoyer, les personnes avaient utilisé la fonction de partage, qui permet de pointer un morceau d’échange jugé intéressant.

Bien que la fonction doive être actionnée manuellement, les utilisateurs n’ont peut-être pas saisi entièrement les conséquences de l’action. Les informations contenues dans les échanges devenaient en effet publiques et donc indexables par Google. De fait, avec les bons paramètres de recherche, on pouvait trouver de nombreux échanges privés, renvoyant souvent à des informations très personnelles ou sensibles.

Florilège

Les informations apparaissant dans les échanges montrent l’ampleur de ce que l’on peut demander à un chatbot. Dans le cas de ChatGPT, la santé mentale est souvent abordée. Pas étonnant que l’entreprise ait annoncé récemment des changements à ce sujet.

En outre, comme l’indique Fast Company, plus d’un Américain sur deux se tourne vers les grands modèles de langage pour obtenir un soutien psychologique. Nos confrères rappellent cependant qu’à la grande différence d’un entretien avec un(e) psychologue, ces échanges ne sont pas soumis au secret médical.

Les informations trouvées dans les échanges contenaient de nombreux passages sensibles. Un utilisateur a par exemple décrit sa vie sexuelle en détails et ses déboires dans un pays étranger. Un autre affirme être un survivant d’une programmation psychologique et cherche le moyen de se déprogrammer. D’autres poussent loin les détails sur leurs relations familiales. Le phénomène est d’autant plus visible qu’à peine quelques jours avant, Sam Altman, CEO d’OpenAI, indiquait dans une interview qu’il ne valait mieux pas partager les « informations les plus sensibles » avec ChatGPT.

404 Media, qui a plongé également dans ces échanges, cite d’autres exemples. Nos confrères y ont trouvé des accords de non-divulgation présumés, de nombreuses demandes d’aide pour des problèmes relationnels, d’autres pour trouver des formulations sur LinkedIn, de l’aide pour écrire un dernier message à une ex-petite amie, une demande pour rédiger un contrat, etc. D’après 404 Media, ces échanges contenaient de très nombreuses informations identifiantes, dont des noms de personnes.

OpenAI désindexe les conversations, mais…

Le problème a rapidement pris de l’ampleur. Si 4 500 conversations avaient initialement été trouvées, le chercheur Henk van Ess en a déterré 110 000, en collaboration avec Nicolas Deleur, un autre analyste. Pire, ces échanges ont été trouvés après la réaction d’OpenAI. La société avait en effet annoncé que le contenu incriminé avait été désindexé de Google.

Comment a fait Henk van Ess pour trouver 110 000 échanges ? En cherchant dans la Wayback Machine d’Archive.org. Le chercheur estime qu’OpenAI a commis une erreur grossière en oubliant que tout contenu publié sur internet ne pouvait plus vraiment disparaitre.

Et certaines conversations sortaient clairement de l’ordinaire, comme le cas d’une personne se présentant comme « l’avocat d’un groupe multinational actif dans le secteur de l’énergie » cherchant à déplacer « une petite communauté autochtone amazonienne de ses territoires afin de construire un barrage et une centrale hydroélectrique ».

« Restez à l’écoute »

Dane Stuckey, directeur de la sécurité de l’entreprise, a cependant déclaré le 5 août à 404 Media : « Nous venons de supprimer une fonctionnalité de [ChatGPT] qui permettait aux utilisateurs de rendre leurs conversations détectables par les moteurs de recherche, tels que Google. Il s’agissait d’une expérience de courte durée pour aider les gens à découvrir des conversations utiles ».

L’interface était-elle suffisamment claire pour que les utilisateurs se sentent véritablement informés des conséquences ? OpenAI semble estimer que la présentation n’était pas optimale : « En fin de compte, nous pensons que cette fonctionnalité a introduit trop d’opportunités pour que les gens puissent partager accidentellement des choses qu’ils n’avaient pas l’intention de faire, nous supprimons donc l’option ».

Surtout, OpenAI confirmé à nos confrères que le contenu indexé avait été supprimé. Et la Wayback Machine ? Là aussi, le tir semble avoir été corrigé. Une requête comportant la chaine « chatgpt.com/share » renvoie le résultat : « This URL has been excluded from the Wayback Machine ». Sur X, Henk van Ess a confirmé le 4 août que la requête ne pouvait effectivement plus être exploitée. Cependant, il laisse entendre que l’histoire n’est pas terminée, encourageant à « rester à l’écoute » (« Stay tuned »).

Ajoutons enfin que si Bing affichait encore hier un résultat, ce n’est plus le cas au moment où nous publions ces lignes. En revanche, il en reste un dans Qwant.

  •  

Accident mortel d’une Model S avec Autopilot : petits et gros mensonges de Tesla

Les données étaient dans l’ECU
Accident mortel d’une Model S avec Autopilot : petits et gros mensonges de Tesla

Suite à un accident mortel en 2019 impliquant une Model S, Tesla a fait tout son possible pour dissimuler à la justice et aux plaignants les données de l’ECU (l’ordinateur en charge des composants) de la voiture. Le fabricant a été confondu des années plus tard et a fini par reconnaitre les faits.

Cette semaine est intense pour Tesla, mais le fabricant se serait certainement bien passé de toute cette « publicité ». Il a, en effet, été reconnu partiellement coupable dans un accident mortel en 2019. L’entreprise doit payer 240 millions de dollars, mais elle a annoncé faire appel du verdict.

Au-delà de la décision de justice, nos confrères d’Electrek ont épluché la transcription du procès pour avoir de plus amples détails sur les tenants et aboutissants de cette affaire. Leur conclusion est sans appel : « Tesla a fait de la rétention de données, menti, mal orienté la police et les plaignants pour éviter d’être blâmé ». Pour nos confrères, cela ne fait aucun doute : Tesla « couvrait indéniablement l’Autopilot » et a essayé « de rejeter toute la faute sur le conducteur ».

Fichier de la discorde : Snapshot_collision_airbag-deployment.tar

La transcription du procès est, en effet, accablante pour Tesla. Nos confrères expliquent que, dans les trois minutes suivant la collision, la Model S a envoyé toutes les données (vidéos, flux du bus CAN, données EDR, etc.) sur les serveurs de Tesla, via un fichier snapshot_collision_airbag-deployment.tar. Ensuite, le véhicule a supprimé le fichier de son stockage en local. De fait, Tesla était donc « la seule entité à avoir accès » à ce fichier.

Bien évidemment, la police et les plaignants ont demandé à plusieurs reprises d’obtenir ces données, mais Tesla les « a entraîné dans un long voyage de tromperie et de désorientation, qui a duré des années » : de 2019 à fin 2024. L’affaire a été mise au grand jour grâce aux plaignants qui ont embauché un ingénieur expert en reconstitution d’accident (Alan Moore) afin qu’il récupère les données de l’ECU (Electronic Control Unit), l’ordinateur en charge des différents composants de la voiture.

Electrek détaille le déroulement des faits, qui débutent en avril 2019 au moment de l’accident, mortel. Tesla a d’abord « entourloupé » l’enquêteur de la Florida Highway Patrol, en faisant mine de collaborer. L’avocat du fabricant lui explique que ce n’est pas la peine d’assigner Tesla pour récupérer les données et se propose d’aider l’enquêteur à rédiger une demande.

Ayez confiansssse…

Ce dernier obtient de nombreuses données, mais pas celles cruciales en rapport avec la collision. L’avocat avait « spécifiquement rédigé la lettre pour omettre de partager » le fichier envoyé par la voiture, expliquent nos confrères. L’enquêteur pensait, visiblement à tort, que Tesla souhaitait collaborer.

Quelques semaines plus tard, l’enquêteur récupère l’ECU et le MCU (Media Control Unit, l’ordinateur de bord avec l’écran tactile) et demande de l’aide à Tesla pour récupérer les données depuis les équipements informatiques.

L’avocat organise un rendez-vous, dans des locaux de l’entreprise, avec un technicien de Tesla qui n’avait jamais extrait de données d’un ordinateur Autopilot auparavant, c’est du moins ce qu’il a précisé dans un témoignage. Après avoir branché les composants, il affirme que les données étaient « corrompues » et inutilisables. Or, et « Pour être clair, Tesla avait déjà toutes ces données dans ses serveurs et aurait pu simplement les envoyer », ajoute Electrek.

Dans les années qui ont suivi, Tesla n’a jamais mentionné être en possession des données, que ce soit à la police, aux plaignants ou au tribunal. Pire, selon nos confrères, « Tesla a inventé une fonction de « suppression automatique » ».

Impossible de récupérer les données selon Tesla. La preuve que non

Ce n’est que fin 2024 que le tribunal autorise les plaignants à faire appel à un expert pour accéder aux données de l’ECU, du moins à faire une copie « bit par bit » des informations qu’il contient. Le but étant de travailler sur une copie des données, sans toucher aux originales. « Les ingénieurs de Tesla ont dit que c’était impossible… pourtant, cela a été fait par des gens extérieurs à Tesla », explique Alan Moore.

En plus d’avoir pu accéder à toutes les données, l’ingénieur a identifié des métadonnées du fichier snapshot_collision_airbag-deployment.tar, notamment sa somme de contrôle SHA-1 et le chemin exact vers le serveur. Et à la place du fichier, un emplacement vide dans la mémoire de la voiture.

Face à ces éléments, les plaignants ont pu exiger les journaux AWS de Tesla. Le fabricant a fini par donner le fichier compressé ainsi que les journaux d’accès « montrant qu’il était stocké depuis 18h16 PDT le 25 avril 2019 ». Finalement, « Tesla n’a admis l’existence des données qu’une fois qu’on lui a présenté des preuves légales qu’elles existaient et qu’elles avaient été transférées sur ses serveurs ».

Autopilot et Autosteer en marche, sans alerte

Toujours selon Electrek et la transcription du procès, l’Autopilot et l’Autosteer (assistance au maintien de cap) de la Tesla étaient bien actifs. D’après la carte et les données de l’ECU, la voiture se trouvait dans une zone « restricted Autosteer zone », mais l’Autopilot était « resté engagé à pleine vitesse ».

Ces derniers points sonnent en écho à une recommandation de la National Highway Traffic Safety Administration (NHTS) de… 2018 (.pdf). Elle demandait à Tesla d’« intégrer des mesures de protection du système qui limitent l’utilisation des systèmes de contrôle automatisé des voitures aux conditions pour lesquelles ils ont été conçus ».

L’ordinateur de bord n’a enregistré aucun freinage manuel ni changement de direction de la part du conducteur. De son côté, la voiture n’a pas envoyé d’alerte demandant au conducteur (il n’avait alors pas les mains sur le volant) de « prendre le contrôle immédiatement » alors qu’une intersection était en approche, avec une voiture à l’arrêt dans sa trajectoire (celle qui a été percutée).

Responsabilité : 33 % pour Tesla, 66 % pour le conducteur

Comme le rappellent nos confrères, le conducteur de la Tesla a reconnu sa part de responsabilité dans l’accident. Il expliquait avoir eu « trop confiance en la technologie […] Je croyais que si la voiture voyait quelque chose devant elle, elle émettrait un avertissement et freinerait ».

Nos confrères précisent que l’objectif des plaignants étaient « d’attribuer une partie de la responsabilité de l’accident à Tesla pour ne pas avoir empêché un tel abus du système malgré le risque évident ».

C’est finalement le cas puisque la justice a reconnu Tesla coupable à 33 % de l’accident mortel. Cela pourrait changer puisque le fabricant a déjà annoncé son intention de faire appel de la décision. Affaire à suivre.

  •