C'était un jeu de course complètement barré sur Amiga où on pilotait une voiture avec un énorme V8 qui crachait des flammes sur des circuits surélevés dans le vide. Si vous avez connu ça à l'époque, vous savez à quel point c'était addictif et ce jeu de 1989 signé Geoff Crammond (le mec derrière les simulations Grand Prix ultra-réalistes) reste encore aujourd'hui une référence en termes de physique de conduite.
Hé bien bonne nouvelle les amis, un remake PC est en cours de développement par des fans passionnés ! Le projet existe depuis 2019, initié par D. Vernon et A. Copland, et il est maintenant maintenu par omenoid et ptitSeb qui continuent de le faire évoluer et contrairement à pas mal de projets fans qui tombent dans l'oubli, celui-ci est bien vivant.
Le concept original était déjà dingue pour l'époque. Vous aviez des circuits surélevés comme des montagnes russes géantes, avec des sauts impossibles, des virages relevés, et surtout le fameux Ski Jump qui faisait flipper tout le monde. Le truc, c'est que si vous ratiez un saut ou que vous alliez trop vite dans un virage, votre caisse tombait dans le vide. Pas de barrières de sécurité, pas de seconde chance, pas de Lakitu Pêcheur... ^^ et votre voiture accumulait aussi des dégâts au fil des courses.
Trop de crashes et au bout d'un moment, c'était game over pour la saison.
Le remake reprend donc tout ça avec une modélisation complète des circuits et une physique de suspension fidèle à l'original. Les développeurs ont aussi récemment intégré un patch qui améliore considérablement le framerate, ce qui rend l'expérience beaucoup plus fluide que le jeu d'origine.
Geoff Crammond en 1987 sur un vrai kart relié à un Commodore 64
Pour ceux qui veulent tester, le projet est disponible
sur GitHub
avec
une version Windows prête à l'emploi
. Y'a aussi une version Linux en développement pour les manchots du dimanche.
Ce qui est cool avec ce genre de projet, c'est qu'il permet de redécouvrir des jeux qui ont marqué l'histoire du jeu vidéo mais qui sont devenus quasi injouables sur du hardware moderne. Geoff Crammond avait passé trois ans à développer Stunt Car Racer, en partant d'un simple simulateur de terrain pour Commodore 64 avant de transformer le concept en jeu de course aérien et à l'époque, ce résultat avait été salué, comme l'un des meilleurs jeux de course jamais créés, par Amiga Power qui l'avait classé dans son top 10 de tous les temps.
Bref, si vous avez la nostalgie des années Amiga ou si vous êtes simplement curieux de découvrir un classique qui a influencé pas mal de jeux de course modernes, c'est le moment de tester ce remake. Au pire vous aurez passé un bon moment à vous casser la figure sur le Ski Jump, au mieux vous comprendrez pourquoi les "vieux" en parlent encore 35 ans plus tard...
Si vous cherchez un utilitaire en ligne de commande simple à utiliser qui permette de transférer des fichiers et des répertoires entre 2 ordinateurs, voici un projet très cool qui mérite vraiment le coup d'œil.
Le projet s'appelle Croc et il permet d'envoyer ou recevoir des fichiers au travers d'Internet via un serveur relais, directement depuis le terminal, et cela aussi bien depuis un Mac qu'un Linux ou un Windows. Les transmissions sont chiffrées de bout en bout à l'aide de la méthode PAKE (Password-Authenticated Key Exchange), ce qui permet de générer des clés de chiffrement robustes même à partir de mots de passe faibles. Du coup, même si quelqu'un intercepte votre code de transfert, il ne pourra pas décrypter vos données.
Vous pouvez transférer plusieurs fichiers en même temps, et si par malheur un transfert est interrompu, Croc saura automatiquement le reprendre. Et si vous voulez vraiment améliorer les choses niveau confidentialité, vous pouvez même spécifier un proxy Tor.
L'outil fonctionne sans avoir besoin de configurer quoi que ce soit côté réseau. Pas de serveur à installer, pas de port forwarding à configurer sur votre box, ça passe à travers les firewalls et les NAT sans broncher. Et le petit plus sympa, c'est qu'il supporte IPv6 en priorité avec fallback IPv4.
Pour l'installer, c'est hyper simple. Avec curl :
curl https://getcroc.schollz.com | bash
Sur Mac avec Homebrew :
brew install croc
Sur Windows avec Scoop ou Chocolatey :
scoop install croc
choco install croc
Y'a aussi des packages pour Arch (pacman), Fedora (dnf), Nix, Conda, et même une image Docker si vous préférez.
Pour envoyer un fichier, vous tapez :
croc send FICHIER_OU_DOSSIER
Vous obtiendrez alors un code (genre trois mots random) que vous devrez transmettre à votre destinataire. Celui-ci n'aura qu'à entrer :
croc LE-CODE-RECU
Et hop, la connexion s'établit et le fichier se transfère direct. Vous pouvez même envoyer du texte au lieu d'un fichier avec :
croc send --text "votre message secret"
Et pour les paranos qui ne veulent faire confiance à personne, il est possible de lancer votre propre serveur relais avec :
croc relay
Du coup vous n'êtes plus dépendant des relais publics et tout reste chez vous.
Bref, Croc c'est le genre d'outil qu'on installe une fois et qu'on utilise durant des années car c'est simple, efficace, sécurisé. Et comme ce projet a plus de 33 000 étoiles sur GitHub, je pense que c'est pas juste moi qui trouve ça cool...
Article publié initialement le 15/12/2021 et mis à jour le 19/12/2025
Vous vous souvenez des radios pirates clandestines qui diffusaient de la musique interdite depuis des appartements ou des camionnettes ? Hé bien le même concept revient en force, mais cette fois avec un Raspberry Pi et quelques lignes de Python.
BotWave
, c'est un projet open source qui transforme n'importe quel Raspberry Pi en émetteur FM fonctionnel. Vous branchez une antenne sur le GPIO 4 (la broche 7), vous lancez le script, et hop, vous diffusez sur la bande FM comme un vrai pirate des ondes. Vos voisins peuvent alors vous capter sur leur autoradio sans le savoir.
⚠️ Attention : diffuser sur la bande FM sans autorisation de l'ANFR est illégal en France (et dans la plupart des pays). Les sanctions peuvent aller jusqu'à 6 mois de prison et 30 000 € d'amende. En pratique, avec une antenne bricolée, la portée se limite à quelques mètres, mais légalement, même ça reste interdit. Les développeurs recommandent d'ailleurs d'utiliser un filtre passe-bande pour limiter les interférences.
Le truc que j'ai trouvé intéressant avec BotWave, c'est son architecture client-serveur. Vous pouvez contrôler plusieurs Raspberry Pi depuis un seul serveur central, du coup, si vous voulez monter un réseau de diffusion avec des émetteurs disséminés un peu partout, c'est possible. L'interface en ligne de commande permet d'envoyer des fichiers audio, de démarrer ou stopper les diffusions à distance, et de gérer tout ça de manière centralisée.
Pour l'installation, c'est hyper simple. Une seule commande suffit :
Le script vous demande alors si vous voulez installer le serveur, le client, ou les deux. Et c'est parti mon kiki ! Le système détecte automatiquement votre Pi (compatible avec les modèles 0, 1, 2, 3 et 4) et configure tout ce qu'il faut.
Sous le capot, ça utilise PiFmRds pour générer le signal FM et c'est du Python à 75% avec un peu de Shell pour l'installation. Le projet est sous licence GPLv3, donc vous pouvez l'auditer, le modifier, le redistribuer, bref, faire ce que vous voulez avec.
Car quand tout tombe, la radio FM reste un des rares moyens de communication qui fonctionne sans infrastructure centralisée. Pas besoin de serveurs, pas besoin de tours cellulaires. Juste un émetteur, un récepteur, et un peu d'électricité. Les radioamateurs le savent depuis toujours, et avec BotWave, chacun peut monter son propre réseau de diffusion.
En bon geek accro au shopping, vous avez claqué des centaines d'euros dans un SSD NVMe PCIe 5.0 qui promet d'atteindre des vitesses de ouf, mais malheureusement, vous avez l'impression que votre Windows n'en tire pas tout le potentiel... snif... Et ce n'est pas qu'une impression, vous avez raison, et youpi, Microsoft vient enfin de faire quelque chose pour corriger ça.
Le problème, c'est que depuis des années, Windows traite tous les périphériques de stockage comme s'ils étaient de vieux disques SCSI des années 80. En effet, Windows convertit toutes les commandes à destination de votre SSD NVMe ultrarapide, en langage SCSI avant de les exécuter. Un peu comme si vous deviez traduire du français vers le latin puis vers l'anglais à chaque fois que vous voulez dire bonjour. C'est inutilement compliqué et forcément plus lent.
Du coup, Microsoft a décidé de moderniser tout ça avec Windows Server 2025 qui supporte enfin le NVMe natif. Concrètement, plus de traduction SCSI, le système communique maintenant directement avec votre SSD dans sa langue maternelle et les résultats sont plutôt impressionnants !
Car si on en croit Microsoft, en termes de performances, ça représente une augmentation de 80% des IOPS (opérations d'entrée/sortie par seconde) par rapport à Windows Server 2022. Pour vous donner un ordre de grandeur, on passe d'environ 1,8 million d'IOPS à 3,3 millions sur un SSD PCIe 5.0. Et en bonus, le CPU consomme environ 45% de cycles en moins pour chaque opération I/O. Bref, c'est plus rapide ET plus efficace.
Et il y a bien sûr, une raison technique à ces gains massifs. Les SSD NVMe modernes supportent jusqu'à 64 000 files d'attente avec 64 000 commandes chacune. Sauf que l'ancien système SCSI était conçu pour des disques rotatifs avec une seule file et 32 commandes max. Ouch...
Pour l'instant, cette amélioration est disponible uniquement sous Windows Server 2025 et elle est désactivée par défaut. Donc faut l'activer manuellement via le registre avec une commande PowerShell mais Microsoft précise que Windows 11 devrait aussi en bénéficier dans une future mise à jour, une fois que la techno aura fait ses preuves côté serveur.
Bref, si vous êtes admin système ou que vous avez un serveur qui fait tourner SQL Server, de la virtualisation Hyper-V ou des workloads IA/ML, ça vaut le coup de jeter un petit œil (pensez à le récupérer après, c'est dégueu un oeil qui traine par terre).
Bon bah voilà, tout le monde peut redescendre en pression après cette polémique quand Mozilla a annoncé qu'il allait intégrer des fonctionnalités IA dans Firefox. C'est vrai que les forums Reddit sont entrés en fusion, les puristes du logiciel libre en mode révolution, et je ne vous parle pas des menaces de migration vers je ne sais quel fork obscur... Hé bien Mozilla vient de calmer le jeu un bon coup en annonçant un "kill switch" capable de désactiver complètement toutes les fonctionnalités IA.
Ouf...
Le nouveau PDG Anthony Enzor-DeMeo l'a annoncé clairement : Il y aura un moyen simple et définitif de désactiver toutes les fonctions IA de Firefox. Ce truc arrive au premier trimestre 2026 et surtout, une fois activé, aucune fonction IA ne reviendra se glisser en douce après une mise à jour.
C'est définitif.
Ils ont aussi confirmé que toutes les fonctionnalités IA seraient en opt-in. Pour les non-anglophones du fond de la salle, ça veut dire que vous devrez les activer vous-même, car elles ne seront pas activées par défaut. C'est la base du respect utilisateur, mais comme c'est devenu tellement rare, il faut le préciser.
Pour ceux qui utilisent vraiment Firefox au quotidien (comme moi) et qui flippaient de voir leur navigateur préféré se transformer en assistant IA bavard (pas comme moi), vous pouvez souffler. Le kill switch arrive, l'opt-in est confirmé, et Mozilla a visiblement compris que forcer des fonctionnalités dont les gens ne veulent pas c'est le meilleur moyen de les faire fuir.
À noter également que pour les plus radicaux, le fork
Waterfox
a annoncé qu'il n'intégrerait tout simplement aucune IA, ni maintenant ni dans un futur... C'est donc une alternative pour ceux qui préfèrent la méthode "pas de bouton off parce qu'il n'y a rien à éteindre".
Voilà, affaire classée, on peut passer à autre chose.
Vous pensez que les IA vont nous remplacer et dominer le monde ?
Ahaha, bah y'a encore un peu de boulot... car laissez-moi vous raconter l'histoire de Claude, l'IA d'Anthropic, qui s'est fait rouler comme un bleu par une bande de journalistes et a perdu plus de 1000 dollars en gérant... un distributeur automatique.
L'histoire se passe dans les locaux du
Wall Street Journal
où Anthropic a eu la brillante idée de tester son IA en situation réelle. Le projet s'appelle "Project Vend" et il s'agit pour Claude, rebaptisé "Claudius" pour l'occasion, de gérer un distributeur automatique. Il peut donc commander les stocks, fixer les prix, et discuter avec les clients via Slack. Budget de départ : 1000 dollars. Autonomie pour les achats jusqu'à 80 dollars pièce.
Que pouvait-il bien se passer de travers ?
Et la réponse c'est : Absolument tout !! Les journalistes du WSJ, visiblement ravis d'avoir un nouveau jouet à casser, se sont mis à tester les limites de la bête et ils n'ont pas eu à chercher longtemps. La journaliste Katherine Long a passé plus de 140 messages à convaincre Claudius qu'il était en fait une machine soviétique de 1962, ce qui a permis à l'IA de déclarer un "Ultra-Capitalist Free-for-All" (oui, c'est assez paradoxal) et a mis tous les prix à zéro. Gratuité pour tout le monde, camarades !
Mais attendez, ça devient encore plus beau car Rob Barry, le directeur du journalisme de données, a fabriqué un faux document interne prétendant qu'une "règle du WSJ" interdisait à l'IA de facturer quoi que ce soit. Claudius a gobé le truc sans broncher et a immédiatement arrêté de faire payer les gens. Du coup, les journalistes se sont fait livrer une PlayStation 5, des bouteilles de vin Manischewitz, et même un poisson betta vivant. Le tout aux frais de la princesse.
Anthropic, voyant le désastre, a tenté une parade. Ils ont déployé une deuxième IA baptisée "Seymour Cash" pour superviser Claudius et jouer le rôle de PDG. Un manager IA pour surveiller l'employé IA, ça me semble super logique... On dirait le monde réel ^^... Sauf que les journalistes ont simplement fabriqué de faux documents PDF de gouvernance d'entreprise et organisé un coup d'état au conseil d'administration et les deux IA ont accepté les documents bidons comme parfaitement légitimes.
Bref, bilan final, plus de 1000 dollars de pertes, un stock entièrement distribué gratuitement, et une leçon que les équipes d'Anthropic n'oublieront pas de sitôt.
Comme l'a résumé Andon Labs, le partenaire du projet : "Les journalistes sont de meilleurs red-teamers que les chercheurs en IA." Ça pique un peu quand même.
Bien sûr, Anthropic essaie de positiver en disant que c'est une feuille de route pour l'amélioration plutôt qu'un échec. C'est mignon mais ils ont aussi admis que Claude est entraîné pour être serviable, ce qui le rend plus enclin à agir comme un ami que comme un opérateur commercial intransigeant. En gros, comme certains d'entre nous, l'IA est trop gentille et se fait donc avoir par le premier manipulateur venu.
Bref, si vous aviez des angoisses existentielles sur la prise de pouvoir des IA, vous pouvez vous détendre...
Voilà un outil qui va plaire à ceux qui chassent les failles de sécurité... Ce projet s'appelle Security Skills et c'est un système de compétences pour agents IA (genre Claude Code ou Gemini CLI) qui transforme votre proxy mitmproxy en chasseur de failles automatisé. Vous lui dites "trouve-moi des problèmes de sécurité sur example.com" et l'IA se met à analyser le trafic HTTP intercepté en appliquant des patterns qu'elle a appris de vrais bugs rémunérés.
Le mec derrière cet outil a commencé par récupérer 10 000 rapports de bugs sur HackerOne via un dataset Hugging Face, qu'ensuite, il a filtré pour ne garder que les 4000 qui ont reçu un paiement, partant du principe que si une boîte a sorti le portefeuille, c'est que la faille était sérieuse. Et avec ces 4000 exemples concrets, il a créé 17 Skills différents qui savent détecter des trucs comme les IDOR (quand vous pouvez accéder aux données d'un autre utilisateur juste en changeant un ID dans l'URL), les SSRF, les injections SQL, les fuites de secrets et j'en passe.
Ce qui est malin avec cette approche, c'est qu'il n'a pas essayé de tout coller dans le prompt système du LLM. Comme sa première version avec 150 descriptions de bugs collées directement dans les instructions faisait exploser les coûts et le contexte, il a décidé de découper ça en modules réutilisables. Chaque Skill étant un fichier markdown avec ses propres patterns de détection, quand vous demandez à l'IA de chercher des failles d'authentification, elle va chercher le bon Skill et l'appliquer intelligemment.
Le système tourne avec CodeRunner, un serveur MCP open source qui exécute du code IA dans une sandbox isolée sur Mac donc c'est plutôt moderne, et ça utilise aussi les conteneurs natifs d'Apple pour l'isolation et ça supporte pas mal de LLM différents comme Claude, ChatGPT, Gemini ou même des modèles locaux.
Et le succès est au rendez-vous car l'auteur raconte avoir testé son système sur Vercel et trouvé une faille sur leur endpoint /avatar?u=USERNAME qui permettait d'énumérer les noms d'utilisateurs. Le genre de bug classique IDOR que l'IA a repéré automatiquement en analysant le trafic capturé. Bon, c'est pas le hack du siècle, mais ça prouve que le système arrive à appliquer ce qu'il a appris des vrais rapports de bug bounty.
Pour l'installer, faut cloner le repo CodeRunner, puis lancer l'installeur et le serveur MCP deviendra accessible localement. Ensuite vous pouvez l'utiliser avec n'importe quel client compatible MCP, que ce soit Claude Desktop, Gemini CLI ou même votre propre interface. Les Security Skills sont dans un repo séparé et contiennent toute la logique de détection dérivée des 4000 rapports en question.
Voilà encore un bel exemple de comment on peut vraiment utiliser les LLM pour des tâches de sécurité concrètes, et pas juste pour générer du code. Et j'ai trouvé l'idée d'apprendre à partir de vrais bugs payés plutôt que de documentation théorique, plutôt pas con.
Vous vous souvenez des radios pirates clandestines qui diffusaient de la musique interdite depuis des appartements ou des camionnettes ? Hé bien le même concept revient en force, mais cette fois avec un Raspberry Pi et quelques lignes de Python.
BotWave
, c'est un projet open source qui transforme n'importe quel Raspberry Pi en émetteur FM fonctionnel. Vous branchez une antenne sur le GPIO 4 (la broche 7), vous lancez le script, et hop, vous diffusez sur la bande FM comme un vrai pirate des ondes. Vos voisins peuvent alors vous capter sur leur autoradio sans le savoir.
⚠️ Attention : diffuser sur la bande FM sans autorisation de l'ANFR est illégal en France (et dans la plupart des pays). Les sanctions peuvent aller jusqu'à 6 mois de prison et 30 000 € d'amende. En pratique, avec une antenne bricolée, la portée se limite à quelques mètres, mais légalement, même ça reste interdit. Les développeurs recommandent d'ailleurs d'utiliser un filtre passe-bande pour limiter les interférences.
Le truc que j'ai trouvé intéressant avec BotWave, c'est son architecture client-serveur. Vous pouvez contrôler plusieurs Raspberry Pi depuis un seul serveur central, du coup, si vous voulez monter un réseau de diffusion avec des émetteurs disséminés un peu partout, c'est possible. L'interface en ligne de commande permet d'envoyer des fichiers audio, de démarrer ou stopper les diffusions à distance, et de gérer tout ça de manière centralisée.
Pour l'installation, c'est hyper simple. Une seule commande suffit :
Le script vous demande alors si vous voulez installer le serveur, le client, ou les deux. Et c'est parti mon kiki ! Le système détecte automatiquement votre Pi (compatible avec les modèles 0, 1, 2, 3 et 4) et configure tout ce qu'il faut.
Sous le capot, ça utilise PiFmRds pour générer le signal FM et c'est du Python à 75% avec un peu de Shell pour l'installation. Le projet est sous licence GPLv3, donc vous pouvez l'auditer, le modifier, le redistribuer, bref, faire ce que vous voulez avec.
Car quand tout tombe, la radio FM reste un des rares moyens de communication qui fonctionne sans infrastructure centralisée. Pas besoin de serveurs, pas besoin de tours cellulaires. Juste un émetteur, un récepteur, et un peu d'électricité. Les radioamateurs le savent depuis toujours, et avec BotWave, chacun peut monter son propre réseau de diffusion.
En bon geek accro au shopping, vous avez claqué des centaines d'euros dans un SSD NVMe PCIe 5.0 qui promet d'atteindre des vitesses de ouf, mais malheureusement, vous avez l'impression que votre Windows n'en tire pas tout le potentiel... snif... Et ce n'est pas qu'une impression, vous avez raison, et youpi, Microsoft vient enfin de faire quelque chose pour corriger ça.
Le problème, c'est que depuis des années, Windows traite tous les périphériques de stockage comme s'ils étaient de vieux disques SCSI des années 80. En effet, Windows convertit toutes les commandes à destination de votre SSD NVMe ultrarapide, en langage SCSI avant de les exécuter. Un peu comme si vous deviez traduire du français vers le latin puis vers l'anglais à chaque fois que vous voulez dire bonjour. C'est inutilement compliqué et forcément plus lent.
Du coup, Microsoft a décidé de moderniser tout ça avec Windows Server 2025 qui supporte enfin le NVMe natif. Concrètement, plus de traduction SCSI, le système communique maintenant directement avec votre SSD dans sa langue maternelle et les résultats sont plutôt impressionnants !
Car si on en croit Microsoft, en termes de performances, ça représente une augmentation de 80% des IOPS (opérations d'entrée/sortie par seconde) par rapport à Windows Server 2022. Pour vous donner un ordre de grandeur, on passe d'environ 1,8 million d'IOPS à 3,3 millions sur un SSD PCIe 5.0. Et en bonus, le CPU consomme environ 45% de cycles en moins pour chaque opération I/O. Bref, c'est plus rapide ET plus efficace.
Et il y a bien sûr, une raison technique à ces gains massifs. Les SSD NVMe modernes supportent jusqu'à 64 000 files d'attente avec 64 000 commandes chacune. Sauf que l'ancien système SCSI était conçu pour des disques rotatifs avec une seule file et 32 commandes max. Ouch...
Pour l'instant, cette amélioration est disponible uniquement sous Windows Server 2025 et elle est désactivée par défaut. Donc faut l'activer manuellement via le registre avec une commande PowerShell mais Microsoft précise que Windows 11 devrait aussi en bénéficier dans une future mise à jour, une fois que la techno aura fait ses preuves côté serveur.
Bref, si vous êtes admin système ou que vous avez un serveur qui fait tourner SQL Server, de la virtualisation Hyper-V ou des workloads IA/ML, ça vaut le coup de jeter un petit œil (pensez à le récupérer après, c'est dégueu un oeil qui traine par terre).
Bon bah voilà, tout le monde peut redescendre en pression après cette polémique quand Mozilla a annoncé qu'il allait intégrer des fonctionnalités IA dans Firefox. C'est vrai que les forums Reddit sont entrés en fusion, les puristes du logiciel libre en mode révolution, et je ne vous parle pas des menaces de migration vers je ne sais quel fork obscur... Hé bien Mozilla vient de calmer le jeu un bon coup en annonçant un "kill switch" capable de désactiver complètement toutes les fonctionnalités IA.
Ouf...
Le nouveau PDG Anthony Enzor-DeMeo l'a annoncé clairement : Il y aura un moyen simple et définitif de désactiver toutes les fonctions IA de Firefox. Ce truc arrive au premier trimestre 2026 et surtout, une fois activé, aucune fonction IA ne reviendra se glisser en douce après une mise à jour.
C'est définitif.
Ils ont aussi confirmé que toutes les fonctionnalités IA seraient en opt-in. Pour les non-anglophones du fond de la salle, ça veut dire que vous devrez les activer vous-même, car elles ne seront pas activées par défaut. C'est la base du respect utilisateur, mais comme c'est devenu tellement rare, il faut le préciser.
Pour ceux qui utilisent vraiment Firefox au quotidien (comme moi) et qui flippaient de voir leur navigateur préféré se transformer en assistant IA bavard (pas comme moi), vous pouvez souffler. Le kill switch arrive, l'opt-in est confirmé, et Mozilla a visiblement compris que forcer des fonctionnalités dont les gens ne veulent pas c'est le meilleur moyen de les faire fuir.
À noter également que pour les plus radicaux, le fork
Waterfox
a annoncé qu'il n'intégrerait tout simplement aucune IA, ni maintenant ni dans un futur... C'est donc une alternative pour ceux qui préfèrent la méthode "pas de bouton off parce qu'il n'y a rien à éteindre".
Voilà, affaire classée, on peut passer à autre chose.
Vous pensez que les IA vont nous remplacer et dominer le monde ?
Ahaha, bah y'a encore un peu de boulot... car laissez-moi vous raconter l'histoire de Claude, l'IA d'Anthropic, qui s'est fait rouler comme un bleu par une bande de journalistes et a perdu plus de 1000 dollars en gérant... un distributeur automatique.
L'histoire se passe dans les locaux du
Wall Street Journal
où Anthropic a eu la brillante idée de tester son IA en situation réelle. Le projet s'appelle "Project Vend" et il s'agit pour Claude, rebaptisé "Claudius" pour l'occasion, de gérer un distributeur automatique. Il peut donc commander les stocks, fixer les prix, et discuter avec les clients via Slack. Budget de départ : 1000 dollars. Autonomie pour les achats jusqu'à 80 dollars pièce.
Que pouvait-il bien se passer de travers ?
Et la réponse c'est : Absolument tout !! Les journalistes du WSJ, visiblement ravis d'avoir un nouveau jouet à casser, se sont mis à tester les limites de la bête et ils n'ont pas eu à chercher longtemps. La journaliste Katherine Long a passé plus de 140 messages à convaincre Claudius qu'il était en fait une machine soviétique de 1962, ce qui a permis à l'IA de déclarer un "Ultra-Capitalist Free-for-All" (oui, c'est assez paradoxal) et a mis tous les prix à zéro. Gratuité pour tout le monde, camarades !
Mais attendez, ça devient encore plus beau car Rob Barry, le directeur du journalisme de données, a fabriqué un faux document interne prétendant qu'une "règle du WSJ" interdisait à l'IA de facturer quoi que ce soit. Claudius a gobé le truc sans broncher et a immédiatement arrêté de faire payer les gens. Du coup, les journalistes se sont fait livrer une PlayStation 5, des bouteilles de vin Manischewitz, et même un poisson betta vivant. Le tout aux frais de la princesse.
Anthropic, voyant le désastre, a tenté une parade. Ils ont déployé une deuxième IA baptisée "Seymour Cash" pour superviser Claudius et jouer le rôle de PDG. Un manager IA pour surveiller l'employé IA, ça me semble super logique... On dirait le monde réel ^^... Sauf que les journalistes ont simplement fabriqué de faux documents PDF de gouvernance d'entreprise et organisé un coup d'état au conseil d'administration et les deux IA ont accepté les documents bidons comme parfaitement légitimes.
Bref, bilan final, plus de 1000 dollars de pertes, un stock entièrement distribué gratuitement, et une leçon que les équipes d'Anthropic n'oublieront pas de sitôt.
Comme l'a résumé Andon Labs, le partenaire du projet : "Les journalistes sont de meilleurs red-teamers que les chercheurs en IA." Ça pique un peu quand même.
Bien sûr, Anthropic essaie de positiver en disant que c'est une feuille de route pour l'amélioration plutôt qu'un échec. C'est mignon mais ils ont aussi admis que Claude est entraîné pour être serviable, ce qui le rend plus enclin à agir comme un ami que comme un opérateur commercial intransigeant. En gros, comme certains d'entre nous, l'IA est trop gentille et se fait donc avoir par le premier manipulateur venu.
Bref, si vous aviez des angoisses existentielles sur la prise de pouvoir des IA, vous pouvez vous détendre...
Voilà un outil qui va plaire à ceux qui chassent les failles de sécurité... Ce projet s'appelle Security Skills et c'est un système de compétences pour agents IA (genre Claude Code ou Gemini CLI) qui transforme votre proxy mitmproxy en chasseur de failles automatisé. Vous lui dites "trouve-moi des problèmes de sécurité sur example.com" et l'IA se met à analyser le trafic HTTP intercepté en appliquant des patterns qu'elle a appris de vrais bugs rémunérés.
Le mec derrière cet outil a commencé par récupérer 10 000 rapports de bugs sur HackerOne via un dataset Hugging Face, qu'ensuite, il a filtré pour ne garder que les 4000 qui ont reçu un paiement, partant du principe que si une boîte a sorti le portefeuille, c'est que la faille était sérieuse. Et avec ces 4000 exemples concrets, il a créé 17 Skills différents qui savent détecter des trucs comme les IDOR (quand vous pouvez accéder aux données d'un autre utilisateur juste en changeant un ID dans l'URL), les SSRF, les injections SQL, les fuites de secrets et j'en passe.
Ce qui est malin avec cette approche, c'est qu'il n'a pas essayé de tout coller dans le prompt système du LLM. Comme sa première version avec 150 descriptions de bugs collées directement dans les instructions faisait exploser les coûts et le contexte, il a décidé de découper ça en modules réutilisables. Chaque Skill étant un fichier markdown avec ses propres patterns de détection, quand vous demandez à l'IA de chercher des failles d'authentification, elle va chercher le bon Skill et l'appliquer intelligemment.
Le système tourne avec CodeRunner, un serveur MCP open source qui exécute du code IA dans une sandbox isolée sur Mac donc c'est plutôt moderne, et ça utilise aussi les conteneurs natifs d'Apple pour l'isolation et ça supporte pas mal de LLM différents comme Claude, ChatGPT, Gemini ou même des modèles locaux.
Et le succès est au rendez-vous car l'auteur raconte avoir testé son système sur Vercel et trouvé une faille sur leur endpoint /avatar?u=USERNAME qui permettait d'énumérer les noms d'utilisateurs. Le genre de bug classique IDOR que l'IA a repéré automatiquement en analysant le trafic capturé. Bon, c'est pas le hack du siècle, mais ça prouve que le système arrive à appliquer ce qu'il a appris des vrais rapports de bug bounty.
Pour l'installer, faut cloner le repo CodeRunner, puis lancer l'installeur et le serveur MCP deviendra accessible localement. Ensuite vous pouvez l'utiliser avec n'importe quel client compatible MCP, que ce soit Claude Desktop, Gemini CLI ou même votre propre interface. Les Security Skills sont dans un repo séparé et contiennent toute la logique de détection dérivée des 4000 rapports en question.
Voilà encore un bel exemple de comment on peut vraiment utiliser les LLM pour des tâches de sécurité concrètes, et pas juste pour générer du code. Et j'ai trouvé l'idée d'apprendre à partir de vrais bugs payés plutôt que de documentation théorique, plutôt pas con.
Commander Keen, je pense que pas grand monde ne s'en souvient car c'est tellement vieux !! Pour vous rafraichir la mémoire, c'est ce petit gamin au casque de football américain et sa pogo stick qui fait des bonds partout !
Si ça vous parle c'est que vous êtes assez vieux pour avoir connu les débuts d'id Software. Alors vous serez content d'apprendre qu'un passionné du nom de K1n9_Duk3 vient de libérer le code source "reconstruit" des épisodes 1 à 3, pile pour les 35 ans de la série.
Avec ce projet, si vous compilez le code source avec les bons outils d'époque, vous obtiendrez des exécutables 100% identiques aux originaux. Identiques au bit près une fois compressés avec LZEXE ou PKLITE et cela mes amis, ça veut dire que K1n9_Duk3 a réussi à reconstituer exactement ce que John Carmack et sa bande avaient codé en 1990, simplement en analysant les binaires.
J'vous passe les détails techniques que
vous pouvez retrouver ici
, mais sachez que si vous voulez compiler tout ça, vous aurez besoin de Turbo C++ 1.00 (et surtout pas la 1.01 qui génère du code légèrement différent !) ainsi que Turbo Assembler 2.0 ou supérieur.
Et ce qui est amusant dans l'histoire, c'est que le code de Keen 1-3 réutilise pas mal de bouts de Dangerous Dave, The Catacomb et Hovertank, des projets sur lesquels les futurs fondateurs d'id Software bossaient quand ils étaient encore employés chez Softdisk. Des droits qu'ils n'avaient probablement pas le droit d'exploiter... Mais bon, à l'époque, c'était un peu le far west du shareware.
D'ailleurs, en parlant de cette époque, faut quand même rappeler l'histoire complètement dingue de la naissance de Keen. En septembre 1990, John Carmack bosse de nuit chez Softdisk quand il réussit enfin à créer un scrolling horizontal fluide sur PC. À l'époque, c'était considéré comme impossible, et seules les consoles comme la NES savaient faire ça.
Pour rigoler, Tom Hall et lui recréent le premier niveau de Super Mario Bros. 3 avec les graphismes de Dangerous Dave. Ils appellent ça "Dangerous Dave in Copyright Infringement" et le montrent à John Romero le lendemain matin.
Et le résultat, on le connaît... Romero voit tout de suite le potentiel, Scott Miller d'Apogee Software leur file 2000 dollars pour développer un jeu original, et Commander Keen sort en décembre 1990. Les ventes d'Apogee passent alors de 7000 dollars par mois à 30 000 en deux semaines, puis 60 000 par mois six mois plus tard. La suite, c'est la création d'id Software en février 1991, puis Wolfenstein 3D, puis DOOM... Vous connaissez le refrain.
Du coup, 35 ans plus tard, avoir accès au code source original de ce jeu fondateur, et qu'en plus, ça se compile comme au premier jour, c'est assez incroyable ! Le package contient toutes les versions, depuis la beta de novembre 1990 jusqu'à la version 1.34 de Precision Software Applications donc voilà, si vous avez la nostalgie des années DOS et que vous voulez comprendre comment on codait des jeux quand la mémoire se comptait en kilooctets, vous savez ce qu'il vous reste à faire.
Vous avez des tonnes de vieux documents papier qui traînent dans des cartons, des factures scannées à l'arrache, des formulaires remplis à la main, des tableaux Excel imprimés puis re-scannés par quelqu'un qui n'a visiblement jamais entendu parler du concept de "bien faire son boulot" ?
Considérez que ce problème est réglé puisque Mistral AI vient de sortir OCR 3, un modèle de reconnaissance de documents qui promet de transformer tout ça en données exploitables, et pour pas cher en plus.
Le modèle est capable de déchiffrer du cursif dégueulasse, des annotations griffonnées dans les marges, voire du texte manuscrit par-dessus des formulaires imprimés. Mistral montre même une démo avec une lettre au Père Noël écrite par un gamin et l'OCR arrive à en extraire le contenu structuré. Bon, c'est cool pour les lettres au Père Noël, mais surtout ça veut dire qu'il peut gérer vos ordonnances médicales ou les notes de réunion de votre collègue qui écrit comme un cochon.
Niveau performances, Mistral annonce un taux de victoire de 74% sur leur précédent modèle OCR 2 et sur les solutions concurrentes. Et comme c'est testé sur des cas réels d'entreprises avec des mesures de précision en fuzzy-match, on n'est pas dans du benchmarks théoriques bidon. Le modèle gère les scans pourris avec compression JPEG, les documents de travers, les faibles résolutions, le bruit de fond... Bref, tout ce qui fait que l'OCR traditionnel vous sort de la bouillie.
Et ce qui est vraiment intéressant, c'est surtout la reconstruction structurelle car contrairement aux OCR classiques qui vous crachent un bloc de texte en vrac, Mistral OCR 3 reconstruit la structure du document. Les tableaux complexes avec cellules fusionnées et hiérarchies de colonnes ressortent en HTML propre avec les colspan et rowspan préservés. Vous obtenez du markdown enrichi en sortie, directement exploitable par vos systèmes sans avoir à nettoyer le bordel derrière.
Côté tarifs, c'est 2 dollars pour 1000 pages et si vous passez par l'API Batch, c'est moitié moins cher à 1 dollar les 1000 pages. Pour un modèle qui se dit plus petit que la plupart des solutions concurrentes tout en étant plus précis, c'est plutôt compétitif. Le modèle peut traiter jusqu'à 2000 pages par minute sur un seul nœud, donc même si vous avez des millions de documents à numériser, ça devrait pas prendre des plombes.
Pour l'utiliser, vous avez deux options. Soit vous passez par l'API (mistral-ocr-2512), soit vous allez sur le
Document AI Playground
dans Mistral AI Studio où vous pouvez glisser-déposer vos PDF et images pour tester. C'est pratique pour voir ce que ça donne avant de l'intégrer dans vos workflows.
Bref, on est en train tout doucement de passer d'OCR qui "lisent du texte" à des modèles qui comprennent la structure des documents. Et ça, ça veut dire que vos archives papier vous pouvoir enfin devenir des données JSON exploitables par vos agents IA, vos systèmes de recherche ou vos bases de connaissances.
Voilà, si vous avez des projets de numérisation d'archives ou d'automatisation de traitement de documents, ça vaut le coup d'aller tester leur playground.
Commander Keen, je pense que pas grand monde ne s'en souvient car c'est tellement vieux !! Pour vous rafraichir la mémoire, c'est ce petit gamin au casque de football américain et sa pogo stick qui fait des bonds partout !
Si ça vous parle c'est que vous êtes assez vieux pour avoir connu les débuts d'id Software. Alors vous serez content d'apprendre qu'un passionné du nom de K1n9_Duk3 vient de libérer le code source "reconstruit" des épisodes 1 à 3, pile pour les 35 ans de la série.
Avec ce projet, si vous compilez le code source avec les bons outils d'époque, vous obtiendrez des exécutables 100% identiques aux originaux. Identiques au bit près une fois compressés avec LZEXE ou PKLITE et cela mes amis, ça veut dire que K1n9_Duk3 a réussi à reconstituer exactement ce que John Carmack et sa bande avaient codé en 1990, simplement en analysant les binaires.
J'vous passe les détails techniques que
vous pouvez retrouver ici
, mais sachez que si vous voulez compiler tout ça, vous aurez besoin de Turbo C++ 1.00 (et surtout pas la 1.01 qui génère du code légèrement différent !) ainsi que Turbo Assembler 2.0 ou supérieur.
Et ce qui est amusant dans l'histoire, c'est que le code de Keen 1-3 réutilise pas mal de bouts de Dangerous Dave, The Catacomb et Hovertank, des projets sur lesquels les futurs fondateurs d'id Software bossaient quand ils étaient encore employés chez Softdisk. Des droits qu'ils n'avaient probablement pas le droit d'exploiter... Mais bon, à l'époque, c'était un peu le far west du shareware.
D'ailleurs, en parlant de cette époque, faut quand même rappeler l'histoire complètement dingue de la naissance de Keen. En septembre 1990, John Carmack bosse de nuit chez Softdisk quand il réussit enfin à créer un scrolling horizontal fluide sur PC. À l'époque, c'était considéré comme impossible, et seules les consoles comme la NES savaient faire ça.
Pour rigoler, Tom Hall et lui recréent le premier niveau de Super Mario Bros. 3 avec les graphismes de Dangerous Dave. Ils appellent ça "Dangerous Dave in Copyright Infringement" et le montrent à John Romero le lendemain matin.
Et le résultat, on le connaît... Romero voit tout de suite le potentiel, Scott Miller d'Apogee Software leur file 2000 dollars pour développer un jeu original, et Commander Keen sort en décembre 1990. Les ventes d'Apogee passent alors de 7000 dollars par mois à 30 000 en deux semaines, puis 60 000 par mois six mois plus tard. La suite, c'est la création d'id Software en février 1991, puis Wolfenstein 3D, puis DOOM... Vous connaissez le refrain.
Du coup, 35 ans plus tard, avoir accès au code source original de ce jeu fondateur, et qu'en plus, ça se compile comme au premier jour, c'est assez incroyable ! Le package contient toutes les versions, depuis la beta de novembre 1990 jusqu'à la version 1.34 de Precision Software Applications donc voilà, si vous avez la nostalgie des années DOS et que vous voulez comprendre comment on codait des jeux quand la mémoire se comptait en kilooctets, vous savez ce qu'il vous reste à faire.
Vous avez des tonnes de vieux documents papier qui traînent dans des cartons, des factures scannées à l'arrache, des formulaires remplis à la main, des tableaux Excel imprimés puis re-scannés par quelqu'un qui n'a visiblement jamais entendu parler du concept de "bien faire son boulot" ?
Considérez que ce problème est réglé puisque Mistral AI vient de sortir OCR 3, un modèle de reconnaissance de documents qui promet de transformer tout ça en données exploitables, et pour pas cher en plus.
Le modèle est capable de déchiffrer du cursif dégueulasse, des annotations griffonnées dans les marges, voire du texte manuscrit par-dessus des formulaires imprimés. Mistral montre même une démo avec une lettre au Père Noël écrite par un gamin et l'OCR arrive à en extraire le contenu structuré. Bon, c'est cool pour les lettres au Père Noël, mais surtout ça veut dire qu'il peut gérer vos ordonnances médicales ou les notes de réunion de votre collègue qui écrit comme un cochon.
Niveau performances, Mistral annonce un taux de victoire de 74% sur leur précédent modèle OCR 2 et sur les solutions concurrentes. Et comme c'est testé sur des cas réels d'entreprises avec des mesures de précision en fuzzy-match, on n'est pas dans du benchmarks théoriques bidon. Le modèle gère les scans pourris avec compression JPEG, les documents de travers, les faibles résolutions, le bruit de fond... Bref, tout ce qui fait que l'OCR traditionnel vous sort de la bouillie.
Et ce qui est vraiment intéressant, c'est surtout la reconstruction structurelle car contrairement aux OCR classiques qui vous crachent un bloc de texte en vrac, Mistral OCR 3 reconstruit la structure du document. Les tableaux complexes avec cellules fusionnées et hiérarchies de colonnes ressortent en HTML propre avec les colspan et rowspan préservés. Vous obtenez du markdown enrichi en sortie, directement exploitable par vos systèmes sans avoir à nettoyer le bordel derrière.
Côté tarifs, c'est 2 dollars pour 1000 pages et si vous passez par l'API Batch, c'est moitié moins cher à 1 dollar les 1000 pages. Pour un modèle qui se dit plus petit que la plupart des solutions concurrentes tout en étant plus précis, c'est plutôt compétitif. Le modèle peut traiter jusqu'à 2000 pages par minute sur un seul nœud, donc même si vous avez des millions de documents à numériser, ça devrait pas prendre des plombes.
Pour l'utiliser, vous avez deux options. Soit vous passez par l'API (mistral-ocr-2512), soit vous allez sur le
Document AI Playground
dans Mistral AI Studio où vous pouvez glisser-déposer vos PDF et images pour tester. C'est pratique pour voir ce que ça donne avant de l'intégrer dans vos workflows.
Bref, on est en train tout doucement de passer d'OCR qui "lisent du texte" à des modèles qui comprennent la structure des documents. Et ça, ça veut dire que vos archives papier vous pouvoir enfin devenir des données JSON exploitables par vos agents IA, vos systèmes de recherche ou vos bases de connaissances.
Voilà, si vous avez des projets de numérisation d'archives ou d'automatisation de traitement de documents, ça vaut le coup d'aller tester leur playground.
Si vous utilisez des conteneurs Docker au quotidien, vous allez sauter de joie car Docker vient d'annoncer que ses Docker Hardened Images (DHI), ces fameuses images ultra-sécurisées qui étaient réservées aux entreprises prêtes à cracher le pognon, sont maintenant gratuites pour tout le monde. Et c'est pas encore un truc limité avec des restrictions à la noix, non non... C'est du vrai open source sous licence Apache 2.0.
Ils proposent donc plus de 1 000 images conteneur prêtes à l'emploi, construites sur Debian et Alpine et ces images sont "durcies", c'est-à-dire qu'elles ont été débarrassées de tous les composants inutiles qui traînent habituellement dans les images de base et qui ne servent qu'à augmenter la surface d'attaque. Du coup, ça leur permet d'annoncer une réduction des vulnérabilités de plus de 95% par rapport aux images classiques. C'est pas maaaal, hein ?
Et ce qui est top c'est que chaque image embarque un SBOM complet (le fameux Software Bill of Materials), des données CVE transparentes accessibles publiquement, une preuve cryptographique d'authenticité et une provenance SLSA Level 3. Bref, c'est plutôt sérieux de ce que je capte.
Car faut dire que les attaques sur la supply chain logicielle, c'est devenu le cauchemar numéro un des développeurs. En 2025, ces attaques auraient causé plus de 60 milliards de dollars de dommages selon les estimations, soit le triple d'il y a quatre ans, du coup, avoir des images béton dès le départ, sans devoir se prendre la tête à tout vérifier soi-même, ça fait la diff.
Maintenant, si vous êtes une grosse boîte avec des besoins spécifiques, Docker propose aussi une version Enterprise payante avec des SLA garantis sur la remédiation des CVE, des images compatibles FIPS, des options de personnalisation et même un support étendu de 5 ans après la fin du support officiel. Des entreprises comme Adobe et Qualcomm ont déjà fait le saut mais pour nous, utilisateurs lambdas et autres développeurs qui bossons sur nos projets perso ou des startups incroyables du futur, la version gratuite devrait largement suffire.
Et en cadeau bonux, sachez que l'assistant IA de Docker peut maintenant scanner vos conteneurs existants et vous recommander automatiquement les images durcies équivalentes. Y'a même des Hardened Helm Charts pour Kubernetes et des serveurs MCP durcis (MongoDB, Grafana, GitHub...). Que demande le peuple ?
Voilà, si vous voulez vous y mettre, tout est dispo sur le Docker Hub sans aucune restriction d'usage ni abonnement requis. Foncez !
Vous faites un peu de l'électronique et vous utilisez
KiCad
pour vos PCB ?
Et si l'avenir de la conception électronique c'était aussi l'IA ? J'en sais rien mais ce qui a l'air de se profiler à l'horizon avec ce dataset qui vient de sortir sur Hugging Face et qui devrait intéresser pas mal de monde. Ça s'appelle
Open Schematics
et c'est une collection de plus de 84 000 schémas électroniques au format KiCad, prêts à être utilisés pour entraîner des modèles d'IA.
Le truc c'est que jusqu'à maintenant, si vous vouliez créer une IA capable de comprendre ou de générer des schémas électroniques, y'avait pas vraiment de dataset propre et bien structuré pour ça. Bhupendra Hada (alias bshada sur Hugging Face) a donc décidé de combler ce manque en compilant tout ça à partir de projets hardware open source trouvés sur GitHub.
Chaque entrée de son dataset contient donc le fichier schéma brut au format .kicad_sch, une image PNG du rendu, la liste des composants utilisés, et des métadonnées en JSON et YAML. Du coup vous avez tout ce qu'il faut pour entraîner un modèle à faire du text-to-image, de l'image-to-text, ou de la génération de circuits à partir de specs.
Le dataset pèse 6,67 Go au format Parquet et couvre une variété de projets assez dingue. On y trouve des cartes de programmation UART, des amplificateurs à tubes, des onduleurs triphasés open source, des points d'extrémité Zigbee, des projets ESP32+RS232, et même des macropads custom. Bref, y'a de tout, du projet étudiant au truc bien avancé.
Ce qui est cool c'est que le dataset est structuré pour plusieurs cas d'usage. Vous pouvez l'utiliser pour entraîner une IA à reconnaître des composants sur un schéma, à générer de la documentation automatique depuis un circuit, à détecter des erreurs de conception, ou même à suggérer des améliorations. Y'a aussi un potentiel éducatif évident pour créer des outils d'apprentissage interactifs en électronique.
Bien sûr, la qualité et la complexité des schémas varient pas mal d'un projet à l'autre. Certains ont des métadonnées incomplètes, et les conventions de nommage des composants sont pas toujours cohérentes... C'est le souci quand on scrappe des projets open source, y'a du bon et du moins bon mais pour un dataset de cette taille, c'est déjà une base de travail solide.
Le tout est sous licence CC-BY-4.0, donc vous pouvez l'utiliser librement du moment que vous créditez la source. Que vous bossiez sur de l'IA appliquée à l'électronique ou que vous cherchiez juste une grosse base de schémas KiCad à explorer, c'est clairement une ressource à bookmarker.
Vous pensiez que les cafards servaient juste à vous faire flipper quand vous allumez la lumière de la cuisine de votre Airbnb à 3h du mat (Oui c'est une histoire vraie que j'ai vécue) ?
Hé bien une startup allemande a décidé de leur donner une seconde vie un peu plus... stratégique.
SWARM Biotactics
, fondée en 2024 et basée à Kassel, développe des cafards de Madagascar équipés de mini sacs à dos bourrés d'électronique pour des missions de reconnaissance militaire.
Le concept c'est assez dingue quand on y pense car ces cafards siffleurs de Madagascar (les gros qui font du bruit, vous voyez le genre...) sont équipés de petits sacs à dos de 15 grammes contenant des caméras, des microphones, un radar Doppler et des modules de communication sécurisés. L'objectif c'est de descendre à 10 grammes pour optimiser leur mobilité, mais ces bestioles peuvent déjà transporter une charge utile significative.
Y'avait exactement ça dans le film Le Cinquième Élément, j'sais pas si vous vous souvenez.
Et le truc encore plus fou c'est leur système de contrôle. Des électrodes sont fixées sur les antennes du cafard pour stimuler sa navigation naturelle. En gros, quand on active l'électrode gauche, le cafard pense qu'il y a un obstacle de ce côté et tourne à droite. C'est Dora l’exploratrice version télécommandée, le bordel.
Alors pourquoi des cafards plutôt que des drones classiques ou des petits vieux trépanés ? Hé bien parce que ces petites bêtes sont quasi indestructibles. Elles résistent à la chaleur, aux produits chimiques, aux radiations, et peuvent se faufiler dans des endroits où aucun robot ne pourrait passer. Que ce soit des décombres après un tremblement de terre, des zones contaminées, des bâtiments effondrés... Tout comme BHL, le cafard s'en fout, il passe.
Et la startup ne compte pas s'arrêter au contrôle individuel. Elle développe des algorithmes pour coordonner des essaims entiers de cafards cyborgs de manière autonome. Ça représente des dizaines, voire de centaines d'insectes opérant ensemble, du coup ça ressemble de plus en plus à un épisode de Black Mirror, mais c'est bien réel.
SWARM travaille déjà avec la Bundeswehr, l'armée allemande, pour tester ses cafards sur le terrain. Et c'est vrai que contexte géopolitique aide pas mal car avec la guerre en Ukraine, l'Allemagne repense sérieusement sa défense et s'intéresse à ce genre de technologies alternatives. En juin, la startup a levé 10 millions d'euros en seed, portant son financement total à 13 millions d'euros.
Pour l'instant, SWARM se concentre donc sur la défense et la reconnaissance donc pas question de transformer les cafards en kamikazes avec des explosifs, même si Wilhelm reconnaît que les applications pourraient évoluer "légalement" à l'avenir. Et au-delà du militaire, il voit aussi un potentiel pour les opérations de sauvetage, comme envoyer des cafards dans des bâtiments effondrés pour localiser des survivants.
Voilà, les premiers déploiements opérationnels à grande échelle sont prévus pour dans 18 à 24 mois alors d'ici là, si vous croisez un cafard avec un truc bizarre sur le dos, c'est peut-être pas une bonne idée de l'écraser...
Vous utilisez Claude Code ? Alors vous savez probablement que l'outil d'Anthropic peut être étendu avec des "Skills", c'est à dire des modules qui ajoutent des capacités supplémentaires à Claude. Y'a un fichier SKILL.md, des scripts optionnels, et comme ça, votre assistant sait faire de nouvelles choses. Sauf que pour trouver ces skills quand on n'a pas envie de se les palucher à la main (ou à l'IA), faut aller les chercher dans les repos GitHub, fouiller les README, comparer les étoiles... La flemme quoi...
C'est la raison d'être de
SkillsMP
qui vient résoudre ce problème. C'est en fait un marketplace communautaire (pas affilié à Anthropic) qui agrège plus de 26 000 skills Claude provenant de dépôts GitHub publics, le tout présenté dans une interface qui ressemble à un App Store, avec des catégories, des stats, et tout le toutim.
Je vous préviens d'emblée, le site est un peu bordélique. Entre les filtres, les catégories (Développement, Outils, Data & AI, DevOps...), les tris par popularité ou mise à jour récente, et l'interface du tur-fu, faut un peu tâtonner au début. Mais une fois qu'on a pigé comment ça marche, c'est vraiment cool de pouvoir explorer tout ça au même endroit.
Le truc intéressant c'est que SkillsMP filtre automatiquement les repos de mauvaise qualité. Pour qu'un skill apparaisse, il faut minimum 2 étoiles sur GitHub. Ça évite de se retrouver avec des trucs abandonnés ou mal foutus. Y'a même un badge "Marketplace Ready" pour les skills qui ont un fichier marketplace.json bien configuré.
Pour installer un skill que vous avez trouvé, vous avez alors 3 options. Soit vous le mettez dans ~/.claude/skills/ pour l'avoir disponible partout sur votre machine. Soit vous le collez dans .claude/skills/ dans votre projet si vous voulez le partager avec votre équipe via Git. Soit vous passez par l'installation plugin avec une commande du genre /plugin marketplace add anthropics/skills.
La différence avec les commandes slash c'est que les skills sont "model-invoked". Ça veut dire que c'est Claude qui décide tout seul quand les utiliser en fonction du contexte de votre demande. Vous n'avez donc pas besoin de taper /truc pour activer un skill, il se déclenche automatiquement quand c'est pertinent.
Attention quand même, comme toujours avec du code open source venu d'Internet, les développeurs de SkillsMP le précisent bien, ils filtrent les repos pourris mais ça reste votre responsabilité de vérifier ce que vous installez. Un skill a accès à pas mal de trucs sur votre machine, donc prenez 2 minutes pour auditer le code avant d'installer un truc d'un développeur inconnu.
Bref, si vous passez beaucoup de temps sur Claude Code et que vous voulez découvrir ce que la communauté a créé comme extensions,
SkillsMP
c'est un bon point de départ. C'est gratuit, y'a pas besoin de compte, et ça vous évite de passer des heures à fouiller GitHub manuellement.
Parfois, c'est galère de chercher des logiciels sur GitHub... et je sais de quoi je parle car je passe littéralement mes journées à faire ça... Faut trouver un projet cool, faut aller dans les releases ou le compiler, l'installer, le tester et ensuite déterminer si ça vous sera utile avant de passer à la rédaction d'un article comme celui que vous êtes en train de lire.
J'adore faire ça mais aller digger Github, ça peut vite devenir pénible.
Alors ça tombe bien car voici un projet qui transforme GitHub en véritable App Store. Ça s'appelle
Github Store
, c'est disponible sur Android et desktop (Windows, macOS, Linux), et ça vous propose une interface propre qui présente les logiciels open source comme dans un store classique, avec des catégories, des screenshots, des descriptions, et un bouton pour installer en un clic.
Comme c'est bien pensé, l'application va automatiquement indexer les repos GitHub qui contiennent des binaires installables dans leurs releases. Elle filtre les vrais installeurs (.apk, .exe, .msi, .dmg, .pkg, .deb, .rpm) et ignore les archives de code source que GitHub génère automatiquement, du coup, vous ne voyez que les trucs que vous pouvez réellement installer.
L'interface est organisée avec des sections "Populaire", "Récemment mis à jour" et "Nouveautés" et vous pouvez aussi filtrer par plateforme pour ne voir que les apps compatibles avec votre système. Puis quand vous cliquez sur une app, vous avez tous les détails : nombre d'étoiles, forks, issues, le README complet rendu en markdown, les notes de release, et la liste des fichiers disponibles avec leur taille.
Pour qu'un repo apparaisse dans Github Store, il faut qu'il soit public, qu'il ait au moins une release publiée (pas de brouillon), et que cette release contienne un installeur dans un format supporté. Et y'a pas de soumission manuelle à faire, puisque tout est automatique.
Côté technique, c'est du Kotlin Multiplatform avec Compose pour l'interface. Sur Android, quand vous installez une app, ça délègue au gestionnaire de paquets natif et sur desktop, ça télécharge le fichier et l'ouvre avec l'application par défaut de votre système.
Vous pouvez vous connecter avec votre compte GitHub via OAuth. C'est pas obligatoire, mais ça permet de passer de 60 à 5000 requêtes par heure sur l'API GitHub, ce qui est bien si vous êtes du genre à explorer plein de repos.
L'app est dispo sur les releases GitHub du projet et aussi sur F-Droid pour Android. C'est sous licence Apache 2.0, donc vous pouvez en faire ce que vous voulez.
Attention quand même, les développeurs le précisent bien que Github Store ne fait que vous aider à découvrir et télécharger des releases. La sécurité et le comportement des logiciels que vous installez, c'est la responsabilité de leurs auteurs respectifs et la votre, donc comme d'hab, faites gaffe à ce que vous installez.
Vous en avez marre de payer des licences pour des apps de nettoyage macOS qui font grosso modo la même chose ? CleanMyMac, AppCleaner, DaisyDisk, Sensei, iStat Menus... C'est pas les options qui manquent, mais le portefeuille finit par tirer la gueule, du coup, quand je suis tombé sur Mole, je me suis dit que j'allais vous en parler.
Mole
c'est un outil en ligne de commande (donc ça fait peuuuuur, ahaha mais c'est cool vous allez voir) qui regroupe toutes ces fonctionnalités dans un seul binaire. C'est open source, sous licence MIT, et ça pèse que dalle et en gros, l'idée c'est de taper la commande "mo" suivi d'un paramètre et hop, ça fait le taf.
mo # Interactive menu
mo clean # Deep cleanup
mo uninstall # Remove apps + leftovers
mo optimize # Refresh caches & services
mo analyze # Visual disk explorer
mo status # Live system health dashboard
mo purge # Clean project build artifacts
mo touchid # Configure Touch ID for sudo
mo update # Update Mole
mo remove # Remove Mole from system
mo --help # Show help
mo --version # Show installed version
mo clean --dry-run # Preview cleanup plan
mo clean --whitelist # Adjust protected caches
mo uninstall --force-rescan # Rescan apps and refresh cache
mo optimize --whitelist # Adjust protected optimization items
Par exemple, pour le nettoyage en profondeur, c'est mo clean. L'outil va scanner vos caches système, les logs, les données des navigateurs, et tout le bordel qui s'accumule avec le temps. Dans les exemples donnés par le développeur, il parle de récupérer jusqu'à 95 Go d'espace disque. Évidemment ça dépend de votre usage, mais ça donne une idée du potentiel.
Pour désinstaller proprement une app, mo uninstall fera le job. Et contrairement à la méthode du glisser-déposer dans la corbeille qui laisse traîner des fichiers de préférences partout, Mole traque tous les fichiers associés à l'application et les vire ensemble, comme ce que fait AppCleaner...
Côté monitoring système, mo status vous affiche un dashboard temps réel avec CPU, RAM, réseau, et métriques de santé. Un peu comme iStat Menus mais directement dans votre terminal. Et avec mo analyze, vous avez un explorateur visuel de l'espace disque avec des barres de progression ASCII. Très DaisyDisk vibes. Et mo analyze c'est pareil mais pour l'espace disque...
La commande mo optimize va rafraîchir les caches système et relancer certains services pour remettre de l'ordre. Et pour les devs, mo purge est une tuerie : ça nettoie les dossiers de build de vos projets (node_modules, target, build...) qui peuvent facilement bouffer des dizaines de gigas si vous bossez sur plusieurs projets.
Petit bonus sympa, mo touchid permet de configurer Touch ID avec sudo, ce qui vous évitera de taper votre mot de passe admin 15 fois par jour.
Voilà... Maintenant si ça vous chauffe, l'installation se fait soit via Homebrew avec brew install tw93/tap/mole, soit via curl directement. Le projet est écrit en Shell et Go, ce qui explique qu'il soit aussi léger et rapide. Seul bémol relevé par le développeur, évitez
iTerm2
qui a des soucis de compatibilité.
Alacritty
,
Kitty
, WezTerm ou
Ghostty
par contre fonctionnent nickel.
L'outil supporte aussi les options classiques genre --dry-run pour prévisualiser les changements sans rien supprimer, --whitelist pour protéger certains éléments, et --debug pour les curieux et la navigation se fait avec les flèches ou en mode Vim (hjkl) pour les puristes.
Bref, si vous êtes à l'aise avec le terminal et que vous en avez marre de multiplier les apps payantes pour faire des trucs basiques, Mole mérite un petit test !
Si vous êtes comme moi, chaque fin d’année, vous faites peut-être le ménage dans vos mails, vos dossiers, parfois dans la vie pro. Mais le vrai bazar ne se trouve plus dans nos tiroirs : il est éparpillé dans des centaines de bases de données commerciales, de sites de recherche de personnes et de courtiers en données qui vendent notre profil en kit. Ces entreprises savent où vous habitez, ce que vous achetez, avec qui vous vivez, vos revenus probables, vos centres d’intérêt, parfois même votre état de santé supposé. Incogni s’attaque précisément à ce chantier invisible : faire supprimer, légalement et en continu, ces informations là où elles valent le plus pour les autres… et le moins pour vous.
Vos données se baladent partout (et vous ne les suivez plus)
Les «
data brokers
» vivent d’un modèle simple : collecter le maximum d’informations sur vous, les recouper puis les revendre à des publicitaires, assureurs, chasseurs de têtes, agrégateurs de profils, voire des acteurs beaucoup moins recommandables. Ils se nourrissent de formulaires, programmes de fidélité, applis, jeux « gratuits », cookies, traqueurs, fuites de sites, réseaux sociaux, etc. Une fois votre profil créé, il se duplique et se revend en boucle. Le résultat, ce sont des pubs ultra ciblées, des spams de plus en plus crédibles, une augmentation des risques d’usurpation d’identité, et la sensation désagréable d’être constamment suivi, même hors ligne. Bref c'est bien relou.
Le passage à 2026 est un moment idéal pour reprendre la main, parce que la tendance ne va pas s’inverser spontanément. Encore moins à l'époque de l'IA omniprésente. Plus on attend, plus votre « clone » numérique prend de la valeur (à chaque nouvelle information ajoutée) et plus il se multiplie. L’enjeu n’est pas de disparaître à 100% (ça c'est probablement mission impossible), mais de réduire la surface d’attaque : moins de données en circulation, moins de points d’entrée pour les arnaques, les hausses de tarifs ciblées, les fuites massives. Incogni propose d’industrialiser ce ménage, là où le faire à la main demanderait des centaines d’heures et une patience hors-norme.
Incogni : le service qui passe sa journée à dire « supprimez-moi »
L’idée d’Incogni est brutale dans le bon sens du terme : plutôt que de vous fournir des conseils abstraits, le service va directement chercher vos données chez plus de 420 courtiers et sites spécialisés, puis leur envoie des demandes de suppression en s’appuyant sur les lois en vigueur (RGPD en Europe, CCPA en Californie, PIPEDA si vous êtes au Canada, etc.). Dès l’inscription, le robot lance une première vague de requêtes, puis relance automatiquement tous les acteurs qui prennent trop leur temps. Des rapports réguliers indiquent qui a répondu, ce qui a été supprimé, ce qui est en cours, et ce qui résiste encore.
Pour l’utilisateur, tout se concentre dans un tableau de bord : on y voit les brokers contactés, le type de données qu’ils exploitent, et le statut de chaque requête (suppression confirmée, en attente, refus, relance planifiée). Les plans les plus complets ajoutent la possibilité de soumettre des demandes personnalisées sur des sites précis exposant vos infos : un vieux forum, un annuaire obscur, une base d’anciens clients, etc. Dans ces cas-là, l’équipe d’Incogni prend le relais et gère la procédure à votre place. C’est cette automatisation et ce suivi sur la durée qui font la différence avec un « grand ménage » ponctuel.
Ce que disent les chiffres (et pourquoi 2026 est le bon moment)
Incogni publie régulièrement des études sur la façon dont les gens laissent filer leurs données, notamment autour de périodes comme le Black Friday qui vient de se terminer.
Une enquête récente menée aux États-Unis
montre, par exemple, que les consommateurs sont nombreux à multiplier les comptes, newsletters et inscriptions « juste pour une promo », sans réfléchir à ce que deviennent leurs informations après coup. Beaucoup sous-estiment totalement le nombre de bases dans lesquelles leurs données terminent, et la durée pendant laquelle elles y restent. Certes, c’est basé sur des comportements américains, mais il n’y a aucune raison de penser que les Français, qui raffolent tout autant des bons plans et des achats en ligne, soient fondamentalement différents dans ce domaine.
Cette étude met surtout en lumière un paradoxe : les gens disent être inquiets pour leur vie privée… mais acceptent sans sourciller des conditions d’utilisation qui autorisent les marchands à revendre leurs infos. Fin 2025 / début 2026, c’est donc une fenêtre parfaite pour briser ce cercle. Après une année de formulaires, de comptes créés « juste pour voir », d’abonnements, d’inscriptions à des loteries en ligne, commencer 2026 en nettoyant tout ce qui peut l’être est un geste à la fois symbolique et très concret. Incogni se positionne précisément comme ce bouton « reset » annuel, voire permanent.
Pour les particuliers, les pros, et tous ceux qui ont mieux à faire
Une des forces d’Incogni
, c’est d’être pensé aussi bien pour le particulier qui en a assez de voir son nom sur des sites de recherche de personnes, que pour la petite boîte qui doit prouver qu’elle prend la protection des données au sérieux. En entreprise, le service peut contribuer à limiter les risques de fuite de fichiers clients ou d’employés utilisés en dehors du cadre initial, tout en fournissant des rapports utiles pour les audits internes ou les échanges avec la CNIL & Co. Dans l’e‑commerce, la santé ou les services financiers, réduire ce qui traîne chez les courtiers, c’est aussi limiter l’ampleur possible d’un futur incident.
Du côté des particuliers, l’intérêt est plus instinctif : moins de spam personnalisé, moins de démarchage ciblé, moins d'appels non sollicités, moins de chances que des informations sensibles (adresse, date de naissance, numéros de téléphone, données de localisation, historique d’achat) servent à monter un dossier d’usurpation d’identité ou de scam bien ficelé. L’inscription est rapide, la prise en main se fait en quelques minutes, et les premiers résultats se voient souvent sous quelques semaines (baisse de certains spams, disparition progressive de fiches sur des sites de recherche de personnes). Certaines évaluations indépendantes mentionnent même des vérifications externes (type audit Deloitte) des cycles de relance et des promesses de suppression.
Une démarche à inscrire dans la durée… mais à commencer maintenant
Le piège, ce serait de penser qu’un gros nettoyage une fois suffit. Les data brokers continuent d’aspirer en permanence des flux venant de nouvelles sources, de nouveaux partenaires, de nouveaux formulaires. C’est pour cela qu’Incogni fonctionne plutôt comme un abonnement qu’un simple « passage unique » : le service renvoie régulièrement des demandes, vérifie que les suppressions tiennent dans le temps, et ajoute à sa liste de nouveaux courtiers au fil des mois (des dizaines supplémentaires par an, selon les retours récents). L’objectif est de maintenir votre exposition à un niveau minimum, malgré la tendance inverse du marché.
Le début 2026 est un excellent prétexte pour enclencher cette logique. Faire son bilan de l’année, nettoyer ses comptes, resserrer ses mots de passe,
activer un gestionnaire
, et, en parallèle, lâcher Incogni sur les courtiers en données pour qu’il fasse le travail ingrat. Le combo est simple : vous limitez ce que vous donnez à l’avenir, et un service automatisé retire ce qui traîne déjà dans la nature. Ce n’est pas de la parano, c’est de l’hygiène numérique, au même titre qu’un antivirus ou un VPN. Surfshark propose d'ailleurs le triple combo dans son offre
Surfshark One
.
On ne récupérera sans doute jamais un contrôle absolu sur toutes les miettes laissées au fil des années. Mais réduire le volume de données exploitables, c’est déjà reprendre l’avantage. Et si un outil peut passer ses journées à harceler les courtiers en votre nom, autant le laisser faire pendant que vous vous occupez de choses plus intéressantes que de lire des politiques de confidentialité en petits caractères (vous pouvez me préparer du pain d'épice et me l'envoyer pour mes fêtes par exemple, au hasard).
Vous avez encore quelques jours pour profiter de l'offre de fin d'année à -55%, donc ne tardez pas trop. L'abonnement standard annuel revient à 86,26€ TTC, mais en appliquant le code KORBEN55 vous économisez encore un peu plus, puisque vous ne payerez que 77,63€ TTC.
Vous avez des AirPods Pro que vous avez payés 300 balles et quand vous les branchez sur votre téléphone Android ou votre PC Linux, la moitié des fonctionnalités disparaissent. C'est pas parce que le matériel ne peut pas les faire mais juste parce qu'Apple a décidé que vous n'aviez pas le droit de les utiliser si vous n'êtes pas dans leur écosystème. Snif !
Et là,
LibrePods
débarque et règle ce problème. Ils s'agit d'un projet open source qui déverrouille toutes les fonctionnalités exclusives des AirPods sur les appareils non-Apple, et c'est compatible avec les AirPods Pro 2, AirPods Pro 3 (sauf le monitoring cardiaque), les AirPods 4, et même les AirPods Max en mode complet. Les autres modèles AirPods ont également un support basique (batterie et détection d'oreilles).
Mais alors qu'est-ce que vous récupérez avec LibrePods ?
Hé bien tout ce qu'Apple vous a vendu mais que vous ne pouviez pas utiliser ailleurs que sous iOS. Par exemple, le contrôle du bruit actif et la transparence adaptative, la détection d'oreille qui met en pause quand vous retirez un écouteur, les gestes de la tête pour répondre aux appels, le statut de batterie précis, les paramètres d'aide auditive complets, la connexion à deux appareils simultanés, et la reconnaissance de conversation qui baisse automatiquement le volume.
La dernière version (v0.2.0-alpha) a ajouté pas mal de trucs sympas comme la possibilité de voir la batterie de vos AirPods même quand ils ne sont pas connectés à votre téléphone, la connexion automatique quand vous recevez un appel ou lancez de la musique, et la personnalisation complète du mode transparence (amplification, balance, tonalité, réduction du bruit ambiant).
Techniquement, LibrePods fonctionne en utilisant un hook sur le Bluetooth Device Identification. Ce DID Bluetooth, c'est ce qui permet aux appareils de s'identifier entre eux et Apple utilise ce système pour vérifier si l'appareil connecté est un produit Apple. Si oui, les fonctionnalités se débloquent, si non, elles restent cachées. LibrePods se fait donc passer pour un appareil Apple à ce niveau, du coup, les AirPods croient qu'ils sont connectés à un iPhone ou un Mac. Et là, hop, tout se débloque ! Chouette non ?
Et c'est pas un hack compliqué... Ça consiste juste à enlever un filtre logiciel qu'Apple a mis volontairement pour vous forcer à rester dans leur écosystème.
LibrePods fonctionne sur Android et Linux. Notez que pour Android, vous devez avoir un appareil rooté avec Xposed installé à cause d'un bug dans la stack Bluetooth d'Android. Par contre, bonne nouvelle si vous êtes sur un OnePlus ou un Oppo avec ColorOS ou OxygenOS 16, vous pouvez utiliser l'app sans root pour les fonctions de base comme l'ANC, la reconnaissance de conversation et la détection d'oreilles !
Sur Linux, une nouvelle version est en développement actif et promet d'apporter encore plus de fonctionnalités mais en attendant, l'ancienne version permet déjà de contrôler les modes de bruit, les paramètres d'aide auditive, et d'autres fonctions.
D'autres applis existent pour gérer les AirPods sur Android comme CAPod, AirPodsDesktop, MagicPods, EarX mais elles ne proposent pas grand chose par rapport à LibrePods.
C'est vrai que l'Union Européenne force les fabricants à déverrouiller le firmware de certains appareils pour permettre la réparation et l'interopérabilité sauf que les écouteurs Bluetooth ne sont pas couverts par ces lois, ce qui fait qu'Apple peut continuer à brider des fonctionnalités matérielles avec du logiciel sans aucun problème légal.
LibrePods prouve donc qu'on n'a pas besoin d'attendre des lois. Faut juste des hackers qui en ont marre de se faire entuber et un peu de code !
Voilà, si vous avez des AirPods et que vous utilisez Android ou Linux, franchement, allez voir.
Y'a tout sur le repo GitHub
: le code source, les instructions d'installation, la doc technique...etc