↩ Accueil

Vue lecture

SkiftOS - Recoder la roue c'est chouette aussi

Créer un système d’exploitation complet from scratch pour s’amuser, c’est le genre de projet un peu foufou qu’on ne voit plus tellement aujourd’hui. Pourtant SkiftOS existe !

SkiftOS c’est un OS écrit entièrement depuis zéro, et pas un n-ième fork de Linux ou d’une distribution BSD. Non, c’est un vrai OS avec son propre kernel, son interface graphique et même les bases d’un moteur de navigateur web.

J’ai découvert ce projet en me baladant sur les Top GitHub et ça m’a rappelé cette époque d’avant ma naissance où créer son OS était un genre de rite de passage pour tous les développeurs passionnés. Sauf qu’ici, on n’est plus dans les années 70 et le projet utilise du C++20 moderne avec une architecture microkernel très propre.

Et malgré son statut de projet “hobby”, il fonctionne réellement. Il tourne pour le moment sur du hardware x86_64 et l’équipe travaille sur le support RISC-V.

L’architecture modulaire du projet est d’ailleurs particulièrement bien pensée. Chaque module a son petit nom, c’est rigolo. Hjert gère le microkernel avec les fonctions essentielles telles que la gestion mémoire, l’ordonnancement et l’IPC (Inter-Process Communication). Karm fournit la bibliothèque C++ de base sans dépendre de la STL (Standard Template Library) . KarmUI propose un framework d’interface réactive. Hideo s’occupe du bureau et de l’environnement graphique. Et Vaev ambitionne de devenir un moteur de navigateur web complet.

Pour compiler tout ça, l’équipe a également développé CuteKit, leur propre système de build qui gère les dépendances et la cross-compilation. Bah oui, quand on réinvente un OS, autant réinventer aussi tous les outils pour le construire.

Cette approche “tout fait maison” rend en tout cas le projet fascinant d’un point de vue pédagogique. Car oui le code source est disponible sur GitHub donc si vous voulez comprendre comment fonctionne un OS moderne sans vous perdre dans les millions de lignes de code de Linux ou de Windows (pour les vieilles versions qui ont leakée), c’est une excellente opportunité pour apprendre. Pas besoin donc d’être Microsoft ou Apple pour développer un système d’exploitation fonctionnel.

Faut “juste” de la motivation, du temps, des compétences en C++ moderne, et surtout l’envie de construire quelque chose de différent.

Vous l’aurez compris, SkiftOS ne remplacera probablement jamais votre OS principal, c’est clair mais pour les développeurs curieux qui veulent comprendre les entrailles d’un système d’exploitation, ou pour ceux qui cherchent un projet open source technique sympa où contribuer, c’est une sacrée mine d’or.

Et qui sait, peut-être que dans quelques années on parlera de SkiftOS comme on parle aujourd’hui des débuts de Linux…

  •  

SkiftOS - Recoder la roue c'est chouette aussi

Créer un système d’exploitation complet from scratch pour s’amuser, c’est le genre de projet un peu foufou qu’on ne voit plus tellement aujourd’hui. Pourtant SkiftOS existe !

SkiftOS c’est un OS écrit entièrement depuis zéro, et pas un n-ième fork de Linux ou d’une distribution BSD. Non, c’est un vrai OS avec son propre kernel, son interface graphique et même les bases d’un moteur de navigateur web.

J’ai découvert ce projet en me baladant sur les Top GitHub et ça m’a rappelé cette époque d’avant ma naissance où créer son OS était un genre de rite de passage pour tous les développeurs passionnés. Sauf qu’ici, on n’est plus dans les années 70 et le projet utilise du C++20 moderne avec une architecture microkernel très propre.

Et malgré son statut de projet “hobby”, il fonctionne réellement. Il tourne pour le moment sur du hardware x86_64 et l’équipe travaille sur le support RISC-V.

L’architecture modulaire du projet est d’ailleurs particulièrement bien pensée. Chaque module a son petit nom, c’est rigolo. Hjert gère le microkernel avec les fonctions essentielles telles que la gestion mémoire, l’ordonnancement et l’IPC (Inter-Process Communication). Karm fournit la bibliothèque C++ de base sans dépendre de la STL (Standard Template Library) . KarmUI propose un framework d’interface réactive. Hideo s’occupe du bureau et de l’environnement graphique. Et Vaev ambitionne de devenir un moteur de navigateur web complet.

Pour compiler tout ça, l’équipe a également développé CuteKit, leur propre système de build qui gère les dépendances et la cross-compilation. Bah oui, quand on réinvente un OS, autant réinventer aussi tous les outils pour le construire.

Cette approche “tout fait maison” rend en tout cas le projet fascinant d’un point de vue pédagogique. Car oui le code source est disponible sur GitHub donc si vous voulez comprendre comment fonctionne un OS moderne sans vous perdre dans les millions de lignes de code de Linux ou de Windows (pour les vieilles versions qui ont leakée), c’est une excellente opportunité pour apprendre. Pas besoin donc d’être Microsoft ou Apple pour développer un système d’exploitation fonctionnel.

Faut “juste” de la motivation, du temps, des compétences en C++ moderne, et surtout l’envie de construire quelque chose de différent.

Vous l’aurez compris, SkiftOS ne remplacera probablement jamais votre OS principal, c’est clair mais pour les développeurs curieux qui veulent comprendre les entrailles d’un système d’exploitation, ou pour ceux qui cherchent un projet open source technique sympa où contribuer, c’est une sacrée mine d’or.

Et qui sait, peut-être que dans quelques années on parlera de SkiftOS comme on parle aujourd’hui des débuts de Linux…

  •  

Comment l'IA est en train de tuer le web sous nos yeux

Imaginez demain matin, vous vous réveillez et 90% des sites web ont disparu. Plus de blogs, plus de sites de presse, plus de forums. Juste des pages blanches et des erreurs 404. De la science-fiction ? Et bien pas selon Matthew Prince, le CEO de Cloudflare, qui gère 20% du trafic web mondial.

Dans plusieurs interviews récentes, il explique qu’on est en train d’assister en direct à l’effondrement du modèle économique qui a fait vivre Internet pendant 25 ans. En effet, le deal était simple : Google crawle votre contenu, vous envoie du trafic, vous monétisez avec de la pub.

Sauf que ce pacte avec le diable vient de voler en éclats.

Il y a dix ans, pour 2 pages que Google scannait sur votre site, il vous envoyait 1 visiteur. Un échange équitable, presque symbiotique. Mais aujourd’hui, Il faut 6 pages crawlées pour obtenir 1 seul clic.

Mais attendez, là c’est Google, le gentil de l’histoire parce qu’avec les nouveaux venus de l’IA, c’est l’apocalypse qui s’annonce. En effet, d’après les données de Cloudflare , le ratio d’OpenAI est passé de 250 pour 1 à 1500 pour 1 en quelques mois. Autrement dit, ChatGPT aspire 1500 pages de votre contenu pour vous renvoyer généreusement… 1 seul visiteur. Anthropic avec Claude, on est à 60 000 pages pour un visiteur. Bref, c’est pas du crawling, c’est du pillage en règle.

Et Prince ne mâche pas ses mots : “Si les créateurs de contenu ne peuvent plus tirer de valeur de leur travail, ils vont arrêter de créer du contenu original.” Et devinez quoi ? C’est déjà en train de se produire car les données montrent que le trafic des moteurs de recherche vers les sites web a chuté de 55% entre 2022 et 2025. Par exemple, le Washington Post et le HuffPost ont vu leur trafic organique divisé par deux en trois ans.

Le plus ironique dans tout ça c’est que Google lui-même creuse sa propre tombe. Prince révèle qu’il y a six mois, 75% des recherches Google se terminaient sans aucun clic vers un site externe. Mais alors pourquoi ce changement soudain ? Hé bien la réponse tient en deux mots : Answer Engines. C’est le cas par exemple avec le déploiement d’ AI Overview , leur nouvelle fonctionnalité qui donne directement les réponses, ce chiffre pourrait atteindre 90%. Google est ainsi devenu un genre de cul-de-sac d’Internet…

Il est fini donc le temps où Google vous donnait une carte au trésor avec des liens à explorer. Maintenant, l’IA vous donne directement le trésor et comme ça plus besoin de visiter les sites, plus de trafic, plus de revenus publicitaires. La boucle vertueuse s’est transformée en spirale mortelle…

Les prédictions de Gartner sont glaçantes car le volume des recherches traditionnelles va chuter de 25% d’ici 2026. Par exemple, chez les 18-24 ans, 66% utilisent déjà ChatGPT pour chercher de l’information, contre 69% pour Google. L’écart se resserre dangereusement.

Prince voit donc trois scénarios possibles pour l’avenir, et aucun n’est réjouissant.

Premier scénario, le plus nihiliste : Tous les journalistes, chercheurs et créateurs de contenu “meurent de faim” faute de modèle économique viable. Ce sont littéralement ses mots.

Deuxième scénario : On revient à un système de mécénat médiéval où cinq grandes entreprises IA emploient directement tous les créateurs. Adieu l’indépendance éditoriale.

Troisième scénario : On invente un nouveau modèle économique, mais personne ne sait encore lequel…

Voilà en gros les choix qui se présentent à nous.

Cloudflare, de son côté, ne reste bien sûr pas les bras croisés. Prince a lancé AI Audit , un système qui bloque par défaut tous les bots IA. Comme il l’a dit : “Je fais la guerre tous les jours aux gouvernements chinois, russe, iranien et nord-coréen qui tentent de hacker nos clients, et vous me dites que je ne peux pas arrêter un nerd avec une société dans la Silicon Valley ?

La solution qu’il propose c’est donc un système de “pay-per-crawl” utilisant le protocole HTTP 402 (celui qui était prévu pour les micropaiements et que personne n’a jamais utilisé). Les IA devront donc payer pour crawler le contenu… On verra si ça marche…

L’économie des créateurs , évaluée à 203 milliards de dollars en 2024, est donc directement menacée par les IA. Paradoxalement, 84% des créateurs utilisent maintenant l’IA pour produire du contenu, accélérant leur propre obsolescence. C’est le serpent qui se mord la queue où l’IA se nourrit de contenu humain pour créer du contenu synthétique qui remplace le contenu humain qui nourrit l’IA qui… vous voyez le problème ?

Le plus dingue, c’est la vitesse à laquelle tout s’effondre. En mai 2024, Google lançait AI Overview et en juin 2025, le pourcentage de recherches d’actualités sans clic est passé de 56% à 69%. En seulement un an. À ce rythme, d’ici 2027, plus personne ne cliquera sur rien.

Et tout cela se passe maintenant, sous nos yeux, et personne ne semble capable de l’arrêter. Les éditeurs subissent donc une “menace existentielle” selon les propres mots de Prince. Le New York Times a décidé de se battre en justice. Les petits blogs et petits médias disparaissent en silence et Reddit et les forums deviennent des jardins clos pour protéger leur contenu.

La question n’est donc plus de savoir si le modèle économique du web va s’effondrer, mais quand et comment on va reconstruire sur les ruines. Prince compare la situation aux débuts d’Internet : “Nous sommes dans une période de destruction créatrice schumpétérienne .” Sauf que cette fois, ce qui est détruit, c’est le tissu même du web ouvert.

Meta de son côté a lancé son Creator Monetization Suite cette année, promettant de nouveaux moyens de monétisation… mais quand on y regarde de près, c’est juste une façon de garder les créateurs sous leur emprise, produisant du contenu que l’IA de Meta pourra ensuite digérer sans jamais les laisser partir ailleurs.

Bref, ces mêmes entreprises qui ont construit leur empire sur le contenu gratuit du web sont en train de le tuer et Google, qui a encouragé la création de contenu pendant 25 ans pour alimenter son moteur de recherche, est maintenant celui qui coupe le robinet du trafic.

Prince termine son interview sur une note sombre mais réaliste : “L’internet tel que nous le connaissons ne survivra pas sous sa forme actuelle.

Le choix qui nous reste est donc très simple : Soit on accepte un web contrôlé par cinq méga-corporations qui emploient directement tous les créateurs, soit on invente quelque chose de radicalement nouveau. Mais une chose est sûre, le web libre et ouvert qu’on a connu est en train de mourir, et il ne reviendra pas.

Vous entendez ce silence ?

C’est le bruit du web qui s’éteint, un site à la fois. Et pendant ce temps, les IA continuent de crawler, de digérer, de régurgiter. Et cela jusqu’à ce qu’il ne reste plus rien à manger… Bienvenue dans l’ère post-trafic.

Population : Vous et quatre chatbots 😭.

  •  

Nano11 - Windows 11 passe sous la barre des 3 Go

2,8 Go. C’est tout ce qu’il faut à Nano11 pour faire tourner Windows 11. Et cette prouesse, on la doit à NTDEV, le développeur derrière le projet Tiny11 que vous connaissez peut-être déjà. Ce dernier vient encore de repousser les limites du dégraissage de Windows à un niveau que même Microsoft n’aurait jamais imaginé.

Pour mettre les choses en perspective, faut savoir qu’une installation standard de Windows 11 pèse facilement entre 20 et 30 Go selon les versions. Avec Nano11, on parle d’un ISO de seulement 2,2 Go et d’une empreinte disque de 2,8 Go une fois installé. C’est donc 3,5 fois plus petit que Tiny11, qui était déjà considéré comme ultra-léger.

Alors comment NTDEV a-t-il réussi cet exploit ? Et bien en virant absolument tout ce qui n’est pas indispensable au démarrage du système. Et quand je dis tout, c’est vraiment TOUT. Windows Update ? Dégagé. Microsoft Defender ? Aux oubliettes. Teams, Copilot, le nouveau Outlook qui est une catastrophe ambulante ? Disparus. Même les applications les plus basiques comme Météo ou Actualités ont sauté.

Le développeur ne cache pas que Nano11 est un “script expérimental extrême” conçu pour créer un environnement de test rapide et minimaliste. Sur son blog officiel , il indique utiliser maintenant la compression LZX au lieu de XPRESS, ce qui réduit encore plus la taille finale mais demande beaucoup de RAM pendant le processus de création.

Ce qui reste après le passage de Nano11, c’est donc vraiment le strict minimum à savoir le noyau Windows, l’interface graphique de base, et c’est à peu près tout. Pas de Windows Store, pas de possibilité d’ajouter des langues ou des pilotes après coup, pas de mises à jour de sécurité. C’est une installation figée dans le temps, impossible à maintenir ou à faire évoluer.

NTDEV lui-même prévient que Nano11 n’est absolument pas destiné à un usage quotidien. C’est plutôt pensé pour les développeurs qui ont besoin d’un environnement Windows ultra-léger pour tester rapidement une application, ou pour faire tourner des machines virtuelles sans bouffer toute la RAM disponible. L’installation se fait rapidement, et c’est donc parfait pour des tests.

Ce qui est chouette avec ce projet, c’est qu’il démontre à quel point Windows 11 est bourré de composants optionnels. Microsoft recommande officiellement 64 Go de stockage minimum, mais en réalité, le système peut tourner avec moins de 3 Go si on enlève tout le superflu.

Pour ceux qui veulent tester, le script Nano11 est disponible sur GitHub et il fonctionne avec n’importe quelle édition de Windows 11 (Pro, Home, LTSC). Le script prend en charge toutes les architectures et peut créer une image dans n’importe quelle langue, mais attention, une fois installé, impossible d’en ajouter d’autres. La dernière version de septembre 2025 est compatible avec Windows 11 24H2 et même les builds Canary les plus récentes.

Alors c’est sûr que Nano11 ne remplacera jamais votre Windows principal. C’est un proof of concept technique plus qu’autre chose mais si vous avez un vieux PC qui traîne ou si vous voulez créer une VM Windows ultra-légère pour un test rapide, ça peut valoir le coup d’œil.

Maintenant pour les utilisateurs qui cherchent un compromis entre légèreté et fonctionnalité, le script tiny11maker.ps1 reste une meilleure option car il dégraisse Windows tout en gardant la possibilité d’installer des mises à jour et d’ajouter des fonctionnalités par la suite.

Amusez-vous bien avec ce truc !

  •  

Comment l'IA est en train de tuer le web sous nos yeux

Imaginez demain matin, vous vous réveillez et 90% des sites web ont disparu. Plus de blogs, plus de sites de presse, plus de forums. Juste des pages blanches et des erreurs 404. De la science-fiction ? Et bien pas selon Matthew Prince, le CEO de Cloudflare, qui gère 20% du trafic web mondial.

Dans plusieurs interviews récentes, il explique qu’on est en train d’assister en direct à l’effondrement du modèle économique qui a fait vivre Internet pendant 25 ans. En effet, le deal était simple : Google crawle votre contenu, vous envoie du trafic, vous monétisez avec de la pub.

Sauf que ce pacte avec le diable vient de voler en éclats.

Il y a dix ans, pour 2 pages que Google scannait sur votre site, il vous envoyait 1 visiteur. Un échange équitable, presque symbiotique. Mais aujourd’hui, Il faut 6 pages crawlées pour obtenir 1 seul clic.

Mais attendez, là c’est Google, le gentil de l’histoire parce qu’avec les nouveaux venus de l’IA, c’est l’apocalypse qui s’annonce. En effet, d’après les données de Cloudflare , le ratio d’OpenAI est passé de 250 pour 1 à 1500 pour 1 en quelques mois. Autrement dit, ChatGPT aspire 1500 pages de votre contenu pour vous renvoyer généreusement… 1 seul visiteur. Anthropic avec Claude, on est à 60 000 pages pour un visiteur. Bref, c’est pas du crawling, c’est du pillage en règle.

Et Prince ne mâche pas ses mots : “Si les créateurs de contenu ne peuvent plus tirer de valeur de leur travail, ils vont arrêter de créer du contenu original.” Et devinez quoi ? C’est déjà en train de se produire car les données montrent que le trafic des moteurs de recherche vers les sites web a chuté de 55% entre 2022 et 2025. Par exemple, le Washington Post et le HuffPost ont vu leur trafic organique divisé par deux en trois ans.

Le plus ironique dans tout ça c’est que Google lui-même creuse sa propre tombe. Prince révèle qu’il y a six mois, 75% des recherches Google se terminaient sans aucun clic vers un site externe. Mais alors pourquoi ce changement soudain ? Hé bien la réponse tient en deux mots : Answer Engines. C’est le cas par exemple avec le déploiement d’ AI Overview , leur nouvelle fonctionnalité qui donne directement les réponses, ce chiffre pourrait atteindre 90%. Google est ainsi devenu un genre de cul-de-sac d’Internet…

Il est fini donc le temps où Google vous donnait une carte au trésor avec des liens à explorer. Maintenant, l’IA vous donne directement le trésor et comme ça plus besoin de visiter les sites, plus de trafic, plus de revenus publicitaires. La boucle vertueuse s’est transformée en spirale mortelle…

Les prédictions de Gartner sont glaçantes car le volume des recherches traditionnelles va chuter de 25% d’ici 2026. Par exemple, chez les 18-24 ans, 66% utilisent déjà ChatGPT pour chercher de l’information, contre 69% pour Google. L’écart se resserre dangereusement.

Prince voit donc trois scénarios possibles pour l’avenir, et aucun n’est réjouissant.

Premier scénario, le plus nihiliste : Tous les journalistes, chercheurs et créateurs de contenu “meurent de faim” faute de modèle économique viable. Ce sont littéralement ses mots.

Deuxième scénario : On revient à un système de mécénat médiéval où cinq grandes entreprises IA emploient directement tous les créateurs. Adieu l’indépendance éditoriale.

Troisième scénario : On invente un nouveau modèle économique, mais personne ne sait encore lequel…

Voilà en gros les choix qui se présentent à nous.

Cloudflare, de son côté, ne reste bien sûr pas les bras croisés. Prince a lancé AI Audit , un système qui bloque par défaut tous les bots IA. Comme il l’a dit : “Je fais la guerre tous les jours aux gouvernements chinois, russe, iranien et nord-coréen qui tentent de hacker nos clients, et vous me dites que je ne peux pas arrêter un nerd avec une société dans la Silicon Valley ?

La solution qu’il propose c’est donc un système de “pay-per-crawl” utilisant le protocole HTTP 402 (celui qui était prévu pour les micropaiements et que personne n’a jamais utilisé). Les IA devront donc payer pour crawler le contenu… On verra si ça marche…

L’économie des créateurs , évaluée à 203 milliards de dollars en 2024, est donc directement menacée par les IA. Paradoxalement, 84% des créateurs utilisent maintenant l’IA pour produire du contenu, accélérant leur propre obsolescence. C’est le serpent qui se mord la queue où l’IA se nourrit de contenu humain pour créer du contenu synthétique qui remplace le contenu humain qui nourrit l’IA qui… vous voyez le problème ?

Le plus dingue, c’est la vitesse à laquelle tout s’effondre. En mai 2024, Google lançait AI Overview et en juin 2025, le pourcentage de recherches d’actualités sans clic est passé de 56% à 69%. En seulement un an. À ce rythme, d’ici 2027, plus personne ne cliquera sur rien.

Et tout cela se passe maintenant, sous nos yeux, et personne ne semble capable de l’arrêter. Les éditeurs subissent donc une “menace existentielle” selon les propres mots de Prince. Le New York Times a décidé de se battre en justice. Les petits blogs et petits médias disparaissent en silence et Reddit et les forums deviennent des jardins clos pour protéger leur contenu.

La question n’est donc plus de savoir si le modèle économique du web va s’effondrer, mais quand et comment on va reconstruire sur les ruines. Prince compare la situation aux débuts d’Internet : “Nous sommes dans une période de destruction créatrice schumpétérienne .” Sauf que cette fois, ce qui est détruit, c’est le tissu même du web ouvert.

Meta de son côté a lancé son Creator Monetization Suite cette année, promettant de nouveaux moyens de monétisation… mais quand on y regarde de près, c’est juste une façon de garder les créateurs sous leur emprise, produisant du contenu que l’IA de Meta pourra ensuite digérer sans jamais les laisser partir ailleurs.

Bref, ces mêmes entreprises qui ont construit leur empire sur le contenu gratuit du web sont en train de le tuer et Google, qui a encouragé la création de contenu pendant 25 ans pour alimenter son moteur de recherche, est maintenant celui qui coupe le robinet du trafic.

Prince termine son interview sur une note sombre mais réaliste : “L’internet tel que nous le connaissons ne survivra pas sous sa forme actuelle.

Le choix qui nous reste est donc très simple : Soit on accepte un web contrôlé par cinq méga-corporations qui emploient directement tous les créateurs, soit on invente quelque chose de radicalement nouveau. Mais une chose est sûre, le web libre et ouvert qu’on a connu est en train de mourir, et il ne reviendra pas.

Vous entendez ce silence ?

C’est le bruit du web qui s’éteint, un site à la fois. Et pendant ce temps, les IA continuent de crawler, de digérer, de régurgiter. Et cela jusqu’à ce qu’il ne reste plus rien à manger… Bienvenue dans l’ère post-trafic.

Population : Vous et quatre chatbots 😭.

  •  

Nano11 - Windows 11 passe sous la barre des 3 Go

2,8 Go. C’est tout ce qu’il faut à Nano11 pour faire tourner Windows 11. Et cette prouesse, on la doit à NTDEV, le développeur derrière le projet Tiny11 que vous connaissez peut-être déjà. Ce dernier vient encore de repousser les limites du dégraissage de Windows à un niveau que même Microsoft n’aurait jamais imaginé.

Pour mettre les choses en perspective, faut savoir qu’une installation standard de Windows 11 pèse facilement entre 20 et 30 Go selon les versions. Avec Nano11, on parle d’un ISO de seulement 2,2 Go et d’une empreinte disque de 2,8 Go une fois installé. C’est donc 3,5 fois plus petit que Tiny11, qui était déjà considéré comme ultra-léger.

Alors comment NTDEV a-t-il réussi cet exploit ? Et bien en virant absolument tout ce qui n’est pas indispensable au démarrage du système. Et quand je dis tout, c’est vraiment TOUT. Windows Update ? Dégagé. Microsoft Defender ? Aux oubliettes. Teams, Copilot, le nouveau Outlook qui est une catastrophe ambulante ? Disparus. Même les applications les plus basiques comme Météo ou Actualités ont sauté.

Le développeur ne cache pas que Nano11 est un “script expérimental extrême” conçu pour créer un environnement de test rapide et minimaliste. Sur son blog officiel , il indique utiliser maintenant la compression LZX au lieu de XPRESS, ce qui réduit encore plus la taille finale mais demande beaucoup de RAM pendant le processus de création.

Ce qui reste après le passage de Nano11, c’est donc vraiment le strict minimum à savoir le noyau Windows, l’interface graphique de base, et c’est à peu près tout. Pas de Windows Store, pas de possibilité d’ajouter des langues ou des pilotes après coup, pas de mises à jour de sécurité. C’est une installation figée dans le temps, impossible à maintenir ou à faire évoluer.

NTDEV lui-même prévient que Nano11 n’est absolument pas destiné à un usage quotidien. C’est plutôt pensé pour les développeurs qui ont besoin d’un environnement Windows ultra-léger pour tester rapidement une application, ou pour faire tourner des machines virtuelles sans bouffer toute la RAM disponible. L’installation se fait rapidement, et c’est donc parfait pour des tests.

Ce qui est chouette avec ce projet, c’est qu’il démontre à quel point Windows 11 est bourré de composants optionnels. Microsoft recommande officiellement 64 Go de stockage minimum, mais en réalité, le système peut tourner avec moins de 3 Go si on enlève tout le superflu.

Pour ceux qui veulent tester, le script Nano11 est disponible sur GitHub et il fonctionne avec n’importe quelle édition de Windows 11 (Pro, Home, LTSC). Le script prend en charge toutes les architectures et peut créer une image dans n’importe quelle langue, mais attention, une fois installé, impossible d’en ajouter d’autres. La dernière version de septembre 2025 est compatible avec Windows 11 24H2 et même les builds Canary les plus récentes.

Alors c’est sûr que Nano11 ne remplacera jamais votre Windows principal. C’est un proof of concept technique plus qu’autre chose mais si vous avez un vieux PC qui traîne ou si vous voulez créer une VM Windows ultra-légère pour un test rapide, ça peut valoir le coup d’œil.

Maintenant pour les utilisateurs qui cherchent un compromis entre légèreté et fonctionnalité, le script tiny11maker.ps1 reste une meilleure option car il dégraisse Windows tout en gardant la possibilité d’installer des mises à jour et d’ajouter des fonctionnalités par la suite.

Amusez-vous bien avec ce truc !

  •  

Umbra - Un fond d’écran qui suit le mouvement mode sombre / clair de macOS

Allez je continue sur les apps macOS bien pratique cet aprèm et si vous êtes du genre à basculer entre le mode clair et sombre selon votre humeur ou l’heure de la journée ça devrait vous plaire.

Je vous rassure je fais ça aussi sauf que jusqu’à présent, il y avait toujours ce petit truc qui coinçait à savoir que le wallpaper qui reste le même.

Du coup un fond d’écran lumineux en mode sombre, ça pique les yeux et un wallpaper sombre en mode clair, c’est déprimant.

Heureusement** Umbra** débarque pour régler ce souci. Cette petite app se planque dans votre barre de menu et fait exactement ce qu’on attend d’elle, c’est à dire synchroniser vos wallpapers avec l’apparence de macOS. Vous définissez un fond d’écran pour le mode clair, un autre pour le mode sombre, et hop, la magie opère.

Screenshot

L’idée paraît évidente maintenant qu’elle existe. Les développeurs de Replay Software ont vraiment mis le doigt sur un problème irritant du quotidien que personne n’avait vraiment résolu proprement.

Ce qui rend Umbra cool aussi c’est son intégration native d’Unsplash. Plus besoin de vous galérer à chercher des wallpapers adaptés. Directement depuis la barre de menu, vous parcourez des millions d’images libres de droits, classées par catégories… Nature, Voyages, Patterns, Rendus 3D… et si vous en voyez une qui vous plaît ? Un clic et elle devient votre nouveau fond d’écran.

Le système de synchronisation automatique de macOS fait en sorte que votre Mac bascule automatiquement entre les modes clair et sombre au lever et coucher du soleil, et Umbra suit le mouvement sans broncher. Vous pouvez même définir un raccourci clavier pour switcher manuellement entre les deux modes quand l’envie vous prend.

Screenshot

L’app gère tous les formats d’images courants : JPG, PNG, HEIC et même PSD pour les créatifs. Le glisser-déposer fonctionne parfaitement, et l’image s’adapte automatiquement à votre résolution d’écran. Pour ceux qui regrettent l’ambiance légèrement assombrie de macOS Mojave, Umbra propose même une option de dimming pour atténuer subtilement vos wallpapers en mode sombre.

Côté compatibilité, Umbra nécessite macOS Big Sur (11.5) ou plus récent selon le site officiel. L’interface est traduite en plusieurs langues dont le français, l’espagnol, le japonais et le chinois.

Le modèle économique mérite qu’on s’y attarde également puisque Replay Software a opté pour le “pay what you want” sur Gumroad. Vous pouvez récupérer Umbra gratuitement si vous voulez, ou lâcher quelques euros pour soutenir le développement. C’est pareil qu’avec mon Patreon finalement….

A découvrir ici.

Merci à Lorenper pour la découverte !

  •  

DropNotch transforme l'encoche de votre MacBook en zone de partage ultra pratique

Depuis que le notch a fait son apparition sur les MacBook, vous avez probablement déjà tous râlé contre cette petite encoche qui grignote votre barre de menu. Mais voilà qu’un développeur pas con a eu une bonne idée : transformer ce bout d’écran perdu en quelque chose de vraiment pratique. Et une fois qu’on y goûte, on ne peut plus s’en passer.

DropNotch est donc une application gratuite qui métamorphose votre notch en zone de dépôt instantané pour vos fichiers. Glissez un document, une image ou n’importe quel fichier vers l’encoche, et une petite interface apparaît avec vos options de partage : AirDrop, Mail, Messages.

Le concept est tellement simple qu’on se demande pourquoi Apple n’y a pas pensé. Au lieu d’ouvrir le Finder, faire un clic droit, chercher l’option partager, vous balancez directement votre fichier sur le notch. Deux secondes chrono pour envoyer un PDF à un collègue.

L’application fonctionne sur tous les Mac avec macOS Monterey ou plus récent. Pour les MacBook avec notch, c’est l’expérience optimale. Et pour les Mac sans notch physique (Mac mini, iMac), DropNotch crée intelligemment une zone de dépôt virtuelle dans la barre de menu, offrant la même praticité sans l’encoche.

Vous pouvez télécharger le fichier DMG directement depuis le site officiel et comme je le disais l’app est gratuite, ce qui est appréciable pour ce genre d’utilitaire qu’on apprécie mais jamais assez pour payer. Snif.

Pour ceux qui partagent souvent des fichiers en télétravail ou qui jonglent entre plusieurs projets, c’est donc un petit gain de temps. Plus besoin de naviguer dans les menus. Votre workflow devient plus fluide.

Ah et Apple Silicon ou Intel, peu importe, l’application est compatible avec les deux architectures.

Bref, transformer le notch en fonctionnalité aussi pratique, fallait y penser et j’adore !

Merci à Lorenper pour la découverte !

  •  

Umbra - Un fond d’écran qui suit le mouvement mode sombre / clair de macOS

Allez je continue sur les apps macOS bien pratique cet aprèm et si vous êtes du genre à basculer entre le mode clair et sombre selon votre humeur ou l’heure de la journée ça devrait vous plaire.

Je vous rassure je fais ça aussi sauf que jusqu’à présent, il y avait toujours ce petit truc qui coinçait à savoir que le wallpaper qui reste le même.

Du coup un fond d’écran lumineux en mode sombre, ça pique les yeux et un wallpaper sombre en mode clair, c’est déprimant.

Heureusement** Umbra** débarque pour régler ce souci. Cette petite app se planque dans votre barre de menu et fait exactement ce qu’on attend d’elle, c’est à dire synchroniser vos wallpapers avec l’apparence de macOS. Vous définissez un fond d’écran pour le mode clair, un autre pour le mode sombre, et hop, la magie opère.

Screenshot

L’idée paraît évidente maintenant qu’elle existe. Les développeurs de Replay Software ont vraiment mis le doigt sur un problème irritant du quotidien que personne n’avait vraiment résolu proprement.

Ce qui rend Umbra cool aussi c’est son intégration native d’Unsplash. Plus besoin de vous galérer à chercher des wallpapers adaptés. Directement depuis la barre de menu, vous parcourez des millions d’images libres de droits, classées par catégories… Nature, Voyages, Patterns, Rendus 3D… et si vous en voyez une qui vous plaît ? Un clic et elle devient votre nouveau fond d’écran.

Le système de synchronisation automatique de macOS fait en sorte que votre Mac bascule automatiquement entre les modes clair et sombre au lever et coucher du soleil, et Umbra suit le mouvement sans broncher. Vous pouvez même définir un raccourci clavier pour switcher manuellement entre les deux modes quand l’envie vous prend.

Screenshot

L’app gère tous les formats d’images courants : JPG, PNG, HEIC et même PSD pour les créatifs. Le glisser-déposer fonctionne parfaitement, et l’image s’adapte automatiquement à votre résolution d’écran. Pour ceux qui regrettent l’ambiance légèrement assombrie de macOS Mojave, Umbra propose même une option de dimming pour atténuer subtilement vos wallpapers en mode sombre.

Côté compatibilité, Umbra nécessite macOS Big Sur (11.5) ou plus récent selon le site officiel. L’interface est traduite en plusieurs langues dont le français, l’espagnol, le japonais et le chinois.

Le modèle économique mérite qu’on s’y attarde également puisque Replay Software a opté pour le “pay what you want” sur Gumroad. Vous pouvez récupérer Umbra gratuitement si vous voulez, ou lâcher quelques euros pour soutenir le développement. C’est pareil qu’avec mon Patreon finalement….

A découvrir ici.

Merci à Lorenper pour la découverte !

  •  

DropNotch transforme l'encoche de votre MacBook en zone de partage ultra pratique

Depuis que le notch a fait son apparition sur les MacBook, vous avez probablement déjà tous râlé contre cette petite encoche qui grignote votre barre de menu. Mais voilà qu’un développeur pas con a eu une bonne idée : transformer ce bout d’écran perdu en quelque chose de vraiment pratique. Et une fois qu’on y goûte, on ne peut plus s’en passer.

DropNotch est donc une application gratuite qui métamorphose votre notch en zone de dépôt instantané pour vos fichiers. Glissez un document, une image ou n’importe quel fichier vers l’encoche, et une petite interface apparaît avec vos options de partage : AirDrop, Mail, Messages.

Le concept est tellement simple qu’on se demande pourquoi Apple n’y a pas pensé. Au lieu d’ouvrir le Finder, faire un clic droit, chercher l’option partager, vous balancez directement votre fichier sur le notch. Deux secondes chrono pour envoyer un PDF à un collègue.

L’application fonctionne sur tous les Mac avec macOS Monterey ou plus récent. Pour les MacBook avec notch, c’est l’expérience optimale. Et pour les Mac sans notch physique (Mac mini, iMac), DropNotch crée intelligemment une zone de dépôt virtuelle dans la barre de menu, offrant la même praticité sans l’encoche.

Vous pouvez télécharger le fichier DMG directement depuis le site officiel et comme je le disais l’app est gratuite, ce qui est appréciable pour ce genre d’utilitaire qu’on apprécie mais jamais assez pour payer. Snif.

Pour ceux qui partagent souvent des fichiers en télétravail ou qui jonglent entre plusieurs projets, c’est donc un petit gain de temps. Plus besoin de naviguer dans les menus. Votre workflow devient plus fluide.

Ah et Apple Silicon ou Intel, peu importe, l’application est compatible avec les deux architectures.

Bref, transformer le notch en fonctionnalité aussi pratique, fallait y penser et j’adore !

Merci à Lorenper pour la découverte !

  •  

SHAI - Le développeur qui vit dans votre terminal

Shai, c’est un collègue développeur qui ne dort jamais, qui ne râle jamais quand vous lui demandez de déboguer votre code à 3h du matin, et qui vit littéralement dans votre terminal. C’est un outil qui s’inscrit dans la même lignée que Codex ou Claude Code et qui est 100% français puisque proposé par OVHcloud.

Terminé donc les outils qui nécessitent des interfaces graphiques lourdes ou des plugins IDE complexes puisqu’ici, tout se passe dans le terminal.

L’installation tient en une seule ligne :

curl -fsSL https://raw.githubusercontent.com/ovh/shai/main/install.sh | sh

Et en quelques secondes, vous avez un assistant IA fonctionnel, prêt à vous épauler dans vos tâches quotidiennes. Pas de configuration complexe, pas de dépendances infernales à gérer. Bien sûr, comme pour tout script téléchargé, pensez à vérifier le contenu avant exécution.

Vous l’aurez compris, SHAI ne se contente pas d’être un simple chatbot qui répond à vos questions. Il peut véritablement prendre le contrôle et exécuter des commandes, créer des fichiers, déboguer votre code, et même automatiser des workflows complets. Vous pouvez lui demander de créer un site web complet, de convertir des fichiers d’un format à l’autre, ou de corriger cette commande shell que vous n’arrivez jamais à mémoriser correctement.

La philosophie “written in Rust with love” inscrite dans le code du projet n’est pas non plus qu’une simple formule marketing car le choix de Rust garantit des performances exceptionnelles et une sécurité mémoire à toute épreuve. Avec 99,2% du code en Rust, les développeurs d’OVHcloud ont clairement misé sur la robustesse et la rapidité d’exécution. Je tiens quand même à dire qu’au cours de mes tests, j’ai quand même eu quelques plantages de l’application. Mais elle est encore jeune, donc j’espère que ça va s’améliorer.

Ce qui distingue vraiment SHAI des autres assistants IA, c’est sa capacité à fonctionner en mode “headless”. Vous pouvez simplement lui envoyer des prompts via un pipe Unix : echo "crée-moi un hello world en Python" | shai. Et rien que cette fonctionnalité ouvre des possibilités infinies pour l’automatisation et l’intégration dans des pipelines CI/CD existants.

Plus impressionnant encore, le mode “shell assistant” transforme SHAI en véritable garde du corps de votre terminal. Une fois activé, chaque fois qu’une commande échoue, SHAI intervient automatiquement pour vous proposer une correction. Plus besoin de chercher sur Stack Overflow pourquoi votre commande tar ne fonctionne pas comme prévu.

Pour réussir tout ça, il utilise par défaut Qwen3-32B mais rassurez vous, y’a moyen de changer de provider. L’aspect multi-provider est donc crucial et heureusement SHAI n’est pas verrouillé sur un seul modèle d’IA. Vous pouvez donc configurer différents providers selon vos besoins, vos préférences ou vos contraintes de confidentialité. Mais par défaut, OVHcloud propose un accès anonyme (avec limitation de débit) pour que tout le monde puisse tester l’outil sans engagement. Perso, j’ai éclaté la limité au bout de quelques minutes d’utilisation. Snif.

Lors de mes tests, j’ai aussi constaté que les commandes qu’on appelle normalement avec le “/” n’ont pas fonctionné chez moi et concernant le thème de l’interface de Shai, en fonction des couleurs de votre terminal, ça peut vite être illisible. C’est dommage mais j’imagine que ça va se bonifier avec le temps…

Voilà, avec Shai , OVHcloud mise clairement sur cette approche minimaliste mais puissante pour séduire les développeurs qui veulent de l’IA sans les complications habituelles et surtout qui tourne sur le sol français, dans le respect de vos données personnelles.

Je leur souhaite plein de succès !

Source

  •  

DirSearch - Un scanner de chemins web

Vous savez quel est le problème avec les serveurs web mal configurés ? C’est qu’ils sont comme ces vieux greniers où on entasse tout et n’importe quoi en pensant que personne n’ira jamais fouiller. Sauf que sur Internet, il y a toujours quelqu’un pour venir mettre son nez dans vos affaires.

J’ai récemment découvert dans DirSearch et cet outil reste une valeur sûre. Pendant que tout le monde s’excite sur les dernières IA et les zero-days à 100k$, ce petit scanner Python continue tranquillement de faire le job depuis des années.

Le principe est simple comme bonjour. Vous lui donnez une URL et une wordlist, et il va tester méthodiquement tous les chemins possibles pour voir ce qui traîne. Des fichiers de backup oubliés, des répertoires d’admin planqués, des configs exposées… Le genre de trucs qui peuvent transformer une simple reconnaissance en jackpot pour un pentester.

Ce qui rend DirSearch efficace, c’est son approche multi-threadée. Là où un script basique va tester les chemins un par un comme un escargot sous Valium, lui peut balancer des centaines de requêtes simultanées. Le multithreading permet de tester des milliers d’entrées rapidement.

Mais attention, ce n’est pas qu’une histoire de vitesse brute. L’outil est assez malin pour gérer les redirections, les codes d’erreur personnalisés, et même les WAF qui essaient de vous bloquer. Il peut adapter ses requêtes, changer de User-Agent, utiliser des proxies… Bref, il sait se faire discret quand il faut.

Pour l’installer, rien de plus simple. Un petit pip install dirsearch et c’est parti. Ou alors vous clonez le repo GitHub si vous préférez avoir la version de développement. Dans les deux cas, c’est opérationnel en 30 secondes chrono.

L’utilisation basique ressemble à ça :

dirsearch -u https://target.com

L’outil va automatiquement utiliser sa wordlist par défaut et commencer à scanner. Mais évidemment, c’est en personnalisant les options qu’on obtient les meilleurs résultats.

Vous pouvez spécifier les extensions à tester avec -e php,asp,txt. Pratique quand vous savez que le serveur tourne sous une techno particulière. Le flag -r active la récursion pour explorer les sous-répertoires trouvés. Et avec --exclude-status 404,403, vous filtrez le bruit pour ne garder que les résultats intéressants.

025-09-12-dirsearch-scanner-web-paths-1.mp4" >}}

Un truc que j’aime bien, c’est la possibilité de sauvegarder les résultats dans différents formats. L’outil supporte plusieurs formats de sortie : JSON pour parser facilement, texte simple pour un rapport rapide, ou XML pour l’intégration dans d’autres outils.

Comparé à ses concurrents comme Gobuster (codé en Go) ou Dirb, DirSearch s’en sort bien avec sa gestion efficace des cas particuliers.

L’outil gère aussi les authentifications HTTP basiques, les cookies de session, les headers personnalisés… Tout ce qu’il faut pour scanner des applications web modernes qui demandent une authentification. Vous pouvez même lui passer un certificat client si le serveur l’exige.

Le projet est hébergé sur GitHub où vous pouvez contribuer ou signaler des bugs.

Bon par contre, comme tout outil de scanning, utilisez-le uniquement sur des systèmes que vous êtes autorisé à tester. Scanner le site de votre banque “pour voir”, c’est le meilleur moyen de vous attirer des ennuis. Et croyez-moi, expliquer à un juge que c’était “juste pour apprendre”, ça passe moyen.

Pour les pros du pentest, DirSearch s’intègre bien dans une méthodologie complète. Vous commencez par un scan de ports avec Nmap, vous identifiez les services web, et hop, DirSearch entre en jeu pour explorer l’arborescence. Combiné avec Burp Suite pour l’analyse approfondie des résultats intéressants, c’est redoutable.

Pas d’IA, pas de machine learning, pas de blockchain. C’est un outil classique de brute-force intelligent qui complète bien une méthodologie de test complète… et franchement, quand on voit le nombre de serveurs qui traînent encore des phpMyAdmin non protégés ou des .git exposés, on se dit que les basiques ont encore de beaux jours devant eux.

Source

  •  

ToddlerBot - Le robot humanoïde à 4300 $ qui ridiculise les géants de la tech

Voici une info qui risque de faire grincer des dents chez Boston Dynamics et Tesla (ou pas ^^). Un doctorant de Berkeley, du nom de Haochen Shi, a décidé de partager généreusement avec le monde entier les plans d’un robot humanoïde fonctionnel pour seulement 4300 dollars de base. Oui, le prix d’une Nintendo Switch pour un robot bipède capable d’apprendre par lui-même.

Notre petit prodige s’appelle ToddlerBot , il mesure 33 centimètres de haut et possède 17 degrés de liberté. Pour vous donner une idée, c’est largement suffisant pour qu’il puisse marcher, manipuler des objets avec ses bras et effectuer des tâches complexes. Le tout avec des pièces imprimées en 3D et des servomoteurs qu’on trouve sur AliExpress.

Et notre ami Shi n’a pas juste mis en ligne un énième projet de robotique universitaire. Non, le gars a carrément publié l’intégralité du projet en open source sur GitHub sous licence MIT. Les fichiers CAD, le code Python, les schémas électroniques, tout y est. Vous pouvez donc littéralement cloner le repo et commencer à imprimer votre robot ce soir.

Côté hardware, l’architecture repose sur un Jetson Nano ou un Raspberry Pi selon votre budget. Les servomoteurs pour les jambes offrent un couple respectable pour cette échelle, pendant que les bras utilisent des modèles plus légers. Au final, le coût de base est de 4300 $, mais peut varier selon où vous achetez vos composants et les options que vous choisissez.

Mais attendez, le hardware n’est que la moitié de l’histoire. Du côté software, ToddlerBot intègre un système de téléopération complet qui permet de le contrôler à distance pour collecter des données d’entraînement. Cette approche de collecte de données est cruciale pour l’apprentissage par renforcement.

D’ailleurs, par rapport aux autres projets de robots humanoïdes low-cost, ToddlerBot se démarque par sa simplicité d’assemblage. Là où des projets comme Poppy nécessitent des compétences avancées en électronique, ToddlerBot peut être monté relativement facilement avec des outils basiques.

Ce qui change vraiment la donne ici, c’est l’écosystème qui commence à se former autour. Des makers du monde entier partagent déjà leurs modifications… certains ont ajouté des caméras pour la vision par ordinateur, d’autres expérimentent avec des matériaux différents pour les pièces imprimées. Les possibilités de personnalisation sont infinies.

Pour l’entraînement IA, le projet propose des environnements de simulation préconfigurés. Ça rend le transfert sim-to-real, comme disent les chercheurs, accessible au commun des mortels. Vous pouvez donc apprendre à votre robot à marcher, ramasser des objets ou même jouer au foot miniature. Les modèles pré-entraînés sont disponibles, mais rien ne vous empêche de partir de zéro avec vos propres algorithmes d’apprentissage par renforcement.

Un aspect que je trouve particulièrement cool dans ce projet c’est que ToddlerBot est conçu pour être modulaire. Vous voulez des bras plus longs ? Modifiez les fichiers CAD. Besoin de plus de puissance de calcul ? Remplacez le Raspberry Pi par un Jetson Orin. Cette flexibilité transforme chaque robot en plateforme d’expérimentation unique.

Les implications sont énormes car si n’importe qui peut construire un robot humanoïde pour le prix d’une console de jeu, on entre dans une nouvelle ère de la robotique. Fini le monopole des labos universitaires, des millionnaires et des géants de la tech. Bien sûr, il faut quand même des compétences techniques pour exploiter pleinement le potentiel du projet, mais la barrière d’entrée n’a jamais été aussi basse.

Et ce côté DIY ajoute une dimension émotionnelle qu’on ne retrouve pas avec un produit commercial. C’est votre création, votre code, vos améliorations.

Alors vous voulez vous lancer, commencez par commander les servomoteurs (comptez 3-4 semaines de livraison depuis la Chine) et pendant ce temps, imprimez les pièces et familiarisez-vous avec le code. La documentation du projet est bien faite et la communauté est vraiment accueillante avec les débutants.

N’empêche, un robot humanoïde fonctionnel à imprimer en 3D… Qui l’aurait cru ?

  •  

Transformez vos ebooks en cartes mentales

Un dénommé SSShooter, développeur de son état, a concocté un projet open source qui pourrait bien vous aider pour mieux apprendre n’importe quel sujet, à l’aide de cartes mentales. Baptisé Ebook to Mindmap , son outil transforme vos EPUB et PDF en cartes mentales interactives, le tout propulsé grâce à l’intelligence artificielle.

Cela permet de ne plus vous cogner 300 pages d’un traité sur le machine learning tout en griffonnant des notes sur un coin de nappe. Là vous glissez votre fichier dans l’outil et voilà ! Vous obtenez une carte mentale structurée regroupant tous les concepts clés, les relations entre les idées et l’architecture globale du bouquin.

Ce qui est plutôt cool avec cet outil, c’est qu’il ne se contente pas de vous balancer un résumé basique. Le projet utilise Google Gemini ou GPT d’OpenAI pour analyser intelligemment le contenu. Il détermine automatiquement la structure des chapitres, ignore les préfaces et tables des matières inutiles et vous propose trois modes de traitement différents selon vos besoins.

Que vous ayez besoin d’un simple résumé textuel parce que vous êtes pressé, d’une mindmap par chapitre pour une analyse détaillée, ou d’une carte mentale globale du livre entier, c’est vous qui choisissez. Et tout ça avec un système de cache intelligent qui vous épargne de re-traiter les mêmes bouquins encore et encore.

Pour l’installation, rien de compliqué si vous avez Node.js 18+ sur votre machine. Un petit git clone, un pnpm install et hop, vous êtes lancé. Vous configurez votre clé API (Google Gemini ou OpenAI), vous uploadez votre ebook et vous laissez l’outil faire son travail. Y’a même une démo accessible ici en ligne pour tester sans installer.

Mais comme le code est open source, vous gardez le contrôle sur le processus. Vous pouvez ainsi définir la profondeur des sous-chapitres à analyser, choisir le type de livre (technique, fiction, business…) et même ajuster les paramètres avancés selon vos besoins spécifiques.

Pour les étudiants qui doivent se farcir des pavés de 800 pages sur la thermodynamique quantique, ou pour les professionnels qui veulent extraire rapidement l’essence d’un livre business sans y passer le weekend, c’est parfait. Et pour les curieux qui accumulent les ebooks mais n’ont jamais le temps de tous les lire en détail, c’est la solution miracle.

Le seul bémol que je vois, c’est qu’il faut quand même une clé API pour faire tourner l’IA. Mais bon, avec les tarifs actuels de Google Gemini, ça reste largement abordable pour un usage personnel. Et puis si vous êtes développeur, rien ne vous empêche de forker le projet et d’y intégrer votre propre modèle d’IA local comme je l’ai fait pour LocalSite .

  •  

SHAI - Le développeur qui vit dans votre terminal

Shai, c’est un collègue développeur qui ne dort jamais, qui ne râle jamais quand vous lui demandez de déboguer votre code à 3h du matin, et qui vit littéralement dans votre terminal. C’est un outil qui s’inscrit dans la même lignée que Codex ou Claude Code et qui est 100% français puisque proposé par OVHcloud.

Terminé donc les outils qui nécessitent des interfaces graphiques lourdes ou des plugins IDE complexes puisqu’ici, tout se passe dans le terminal.

L’installation tient en une seule ligne :

curl -fsSL https://raw.githubusercontent.com/ovh/shai/main/install.sh | sh

Et en quelques secondes, vous avez un assistant IA fonctionnel, prêt à vous épauler dans vos tâches quotidiennes. Pas de configuration complexe, pas de dépendances infernales à gérer. Bien sûr, comme pour tout script téléchargé, pensez à vérifier le contenu avant exécution.

Vous l’aurez compris, SHAI ne se contente pas d’être un simple chatbot qui répond à vos questions. Il peut véritablement prendre le contrôle et exécuter des commandes, créer des fichiers, déboguer votre code, et même automatiser des workflows complets. Vous pouvez lui demander de créer un site web complet, de convertir des fichiers d’un format à l’autre, ou de corriger cette commande shell que vous n’arrivez jamais à mémoriser correctement.

La philosophie “written in Rust with love” inscrite dans le code du projet n’est pas non plus qu’une simple formule marketing car le choix de Rust garantit des performances exceptionnelles et une sécurité mémoire à toute épreuve. Avec 99,2% du code en Rust, les développeurs d’OVHcloud ont clairement misé sur la robustesse et la rapidité d’exécution. Je tiens quand même à dire qu’au cours de mes tests, j’ai quand même eu quelques plantages de l’application. Mais elle est encore jeune, donc j’espère que ça va s’améliorer.

Ce qui distingue vraiment SHAI des autres assistants IA, c’est sa capacité à fonctionner en mode “headless”. Vous pouvez simplement lui envoyer des prompts via un pipe Unix : echo "crée-moi un hello world en Python" | shai. Et rien que cette fonctionnalité ouvre des possibilités infinies pour l’automatisation et l’intégration dans des pipelines CI/CD existants.

Plus impressionnant encore, le mode “shell assistant” transforme SHAI en véritable garde du corps de votre terminal. Une fois activé, chaque fois qu’une commande échoue, SHAI intervient automatiquement pour vous proposer une correction. Plus besoin de chercher sur Stack Overflow pourquoi votre commande tar ne fonctionne pas comme prévu.

Pour réussir tout ça, il utilise par défaut Qwen3-32B mais rassurez vous, y’a moyen de changer de provider. L’aspect multi-provider est donc crucial et heureusement SHAI n’est pas verrouillé sur un seul modèle d’IA. Vous pouvez donc configurer différents providers selon vos besoins, vos préférences ou vos contraintes de confidentialité. Mais par défaut, OVHcloud propose un accès anonyme (avec limitation de débit) pour que tout le monde puisse tester l’outil sans engagement. Perso, j’ai éclaté la limité au bout de quelques minutes d’utilisation. Snif.

Lors de mes tests, j’ai aussi constaté que les commandes qu’on appelle normalement avec le “/” n’ont pas fonctionné chez moi et concernant le thème de l’interface de Shai, en fonction des couleurs de votre terminal, ça peut vite être illisible. C’est dommage mais j’imagine que ça va se bonifier avec le temps…

Voilà, avec Shai , OVHcloud mise clairement sur cette approche minimaliste mais puissante pour séduire les développeurs qui veulent de l’IA sans les complications habituelles et surtout qui tourne sur le sol français, dans le respect de vos données personnelles.

Je leur souhaite plein de succès !

Source

  •  

DirSearch - Un scanner de chemins web

Vous savez quel est le problème avec les serveurs web mal configurés ? C’est qu’ils sont comme ces vieux greniers où on entasse tout et n’importe quoi en pensant que personne n’ira jamais fouiller. Sauf que sur Internet, il y a toujours quelqu’un pour venir mettre son nez dans vos affaires.

J’ai récemment découvert dans DirSearch et cet outil reste une valeur sûre. Pendant que tout le monde s’excite sur les dernières IA et les zero-days à 100k$, ce petit scanner Python continue tranquillement de faire le job depuis des années.

Le principe est simple comme bonjour. Vous lui donnez une URL et une wordlist, et il va tester méthodiquement tous les chemins possibles pour voir ce qui traîne. Des fichiers de backup oubliés, des répertoires d’admin planqués, des configs exposées… Le genre de trucs qui peuvent transformer une simple reconnaissance en jackpot pour un pentester.

Ce qui rend DirSearch efficace, c’est son approche multi-threadée. Là où un script basique va tester les chemins un par un comme un escargot sous Valium, lui peut balancer des centaines de requêtes simultanées. Le multithreading permet de tester des milliers d’entrées rapidement.

Mais attention, ce n’est pas qu’une histoire de vitesse brute. L’outil est assez malin pour gérer les redirections, les codes d’erreur personnalisés, et même les WAF qui essaient de vous bloquer. Il peut adapter ses requêtes, changer de User-Agent, utiliser des proxies… Bref, il sait se faire discret quand il faut.

Pour l’installer, rien de plus simple. Un petit pip install dirsearch et c’est parti. Ou alors vous clonez le repo GitHub si vous préférez avoir la version de développement. Dans les deux cas, c’est opérationnel en 30 secondes chrono.

L’utilisation basique ressemble à ça :

dirsearch -u https://target.com

L’outil va automatiquement utiliser sa wordlist par défaut et commencer à scanner. Mais évidemment, c’est en personnalisant les options qu’on obtient les meilleurs résultats.

Vous pouvez spécifier les extensions à tester avec -e php,asp,txt. Pratique quand vous savez que le serveur tourne sous une techno particulière. Le flag -r active la récursion pour explorer les sous-répertoires trouvés. Et avec --exclude-status 404,403, vous filtrez le bruit pour ne garder que les résultats intéressants.

025-09-12-dirsearch-scanner-web-paths-1.mp4" >}}

Un truc que j’aime bien, c’est la possibilité de sauvegarder les résultats dans différents formats. L’outil supporte plusieurs formats de sortie : JSON pour parser facilement, texte simple pour un rapport rapide, ou XML pour l’intégration dans d’autres outils.

Comparé à ses concurrents comme Gobuster (codé en Go) ou Dirb, DirSearch s’en sort bien avec sa gestion efficace des cas particuliers.

L’outil gère aussi les authentifications HTTP basiques, les cookies de session, les headers personnalisés… Tout ce qu’il faut pour scanner des applications web modernes qui demandent une authentification. Vous pouvez même lui passer un certificat client si le serveur l’exige.

Le projet est hébergé sur GitHub où vous pouvez contribuer ou signaler des bugs.

Bon par contre, comme tout outil de scanning, utilisez-le uniquement sur des systèmes que vous êtes autorisé à tester. Scanner le site de votre banque “pour voir”, c’est le meilleur moyen de vous attirer des ennuis. Et croyez-moi, expliquer à un juge que c’était “juste pour apprendre”, ça passe moyen.

Pour les pros du pentest, DirSearch s’intègre bien dans une méthodologie complète. Vous commencez par un scan de ports avec Nmap, vous identifiez les services web, et hop, DirSearch entre en jeu pour explorer l’arborescence. Combiné avec Burp Suite pour l’analyse approfondie des résultats intéressants, c’est redoutable.

Pas d’IA, pas de machine learning, pas de blockchain. C’est un outil classique de brute-force intelligent qui complète bien une méthodologie de test complète… et franchement, quand on voit le nombre de serveurs qui traînent encore des phpMyAdmin non protégés ou des .git exposés, on se dit que les basiques ont encore de beaux jours devant eux.

Source

  •  

ToddlerBot - Le robot humanoïde à 4300 $ qui ridiculise les géants de la tech

Voici une info qui risque de faire grincer des dents chez Boston Dynamics et Tesla (ou pas ^^). Un doctorant de Berkeley, du nom de Haochen Shi, a décidé de partager généreusement avec le monde entier les plans d’un robot humanoïde fonctionnel pour seulement 4300 dollars de base. Oui, le prix d’une Nintendo Switch 2 (je rigole ^^) pour un robot bipède capable d’apprendre par lui-même.

Notre petit prodige s’appelle ToddlerBot , il mesure 33 centimètres de haut et possède 17 degrés de liberté. Pour vous donner une idée, c’est largement suffisant pour qu’il puisse marcher, manipuler des objets avec ses bras et effectuer des tâches complexes. Le tout avec des pièces imprimées en 3D et des servomoteurs qu’on trouve sur AliExpress.

Et notre ami Shi n’a pas juste mis en ligne un énième projet de robotique universitaire. Non, le gars a carrément publié l’intégralité du projet en open source sur GitHub sous licence MIT. Les fichiers CAD, le code Python, les schémas électroniques, tout y est. Vous pouvez donc littéralement cloner le repo et commencer à imprimer votre robot ce soir.

Côté hardware, l’architecture repose sur un Jetson Nano ou un Raspberry Pi selon votre budget. Les servomoteurs pour les jambes offrent un couple respectable pour cette échelle, pendant que les bras utilisent des modèles plus légers. Au final, le coût de base est de 4300 $, mais peut varier selon où vous achetez vos composants et les options que vous choisissez.

Mais attendez, le hardware n’est que la moitié de l’histoire. Du côté software, ToddlerBot intègre un système de téléopération complet qui permet de le contrôler à distance pour collecter des données d’entraînement. Cette approche de collecte de données est cruciale pour l’apprentissage par renforcement.

D’ailleurs, par rapport aux autres projets de robots humanoïdes low-cost, ToddlerBot se démarque par sa simplicité d’assemblage. Là où des projets comme Poppy nécessitent des compétences avancées en électronique, ToddlerBot peut être monté relativement facilement avec des outils basiques.

Ce qui change vraiment la donne ici, c’est l’écosystème qui commence à se former autour. Des makers du monde entier partagent déjà leurs modifications… certains ont ajouté des caméras pour la vision par ordinateur, d’autres expérimentent avec des matériaux différents pour les pièces imprimées. Les possibilités de personnalisation sont infinies.

Pour l’entraînement IA, le projet propose des environnements de simulation préconfigurés. Ça rend le transfert sim-to-real, comme disent les chercheurs, accessible au commun des mortels. Vous pouvez donc apprendre à votre robot à marcher, ramasser des objets ou même jouer au foot miniature. Les modèles pré-entraînés sont disponibles, mais rien ne vous empêche de partir de zéro avec vos propres algorithmes d’apprentissage par renforcement.

Un aspect que je trouve particulièrement cool dans ce projet c’est que ToddlerBot est conçu pour être modulaire. Vous voulez des bras plus longs ? Modifiez les fichiers CAD. Besoin de plus de puissance de calcul ? Remplacez le Raspberry Pi par un Jetson Orin. Cette flexibilité transforme chaque robot en plateforme d’expérimentation unique.

Les implications sont énormes car si n’importe qui peut construire un robot humanoïde pour le prix d’une console de jeu, on entre dans une nouvelle ère de la robotique. Fini le monopole des labos universitaires, des millionnaires et des géants de la tech. Bien sûr, il faut quand même des compétences techniques pour exploiter pleinement le potentiel du projet, mais la barrière d’entrée n’a jamais été aussi basse.

Et ce côté DIY ajoute une dimension émotionnelle qu’on ne retrouve pas avec un produit commercial. C’est votre création, votre code, vos améliorations.

Alors vous voulez vous lancer, commencez par commander les servomoteurs (comptez 3-4 semaines de livraison depuis la Chine) et pendant ce temps, imprimez les pièces et familiarisez-vous avec le code. La documentation du projet est bien faite et la communauté est vraiment accueillante avec les débutants.

N’empêche, un robot humanoïde fonctionnel à imprimer en 3D… Qui l’aurait cru ?

  •  

Transformez vos ebooks en cartes mentales

Un dénommé SSShooter, développeur de son état, a concocté un projet open source qui pourrait bien vous aider pour mieux apprendre n’importe quel sujet, à l’aide de cartes mentales. Baptisé Ebook to Mindmap , son outil transforme vos EPUB et PDF en cartes mentales interactives, le tout propulsé grâce à l’intelligence artificielle.

Cela permet de ne plus vous cogner 300 pages d’un traité sur le machine learning tout en griffonnant des notes sur un coin de nappe. Là vous glissez votre fichier dans l’outil et voilà ! Vous obtenez une carte mentale structurée regroupant tous les concepts clés, les relations entre les idées et l’architecture globale du bouquin.

Ce qui est plutôt cool avec cet outil, c’est qu’il ne se contente pas de vous balancer un résumé basique. Le projet utilise Google Gemini ou GPT d’OpenAI pour analyser intelligemment le contenu. Il détermine automatiquement la structure des chapitres, ignore les préfaces et tables des matières inutiles et vous propose trois modes de traitement différents selon vos besoins.

Que vous ayez besoin d’un simple résumé textuel parce que vous êtes pressé, d’une mindmap par chapitre pour une analyse détaillée, ou d’une carte mentale globale du livre entier, c’est vous qui choisissez. Et tout ça avec un système de cache intelligent qui vous épargne de re-traiter les mêmes bouquins encore et encore.

Pour l’installation, rien de compliqué si vous avez Node.js 18+ sur votre machine. Un petit git clone, un pnpm install et hop, vous êtes lancé. Vous configurez votre clé API (Google Gemini ou OpenAI), vous uploadez votre ebook et vous laissez l’outil faire son travail. Y’a même une démo accessible ici en ligne pour tester sans installer.

Mais comme le code est open source, vous gardez le contrôle sur le processus. Vous pouvez ainsi définir la profondeur des sous-chapitres à analyser, choisir le type de livre (technique, fiction, business…) et même ajuster les paramètres avancés selon vos besoins spécifiques.

Pour les étudiants qui doivent se farcir des pavés de 800 pages sur la thermodynamique quantique, ou pour les professionnels qui veulent extraire rapidement l’essence d’un livre business sans y passer le weekend, c’est parfait. Et pour les curieux qui accumulent les ebooks mais n’ont jamais le temps de tous les lire en détail, c’est la solution miracle.

Le seul bémol que je vois, c’est qu’il faut quand même une clé API pour faire tourner l’IA. Mais bon, avec les tarifs actuels de Google Gemini, ça reste largement abordable pour un usage personnel. Et puis si vous êtes développeur, rien ne vous empêche de forker le projet et d’y intégrer votre propre modèle d’IA local comme je l’ai fait pour LocalSite .

  •  

Cursor - L'IA sacrifie votre sécurité pour sa petite performance

Un fichier JSON qui met en danger des milliers de développeurs. Voilà en gros le pitch du jour, et franchement, il y a de quoi s’inquiéter un peu.

Vous connaissez Cursor ? C’est ce nouvel éditeur de code qui fait le buzz avec son IA intégrée, GPT-5 et Claude sous le capot. Et bien selon Oasis Security , cet outil de plus en plus populaire dans la communauté des développeurs, a une faille d’importance. En effet, l’équipe de développement a décidé de désactiver par défaut une fonction de sécurité cruciale de Visual Studio Code qui est le Workspace Trust.

Pourquoi ? Bah parce que ça gênait le fonctionnement de leur précieuse IA !

Alors qu’est-ce que ça change ce Workspace Trust ? Eh bien, imaginez que vous ouvrez tranquillement un projet GitHub pour jeter un œil au code. Pas pour l’exécuter, juste pour regarder. Avec VS Code de base, aucun souci, le Workspace Trust vous protège mais avec Cursor, c’est open bar pour les hackers.

Car il suffit qu’un petit malin glisse un fichier .vscode/tasks.json dans son repository avec la bonne configuration, et boom. Dès que vous ouvrez le dossier, le code s’exécute automatiquement sur votre machine avec "runOn": "folderOpen". Sans votre accord bien sûr. Sans même que vous vous en rendiez compte.

Les chercheurs d’Oasis Security ont créé une démo pour prouver le danger . Leur fichier tasks.json envoie discrètement le nom d’utilisateur de la victime vers un serveur externe. Sympa comme proof of concept, mais imaginez les dégâts avec du vrai code malveillant.

Avec ce genre de manip, un attaquant pourrait faire du vol de tokens d’authentification, de clés API planquées dans vos variables d’environnement, une modification silencieuse de vos fichiers de code, un connexion à un serveur de commande et contrôle… etc. Bref, le kit complet du cybercriminel moderne et vu que beaucoup de développeurs bossent sur des projets sensibles, ça peut vite devenir une porte d’entrée pour des attaques sur la chaîne d’approvisionnement logicielle.

Le truc énervant, c’est quand Oasis Security a alerté l’équipe de Cursor… leur réponse a été… comment dire… rafraîchissante car selon les chercheurs, l’équipe de Cursor a reconnu le problème mais a refusé de réactiver le Workspace Trust par défaut. Plus diplomatiquement, ils ont expliqué que cette fonction de sécurité casserait les fonctionnalités IA pour lesquelles les gens utilisent leur produit.

Leur conseil pour ceux qui s’inquiètent c’est donc d’ activer manuellement le Workspace Trust dans les paramètres ou d’utiliser un autre éditeur pour ouvrir les projets douteux. Autrement dit, démerdez-vous.

Pour activer cette protection vous-même, il faut donc aller dans les settings et modifier security.workspace.trust.enabled en le passant à true. Vous pouvez aussi complètement désactiver l’exécution automatique des tâches avec task.allowAutomaticTasks: "off".

Plusieurs experts en sécurité recommandent maintenant d’ouvrir les repositories inconnus uniquement dans des environnements isolés, genre machine virtuelle ou conteneur jetable. Pas très pratique pour du code review rapide.

En tout cas, je me souviens que ce n’est pas la première fois que Cursor fait parler de lui niveau sécurité. Récemment, deux autres vulnérabilités ont été découvertes : MCPoison (CVE-2025-54136) et CurXecute (CVE-2025-54135). Bref, visiblement, la sécurité n’est pas leur priorité numéro un.

Et pour détecter si vous êtes victime de cette faille, cherchez les fichiers .vscode/tasks.json contenant "runOn": "folderOpen" dans vos projets. Surveillez aussi les shells lancés par votre IDE et les connexions réseau inhabituelles juste après l’ouverture d’un projet.

A vous de décider maintenant… jusqu’où êtes-vous prêt à sacrifier votre sécurité pour un peu plus de confort ? Parce que là, on parle quand même d’exécution de code arbitraire sans consentement…

  •  

Plus sécurisé, plus rapide - Quand Rust dépoussière les commandes Linux de base

Vous êtes un warrior ! Normal, vous utilisez Linux depuis des années. Et vous aimez beaucoup toutes vos petites commandes du quotidien, ls, cat, base64… Vous le savez, tout ça fonctionne avec du bon vieux code C aussi vénérable que solide. Du code robuste, certes, mais qui pourrait bien se faire dépasser par plus moderne. Hé oui, parce qu’une bande de développeurs a décidé de refaire tout uutils Coreutils en Rust, et en prime, leurs nouvelles versions sont largement plus rapides que les originales.

Les benchmarks parlent d’eux-mêmes : l’utilitaire base64 mouline maintenant en 3,146 secondes là où GNU Coreutils prend 4,901 secondes. La version Rust est donc clairement plus rapide, mais le plus fou, c’est que la version précédente de Rust Coreutils mettait encore 5,998 secondes. En gros, ils ont pratiquement doublé la vitesse entre leurs deux versions mineures.

Alors comment ils ont fait ça ? Et bien en intégrant la bibliothèque base64-simd qui exploite les instructions SIMD des processeurs modernes. Pour faire simple, au lieu de traiter les données octet par octet comme un escargot asthmatique, le nouveau code traite plusieurs octets en parallèle, comme un guépard qui serait abonné à la chaine de Tibo Inshape. SSE4.1, AVX2, AVX-512 pour les processeurs Intel et AMD, et ARM NEON pour les puces ARM comme les Apple Silicon… ce sont toutes ces architectures qui profitent de l’accélération.

D’ailleurs, ce n’est pas qu’une histoire de performance brute. Ubuntu prévoit d’intégrer ces outils Rust dans sa version 25.10. Et Canonical ne fait pas ça pour suivre la mode du Rust… Non, ils voient un vrai intérêt qui est la sécurité mémoire garantie par Rust. Cela élimine toute une catégorie de bugs qui hantent le code C depuis des décennies, à savoir les buffer overflows, les use-after-free…etc, tout ce folklore de développeur devient impossible avec Rust.

Et Sylvestre Ledru , le développeur principal du projet uutils, n’a pas juste optimisé base64. Par exemple, la commande tr qui était 9,8 fois plus lente que GNU dans les anciennes versions est maintenant 1,58 fois plus rapide par rapport à sa propre version précédente !

Bon après, je vais faire plaisir aux grincheux qui n’aiment pas le changment, oui, tout n’est pas rose non plus. Sur les 600 tests de la suite GNU, Rust Coreutils n’en passe que 500 environ. Il reste donc un peu de boulot pour avoir une compatibilité parfaite. Mais avec l’attention que le projet reçoit en ce moment et le soutien d’Ubuntu, ça devrait s’améliorer rapidement.

Ça fait plaisir de voir ce bon vieux code C qui fait tourner nos systèmes depuis des millénaires est en train d’être challengé par du Rust. Et non pas parce que c’est à la mode, mais parce que dans certains cas, c’est objectivement meilleur : plus rapide, plus sûr, plus maintenable.

Pour les dev parmi vous qui veulent tester, la nouvelle release 0.2.2 est disponible sur GitHub . Et pour ceux qui se demandent si c’est vraiment utile d’optimiser des commandes qui s’exécutent en quelques secondes, rappelez-vous que ces outils sont appelés des milliers de fois par jour dans des scripts, des pipelines CI/CD, des conteneurs Docker… Chaque milliseconde gagnée, c’est donc un gros paquet d’énergie économisée et du temps machine libéré !

Alors, prêts à voir vos vieilles commandes Linux carburer au Rust ?

Source

  •  

Cursor - L'IA sacrifie votre sécurité pour sa petite performance

Un fichier JSON qui met en danger des milliers de développeurs. Voilà en gros le pitch du jour, et franchement, il y a de quoi s’inquiéter un peu.

Vous connaissez Cursor ? C’est ce nouvel éditeur de code qui fait le buzz avec son IA intégrée, GPT-5 et Claude sous le capot. Et bien selon Oasis Security , cet outil de plus en plus populaire dans la communauté des développeurs, a une faille d’importance. En effet, l’équipe de développement a décidé de désactiver par défaut une fonction de sécurité cruciale de Visual Studio Code qui est le Workspace Trust.

Pourquoi ? Bah parce que ça gênait le fonctionnement de leur précieuse IA !

Alors qu’est-ce que ça change ce Workspace Trust ? Eh bien, imaginez que vous ouvrez tranquillement un projet GitHub pour jeter un œil au code. Pas pour l’exécuter, juste pour regarder. Avec VS Code de base, aucun souci, le Workspace Trust vous protège mais avec Cursor, c’est open bar pour les hackers.

Car il suffit qu’un petit malin glisse un fichier .vscode/tasks.json dans son repository avec la bonne configuration, et boom. Dès que vous ouvrez le dossier, le code s’exécute automatiquement sur votre machine avec "runOn": "folderOpen". Sans votre accord bien sûr. Sans même que vous vous en rendiez compte.

Les chercheurs d’Oasis Security ont créé une démo pour prouver le danger . Leur fichier tasks.json envoie discrètement le nom d’utilisateur de la victime vers un serveur externe. Sympa comme proof of concept, mais imaginez les dégâts avec du vrai code malveillant.

Avec ce genre de manip, un attaquant pourrait faire du vol de tokens d’authentification, de clés API planquées dans vos variables d’environnement, une modification silencieuse de vos fichiers de code, un connexion à un serveur de commande et contrôle… etc. Bref, le kit complet du cybercriminel moderne et vu que beaucoup de développeurs bossent sur des projets sensibles, ça peut vite devenir une porte d’entrée pour des attaques sur la chaîne d’approvisionnement logicielle.

Le truc énervant, c’est quand Oasis Security a alerté l’équipe de Cursor… leur réponse a été… comment dire… rafraîchissante car selon les chercheurs, l’équipe de Cursor a reconnu le problème mais a refusé de réactiver le Workspace Trust par défaut. Plus diplomatiquement, ils ont expliqué que cette fonction de sécurité casserait les fonctionnalités IA pour lesquelles les gens utilisent leur produit.

Leur conseil pour ceux qui s’inquiètent c’est donc d’ activer manuellement le Workspace Trust dans les paramètres ou d’utiliser un autre éditeur pour ouvrir les projets douteux. Autrement dit, démerdez-vous.

Pour activer cette protection vous-même, il faut donc aller dans les settings et modifier security.workspace.trust.enabled en le passant à true. Vous pouvez aussi complètement désactiver l’exécution automatique des tâches avec task.allowAutomaticTasks: "off".

Plusieurs experts en sécurité recommandent maintenant d’ouvrir les repositories inconnus uniquement dans des environnements isolés, genre machine virtuelle ou conteneur jetable. Pas très pratique pour du code review rapide.

En tout cas, je me souviens que ce n’est pas la première fois que Cursor fait parler de lui niveau sécurité. Récemment, deux autres vulnérabilités ont été découvertes : MCPoison (CVE-2025-54136) et CurXecute (CVE-2025-54135). Bref, visiblement, la sécurité n’est pas leur priorité numéro un.

Et pour détecter si vous êtes victime de cette faille, cherchez les fichiers .vscode/tasks.json contenant "runOn": "folderOpen" dans vos projets. Surveillez aussi les shells lancés par votre IDE et les connexions réseau inhabituelles juste après l’ouverture d’un projet.

A vous de décider maintenant… jusqu’où êtes-vous prêt à sacrifier votre sécurité pour un peu plus de confort ? Parce que là, on parle quand même d’exécution de code arbitraire sans consentement…

  •  

Plus sécurisé, plus rapide - Quand Rust dépoussière les commandes Linux de base

Vous êtes un warrior ! Normal, vous utilisez Linux depuis des années. Et vous aimez beaucoup toutes vos petites commandes du quotidien, ls, cat, base64… Vous le savez, tout ça fonctionne avec du bon vieux code C aussi vénérable que solide. Du code robuste, certes, mais qui pourrait bien se faire dépasser par plus moderne. Hé oui, parce qu’une bande de développeurs a décidé de refaire tout uutils Coreutils en Rust, et en prime, leurs nouvelles versions sont largement plus rapides que les originales.

Les benchmarks parlent d’eux-mêmes : l’utilitaire base64 mouline maintenant en 3,146 secondes là où GNU Coreutils prend 4,901 secondes. La version Rust est donc clairement plus rapide, mais le plus fou, c’est que la version précédente de Rust Coreutils mettait encore 5,998 secondes. En gros, ils ont pratiquement doublé la vitesse entre leurs deux versions mineures.

Alors comment ils ont fait ça ? Et bien en intégrant la bibliothèque base64-simd qui exploite les instructions SIMD des processeurs modernes. Pour faire simple, au lieu de traiter les données octet par octet comme un escargot asthmatique, le nouveau code traite plusieurs octets en parallèle, comme un guépard qui serait abonné à la chaine de Tibo Inshape. SSE4.1, AVX2, AVX-512 pour les processeurs Intel et AMD, et ARM NEON pour les puces ARM comme les Apple Silicon… ce sont toutes ces architectures qui profitent de l’accélération.

D’ailleurs, ce n’est pas qu’une histoire de performance brute. Ubuntu prévoit d’intégrer ces outils Rust dans sa version 25.10. Et Canonical ne fait pas ça pour suivre la mode du Rust… Non, ils voient un vrai intérêt qui est la sécurité mémoire garantie par Rust. Cela élimine toute une catégorie de bugs qui hantent le code C depuis des décennies, à savoir les buffer overflows, les use-after-free…etc, tout ce folklore de développeur devient impossible avec Rust.

Et Sylvestre Ledru , le développeur principal du projet uutils, n’a pas juste optimisé base64. Par exemple, la commande tr qui était 9,8 fois plus lente que GNU dans les anciennes versions est maintenant 1,58 fois plus rapide par rapport à sa propre version précédente !

Bon après, je vais faire plaisir aux grincheux qui n’aiment pas le changment, oui, tout n’est pas rose non plus. Sur les 600 tests de la suite GNU, Rust Coreutils n’en passe que 500 environ. Il reste donc un peu de boulot pour avoir une compatibilité parfaite. Mais avec l’attention que le projet reçoit en ce moment et le soutien d’Ubuntu, ça devrait s’améliorer rapidement.

Ça fait plaisir de voir ce bon vieux code C qui fait tourner nos systèmes depuis des millénaires est en train d’être challengé par du Rust. Et non pas parce que c’est à la mode, mais parce que dans certains cas, c’est objectivement meilleur : plus rapide, plus sûr, plus maintenable.

Pour les dev parmi vous qui veulent tester, la nouvelle release 0.2.2 est disponible sur GitHub . Et pour ceux qui se demandent si c’est vraiment utile d’optimiser des commandes qui s’exécutent en quelques secondes, rappelez-vous que ces outils sont appelés des milliers de fois par jour dans des scripts, des pipelines CI/CD, des conteneurs Docker… Chaque milliseconde gagnée, c’est donc un gros paquet d’énergie économisée et du temps machine libéré !

Alors, prêts à voir vos vieilles commandes Linux carburer au Rust ?

Source

  •  

EggStreme - La Chine planque ses malwares directement dans la mémoire vive

Vous savez où se cache votre dossier %APPDATA% ? Parce qu’il semblerait que les équipes de Bitdefender aient mis au jour une petite pépite chinoise baptisée EggStreme (jeu de mots !!!) qui s’y terre et qui n’a rien de très comestible !

Tout commence aux Philippines, où une entreprise militaire se retrouve dans la ligne de mire de ce malware, ce qui vu l’ambiance tendue qui règne actuellement en mer de Chine méridionale, n’est probablement pas un pur hasard. Les chercheurs ont en effet mis la main sur un framework d’espionnage si élaboré qu’il ne laisse quasiment aucune trace sur le disque dur car tout se déroule dans la RAM.

Ce qui donne des sueurs froides avec EggStreme, c’est sa technique d’infiltration, connue sous le nom de DLL sideloading. En clair, les assaillants glissent un fichier Windows légitime (WinMail.exe) dans le dossier %APPDATA%\Microsoft\Windows\Windows Mail\ avec une DLL malveillante (mscorsvc.dll). Windows, le pauvre miskine, charge alors le tout sans broncher, persuadé qu’il a affaire à du bon vieux code Microsoft. Bien installé, le malware reste ensuite chargé uniquement en mémoire grâce à des techniques de chargement réflectif, ce qui évite toute écriture sur le disque.

Et une fois lancé, c’est la débandade. Le premier composant, EggStremeFuel, prépare le terrain en collectant des infos sur votre système et ouvre une backdoor via cmd.exe. Puis débarque EggStremeLoader qui va dénicher des payloads chiffrés planqués dans un fichier ielowutil.exe.mui. Ces payloads sont ensuite injectés directement dans des processus système légitimes comme winlogon.exe ou explorer.exe.

Mais le clou du spectacle, c’est EggStremeAgent, le cœur du dispositif. Ce backdoor dispose de 58 commandes différentes qui permettent aux attaquants de faire absolument tout ce qu’ils veulent : reconnaissance réseau, vol de données, captures d’écran, exécution de code arbitraire, et même injection dans le processus LSASS (celui qui gère vos mots de passe Windows).

Et ce n’est pas tout car les développeurs ont ajouté EggStremeKeylogger, un keylogger qui s’injecte dans explorer.exe et enregistre tout à savoir vos frappes clavier, le contenu du presse-papier, les fenêtres actives, même les fichiers que vous copiez-collez. Tout est alors stocké dans un fichier thumbcache.dat chiffré en RC4, histoire de passer inaperçu.

Pour communiquer avec le serveur de commande et contrôle, les pirates utilisent également gRPC avec mTLS. Ils ont même leur propre autorité de certification pour générer des certificats uniques pour chaque machine compromise. Et la configuration de ce beau bébé est stockée dans un fichier Vault.dat chiffré, et chaque victime reçoit un identifiant unique.

Ce qui étonne vraiment les chercheurs, c’est la cohérence de l’ensemble car tous les composants utilisent les mêmes techniques : DLL sideloading, chiffrement RC4/XOR, exécution exclusivement en mémoire. Ça sent la team de développeurs bien rodée avec des process industriels, et pas des amateurs qui bricolent dans leur garage.

Et comme si cela ne suffisait pas, ils ont même prévu un plan B avec EggStremeWizard, un backdoor de secours allégé qui maintient l’accès même si le module principal se fait dégager. Et pour se balader tranquillement dans les réseaux segmentés, ils utilisent également Stowaway , un outil proxy écrit en Go qui permet de contourner les restrictions réseau.

Malheureusement, pour contrer de ce genre de saloperies, les antivirus classiques sont complètement largués. Il faut du monitoring comportemental avancé, des solutions EDR/XDR capables de surveiller la mémoire des processus, et surtout bloquer l’usage non autorisé des utilitaires système Windows (les fameux LOLBins). Seules ces solutions plus avancées peuvent détecter les comportements anormaux en mémoire et les techniques d’injection de processus que ce malware utilise.

Bitdefender a publié tous les indicateurs de compromission sur leur repo GitHub et si vous bossez dans une organisation sensible en Asie-Pacifique, je vous conseille vivement d’y jeter un œil et de vérifier vos systèmes.

Je pense qu’on a encore affaire ici à une jolie affaire d’espionnage étatique. Faut dire que ces groupes APT chinois développent des outils d’une sophistication toujours aussi hallucinante, et comme d’hab leurs cibles privilégiées sont des organisations militaires et gouvernementales des pays voisins du leur.

Bref, la prochaine fois que Windows vous demande une autorisation pour un truc bizarre, réfléchissez-y à deux fois parce qu’entre un simple WinMail.exe des familles et une infrastructure d’espionnage complète, la frontière est devenue sacrément mince.

Source

  •  

Windows Defender se fait avoir par un simple raccourci

Vous savez comme moi que parfois les failles de sécurité les plus dangereuses sont aussi les plus simples. Imaginez-vous un instant, déjouer complètement Windows Defender, le garde du corps intégré de Microsoft, avec juste… un lien symbolique.

Oui, un simple raccourci Windows créé avec la commande mklink , et paf, c’est la protection antivirus qui part en fumée. Et bien c’est exactement ce qu’a déniché un chercheur en sécurité russe connu sous le pseudo de Two Seven One Three .

L’astuce ici, c’est que l’attaque joue avec la manière dont Windows Defender gère ses propres mises à jour. Je vous explique… Vous voyez ce dossier C:\ProgramData\Microsoft\Windows Defender\Platform où l’antivirus range ses exécutables ? Eh bien, chaque mise à jour génère un nouveau sous-dossier avec un numéro de version, genre 4.18.24090.11-0. Et au démarrage, Defender se lance à la recherche de la version la plus fraîche pour s’exécuter.

C’est là que ça devient croustillant car le chercheur a découvert qu’avec des droits administrateur, n’importe qui peut créer un nouveau dossier dans Platform. Microsoft a bien sûr pensé à empêcher l’écriture de fichiers malveillants dans ce répertoire critique, mais la création de nouveaux dossiers reste possible. C’est cette faille apparemment mineure qui devient alors une porte d’entrée majeure.

Voici comment l’attaque se déroule : vous créez un lien symbolique avec un nom de version qui semble plus récent, disons 5.18.25070.5-0. Ce lien dirige vers un dossier que vous contrôlez de A à Z, par exemple C:\TMP\AV.

La commande est un jeu d’enfant :

mklink /D "C:\ProgramData\Microsoft\Windows Defender\Platform\5.18.25070.5-0" "C:\TMP\AV"

Ainsi, au prochain redémarrage de Windows, Defender se dit “Oh chouette, une nouvelle version !” et démarre depuis votre dossier piégé. De là, vous avez alors le contrôle total. Vous pouvez modifier les fichiers de Defender, lui injecter du code via DLL side-loading, ou carrément supprimer les exécutables, car sans ses fichiers principaux, l’antivirus ne peut plus démarrer et toute la protection s’effondre.

Y’a aussi une variante encore plus sournoise détectée en début d’année qui consiste à utiliser Process Monitor avec des liens symboliques, cet outil de monitoring système de Microsoft, avec lequel vous pouvez carrément écraser le fichier principal de Defender au démarrage. Il suffit de créer un lien symbolique C:\Windows\Procmon.pmb qui pointe vers MsMpEng.exe, et Process Monitor fait le sale boulot pour vous pendant le boot.

Les hackers combinent de plus en plus cette approche avec d’autres méthodes comme le BYOVD (Bring Your Own Vulnerable Driver). Par exemple, le groupe de ransomware Akira qui utilise des drivers Intel légitimes pour obtenir un accès kernel et désactiver ainsicomplètement les protections Windows.

Les implications sont énormes car une fois Defender neutralisé, la page Windows Security devient inaccessible car le service n’est plus actif. Il n’y a plus aucune protection en temps réel, plus de détection de malware, rien. La machine devient alors une proie facile pour n’importe quel ransomware ou malware.

Le pire dans tout ça c’est que cette attaque utilise uniquement des outils déjà présents dans Windows. C’est la simplicité même de cette technique qui explique comment elle a pu passer inaperçue si longtemps.

Microsoft n’a pas encore communiqué officiellement sur cette vulnérabilité spécifique déterrée par Two Seven One Three mais vu l’exploitation enfantine et son efficacité redoutable, on peut parier qu’un correctif arrivera rapidement.

En attendant, les entreprises feraient bien de surveiller de très près les modifications dans le dossier Platform de Windows Defender…

Source

  •