↩ Accueil

Vue lecture

Frockly - Vos formules Excel enfin visibles et manipulables

RyuU12358 n'est pas un personnage de manga cyberpunk... Non, c'est un développeur japonais qui a eu une idée toute bête. Il s'est demandé si on pouvait VOIR la structure des formules Excel au lieu de les lire comme on lirait un roman écrit en russe ?

Parce que bon, les formules de tableur imbriquées, c'est le cauchemar de pas mal de monde. Vous savez, ce genre de truc : =IF(AND(SUMIF(A:A,B2,C:C)>100,VLOOKUP(D2,E:F,2,FALSE)="OK"),CONCATENATE(G2," - ",H2),"Erreur").

Et encore, j'ai pris un exemple gentil.

Demo Frockly : une formule Excel décomposée en blocs ( Source )

Le problème, comme le souligne très justement le créateur, c'est pas que ces formules sont complexes. C'est que leur structure est planquée à l'intérieur d'une seule ligne de texte, du coup, à chaque fois qu'on doit les modifier, on repart de zéro pour comprendre comment tout s'imbrique.

Rien que d'y penser, ça me donner la flemme...

Mais c'est là qu'intervient Frockly , un éditeur web qui transforme vos formules en blocs visuels façon Scratch qu'on peut manipuler comme des Lego. Vous collez votre formule monstrueuse, et hop, elle se décompose en morceaux logiques reliés entre eux. Ça ressemble un peu à Flyde pour la programmation visuelle , mais adapté au monde des tableurs.

L'outil propose plusieurs modes de visualisation comme replier certaines parties pour avoir une vue d'ensemble, zoomer sur un noeud précis, ou remonter à la racine pour comprendre la hiérarchie.

Et le truc cool, c'est qu'on peut aussi construire ses formules de A à Z en assemblant des blocs. Plus besoin de compter les parenthèses comme un comptable sous pression. On connecte les fonctions entre elles, et Frockly génère la formule textuelle qu'on peut ensuite copier-coller dans Excel ou un autre tableur.

Y'a même un système de formules nommées (internes à Frockly) pour réutiliser des morceaux de logique, et un import expérimental de fichiers xlsx qui fonctionne côté client. Bon, on est sur une version 0.5, donc faut pas s'attendre à un truc parfaitement stable non plus...

Notez quand même que Frockly ne remplace pas Excel. C'est un outil qui tourne entièrement dans votre navigateur (pas d'upload serveur), ne calcule rien, ne modifie pas vos fichiers, et ne prétend surtout pas être un tableur. C'est en réalité un espace de travail intermédiaire pour comprendre et refactorer, point barre. L'idée c'est d'organiser vos formules ici, puis de retourner dans votre tableur avec une version plus claire.

Le tout est développé en TypeScript, tourne dans le navigateur, et le code est disponible sur GitHub. Bref, si vous avez déjà pesté devant une formule Excel incompréhensible héritée d'un collègue qui a quitté la boite il y a 3 ans, ce petit outil pourrait bien vous sauver quelques heures de migraine.

Source

  •  

Le chat préféré des gens qui ont la même adresse IP

Vous bossez dans un open space et vous avez envie de papoter avec vos collègues sans que tout le monde entende votre conversation ? Ou alors vous êtes étudiant sur un campus et vous voulez lancer un petit chat éphémère avec les gens autour de vous ?

Ça tombe bien, ipchat.org a une approche assez sympa pour ça.

En fait, ce site regroupe automatiquement tous les utilisateurs qui partagent la même adresse IP publique (celle vue par le serveur). En gros, si vous êtes au bureau derrière le même routeur, vous devriez vous retrouver dans le même salon. Pas besoin de créer de compte ni de lien d'invitation, vous débarquez sur le site, vous choisissez un pseudo (ou vous laissez le générateur aléatoire s'en charger) et hop, vous pouvez commencer à causer.

Côté technique, ça utilise du Server-Sent Events pour le temps réel et une API REST derrière. Les messages sont conservés 24 heures avant de disparaître côté applicatif même si évidemment, ça n'empêche pas le serveur de loguer des trucs de son côté, hein. On n'en sait rien.

Après si je vous en parle, c'est parce que je trouve le concept plutôt sympa. C'est un peu le retour aux sources des chats IRC d'antan, version ultra-simplifiée ou de ce bon vieux Net Send... Y'a un côté nostalgique et en même temps pratique. Si vous voulez organiser un apéro improvisé avec les collègues sans spammer le Slack officiel y'a qu'à balancer l'URL et tout le monde se retrouve dans le même chat sans rien installer.

Après c'est pas hyper sécurisé comme concept parce que vous l'aurez compris, toute personne qui rejoint le même salon (même IP publique) peut lire les messages. Donc évitez d'y balancer des trucs confidentiels ou des ragots sur votre chef (enfin... sauf si vous êtes sûr qu'il n'est pas connecté de gros con ^^). Et petit détail, si vous utilisez un VPN ou si votre FAI fait du CGNAT , vous pourriez vous retrouver avec des inconnus dans votre salon. Encore des rencontres charnelles en perspective !

Bref, encore un petit outil marrant pour animer vos pauses café.

  •  

Aux Etats-Unis, la police peut maintenant fouiller dans les recherches Google

La Cour suprême de Pennsylvanie vient de valider une pratique qui va faire polémique : les policiers peuvent désormais demander à Google de leur filer la liste de toutes les personnes ayant recherché un terme spécifique. C'est ce qu'ils appellent un "reverse keyword search warrant".

L'affaire remonte à 2016. Une femme est enlevée chez elle par un inconnu, puis violée. L'enquête piétine pendant plus d'un an, jusqu'à ce que les enquêteurs obtiennent un mandat demandant à Google qui avait recherché le nom ou l'adresse de la victime la semaine précédant l'agression. Un certain John Kurtz avait tapé cette adresse deux fois dans la même journée.

ADN prélevé sur un mégot de cigarette, correspondance confirmée, et le type finit par avouer cinq agressions. Il écope de 59 à 270 ans de prison. Oui moi aussi ça m'a fait bugger cette histoire de fourchette d'années de prison mais c'est comme ça qu'ils font là-bas... 59 ans minimum et jusqu'à 270 ans max.

Alors la première réaction c'est de se dire que le système a fonctionné puisque le violeur en série s'est retrouvé derrière les barreaux grâce à ses propres recherches Google. Sauf que la défense a contesté la légalité de ce mandat de recherche inversé, arguant que ça violait le 4ème amendement sur les perquisitions abusives.

Et la Cour a tranché : non, y'a pas de violation d'amendement. Pourquoi ? À cause de ce qu'on appelle la "third-party doctrine". En gros, dès que vous partagez une info avec un tiers (ici Google), vous perdez toute attente raisonnable de confidentialité dessus. Vos recherches appartiennent à Google, pas à vous. Point barre.

Après petite subtilité, le juge Wecht a aussi suggéré que le résultat aurait pu être différent si l'utilisateur avait pris des mesures de protection, tel qu'utiliser un VPN. Techniquement, si Kurtz avait fait ses recherches via un VPN, le mandat aurait pu ne pas tenir car là il y avait une volonté de conserver une certaine confidentialité... On marche sur la tête.

Mais ce qui chafouine la défense ici, ce sont les effets de bord car comme l'a souligné la juge Christine Donohue, ce type de mandat met en danger la vie privée de toute personne ayant recherché le nom ou l'adresse de la victime durant cette semaine-là. Des voisins curieux, un livreur qui voulait vérifier l'itinéraire, un journaliste local.... Tout le monde se retrouve potentiellement dans le viseur...

Et c'est là que ça devient vraiment préoccupant car qu'est-ce qui empêche d'appliquer la même logique à des recherches plus génériques ? "Avortement clinique" dans un État qui l'interdit ? "Comment traverser la frontière" pour les personnes en situation irrégulière ? Avec ce qui se passe actuellement aux États-Unis concernant les rafles d'immigration par ICE , on voit bien le potentiel de dérive.

Car le problème n'est pas la technique en soi mais l'absence de garde-fous. Rien n'empêche aujourd'hui une administration zélée de demander à Google la liste de tous ceux qui ont recherché tel ou tel terme politiquement sensible et avec cette décision de la Cour de Pennsylvanie, c'est maintenant parfaitement légal.

Google, de son côté, affirme avoir des "protections rigoureuses" en place et s'opposer aux demandes trop larges... On aimerait les croire mais l'entreprise traite des milliers de mandats chaque année, et la tentation de coopérer plutôt que de se battre devant les tribunaux doit être forte.

Alors combien de temps avant que cette jurisprudence fasse tache d'huile dans d'autres États ?

Source

  •  

ASML, la boite hollandaise qui tient le monde tech en otage

400 millions de dollars. C'est le prix d'une seule de ces machines et y'a qu'une seule entreprise au monde capable de les fabriquer. Cette boîte hollandaise dont vous n'avez probablement jamais entendu parler s'appelle ASML, et elle tient littéralement l'industrie tech mondiale par les roustons.

L'intérieur d'une machine de lithographie EUV d'ASML - Crédit : ASML

Faut que je vous explique pourquoi c'est complètement dingue. Ces machines de lithographie EUV (pour Extreme Ultraviolet), c'est ce qui permet de graver les puces les plus avancées de la planète. Sans elles, pas de processeurs dernière génération, pas d'iPhone, pas de GPU pour faire tourner vos IA préférées. Bref, le monde moderne s'arrête !

Et ce qui est incroyable c'est comment ça fonctionne. La machine balance des lasers sur des gouttelettes d'étain minuscules (de la taille d'un globule blanc) qui filent à 250 km/h. Et attention, elle tape pas une fois sur chaque gouttelette, mais TROIS fois d'affilée en 20 microsecondes. 50 000 gouttelettes par seconde. 150 000 tirs laser par seconde. Et ils n'en ratent jamais un seul. Quand les ingénieurs d'ASML disent "we don't miss", c'est pas de la vantardise mal placée de mecs de base, c'est juste la réalité.

Chaque gouttelette est chauffée à plus de 220 000 Kelvin. Pour situer, c'est environ 40 fois plus chaud que la surface du Soleil. On parle littéralement de créer un petit soleil artificiel sur Terre pour produire cette lumière ultraviolette extrême à 13,5 nanomètres de longueur d'onde.

Et les miroirs à l'intérieur de ces machines sont probablement les objets les plus lisses de l'univers. Si vous agrandissiez un de ces miroirs à la taille de la Terre, la plus grosse bosse serait plus fine qu'une carte à jouer. Ces miroirs permettent de superposer les couches d'une puce avec une précision de 5 atomes et tout ça se fait pendant que certaines parties de la machine bougent à des accélérations de plus de 20 G.

L'histoire d'ASML est d'ailleurs assez chouette à connaître. La boîte a été créée dans les années 80 comme spin-off de Philips, dans une petite ville des Pays-Bas, avec pas grand-chose à part une équipe de passionnés. Pendant 30 ans, tout le monde dans l'industrie pensait que la lithographie EUV était impossible. Les entreprises américaines ont toutes abandonné une par une et seul ASML a continué à y croire, en bossant avec leur partenaire allemand Zeiss pour les miroirs.

Et aujourd'hui, cette petite boîte hollandaise a un monopole mondial absolu. 0 concurrent c'est fort quand même. Si vous voulez fabriquer des puces en dessous de 7 nanomètres, vous passez par ASML ou vous passez votre chemin. C'est aussi simple que ça.

Perso, je trouve ça fou de voir qu'une technologie aussi critique pour notre monde repose sur une seule entreprise. C'est à la fois un exploit technologique absolument démentiel et un point de vulnérabilité stratégique pour toute l'industrie. Mais bon, quand on voit le niveau d'ingénierie nécessaire pour faire fonctionner ces bêtes, on comprend pourquoi personne d'autre n'a réussi à suivre.

Source

  •  

Une Tesla vient de traverser les USA sans que le conducteur touche le volant

J'sais pas si vous vous souvenez mais en 2016, Elon Musk avait promis qu'une Tesla serait capable de traverser les États-Unis d'une côte à l'autre avec le système FSD (conduite autonome), sans que le conducteur n'ait besoin d'intervenir. À l'époque, il annonçait ça pour fin 2017 et on est en 2026 et... hé bien, ça vient enfin de se produire (même si pas exactement comme prévu).

David Moss, un américain originaire de Tacoma, vient de réaliser l'exploit le 31 décembre 2025. Il a quitté le Tesla Diner de Los Angeles avec sa Model 3 grise et a roulé jusqu'à Myrtle Beach en Caroline du Sud. 2 732,4 miles (environ 4 400 km) en 2 jours et 20 heures (recharges incluses).

Et tout ça avec zéro désengagement du FSD ! Le système a même géré tous les stationnements aux Superchargeurs (30 recharges au total, le conducteur devait juste brancher le câble).

Son véhicule tournait avec la version FSD 14.2.1.25 et la puce AI4, le hardware embarqué actuel sur les Tesla et d'après ses données sur fsddb.com (un site communautaire de tracking FSD), il a même dépassé les 10 000 miles consécutifs sans désengagement.

Ashok Elluswamy, le VP de l'IA chez Tesla, a salué l'exploit sur X en parlant de première traversée d'une côte à l'autre en FSD v14. Le compte officiel Tesla North America a aussi relayé l'info et Musk a réagi avec un sobre "Cool". (lol)

Si vous êtes tenté de faire pareil, n'oubliez pas quand même que le système s'appelle toujours "FSD Supervised", ce qui signifie que légalement le conducteur reste responsable et doit rester vigilant. David Moss n'a donc pas vraiment fait une sieste de 3 jours pendant que sa bagnole roulait toute seule. Il était bien là, prêt à intervenir si besoin... sauf qu'il n'en a jamais eu besoin.

La Tesla Model 3 de David Moss - Source: fsddb.com

Ce qui me fait kiffer dans cette histoire, c'est que ça donne un sacré coup de boost à l'approche de Tesla concernant la conduite autonome : des caméras, du machine learning et des réseaux de neurones, sans LiDAR. Geohot avait commencé à bidouiller ça en 2015 avec son projet qui est devenu OpenPilot chez Comma.ai . Et là, un conducteur passionné vient enfin de prouver que leur stack logicielle peut tenir un trajet de 4 400 km sans broncher. Bon, c'est un one shot et pas une validation scientifique reproductible, mais c'est quand même impressionnant.

Et perso, près de 9 ans après la promesse initiale de Musk (octobre 2016), c'est cool de voir que ça progresse enfin concrètement !

Source

  •  

QUESTER1 - Le robot humanoïde qui tient dans un sac à dos

Et si je vous disais qu'un robot humanoïde, un vrai, avec contrôle de force sur tout le corps et des articulations dignes des gros modèles, ça tient maintenant dans un sac à dos ? Vous ne me croiriez pas et pourtant, je viens de découvrir sur Reddit cette vidéo où AGIBOT présente le QUESTER1 (ou Q1 pour les intimes), un petit bonhomme de 80 centimètres qui a de quoi faire réfléchir pas mal de monde dans l'industrie...

Bon, je vous vois venir... "Encore un robot jouet chinois". Sauf que non. Le truc qui change tout ici, c'est la technologie QDD (Quasi Direct Drive) qu'ils ont réussi à miniaturiser jusqu'à obtenir des articulations plus petites qu'un œuf. Et pas des articulations au rabais, hein mais d'un contrôle de force complet et de réactivité haute performance, c'est à dire le même niveau que les grands humanoïdes qui font 1m70.

En septembre dernier on découvrait que certains robots Unitree présentaient des failles Bluetooth . Avec du code fermé c'est pas surprenant alors qu'ici AGIBOT fait le choix inverse en ouvrant volontairement son SDK et son HDK. Le code, les interfaces, les modules d'extension... tout est accessible. Même les composants structurels externes sont open source, ce qui veut dire que vous pouvez imprimer en 3D vos propres coques et donner à votre Q1 l'apparence que vous voulez. Tête interchangeable incluse ! Le délire !

Mais pourquoi faire si petit ?

Bah justement, c'est là que ça devient fort car en théorie, réduire les dimensions de moitié divise le poids par 8 (les joies de la physique en 3D). Du coup, le robot encaisse mieux les chutes, les erreurs coûtent moins cher, et l'itération est beaucoup plus rapide pour les développeurs. Pour la recherche et l'éducation, c'est donc le format idéal puisqu'il tient dans un grand sac à dos.

Côté fonctionnalités, le Q1 n'est pas qu'une plateforme de dev puisqu'il intègre une IA personnalisée qui lui permet de répondre à des questions, d'enseigner l'anglais avec une prononciation correcte (et une patience infinie, contrairement à votre ancien prof de lycée), ou même de danser avec plus de précision que vous.

C'est le futur qui débarque et le plus cool c'est qu'à l'avenir, ils vont proposer une plateforme no-code qui permettra de créer des comportements facilement. Pour les makers, les chercheurs et les étudiants en robotique, c'est donc potentiellement une belle porte d'entrée vers l'humanoïde à taille humaine... enfin presque.

  •  

ASML, la boite hollandaise qui tient le monde tech en otage

400 millions de dollars. C'est le prix d'une seule de ces machines et y'a qu'une seule entreprise au monde capable de les fabriquer. Cette boîte hollandaise dont vous n'avez probablement jamais entendu parler s'appelle ASML, et elle tient littéralement l'industrie tech mondiale par les roustons.

L'intérieur d'une machine de lithographie EUV d'ASML - Crédit : ASML

Faut que je vous explique pourquoi c'est complètement dingue. Ces machines de lithographie EUV (pour Extreme Ultraviolet), c'est ce qui permet de graver les puces les plus avancées de la planète. Sans elles, pas de processeurs dernière génération, pas d'iPhone, pas de GPU pour faire tourner vos IA préférées. Bref, le monde moderne s'arrête !

Et ce qui est incroyable c'est comment ça fonctionne. La machine balance des lasers sur des gouttelettes d'étain minuscules (de la taille d'un globule blanc) qui filent à 250 km/h. Et attention, elle tape pas une fois sur chaque gouttelette, mais TROIS fois d'affilée en 20 microsecondes. 50 000 gouttelettes par seconde. 150 000 tirs laser par seconde. Et ils n'en ratent jamais un seul. Quand les ingénieurs d'ASML disent "we don't miss", c'est pas de la vantardise mal placée de mecs de base, c'est juste la réalité.

Chaque gouttelette est chauffée à plus de 220 000 Kelvin. Pour situer, c'est environ 40 fois plus chaud que la surface du Soleil. On parle littéralement de créer un petit soleil artificiel sur Terre pour produire cette lumière ultraviolette extrême à 13,5 nanomètres de longueur d'onde.

Et les miroirs à l'intérieur de ces machines sont probablement les objets les plus lisses de l'univers. Si vous agrandissiez un de ces miroirs à la taille de la Terre, la plus grosse bosse serait plus fine qu'une carte à jouer. Ces miroirs permettent de superposer les couches d'une puce avec une précision de 5 atomes et tout ça se fait pendant que certaines parties de la machine bougent à des accélérations de plus de 20 G.

L'histoire d'ASML est d'ailleurs assez chouette à connaitre. La boîte a été créée dans les années 80 comme spin-off de Philips, dans une petite ville des Pays-Bas, avec pas grand-chose à part une équipe de passionnés. Pendant 30 ans, tout le monde dans l'industrie pensait que la lithographie EUV était impossible. Les entreprises américaines ont toutes abandonné une par une et seul ASML a continué à y croire, en bossant avec leur partenaire allemand Zeiss pour les miroirs.

Et aujourd'hui, cette petite boîte hollandaise a un monopole mondial absolu. 0 concurrent c'est fort quand même. Si vous voulez fabriquer des puces en dessous de 7 nanomètres, vous passez par ASML ou vous passez votre chemin. C'est aussi simple que ça.

Perso, je trouve ça fou de voir qu'une technologie aussi critique pour notre monde repose sur une seule entreprise. C'est à la fois un exploit technologique absolument démentiel et un point de vulnérabilité stratégique pour toute l'industrie. Mais bon, quand on voit le niveau d'ingénierie nécessaire pour faire fonctionner ces bêtes, on comprend pourquoi personne d'autre n'a réussi à suivre.

Source

  •  

Une Tesla vient de traverser les USA sans que le conducteur touche le volant

J'sais pas si vous vous souvenez mais en 2016, Elon Musk avait promis qu'une Tesla serait capable de traverser les États-Unis d'une côte à l'autre avec le système FSD (conduite autonome), sans que le conducteur n'ait besoin d'intervenir. À l'époque, il annonçait ça pour fin 2017 et on est en 2026 et... hé bien, ça vient enfin de se produire (même si pas exactement comme prévu).

David Moss, un américain originaire de Tacoma, vient de réaliser l'exploit le 31 décembre 2025. Il a quitté le Tesla Diner de Los Angeles avec sa Model 3 grise et a roulé jusqu'à Myrtle Beach en Caroline du Sud. 2 732,4 miles (environ 4 400 km) en 2 jours et 20 heures (recharges incluses).

Et tout ça avec zéro désengagement du FSD ! Le système a même géré tous les stationnements aux Superchargeurs (30 recharges au total, le conducteur devait juste brancher le câble).

Son véhicule tournait avec la version FSD 14.2.1.25 et la puce AI4, le hardware embarqué actuel sur les Tesla et d'après ses données sur fsddb.com (un site communautaire de tracking FSD), il a même dépassé les 10 000 miles consécutifs sans désengagement.

Ashok Elluswamy, le VP de l'IA chez Tesla, a salué l'exploit sur X en parlant de première traversée d'une côte à l'autre en FSD v14. Le compte officiel Tesla North America a aussi relayé l'info et Musk a réagi avec un sobre "Cool". (lol)

Si vous êtes tenté de faire pareil, n'oubiez pas quand même que le système s'appelle toujours "FSD Supervised", ce qui signifie que légalement le conducteur reste responsable et doit rester vigilant. David Moss n'a donc pas vraiment fait une sieste de 3 jours pendant que sa bagnole roulait toute seule. Il était bien là, prêt à intervenir si besoin... sauf qu'il n'en a jamais eu besoin.

La Tesla Model 3 de David Moss - Source: fsddb.com

Ce qui me fait kiffer dans cette histoire, c'est que ça donne un sacré coup de boost à l'approche de Tesla concernant la conduite autonome : des caméras, du machine learning et des réseaux de neurones, sans LiDAR. Geohot avait commencé à bidouiller ça en 2015 avec son projet qui est devenu OpenPilot chez Comma.ai . Et là, un conducteur passionné vient enfin de prouver que leur stack logicielle peut tenir un trajet de 4 400 km sans broncher. Bon, c'est un one shot et pas une validation scientifique reproductible, mais c'est quand même impressionnant.

Et perso, près de 9 ans après la promesse initiale de Musk (octobre 2016), c'est cool de voir que ça progresse enfin concrètement !

Source

  •  

QUESTER1 - Le robot humanoïde qui tient dans un sac à dos

Et si je vous disais qu'un robot humanoïde, un vrai, avec contrôle de force sur tout le corps et des articulations dignes des gros modèles, ça tient maintenant dans un sac à dos ? Vous ne me croiriez pas et pourtant, je viens de découvrir sur Reddit cette vidéo où AGIBOT présente le QUESTER1 (ou Q1 pour les intimes), un petit bonhomme de 80 centimètres qui a de quoi faire réfléchir pas mal de monde dans l'industrie...

Bon, je vous vois venir... "Encore un robot jouet chinois". Sauf que non. Le truc qui change tout ici, c'est la technologie QDD (Quasi Direct Drive) qu'ils ont réussi à miniaturiser jusqu'à obtenir des articulations plus petites qu'un oeuf. Et pas des articulations au rabais, hein mais d'un contrôle de force complet et de réactivité haute performance, c'est à dire le même niveau que les grands humanoïdes qui font 1m70.

En septembre dernier on découvrait que certains robots Unitree présentaient des failles Bluetooth . Avec du code fermé c'est pas surprenant alors qu'ici AGIBOT fait le choix inverse en ouvrant volontairement son SDK et son HDK. Le code, les interfaces, les modules d'extension... tout est accessible. Même les composants structurels externes sont open source, ce qui veut dire que vous pouvez imprimer en 3D vos propres coques et donner à votre Q1 l'apparence que vous voulez. Tête interchangeable incluse ! Le délire !

Mais pourquoi faire si petit ?

Bah justement, c'est là que ça devient fort car en théorie, réduire les dimensions de moitié divise le poids par 8 (les joies de la physique en 3D). Du coup, le robot encaisse mieux les chutes, les erreurs coûtent moins cher, et l'itération est beaucoup plus rapide pour les développeurs. Pour la recherche et l'éducation, c'est donc le format idéal puisqu'il tient dans un grand sac à dos.

Côté fonctionnalités, le Q1 n'est pas qu'une plateforme de dev puisqu'il intègre une IA personnalisée qui lui permet de répondre à des questions, d'enseigner l'anglais avec une prononciation correcte (et une patience infinie, contrairement à votre ancien prof de lycée), ou même de danser avec plus de précision que vous.

C'est le futur qui débarque et le plus cool c'est qu'à l'avenir, ils vont proposer une plateforme no-code qui permettra de créer des comportements facilement. Pour les makers, les chercheurs et les étudiants en robotique, c'est donc potentiellement une belle porte d'entrée vers l'humanoïde à taille humaine... enfin presque.

  •  

Extraire les meilleures photos d'une vidéo avec Video to JPG

Vous avez une vidéo de vacances, un concert filmé à l'arrache, une séquence où votre chat fait un truc improbable, voire une sextape de vus avec la mère de Jean-Pierre de la compta, et vous voulez en extraire LA photo parfaite ! Sauf qu'avec les captures manuelles, on tombe souvent sur des frames avec du flou de mouvement ou un mauvais cadrage.

Heureusement, Video to JPG propose une approche plutôt cool pour sélectionner les meilleures.

L'outil tourne direct dans le navigateur, sans rien installer et le traitement se fait entièrement côté client via FFmpeg en WebAssembly, donc en théorie vos fichiers restent sur votre machine. Je dis en théorie parce qu'on n'a pas les sources de ce site. La liste des formats supportés est large : MP4, MOV, AVI, MKV, WebM, FLV, et même le H.265/HEVC selon les développeurs.

Le truc intéressant, c'est leur fonction "Smart Clarity Detection" qui analyse les frames pour repérer celles qui sont nettes. Parce que bon, extraire une image toutes les 2 secondes c'est facile, mais choper pile les frames sans flou de mouvement, c'est une autre paire de manches.

Côté sortie, l'outil propose du JPG, PNG ou WebP avec un réglage de compression. Vous pouvez prévisualiser chaque image avant de la télécharger, et si vous en voulez plusieurs, tout part dans un ZIP. Y'a même un système de préfixes pour nommer vos fichiers.

Pour l'utiliser, suffit de glisser votre vidéo dans la zone prévue à cet effet, vous choisissez la fréquence d'extraction ou vous laissez l'outil détecter les meilleures frames, vous prévisualisez, et vous téléchargez. Le site annonce une limite autour de 2 Go, mais attention, avec du 4K ça peut ramer sévère voire planter si votre navigateur manque de RAM.

Et bien sûr, c'est gratuit et sans inscription.

A mettre dans vos bookmarks pour la prochaine fois !

  •  

Extraire les meilleures photos d'une vidéo avec Video to JPG

Vous avez une vidéo de vacances, un concert filmé à l'arrache, une séquence où votre chat fait un truc improbable, voire une sextape de vous avec la mère de Jean-Pierre de la compta, et vous voulez en extraire LA photo parfaite ! Sauf qu'avec les captures manuelles, on tombe souvent sur des frames avec du flou de mouvement ou un mauvais cadrage.

Heureusement, Video to JPG propose une approche plutôt cool pour sélectionner les meilleures.

L'outil tourne direct dans le navigateur, sans rien installer et le traitement se fait entièrement côté client via FFmpeg en WebAssembly, donc en théorie vos fichiers restent sur votre machine. Je dis en théorie parce qu'on n'a pas les sources de ce site. La liste des formats supportés est large : MP4, MOV, AVI, MKV, WebM, FLV, et même le H.265/HEVC selon les développeurs.

Le truc intéressant, c'est leur fonction "Smart Clarity Detection" qui analyse les frames pour repérer celles qui sont nettes. Parce que bon, extraire une image toutes les 2 secondes c'est facile, mais choper pile les frames sans flou de mouvement, c'est une autre paire de manches.

Côté sortie, l'outil propose du JPG, PNG ou WebP avec un réglage de compression. Vous pouvez prévisualiser chaque image avant de la télécharger, et si vous en voulez plusieurs, tout part dans un ZIP. Y'a même un système de préfixes pour nommer vos fichiers.

Pour l'utiliser, suffit de glisser votre vidéo dans la zone prévue à cet effet, vous choisissez la fréquence d'extraction ou vous laissez l'outil détecter les meilleures frames, vous prévisualisez, et vous téléchargez. Le site annonce une limite autour de 2 Go, mais attention, avec du 4K ça peut ramer sévère voire planter si votre navigateur manque de RAM.

Et bien sûr, c'est gratuit et sans inscription.

A mettre dans vos bookmarks pour la prochaine fois !

  •  

Lumen - L'IA qui écrit vos messages de commit et bien plus encore

Soyez honnêtes, c'est quoi votre dernier message de commit ? "fix", "update", "refactor" ou les grands classiques "Ça marche, on ne touche plus" ou "azertyuiop^$" ?

Si vous vous reconnaissez, alors Lumen va peut-être vous sauver la mise.

Lumen c'est un outil en ligne de commande écrit en Rust qui utilise l'IA pour vous aider à gérer votre workflow Git. En gros, vous stagez vos fichiers, vous lancez lumen draft et hop, l'IA analyse vos modifications pour générer un message de commit propre au format conventionnel. Fini les "fixed stuff" à 3h du mat.

Mais le truc va plus loin que ça puisque vous pouvez aussi lui demander d'expliquer un commit avec lumen explain HEAD (ou un hash, une plage de commits...). Pratique quand vous tombez sur du code écrit par vous-même il y a 6 mois et que vous n'y comprenez plus rien. D'ailleurs, y'a même une fonctionnalité de recherche interactive dans l'historique avec lumen list si vous avez fzf d'installé.

Et le plus cool, c'est la commande lumen operate. Vous lui décrivez en langage naturel ce que vous voulez faire genre "squash mes 3 derniers commits" et il vous génère la commande Git correspondante. Avec un warning si la commande est potentiellement destructrice et une demande de confirmation avant exécution, histoire de pas faire de bêtises.

Côté providers, c'est flexible... OpenAI, Anthropic Claude, Gemini, Groq, DeepSeek, Ollama pour du local, et d'autres encore... Vous configurez ça une fois avec lumen configure pour les commandes IA et c'est parti. Le diff viewer intégré est pas mal non plus (et lui fonctionne sans config), avec une vue côte à côte dans le terminal et la possibilité de naviguer entre les hunks.

L'installation se fait via Homebrew sur Mac/Linux avec brew install jnsahaj/lumen/lumen ou via Cargo si vous avez Rust. C'est open source sous licence MIT.

Perso, je trouve que c'est le genre d'outil bien pratique pour ceux qui galèrent avec leurs messages de commit ou qui passent leur temps à chercher des commandes Git obscures. Et le fait que ça tourne avec différents providers IA, y compris en local avec Ollama, c'est également un vrai plus pour ceux qui veulent pas envoyer leur code sur des serveurs externes.

A tester donc !

Source

  •  

Lumen - L'IA qui écrit vos messages de commit et bien plus encore

Soyez honnêtes, c'est quoi votre dernier message de commit ? "fix", "update", "refactor" ou les grands classiques "Ça marche, on ne touche plus" ou "azertyuiop^$" ?

Si vous vous reconnaissez, alors Lumen va peut-être vous sauver la mise.

Lumen c'est un outil en ligne de commande écrit en Rust qui utilise l'IA pour vous aider à gérer votre workflow Git. En gros, vous stagez vos fichiers, vous lancez lumen draft et hop, l'IA analyse vos modifications pour générer un message de commit propre au format conventionnel. Fini les "fixed stuff" à 3h du mat.

Mais le truc va plus loin que ça puisque vous pouvez aussi lui demander d'expliquer un commit avec lumen explain HEAD (ou un hash, une plage de commits...). Pratique quand vous tombez sur du code écrit par vous-même il y a 6 mois et que vous n'y comprenez plus rien. D'ailleurs, y'a même une fonctionnalité de recherche interactive dans l'historique avec lumen list si vous avez fzf d'installé.

Et le plus cool, c'est la commande lumen operate. Vous lui décrivez en langage naturel ce que vous voulez faire genre "squash mes 3 derniers commits" et il vous génère la commande Git correspondante. Avec un warning si la commande est potentiellement destructrice et une demande de confirmation avant exécution, histoire de pas faire de bêtises.

Côté providers, c'est flexible... OpenAI, Anthropic Claude, Gemini, Groq, DeepSeek, Ollama pour du local, et d'autres encore... Vous configurez ça une fois avec lumen configure pour les commandes IA et c'est parti. Le diff viewer intégré est pas mal non plus (et lui fonctionne sans config), avec une vue côte à côte dans le terminal et la possibilité de naviguer entre les hunks.

L'installation se fait via Homebrew sur Mac/Linux avec brew install jnsahaj/lumen/lumen ou via Cargo si vous avez Rust. C'est open source sous licence MIT.

Perso, je trouve que c'est le genre d'outil bien pratique pour ceux qui galèrent avec leurs messages de commit ou qui passent leur temps à chercher des commandes Git obscures. Et le fait que ça tourne avec différents providers IA, y compris en local avec Ollama, c'est également un vrai plus pour ceux qui veulent pas envoyer leur code sur des serveurs externes.

A tester donc !

Source

  •  

Un bug de 20 ans dans GTA San Andreas refait surface avec Windows 11

Le Skimmer dans GTA San Andreas c'est ce petit hydravion qu'on pouvait chopper près de la mer pour faire du rase-mottes au-dessus de l'eau. Eh bien figurez-vous que ce truc cachait un défaut dans son code depuis... 20 ans. Un bug dormant qui est resté totalement invisible jusqu'à l'arrivée de Windows 11 24H2 en avril 2025.

Silent, le moddeur derrière SilentPatch , a publié une analyse technique sur ce bug zombie. En gros, quand vous essayez de spawn le Skimmer sur Windows 11 24H2, l'hydravion devient tellement gigantesque qu'il n'est même plus rendu à l'écran. Et si vous forcez CJ à monter dedans via la console, son altitude affichée explose à environ 1,087 quadrillion d'années-lumière. Beaucoup plus loin que n'importe quoi dans l'univers observable...

Le coupable c'est une ligne manquante dans le fichier vehicles.ide qui définit les paramètres des véhicules. Le Skimmer a été copié-collé depuis Vice City où il était classé comme bateau, donc pas besoin de définir les paramètres de roues. Sauf que dans San Andreas, quelqu'un l'a requalifié en avion... sans ajouter les 4 paramètres manquants pour les roues.

Du coup, le code qui charge les véhicules se retrouve avec des variables non initialisées. Pendant 20 ans, ça passait crème parce que ces variables récupéraient par hasard les bonnes valeurs laissées dans la pile mémoire par le véhicule précédent (un certain TopFun avec un wheel scale de 0.7). Le jeu était littéralement à 4 octets près de planter depuis 2004.

Et puis Microsoft a décidé de modifier la gestion interne des Critical Section Objects dans Windows 11 24H2. La fonction LeaveCriticalSection utilise maintenant plus d'espace dans la pile, ce qui écrase ces fameuses valeurs "héritées" par accident. Résultat, le wheel scale se retrouve corrompu avec une valeur de 3,73×10²⁹, les calculs de suspension partent en vrille, et hop, votre hydravion file vers Alpha du Centaure.

Comme quoi c'est pas pour rien que les devs bassinent tout le monde avec l'initialisation des variables. Le code de San Andreas ignorait probablement les warnings du compilateur depuis le début, et tout le monde s'en fichait parce que "ça marche". Jusqu'au jour où ça marche plus, bah ouais Morray !

La bonne nouvelle c'est que le fix est facile à faire. Soit vous éditez manuellement le fichier data\vehicles.ide pour ajouter les paramètres manquants au Skimmer, soit vous attendez la prochaine mise à jour de SilentPatch qui corrigera ça automatiquement. D'ailleurs, les versions Xbox et la Definitive Edition avaient déjà corrigé ce bug... sans le savoir.

Bref, 20 ans de code qui tourne sur une douzaine de versions de Windows différentes, et il aura fallu un changement apparemment anodin dans la gestion mémoire de Microsoft pour réveiller ce vilain bug dormant...

Source

  •  

Un bug de 20 ans dans GTA San Andreas refait surface avec Windows 11

Le Skimmer dans GTA San Andreas c'est ce petit hydravion qu'on pouvait chopper près de la mer pour faire du rase-mottes au-dessus de l'eau. Eh bien figurez-vous que ce truc cachait un défaut dans son code depuis... 20 ans. Un bug dormant qui est resté totalement invisible jusqu'à l'arrivée de Windows 11 24H2 en avril 2025.

Silent, le moddeur derrière SilentPatch , a publié une analyse technique sur ce bug zombie. En gros, quand vous essayez de spawn le Skimmer sur Windows 11 24H2, l'hydravion devient tellement gigantesque qu'il n'est même plus rendu à l'écran. Et si vous forcez CJ à monter dedans via la console, son altitude affichée explose à environ 1,087 quadrillion d'années-lumière. Beaucoup plus loin que n'importe quoi dans l'univers observable...

Le coupable c'est une ligne manquante dans le fichier vehicles.ide qui définit les paramètres des véhicules. Le Skimmer a été copié-collé depuis Vice City où il était classé comme bateau, donc pas besoin de définir les paramètres de roues. Sauf que dans San Andreas, quelqu'un l'a requalifié en avion... sans ajouter les 4 paramètres manquants pour les roues.

Du coup, le code qui charge les véhicules se retrouve avec des variables non initialisées. Pendant 20 ans, ça passait crème parce que ces variables récupéraient par hasard les bonnes valeurs laissées dans la pile mémoire par le véhicule précédent (un certain TopFun avec un wheel scale de 0.7). Le jeu était littéralement à 4 octets près de planter depuis 2004.

Et puis Microsoft a décidé de modifier la gestion interne des Critical Section Objects dans Windows 11 24H2. La fonction LeaveCriticalSection utilise maintenant plus d'espace dans la pile, ce qui écrase ces fameuses valeurs "héritées" par accident. Résultat, le wheel scale se retrouve corrompu avec une valeur de 3,73×10²⁹, les calculs de suspension partent en vrille, et hop, votre hydravion file vers Alpha du Centaure.

Comme quoi c'est pas pour rien que les devs bassinent tout le monde avec l'initialisation des variables. Le code de San Andreas ignorait probablement les warnings du compilateur depuis le début, et tout le monde s'en fichait parce que "ça marche". Jusqu'au jour où ça marche plus, bah ouais Morray !

La bonne nouvelle c'est que le fix est facile à faire. Soit vous éditez manuellement le fichier data\vehicles.ide pour ajouter les paramètres manquants au Skimmer, soit vous attendez la prochaine mise à jour de SilentPatch qui corrigera ça automatiquement. D'ailleurs, les versions Xbox et la Definitive Edition avaient déjà corrigé ce bug... sans le savoir.

Bref, 20 ans de code qui tourne sur une douzaine de versions de Windows différentes, et il aura fallu un changement apparemment anodin dans la gestion mémoire de Microsoft pour réveiller ce vilain bug dormant...

Source

  •  

&udm=14 - Le Konami Code pour retrouver un Google sans IA

Vous avez remarqué comme Google est devenu pénible ces derniers temps ? Entre les "AI Overviews" qui vous pondent des résumés à côté de la plaque, les panneaux shopping qui envahissent la moitié de l'écran, et les carrousels de vidéos TikTok dont tout le monde se fiche... on en viendrait presque à regretter le Google de 2010. Eh bien figurez-vous qu'il existe un code secret, une sorte de Konami Code du web, qui permet de retrouver un Google propre et fonctionnel : &udm=14.

Ce petit paramètre que vous pouvez ajouter à vos recherches Google (du genre google.com/search?q=votre+recherche&udm=14), c'est le ticket magique vers le filtre "Web" de Google. Concrètement, ça vire une bonne partie du bazar... plus d'aperçus IA hallucinés, plus de "Autres questions" qui prennent trois écrans, plus de carrousels vidéo. Bon, les pubs restent là (faut pas rêver), mais au moins vous retrouvez des liens bleus comme au bon vieux temps.

Avant :

Le truc c'est que Google ne documente pas ce paramètre. Pas de page d'aide, pas d'option dans les settings, rien. C'est la communauté qui a découvert le pot aux roses, et depuis ça se répand comme une traînée de poudre. Le site udm14.com propose même un redirecteur qui ajoute automatiquement le paramètre à vos recherches (attention quand même, comme tout proxy, il peut techniquement voir vos requêtes). Les créateurs l'appellent le "disenshittification Konami code", en référence au concept de Cory Doctorow sur la dégradation des plateformes.

Pour ceux qui veulent automatiser le truc, il existe plusieurs solutions. Sur Firefox, l'extension &udm=14 fait le job en un clic. Sur Chrome, vous avez l'équivalent sur le Web Store . Sinon, vous pouvez simplement modifier votre moteur de recherche par défaut dans les paramètres du navigateur en ajoutant &udm=14 à l'URL de recherche.

Après :

Perso, je trouve ça assez révélateur de l'état actuel de Google... Quand tes utilisateurs doivent bidouiller des paramètres cachés pour retrouver une expérience de recherche décente, c'est qu'il y a un problème. Les "AI Overviews" sont régulièrement épinglés pour leurs réponses à côté de la plaque, parfois carrément dangereuses (genre conseiller de mettre de la colle sur la pizza , véridique). Et au lieu de nous donner une option officielle pour les désactiver, Google préfère nous gaver de contenus sponsorisés et de résumés générés par IA.

D'autres valeurs du paramètre udm existent d'ailleurs. &udm=2 donne les résultats images, &udm=7 les vidéos. Mais c'est bien le 14 qui est devenu le symbole de la résistance contre la "shittification" de Google.

Bref, si comme moi vous en avez marre de scroller trois écrans avant de trouver un vrai lien vers un vrai site (au hasard vers mon site. ^^), testez &udm=14. C'est gratuit, ça marche, et ça rend Google presque aussi bon qu'avant.

Source

  •  

Zed - L'éditeur de code des créateurs d'Atom qui mise tout sur la collaboration

Ah, Atom... Si vous avez connu l'éditeur de code de GitHub à l'époque, vous savez de quoi je parle. C'était le premier éditeur vraiment moderne, hackable à souhait, avec une communauté de dingues qui créait des extensions pour tout et n'importe quoi. Et puis Microsoft a racheté GitHub, et Atom a fini au cimetière des projets open source en 2022. RIP.

Sauf que les créateurs d'Atom n'ont pas dit leur dernier mot. Nathan Sobo et son équipe ont décidé de repartir de zéro pour créer Zed , un éditeur de code qui corrige toutes les erreurs du passé. Et quand je dis « de zéro », c'est vraiment from scratch, en Rust cette fois, et pas en Electron \o/.

Zed en action

Et ce qu'on obtient, c'est un éditeur qui démarre en quelques millisecondes et qui reste fluide même quand vous ouvrez des projets monstrueux. Là où VS Code commence à ramer sur un gros monorepo, Zed reste stable. C'est pas de la magie, c'est juste du code natif bien optimisé avec un moteur de rendu GPU custom (GPUI pour les intimes).

Mais le truc qui m'a vraiment intrigué, c'est leur concept de « Zed is our office ». En gros, l'équipe de développement de Zed n'a pas de bureau physique. Leur bureau, c'est Zed lui-même. Ils bossent en permanence dans des « channels » partagés où ils peuvent coder ensemble en temps réel, se parler en audio, et voir les curseurs des autres se balader dans le code. C'est du pair programming poussé à l'extrême, et apparemment ça marche plutôt bien pour eux.

Du coup, la collaboration temps réel est au cœur du projet Zed. Vous pouvez inviter quelqu'un dans votre espace de travail, et hop, vous codez ensemble comme si vous étiez sur le même ordi. Chacun voit les modifications de l'autre instantanément, avec des curseurs colorés pour savoir qui fait quoi. Y'a même un système de « follow » pour suivre ce que fait votre collègue dans les fichiers. Pratique pour les reviews de code ou le debugging à plusieurs.

Côté IA, ils ont aussi intégré un assistant qui supporte Claude, GPT et même Ollama pour ceux qui veulent faire tourner des modèles en local. Vous pouvez alors discuter avec l'IA dans un panneau dédié, lui demander de générer du code, de l'expliquer ou de le refactorer. Rien de nouveau en soi (VS Code fait pareil avec Copilot), mais l'intégration est propre et l'assistant a accès au contexte de votre projet.

Pour le reste, c'est du classique mais bien fichu : coloration syntaxique via Tree-sitter (ultra rapide), support LSP pour l'autocomplétion et les diagnostics, terminal intégré, support Vim... Le thème par défaut est plutôt classe et les performances sont vraiment impressionnantes.

Le projet est open source sous licence GPL/AGPL/Apache, et la version de base est gratuite. Y'a aussi une offre payante pour les équipes qui veulent plus de fonctionnalités de collaboration, mais pour un usage perso, vous n'avez pas besoin de sortir la CB.

Bref, si vous en avez marre de voir VS Code bouffer 2 Go de RAM pour éditer trois fichiers, Zed mérite clairement un essai. C'est dispo sur macOS, Linux et Windows.

Merci à Lorenper pour le partage !

Source

  •  

&udm=14 - Le Konami Code pour retrouver un Google sans IA

Vous avez remarqué comme Google est devenu pénible ces derniers temps ? Entre les "AI Overviews" qui vous pondent des résumés à côté de la plaque, les panneaux shopping qui envahissent la moitié de l'écran, et les carrousels de vidéos TikTok dont tout le monde se fiche... on en viendrait presque à regretter le Google de 2010. Eh bien figurez-vous qu'il existe un code secret, une sorte de Konami Code du web, qui permet de retrouver un Google propre et fonctionnel : &udm=14.

Ce petit paramètre que vous pouvez ajouter à vos recherches Google (du genre google.com/search?q=votre+recherche&udm=14), c'est le ticket magique vers le filtre "Web" de Google. Concrètement, ça vire une bonne partie du bazar... plus d'aperçus IA hallucinés, plus de "Autres questions" qui prennent trois écrans, plus de carrousels vidéo. Bon, les pubs restent là (faut pas rêver), mais au moins vous retrouvez des liens bleus comme au bon vieux temps.

Avant :

Le truc c'est que Google ne documente pas ce paramètre. Pas de page d'aide, pas d'option dans les settings, rien. C'est la communauté qui a découvert le pot aux roses, et depuis ça se répand comme une traînée de poudre. Le site udm14.com propose même un redirecteur qui ajoute automatiquement le paramètre à vos recherches (attention quand même, comme tout proxy, il peut techniquement voir vos requêtes). Les créateurs l'appellent le "disenshittification Konami code", en référence au concept de Cory Doctorow sur la dégradation des plateformes.

Pour ceux qui veulent automatiser le truc, il existe plusieurs solutions. Sur Firefox, l'extension &udm=14 fait le job en un clic. Sur Chrome, vous avez l'équivalent sur le Web Store . Sinon, vous pouvez simplement modifier votre moteur de recherche par défaut dans les paramètres du navigateur en ajoutant &udm=14 à l'URL de recherche.

Après :

Perso, je trouve ça assez révélateur de l'état actuel de Google... Quand tes utilisateurs doivent bidouiller des paramètres cachés pour retrouver une expérience de recherche décente, c'est qu'il y a un problème. Les "AI Overviews" sont régulièrement épinglés pour leurs réponses à côté de la plaque, parfois carrément dangereuses (genre conseiller de mettre de la colle sur la pizza , véridique). Et au lieu de nous donner une option officielle pour les désactiver, Google préfère nous gaver de contenus sponsorisés et de résumés générés par IA.

D'autres valeurs du paramètre udm existent d'ailleurs. &udm=2 donne les résultats images, &udm=7 les vidéos. Mais c'est bien le 14 qui est devenu le symbole de la résistance contre la "shittification" de Google.

Bref, si comme moi vous en avez marre de scroller trois écrans avant de trouver un vrai lien vers un vrai site (au hasard vers mon site. ^^), testez &udm=14. C'est gratuit, ça marche, et ça rend Google presque aussi bon qu'avant.

Source

  •  

Zed - L'éditeur de code des créateurs d'Atom qui mise tout sur la collaboration

Ah, Atom... Si vous avez connu l'éditeur de code de GitHub à l'époque, vous savez de quoi je parle. C'était le premier éditeur vraiment moderne, hackable à souhait, avec une communauté de dingues qui créait des extensions pour tout et n'importe quoi. Et puis Microsoft a racheté GitHub, et Atom a fini au cimetière des projets open source en 2022. RIP.

Sauf que les créateurs d'Atom n'ont pas dit leur dernier mot. Nathan Sobo et son équipe ont décidé de repartir de zéro pour créer Zed , un éditeur de code qui corrige toutes les erreurs du passé. Et quand je dis « de zéro », c'est vraiment from scratch, en Rust cette fois, et pas en Electron \o/.

Zed en action

Et ce qu'on obtient, c'est un éditeur qui démarre en quelques millisecondes et qui reste fluide même quand vous ouvrez des projets monstrueux. Là où VS Code commence à ramer sur un gros monorepo, Zed reste stable. C'est pas de la magie, c'est juste du code natif bien optimisé avec un moteur de rendu GPU custom (GPUI pour les intimes).

Mais le truc qui m'a vraiment intrigué, c'est leur concept de « Zed is our office ». En gros, l'équipe de développement de Zed n'a pas de bureau physique. Leur bureau, c'est Zed lui-même. Ils bossent en permanence dans des « channels » partagés où ils peuvent coder ensemble en temps réel, se parler en audio, et voir les curseurs des autres se balader dans le code. C'est du pair programming poussé à l'extrême, et apparemment ça marche plutôt bien pour eux.

Du coup, la collaboration temps réel est au cœur du projet Zed. Vous pouvez inviter quelqu'un dans votre espace de travail, et hop, vous codez ensemble comme si vous étiez sur le même ordi. Chacun voit les modifications de l'autre instantanément, avec des curseurs colorés pour savoir qui fait quoi. Y'a même un système de « follow » pour suivre ce que fait votre collègue dans les fichiers. Pratique pour les reviews de code ou le debugging à plusieurs.

Côté IA, ils ont aussi intégré un assistant qui supporte Claude, GPT et même Ollama pour ceux qui veulent faire tourner des modèles en local. Vous pouvez alors discuter avec l'IA dans un panneau dédié, lui demander de générer du code, de l'expliquer ou de le refactorer. Rien de nouveau en soi (VS Code fait pareil avec Copilot), mais l'intégration est propre et l'assistant a accès au contexte de votre projet.

Pour le reste, c'est du classique mais bien fichu : coloration syntaxique via Tree-sitter (ultra rapide), support LSP pour l'autocomplétion et les diagnostics, terminal intégré, support Vim... Le thème par défaut est plutôt classe et les performances sont vraiment impressionnantes.

Le projet est open source sous licence GPL/AGPL/Apache, et la version de base est gratuite. Y'a aussi une offre payante pour les équipes qui veulent plus de fonctionnalités de collaboration, mais pour un usage perso, vous n'avez pas besoin de sortir la CB.

Bref, si vous en avez marre de voir VS Code bouffer 2 Go de RAM pour éditer trois fichiers, Zed mérite clairement un essai. C'est dispo sur macOS, Linux et Windows.

Merci à Lorenper pour le partage !

Source

  •  

LinuxDAW - Le catalogue qui prouve que faire du son sous Linux c'est enfin cool

Ceux qui ont déjà essayé de faire de la musique sous Linux savent de quoi je parle. Configurer JACK, gérer les latences ALSA, prier pour que le plugin VST fonctionne... C'était un peu l'enfer, non ? Perso, j'ai abandonné plusieurs fois avant que PipeWire vienne tout simplifier.

Du coup, quand je suis tombé sur LinuxDAW.org , j'ai eu un petit moment d'émotion. C'est un catalogue visuel et bien foutu qui répertorie plein de plugins audio disponibles sous Linux : VST2, VST3, CLAP, LV2, standalone, et même des modules VCV Rack. Le site a été créé par fractalf (le code est sur Codeberg ) qui explique l'avoir créé simplement parce qu'aucun des sites existants ne répondait vraiment à ses besoins quand il a switché vers Linux.

Et ce qui me plaît ici, c'est que ce n'est pas un site puriste open source. Y'a du FOSS bien sûr (et un filtre dédié pour les trouver), mais aussi les plugins commerciaux de u-he, Toneboosters, Kazrog et compagnie. Parce que oui, de plus en plus d'éditeurs supportent Linux nativement maintenant.

Après c'est vrai qu'en cochant le filtre FOSS, on voit nettement la différence de qualité d'interface avec les plugins payants. Vous le savez car je m'en plains souvent, mais niveau design, les projets libres ont encore du chemin à faire... Mais bon, ça reste fonctionnel et gratuit, donc on va pas cracher dessus.

Bref, si vous êtes musicien et que vous envisagez de passer sous Linux (ou si vous y êtes déjà et que vous cherchez des outils), LinuxDAW.org c'est exactement ce qu'il vous faut. Y'a plus quà digger tout ça ! Et si ça vous amusez, vous pouvez même contribuer en ajoutant des plugins qui manqueraient au catalogue.

  •  

LinuxDAW - Le catalogue qui prouve que faire du son sous Linux c'est enfin cool

Ceux qui ont déjà essayé de faire de la musique sous Linux savent de quoi je parle. Configurer JACK, gérer les latences ALSA, prier pour que le plugin VST fonctionne... C'était un peu l'enfer, non ? Perso, j'ai abandonné plusieurs fois avant que PipeWire vienne tout simplifier.

Du coup, quand je suis tombé sur LinuxDAW.org , j'ai eu un petit moment d'émotion. C'est un catalogue visuel et bien foutu qui répertorie plein de plugins audio disponibles sous Linux : VST2, VST3, CLAP, LV2, standalone, et même des modules VCV Rack. Le site a été créé par fractalf (le code est sur Codeberg ) qui explique l'avoir créé simplement parce qu'aucun des sites existants ne répondait vraiment à ses besoins quand il a switché vers Linux.

Et ce qui me plaît ici, c'est que ce n'est pas un site puriste open source. Y'a du FOSS bien sûr (et un filtre dédié pour les trouver), mais aussi les plugins commerciaux de u-he, Toneboosters, Kazrog et compagnie. Parce que oui, de plus en plus d'éditeurs supportent Linux nativement maintenant.

Après c'est vrai qu'en cochant le filtre FOSS, on voit nettement la différence de qualité d'interface avec les plugins payants. Vous le savez car je m'en plains souvent, mais niveau design, les projets libres ont encore du chemin à faire... Mais bon, ça reste fonctionnel et gratuit, donc on va pas cracher dessus.

Bref, si vous êtes musicien et que vous envisagez de passer sous Linux (ou si vous y êtes déjà et que vous cherchez des outils), LinuxDAW.org c'est exactement ce qu'il vous faut. Y'a plus qu'à digger tout ça ! Et si ça vous amuse, vous pouvez même contribuer en ajoutant des plugins qui manqueraient au catalogue.

  •  

SpotiFLAC - Comment fonctionne vraiment le piratage audio lossless

Si vous traînez dans les coins sombres de GitHub, vous êtes peut-être tombé sur SpotiFLAC, un outil qui promet de récupérer vos playlists Spotify en qualité FLAC.

Encore un truc qui va faire grincer des dents...

J'ai décortiqué le code source de ce projet pour comprendre techniquement comment c'était possible. Avec ce qu'a sorti Anna's Archive il y a quelques jours, j'étais curieux et je me suis dit que ça utilisait peut-être les mêmes ficelles. Alors j'ai récupéré les sources sur Github, et j'ai regardé ça d'un peu plus près.

Déjà, premier constat, SpotiFLAC ne cracke rien du tout. L'outil ne contourne pas directement le DRM de Spotify (qui, rappelons-le, proposait uniquement de l'Ogg Vorbis jusqu'en septembre 2025). Ce qu'il fait, en fait, c'est qu'il utilise l'API Spotify via des identifiants placés directement dans le code (oups) pour récupérer les métadonnées des morceaux, notamment les codes ISRC (International Standard Recording Code) qui servent à identifier chaque enregistrement.

Ensuite, via l'API song.link (un service légitime qui permet de trouver un morceau sur différentes plateformes), l'outil tente de retrouver le même morceau sur Tidal, Qobuz ou Amazon Music. Et c'est là que ça devient rigolo puisque le code contient également en dur des identifiants OAuth Tidal, et surtout des URLs vers des API tierces hébergées sur des domaines comme qqdl.site, yeet.su ou doubledouble.top.

Ces services tiers, c'est eux qui font le sale boulot. On ne sait pas exactement comment ils fonctionnent (comptes premium partagés ? Failles API ? Tokens détournés ?), mais SpotiFLAC n'est en réalité qu'un joli frontend qui leur envoie des requêtes et récupère des liens de téléchargement direct.

Niveau légalité, c'est donc évidemment un no-go complet, car utiliser des identifiants non autorisés, contourner des mesures de protection, télécharger du contenu protégé... Ça coche pas mal de cases du DMCA aux États-Unis et des directives européennes sur le droit d'auteur. Et non, le fait que vous ayez un abonnement Spotify ne change rien, malheureusement...

Je vous rappelle que Spotify a ENFIN lancé son audio lossless en septembre après plus de 4 ans d'attente depuis l'annonce de 2021 (fallait être patient... groumpf !). C'est donc du streaming FLAC intégré à l'app pour les abonnés Premium (dans la plupart des pays), ce qui veut dire qu'il n'y a plus vraiment de raison de pirater pour écouter vos playlists en haute qualité.

Puis si vous voulez aller plus loin dans le hi-res ou posséder vos fichiers, vous avez Qobuz qui existe depuis 1000 ans, qui coûte autour de 15€/mois, Tidal à environ 11€/mois, ou encore Apple Music qui propose du Spatial Audio et du lossless inclus dans l'abo standard. Bref, les alternatives légales y'en a, donc j'avoue que passer par ce genre de service c'est pas ouf... Et si c'est une question de fric, parce qu'on n'a pas tous les moyens, y'a toujours ce bon vieux torrent.

Après c'est quand même mieux je trouve d'aller choper directement vos albums sur Bandcamp ou sur les sites des artistes, ce qui leur permet de toucher une rémunération plus correcte... Puis ça vous permet de choper de vrais fichiers FLAC à vous. Ou alors vous achetez vos albums et vous les rippez pour ensuite sortir du FLAC avec XLD par exemple . Mais pirater via ce genre d'outils je vous conseille pas... Je préfèrerai cent fois mieux un outil qui exploiterait une faiblesse connue pour récupérer le fichier source, un peu comme on peut le faire avec Youtube-DL pour YouTube, que ce truc bizarre qui utilisent des identifiants premium tombés du camion via des sites proxy qui se trouvent on ne sait où...

Vous ne savez pas ce qu'il y a derrière, donc méfiance !

  •  

SpotiFLAC - Comment fonctionne vraiment le piratage audio lossless

Si vous traînez dans les coins sombres de GitHub, vous êtes peut-être tombé sur SpotiFLAC, un outil qui promet de récupérer vos playlists Spotify en qualité FLAC.

Encore un truc qui va faire grincer des dents...

J'ai décortiqué le code source de ce projet pour comprendre techniquement comment c'était possible. Avec ce qu'a sorti Anna's Archive il y a quelques jours, j'étais curieux et je me suis dit que ça utilisait peut-être les mêmes ficelles. Alors j'ai récupéré les sources sur Github, et j'ai regardé ça d'un peu plus près.

Déjà, premier constat, SpotiFLAC ne cracke rien du tout. L'outil ne contourne pas directement le DRM de Spotify (qui, rappelons-le, proposait uniquement de l'Ogg Vorbis jusqu'en septembre 2025). Ce qu'il fait, en fait, c'est qu'il utilise l'API Spotify via des identifiants placés directement dans le code (oups) pour récupérer les métadonnées des morceaux, notamment les codes ISRC (International Standard Recording Code) qui servent à identifier chaque enregistrement.

Ensuite, via l'API song.link (un service légitime qui permet de trouver un morceau sur différentes plateformes), l'outil tente de retrouver le même morceau sur Tidal, Qobuz ou Amazon Music. Et c'est là que ça devient rigolo puisque le code contient également en dur des identifiants OAuth Tidal, et surtout des URLs vers des API tierces hébergées sur des domaines comme qqdl.site, yeet.su ou doubledouble.top.

Ces services tiers, c'est eux qui font le sale boulot. On ne sait pas exactement comment ils fonctionnent (comptes premium partagés ? Failles API ? Tokens détournés ?), mais SpotiFLAC n'est en réalité qu'un joli frontend qui leur envoie des requêtes et récupère des liens de téléchargement direct.

Niveau légalité, c'est donc évidemment un no-go complet, car utiliser des identifiants non autorisés, contourner des mesures de protection, télécharger du contenu protégé... Ça coche pas mal de cases du DMCA aux États-Unis et des directives européennes sur le droit d'auteur. Et non, le fait que vous ayez un abonnement Spotify ne change rien, malheureusement...

Je vous rappelle que Spotify a ENFIN lancé son audio lossless en septembre après plus de 4 ans d'attente depuis l'annonce de 2021 (fallait être patient... groumpf !). C'est donc du streaming FLAC intégré à l'app pour les abonnés Premium (dans la plupart des pays), ce qui veut dire qu'il n'y a plus vraiment de raison de pirater pour écouter vos playlists en haute qualité.

Puis si vous voulez aller plus loin dans le hi-res ou posséder vos fichiers, vous avez Qobuz qui existe depuis 1000 ans, qui coûte autour de 15€/mois, Tidal à environ 11€/mois, ou encore Apple Music qui propose du Spatial Audio et du lossless inclus dans l'abo standard. Bref, les alternatives légales y'en a, donc j'avoue que passer par ce genre de service c'est pas ouf... Et si c'est une question de fric, parce qu'on n'a pas tous les moyens, y'a toujours ce bon vieux torrent.

Après c'est quand même mieux je trouve d'aller choper directement vos albums sur Bandcamp ou sur les sites des artistes, ce qui leur permet de toucher une rémunération plus correcte... Puis ça vous permet de choper de vrais fichiers FLAC à vous. Ou alors vous achetez vos albums et vous les rippez pour ensuite sortir du FLAC avec XLD par exemple . Mais pirater via ce genre d'outils je vous conseille pas... Je préfèrerai cent fois mieux un outil qui exploiterait une faiblesse connue pour récupérer le fichier source, un peu comme on peut le faire avec Youtube-DL pour YouTube, que ce truc bizarre qui utilisent des identifiants premium tombés du camion via des sites proxy qui se trouvent on ne sait où...

Vous ne savez pas ce qu'il y a derrière, donc méfiance !

  •  

Organic Maps - Le GPS open source qui ne vous flique pas

Vous utilisez Google Maps pour vos balades ou vos trajets en bagnole, comme tout le monde. Sauf que vous savez aussi bien que moi ce que ça implique... Google qui sait où vous êtes, où vous allez, à quelle heure vous bougez, et combien de temps vous passez chez votre nouvelle voisine (pas assez longtemps à son goût).

Mais bonne nouvelle les amis, y'a une alternative qui existe depuis un moment et qui mérite vraiment qu'on s'y intéresse. Ça s'appelle Organic Maps et c'est exactement ce que son nom suggère : des cartes propres, sans pesticides publicitaires ni tracking chimique.

Le principe est simple. Vous téléchargez les cartes des régions qui vous intéressent, et ensuite vous pouvez naviguer en mode 100% offline. Pas besoin de réseau, pas de connexion data qui se vide à l'étranger, rien. Votre téléphone devient un vrai GPS autonome, comme au bon vieux temps des Tomtom, mais en mieux.

Côté vie privée, c'est le jour et la nuit avec les apps classiques. Zéro pub, zéro tracking et surtout l'app a été vérifiée par Exodus Privacy Project et TrackerControl, donc c'est pas juste du blabla marketing. Même pas besoin de créer un compte pour l'utiliser, vous installez et hop c'est parti.

Pour les randonneurs et cyclistes, c'est là que ça devient vraiment sympa puisqu'Organic Maps affiche les courbes de niveau, les profils d'élévation, les sentiers de rando et les pistes cyclables. Y'a même un mode navigation turn-by-turn avec guidage vocal, et depuis 2024 le support Android Auto est dispo pour l'utiliser en voiture.

Les cartes viennent d'OpenStreetMap, donc c'est collaboratif et parfois plus à jour que ce qu'on trouve chez Google, surtout pour les petits chemins et les POI un peu obscurs. Perso, j'ai déjà trouvé des trucs sur OSM qui n'existaient même pas sur Maps, genre des fontaines d'eau potable en pleine montagne ou des refuges paumés.

L'app est dispo sur iOS , Android (y compris sur F-Droid pour les allergiques au Play Store), et même sur Linux en Flatpak . C'est open source sous licence Apache 2.0, donc vous pouvez aller fouiller le code si ça vous chante. Le projet est financé par des dons et des fondations comme NLnet, et pas par la revente de vos données de localisation.

Après la recherche est moins puissante que Google Maps, ce qui est normal vu qu'ils ont pas des milliards à claquer en IA. Et les infos de trafic en temps réel, bah y'en a pas. Mais pour de la rando, du vélo, ou même des trajets quotidiens quand on connaît un peu le coin, c'est largement suffisant.

Bref, si vous en avez marre de sentir le regard de Google dans votre dos à chaque déplacement, ou si vous voulez juste une app GPS qui marche sans réseau, foncez sur Organic Maps . C'est gratuit, et ça fait le taf !

  •