Aprés une annonce au CES 2025, LG dévoile le 32U990A, un moniteur 6K de 31,5 pouces présenté comme une vitrine technologique. Avec Thunderbolt 5, HDR600, gamut colorimétrique étendu et design premium, il vise les créateurs et professionnels exigeants. Mais à près de 1300 dollars, faut-il y voir un outil indispensable ou un luxe réservé à une niche ?
LG 32U990A : Une dalle 6K qui cible les pros de l’image
Le LG 32U990A affiche une résolution impressionnante de 6144 x 3456 pixels sur une diagonale de 31,5 pouces. Sa dalle Nano IPS Black offre une couverture de 99,5 % Adobe RGB et 98,5 % DCI-P3 avec une profondeur de 10 bits. Un atout majeur pour les photographes, monteurs vidéo et designers qui ont besoin d’une colorimétrie fidèle et d’une précision extrême.
Le LG 32U990A se distingue par ses bordures fines et un design épuré Crédit image : ITHome.com
HDR600 mais sans miniLED
Le moniteur est certifié VESA DisplayHDR 600, avec une luminosité maximale de 600 nits en HDR et 450 nits en SDR. Un chiffre flatteur mais qui cache une limite : l’absence de rétroéclairage par zones ou miniLED. Résultat, le contraste et le rendu HDR risquent de paraître en retrait face à certains concurrents plus avancés.
Le LG 32U990A propose un pied ergonomique Crédit image : ITHome.com
Thunderbolt 5, la carte maîtresse
Le 32U990A est le premier écran au monde à intégrer Thunderbolt 5. Cette connexion unique permet de transmettre simultanément le flux vidéo 6K, les données à 80 Gb/s et l’alimentation jusqu’à 96 W pour un ordinateur portable.
En pratique, un seul câble suffit pour transformer l’écran en hub. Plusieurs ports USB-C, HDMI et DisplayPort complètent la connectique pour brancher périphériques et disques externes sans contrainte.
Design et ergonomie travaillés
Avec ses bords fins et son pied circulaire, le LG 32U990A reprend un style sobre et élégant qui rappelle l’univers Apple. L’ergonomie est au rendez-vous avec réglage en hauteur, inclinaison, pivot et rotation verticale. Ce souci du détail a valu à l’écran des récompenses comme les CES Innovation Awards et les iF Design Awards.
Un prix qui interroge
LG n’a pas encore confirmé le tarif officiel, mais les premières estimations tournent autour de 1300 dollars, soit environ 1500 euros. Bien moins cher que l’Apple Pro Display XDR vendu 2500 dollars, mais encore élevé pour un écran sans miniLED ni fréquence élevée. Le 32U990A semble avant tout pensé pour les créateurs exigeants plutôt que pour le grand public ou les joueurs.
Deux déclinaisons du 6K : LG face à Asus
LG n’est pas seul sur le créneau. Asus prépare aussi son moniteur 6K, le ProArt PA32QCV, pensé comme alternative directe au 32U990A. Les deux modèles visent les créateurs exigeants et partagent une dalle de 32 pouces au format 6K, mais avec quelques différences notables.
Asus ProArt PA32QCV
Le LG 32U990A affiche 6144 x 3456 pixels grâce à une dalle Nano IPS offrant un contraste typique de 2000:1. De son côté, l’Asus PA32QCV utilise une dalle 6016 x 3384 pixels provenant d’un autre fournisseur, avec un contraste annoncé à 3000:1. Dans les deux cas, la couverture atteint environ 98 % du DCI-P3 et la surface est mate pour limiter les reflets.
LG 32U990A
Côté connectique, LG prend l’avantage avec Thunderbolt 5, qui apporte des débits doublés et une meilleure polyvalence. Asus reste sur Thunderbolt 4, suffisant pour gérer la 6K mais moins ambitieux sur le long terme.
Avec des tarifs attendus autour de 1200 à 1500 euros, le choix entre les deux pourrait bien se jouer sur la préférence entre contraste supérieur chez Asus ou connectivité plus moderne chez LG.
Un moniteur qui alimente le débat
Le LG 32U990A impressionne par sa définition et sa connectique inédite. Mais son positionnement soulève des questions : un HDR limité peut-il convaincre à ce prix ? Thunderbolt 5 est-il réellement un argument décisif alors que peu de machines en sont équipées ? Et surtout, à qui s’adresse vraiment un écran aussi spécialisé ? Autant d’interrogations qui font du 32U990A un produit à la fois fascinant et controversé.
Merci à vous de suivre le flux Rss de www.sospc.name.
On a enfin une solution pour sortir de cette situation absurde !
Mes divers tests l'ont confirmé : on peut migrer n'importe quelle version de Windows (64 bits) vers Windows 10 LTSC 2021 tout en gardant tous ses programmes.
La solution que je vous conseille est entièrement automatisée, pas grand chose à faire = peu de risque de se tromper !
Si vous avez un dual boot pensez à le paramétrer afin que par défaut le PC démarre sur l'OS à migrer.
Pensez bien évidemment à sauvegarder par sécurité votre Système au préalable,
et avant de vous lancer : faites le ménage, la migration n'en sera que plus courte !
Je vous propose une vidéo et les captures d'écran correspondantes de l'une de mes migrations.
C’est fou quand même qu’en 2025, les débogueurs de base comme GDB et LLDB soient toujours aussi pénibles à utiliser qu’il y a 20 ans. Par exemple faut taper x/30gx $rsp pour examiner la pile et obtenir un bloc de nombres hexadécimaux sans contexte. C’est donc super chiant pour comprendre tout ce qui se passe dans votre programme, sans être ultra concentré (et donc ultra fatigué à la fin de la journée).
Hé bien c’est exactement ce que s’est dit Zach Riggle quand il a commencé à bosser sur
pwndbg
(prononcez “/paʊnˈdiˌbʌɡ/”, oui comme “pound debug”). L’idée c’était de créer un plugin qui transforme ces débogueurs préhistoriques en véritables outils modernes pour les reverse engineers et les développeurs d’exploits.
Le truc avec pwndbg, c’est qu’il ne cherche pas à réinventer la roue, non, bien au contraire, puisqu’il s’appuie sur une architecture Python modulaire afin d’ajouter une couche d’intelligence par-dessus GDB et LLDB. Concrètement, ça veut dire que vous gardez toute la puissance de ces débogueurs, mais avec une interface qui ne vous donne pas envie de jeter votre clavier par la fenêtre, avant de vous y jeter vous-même ^^.
Pour l’installer, quelques lignes suffisent et hop vous aurez un environnement de debugging qui ferait pâlir d’envie les outils commerciaux.
Si vous êtes sur Linux ou macOS, la méthode la plus simple c’est la ligne magique avec curl qui va tout faire pour vous :
curl -qsL 'https://install.pwndbg.re' | sh -s -- -t pwndbg-gdb
Les utilisateurs de Mac peuvent aussi passer par Homebrew avec un simple
brew install pwndbg/tap/pwndbg-gdb
Et pour les hipsters des gestionnaires de paquets, y’a même une option avec Nix qui vous permet de tester l’outil sans rien installer en dur sur votre système. Maintenant, si vous préférez la méthode old school avec les packages classiques, pas de souci !
Récupérez le package qui correspond à votre distro sur la page des releases et installez-le avec votre gestionnaire de paquets habituel et en deux minutes chrono, vous avez votre environnement de debug GDB boosté aux stéroïdes avec toutes les fonctionnalités de pwndbg pour analyser vos binaires comme un chef.
Ensuite, que vous fassiez du débug de kernel Linux, du reverse sur des binaires ARM ou RISC-V, ou que vous développiez des exploits pour des systèmes embarqués, pwndbg saura s’adapte. Il gère même le debugging avec QEMU pour l’émulation user-space. Par contre, petit bémol pour les utilisateurs macOS, le debugging natif de binaires Mach-O n’est pas supporté avec GDB… Pour le moment, seul le debugging distant ELF fonctionne.
Un des aspects les plus cools de pwndbg, c’est son approche “consistency first”. Que vous utilisiez GDB ou LLDB, l’expérience reste cohérente. Vous pouvez donc switcher entre les deux débogueurs sans avoir à réapprendre tous les raccourcis et commandes. Bon, le support LLDB est encore expérimental et peut contenir quelques bugs, mais ça progresse vite.
Les développeurs low-level, les hardware hackers et les chercheurs en sécurité sont les premiers à adore pwndbg parce qu’au lieu de vous noyer sous des informations inutiles, il affiche exactement ce dont vous avez besoin à savoir le contexte des registres, l’état de la pile, le code désassemblé avec coloration syntaxique, et même une vue hexdump digne de ce nom (oui, en 2025, les débogueurs de base n’ont toujours pas ça par défaut).
Le projet est sous licence MIT, donc vous pouvez l’utiliser dans n’importe quel contexte, commercial ou non et si vous voulez contribuer, comme d’hab avec la plupart des projets que je vous présente, la porte est grande ouverte.
Pour ceux qui veulent se lancer, il y a même un
cheatsheet complet
à imprimer et garder sous la main. Parce que bon, même avec une interface aux petits oignons, un bon aide-mémoire reste toujours utile quand on débugge des trucs complexes à 3h du matin.
Au final,
pwndbg
c’est la preuve qu’on n’a pas toujours besoin de réinventer complètement un outil pour le rendre génial. Parfois, il suffit juste d’ajouter la bonne couche d’abstraction au bon endroit.
Encore bravo à Zach Riggle et son équipe ont vraiment tapé dans le mille !!
Connaissez-vous
PowerMail
, le spécialiste français de l’hébergement mail pour les pro ? Peut-être pas, mais on va remédier à ça, car derrière PowerMail, il n’y a pas une multinationale avec des milliers d’ingénieurs, mais une petite équipe française qui a décidé de créer sa propre technologie email de zéro. Et ça, dans le contexte actuel c’est assez courageux.
Dans un monde dominé par Google et Microsoft, ces gars-là développent tranquillement leur propre serveur mail depuis les Pays de la Loire. Et ils ne font pas semblant puisque PowerMail héberge aujourd’hui des dizaines de milliers de boîtes, ce qui représente 25 000 utilisateurs, 91 millions de messages, et plus de 58 To de data, avec une clientèle qui va de la PME aux collectivités. Pas mal pour une alternative 100% française lancée en 2007, à une époque où tout le monde basculait déjà vers les solutions américaines.
Et leur approche technique est très osée, puisqu’au lieu de se contenter d’utiliser des solutions existantes comme Exchange ou Zimbra comme la plupart des hébergeurs mail, eux ont développé leur propre serveur POP/IMAP/SMTP. Et ça, ça demande un sacré niveau en programmation et une vision à long terme, parce que créer un serveur mail from scratch, le personnaliser et l’optimiser aux petits oignons… c’est pas donné à tout le monde. Mais c’est aussi ce qui leur permet d’avoir la main sur absolument tout et de ne pas dépendre d’un éditeur tiers.
D’un point de vue infrastructure, ils ont également fait le choix de la redondance maximale, et c’est là qu’on voit qu’ils ne plaisantent pas. Chaque client dispose ainsi de deux serveurs synchronisés en temps réel, dans des datacenters différents et chez des opérateurs distincts. Comme ça, si l’un tombe, l’autre prend le relais automatiquement. Détection de panne en ~1 minute, bascule DNS en ~1 minute, et un taux de dispo annoncé à 99,99%. Et contrairement à certains qui annoncent des chiffres au doigt mouillé, eux ont un vrai monitoring externe avec UptimeRobot qui certifie ces stats. Bref, du solide.
Sur la sécurité, c’est carré aussi puisqu’ils supportent SPF/DKIM/DMARC (ce qui devrait être la base en 2025, mais vous seriez surpris…), antivirus, et même une double authentification (2FA) pour verrouiller l’admin côté web.
Mais là où
PowerMail
se démarque vraiment, c’est sur l’interface d’administration. Certes, c’est à l’ancienne niveau design (ne vous attendez pas à du Material Design ou des animations partout) mais c’est clair, précis et accessible. Tout paraît simple à configurer et vous avez tout sous la main.
En testant leur espace client, je comprends mieux maintenant pourquoi les DSI l’apprécient. Quand on gère des centaines de boîtes, on veut de l’efficacité, pas du bling-bling.
Au travers de cette interface, vous avez donc trois niveaux d’accès : administrateur général, gestionnaire de domaine, et utilisateur final. Chacun peut ainsi configurer ses propres règles antispam, ses redirections, ses répondeurs automatiques. C’est ce degré de contrôle granulaire qui fait la différence quand vous gérez plusieurs centaines de comptes. Et franchement, même Microsoft 365 ne fait pas beaucoup mieux, et cela pour un prix bien supérieur.
Concernant l’antispam, ils ont aussi sorti l’artillerie lourde puisque leur moteur maison combine plus d’une vingtaine de critères : bayésien, RBL, géolocalisation, analyse de la structure et du respect SMTP, filtrage par langue/alphabet, détection des newsletters, Google Safe Browsing/URIBL pour les liens, greylisting, analyse de l’heure/jour d’envoi… Et le top, c’est vraiment la quarantaine centralisée comme ça, au lieu d’avoir les spams éparpillés dans chaque boîte, tout remonte vers une boîte unique sous contrôle de l’admin (débannir en un clic, supprimer direct ce qui vient d’une liste noire, etc.).
C’est du bon sens, mais étonnamment, peu de solutions le proposent aussi simplement. Et cadeau bonux, vous pouvez recevoir également des rapports antispam périodiques pour vérifier ce qui a été bloqué.
Côté fonctionnalités, PowerMail intègre aussi des trucs qu’on ne voit pas ailleurs ou qu’on ne voit qu’en SaaS séparé à prix d’or. Je pense par exemple à l’e-mail recommandé avec accusé PDF signé (*LRAR dans l’objet), la signature électronique de documents par les destinataires (*SIGN), l’envoi différé côté serveur (*DELAI=…) (donc ça marche même si votre client mail est fermé), la copie carbone individuelle (*INDIV) pour du mail‑merge propre, l’envoi de fax par mail (*FAX=…) (oui, certains secteurs en ont encore besoin), les dossiers IMAP partagés, l’archivage automatique, et les alertes SMS sur réception de messages importants (ponctuelles ou récurrentes, avec mots‑clés/expéditeurs).
Essayez de trouver tout ça chez un concurrent au même prix.
Et pour les pièces jointes, pas de prise de tête puisque vous pouvez y aller jusqu’à 1 Go par envoi, avec détachement automatique au‑delà d’un seuil configurable et lien de téléchargement en haut du mail pour le destinataire (avec accusé quand il récupère les fichiers). Pratique, et ça évite de saturer les boîtes de tout le monde !
Ils proposent également un système de calendriers et contacts (CalDAV / CardDAV) pour rester en synchro entre PC et smartphones, comme sur un Exchange mais en plus ouvert. Et le webmail, c’est du Roundcube, régulièrement mis à jour. Pas le plus sexy, certes, mais c’est fonctionnel et éprouvé.
Bref, ils partent des vrais besoins métier de leurs clients plutôt que de chercher à faire le buzz avec la dernière techno à la mode. Côté références, on croise notamment TotalEnergies, 4Murs, les Pompiers de Paris, la Région Bretagne et du secteur régulé avec les Notaires (ADSN) qui ont signé une convention cette année. Tous ont comme point commun un besoin fort de maîtriser leurs communications sans dépendre d’un GAFAM et sans voir leurs données partir aux États-Unis.
Car oui, la souveraineté numérique, c’est pas juste un argument marketing ici. Vos données restent stockées à 100% en France, pas de Cloud Act, pas d’IA qui scanne vos mails pour vous proposer de la pub. Et pour le support, c’est par e‑mail 7j/7 et téléphone du lundi au samedi (9h-20h sur un numéro non surtaxé). Essayez d’avoir quelqu’un au téléphone chez Google, bon courage.
Maintenant, les tarifs !! Et c’est là que ça devient vraiment intéressant.
Pour les particuliers, ils proposent un service e‑mail gratuit en @powermail.fr avec 3 Go de stockage. C’est une offre réservée aux particuliers en France, pas de support, et certaines fonctions pro ne sont pas incluses (fax, alertes SMS, signature électronique, CalDAV/CardDAV). Mais pour un mail perso souverain et gratuit, c’est cadeau !
Et pour les entreprises, on est par contre sur du mutualisé à la carteà partir de 0,40 € HT / utilisateur / mois (oui, 40 centimes !), et du cluster dédié (2 serveurs privés en temps réel, 2 DC/2 opérateurs) sur devis. Leur priorité, clairement, c’est donc la qualité de service plus que les gros volumes. Et à ce prix-là, franchement, pourquoi s’en priver ?
Alors bien sûr, tout n’est pas parfait. L’interface mériterait un petit lifting, il manque quelques fonctions modernes (Ils ont une API mais elle n’est pas REST, pas d’app mobile dédiée), et ils ne peuvent certes pas rivaliser avec tout l’écosystème Office 365 ou Google Workspace. Mais pour du mail qui fonctionne à 100%, avec des fonctions qu’on ne trouve pas ailleurs, hébergé en France, avec un vrai support, le tout à un prix défiant toute concurrence…
PowerMail
c’est l’exemple parfait de ce qu’on peut faire avec une équipe technique compétente et une vision claire.
Et dans un secteur complètement dominé par les géants américains, je trouve qu’ils arrivent plutôt bien à proposer une alternative crédible et souveraine tout en développant leur propre stack technologique. Pas de bullshit marketing, pas de buzzwords, juste un service qui fait le job. Et ça, pour une boîte française de taille humaine qui tient tête aux mastodontes depuis 14 ans, c’est plutôt remarquable.
Bref, si vous cherchez une alternative aux GAFAM pour vos mails pro,
PowerMail
mérite vraiment qu’on s’y intéresse.
60 millions de documents, c’est ce que
LEANN
peut indexer sur votre petit laptop sans faire exploser votre SSD. C’est ouf non ? Car pendant que tout le monde se bat pour avoir le plus gros modèle d’IA avec des milliards de paramètres, des chercheurs de
UC Berkeley
ont décidé de prendre le problème à l’envers en compressant tout ça pour que ça tienne sur un Macbook Air ou équivalent.
L’idée est tellement… au lieu de stocker tous les embeddings vectoriels (ces représentations mathématiques qui permettent à l’IA de comprendre vos documents), LEANN les recalcule à la volée quand vous en avez besoin. C’est comme si au lieu de garder 10 000 photos de votre chat sous tous les angles, vous gardiez juste une photo + un algorithme capable de reconstituer les autres instantanément.
Le truc vraiment fou, c’est que cette approche réduit l’espace de stockage de 97% par rapport aux solutions classiques comme Pinecone ou Qdrant. Pour vous donner une idée, là où une base vectorielle traditionnelle aurait besoin de 100 Go pour indexer vos documents, LEANN s’en sort avec 3 Go seulement. Et selon
les benchmarks publiés
, ça maintient 90% de précision avec des temps de réponse sous les 2 secondes.
Concrètement, LEANN utilise une technique qu’ils appellent
“graph-based selective recomputation with high-degree preserving pruning”
(oui, les chercheurs adorent les noms à rallonge). En gros, au lieu de parcourir tous les vecteurs pour trouver une correspondance, le système navigue dans un graphe optimisé qui ne garde que les connexions les plus importantes. C’est un peu comme utiliser Waze au lieu de vérifier toutes les routes possibles pour aller quelque part.
L’installation est d’une simplicité déconcertante :
Et hop, avec ça vous pouvez indexer vos PDFs, vos emails Apple Mail, votre historique Chrome, vos conversations WeChat, et même votre codebase entière. Le système est d’ailleurs assez malin pour comprendre la structure du code (fonctions, classes, méthodes) plutôt que de bêtement découper le texte tous les 500 caractères.
Et LEANN s’intègre directement avec Claude Code via un serveur MCP. Pour ceux qui utilisent Claude Code (coucou les Vibe Coders, on est ensemble !! ^^), vous savez que le plus gros problème c’est qu’il fait toujours des grep qui ne trouvent presque jamais rien. Alors qu’avec LEANN, une seule ligne de config et boom, vous avez de la recherche sémantique intelligente dans votre IDE.
Les cas d’usage sont d’ailleurs assez dingues puisque certains l’utilisent pour créer leur propre second cerveau qui indexe tout ce qu’ils ont lu, écrit ou consulté. D’autres s’en servent en entreprise pour faire de la recherche dans des bases documentaires sensibles sans rien envoyer dans le cloud. Y’a même des développeurs qui l’utilisent pour naviguer dans des codebases monstrueuses de millions de lignes. Moi je suis en train de le dompter pour lui faire bouffer tout le contenu de mon site et voir ce que je peux en tirer…
Le projet arrive donc pile au bon moment pour moi, mais aussi pour tous ceux qui s’inquiètent de leur vie privée et des données qui partent chez OpenAI ou Google. Avoir une solution 100% locale qui tourne sur votre machine, c’est top surtout dans des domaines comme la santé ou la finance où envoyer des données dans le cloud, c’est juste pas une option.
Et les chercheurs de Berkeley ne se sont pas arrêtés là puisqu’ils ont aussi intégré du support multilingue, donc vous pouvez chercher en français dans des documents en anglais et vice versa. Et cerise sur le gâteau, tout est open source sous licence MIT, donc vous pouvez tripatouiller le code comme bon vous semble.
Évidemment, LEANN a ses limites car le recalcul à la volée consomme plus de CPU que de simplement lire des vecteurs pré-calculés. Donc sur une machine vraiment faiblarde, ça peut ramer un peu. Et pour des cas d’usage où vous avez besoin de réponses en millisecondes (genre un moteur de recherche public), c’est peut-être pas l’idéal. Mais franchement, pour 97% d’économie de stockage et une vie privée totale, c’est un compromis que beaucoup sont prêts à faire. Surtout quand on sait que le prochain macOS va probablement embarquer de l’IA partout et qu’on aimerait bien garder nos données pour nous.
Voilà, pour ceux qui veulent creuser, le
papier de recherche
détaille toute la théorie derrière. Les benchmarks notés dans ce papier montrent même que LEANN bat certaines solutions cloud sur des requêtes complexes, tout en tournant sur un laptop à 2000 euros au lieu d’un cluster à 100 000 balles.
Bref, LEANN c’est l’exemple parfait qu’on n’a pas toujours besoin de plus de puissance ou plus de stockage. Suffit juste d’être plus malin !
Ça y est, c’est la rentrée et votre YouTubeur préféré a sorti 15 vidéos pendant vos vacances… Ouin !!! va tout falloir rattraper ! Ou pire, le gars a supprimé ses anciennes vidéos sans prévenir ! Heureusement, c’est le genre de problème que
Subarr
vient résoudre, et de manière plutôt chouette, vous allez voir.
L’idée derrière Subarr, c’est en fait de transposer la philosophie de Sonarr (qui automatise le téléchargement de séries TV) au monde chaotique de YouTube. Le développeur Derek Antrican a d’ailleurs tellement poussé le concept qu’il a même repris l’interface utilisateur de Sonarr pour que les habitués s’y retrouvent immédiatement. Et après avoir hésité avec le nom “YouTubarr”, il a même opté pour “Subarr”, un clin d’œil aux flux RSS sur lesquels repose tout le système.
Le principe est donc très simple puisqu’au lieu de scraper YouTube comme un bourrin (ce qui vous vaudrait un ban rapide), Subarr utilise les flux RSS officiels que YouTube met à disposition pour chaque playlist et chaîne. Ces flux sont limités aux 15 derniers items, mais Subarr construit sa propre base de données au fil du temps, en gardant une trace de tout ce qui passe. Une fois qu’une nouvelle vidéo est détectée, vous pouvez alors déclencher n’importe quelle action comme envoyer une notification Discord, lancer yt-dlp pour télécharger la vidéo, ou même exécuter un script custom de votre création.
Contrairement à des solutions comme
TubeArchivist
qui nécessite 4GB de RAM minimum, Subarr est très léger et peut tourner tranquillement sur un Raspberry Pi avec quelques centaines de MB. Le développeur insiste d’ailleurs sur ce point : Il l’a voulu volontairement minimaliste ! Pas de gestion de métadonnées complexes, pas d’interface de lecture intégrée, juste de la surveillance et du déclenchement d’actions.
L’installation se fait en trois commandes :
git clone https://github.com/derekantrican/subarr.git
cd subarr
npm install && npm run start-server
Boom, vous avez votre instance qui tourne sur le port 3000. Par contre, attention, il n’y a aucune authentification intégrée, donc si vous l’exposez sur internet, pensez à mettre un reverse proxy avec auth devant, ou utilisez quelque chose comme Cloudflare Tunnel.
Certains l’utilisent pour archiver automatiquement les chaînes de vulgarisation scientifique avant qu’elles ne disparaissent. D’autres s’en servent pour créer leur propre bibliothèque de tutoriels techniques hors ligne. Et puis il y a ceux qui veulent juste être sûrs de ne jamais rater un épisode de leur podcast vidéo favori, même quand ils partent en vadrouille sans connexion.
Le projet a quand même ses limites, qu’il faut garder en tête. D’abord, si Subarr est down pendant que 20 vidéos sont publiées sur une chaîne, vous allez en louper 5 (rappelez-vous, les flux RSS sont limités à 15 items). Ensuite, c’est vraiment conçu pour du monitoring de nouveautés, pas pour aspirer l’intégralité d’une chaîne existante. Pour ça,
yt-dlp en ligne de commande
reste plus adapté.
Voilà, entre
ArchiveBox
qui archive tout le web, les diverses interfaces web pour yt-dlp, et maintenant Subarr qui fait le pont avec l’univers *arr, on a vraiment l’embarras du choix maintenant pour construire son propre “Netflix personnel” alimenté par YouTube.
Et pour ceux qui veulent aller plus loin, il est possible de synchroniser Subarr avec ytsubs.app pour importer automatiquement toutes vos souscriptions YouTube. Vous pouvez aussi utiliser des regex pour filtrer le contenu (pratique pour exclure les Shorts ou les vidéos sponsorisées), et même chaîner plusieurs post-processeurs pour créer des workflows complexes.
Au final, Subarr c’est top pour les accros au self-hosting qui souhaitent reprendre le contrôle sur leur consommation de contenu sans dépendre du bon vouloir de l’algorithme YouTube ou de la stabilité des serveurs de Google. Avec cet outil, vos vidéos préférées seront toujours chez vous, sur votre NAS, accessibles même quand internet flanche.
Utilitaire disponible gratuitement et en français permettant de lister tous les logiciels installés sur votre ordinateur qui ne disposent pas de la dernière version...
Thermalright et les ventirads CPU, c'est une sacrée histoire d'amour qui semble presque tourner à la névrose tant la marque semble se sentir obligée de lancer un nouveau modèle quasiment à chaque mois. La firme vient ainsi d'officialiser le Peerless Assassin 120 SE Extrem. Il s'agit du 20e "Peerless...
Retour sur la plateforme LGA1851 avec une nouvelle référence qui sera forcément intéressante pour quiconque veut se monter une machine mini-ITX, et qui aurait fait son choix sur Arrow Lake. La candidate du jour est signée MSI, avec la B860I EDGE Ti WiFi, une carte qui appartient à la gamme MSI Perfo...
Quatre euros, c’est le prix d’un café dans certains endroits, mais c’est aussi le coût d’un Raspberry Pi Pico capable d’extraire tous les mots de passe WiFi stockés sur un ordinateur en moins de 15 secondes.
Hé oui car pendant que les entreprises investissent des millions dans la cybersécurité, un petit projet GitHub nous rappelle que les vulnérabilités les plus dangereuses restent souvent les plus simples.
Ce type d’attaque par injection de touches proposé par ce projet atteint quand même 94,28% de taux de réussite, selon
cette étude publiée sur ResearchGate
. En gros, vous branchez ce qui ressemble à une clé USB innocente, et en quelques secondes, l’appareil simule un clavier qui tape plus de 1000 mots par minute. Y’a aucune alerte antivirus, aucun avertissement de sécurité… Pour le système, c’est juste un clavier qui tape très, très vite.
Ce projet
WiFi-password-stealer d’AleksaMCode
transforme donc cette théorie en un outil accessible. Son créateur a en effet développé ce système pendant l’été 2022, initialement pour démontrer les capacités d’un Rubber Ducky à petit prix et aujourd’hui, avec la dernière version de CircuitPython, la configuration ne prend plus que 5 minutes.
Concrètement, l’attaque fonctionne en exploitant la confiance aveugle que nos systèmes accordent aux périphériques USB. Sous Windows, le dispositif utilise PowerShell pour extraire les identifiants WiFi stockés, puis les envoie par email via SMTP. Sous Linux, c’est encore plus direct puisque les mots de passe sont copiés depuis /etc/NetworkManager/system-connections/ directement sur une clé USB. Le script grep avec des expressions régulières positives lookbehind ((?<=ssid=).* et (?<=psk=).*) fait tout le travail d’extraction.
Pour rendre l’appareil plus discret, il suffit de connecter un fil entre les pins GPIO15 et GND et le Pico disparaît alors complètement de l’explorateur de fichiers, ne laissant aucune trace visible de sa présence. Un autre câble entre GPIO5 et GND permet également de basculer entre plusieurs payloads selon la cible. Ces petits détails transforment alors un simple microcontrôleur en outil d’infiltration redoutable.
Le plus inquiétant ? +80% des utilisateurs réutilisent le même mot de passe selon les données collectées lors de ces attaques. Un seul ordinateur compromis peut donc ouvrir les portes de dizaines de comptes. Faut pas oublier que la majorité des gestionnaires de réseaux sous Linux stockent ces informations en clair dans des fichiers .ini, ce qui rend l’extraction hyper simple pour qui a les bonnes permissions.
Face à ces menaces, les défenses existent mais restent sous-utilisées. Désactiver les ports USB sur les machines sensibles reste la protection la plus efficace et les solutions EDR (Endpoint Detection and Response) peuvent aussi détecter les patterns d’injection de touches suspectes… Mais combien d’entreprises les ont vraiment configurées correctement ? Il y a aussi des adaptateurs USB “préservatifs” qui bloquent les données tout en permettant de charger les appareils, mais qui les utilise vraiment ?
Alors, paranoia ou prudence légitime ? En tout cas, la prochaine fois que vous verrez une clé USB abandonnée dans un parking ou qu’un collègue vous demandera de “juste brancher ça deux secondes”, vous y penserez peut-être à deux fois.
530 millions d’euros
. C’est l’amende que TikTok vient de se prendre dans la tronche pour avoir transféré illégalement des données d’utilisateurs européens vers la Chine. Et vous savez quoi ? C’est juste la partie émergée de l’iceberg. Une étude récente d’Incogni sur 400 apps populaires révèle un truc complètement dingue : les applications étrangères collectent en moyenne 3 fois plus de données personnelles que leurs homologues européennes.
Faites le test maintenant : tapez votre nom complet sur Google. Allez-y, je vous attends…
Alors ? Adresse, numéro de téléphone, historique professionnel, peut-être même des photos que vous pensiez privées ? C’est flippant, non ? Moi, j’ai trouvé mon adresse complète sur 12 sites différents, mon numéro de téléphone sur 8, et même mon salaire estimé sur 3 sites de data brokers. Non, je déconne, c’est pas vrai parce que j’utilise Incogni !!
C’est Meta (Facebook, Instagram, WhatsApp) qui arrive en tête avec 29 types de données collectées. TikTok les suit de près avec 26 types de données. Et pendant ce temps, Signal se contente de… 3 types de données. Vous ne voyez pas un problème ?
Le pire dans tout ça, c’est que vos infos ne restent pas gentiment stockées dans ces apps. Non, elles sont revendues à des data brokers, ces entreprises de l’ombre qui compilent des profils détaillés sur vous et les vendent au plus offrant.
On parle quand même d’un business à 434 milliards de dollars en 2025
. Vos habitudes, vos déplacements, vos achats, tout y passe…
⚠️ Chaque jour que vous attendez, c’est :
10 nouveaux data brokers qui récupèrent vos infos
Des milliers de requêtes sur votre profil
Votre vie privée vendue au plus offrant
Et le pire c’est que une fois vos données dans la nature, c’est exponentiellement plus dur de les récupérer. C’est comme essayer de remettre du dentifrice dans le tube.
Alors certes,
le RGPD nous protège un peu en Europe avec le fameux “droit à l’oubli”
. Mais entre nous, qui a le temps d’envoyer des demandes de suppression à des centaines de data brokers ? Surtout que ces parasites recollectent immédiatement vos données dès que vous avez le dos tourné.
La bonne nouvelle ? On peut se défendre !!
D’abord, un petit audit s’impose. Comme je vous le demandais en intro, tapez votre nom ou votre adresse sur Google et notez tous les sites qui affichent vos infos personnelles. Ensuite, direction vos comptes de réseaux sociaux pour tout passer en privé et désactiver la personnalisation publicitaire. Facebook propose même une option pour supprimer définitivement votre compte via Paramètres > Centre des comptes > Détails personnels > Propriété et contrôle du compte.
Pour Google,
utilisez leur outil de suppression dédié
. Il suffit de collecter les liens problématiques et de suivre les instructions. C’est relativement simple et ça marche plutôt bien pour les résultats de recherche.
Mais le vrai combat, c’est contre les data brokers. En Californie,
le DELETE Act qui entre en vigueur en 2026
permettra de soumettre une demande unique de suppression à tous les courtiers enregistrés. Génial pour les Californiens, mais nous en Europe, on fait comment ?
Pour une dizaine d’euros par mois, ils s’occupent de contacter les data brokers à votre place et de faire supprimer vos données. Le service scanne en permanence des centaines de bases de données et envoie automatiquement les demandes de suppression.
Mon expérience personnelle, c’est qu’en 3 années de bons et loyaux services, ils avaient déjà supprimé mes infos de 232 data brokers différents. 232 ! Et moi qui pensais faire attention…
Mon dashboard Incogni après 3 ans : 244 demandes envoyées, 232 suppressions confirmées
Et je ne suis pas le seul convaincu car plus de 100 000 personnes utilisent déjà Incogni en Europe. Et les résultats parlent d’eux-mêmes car en moyenne, 95% des demandes de suppression aboutissent.
L’étude d’Incogni
montre aussi un truc flippant : les apps de shopping sont les pires en termes de collecte de données. Aliexpress et Temu aspirent littéralement tout ce qu’ils peuvent et les apps de fitness et de santé mentale ne sont pas mieux, puisqu’elles vendent allègrement vos données les plus intimes.
Sachez qu’effacer complètement sa présence en ligne est quasi impossible aujourd’hui mais avec un peu de méthode et les bons outils comme Incogni, on peut drastiquement réduire notre empreinte numérique. Entre les amendes records contre TikTok et Meta, et les nouvelles lois comme le DELETE Act, les choses bougent enfin dans le bon sens.
🔥 Offre Limitée : -55 % avec le code KORBEN55 🔥
Franchement, à un peu moins de 6 € HT / mois avec le code
KORBEN55
, c’est moins cher qu’un sandwich. Et entre nous, qu’est-ce qui est le plus important, votre prochain sandwich ou votre vie privée ?