↩ Accueil

Vue normale

Reçu aujourd’hui — 5 septembre 20257.1.2 🖥️ Sites secondaires

ZOTAC GeForce RTX 5070 SOLID : un refroidisseur très convaincant !

Il est souvent plus difficile de choisir une carte graphique d'entrée voire de milieu de gamme qu'un modèle haut de gamme. Pourquoi ? Car les tests de cartes customisées haut de gamme des marques partenaires de NVIDIA et AMD ont des tests souvent par dizaines dans les médias. Rien de bien étonnant d...

Le grand retour des blogs

Par :Korben
5 septembre 2025 à 19:37

En ce moment, tout le monde s’extasie sur le grand retour des blogs et j’ai vraiment envie de leur dire : “Mais hé je ne suis jamais parti bande de nazes !

Faut dire que j’étais déjà là avant que le mot “blog” existe, quand on appelait ça des sites perso et qu’on codait notre HTML à la main dans Notepad (je suis un menteur, j’utilisais Dreamweaver). Et voilà, je suis toujours là, 28 ans plus tard (oui j’ai lancé mon premier site perso en 1997), pendant que les plateformes et les médias naissent et meurent autour de moi comme des petites fleurs délicates.

Le truc, c’est que je suis un peu maudit dans cette histoire. Ni vraiment blog, ni vraiment média. Je suis comme un ornithorynque du web, une cyber-anomalie qui perturbe vos envies de classifications. J’suis pas assez institutionnel pour bénéficier des avantages fiscaux de la presse et j’suis trop imposant pour être un simple blog perso. Alors je suis quoi au final ? Bah je pense que je suis ce que j’ai toujours été… Un webmaster quoi… Un mec avec son site web sur lequel il met ce qu’il veut, quand il veut, comme il veut. En totale liberté !

Et c’est exactement ça que les gens redécouvrent aujourd’hui. La liberté. Cette putain de liberté qu’on a perdue en allant tous s’entasser dans les jardins clos de Facebook, Twitter et autres conneries. Alors maintenant que X est devenu un champ de bataille toxique et que Blusky est en train de suivre le même chemin, je vois de plus en plus de monde réaliser enfin ce qu’on a sacrifié.

Et le ooh.directory l’a bien compris. Il s’agit d’un annuaire web qui recense au moment où j’écris ces lignes, 2351 blogs actifs sur tous les sujets possibles. Son créateur l’a lancé pour prouver que “nobody blogs anymore” est une connerie monumentale. Car des blogs personnels, il y en a des tonnes. Par exemple, des gens comme Anil Dash avec son “ blog about making culture ”, Aaron Parecki qui a co-fondé l’IndieWebCamp, ou Andy Baio avec Waxy.org que j’aime beaucoup. Tous ces gens qui continuent à écrire, à partager, à créer sur LEUR petite parcelle de web.

Alors pourquoi c’est mieux d’avoir son site que d’être sur X ou Bluesky ? C’est simple. Sur votre blog, vous êtes chez vous. Pas d’algo qui décide si votre contenu mérite d’être vu. Pas de modération aléatoire qui vous suspend parce que vous avez dit “merde”. Pas de limite à 280 ou même 300 caractères. Si vous voulez écrire 35000 mots sur l’histoire des cartes graphiques, let’s go pépito ! Et si vous voulez partager votre recette de cookies de Noël entre 2 posts sur Rust, c’est tout à fait possible !

Puis c’est pas le même public. Sur les blogs, c’est un public de gens qui viennent vous lire pour le plaisir, pour apprendre des choses, se marrer ou juste confronter leurs points de vue, et pousser la réflexion sur certains sujets. Sur les plateformes de micro blogging comme X ou Bluesky, c’est pas la même ambiance. Là-bas c’est majoritairement n’importe qui, qui dit n’importe quoi en 2 secondes chrono, condamnant, critiquant, détruisant, jugeant, sans même lire au delà du titre, le texte que vous avez pris le temps de rédiger avec tout votre cœur.

L’ IndieWeb dont je vous ai parlé il y a peu porte d’ailleurs ce message depuis 15 ans maintenant. Leur principe c’est d’être propriétaire de votre domaine, de publier d’abord sur votre propre site (ce qu’on appelle POSSE ), et d’être propriétaire de votre contenu. Ce n’est donc pas juste du blogging, c’est une philosophie, une résistance contre la corporatisation du web .

Sur les réseaux sociaux, vous construisez votre maison sur le terrain de quelqu’un d’autre et un jour, le propriétaire décidera de changer les règles, de monétiser votre contenu, de favoriser certains contenus au détriment du votre, ou carrément de fermer votre boutique. Et voilà, des années de contenu, de connexions, de communauté qui disparaissent. Ça s’est vu avec Google+, avec Vine, et ça se verra encore. Les Youtubeurs, vous connaissez aussi très bien ça.

Mon site à moi a survécu à Friendster, MySpace, Digg (qui revient bientôt d’ailleurs), StumbleUpon, Google Reader (RIP), et il survivra probablement à X et Bluesky (oui, je sais c’est décentralisé, mais je ne pense pas que vous ayez pris le temps de l’héberger chez vous… Donc vous squattez encore la prairie de quelqu’un d’autre qui a probablement un sacré complexe de dieu ).

Voilà, je trouve que ce qui est génial avec cette renaissance des blogs, c’est qu’elle s’accompagne d’outils modernes. Le RSS n’est pas mort (malgré ce que Google a essayé de faire), les webmentions permettent des interactions entre sites, les générateurs de sites statiques comme celui que j’utilise rendent la publication super simple. Et des initiatives comme ooh.directory facilitent carrément la découverte de nouveaux blogs.

Bref, avoir votre propre espace sur le Net, pensez-y ! C’est quelque de chose de très agréable, je vous assure. C’est ça la vraie liberté du web, celle de publier ce qu’on veut, quand on veut, sans filtre, sans intermédiaire, sans bullshit (coucou les clones en cravate de LinkedIn)

Et puis si vous cherchez de l’inspiration, allez faire un tour sur ooh.directory . Vous y trouverez des centaines de blogs actifs, des gens passionnés qui écrivent sur tout et n’importe quoi. C’est ça, le vrai web. Pas les threads toxiques de X, pas les algorithmes opaques de Meta… mais les vraies gens qui partagent leurs passions sur leurs propres espaces.

Et un grand merci à Lilian de m’avoir envoyé ce lien !

C'est fou ! 48 000 sites de phishing hébergés tranquillement chez Google et Cloudflare durant 3 ans

Par :Korben
5 septembre 2025 à 18:32

Si comme moi, vous payez rubis sur l’ongle Google Cloud ou Cloudflare pour héberger vos services parfaitement légaux, et bien sachez que pendant que vous respectiez scrupuleusement leurs conditions d’utilisation tordues, une opération de phishing monumentale utilisait tranquillement leurs infrastructures pour cloner des sites du Fortune 500. Ça a duré trois ans sans que personne ne soit inquiété et cela malgré 265 signalements publics…

Ce sont les chercheurs de Deep Specter Research qui ont découvert un empire du phishing qui ferait passer les arnaqueurs nigérians pour des amateurs. Je vous parle de 48 000 hosts virtuels répartis sur plus de 80 clusters, tous bien au chaud sur l’infrastructure premium de Google Cloud à Hong Kong et à Taiwan. Le tout géré évidemment comme une vraie plateforme phishing-as-a-service, avec sept évolutions techniques majeures sur la période.

Les criminels utilisaient HTTrack Website Copier , un vieiiiil outil parfaitement légal de scraping web, pour créer des clones parfait au pixel près de +200 grandes entreprises. Lockheed Martin, le géant de la défense américaine , s’est notamment retrouvé avec un jumeau malveillant hébergé sur le domaine militaryfighterjet.com. C’est un site qui parlait initialement d’avions de chasse et qui s’est transformé en casino en ligne tout en servant de façade pour du phishing ciblé.

La technique était redoutablement efficace. Les attaquants récupéraient des domaines expirés qui appartenaient à des organisations légitimes. Ces domaines gardaient ainsi leur réputation, leurs backlinks, parfois même leurs communautés sur les réseaux sociaux.

Et pour éviter la détection, le système de cloaking analysait en temps réel les headers HTTP, les user agents et la géolocalisation IP. Donc si vous étiez un bot de Google ou un chercheur en sécurité, vous voyiez un site normal. Mais si vous étiez une vraie victime potentielle, c’était bienvenue dans la matrice. Cette technique sophistiquée a permis aux sites malveillants de maintenir d’excellents rankings SEO tout en servant leur contenu frauduleux aux bonnes personnes.

L’infrastructure comptait 86 adresses IP physiques côté Google Cloud, mais le réseau virtuel était bien plus vaste avec 44 000 adresses IP virtuelles chez Google et 4 000 chez d’autres hébergeurs. En mars 2025, l’opération a d’ailleurs atteint son pic avec 33 890 observations actives selon les données de Deep Specter. Sur l’année 2025 seule, on comptait 2 791 hosts avec 56 075 observations au total.

Mais voilà le scandale dans le scandale… malgré 265 détections publiques par des chercheurs et des outils de threat intelligence, ni Google ni Cloudflare n’ont suspendu les comptes concernés. Les signalements incluaient des domaines malveillants, des adresses IP compromises et des certificats SSL frauduleux.

Mais aucune réponse des géants du cloud… Rien. Nada. Que dalle.

Cette passivité a fait passer ces entreprises, de, je cite “neutral intermediaries” en “de facto enablers of illicit activity”. Traduction, au lieu d’être des hébergeurs neutres, ils sont de par leur inaction, devenus des complices.

Les conséquences pour les entreprises clonées sont également désastreuses car au-delà des pertes de trafic organique qui se traduisent directement en manque à gagner, elles font face à des risques légaux majeurs. Violations potentielles du RGPD si des données européennes sont compromises, problèmes DMCA pour le contenu copié, scrutin de la FTC américaine, obligations de divulgation SEC… Sans compter les frais juridiques pour tenter de faire fermer ces clones.

Visiblement, il y a des problèmes de gouvernance majeurs chez les géants du cloud… Les providers ont les moyens techniques de détecter ces abus, mais apparemment, tant que les factures sont payées, la motivation pour agir reste limitée…

Les chercheurs appellent donc Google, Cloudflare et les marques affectées à renforcer leurs mécanismes de détection, fermer les boucles de monitoring et appliquer des politiques strictes de résiliation de comptes.

Je suis pas sûr que le message passe mais bon, après ça les expose à des risques juridiques, alors ils seront peut-être plus sérieux la prochaine fois…

Source

Ce chercheur en IA prédit 99,999999% de chances qu'on y passe tous

Par :Korben
5 septembre 2025 à 18:04

Bon, on va parler d’un mec qui ne fait pas dans la demi-mesure. Il s’appelle Roman Yampolskiy, il est chercheur en sécurité IA à l’Université de Louisville, et surtout il vient de balancer des chiffres qui donnent envie de tout plaquer et d’aller élever des escargots en Bourgogne. Selon lui, on a des chances quasi certaines que l’IA nous extermine. C’est le genre de prédiction ultra-précise avec six neufs après la virgule qui fait qu’on se demande s’il n’a pas inventé le chiffre du milieu pour faire plus impressionnant.

Mais attendez, c’est pas fini. Le même Yampolskiy nous annonce aussi que 99% des emplois vont disparaître d’ici 2030. Dans cinq ans quoi. Le temps de finir votre formation France Travail en reconversion professionnelle, et vous serez déjà obsolète.

Trop cool hein ?

Ces déclarations, il les a lâchées lors d’une interview sur le podcast “The Diary of a CEO” avec Steven Bartlett. Et j’avoue qu’entre sa barbe de prophète de l’apocalypse et ses prédictions qui font passer Nostradamus pour un optimiste, difficile de savoir si on doit rire ou commencer à creuser un bunker.

Le plus drôle dans l’histoire, c’est qu’Elon Musk, pourtant pas connu pour son optimisme débordant sur l’IA, trouve aussi que Yampolskiy exagère un chouïa. Musk estime la probabilité que l’IA nous détruise à seulement 10 à 20%. Yampolskiy considère cette estimation bien trop conservatrice, du coup, quand Elon Musk passe pour le mec raisonnable de l’histoire, on sait qu’on est dans une timeline spatio temporelle bizarre à la Rick et Morty.

D’après ce chercheur letton (non, c’est pas le mec du boys band Alliage, c’est un lituanien), même les codeurs vont y passer. On va plus avoir besoin de vous messieurs dames, car l’IA fait déjà mieux. Il explique donc tranquillement qu’avec un abonnement à 20 balles ou un modèle gratuit qui fait le boulot d’un employé, pourquoi s’embêter à embaucher des humains ? Et dans cinq ans, avec les robots humanoïdes, même les jobs physiques seront automatisés. Livreur Deliveroo ? Un robot. Caissier ? Un robot. Influenceur TikTok ? Probablement un robot aussi, et franchement j’suis pas sûr qu’on y perde au change…

Alors sa solution pour éviter l’apocalypse ? Acheter sa formation à 999$ ! Non, je déconne… Il dit juste de ne pas construire d’IA superintelligente. Point. C’est comme dire qu’il faut éviter les accidents de voiture en n’inventant pas la voiture. C’est techniquement correct, mais connaissant les humains c’est pratiquement impossible. Surtout quand toute la Silicon Valley court après l’AGI comme des gamins après le marchand de glaces (ou pire, comme le marchand de glaces après des gamins… glauuuque).

Le concept du p(doom) qu’il défend, c’est la probabilité que l’IA nous élimine une fois qu’elle atteint la superintelligence. La plupart des chercheurs placent ça entre 5 et 50%, mais Yampolskiy va beaucoup plus loin avec ses estimations apocalyptiques… C’est sûr que le gars ne joue pas dans la même ligue que moi niveau pessimisme…

Bill Gates, de son côté, pense que certains métiers survivront tels que les codeurs, les experts en énergie et les biologistes. Yampolskiy n’est pas d’accord, et affirme que l’IA est déjà meilleure pour créer des prompts pour d’autres IA que n’importe quel humain. Même le prompt engineering, le job du futur qu’on nous vendait y’a six mois, est déjà obsolète.

Mais le plus flippant dans son discours, c’est quand il explique qu’avant on pouvait se reconvertir quand un job était automatisé, mais que si TOUS les jobs sont automatisés, il n’y aura plus de plan B possible…

Et pendant ce temps, Anthropic avoue ne pas comprendre comment leurs propres modèles d’IA fonctionnent, OpenAI semble prioriser les produits qui brillent plutôt que la sécurité, et les labos d’IA se plaignent de manquer de données de qualité pour entraîner leurs modèles. On construit donc des trucs qu’on ne comprend pas, qu’on ne contrôle pas, et qui selon certains vont nous remplacer/exterminer.

Gloups…

Le seul espoir d’après le chercheur c’est donc de convaincre tous les acteurs du secteur qu’ils sont en train de scier la branche sur laquelle ils sont assis. Il avertit que même les créateurs de ces technologies n’apprécieront pas le résultat final. Autrement dit, même les milliardaires de la tech vont y passer malgré leurs jolis bunkers . Ça au moins, c’est démocratique.

Mais bon, entre nous, j’y crois pas trop à ses prédictions de l’apocalypse là… Dites vous que j’ai un radar à je-vous-dirais-pas-quoi et qu’il a parfaitement détecté des gens comme Manu Macron, Idriss Aberkane, Didier Raoult, et même Meghan Markle des mois, voire des années avant qu’ils ne deviennent “problématiques” aux yeux de tous… Alors je peux vous dire qu’après avoir vu son interview, il allume aussi mon détecteur…

Mais bon, au moins ça pousse à réfléchir sur où on va avec cette technologie, même si personnellement, je pense qu’il devrait réduire sa consommation de films catastrophe, de caféine et sortir prendre l’air de temps en temps.

Voilà donc en attendant l’apocalypse robotique, rappelez vous une chose : On ne peut pas faire confiance à des gens qui ont des beubars aussi bien entretenues. C’est trop louche.

Source

Steam Frame : Valve préparerait une nouvelle console de salon sous SteamOS

Par :Wael.K
5 septembre 2025 à 17:16

Après le succès du Steam Deck, Valve pourrait élargir son écosystème matériel avec une nouvelle machine : la Steam Frame, une nouvelle marque déposée. Le nom a été découvert dans un dépôt de marque auprès de l’USPTO (United States Patent and Trademark Office).

Les documents officiels évoquent à la fois du hardware informatique et des consoles de jeux vidéo, mais aussi des contrôleurs et accessoires dédiés. Tout porte donc à croire que Valve prépare une console pensée pour le salon, et non un simple périphérique.

Une console de salon inspirée du Steam Machine

Le concept rappellerait celui des Steam Machines, lancées puis abandonnées il y a presque dix ans. Cette fois, l’approche serait différente : la Steam Frame serait une console autonome, livrée avec une manette, et démarrant directement sur SteamOS avec toutes les optimisations que l’on connaît déjà sur le Steam Deck.

steamOs

Contrairement à ce dernier, il ne s’agirait pas d’un appareil portable mais bien d’une machine fixe, bénéficiant d’un meilleur refroidissement et d’une puissance accrue, capable de viser des résolutions supérieures et des framerates plus stables.

Fremont et Steam Frame : un seul et même projet ?

Un élément vient renforcer cette hypothèse. Récemment, un prototype baptisé Valve Fremont a été repéré dans la base de données Geekbench. Cette machine embarque un SoC AMD Hawk Point 2 avec 6 cœurs Zen 4 et un GPU RDNA 3 proche d’une Radeon RX 7600. Les performances CPU et GPU affichent un net bond par rapport aux Steam Deck actuels.

steam frame console

Tout indique que Fremont pourrait être le prototype matériel derrière Steam Frame. De quoi imaginer une console de salon taillée pour concurrencer les PS5 et Xbox Series, tout en offrant un accès natif à la bibliothèque Steam.

👉 Lire notre analyse complète de Valve Fremont et de son SoC AMD Hawk Point 2

Une stratégie encore mystérieuse

Valve n’a pas encore communiqué officiellement. On ignore si la Steam Frame sera une machine premium pour viser les performances, ou un modèle plus abordable pensé pour démocratiser le jeu PC dans le salon.

Mais une chose est claire : entre le succès du Steam Deck et les rumeurs autour de la Steam Frame, Valve semble prêt à revenir sur le marché des consoles avec une stratégie plus solide que celle des Steam Machines.

GeForce NOW avec Blackwell RTX 5080 : dès le 10 septembre

Par :Wael.K
5 septembre 2025 à 16:58

NVIDIA annonce une mise à jour majeure de son service GeForce NOW : dès le 10 septembre 2025, les serveurs basculent sur l’architecture Blackwell RTX 5080. Une montée en puissance déjà esquissée à la Gamescom, où la marque avait présenté les fondations de cette nouvelle ère notre analyse complète de GeForce NOW à la Gamescom 2025.

NVIDIA promet des résolutions plus élevées, un framerate jusqu’à 360 FPS compétitifs et une latence réduite sous les 30 ms. Avec cette évolution, GeForce NOW devient le premier service de cloud gaming à offrir une expérience équivalente à un PC gaming équipé d’une RTX 5080, mais accessible partout en streaming.

Battlefield 6 et des sorties attendues

Parmi les grands rendez-vous, le très attendu Battlefield 6 sera disponible en octobre directement dans le cloud. Mais septembre n’est pas en reste avec plusieurs lancements majeurs :

17 jeux rejoignent GeForce NOW en septembre

geforce now septembre 2025
17 jeux rejoignent GeForce NOW en septembre

En plus de BF6, ce sont 17 nouveaux titres qui débarquent sur GeForce NOW au fil du mois. Parmi eux :

Calendrier GeForce NOW – Septembre 2025

Date Jeu
1 sept.Hell Is Us
2 sept.METAL EDEN
4 sept.Hollow Knight: Silksong
4 sept.Cataclismo
5 sept.Cronos: The New Dawn
9 sept.Firefighting Simulator: Ignite
11 sept.Borderlands 4
15 sept.Fata Deum – The God Sim
19 sept.Dying Light: The Beast
19 sept.Jump Space
19 sept.Warborne: Above Ashes
22 sept.ENDLESS Legend 2
23 sept.Baby Steps
23 sept.Aztecs: The Last Sun
25 sept.Lost Rift
26 sept.Cloverpit
Predecessor (date TBC)

Au total, la bibliothèque GeForce NOW dépasse désormais les 2 200 titres jouables instantanément.

GFN Thursday Hollow Knight Silksong 960x480
GFN Thursday Hell is Us 1680x840
GFN Thursday World of Tanks 2 0 960x480

22 titres qui ont rejoint GeForce Now en août.

Pour rappel, 22 titres supplémentaires ont rejoint le programme. Voici la liste :

Sorties GeForce NOW – Août 2025

Jeu Plateforme
Assassin’s Creed MirageXbox (PC Game Pass)
Amnesia: The Dark DescentEpic Games Store
Blacksmith MasterXbox (PC Game Pass)
Chip ‘n Clawz vs. The BrainioidsSteam
Crash Bandicoot 4: It’s About TimeSteam, Battle.net
GatekeeperSteam
Gears of War: ReloadedSteam, Xbox (PC Game Pass)
GuntouchablesSteam
Heretic + HexenSteam, Xbox (PC Game Pass)
HUNTER×HUNTER NEN×IMPACTSteam
KnighticaSteam
Make WayEpic Games Store (gratuit)
Stick It to the StickmanSteam
Titan Quest IISteam
Total War: MEDIEVAL II – Definitive EditionSteam
Total War: ATTILASteam
A Total War Saga: TroySteam
Total War: NAPOLEON – Definitive EditionSteam
Total War: EMPIRE – Definitive EditionSteam
Total War: PHARAOH DYNASTIESSteam
Total War: ROME REMASTEREDSteam
Total War: SHOGUN 2Steam

⚠ Field of Glory II: Medieval n’a finalement pas rejoint le cloud en août.

Le cloud NVIDIA prend de l’avance

Avec cette mise à jour Blackwell RTX 5080, NVIDIA creuse l’écart sur le marché du cloud gaming. Résolutions 4K, 240 FPS, modes compétitifs et une ludothèque en constante expansion : le service prend une longueur d’avance au moment où les joueurs s’apprêtent à accueillir les blockbusters de fin d’année.

Console portable Lenovo Legion Go 2 : elle fait envie, mais n'est pas donnée !

La Lenovo Legion Go 2 est là, c'est désormais officiel. De nombreux clichés ainsi que la majorité des caractéristiques de la console portable avaient déjà fuité depuis quelques jours, mais nous attendions l'annonce de la part de Lenovo pour avoir toutes les informations à vous communiquer, y compris...

Opcode transforme Claude Code en machine de guerre

Par :Korben
5 septembre 2025 à 14:03

Marre de jongler entre votre terminal et 15 onglets pour gérer vos sessions Claude Code ? Et bien les amis, je suis tombé sur Opcode , et c’est un super outil pour créer des checkpoints dans vos conversations IA comme vous faites des branches Git, pouvoir revenir en arrière quand Claude part en vrille mais également avoir une vraie vue d’ensemble de tous vos projets et agents…

Développé par Asterisk , une startup passée par Y Combinator, Opcode c’est l’interface graphique qui manquait cruellement à Claude Code. Au lieu de vous battre avec la ligne de commande, vous avez maintenant une vraie application desktop, native, rapide, qui tourne sur macOS, Linux et Windows. Ce truc est construit avec Tauri 2 , donc on parle de performances natives avec une UI moderne en React.

Claude Code est un outil génial pour coder avec de l’IA, et j’en sais quelque chose parce que je l’utilise tous les jours. Mais l’interface CLI peut vite devenir limitante quand vous jonglez avec plusieurs projets. Opcode transforme donc cette expérience en quelque chose de plus visuel et intuitif. Vous naviguez dans vos projets stockés dans ~/.claude/projects/ avec une interface graphique, vous voyez l’historique de vos sessions, et surtout, vous pouvez créer des agents personnalisés avec leurs propres prompts système.

Le système de time-travel m’a particulièrement plu car il permet de créer des checkpoints pendant vos conversations avec Claude. Comme ça, si l’IA part dans une mauvaise direction, hop, vous revenez au checkpoint précédent. C’est comme Git mais pour vos interactions IA. Ça évite de tout recommencer quand Claude comprend de travers ce que vous voulez.

Côté sécurité, les mecs d’Asterisk ne rigolent pas. Opcode utilise du sandboxing au niveau OS (seccomp sur Linux, Seatbelt sur macOS) pour isoler complètement les processus. Chaque agent peut avoir des permissions granulaires et vous décidez exactement ce qu’il peut faire ou ne pas faire. Et le plus important : zéro télémétrie. Toutes vos données restent en local, pas de cloud, pas de tracking. Votre code reste donc votre code.

Pour les agents personnalisés, c’est vraiment bien pensé. Vous créez des agents spécialisés avec leurs propres instructions système. Un agent pour le debug, un autre pour la documentation, un pour les tests unitaires. Chaque agent garde son historique, ses préférences, ses permissions. Vous construisez progressivement votre bibliothèque d’agents spécialisés qui connaissent vos habitudes de travail.

L’interface de tracking des coûts API est super pratique aussi. Vous voyez en temps réel combien de tokens vous consommez, le coût associé, avec des graphiques détaillés. Fini les mauvaises surprises en fin de mois. Comme ça, vous savez exactement où part votre budget Claude.

Pour installer Opcode, vous pouvez télécharger les binaires pour macOS, Linux (Windows arrive bientôt…) directement sur le site d’opcode .

Le code est sur GitHub , propre et bien documenté si ça vous chauffe. Voilà, ça permet de garder toute la puissance de l’outil CLI Claude Code, mais avec une interface qui rend l’expérience bien plus agréable. Si vous êtes un vibe codeur qui passe ses journées avec Claude, vous allez gagner un temps fou.

rsyncy - Une barre de progression pour suivre l’avancement de Rsync

Par :Korben
5 septembre 2025 à 13:50

Vous venez de lancer un bon gros rsync en prod pour migrer 3 téraoctets de données et votre boss vous sur-saoule toutes les 10 minutes avec des : “Alors, ça en est où ?” en boucle et vous, en bonne victime, vous répondez “Ça avance chef, ça avance…”.

On peut faire mieux non ? Et oui, avec rsyncy qui vous permet au lieu d’avoir un rsync muet qui vous laisse dans le noir, de profiter d’une vraie barre de progression visuelle. Comme ça, vous voyez le pourcentage d’avancement, la vitesse de transfert, le volume copié, le temps écoulé, l’ETA, le nombre de fichiers traités… Bref, toutes les infos pour répondre factuellement à votre hiérarchie et prendre des décisions éclairées de grand professionnel qui aura bientôt une augmentation de salaire ^^.

L’installation est super simple. Vous avez plusieurs options selon votre setup :

# One-liner universel
curl https://laktak.github.io/rsyncy.sh|bash

# Sur macOS avec Homebrew
brew install rsyncy

# Avec Go
go install github.com/laktak/rsyncy/v2@latest

# Avec pipx (version Python)
pipx install rsyncy

Et une fois installé, vous pouvez soit lancer rsyncy directement avec les mêmes arguments que rsync :

rsyncy -a /source/ /destination/

Soit piper la sortie de votre rsync habituel vers rsyncy :

rsync -a --info=progress2 -hv /source/ /destination/ | rsyncy

Ce qui est top, c’est qu’avec ce paramètre, rsyncy ajoute automatiquement les arguments nécessaires pour avoir le maximum d’informations comme ça y’a plus besoin de vous rappeler des bonnes options.

La barre de progression affichera quelque chose comme ça :

Et là, vous avez tout… la barre visuelle, le pourcentage, les données transférées, la vitesse actuelle, le temps écoulé et le nombre de fichiers traités. C’est clair, net et précis.

Pour les environnements où les couleurs posent problème (certains logs, scripts automatisés), vous pouvez les désactiver avec :

NO_COLOR=1 rsyncy /source/ /destination/

Pour les devs qui veulent debugger ou enregistrer leurs transferts rsync, l’auteur recommande d’utiliser “ pipevcr ”, un autre de ses outils qui permet d’enregistrer et rejouer des flux de données. Pratique pour tester rsyncy sans lancer de vrais transferts.

Voilà, comme ça avec rsyncy, vous savez exactement où vous en êtes et vous pouvez estimer si vous allez respecter votre fenêtre de maintenance, prévenir si ça va déborder, ou rassurer tout le monde que tout se passe bien.

Source

Les Final Fantasy Game Boy passent en couleur

Par :Korben
5 septembre 2025 à 13:50

Ah, ces longues heures passées sur Final Fantasy Legend, les yeux qui piquent devant l’écran vert monochrome de votre Game Boy. Vous vous souvenez ?

Et bien aujourd’hui, j’ai découvert un truc sympa. Un développeur a réalisé ce dont on rêvait tous à l’époque. Il a transformé ces classiques en véritables oeuvres d’art Game Boy Color, avec des palettes de couleurs méticuleusement choisies pour chaque élément du jeu.

Il s’agit d’Adam Rippon, le mec derrière la série indie Dragon Fantasy qui s’est lancé un défi de ouf : coloriser l’intégralité des jeux Final Fantasy sortis sur Game Boy. Je vous parle bien de quatre titres mythiques ici : Final Fantasy Legend I, II et III (les fameux SaGa au Japon), et Final Fantasy Adventure (le premier Seiken Densetsu).

L’histoire commence simplement… Adam jouait au premier Final Fantasy Legend et se disait que ce serait quand même mieux en couleur. Alors au lieu de râler comme nous on l’aurait fait, il a sorti son éditeur de code assembleur et s’est mis au boulot. Et le résultat a tellement plu à la communauté Game Boy qu’ils l’ont supplié de faire les suites. Et lui, en bon mec solide, il a livré.

Ce qui est vraiment impressionnant dans son travail, c’est le niveau de détail. Il n’a pas juste balancé trois couleurs au pif et basta. Non, chaque sprite, chaque tuile, chaque élément d’interface a été colorisé à la main pour respecter l’esprit des jeux originaux tout en exploitant les capacités de la Game Boy Color. Les romhacks portent même le suffixe “DX”, comme les vraies versions colorisées de Nintendo à l’époque (Zelda Link’s Awakening DX, vous vous souvenez ?).

Techniquement, c’est donc du solide. Les patches fonctionnent sur du vrai hardware Game Boy Color, et pas seulement sur émulateur, ce qui veut dire que si vous avez encore votre vieille console qui traîne dans un tiroir, vous pouvez mettre les ROMs patchées sur une cartouche flash et jouer comme si Nintendo avait sorti ces versions à l’époque.

Pour récupérer ces merveilles, vous avez donc plusieurs options. Les patches sont disponibles sur Romhacking.net , Romhack.ing ou directement sur le GitHub d’Adam si vous préférez compiler depuis les sources. Évidemment, il vous faudra les ROMs originales des jeux (que vous possédez légalement, bien sûr ^^), puis vous appliquez les patches avec un outil comme Lunar IPS.

Voilà, donc si vous êtes nostalgiques de cette époque où Square Enix (enfin, Square et Squaresoft à l’époque) sortait des JRPG sur Game Boy, ou si vous voulez découvrir ces classiques dans leur meilleure version possible, foncez. Les quatre jeux sont complets, testés, approuvés par la communauté. C’est donc le moment parfait pour replonger dans ces aventures, cette fois-ci en couleur.

Respect total à Adam Rippon pour le boulot de titan !

Source

mkcert - Un outil génial qui simplifie la mise en place de certificats HTTPS en local

Par :Korben
5 septembre 2025 à 11:49

Vous aussi, vous en avez marre de cliquer sur “Continuer vers ce site (non sécurisé)” dans votre navigateur à chaque fois que vous testez votre app en local ? Puis surtout, ça fait peur à tout le monde pendant les démos client…

Alors ça tombe bien car j’ai la solution parfaite pour vous.

Ça s’appelle mkcert et c’est un outil transforme la galère des certificats HTTPS locaux en une simple commande. 2 minutes chrono et vous avez des certificats valides, reconnus par votre navigateur, sans avoir à fouiller dans les tréfonds d’OpenSSL.

Le truc cool avec mkcert, c’est qu’il crée automatiquement une autorité de certification locale sur votre machine. Cette CA est ensuite directement installée dans votre système et reconnue par tous vos navigateurs. Comme ça, plus besoin de jongler avec des certificats auto-signés auxquels personne ne fait confiance. Chrome, Firefox, Safari… tout le monde est content et affiche le petit cadenas vert. Trop chouette non ?

Alors, comment ça marche ? Sur macOS avec Homebrew, moi j’ai fait ça :

brew install mkcert nss
mkcert -install

Et voilà, votre autorité de certification locale est créée et installée. Maintenant, vous voulez un certificat pour votre projet ? Une ligne suffit :

mkcert example.com *.example.com localhost 127.0.0.1

Et vous avez alors vos fichiers .pem prêts à être utilisés avec n’importe quel serveur web. Pas de configuration prise de tête, pas de paramètres chelous, juste ce qu’il faut pour bosser tranquillement. Notez que si besoin, vous pouvez renommer le .pem en .crt et le -key.pem en .key, et ça fonctionnera.

Ce qui est vraiment bien pensé, c’est que mkcert gère tous les cas d’usage du développement moderne. Vous pouvez donc créer des certificats pour des domaines spécifiques, des wildcards pour couvrir tous vos sous-domaines, localhost évidemment, mais aussi des adresses IP. Vous développez une API qui doit être accessible depuis votre téléphone sur le réseau local ? Pas de problème, ajoutez l’IP de votre machine et c’est réglé.

D’ailleurs, pour ceux qui bossent sur Windows, l’installation peut se faire via Chocolatey ou Scoop. Et sous Linux, il faut d’abord installer les outils NSS avec libnss3-tools, puis vous pouvez récupérer les binaires directement depuis les URLs stables comme [https://dl.filippo.io/mkcert/latest?for=linux/amd64](https://dl.filippo.io/mkcert/latest?for=linux/amd64).

Un point super important c’est que mkcert n’est PAS fait pour la production. Le fichier rootCA-key.pem généré contient la clé privée de votre autorité de certification locale donc si quelqu’un met la main dessus, il peut créer des certificats valides pour n’importe quel domaine sur votre machine. Pour la prod, on reste donc sur Let’s Encrypt ou une vraie autorité de certification.

Mais après pour le développement local, c’est juste parfait. Plus besoin de se battre avec les configurations Apache ou Nginx pour faire accepter des certificats bidons. Plus de warnings et surtout, vous pouvez enfin tester correctement toutes les fonctionnalités qui nécessitent HTTPS : service workers, API de géolocalisation, caméra, micro… Tout fonctionne comme en prod.

L’outil supporte même des trucs avancés comme la génération de certificats ECDSA si vous préférez les courbes elliptiques, ou le format PKCS12 pour certaines applications Java. Vous pouvez personnaliser l’emplacement de sortie des certificats, créer des certificats pour l’authentification client…

Bref, malgré que ce soit simple à mettre en place, mkcert couvre en réalité tous les besoins. Je vous recommande donc de tester ça !

Merci à Lorenper pour la découverte !

PCSpecialist Recoil 16 AMD : le 3D V-Cache accessible aux gamers mobiles !

Si vous parcourez nos colonnes, alors le nom de PCSpecialist vous est sûrement familier. En effet, cet assembleur britannique — partenaire de Hardware & Co - officie dans le business depuis plus de 22 ans. Après un premier Fusion 14 très convainquant, la firme nous a gâté de son Recoil 16, une m...

LED RGB : Sony prépare la contre-attaque de la Mini-LED !

Beaucoup moins impliqué dans l'OLED que LG ou Samsung, Sony s'apprête à faire revenir sur le marché une technologie avec laquelle le fabricant avait déjà un peu joué à partir de 2004 : la LED RGB ! À l'époque, Sony avait lancé quelques téléviseurs équipés des "Triluminos", mais cela avait principale...

❌