↩ Accueil

Vue normale

Reçu aujourd’hui — 7 novembre 2025 1.2 🖥️ Tech. Autres sites

Networking Toolbox - La boite à outil open source de l'admin réseau

Par :Korben
7 novembre 2025 à 12:00

Vous êtes admin réseau et vous en avez marre de jongler entre différents outils pour calculer un masque de sous-réseau, vérifier un enregistrement DNS, ou tester une config DHCP ?

Ça tombe bien puisque Networking Toolbox débarque avec tous les outils réseau dont vous avez besoin dans une seule interface plutôt propre et carrée.

Le projet est développé par Alicia Sykes , une développeuse qui a déjà pas mal de projets open-source à son actif et son idée c’est de regrouper plus d’une centaine d’utilitaires réseau au même endroit, sans dépendances tierces, sans tracking, et avec une interface qui fonctionne aussi bien sur desktop que sur mobile.

Le site propose des outils dans cinq grandes catégories. Du calcul de sous-réseaux, avec des calculateurs IPv4 et IPv6, de la planification VLSM, des outils CIDR pour convertir des masques ou générer des plages IP. Ensuite, les diagnostics réseau : lookups DNS, vérifications TLS, tests de connectivité, analyses HTTP et email. Vous avez aussi des générateurs pour DHCP et DNS, avec création d’enregistrements, validation DNSSEC, et configuration de zones complètes. Et bien sûr, tout un tas d’utilitaires divers pour convertir, valider, et manipuler des données réseau.

Ce qui est pratique, c’est que vous pouvez bookmark n’importe quel outil avec un clic droit. Ça le rend accessible offline et l’épingle en haut de votre page d’accueil. Si vous utilisez souvent les mêmes choses, ça évite de naviguer dans les menus à chaque fois. L’interface supporte ausis plusieurs langues, plusieurs thèmes visuels, et se contrôle entièrement au clavier.

Niveau techno, c’est du Svelte avec TypeScript, compilé en SvelteKit. Les calculs se font côté client, donc pas de latence serveur et le code est publié sous licence MIT. Vous pouvez donc le déployer sur votre propre infrastructure si vous ne voulez pas utiliser l’instance publique.

3 options principales s’offrent à vous : un conteneur Docker qui se lance avec une ligne de commande, un déploiement sur des plateformes cloud comme Vercel ou Netlify, ou un build statique que vous hébergez où vous voulez.

Pour Docker, c’est hyper fastoche. Vous tapez

docker run -p 3000:3000 lissy93/networking-toolbox

et l’interface est alors accessible sur localhost:3000. Si vous préférez compiler depuis les sources, le repo est ici sur Codeberg . Vous le clonez, vous installez les dépendances avec yarn, et vous lancez le serveur de dev avec yarn dev. Le projet se compile en build statique, en build Node.js, ou avec des adaptateurs pour GitHub Pages et autres hébergeurs statiques…

Le plus intéressant, c’est que Networking Toolbox propose aussi une API gratuite, sans clé, sans restrictions CORS. Si vous développez vos propres outils ou scripts d’automatisation réseau, vous pouvez interroger l’API directement sans config particulière pour par exemple, convertir un masque, valider une plage IP, ou générer un enregistrement DNS programmatiquement !

Voilà, si vous administrez des réseaux ou si vous étudiez les infras, testez-le. Je pense que vous gagnerez du temps et vous arrêterez de chercher “subnet calculator” sur Google toutes les cinq minutes.

Merci à Lorenper pour l’info !

QuantumENGINE 2.3.12 pour le casque JBL Quantum 950 Wireless

7 novembre 2025 à 10:52
Un mois après la mise à jour 2.2.13 pour supporter les nouveaux casques audio JBL Quantum 250 et Quantum 650 Wireless, c'est au tour de la version 2.3.12 du logiciel de configuration et du pilote QuantumENGINE de voir le jour. Comme on pouvait s'en douter, il est ce coup-ci question de la prise en c...

Elon Musk a trouvé comment sauver la planète avec des satellites IA - Et c'est complétement con

Par :Korben
7 novembre 2025 à 10:42

Vous avez déjà vu quelqu’un polluer le ciel avec +10 000 satellites puis proposer d’en lancer des millions de plus pour sauver la planète ?

Bienvenue dans l’univers mental dérangé d’Elon Musk, où la solution à la pollution, c’est toujours plus de pollution… mais en mieux, évidemment !

Le 3 novembre dernier, Musk a balancé sur son réseau social de fachos, une idée qui ressemble à du Rick et Morty dans le texte : “Une large constellation de satellites alimentés à l’énergie solaire et dotés d’une IA serait capable d’endiguer le réchauffement climatique en ajustant légèrement la quantité d’énergie solaire atteignant la Terre”.

Hein ?

C’est une propal qui couterait des trillons de dollars, soit environ 200 ans de budget de la NASA et je vous rappelle quand même que c’est le même gars qui dirigeait le “Department of Government Efficiency” (DOGE) dont la mission était de traquer le moindre dollar de dépense publique inutile. Lol.

En plus, les satellites Starlink actuels posent déjà d’importants problèmes, en perturbant notamment les observations astronomiques. La V2 de ses satellites émet quand même 32 fois plus de radiations électromagnétiques que la V1, ce qui fout en l’air pas mal de radio-telescopes.

Et maintenant, son plan ce serait d’en ajouter des millions de plus ? Autant éteindre un incendie avec de l’essence.

Et puis est-ce que techniquement, ça fonctionnerait ?

Hé bien pour réduire le réchauffement climatique de manière significative, il faudrait bloquer environ 1 à 2% du rayonnement solaire qui atteint la Terre. Ça représente une surface de plusieurs millions de km² en orbite, positionnée au point de Lagrange L1 (à environ 2,36 millions de km de la Terre). Pour vous donner un point de comparaison, l’ensemble des satellites Starlink actuels ont une surface totale vraiment ridicule par rapport à ce qui serait nécessaire pour ce projet.

Et le temps de développement estimé par les spécialistes pour un tel projet serait d’environ 25 ans. En gros, 25 ans durant lesquels on pourrait continuer à cramer du charbon et du pétrole en se disant “c’est bon, on est sauvé, le bouclier spatial arrive”. J’ai comme un arrière-goût de Don’t Look Up dans la bouche…

Et puis il y a surtout ce problème du “termination shock”. Si le système tombe en panne, est saboté pendant une guerre, ou simplement arrêté pour maintenance, ça provoquerait une augmentation brutale et catastrophique des températures. Bref, on aurait créé une dépendance dont on ne pourrait plus se passer sans catastrophe majeure. C’est l’arme climatique parfaite déguisée en solution environnementale. Hé oui, le climat, ça ne marche pas vraiment comme un thermostat…

Et au fait, qui contrôlerait ce thermostat planétaire ?

Musk ? SpaceX ? Le gouvernement américain ? L’ONU ? Ils nous feraient payer combien pour avoir un peu plus de luminosité sur nos tomates ? Et si bloquer le soleil pour refroidir l’Europe provoque une sécheresse en Afrique, on fait quoi ?

On vote ? lol

Bah non… Car pour le moment, il n’existe aucun cadre légal international pour gérer ça. L’ Union of Concerned Scientists s’oppose même officiellement au déploiement de la géo-ingénierie solaire parce que ça pose des risques environnementaux, sociaux et géopolitiques inacceptables. L’agence environnementale allemande dit carrément que c’est “hautement risqué et ne représente pas une solution praticable à la crise climatique”.

Mais le pire, c’est que cette idée ne résout rien au problème de fond. Le CO2 continuera de s’accumuler dans l’atmosphère et l’acidification des océans continuera. Ce serait juste un pansement spatial sur un cancer planétaire.

Quand je pense que pour une fraction du coût de cette constellation de satellites, on pourrait décarboner complètement l’économie mondiale avec du renouvelable, du nucléaire, masse d’isolation des bâtiments…etc. En vrai, on a déjà des tas de solutions qui fonctionnent et qui sont moins chers, mais, bon, on préfère croire en des milliardaires qui se prennent pour des Dieux.

Voilà, une encore une belle idée de merde d’Elon Musk !

Ça buzze, et certains pourraient croire que c’est sérieux. Sauf que ça ne l’est pas. C’est techniquement délirant, économiquement absurde, écologiquement risqué, et politiquement ingérable !

Bref…

PROMPTFLUX - Le malware qui demande à Gemini comment échapper aux antivirus

Par :Korben
7 novembre 2025 à 10:15

Bon vous savez tous comment marche votre antivirus. Il détecte un malware, il le bloque, et tout revient à la normale.

Mais si je vous disais que maintenant, c’est parfaitement possible qu’une heure plus tard le même malware se repointe, sauf que c’est plus le même, parce que son code a changé. Car entre temps, il a demandé à Google Gemini de le réécrire…

Bien c’est pas de la science-fiction, hein, c’est ce que décrit un rapport du Google Threat Intelligence Group (GTIG) qui nous présente une nouvelle génération de malwares qui intègrent des LLM directement dans leur exécution.

Plus de génération statique du code, c’est le malware lui-même qui appelle une API LLM pendant qu’il tourne, demande des modifications, se réécrit, et repart faire sa besogne.

Les deux exemples les plus marquants s’appellent PROMPTFLUX et PROMPTSTEAL .

PROMPTFLUX, c’est un dropper en VBScript qui appelle l’API Gemini pour obfusquer son propre code. Il se réécrit dans la base de registre Windows pour persister au reboot, puis demande à Gemini de générer de nouvelles variantes d’obfuscation. Son module interne s’appelle “Thinking Robot” et il interroge Gemini régulièrement du genre “Comment contourner l’antivirus X ? Propose des variantes de mon code pour éviter la signature Y.

Gemini lui répond, le malware applique le conseil, se modifie, et se relance.

Comme les antivirus détectent les malwares par signatures ou comportements connus, si le malware change toutes les heures, les signatures deviennent immédiatement obsolètes. L’antivirus a alors toujours un coup de retard. Et PROMPTFLUX n’a même pas besoin d’un serveur C2 pour télécharger de nouvelles variantes puisqu’il génère ses propres variantes localement en demandant à Gemini.

GTIG estime que PROMPTFLUX est encore en développement et les échantillons analysés ne montrent pas de capacité réelle à compromettre un réseau. Mais ça reste une preuve de concept active… En gros, quelqu’un, quelque part teste cette approche.

PROMPTSTEAL, lui par contre, est déjà opérationnel. GTIG l’attribue à APT28 (FROZENLAKE), un groupe lié au renseignement militaire russe (GRU). Le CERT-UA l’a documenté sous le nom LAMEHUG en juillet dernier et c’est la première observation d’un malware qui interroge un LLM en opération réelle.

PROMPTSTEAL de son côté est écrit en Python. Il utilise l’API Hugging Face pour accéder au modèle Qwen2.5-Coder-32B-Instruct . Le malware envoie des prompts encodés en Base64, genre “récupère les infos système” ou “trouve les documents sensibles” et le LLM génère des commandes Windows d’une ligne qui sont ensuite exécutées localement par le malware. Ensuite ce dernier collecte les données et les exfiltre tranquillement.

L’astuce donc, c’est que le malware ne contient plus de commandes en dur. Il les génère à la volée selon le contexte comme ça, si l’environnement change, il demande de nouvelles commandes adaptées. Plus de pattern fixe à détecter et chaque exécution est différente.

GTIG mentionne aussi d’autres exemples tels que FRUITSHELL, un reverse shell PowerShell public qui contient des prompts pour contourner les protections LLM ou encore PROMPTLOCK, un concept de ransomware en Go qui utilise un LLM pour générer des scripts Lua de chiffrement.

Il y a aussi QUIETVAULT, un voleur de tokens JavaScript qui cible GitHub et NPM, puis exfiltre les résultats via des repos publics.

Tous ces malwares partagent la même idée : intégrer un LLM dans la chaîne d’exécution. Génération, obfuscation, commandes dynamiques, recherche de secrets… Le LLM devient un composant actif du malware !

Le rapport décrit aussi comment les attaquants contournent les protections des LLM à base d’ingénierie sociale dans les prompts. L’attaquant se fait passer le plus souvent pour un étudiant en sécurité, un participant à un CTF, ou encore un chercheur parfaitement légitime. Le LLM, configuré pour aider, répond alors à toutes les demandes.

Dans un cas documenté par GTIG, une tentative a mal tourné pour les attaquants. On le sait car dans les logs de leurs échanges avec le LLM, GTIG a trouvé des domaines C2 et des clés de chiffrement en clair. Les attaquants avaient oublié de nettoyer leurs tests et c’est grâce à ça que GTIG a récupéré l’accès à leur infrastructure puis l’a neutralisée.

Le rapport liste aussi les groupes étatiques actifs comme UNC1069 (MASAN) , lié à la Corée du Nord, qui utilise les LLM pour générer des deepfakes et voler des cryptoactifs. Ou encore UNC4899 (PUKCHONG) , aussi nord-coréen, qui emploie les modèles pour développer des exploits et planifier des attaques sur les supply chains.

De son côté, APT41 , un groupe étatique chinois, s’en sert pour obfusquer du code. Et le groupe iranien APT42 , a même tenté de construire un agent SQL qui traduirait des requêtes en langage naturel vers des commandes d’extraction de données sensibles. GTIG les a bloqué en coupant les comptes qu’ils utilisaient.

Et sur le marché noire, ce genre d’outils et de services multi-fonctions ont le vent en poupe. Génération de campagne de phishing, création de deepfakes, génération automatique de malwares, abonnements avec accès API…etc.

Leur modèle commercial copie celui des services légitimes avec une version gratuite basique pour gouter et un abonnement payant pour les fonctions avancées, avec des communautés Discord pour le support. Ça permet d’abaisser la barrière d’entrée pour les attaquants les moins expérimentés.

Côté défense maintenant, les recommandations sont assez classiques. Pensez à surveiller l’activité anormale des clés API qui pourraient être volées. Détectez les appels inhabituels à des services LLM externes depuis les processus. Contrôlez l’intégrité des exécutables et protégez tout ce qui est “secrets” sur les hôtes.

N’oubliez pas non plus de ne jamais, ô grand jamais, exécuter aveuglément des commandes générées par un modèle IA (je vous l’ai assez répété).

Voilà, tous ces exemples actuels sont expérimentaux mais le signal est donné et il est plutôt limpide : l’IA est en train de rendre les malwares plus virulents en leur permettant de s’adapter !

Source

MocoLlamma - Ollama gérable depuis iPhone, iPad et Vision Pro

Par :Korben
7 novembre 2025 à 10:00

Vous avez installé Ollama sur votre Mac et vous êtes le plus joyeux de tous les mammifères car vous faites tourner Llama 3.x en local comme un chef. Et puis un soir, posé dans votre canapé avec votre iPad de bourgeois capitaliste, vous vous dites que ce serait bien de pull un nouveau modèle. Et là, vous réalisez qu’il va falloir sortir le MacBook, ouvrir un terminal, taper ollama pull mistral, attendre et attendre… Grosse flemme non ?

Hé oui, Ollama reste un outil en ligne de commande. C’est génial pour les devs, mais galère pour le reste et vous avez beau avoir de la puissance de calcul dans votre poche avec un iPhone ou un iPad, c’est impossible de gérer vos modèles sans SSH et sans Terminal.

Heureusement, MocoLlamma vient combler ce fossé. C’est une app de gestion Ollama pour macOS, iOS, iPadOS, et même visionOS si vous avez ce truc. C’est donc une vraie app native avec interface graphique, développée en Swift et SwiftUI dans laquelle ous ajoutez vos serveurs Ollama, et où vous gérez vos modèles, et vous testez vos LLM via un chat basique.

L’app s’organise autour de trois onglets. Le premier, Server, vous permet d’ajouter et de switcher entre plusieurs serveurs Ollama. Vous pouvez ainsi renommer chaque serveur, gérer les connexions, bref, tout ce qu’il faut pour jongler entre votre Mac local, votre serveur, ou votre instance cloud si vous en utilisez une.

Le second onglet, Model, affiche tous les modèles disponibles sur le serveur sélectionné. Vous voyez ainsi les infos de chaque modèle, vous pouvez les trier par taille, les ajouter ou les supprimer. Comme ça, plus besoin de taper ollama list pour savoir ce qui tourne. Tout est là, visuellement, avec la possibilité de gérer vos modèles d’un tapotage bien senti.

Le troisième onglet, Chat, permet de tester rapidement un modèle. C’est volontairement basique et l’idée n’est pas de remplacer ChatGPT ou Open WebUI, mais juste de vérifier qu’un modèle répond correctement. Genre, vous venez de pull Qwen 3, et vous voulez voir s’il fonctionne avant de l’intégrer dans votre workflow. Hop, quelques questions rapides dans le chat, et vous savez.

Il existe bien sûr des tonnes d’alternatives de GUI pour Ollama comme Open WebUI , LM Studio , Jan , GPT4All … Mais aucune ne supporte nativement visionOS ou les iPad / iPhone. Alors que MocoLlamma, si.

C’est actuellement la seule app qui vous permet de gérer vos LLM locaux depuis ces appareils Apple… C’est assez niche c’est vrai mais ça peut rendre service.

Le nom “MocoLlamma” est ce qu’on appelle un mot valise de “Model”, “Control”, “Ollama”, et “Manage”. C’est moche de ouf, c’est pas super à retenir, mais au moins ça décrit exactement ce que fait l’app.

Y’a la version gratuite qui est disponible sur GitHub, mais uniquement pour macOS (c’est sous license MIT) et la version payante, à 1,99 dollars sur l’App Store, supporte macOS, iOS, iPadOS, et visionOS. La différence principale pour l’app macOS c’est surtout les mises à jour automatiques. Vous payez 2 balles pour le confort.

Et là, un point crucial, sachez que MocoLlamma ne collecte AUCUNE donnée utilisateur. Bref, cette appli vient combler le trou qui se trouve entre “j’ai installé Ollama” et “je peux gérer mes modèles depuis mon iPhone”. Si vous avez ce besoin, c’est donc à considérer.

Merci à Lorenper pour la découverte.

Elephicon 3.9.2

7 novembre 2025 à 09:51
Logiciel gratuit et portable permettant de convertir une image/photo PNG en fichier icône...

Votre cerveau compresse les images 40 fois mieux qu'un algo

Par :Korben
7 novembre 2025 à 09:50

Vous avez, j’imagine, probablement des dizaines de milliers de photos sur votre disque dur. Ça représente peut-être quelques centaines de Go, peut-être 1 To si vous êtes à l’aise en espace de stockage. C’est beaucoup ?

Pas tant que ça si on pense un peu à votre cerveau. Lui, il stocke depuis toujours des décennies de souvenirs dans environ 1,5 kg de matière organique qui consomme moins qu’une ampoule LED.

Comment est-ce qu’il fait ?

Hé bien, une équipe du Weizmann Institute of Science vient peut-être de le découvrir et au passage, changer la compression d’images telle qu’on la connaît.

Le projet s’appelle Brain-IT , et leur idée c’est de reconstruire des images à partir des signaux fMRI (imagerie par résonance magnétique fonctionnelle) de votre cerveau. En gros, ils scannent votre activité cérébrale pendant que vous regardez une image, et ils arrivent à reconstruire ce que vous avez vu. Le papier scientifique est dispo sur arXiv si vous parlez leur langue.

Évidemment, ce genre de recherche, c’est pas nouveau mais Brain-IT est plutôt un franc succès car le process permet d’obtenir les mêmes résultats que les méthodes précédentes avec seulement 1 heure de données fMRI, contre 40 heures pour les autres approches.

En gros, ça représente 97,5% de données en moins pour obtenir le même résultat. Trop fort non ?

En fait, si Brain-IT peut faire ça, c’est parce que les scientifiques ont découvert comment votre cerveau compresse les images de manière hyper efficace. Et d’ailleurs, ce truc pourrait bien inspirer de nouveaux algorithmes de compression pour nos ordis.

Brain-IT utilise en fait ce qu’ils appellent un “Brain Interaction Transformer” (BIT). C’est un système qui identifie des “clusters fonctionnels” de voxels cérébraux. Un voxel, c’est l’équivalent d’un pixel mais en 3D, et chaque voxel représente environ 1 million de cellules dans votre cerveau.

Le truc génial, c’est que ces clusters fonctionnels sont partagés entre différentes personnes, comme si nous avions tous la même bibliothèque de “primitives visuelles” câblée dans nos têtes. Ce sont des schémas de base que notre cerveau utilise pour reconstruire n’importe quelle image.

Brain-IT reconstruit donc les images en deux passes. D’abord les structures de bas niveau (les formes, les contours), puis les détails sémantiques de haut niveau (c’est un chat, c’est un arbre, c’est votre tante Huguette). C’est un peu comme le JPEG progressif que l’on voyait s’afficher lentement avec nos modem 56K, mais en infiniment plus smart.

Du coup, si on comprend comment le cerveau compresse les images, on pourrait créer de nouveaux formats vidéo ultra-légers. Imaginez un Netflix ou un Youtube qui streame en “brain-codec” à 1/40e de la bande passante actuelle. Ça changerait pas mal de choses… Et c’est pareil pour l’IA générative car actuellement, on entraîne des modèles avec des millions d’images durant des jours alors que notre cerveau, lui, apprend à reconnaître un visage en quelques expositions.

Et grâce à ses modèles de diffusion, Brain-IT est même capable de reconstruire visuellement ce que voit le cerveau ! Par contre, Brain-IT n’a pour le moment été testé que sur des images “vues” et pas des choses imaginées…

Mais les scientifiques n’écartent pas l’idée que ce soit possible donc ce n’est qu’une question de temps avant qu’on puisse capturer en image ses rêves par exemple.

Voilà, j’ai trouvé ça cool parce que ça montre que notre cerveau est probablement le meilleur système de compression d’images jamais créé et qu’on commence à peine à comprendre comment il fonctionne.

Merci Dame Nature !

Voilà, si vous voulez creuser, le code et les détails techniques sont sur la page du projet Brain-IT , et le paper complet est dispo sur arXiv .

Source

Les poupées russes malveillantes de Curly COMrades

Par :Korben
7 novembre 2025 à 09:21

Si vous me lisez depuis longtemps, vous savez que les hackers russes ne manquent jamais d’imagination quand il s’agit de contourner les antivirus… Mais alors là, le groupe Curly COMrades vient de sortir un truc qui déboite du genou de gnome… Ces affreux planquent maintenant leurs malwares dans des machines virtuelles Linux cachées dans des Windows. Oui, des russes qui créent de véritables poupées russes numérique… qui aurait pu prévoir ^^ ?

Et c’est vicieux vous allez voir… les gars activent Hyper-V sur les machines Windows 10 compromises, puis ils y déploient une VM Alpine Linux ultra-minimaliste. 120 Mo d’espace disque et 256 Mo de RAM… C’est tellement léger que ça passe complètement sous les radars des EDR classiques.

Et la beauté du truc, c’est que tout le trafic malveillant qui sort de la VM passe par la pile réseau de Windows grâce au NAT d’Hyper-V. Du coup, pour l’antivirus, tout a l’air de venir de processus Windows parfaitement légitimes.

C’est bien joué non ?

À l’intérieur de cette VM Alpine, les hackers ont installé 2 malwares custom : CurlyShell et CurlCat. Le premier c’est un reverse shell qui communique en HTTPS pour exécuter des commandes à distance. Et le second, c’est un proxy SSH inversé qui encapsule le trafic SSH dans des requêtes HTTP et le fait transiter par un proxy SOCKS. Les deux partagent une grosse partie de leur code mais divergent sur le traitement des données reçues.

Les chercheurs de Bitdefender, en collaboration avec le CERT géorgien, ont documenté cette campagne qui cible principalement la Géorgie et la Moldavie depuis fin juillet 2025. Les attaquants visent surtout les secteurs gouvernementaux, judiciaires et énergétiques… Bref, les infrastructures critiques, comme d’habitude.

Une fois infiltrés, les hackers désactivent alors l’interface de gestion d’Hyper-V pour réduire le risque de se faire griller. Ensuite, ils configurent la VM pour utiliser le Default Switch d’Hyper-V et ajoutent même des mappages domaine-IP personnalisés. Et pour couronner le tout, ils déploient des scripts PowerShell pour l’injection de tickets Kerberos et la persistance via des comptes locaux.

Et les EDR traditionnels, qui se focalisent sur l’analyse des processus au niveau de l’hôte, ne peuvent pas détecter ce qui se passe à l’intérieur de la VM. En fait pour chopper ce genre de menace, il faut des capacités d’inspection réseau avancées… Autant vous dire que la plupart des boîtes n’en sont pas équipées…

Pour lutter contre ça, Bitdefender recommande de ne pas miser sur une seule solution de sécurité, mais d’en empiler plusieurs. D’abord mettre en place une protection du réseau pour bloquer les attaques avant qu’elles n’atteignent les ordinateurs. Y ajouter un système de détection avancé qui surveille en permanence ce qui se passe sur les machines. Et surtout une vraie politique de réduction des risques en fermant tous les services Windows dont on ne se sert pas.

Hé oui, si Hyper-V n’est pas activé d’origine sur les système, c’est bien parce que ça représente un risque supplémentaire, donc si vous ne vous en servez pas, désactivez le.

Source

[Astuce] Réduire le temps d'ouverture des sous-menus sous Windows 10 et 11

7 novembre 2025 à 08:40

Merci à vous de suivre le flux Rss de www.sospc.name.

Je vous propose aujourd'hui une astuce totalement inutile. 😁

Oui, je l'ai trouvée par hasard lors de mes errances sur la toile, c'est vous qui déciderez si elle vous serait utile... ou pas.

Si comme moi vous travaillez longtemps sur des ordinateurs, vous avez peut-être remarqué que lorsque vous effectuez un clic droit les sous-menus ne s'affichent pas immédiatement.

Je veux dire par là qu'il y a une attente - certes brève - avant que ce que vous recherchiez n'apparaisse.

Eh bien le fautif ce n'est pas votre configuration - à moins bien sûr qu'elle soit très ancienne - mais un paramétrage par défaut de Windows.

Oui, le réglage natif décidé par Microsoft est de 400 millisecondes.

Cela ne vous parle pas ? Bon, eh bien cela fait en fait 0.4 seconde, c'est à dire près d'une demi-seconde. 😁

Oui, je sais, ce n'est pas beaucoup, il n'y a pas mort d'homme.

Sauf que si vous enchainez de longues heures de travail cette ''latence'' est au fil du temps agaçante.

Je vous propose de changer ce paramétrage à... 40 millisecondes (soit 0.04 seconde pour celles et ceux qui suivent 😉).

Le résultat ? Eh bien vos sous-menus s'afficheront instantanément !

Cet article [Astuce] Réduire le temps d'ouverture des sous-menus sous Windows 10 et 11 est apparu en premier sur votre site préféré www.sospc.name

Calibre 8.14.0

7 novembre 2025 à 08:39
Utilitaire gratuit et en français permettant de gérer vos livres virtuels et de convertir vos PDF en eBook au format ePub...

Stacher 7.1.4

7 novembre 2025 à 08:38
Logiciel gratuit permettant d'enregistrer les vidéos disponibles sur YouTube, Facebook, X (Twitter), Dailymotion, Vimeo...

ID-Cooling FX360 LCD, FX360 LCD PE et FX360 TD : refroidisseurs AIO puissants et élégants pour PC haute performance

7 novembre 2025 à 09:07

ID-Cooling, spécialiste reconnu des solutions thermiques hautes performances, présente la nouvelle sérieFX360 LCD, FX360 LCD PE et FX360 TD, trois refroidisseurs liquides tout-en-un conçus pour offrir un équilibre parfait entre puissance, silence et personnalisation visuelle. Pensés pour les passionnés de PC, ces modèles associent des performances de refroidissement de haut niveau à un design moderne et à une expérience d’installation simplifiée.

FX360 LCD et LCD PE : affichage personnalisable et hautes performances

ID Cooling FX360 LCD global

Les modèles FX360 LCD et FX360 LCD PE intègrent un écran LCD de 1,48 pouce, entièrement personnalisable via un logiciel dédié. Les utilisateurs peuvent y afficher des informations système en temps réel, des animations ou leurs propres visuels pour une intégration unique dans leur configuration. La version LCD PE se distingue par ses ventilateurs AP-120-K optimisés pour des performances thermiques supérieures, assurant un flux d’air puissant tout en conservant un faible niveau sonore.

ID Cooling FX360 LCD écran LCD

FX360 TD : affichage de température en temps réel

ID Cooling FX360 TD global

La version FX360 TD met l’accent sur la simplicité et la surveillance instantanée, grâce à un affichage numérique clair qui indique la température du processeur en temps réel. L’écran est piloté par une application légère nécessitant simplement un connecteur USB 2.0, permettant une lecture rapide et fiable des performances système sans configuration complexe.

Pompe Gen 7 Pro et ventilation optimisée

ID Cooling FX360 LCD pompe

Les trois modèles intègrent la pompe Gen 7 Pro, capable d’atteindre 2900 tr/min avec un contrôle PWM à 4 broches et des roulements en céramique pour une durabilité prolongée. Les orifices d’injection d’eau relocalisés contribuent à réduire le bruit et les vibrations, assurant un fonctionnement stable et silencieux. Les modèles LCD et TD sont livrés avec les ventilateurs AS-120 V2 ARGB, réputés pour leur équilibre entre silence et efficacité, tandis que la version LCD PE mise sur des ventilateurs à haut débit pour un refroidissement maximal.

Installation simplifiée avec le kit X25

ID-Cooling a conçu un kit de montage X25 repensé, comprenant des entretoises résistantes aux rayures et un support monobloc simplifié. La pâte thermique FROST X45 pré-appliquée facilite la mise en place et garantit un contact thermique optimal dès la première installation. Même les utilisateurs novices peuvent monter le FX360 rapidement, proprement et sans effort.

ID Cooling FX360 LCD écran logiciel

La série FX360 LCD illustre la philosophie d’ID-Cooling : offrir des produits performants, élégants et accessibles, sans compromis sur la qualité. Que ce soit pour une configuration sobre ou un build ARGB entièrement personnalisé, les nouveaux FX360 permettent d’allier puissance, esthétique et simplicité.

Disponibilité :

Les FX360 LCD, FX360 LCD PE et FX360 TD sont disponibles dès maintenant auprès des revendeurs partenaires d’ID-Cooling.

MSI et Bandai Namco s’associent pour offrir Little Nightmares III avec les consoles Claw

7 novembre 2025 à 08:53

Encore une collaboration de MSI qui, ce coup-ci, s’associe à Bandai Namco Entertainment pour une offre exclusive à destination des joueurs. À partir du 10 octobre 2025, l’achat d’une console MSI Claw A8, Claw 8 AI+ ou Claw 7 AI+ donne droit à une copie numérique gratuite de Little Nightmares III sur PC.

MSI Claw Little Nightmares III 1

Dans Little Nightmares III, les joueurs embarquent pour une aventure macabre aux côtés de Low et Alone, deux enfants tentant de s’échapper de la Spirale, un ensemble de lieux étranges et inquiétants. Ensemble, ils devront affronter des illusions terrifiantes et échapper à une menace tapie dans l’ombre. Pour la première fois dans la série, il est possible de jouer en coopération en ligne ou en solo avec un compagnon contrôlé par l’IA.

MSI Little Nightmares III personnages

Grâce à la puissance des consoles portables MSI Claw, les joueurs peuvent profiter d’une immersion totale dans cet univers angoissant. Équipée du matériel le plus récent, la Claw garantit une expérience fluide et détaillée, où chaque ombre, chaque bruit et chaque frisson prennent vie.

Détails de la promotion pour obtenir Little Nightmares III :

Du 10 octobre au 30 novembre 2025, les acheteurs d’une console MSI Claw éligible recevront gratuitement une copie numérique de Little Nightmares III. L’offre est valable dans la limite des stocks disponibles.

MSI Claw Little Nightmares III

Pour plus d’informations sur le jeu, rendez-vous sur la page officielle :
https://www.bandainamcoent.com/games/little-nightmares-3

Kingston FURY Renegade G5 : la version 8 To débarque pour booster PCIE 5.0

Par :Wael.K
7 novembre 2025 à 08:35

Capacité XXL pour un SSD déjà remarqué : Kingston complète sa gamme FURY Renegade G5 avec un modèle 8 To (version 2 To testée ici), pensé pour les postes de travail et les machines de jeu qui avalent des données à la chaîne.

Jusqu’à 8 To et 14 800 Mo/s : le FURY Renegade G5 passe la seconde

SSD Kingston FURY Renegade G5 8 To, NVMe M.2 PCIe 5.0, haute performance, refroidissement avancé, stockage PC gaming

La division hautes performances de Kingston annonce une nouvelle capacité maximale de 8 192 Go pour son SSD NVMe M.2 2280 Renegade G5. Selon le constructeur, ce modèle exploite un contrôleur PCIe Gen 5 x4 associé à de la NAND 3D TLC pour atteindre jusqu’à 14 800 Mo/s en lecture et 14 000 Mo/s en écriture, avec plus de 2 millions d’IOPS. De quoi viser le montage vidéo, le rendu 3D et, évidemment, les jeux très lourds, sans brider la réactivité du système.

Il faut dire que l’espace devient un argument clé sur les configurations musclées. « Les utilisateurs ont besoin de plus de puissance et d’espace », résume Keith Schimmenti, responsable activité SSD chez Kingston, citant l’arrivée de ce 8 To comme une réponse directe aux besoins des enthousiastes.

Une gamme complète, garantie 5 ans

Kingston FURY Renegade G5 8 To NVMe PCIe 5.0 – SSD M.2 haute performance, dissipateur, vitesses extrêmes

Le Kingston FURY Renegade G5 couvre désormais des capacités de 1 To à 8 To. Il est livré avec une garantie limitée de cinq ans, un support technique gratuit et la fiabilité réputée de la marque. Reste à voir si la dissipation thermique et l’intégration sur cartes mères PCIe 5.0 permettront de tenir ces débits en charge prolongée, un point crucial sur ce segment.

Source : TechPowerUp

ASUS ROG dévoile ses moniteurs OLED 27″ PG27AQWP-W et XG27AQWMG avec technologie Tandem OLED et taux jusqu’à 540 Hz

7 novembre 2025 à 08:20

ASUS Republic of Gamers (ROG) renforce sa domination sur le marché du moniteur OLED avec deux nouveaux modèles 27 pouces : le ROG Swift OLED PG27AQWP-W et le ROG Strix OLED XG27AQWMG.
Ces écrans QHD (2560 × 1440) adoptent la technologie Tandem OLED, offrant une luminosité plus élevée (+15 %), un volume de couleur étendu (+25 %) et une durée de vie accrue de 60 % par rapport aux générations WOLED précédentes.

Le revêtement TrueBlack Glossy exclusif améliore la clarté d’image et le contraste, tandis que la certification VESA DisplayHDR 500 True Black et la couverture DCI-P3 de 99,5 % garantissent des visuels éclatants et un réalisme inégalé.
Les deux moniteurs bénéficient également du système ASUS OLED Care Pro avec capteur de proximité Neo pour prévenir le burn-in et prolonger la durée de vie du panneau.

ROG Swift OLED PG27AQWP-W : le moniteur OLED le plus rapide du monde

ROG Strix OLED XG27AQWMG face

Le PG27AQWP-W redéfinit la fluidité avec un taux de rafraîchissement record de 540 Hz et un temps de réponse ultra-rapide de 0,02 ms (GtG). Son mode double affichage permet de basculer instantanément entre QHD à 540 Hz et 720p à 720 Hz, selon les besoins du joueur.

Conçu pour les compétitions e-sport et la création professionnelle, le ROG Swift OLED PG27AQWP-W offre :

  • Luminosité crête de 1500 nits (HDR),
  • Couleurs 10 bits précalibrées en usine (Delta E < 2),
  • Connectique haut de gamme : DisplayPort 2.1 UHBR20 (80 Gbit/s), HDMI 2.1, USB 3.2 et prise casque,
  • Compatibilité G-SYNC® et FreeSync™ Premium Pro.
ROG Swift OLED PG27AQWP-W face et dos

Le capteur Neo ajuste automatiquement l’affichage en fonction de la distance de l’utilisateur, réduisant la luminosité ou éteignant le ROG Swift OLED PG27AQWP-W en cas d’absence. Son design élégant combine une finition argentée, un socle renforcé et un panneau arrière semi-transparent, alliant style et performance.

Prix : 1099 $ US (PDSF)

ROG Strix OLED XG27AQWMG : le parfait équilibre entre vitesse et qualité

Le XG27AQWMG vise les joueurs recherchant des performances élevées et une qualité d’image exceptionnelle. Il embarque une dalle WOLED 27” QHD (2560 x 1440) avec un taux de rafraîchissement de 280 Hz, un temps de réponse de 0,03 ms, et la technologie Tandem OLED pour une luminosité durable.

ROG Swift OLED PG27AQWP-W face

Il reprend les atouts du modèle Swift :

  • HDR500 True Black et DCI-P3 99,5 %,
  • 10 bits de couleur et Delta E < 2,
  • Technologie ASUS OLED Care Pro + capteur Neo,
  • Connectique complète : HDMI 2.1, DisplayPort 1.4 (DSC), 3x USB 3.2, prise casque,
  • Compatibilité G-SYNC® / FreeSync™ Premium Pro.
ROG Strix OLED XG27AQWMG dos

Son pied compact 30 % plus petit libère plus d’espace sur le bureau sans compromettre la stabilité, et son revêtement TrueBlack Glossy™ assure une profondeur de noir incomparable.

Prix : 599 $ US (PDSF)

Une expérience OLED plus durable et plus intelligente

Les deux moniteurs profitent de la suite ASUS OLED Care Pro, combinant :

  • Un capteur de proximité intelligent ajustable jusqu’à 1,2 m,
  • Des algorithmes de rafraîchissement automatique des pixels,
  • Et une uniformité de luminosité optimisée.

En complément, la technologie AI Assistant ajuste les paramètres d’image en fonction du contenu affiché, tandis que DisplayWidget Center et Aura Sync facilitent la personnalisation des effets lumineux et des profils de jeu.

Fiche technique rapide

ModèleROG Swift OLED PG27AQWP-WROG Strix OLED XG27AQWMG
Taille / Résolution27″ QHD (2560×1440)27″ QHD (2560×1440)
Type de dalleWOLED TandemWOLED Tandem
Taux de rafraîchissement540 Hz (QHD) / 720 Hz (720p)280 Hz
Temps de réponse0,02 ms (GtG)0,03 ms (GtG)
Luminosité HDR1500 nits (crête)1500 nits (crête)
Contraste1 500 000:11 500 000:1
Couleurs10 bits, DCI-P3 99,5 %, ΔE<210 bits, DCI-P3 99,5 %, ΔE<2
HDRVESA DisplayHDR 500 True BlackVESA DisplayHDR 500 True Black
ConnectiqueDP 2.1, HDMI 2.1, USB 3.2DP 1.4 (DSC), HDMI 2.1, USB 3.2
OLED Care Pro + Capteur NeoOuiOui
Prix1099 $ US599 $ US

Conclusion

Avec les PG27AQWP-W et XG27AQWMG, ASUS ROG prouve encore son avance sur le marché du moniteur OLED gaming. Entre la vitesse record de 540 Hz du Swift et la polyvalence haut de gamme du Strix, les joueurs ont désormais accès à des écrans Tandem OLED plus brillants, plus rapides et plus durables — conçus pour offrir le meilleur du jeu compétitif et créatif.

Disponibilité : fin 2025 – Garantie 3 ans (inclut protection burn-in)

HYTE X50 et X50 Air disponibles : design arrondi, mesh intégral et support 360 mm

Par :Wael.K
7 novembre 2025 à 07:58

Design arrondi, panneaux sans outil et promesse d’un flux d’air généreux : HYTE lance enfin ses boîtiers X50 et X50 Air aux États-Unis, après une première apparition remarquée au Computex 2025 et une ouverture des précommandes en septembre.

X50 et X50 Air : priorité au flux et à la facilité de montage

HYTE lance deux boîtiers au châssis tout en rondeurs, conçus avec de l’acier de 1 mm d’épaisseur et une fabrication dite de qualité automobile. La marque évoque des tolérances « quatre fois plus serrées » que la moyenne, condition nécessaire pour ces courbes composées. Il faut dire que l’ensemble vise autant la rigidité que la durabilité.

hyte x50 air vert
Source : AKMOD

Côté refroidissement, les deux modèles misent sur une façade micro‑mesh couvrant toute la surface pour un apport d’air à faible pression. À l’arrière, des ouïes à lames orientées (Louvered Blade Ventilation, en instance de brevet) réduiraient l’impédance d’extraction tout en renforçant la structure. Sur le dessus, un carénage d’alimentation transforme le bloc PSU en ventilateur d’extraction et libère de la place pour un câble management plus propre.

hyte x50 vert
Source : AKMOD

Le support de refroidissement liquide est généreux : radiateurs de 360 mm à l’avant et sur le flanc, jusqu’à dix ventilateurs au total, dont trois 120 mm « extra‑thick » en bas pour un effet cold-floor qui favorise la température du GPU. Reste à voir si la promesse se confirme en test indépendant, mais sur le papier, la marge est large.

x50 montage

Deux finitions, plusieurs coloris

Le X50 standard opte pour une grande vitre en verre acoustique laminé de 4 mm, censée allier visibilité et atténuation passive du bruit. Le X50 Air remplace cette vitre par un panneau micro‑mesh courbé, pensé pour maximiser le débit d’air. Côté couleurs, le X50 arrive en Snow White, Pitch Black, Wild Cherry, Taro Milk, Strawberry Milk et Matcha Milk. Le X50 Air se limite à Snow White et Pitch Black.

x50 all models

À l’intérieur, on retrouve des panneaux avant et latéraux sans outil, des canaux de câbles discrets et un vaste volume qui évite les points d’accrochage pendant le montage. HYTE insiste sur une expérience « builder‑friendly », et il faut reconnaître que l’approche semble cohérente.

Pour ceux qui préfèrent le prêt à l’emploi, iBUYPOWER propose déjà le X50 dans son configurateur Custom PC et via son service PC Lab pour des machines assemblées.

Prix et disponibilité selon HYTE : le X50 est affiché à 159,99 dollars hors taxes et droits (environ 150 à 170 euros TTC selon taxes), le X50 Air à 129,99 dollars (environ 120 à 140 euros TTC). Les deux modèles sont disponibles sur HYTE.com et chez la plupart des revendeurs en ligne américains.

Source : TechPowerUp

ASUS ROG Matrix Platinum RTX 5090 : un prix de 4 099 € et un lancement retardé

Par :Wael.K
7 novembre 2025 à 07:41

Grosse claque pour les impatients : la ROG Matrix Platinum RTX 5090 d’ASUS glisse vers la fin novembre, avec un prix qui grimpe à 4 099 €.

Sortie décalée, tarif stratosphérique

Selon plusieurs revendeurs, l’expédition n’interviendrait qu’en toute fin de mois, Proshop Allemagne indiquant le 27 novembre. Cette édition 30 eme anniversaire basée sur la puce Blackwell GeForce RTX 5090 et ses 32 Go de GDDR7 s’affiche à 4 099 €, soit quasiment le double des 2 099 € de la Founders Edition en Europe. Il faut dire que le positionnement est ultra élitiste : vitrine technologique, production limitée et gabarit massif en quadruple slot.

Carte graphique ASUS ROG Matrix Platinum RTX 5090 affichée avec étiquette de prix à 4 099 €, visuel produit noir, éclairage R

ASUS annonce une disponibilité extrêmement réduite, avec seulement 1 000 unités prévues. Autant dire que les collectionneurs, reviewers et quelques influenceurs seront les premiers servis. Comme le résume la source, « difficile d’imaginer cette carte hors des PC de collection ».

Jusqu’à 800 W via BTF, 10 % de marge pour l’OC

Le point fort reste son double système d’alimentation. Avec le connecteur standard 12V-2×6, la carte monte jusqu’à 600 W. Combinée à une carte mère BTF et son slot haute puissance caché, elle peut tirer jusqu’à 800 W, offrant environ 10 % de marge de performance supplémentaire pour l’overclocking lourd.

rog 5090 matrix 800w

Le refroidissement s’appuie sur quatre ventilateurs, une chambre à vapeur en cuivre, du métal liquide sur le GPU et un radiateur épaissi, tandis que le PCB reçoit davantage de cuivre. Des outils orientés extrême sont de la partie : Memory Defroster pour l’azote liquide et Power Detector+ pour détecter d’éventuelles anomalies d’alimentation.

Rog matrix 5090 03
Rog matrix 5090 01
Rog matrix 5090 02

Reste à voir si ce monstre trouvera preneur au-delà du cercle des passionnés. À ce niveau de prix, des joueurs en quête de valeur brute pourraient préférer une RTX 5090 Founders Edition, d’autant que l’écart tarifaire est vertigineux.

Source : VideoCardz

❌