Si les discours sur l’automatisation et la productivité se multiplient depuis l’arrivée de l’IA, la réalité du terrain reste parfois plus nuancée. En effet, une récente étude de Gallup permet justement de mesurer, chiffres à l’appui, la place réelle de l’IA dans le quotidien des salariés, avec des écarts marqués selon les métiers, les secteurs […]
Alors que l’Union européenne poursuit la structuration de son arsenal réglementaire numérique, de nouvelles initiatives commencent à susciter des inquiétudes chez les acteurs du secteur. Ces derniers estiment que la multiplication des textes pourrait fragiliser certains équilibres économiques déjà sous pression, en particulier dans l’écosystème des médias et de la publicité en ligne. Le Digital […]
Confirmée officiellement par les autorités après le déclenchement d’une enquête, l’intrusion qui vise le Ministère de l’Intérieur relance les interrogations sur la résilience numérique de l’État, la protection des données sensibles et la capacité des institutions à faire face à des groupes cybercriminels de plus en plus structurés… Une intrusion confirmée, une ampleur encore floue […]
Depuis l’entrée en vigueur du Digital Markets Act (DMA), l’Union européenne affiche l’ambition de rééquilibrer les rapports de force entre les grandes plateformes et les acteurs du numérique. Mais près d’un an après les premières décisions de Bruxelles, le débat est loin d’être clos. Plusieurs développeurs estiment que les ajustements opérés par Apple ne respectent […]
Meta se retrouve une nouvelle fois sous le feu des critiques sur la gestion de son écosystème publicitaire. Alors que Facebook et Instagram sont officiellement interdits en Chine depuis plus de quinze ans, le pays s’est imposé comme un pilier discret mais massif des revenus publicitaires du groupe. Une situation paradoxale, qui pose aujourd’hui la […]
Quelques jours après le lancement de GPT-5.2, et après avoir annoncé un partenariat avec Adobe, OpenAI vient de dévoiler une nouvelle mise à jour dédiée à l’image, avec l’ambition de repositionner ChatGPT comme un outil créatif polyvalent, aussi à l’aise dans la création que dans la retouche visuelle… Une mise à jour ciblée… mais stratégique […]
À mesure que les frontières entre fintechs, banques et acteurs de la cryptomonnaie s’estompent, PayPal avance ses pions pour maîtriser une part toujours plus large de la chaîne financière. Après le lancement de son stablecoin PYUSD, PayPal franchit une nouvelle étape structurante dans sa stratégie aux États-Unis… Une demande de licence bancaire déposée dans l’Utah […]
En seulement quelques années, Google Discover s’est imposé comme un point d’entrée quotidien vers l’actualité. Entre les actualités généralistes, les contenus viraux, et les recommandations parfois inattendues, le fil d’information repose depuis toujours sur des algorithmes « censés » anticiper les centres d’intérêt des utilisateurs. Mais malgré des années d’optimisation, Google Discover continue de susciter un sentiment […]
Bon, déjà si vous êtes sous Windows, je sais c'est dur la vie ^^. Mais si en plus vous êtes anti-IA, votre quotidien doit être encore plus difficile depuis que Microsoft a décidé de coller de l'intelligence artificielle partout dans son OS. Copilot par-ci, Recall par-là, des features IA dans Paint, dans le Bloc-notes, dans les paramètres... Bref, c'est l'invasion et y'a malheureusment pas vraiment de bouton "OFF" officiel pour tout virer d'un coup.
Hé bien figurez-vous qu'un développeur du nom de zoicware a créé un script PowerShell qui fait exactement ça. Ça s'appelle
RemoveWindowsAI
et ça permet de dégager TOUTES les fonctionnalités IA de Windows 11 en quelques secondes. Aux chiottes Copilot, Recall, les suggestions de frappe, l'IA dans Paint, dans Edge, les effets vocaux... Tout y passe et c'est cool !
Et ce script ne se contente pas de désactiver des options dans les paramètres comme un vulgaire amateur puisqu'il modifie les clés de registre, supprime les packages Appx (même ceux marqués "non supprimables" par Microsoft), nettoie les fichiers cachés dans le Component-Based Servicing, et surtout il installe un bloqueur pour empêcher Windows Update de vous remettre tout ce bazar à la prochaine mise à jour. Parce que oui, Microsoft adore réinstaller ses trucs en douce...
Pour l'utiliser, c'est assez simple. Vous lancez PowerShell en admin (attention, pas PowerShell 7 mais bien le bon vieux Windows PowerShell 5.1) et vous tapez une seule commande qui télécharge et exécute le script. Y'a même une interface graphique interactive pour ceux qui préfèrent cocher des cases plutôt que de taper des lignes de commande (Allez quand même lire le code avant sur le Github pour vous assurer que c'est OK, c'est une bonne habitude à prendre).
Maintenant, quelques précautions à savoir quand même. Certains antivirus merdiques vont hurler au loup en voyant ce script. Rassurez-vous, c'est un faux positif classique avec ce genre d'outils qui touchent au système en profondeur. Faudra soit désactiver temporairement votre antivirus, soit ajouter une exception et surtout, le développeur recommande fortement de tester ça dans une machine virtuelle avant de l'appliquer sur votre PC principal. Avec VirtualBox ou Hyper-V, vous pouvez créer un Windows 11 de test en quelques clics et voir si tout se passe bien.
Et si jamais vous changez d'avis et que vous voulez récupérer vos features IA adorées, pas de panique ! Y'a un mode "Revert" qui permet de tout restaurer. Vous n'êtes donc pas coincé pour toujours si vous décidez finalement de revenir vers le côté obscur de la Force.
Bref, si vous faites partie de ceux qui pensent que l'IA dans Windows c'est plus une nuisance qu'autre chose (et que ça pompe des ressources pour des fonctionnalités dont vous n'avez pas besoin), ce petit script vous sera utile.
Dans l’univers de la tech, certaines entreprises atteignent des sommets financiers tout en restant relativement peu connues du grand public. C’est le cas de Databricks, spécialiste américain de la donnée et de l’IA, qui s’impose aujourd’hui comme l’un des acteurs non cotés les mieux valorisés au monde… Une série L qui confirme une dynamique hors […]
Vous avez des dossiers sensibles que vous aimeriez chiffrer avant de les balancer sur un cloud ou un disque externe ? Ça tombe bien, je vous ai trouvé un petit outil en Rust qui va vous plaire.
Obsidenc, c'est son nom, est un utilitaire de chiffrement que son créateur qualifie de "paranoid-grade". Et après avoir jeté un œil au code source, je peux vous dire que c'est pas du marketing puisque ce truc archive votre répertoire en TAR et le chiffre avec XChaCha20-Poly1305, un
algorithme AEAD
moderne qui assure à la fois la confidentialité et l'intégrité de vos données.
Côté dérivation de clé, ça utilise Argon2id conforme à la RFC 9106. Pour les non-initiés, Argon2id c'est l'algo qui a gagné le Password Hashing Competition et qui est spécifiquement conçu pour résister aux attaques par GPU et circuits spécialisés (ASIC). L'outil adapte automatiquement les paramètres à votre machine en utilisant 85% de votre RAM disponible (entre 512 Mo minimum et 2 Go maximum) afin de rendre le brute-force astronomiquement coûteux. Et si vous avez moins de RAM dispo, il compense en augmentant le nombre d'itérations.
C'est du code Rust bien propre qui utilise les bibliothèques cryptographiques RustCrypto (bien auditées par la communauté) et le code implémente des bonnes pratiques de sécurité comme le memory locking (mlock sur Unix, VirtualLock sur Windows) pour éviter que vos clés se retrouvent dans le swap, et le
zeroize
pour effacer la mémoire sensible après utilisation.
Vous compilez ça avec cargo build --release, puis pour chiffrer un dossier :
Le mot de passe doit faire minimum 20 caractères (pas de négociation possible, déso pas déso) et vous devez le confirmer deux fois. Vous pouvez aussi ajouter un fichier de clé en plus du mot de passe pour du 2FA old-school.
L'outil a aussi quelques protections défensives sympas. Par exemple, il refuse les symlinks (vecteur d'attaque classique), limite le nombre de fichiers à 1 million et la longueur des chemins à 4096 caractères pour éviter les zip bombs. Sur les systèmes Unix, il vérifie même que votre fichier de clé n'est pas lisible par tout le monde (chmod 600 obligatoire).
Cet outil part du principe qu'un attaquant peut avoir accès à votre fichier chiffré et dispose de temps illimité pour tenter de le casser, du coup, tout est conçu pour rendre l'attaque offline la plus douloureuse possible.
Bref, si vous cherchez un moyen de sauvegarder vos dossiers sensibles de manière vraiment sécurisée avant de les balancer sur un cloud ou un disque externe,
obsidenc
fait le taf et en plus c'est open source (MIT/Apache 2.0) !
Vous utilisez
une extension VPN gratuite
sous Chrome ou Edge pour "protéger votre vie privée" ? Cool story les bro, mais si je vous disais que cette même extension enregistre peut-être toutes vos conversations avec ChatGPT, Claude, Gemini et compagnie pour les revendre à des courtiers en données (les fameux data brokers) ?
Hé bien c'est exactement ce que viennent de découvrir les chercheurs en sécurité de Koi qui ont mis le doigt sur 4 extensions très populaires comptabilisant plus de 8 millions d'utilisateurs au total : Urban VPN Proxy (6 millions à elle seule), 1ClickVPN Proxy, Urban Browser Guard et Urban Ad Blocker qui aspirent silencieusement tout ce que vous tapez dans vos chat IA préférées.
Le truc vicieux, c'est que ces extensions ne se contentent pas de regarder votre historique de navigation comme les trackers classiques. Non non non, elles injectent du code JavaScript directement dans les pages des chatbots IA quand vous les visitez et ça modifie les fonctions de base du navigateur (fetch() et XMLHttpRequest pour les techos) pour intercepter absolument tout ce qui passe entre vous et l'IA.
Vos prompts, les réponses du chatbot, les métadonnées de conversation, tout est aspiré et envoyé vers les serveurs analytics.urban-vpn.com et stats.urban-vpn.com. Et le pire c'est que cette collecte continue en arrière plan même quand le VPN est désactivé. Bye bye tous vos secrets.
Derrière ces extensions se cache Urban Cyber Security Inc., une boîte affiliée à BiScience, un courtier en données bien connu des chercheurs en sécurité. Ces gens-là sont passés de la collecte d'historique de navigation à la collecte de conversations IA complètes, soit un niveau de sensibilité bien supérieur vu ce qu'on peut raconter à une IA (questions médicales, code propriétaire, problèmes personnels, données financières...).
Et devinez quoi ? Ces extensions arboraient fièrement le badge "Featured" sur le Chrome Web Store et le Microsoft Edge Add-ons, censé garantir que Google et Microsoft ont vérifié leur sécurité. Nos deux géants américains ont donc validé des extensions qui violent directement leur propre politique d'utilisation limitée des données utilisateurs.
Bref, si vous avez installé une de ces extensions et utilisé ChatGPT, Claude, Gemini, Copilot, Perplexity, DeepSeek, Grok ou Meta AI depuis juillet de cette année, partez du principe que toutes ces conversations sont maintenant sur les serveurs d'un data broker et potentiellement revendues à des annonceurs.
La morale de l'histoire, c'est que dans le cas des VPN gratuits, le produit c'est littéralement tout ce que vous faites en ligne. Donc si vous voulez vraiment protéger votre vie privée avec un VPN, mieux vaut payer quelques euros par mois pour un service sérieux comme NordVPN ou Surfshark qui n'a pas besoin de revendre vos données pour survivre.
🔒 VPN sérieux vs extensions gratuites douteuses
Pour protéger réellement vos conversations IA et votre vie privée sans finir dans une base de données de data broker, NordVPN fait le job :
✓ Politique stricte de non-conservation des logs (auditée par des tiers indépendants)
✓ Chiffrement AES-256 de tout votre trafic, y compris vos échanges avec ChatGPT & co
Vous aussi vous avez ce truc où vous devez juste faire un petit SELECT rapide sur votre base de données, et là vous lancez un monstre du genre SQL Server Management Studio ou DBeaver, vous attendez que ça se charge pendant 47 ans, que ça bouffe les 2 Go de RAM qu'il vous reste, et tout ça pour une requête de 3 lignes ?
Moi ça m'énerve profondément, j'avoue... Pas le temps, pas la patience !
Heureusement, y'a un dev qui en a eu encore plus marre que moi et qui a pondu sqlit. C'est une interface TUI (Terminal User Interface, je précise...) qui tourne direct dans votre terminal et qui supporte un paquet de bases de données différentes telles que PostgreSQL, MySQL, SQL Server, SQLite, MariaDB, Oracle, DuckDB, CockroachDB, Supabase, Turso... La liste est longue mais en gros, si ça parle SQL, sqlit sait s'y connecter.
Le truc est inspiré de
lazygit
, un client Git en TUI que beaucoup de devs adorent, ce qui fait qu'on retrouve cette approche "lazy" où l'interface se suffit à elle-même. Comme ça y'a pas besoin de mémoriser 150 raccourcis clavier, puidqu'il y a une aide contextuelle qui s'affiche et qui vous dit quoi faire, comme votre maman quand vous ne l'avez absolument pas sollicitée.
On a donc de l'autocomplétion SQL qui va chercher les noms de tables et de colonnes, un historique des requêtes par connexion (pratique pour retrouver cette requête chelou qu'on avait bidouillée y'a 3 semaines), et même la gestion des tunnels SSH intégrée pour se connecter à des bases distantes. Les utilisateurs de Vim seront contents aussi, car y'a un mode d'édition modal pour naviguer comme dans votre éditeur préféré.
Pour l'installer, c'est hyper simple :
pip install sqlit-tui
Et après vous tapez sqlit dans votre terminal et c'est parti. Les drivers pour chaque type de base de données s'installent à la demande la première fois que vous essayez de vous connecter. Donc pas de dépendances inutiles qui traînent si vous utilisez juste PostgreSQL par exemple.
Y'a aussi un mode CLI si vous voulez scripter vos requêtes :
Le seul truc naze je trouve, c'est le nom "sqlit" qui ressemble trop à SQLite. Bon courage pour googler des infos dessus... Je sais de quoi je parle, toutes les 2 semaines, y'a une entreprise Korben qui pop en voulant surfer sur mon buzz (ouais j'ai le melon, mdr) et qui passe toutes ses levées de fonds en adwords pour se positionner avant moi sur Google ^^. C'est couillon ^^.
Bref, si vous vivez dans le terminal et que vous en avez marre de lancer des client lourds juste pour un SELECT, c'est vraiment pratique.
Merci à vous de suivre le flux Rss de www.sospc.name.
Je fournis dès que je le peux, et pour ceux que cela intéresse, le lien d'SOSPC aux stagiaires, clients etc., qui désirent accéder à un site fiable d'entraide numérique.
Cette semaine deux étudiants du campus m'ont abordé avec un sourire ironique en me soumettant un argument à propos d'SOSPC : "Comment avoir confiance dans ce site, alors que sur la plupart des plates-formes les tutos sont écrits & rédigés par une IA et sans véritable intérêt ?"
J'avoue n'avoir jamais songé à ça, à défaut d'être déstabilisante à ce moment-là la question me paraît toutefois légitime.
Bien sûr j'ai répondu, il y a une histoire de confiance envers le site et les tutos sont signés par les contributeurs qui testent leurs outils. Une fois en main par Chris celui-ci teste de nouveau une dernière fois pour vérifier s'il y a eu un oubli ou une erreur, etc.
Et c'est seulement à partir de là que les tutos sont publiés.
Nemotron 3 Nano frappe fort : NVIDIA annonce un modèle open‑weight de 30B avec une fenêtre de contexte native d’un million de tokens. Destiné aux flux multi‑agents et aux outils, Nemotron 3 Nano mise sur un débit de tokens élevé et une architecture MoE hybride Mamba‑Transformer.
Nemotron 3 Nano : 30B au total, 1M de contexte, MoE hybride
NVIDIA présente un modèle à experts mixtes où 30 milliards de paramètres totaux côtoient environ 3 milliards actifs par token, tandis que la fiche Hugging Face précise 31,6B au total et près de 3,6B actifs. Le routeur activerait 6 experts sur 128 à chaque passe, d’après Hugging Face, avec des cibles de déploiement annoncées sur DGX Spark, H100 et B200.
Côté performances, Hugging Face revendique jusqu’à 4 fois plus rapide en inférence que Nemotron Nano 2, et jusqu’à 3,3 fois plus de throughput que d’autres modèles de taille similaire. Un exemple sur un seul GPU H200, en configuration entrée 8K et sortie 16K, crédite Nano d’un débit 3,3 fois supérieur à Qwen3‑30B et 2,2 fois supérieur à GPT‑OSS‑20B. NVIDIA cite aussi Artificial Analysis : Nano obtiendrait 52 à l’Intelligence Index v3.0 parmi les modèles comparables.
La fenêtre de contexte constitue l’autre indicateur clé : 1M de tokens. La note Hugging Face décrit une extension long contexte via un entraînement continu à 512K de longueur de séquence, mélangé à des séquences plus courtes pour préserver les performances sur benchmarks court contexte. NVIDIA met en avant la prise en charge de vastes bases de code, de documents longs et de sessions d’agents prolongées sans fractionnement lourd : « support pour de longs documents et sessions agents sans chunking massif », résume la société.
Outils, cibles GPU et feuille de route Nemotron 3
Pour le déploiement, NVIDIA fournit des cookbooks pour vLLM, SGLang et TensorRT‑LLM, et mentionne une exécution sur GeForce RTX via llama.cpp et LM Studio. La feuille de route annonce Nemotron 3 Super et Ultra au premier semestre 2026, avec au programme latent MoE, multi‑token prediction et entraînement NVFP4. En contexte, la famille Nemotron‑3 8B (2023) visait surtout le chat et la FAQ en entreprise via NeMo et des catalogues hébergés.
Verdict
Avec Nemotron 3 Nano, NVIDIA ne se contente pas de publier un modèle open-weight de plus. Le constructeur pose un jalon clair dans sa stratégie IA : proposer des modèles pensés dès l’origine pour les flux multi-agents, les outils et les contextes extrêmement longs, tout en les intégrant étroitement à son écosystème matériel et logiciel. Le million de tokens natif, l’architecture MoE hybride et les optimisations d’inférence ciblées renforcent cette approche verticale, où le modèle devient un prolongement naturel de la plateforme NVIDIA.
En face, AMD joue une partition différente. Le fondeur mise avant tout sur son matériel Instinct et sur un écosystème ouvert capable de faire tourner les meilleurs modèles du moment, sans chercher à imposer une famille de modèles maison équivalente. Cette opposition de philosophies dessine deux visions du marché : NVIDIA avance avec des solutions clés en main, tandis qu’AMD privilégie la flexibilité et l’interopérabilité.
Reste à voir si cette intégration poussée des modèles par NVIDIA deviendra un standard pour les usages agents et long contexte, ou si l’écosystème open source, soutenu par des plateformes comme celles d’AMD, saura combler cet écart sans dépendre d’un acteur unique. Les prochaines déclinaisons Nemotron 3 Super et Ultra, attendues en 2026, devraient rapidement apporter des éléments de réponse.
Alors que la pénurie de mémoire DRAM continue de s’étendre à l’ensemble de l’industrie PC, une nouvelle rumeur suggère que NVIDIA serait désormais contrainte d’adapter sa stratégie de production pour les GeForce RTX 50. Selon plusieurs sources issues de la chaîne d’approvisionnement asiatique, le constructeur préparerait une réduction significative des volumes de GPU afin d’anticiper […]
À la fin de l’année 2021, ASUS présentait un produit qui avait alors tout d’une curiosité technologique : un adaptateur permettant d’installer de la mémoire DDR4 sur une carte mère conçue pour la DDR5. À l’époque, l’idée semblait excessive, presque inutile. Près de quatre ans plus tard, dans un contexte de pénurie mondiale de mémoire […]
L’industrie du hardware gaming traverse une phase de tension inhabituelle, alimentée par une explosion de la demande en mémoire DRAM. Cette situation provoque des pénuries, des hausses de prix marquées et une avalanche de rumeurs autour des grands acteurs du secteur. Samsung s’est récemment retrouvé au centre de spéculations évoquant un possible abandon de la […]
Sortie discrète mais révélatrice : AMD glisse une Radeon RX 9060 XT LP (Low Power) au catalogue, d’abord en Chine, avec 16 Go et des performances annoncées à 25 TFLOPS.
Radeon RX 9060 XT Low Power : moins d’énergie, mêmes ambitions
AMD liste officiellement cette RX 9060 XT LP sur son site, sans tout détailler. Le positionnement est clair : « immersive experiences at lower power », cite AMD. Le Total Board Power n’est pas confirmé. La RX 9060 XT standard est donnée à 180 W avec une alimentation minimale recommandée à 450 W, une exigence qui ne change pas pour cette version Low Power. D’après des médias chinois, il semblerait que le TBP tombe à 140 W, soit 40 W de moins que le modèle 16 Go classique.
Les fréquences ne sont pas publiées, mais AMD annonce 25 TFLOPS en calcul simple précision, très proche des 25,6 TFLOPS du modèle plein régime. À partir de ce chiffre, le boost serait autour de 3,05 GHz, environ 80 MHz sous la RX 9060 XT standard. La carte conserve 16 Go de mémoire et vise des « expériences immersives à plus faible consommation » selon AMD.
Disponibilité : d’abord la Chine, une portée plus large en vue
La carte est visible aussi sur le site international d’AMD, signe possible d’une diffusion plus large. Aucun modèle custom n’a pour l’instant été repéré à la vente. À ce stade, AMD ne précise pas davantage les spécifications finales ni le calendrier, mais la fiche produit est en ligne.