Vue normale
Test : AIO MSI MPG CORELIQUID P13 360
Aujourd’hui dans la Cuisine du Hardware, nous passons en test un AiO (watercooling tout-en-un) de chez MSI. En effet, nous avons ici sous la main le MPG CORELIQUID P13 360 qui utilise donc un radiateur 360 mm. Cette référence propose un écran, des ventilateurs CycloBlade 9, mais aussi un système de câble astucieux nommé […]
L’article Test : AIO MSI MPG CORELIQUID P13 360 est apparu en premier sur HardwareCooking.
Crise DRAM : les grands OEM PC servis en priorité, les petits à la peine
Crise DRAM ou simple rationnement stratégique ? D’après DigiTimes, Samsung et SK Hynix accorderaient désormais une priorité d’approvisionnement aux géants comme Apple, ASUS, Dell et Lenovo. Un tri qui laisserait des acteurs plus petits face à des stocks incertains.
Crise DRAM : priorité aux grands, pression sur le reste du marché
Le marché encaisse déjà des effets en chaîne : offres « apportez votre propre RAM » chez des assembleurs de PC sur mesure, rumeurs de report pour les prochaines consoles. Selon le média taïwanais, les fournisseurs de mémoire ajustent leur politique commerciale pour exploiter une capacité limitée, en réévaluant plus souvent les volumes et les tarifs. Une pratique qui favoriserait les marques grand public les plus visibles et leurs calendriers de lancement.

TechPowerUp rappelait récemment que les fabricants PC pourraient réviser prix, fiches techniques et dates de sortie d’ordinateurs portables et de smartphones. Les accords révisables recherchés par Apple, ASUS, Dell et Lenovo viseraient précisément à atténuer ces glissements. En filigrane, il semblerait que la priorité d’allocation accentue la fracture entre mastodontes et challengers. Comme le résume le rapport cité : « les fournisseurs réévaluent plus fréquemment les accords ».
Accords dynamiques et risque de pénurie pour les plus petits
D’après DigiTimes, ce pivot contractuel permet d’ajuster rapidement prix et volumes à la faveur des plus gros acheteurs, en priorité sur la DRAM. Conséquence probable : tension accrue pour les intégrateurs de niche, voire absence temporaire de modules mémoire à intégrer. Les offres BYO-RAM et les spécifications revues à la baisse pourraient se multiplier si la capacité reste contrainte.
Source : TechPowerUp
Organic Maps - Le GPS open source qui ne vous flique pas
Vous utilisez Google Maps pour vos balades ou vos trajets en bagnole, comme tout le monde. Sauf que vous savez aussi bien que moi ce que ça implique... Google qui sait où vous êtes, où vous allez, à quelle heure vous bougez, et combien de temps vous passez chez votre nouvelle voisine (pas assez longtemps à son goût).
Mais bonne nouvelle les amis, y'a une alternative qui existe depuis un moment et qui mérite vraiment qu'on s'y intéresse. Ça s'appelle Organic Maps et c'est exactement ce que son nom suggère : des cartes propres, sans pesticides publicitaires ni tracking chimique.
Le principe est simple. Vous téléchargez les cartes des régions qui vous intéressent, et ensuite vous pouvez naviguer en mode 100% offline. Pas besoin de réseau, pas de connexion data qui se vide à l'étranger, rien. Votre téléphone devient un vrai GPS autonome, comme au bon vieux temps des Tomtom, mais en mieux.
Côté vie privée, c'est le jour et la nuit avec les apps classiques. Zéro pub, zéro tracking et surtout l'app a été vérifiée par Exodus Privacy Project et TrackerControl, donc c'est pas juste du blabla marketing. Même pas besoin de créer un compte pour l'utiliser, vous installez et hop c'est parti.
Pour les randonneurs et cyclistes, c'est là que ça devient vraiment sympa puisqu'Organic Maps affiche les courbes de niveau, les profils d'élévation, les sentiers de rando et les pistes cyclables. Y'a même un mode navigation turn-by-turn avec guidage vocal, et depuis 2024 le support Android Auto est dispo pour l'utiliser en voiture.
Les cartes viennent d'OpenStreetMap, donc c'est collaboratif et parfois plus à jour que ce qu'on trouve chez Google, surtout pour les petits chemins et les POI un peu obscurs. Perso, j'ai déjà trouvé des trucs sur OSM qui n'existaient même pas sur Maps, genre des fontaines d'eau potable en pleine montagne ou des refuges paumés.
L'app est dispo sur iOS , Android (y compris sur F-Droid pour les allergiques au Play Store), et même sur Linux en Flatpak . C'est open source sous licence Apache 2.0, donc vous pouvez aller fouiller le code si ça vous chante. Le projet est financé par des dons et des fondations comme NLnet, et pas par la revente de vos données de localisation.
Après la recherche est moins puissante que Google Maps, ce qui est normal vu qu'ils ont pas des milliards à claquer en IA. Et les infos de trafic en temps réel, bah y'en a pas. Mais pour de la rando, du vélo, ou même des trajets quotidiens quand on connaît un peu le coin, c'est largement suffisant.
Bref, si vous en avez marre de sentir le regard de Google dans votre dos à chaque déplacement, ou si vous voulez juste une app GPS qui marche sans réseau, foncez sur Organic Maps . C'est gratuit, et ça fait le taf !

-
7.1.2 🖥️ Sites secondaires
- HiFidelity - Le lecteur audio macOS pour ceux qui en ont marre de Spotify
HiFidelity - Le lecteur audio macOS pour ceux qui en ont marre de Spotify
J'arrête pas de lire en ce moment des articles sur des Américains de moins de 25 ans qui découvrent les cassettes audio et qui nous en font des tartines en mode "c'est trop génial". Ils sont mignons car biberonnés à Stranger Things, ils deviennent nostalgiques de cette époque des années 80 qu'il n'ont pas connu. Je comprends, c’était cool mais moi j'ai connu et je peux vous dire que la cassette audio, ça vaut pas un bon vieux FLAC en termes de qualité audio.
Après Spotify même s'il propose du lossless depuis peu, c'est pas non plus le top parce que bah faut payer l'abonnement et puis la musique ne nous appartient pas vraiment. Alors peut-être que, finalement, la voie de la sagesse, c'est celle qui consiste à se faire une collection de FLAC comme on le faisait à l'époque avec nos vieux MP3.
Et c'est pour ça qu'aujourd'hui je vous parle de HiFidelity qui va probablement vous faire plaisir.
C'est un lecteur audio pour macOS, totalement gratuit et open source, pensé pour les audiophiles qui en ont marre des usines à gaz bardées de trackers et d'abonnements. Le truc fonctionne 100% hors ligne, ne collecte aucune donnée, et utilise la bibliothèque BASS (celle qu'on retrouve dans plein de players pro) pour une lecture bit-perfect. Ça veut dire que vos fichiers audio sont lus tels quels, sans conversion ni dégradation.
Côté formats, c'est la totale : FLAC, WAV, AIFF, APE, MP3, AAC, OGG, OPUS, M4A... bref tout ce qui traîne dans une bibliothèque musicale bien fournie. Et pour les puristes, y'a même un mode "Hog" qui prend le contrôle exclusif de votre périphérique audio. En gros aucune autre app ne viendra polluer votre écoute avec ses petits bips de notifications.
L'interface est propre, avec navigation par artistes, albums, genres, et une recherche super réactive grâce à SQLite FTS5 , recommandations automatiques... Ah et le mini-player flottant est vraiment bien foutu pour bosser avec sa musique sans encombrer l'écran.
Perso, ce qui me plaît, c'est l'approche "local first" et avoir un lecteur qui fait juste... lire de la musique, ça fait du bien. Y'a même la synchro des paroles en temps réel via lrclib et un égaliseur multiband pour ceux qui aiment tripatouiller les fréquences.
Pour l'installer c'est simple... soit via Homebrew avec
brew tap rvarunrathod/tap && brew install --cask hifidelity
Soit en téléchargeant directement depuis GitHub . Faut macOS 14 minimum par contre.
Bref, si vous cherchez un lecteur audio qui respecte vos oreilles ET votre vie privée, HiFidelity mérite clairement le coup d'oeil. Merci à Lorenper pour la découverte !

Apple Livres a aussi son Rewind : où le trouver sur iPhone ?
![]()
Password Tech 3.5.10
ConvertXtoDVD 7.5.0.137
Seamonkey 2.53.23 Fr
Comment souhaiter la bonne année 2026 à vos proches en un éclair
![]()
-
7.1.2 🖥️ Sites secondaires
- Dyson V15 : économisez 200 € sur l’un des meilleurs aspirateurs balais sans fil de la marque
Dyson V15 : économisez 200 € sur l’un des meilleurs aspirateurs balais sans fil de la marque
![]()
-
7.1.2 🖥️ Sites secondaires
- MSI tease du gros pour le CES : le retour des GeForce RTX « Lightning » est imminent
MSI tease du gros pour le CES : le retour des GeForce RTX « Lightning » est imminent
MSI aime décidément jouer avec les symboles. À quelques jours du CES 2026, le constructeur vient de publier un teaser énigmatique qui ne laisse pourtant que peu de place au doute : la mythique gamme « Lightning » s’apprête à faire son grand retour. Une annonce qui ravive immédiatement l’intérêt des passionnés d’overclocking et de […]
L’article MSI tease du gros pour le CES : le retour des GeForce RTX « Lightning » est imminent est apparu en premier sur HardwareCooking.
8 apps iPhone pour revendre ses cadeaux de Noël
![]()
Comment j'ai viré Algolia et recréé le Google de 1998 sur mon site
Bon, faut qu'on parle un peu du moteur de recherche de mon site. Ceux qui l'ont déjà utilisé savent de quoi je parle : c'était pas terrible. Enfin, « pas terrible » j'suis gentil. C'est un espèce d'overlay avec des résultats certes fiables mais c'était vraiment pas pratique.
Et en plus de ça, comme j'ai un site statique généré avec Hugo, je passais par Algolia pour la recherche. Si vous ne connaissez pas, Algolia c'est un service cloud qui indexe votre contenu et vous fournit une API de recherche ultra-rapide. Sur le papier c'est génial et dans la pratique aussi d'ailleurs sauf que voilà, ça coûte des sous. Et mon site rencontre un franc succès ces derniers temps (merci à vous !), donc j'ai de plus en plus de visiteurs, donc de plus en plus de recherches, donc une facture Algolia qui grimpe gentiment chaque mois.
Du coup je me suis dit : « Et si je trouvais une solution de recherche pour sites statiques ? » Parce que oui, ça existe et c'est comme ça que j'ai découvert Pagefind.
Pagefind c'est donc un moteur de recherche statique open source développé par CloudCannon qui fonctionne comme ceci : Au moment du build de votre site, Pagefind parcourt tout votre HTML généré et crée un index de recherche qu'on peut interroger avec un peu de JS. Y'a donc plus d'API, et tout se fait localement sur le navigateur des internautes.
Bref, ça avait l'air très cool alors évidemment, je me suis lancé dans l'aventure et comme j'aime bien me compliquer la vie, j'ai décidé de pas juste intégrer Pagefind tel quel. Non non. J'ai voulu recréer l'interface du Google de 1998 parce que à quoi bon avoir son propre site web si on peut pas s'amuser un peu ^^.
Laissez-moi donc vous raconter cette aventure.
Le problème avec Algolia
Leur service est excellent, je dis pas le contraire, la recherche est rapide, les résultats sont pertinents, l'API est bien foutue mais voilà, y'a le modèle de pricing puisque Algolia facture au nombre de requêtes de recherche.
Plus les gens cherchent sur votre site, plus vous payez et quand vous avez un site qui fait plusieurs millions de pages vues par mois, bah... ça chiffre vite. En gros je dépasse très vite les 10 000 recherches offertes chaque semaine et ensuite ça chiffre. C'est pas la mort, mais c'est un coût récurrent débile pour un truc qui pourrait être gratuit.
En plus de ça, y'a la dépendance à un service externe. Si Algolia tombe, ma recherche tombe. Et si Algolia change ses prix, je vais devoir subir. Même chose si Algolia décide de modifier son API... il faudra que j'adapte mon code. Bref, c'est le cloud dans toute sa splendeur... C'est pratique mais on n'est jamais vraiment chez nous.
Pagefind à la rescousse
Pagefind résout donc tous ces problèmes d'un coup. C'est un outil en ligne de commande qui s'exécute après votre générateur de site statique (Hugo dans mon cas, mais ça marche avec Jekyll, Eleventy, Astro, ou n'importe quoi d'autre).
Concrètement, vous lancez :
npx pagefind --site public
Et Pagefind va :
-
- Scanner tous vos fichiers HTML dans le dossier
public/
- Scanner tous vos fichiers HTML dans le dossier
-
- Extraire le contenu textuel (en ignorant la nav, le footer, les pubs si vous lui dites)
-
- Créer un index de recherche optimisé
-
- Générer des fichiers JavaScript pour interroger cet index côté client
Et le résultat c'est un dossier pagefind/ qui contient tout ce qu'il faut. Ensuite; à vous de servir ces fichiers statiquement avec le reste de votre site, et la magie pourra opérer !
L'index pour mes 18 000 articles fait environ 1,5 Go. Ça peut paraître beaucoup, mais Pagefind est malin car il découpe l'index en fragments et ne charge que ce qui est nécessaire pour la recherche en cours. Du coup en pratique, une recherche typique télécharge quelques centaines de Ko, et pas plus.
L'intégration technique
Pour intégrer Pagefind dans mon workflow Hugo, j'ai donc été cherché le binaire, je l'ai mis sur mon serveur et je l'ai appelé dans un cron comme ça, je rafraichi l'index de recherche 1 fois par jour (et pas à chaque génération du site).
0 4 * * * /home/manu/pagefind/pagefind --site /home/manu/public_html --output-path /home/manu/public_html/pagefind >> /var/log/pagefind.log 2>&1
J'ai aussi créé un fichier de configuration pagefind.yml pour affiner le comportement :
root_selector: "[data-pagefind-body]"
exclude_selectors:
- "header"
- ".site-header"
- "footer"
- ".sidebar"
L'astuce ici c'est d'indexer uniquement les div ayant la class data-pagefind-body='true' et d'exclure les éléments qui ne font pas partie du contenu éditorial afin de ne pas indexer ce qui se trouve dans le header, les natives, le footer...etc.
Côté JavaScript, Pagefind utilise les imports ES6 dynamiques. Ça veut dire que le moteur de recherche n'est chargé que quand l'utilisateur lance effectivement une recherche :
async function initPagefind() {
pagefind = await import('/pagefind/pagefind.js');
await pagefind.init();
}
Et pour faire une recherche :
const search = await pagefind.search("linux");
// search.results contient les IDs des résultats
// On charge le contenu de chaque résultat à la demande
for (const result of search.results) {
const data = await result.data();
console.log(data.url, data.meta.title, data.excerpt);
}
C'est bien fichu parce que search.results retourne immédiatement les références des résultats, mais le contenu réel (titre, extrait, URL) n'est chargé que quand vous appelez result.data(). Du coup vous pouvez implémenter une pagination propre sans télécharger les données de milliers de résultats d'un coup.
Le délire rétro - Recréer Google 1998
Maintenant que j'avais un moteur de recherche fonctionnel, fallait l'habiller. Et c'est là que j'ai eu cette idée un peu débile : Pourquoi pas recréer l'interface du Google de 1998 ?
Pour les plus jeunes qui lisent ça, Google en 1998 c'était une page blanche avec un logo, un champ de recherche, et deux boutons : « Google Search » et « I'm Feeling Lucky« . Pas de suggestions, pas de carrousels, pas de pubs... Juste un champs de recherche. C'était la belle époque !
J'ai donc créé une page de recherche avec deux vues distinctes. La page d'accueil avec le logo centré et le champ de recherche au milieu, exactement comme le Google originel.
Et la page de résultats avec le logo en petit en haut à gauche et les résultats en dessous.
Pour le code CSS, j'ai voulu être fidèle à l'époque. Times New Roman comme police par défaut, les liens en bleu souligné qui deviennent violet une fois visités. Et surtout, les boutons avec l'effet 3D des interfaces Windows 95 :
.search-button:active { border-style: inset; }
Ce border: outset et border-style: inset au clic, c'est exactement ce qui donnait cet effet de bouton en relief qu'on avait partout dans les années 90. Pour moi, ça fait toute la différence pour l'authenticité. Même le logo, je l'ai volontairement « dégradé » pour qu'il soit de la même qualité que le logo Google d'origine.
La pagination « Koooooorben »
Vous vous souvenez de la pagination de Google avec « Goooooogle » en bas de page ? Le nombre de « o » correspondait au nombre de pages de résultats. J'ai fait pareil, mais avec « Koooooorben ».
let logo = 'K'; for (let i = 0; i < oCount; i++)
{
logo += o;
} logo += 'rben'; }
Plus il y a de résultats, plus il y a de « o ». C'est complètement inutile mais ça me fait marrer à chaque fois que je le vois.
Le bouton « J'ai de la chance »
Ah, le fameux « I'm Feeling Lucky » de Google, j'ai voulu l'implémenter comme à l'époque ! Si vous tapez une recherche et cliquez sur « J'ai de la chance », vous êtes envoyé sur le premier résultat. Classique. Mais si vous cliquez sur le bouton avec le champ vide sur la home de la recherche, vous êtes envoyé sur un article aléatoire parmi les +18 000 du site.
Pour ça, j'ai utilisé une astuce : le sitemap. Mon Hugo génère un fichier sitemap.xml qui contient toutes les URLs du site et je peux aller piocher dedans en JS :
const articles = [...xml.querySelectorAll('loc')] .map(loc => loc.textContent) .filter(url => {
// Exclure les pages qui ne sont pas des articles
const path = new URL(url).pathname;
return !path.startsWith('/categories/') && !path.startsWith('/page/') && path !== '/';
});
const randomUrl = articles[Math.floor(Math.random() * articles.length)];
window.location.href = randomUrl;
} }
Un seul fetch, un peu de parsing XML natif, et hop c'est le grand retour de la fonctionnalité « article aléatoire » qui vous manquait, je le sais !
Tri et nombre de résultats
Je vous ai aussi mis une listbox qui vous permet d'afficher 10, 25 ou 50 résultats ainsi qu'un tri par pertinence ou data. Et ça aussi Pagefind sait parfaitement le navigateur.
Mode sombre et accessibilité
Même si l'interface est rétro, j'ai quand même ajouté quelques fonctionnalités modernes. Le mode sombre respecte les préférences système, et j'ai intégré la police OpenDyslexic pour les personnes dyslexiques.
Le truc important c'est de charger ces préférences avant le rendu de la page pour éviter le fameux flash. J'ai donc un petit script qui lit les préférences dans le localStorage et applique les classes CSS immédiatement :
function() {
if (localStorage.getItem('theme') === 'dark') {
document.documentElement.classList.add('dark-mode');
}
if (localStorage.getItem('dyslexic-font') === 'true') {
document.documentElement.classList.add('dyslexic-mode');
}
});
Gestion de l'historique navigateur
Un détail qui peut sembler anodin mais qui est super important pour l'expérience utilisateur c'est la gestion du bouton retour du navigateur.
Quand vous faites une recherche, l'URL change selon votre requête du genre /recherche/?q=linux&p=2. Du coup si vous partagez cette URL à un collègue, la personne arrivera directement sur les résultats de recherche. Et si vous utilisez le bouton retour, vous reviendrez alors à la recherche précédente.
window.addEventListener('popstate', () => {
const query = new URLSearchParams(location.search).get('q');
if (query) doSearch(query);
else showHomePage();
});
Liens vers d'autres moteurs
Et si vous ne trouvez pas votre bonheur dans mes +18 000 articles (ce qui serait quand même étonnant ^^), j'ai ajouté des liens pour relancer la même recherche sur Google, DuckDuckGo, Qwant, Brave et Ecosia. Bref, un petit service bonus pour mes visiteurs, exactement comme le proposait Google à l'époque.
Le bilan - Algolia vs Pagefind
Après 1 semaine d'utilisation, voici donc mon verdict ! Côté portefeuille d'abord, Algolia me coûtait entre 60 et +100 euros par mois et maintenant pour Pagefind, c'est zéro euros ! Et les performances sont également au rendez-vous. Algolia c'était rapide et bien là, ça l'est encore plus. Seul compromis à noter, l'index Algolia se mettait à jour en temps réel, alors que Pagefind nécessite une reconstruction au moment du build.
La conclusion
Voilà, j'ai maintenant une recherche qui marche vraiment bien, qui me coûte 0€ par mois, et qui a un look rétro qui va en surprendre plus d'un...
Alors est-ce que c'était nécessaire de passer autant de temps sur le design rétro ? Hé bien absolument pas. Mais est-ce que ça valait le coup ?
Franchement, oui !! C'est mon site, je fais ce que je veux, et si ça peut faire sourire quelques visiteurs nostalgiques des débuts du web, c'est du bonus. D'ailleurs un grand merci aux Patreons qui me soutiennent car sans eux, je n'aurais pas pu passer mon dimanche là dessus ^^
Et puis surtout, ça m'a permis de découvrir Pagefind qui est vraiment un excellent outil. Donc si vous avez un site statique (ou n'importe quel type de contenu textuel) et que vous cherchez une solution de recherche gratuite et performante, je vous le recommande chaudement. La documentation est claire, l'intégration est simple, et le résultat est top !
Allez, maintenant vous pouvez aller tester la nouvelle recherche sur le site . Et si vous cliquez sur « J'ai de la chance » sans rien taper... bonne découverte !

-
7.1.2 🖥️ Sites secondaires
- Quand je pense que Win32 est devenu la couche de compatibilité la plus stable sur Linux...
Quand je pense que Win32 est devenu la couche de compatibilité la plus stable sur Linux...
Vous avez déjà essayé de faire tourner un vieux logiciel Linux sur une distrib récente, du genre un truc compilé il y a 5 ans ? Bah bon courage, parce que y'a de grandes chances que ça plante lamentablement à cause d'une dépendance qui aura changé entre-temps.
Maintenant, prenez un .exe Windows de 1998, genre un vieux jeu ou une appli Win32 classique. Lancez-le sous Wine et là, ô surprise... y'a de bonnes chances que ça tourne ! Bon, ça dépend des applis évidemment, mais le taux de réussite est souvent meilleur qu'avec les vieux binaires Linux...
C'est précisément ce paradoxe que pointe le projet loss32 , une distro Linux expérimentale dont l'idée complètement dingue serait de faire tourner TOUT l'environnement de bureau en Win32 via Wine. Leur slogan c'est "Win32 is the stable Linux ABI!" ce qui veut dire en gros que l'interface binaire la plus fiable pour faire tourner des applications sur Linux à long terme, c'est celle de Windows. Ahaha, je suis mort de rire en écrivant ça car j'imagine votre tête énervée de barbu ! Pourtant, vous allez voir, c'est difficile de leur donner tort...
Alors c'est quoi le problème avec Linux exactement ?
Hé bien en août 2022, un changement dans la toolchain a fait des dégâts. Beaucoup de distributions ont basculé vers l'option --hash-style=gnu au lieu de --hash-style=both, ce qui génère des binaires sans la section DT_HASH classique. L'idée c'était de gagner quelques kilobytes par binaire avec DT_GNU_HASH, qui est plus moderne et plus performant.
Ça n'a l'air de rien comme ça... sauf que ça a cassé pas mal de trucs. Des jeux utilisant Easy Anti-Cheat d'Epic se sont retrouvés en vrac, par exemple Shovel Knight a eu des soucis, ou encore le limiteur de framerate libstrangle . Bref, des logiciels qui marchaient très bien la veille se sont retrouvés dans les choux du jour au lendemain.
Et c'est là qu'on touche au cœur du problème car sous Windows, Microsoft maintient une compatibilité binaire quasi-religieuse pour les applis Win32 classiques. Un programme compilé pour Windows 95, s'il n'utilise pas de drivers ou d'APIs obsolètes, a de bonnes chances de tourner sur Windows 11. C'est un contrat tacite entre Microsoft et les développeurs qui a tenu pendant trois décennies.
Et même si sous Linux, le kernel et glibc sont plutôt stables, c'est vrai, dès qu'on parle de binaires tiers liés à des bibliothèques user, c'est une autre histoire. Et comme c'est le bordel et que chaque distribution fait un peu ce qu'elle veut, et les dépendances évoluen forcement. Du coup, si votre binaire précompilé casse, c'est votre problème. La philosophie c'est donc plutôt "recompile ton truc et arrête de te chialer 'spèce de fragile".
Et c'est pour ça que Valve a misé gros sur Proton. Officiellement, ils n'ont pas de préférence entre ports natifs et Windows via Proton, mais dans les faits, Proton fonctionne tellement bien que pas mal de studios ne se cassent plus la tête à faire des ports Linux natifs. Et parfois, les jeux Windows via Proton tournent même mieux que les ports natifs ... c'est dire.
Et le projet loss32 pousse cette logique jusqu'au bout car pourquoi se battre contre les moulins à vent de la fragmentation Linux quand on peut simplement tout faire tourner en Win32 ?
Alors perso, j'ai hâte de voir ça et visiblement un PoC devrait sortir en janvier 2026 avec un paquet APT pour qu'on puisse tous tester ça chez nous. Et si ça fonctionne bien, ça veut dire que si vous créez une application desktop simple et que vous voulez qu'elle tourne sur Linux encore dans 10 ans, cibler Win32 et distribuer un .exe via Wine/Proton est une option à considérer sérieusement.
Ça semble contre-intuitif, mais pour certains cas d'usage, c'est une stratégie pragmatique...
Pour les utilisateurs, ça veut dire aussi que Wine et Proton ne sont pas des rustines en attendant mieux mais des des solutions de première classe pour faire tourner des logiciels de manière stable sur Linux. Le Steam Deck l'a prouvé avec des milliers de jeux Windows qui tournent nickel.
Bref, on en est là... Win32, l'API de Microsoft, est devenue paradoxalement une des couches de compatibilité les plus stables pour faire tourner des logiciels sur Linux. C'est fou non ? Ça va faire grincer des dents de barbus c'est sûr mais c'est aussi la preuve que parfois, les solutions terre à terre l'emportent sur l'idéologie.

[Bon plan] Une application pour créer des Post-it (v9.8)
Merci à vous de suivre le flux Rss de www.sospc.name.
Voici un logiciel en français, compatible de Windows 7 à Windows 11, qui permet de créer des post-it virtuels personnalisables.
Je vous avais proposé en 2024 la version 9.3, ce sera la 9.8 aujourd'hui avec une licence à vie. 😉
Cet article [Bon plan] Une application pour créer des Post-it (v9.8) est apparu en premier sur votre site préféré www.sospc.name
-
7.1.2 🖥️ Sites secondaires
- Promos Logitech : Amazon se lâche sur le prix des accessoires (souris, claviers et webcams) pour le Nouvel An
Promos Logitech : Amazon se lâche sur le prix des accessoires (souris, claviers et webcams) pour le Nouvel An
![]()
Sauvegardez et restaurez facilement vos navigateurs (v1.0)
Merci à vous de suivre le flux Rss de www.sospc.name.
Toute notre vie numérique tourne autour des navigateurs et cela pour une raison évidente : c'est la porte d'entrée pour accéder à l'Internet.
Le problème c'est que si nous perdions nos favoris, nos données et nos personnalisations, nous serions tout penauds devant nos ordinateurs.
Oui, suite à un plantage de votre navigateur, il suffit d'effectuer une réinstallation, ce qui prend une poignée de secondes, certes, et tout rentre dans l'ordre.
Mais malheureusement, il arrive que le profil soit compromis, soit à cause d'un disque vieillissant ou d'une infection par exemple et dans ces cas il est impossible de récupérer les précieuses données qui y étaient rattachées !
Je vous propose un logiciel qui va vous permettre de sauvegarder les profils de TOUS vos navigateurs.
En cas de problème il suffit de restaurer les sauvegardes dédiées !
Cet article Sauvegardez et restaurez facilement vos navigateurs (v1.0) est apparu en premier sur votre site préféré www.sospc.name
L’iPod Classic avec Spotify et Apple Music existe bel et bien
![]()
Tim Cook aurait-il glissé une image générée par IA sans le dire ?
![]()
MSI RTX 5090 LIGHTNING : Le retour de la foudre pour le CES 2026 ?
La MSI RTX 5090 LIGHTNING surgit dans les airs. Pour le 5 janvier 2026, MSI mise sur une météo électrique et un teasing sans ambiguïté : la gamme LIGHTNING semble prête à signer son grand retour, un an après une première annonce furtive au CES 2025. À la veille de l’ouverture officielle du CES 2026, MSI semble ainsi orchestrer la montée en tension autour de ce qui pourrait incarner la carte graphique la plus radicale de cette génération.
Un teasing qui ne trompe pas
L’éclair affiché à l’écran renvoie directement à l’ADN LIGHTNING, historiquement réservé aux modèles GeForce ultra haut de gamme chez MSI. La date du 5 janvier n’est pas choisie au hasard : elle correspond au Media Day 2, soit vingt-quatre heures avant l’ouverture officielle du salon, prévue du 6 au 9 janvier.

Le constructeur reprend les codes historiques qui ont fait le succès de ses modèles « Extreme Overclocking » :
- Visuel : Des éclairs déchirant l’écran, signature indissociable de la marque LIGHTNING.
- Calendrier : Une annonce calée sur le « Media Day 2 » du CES, soit 24 heures avant l’ouverture du salon (du 6 au 9 janvier).
- Héritage : Inactive depuis la RTX 2080 Ti, la griffe LIGHTNING représente le summum du savoir-faire de MSI.
MSI RTX 5090 LIGHTNING : cap sur une annonce le 5 janvier
D’après ce qui a été montré auparavant, MSI prépare deux « Special Edition » autour de la GeForce RTX 5090 : une version AIO avec double radiateur 120 mm et un soin particulier au refroidissement de la mémoire, et une version à air reposant sur cinq ventilateurs STORMFORCE et l’empilement thermique FiveFrozr. Le constructeur a déjà exposé des « concepts GPU » en salon, il semblerait donc que le CES 2026 serve de rampe de lancement à une version finalisée.

MSI ne confirme ni le nom exact, ni les spécifications, ni le calendrier de sortie pour une carte LIGHTNING liée à ce teasing. Comme le résume le message, « spécial edition » et météo à l’orage convergent vers un retour de la griffe LIGHTNING. Le contexte n’est toutefois pas idéal : NVIDIA pourrait affronter une pénurie de DRAM comme le reste du marché, et tout lancement de carte avec 16 Go de mémoire pourrait se compliquer plus tard.
Un duel de titans : MSI vs ASUS
L’objectif est clair : détrôner la ROG MATRIX d’ASUS sur le segment des flagships de prestige. Cependant, ce duel se jouera à prix d’or. Pour rappel, la carte d’ASUS s’affiche déjà aux alentours de 4400 € et reste quasiment introuvable.
Les défis à venir
Malgré l’excitation, le lancement pourrait être assombri par le contexte économique :
- Pénurie de DRAM : NVIDIA et ses partenaires font face à des tensions sur la mémoire vive, ce qui pourrait limiter les stocks.
- Disponibilité : Les modèles « Special Edition » pourraient être produits en quantités ultra-limitées.
Verdict le 5 janvier. Nous saurons alors si MSI compte transformer ce concept météo en une réalité commerciale pour les gamers les plus exigeants.
Lire aussi : RTX 50 Extreme OC : MSI prépare son retour avec un Afterburner survitaminé