IO Center 1.1.1 pour les souris be quiet! Dark Perk Ergo et Dark Perk Sym


Je me souviens encore du lancement de Windows 95... c'est un sacré souvenir pour moi... J'avais suivi ça de très près et j'en rêvait même la nuit après avoir vu la pub. Puis cette musique "Start Me Up" des Rolling Stones, c'était cool quand même. C'était le futur !
Mais est-ce que vous vous souvenez de cette petite astuce de ninja qui permettait de redémarrer cet OS aussi vite qu'une baston dans un bar du 62 ???
J'suis sûr que non, mais moi je m'en souviens encore car sur ma machine, ça me changeait vraiment la vie. En fait, il fallait maintenir la touche MAJ enfoncée en cliquant sur "Redémarrer", et hop, au lieu de se taper tout le cirque du BIOS, Windows se relançait "presque" instantanément !
Et magie magie, le secret de cette sauce vient d'être raconté par l'inoxydable Raymond Chen, vétéran de chez Microsoft, et vous allez voir, c'est chouette !
En fait quand vous faisiez ce MAJ+Redémarrer, Windows envoyait un petit "flag" spécial baptisé EW_RESTARTWINDOWS au kernel 16 bits. Comme ça au lieu de dire à la machine de faire un "cold boot" (un redémarrage à froid quoi..), le système fermait gentiment le kernel. Et le gestionnaire de mémoire virtuelle avant de faire redescendre le CPU en mode réel.
Et c'est là que le fameux win.com reprenait la main puisqu'en recevant ce signal. Ça lui disait : "Hey gros, on ne s'arrête pas, on repart pour un tour !".
win.com essayait alors de remettre le système dans un état clean, comme s'il venait d'être lancé, sauf que pour relancer Windows en mode protégé, il fallait un gros bloc de mémoire contigu. Malheureusement, si vos logiciels avaient mis trop de bazar et fragmenté la RAM, l'astuce foirait et le PC finissait par faire un vrai reboot complet. Pas cool Raoul !
Par contre, si y'avait assez de mémoire contigu libre alors win.com relançait le VMM (Virtual Machine Manager) et l'interface graphique pouvait repartir sans repasser par la case départ. Un vrai exploit de champion quoi ! C'était pour l'époque une bidouille de génie car chaque seconde gagnée sur le chargement de l'OS était une grande victoire contre l'ennui !!
Chouette comme anecdote non ? Et si vous voulez croquer encore plus de madeleines et tester ça vous-même, y'a des outils comme EmuOS qui simulent tout ça très bien. Et pour les puristes, vous monter un petit Dosbian sur Raspberry Pi reste la base pour bidouiller de vieux kernels.
Bref, même trente ans après, ces entrailles pourries de nos vieux OS recèlent encore de plein de petits secrets passionnants !

Depuis des mois, les SoC N1 et N1X de NVIDIA alimentent toutes les rumeurs. Annoncés officieusement pour 2025, évoqués comme stars potentielles du CES 2026, ils ont finalement brillé par leur absence… jusqu’à aujourd’hui. Une nouvelle fuite venue d’Asie vient clarifier le calendrier : N1 et N1X arriveront au premier trimestre 2026, tandis que leurs […]
L’article NVIDIA N1, N1X, N2 et N2X : la feuille de route qui veut faire entrer l’empire de l’IA de Jensen Huang dans nos PC dès 2026 est apparu en premier sur HardwareCooking.
![]()
Wokyis revisite le Mac mini avec une station d’accueil au design néo-rétro inspiré du Macintosh. Le boîtier intègre un écran IPS de 5 pouces en 1280 × 720, accueille un SSD M.2 et se décline en deux versions selon la connectique.
La première, équipée d’un port USB-C à 10 Gb/s, est annoncée à 169 dollars, soit environ 155 euros hors taxes. La seconde, plus ambitieuse, mise sur le Thunderbolt 5 à 80 Gb/s et grimpe à 339 dollars, autour de 310 euros hors taxes. Dans les deux cas, l’écran intégré fait partie de l’équipement de série, renforçant l’approche tout-en-un de cette station d’accueil pensée pour le Mac mini.

Côté stockage, un logement M.2 interne accepte les formats 2230, 2242, 2260 et 2280, avec une capacité annoncée jusqu’à 8 To. La connectique regroupe quatre USB‑A 10 Gb/s, un USB‑C 10 Gb/s, des lecteurs SD et microSD UHS‑II, une prise audio 3,5 mm et une entrée HDMI. La variante Thunderbolt 5 ajoute une sortie DisplayPort, donnée pour de l’8K à 60 Hz.

La compatibilité couvre les Mac mini M4 et M4 Pro, mais aussi les Mac mini M1 et M2, ainsi que d’autres ordinateurs Thunderbolt et USB4. D’après la fiche, les systèmes limités à Thunderbolt 2 ou à l’USB 3.x / USB 2.0 ne sont pas pris en charge. Wokyis souligne « une extension de stockage simple et des I/O supplémentaires », avec un design pensé pour se fondre sous le Mac mini.
Le look inspiré des premiers Macintosh rappelle d’autres machines néo‑vintage du marché. AYANEO, par exemple, commercialise son mini PC AM01 dans un style similaire, avec option Ryzen 7 5800U, un système de refroidissement 35 W et la prise en charge M.2 2280. Un positionnement tarifaire qui, selon NotebookCheck, n’est « presque pas plus cher » que ce dock M4 rétro.

Pour les utilisateurs de Mac mini en quête d’une base tout‑en‑un, la M5 coche les cases : stockage interne jusqu’à 8 To, Hub USB 10 Gb/s, lecteur SD UHS‑II, écran d’appoint et, sur le modèle TB5, sortie DisplayPort 8K/60. Reste à arbitrer entre le ticket d’entrée de 169 $ et le haut de gamme à 339 $.
Source : VideoCardz
StepFun ouvre Step3-VL-10B, un modèle multimodal de 10 milliards de paramètres présenté comme capable de rivaliser avec des références dix à vingt fois plus lourdes. L’équipe publie deux déclinaisons, « Base » et « Thinking », avec dépôts sur HuggingFace et ModelScope, un site dédié et un papier arXiv. Le positionnement est clair : amener sur terminaux locaux des capacités jusque-là cantonnées au cloud, du comptage d’objets précis à l’OCR exigeant en passant par l’ancrage GUI.

À paramètres équivalents, Step3-VL-10B revendique un niveau SOTA en perception visuelle, raisonnement logique, mathématiques de compétition et dialogue généraliste. StepFun affirme des performances au niveau, voire au-dessus, d’ouverts très larges comme GLM-4.6V 106B-A12B et Qwen3-VL-Thinking 235B-A22B, ainsi que de modèles fermés de premier plan tels que Gemini 2.5 Pro et Seed-1.5-VL. Les benchmarks cités incluent MMMU, MathVision, BLINK, CVBench, OmniSpatial, ViewSpatial et des évaluations en environnement de programmation réel.

Sur le versant mathématique, l’équipe met en avant des scores quasi parfaits sur AIME 25/24, suggérant une rigueur de chaîne de pensée au niveau du premier peloton. En 2D/3D, les scénarios de topologie et de comptage fin sont donnés comme un point fort.

Côté code, les tests sont annoncés en conditions dynamiques, avec un avantage mesuré sur plusieurs modèles multimodaux de référence. Des démonstrations publiques couvrent de la résolution de puzzles visuels au grounding d’interfaces graphiques.
Step3-VL-10B adopte un préentraînement multimodal joint pleine largeur, sans gel de modules, sur un corpus présenté comme « 1,2 T » d’exemples de haute qualité. L’alignement profond des espaces sémantiques vision/texte sert de socle aux tâches de perception fine et au raisonnement cross-modality. Le modèle est ensuite poussé par un cycle de renforcement massif, avec plus de 1 400 itérations, l’équipe estimant que la courbe n’a pas atteint son plateau.
Deux paradigmes d’inférence coexistent. SeRe, pour un déroulé séquentiel, et PaCoRe, « raisonnement parallèle coordonné », qui étend dynamiquement la puissance de calcul à l’inférence, explore en parallèle plusieurs hypothèses perceptives et agrège les preuves. StepFun indique que PaCoRe domine SeRe en STEM, OCR & documents, grounding GUI, compréhension spatiale et code.

Le constructeur cible explicitement l’agent côté terminal. Nourri par un préentraînement dédié GUI, le modèle sait identifier et actionner des éléments d’interface complexes, un passage clé pour automatiser des workflows locaux sur PC, smartphones et équipements embarqués. L’éditeur met en avant la descente en coût et en empreinte calcul comme un levier pour généraliser le raisonnement multimodal avancé hors cloud.
Les ressources sont disponibles via le site projet, arXiv et les hubs de modèles. L’invitation au fine-tuning communautaire s’applique aux deux variantes, « Base » et « Thinking ».
Si les métriques internes se confirment en évaluation indépendante, Step3-VL-10B illustre un mouvement de fond : l’investissement méthodologique (préentraînement joint, RL à grande échelle, inférence parallèle) compense une réduction d’échelle brute. Pour l’écosystème, le signal est double: pression à la baisse sur les coûts d’inférence et accélération des agents multimodaux on-device, notamment pour le grounding d’UI et l’analyse documentaire avancée.
Source : ITHome
![]()
![]()
![]()
