↩ Accueil

Vue lecture

OpenAI x Cisco : Codex passe d’assistant à agent CI/CD en production

OpenAI a annoncé le 20 janvier un partenariat élargi avec Cisco autour de Codex, son modèle de génération et de maintenance de code. Chez l’équipementier réseau, l’outil n’est plus un simple assistant de complétion, mais un composant ancré dans les chaînes de production logicielle, confronté à des monorepos et multi-repos à dominante C/C++, et aux contraintes de sécurité, de conformité et de gouvernance d’un acteur global.

Le cœur de la proposition, côté Cisco, tient à une capacité d’« agency » revendiquée : Codex s’insère dans les workflows CLI existants et exécute des boucles « compiler–tester–corriger » en autonomie, dans les cadres d’audit en place. OpenAI cite des fonctions clés éprouvées en production : connexion à plusieurs grands dépôts pour analyse et raisonnement, manipulation de langages complexes, exécution en ligne de commande et respect des garde‑fous internes.

Intégration en production et gains mesurés

En optimisation de builds inter‑dépôts, Codex a passé au crible plus de 15 dépôts liés, leurs journaux de compilation et graphes de dépendances, pour éliminer des inefficiences. Résultat annoncé : environ 20 % de réduction des temps de build et plus de 1 500 heures ingénieur économisées par mois à l’échelle mondiale.

Sur la correction de défauts à grande échelle dans des bases C/C++, l’automatisation via Codex‑CLI a transformé des chantiers de plusieurs semaines en opérations de quelques heures, avec une hausse de débit comprise entre 10× et 15×. Le modèle prend en charge la génération, l’exécution des tests et l’itération jusqu’à validation dans les pipelines existants.

Côté front, l’équipe Splunk chez Cisco a mobilisé Codex pour migrer plusieurs interfaces de React 18 vers React 19. Les modifications répétitives ont été prises en charge de façon autonome, compressant une charge initialement estimée à plusieurs semaines en quelques jours. Les équipes évoquent aussi la génération de documents de développement suivis par les équipes d’audit afin de tracer la logique de production de code.

Un modèle façonné par les retours terrain

Cisco a contribué à affiner le modèle sur des points concrets : orchestration de workflow, contrôles de sécurité, gestion de tâches longues et intégration aux chaînes CI/CD. Le message est clair : Codex évolue d’un outil individuel à un partenaire d’ingénierie capable d’opérer à l’échelle d’une entreprise, dans des environnements hétérogènes et soumis à des contraintes réglementaires.

Les deux entreprises prévoient de poursuivre ce travail dans les prochains mois pour étendre les cas d’usage d’ingénierie « AI‑native » à l’échelle. Cisco positionne déjà Codex comme un pilier de ses pratiques de développement et d’exploitation assistées par l’IA.

Au‑delà des chiffres, l’intérêt réside dans la mise en production d’un agent capable de boucler sur compile‑test‑fix sans sortir du cadre de gouvernance. Si l’approche se généralise, le goulot d’étranglement ne sera plus tant l’écriture que l’orchestration et la supervision des correctifs massifs, avec des impacts directs sur les cadences de release, la dette technique et la structure des équipes qualité.

Source : ITHome

  •  

Sendworm 1.0.3

Logiciel gratuit et portable permettant de faciliter le transfert de fichiers entre deux ordinateurs, qu'ils soient connectés sur le même réseau local ou à l'autre bout du monde...
  •  

CORSAIR propose une preview du SSD Toolbox 2.0

Après quasiment trois ans sans la moindre mise à jour, la dernière version étant la 1.2.6.9 de mars 2023, le logiciel de maintenance SSD Toolbox bénéficie enfin d'une mise à jour et pas des moindres puisqu'il s'agit d'une toute nouvelle version 2.0. Pour le moment, CORSAIR qualifie ce nouveau SSD...

  •  

Q-Dir 12.46

Utilitaire gratuit, en français, portable, qui remplace l'Explorateur Windows et qui va révolutionner la gestion de vos fichiers sur votre ordinateur...
  •  

Ryzen AI 9 HX 370 fanless : Bedrock RAI300 modulaire et sans ventilateur pour l’edge

SolidRun lance le Bedrock RAI300, un PC industriel fanless basé sur l’AMD Ryzen AI 9 HX 370, pensé pour l’edge où l’on combine calcul x86 et accélération IA intégrée.

Ryzen AI 9 HX 370 fanless au cœur du Bedrock RAI300

Au menu, un CPU Zen 5 12 cœurs/24 threads avec boost jusqu’à 5,1 GHz, un iGPU Radeon 890M et un NPU XDNA 2 donné jusqu’à 50 TOPS. SolidRun annonce la prise en charge d’AMD ROCm 7.x sous Windows et Linux.

Diagramme explicatif refroidissement PC fanless, annotations techniques avec flèches de circulation d'air.

Le châssis fanless mise sur un TIM en métal liquide, des heatpipes empilés et une enveloppe qui évacue la chaleur via la structure. Températures d’utilisation annoncées de -40°C à 85°C.

Plateforme modulaire, I/O ajustables

Le Bedrock conserve une architecture modulaire avec cartes distinctes pour le compute, le réseau/I&O, le stockage/extension et l’alimentation. Deux configurations principales sont listées : l’une priorise les sorties d’affichage, l’autre l’Ethernet.

Stockage et extensions

Les emplacements M.2 NVMe peuvent être troqués contre des cartes d’extension comme des accélérateurs Hailo ou un modem cellulaire. Des options pro complètent l’ensemble : mémoire ECC, protection contre perte d’alimentation sur NVMe, SPI flash redondant pour le firmware.

Composants internes PC Ryzen, vue éclatée, fond blanc, détails matériels visibles.

Puissances configurables et usage ciblé

Le TDP du CPU est ajustable dans le BIOS de 8 W à 54 W selon la configuration et la marge thermique. SolidRun précise qu’il ne s’agit pas de machines grand public : la série Bedrock vise l’industriel et l’edge durcis.

La combinaison Zen 5 + XDNA 2 avec ROCm 7.x sur un châssis fanless large température élargit l’écosystème x86/IA côté edge, avec un intérêt clair pour les intégrateurs qui cherchent à standardiser des stacks IA sur Windows ou Linux sans GPU dédié et avec des contraintes thermiques strictes.

Source : VideoCardz

  •  

Bichon - L'archiveur Rust pour garder une trace de vos emails

Vous avez 15 ans d'emails répartis sur 4 comptes différents et vous aimeriez bien pouvoir chercher dedans sans devenir complétement fou ? Bichon est fait pour vous . C'est un archiveur d'emails open source écrit en Rust qui synchronise vos boîtes mail et vous permet de tout fouiller via une interface web ultra léchée.

Le truc c'est que Bichon n'est pas un client mail. Vous ne pouvez pas envoyer ou recevoir de messages avec. C'est vraiment un outil d'archivage pur qui se connecte à vos serveurs IMAP, aspire tous vos emails, les compresse, les déduplique et les indexe pour que vous puissiez faire des recherches full-text dessus pour par exemple retrouver ce mail de 2012 où votre ex vous expliquait sa recette secrète du tiramisu.

L'interface web est plutôt propre, codée en React avec ShadCN UI. Vous pouvez filtrer par compte, par dossier, par expéditeur, par nom de pièce jointe, par taille, par date... Y'a même un dashboard avec des stats sur vos emails si vous aimez les graphiques. Et bonne nouvelle, le WebUI est disponible en 18 langues, donc le français est de la partie !

Côté authentification, ça gère le mot de passe IMAP classique mais aussi OAuth2 avec refresh automatique du token. C'est hyper pratique pour Gmail ou Outlook qui aiment bien compliquer les choses. Y'a aussi un support proxy si vous êtes derrière un firewall capricieux et une découverte automatique des serveurs IMAP. Hop, on branche et ça synchronise !

La stack technique envoie du bois également puisque le backend est en Rust basé sur le framework Poem, et le moteur de recherche/stockage utilise Tantivy. C'est un moteur de recherche full-text codé lui aussi en Rust, l'équivalent de Lucene mais sans la lourdeur de la JVM. Pour les métadonnées et la config, le projet utilise Native_DB et le tout est packagé en binaires pour Linux, macOS et Windows, ou en image Docker si vous préférez le self-hosted sans prise de tête.

Un truc important depuis la version 0.2.0 c'est que le modèle d'authentification a changé. L'ancien compte "root/root" a sauté au profit d'un compte admin par défaut (identifiants : "admin" / "admin@bichon"). Pensez donc à changer le mot de passe immédiatement, sinon ce sera la fête du slip dans vos archives. Et notez bien que le mot de passe de chiffrement que vous définissez au premier lancement ne peut pas être changé ensuite, donc choisissez-le bien, genre "KorbenCestLePlusBeau123".

Et si vous avez déjà des tonnes de vieux mails qui traînent en local, sachez que depuis la v0.3.0, y'a également un outil en ligne de commande qui s'appelle bichonctl. Ça permet d'importer vos archives au format EML ou MBOX directement dans le bouzin. C'est nickel pour centraliser tout votre passé exporté par ailleurs.

Bref, si vous cherchez un moyen propre d'archiver vos mails sans que ça bouffe toute votre RAM comme un client Java des années 2000, Bichon fait grave le taff. C'est léger, c'est rapide, et c'est en Rust. Ensuite, vous pourrez dormir tranquille !

Merci à Lorenper pour l'info et si vous cherchez d'autres outils cools pour vos mails, jetez aussi un œil à Mailspring ou si vous kiffez le stockage en Rust, Garage est une pépite.

  •  

L'IA est-elle vraiment intelligente ? En vrai, on s'en fout un peu non ?

Je trouve qu'il n’y a rien de plus idiot qu’un débat philosophique sur ce qu'est "vraiment" l'intelligence quand on a juste besoin que le boulot soit fait... J'en vois certains en faire des tartines à longueur de journée sur Linkedin, notamment pour tenter de définir le niveau d'intelligence des IA mais de mon point de vue, c'est vraiment perdre son temps que d'essayer d'évaluer ça.

Récemment, je suis tombé sur un billet de Bertrand Meyer sur le Blog de CACM qui met enfin des mots sur mon malaise... En fait il explique qu'il y a 2 grandes visions qui s'opposent concernant la définition de l'intelligence.

D'un côté, on a l'approche plutôt "européenne" où l'intelligence, c'est comprendre les choses, comprendre le monde, savoir expliquer le "pourquoi du comment". Et de l'autre côté, on a une vision plus "américaine" et pragmatique où l'intelligence c'est avant tout réussir à s'adapter et agir en conséquence avec succès.

En gros, ça veut dire que pour les ricains, si ça marche, c'est une preuve d'intelligence.

Et là, tout s'éclaire car l'IA d'aujourd'hui, nos chers LLM d'amour et autres réseaux neuronaux, correspondent parfaitement à cette seconde définition. En effet pour beaucoup de chercheurs, ces systèmes ne "comprennent" pas le monde au sens cognitif du terme mais réussissent quand même à donner très souvent les bonnes réponses et à trouver de bonnes solutions à tout un tas de problèmes.

Un peu comme ces modèles médicaux de Google capables d'aider les médecins dans leurs diagnostics... ça marche, c'est utile, et même si ça ne remplace pas (encore) l'expertise humaine (enfin sauf celle des internes ^^), c'est déjà génial !

Perso, je me positionne sur ça de manière un peu plus basique. Parce que je suis un mec basique... Je suis un techos, pas un marketeux ni un philosophe alors la seule question que je me pose finalement c'est "est-ce que ce que ça fait le taf" ?

Et surtout, est-ce que ce que l'IA produit c'est de qualité ?

Quand c'est du texte par exemple, mon premier critère c'est donc de savoir si l'information est juste. Ensuite c'est de savoir si c'est agréable à lire. Et enfin, est ce qu'on en retire quelque chose (un apprentissage, du fun, un élargissement de sa pensée) ?

Voilà c'est tout... et ça je l'applique aussi bien aux textes écrit par des humains qu'à ceux écrits par des algos.

Si ces 3 conditions ne sont pas remplies, c'est (pour moi, hein) de la merde. Et donc j'applique ces principes du mieux que je peux, aussi à ce que j'écris.

Je pourrais bien sûr ajouter d'autres critères du genre "Est ce que j'ai fait le tour de la question de manière encyclopédique ?" et "Est ce que en écrivant cela, je ne vais pas insécuriser un random qui va ensuite m'attaquer publiquement pour rassurer son égo auprès de sa communauté ?" mais bon, ici c'est pas Wikipédia et j'suis pas non plus le psy des gens qui détestent mon contenu mais viennent quand même me lire religieusement chaque jour. Donc j'avoue, je fais l'impasse... Ahaha.

Maintenant pour ceux qui se demandent encore comment définir l'intelligence artificielle, voyez plutôt ça comme un outil capable de "faire comme si" avec suffisamment de talent pour que l'expérience soit bluffante de réalisme. Un peu comme quand on regarde un super film avec de super acteurs... On sait qu'ils font semblant et pourtant on ressent de l'émotion. Bah là c'est pareil, l'illusion est douce et hormis certains cas pathologiques où ça pourrait être problématiques, je ne vois pas ça comme un souci de se faire "illusionner" par un texte IA tant que mes 3 critères plus haut sont remplis.

Que ce soit du texte humain ou du texte IA, le résultat peut être perçu par un humain comme similaire si c'est bien fait. Faut pas non plus oublier que beaucoup d'humains ne savent pas s'exprimer correctement et encore moins structurer correctement leur pensée pour la mettre par écrit (et je ne vise personne, mais suivez mon regard vers les services de micro-blogging et autres commentaires Youtube... ^^).

Le point important, crucial même (et là je sors mon panneau "Achtung danger"), c'est que pour chaque texte produit par une IA, un humain devrait le relire, le corriger, et l'améliorer. S'en porter garant en fait, sinon, c'est juste du texte générique de qualité standard avec peu de valeur ajoutée (si ce n'est faire du résumé quoi...) et un fort risque d'hallucinations.

Et je sais que la mode du moment est au slop IA aussi bien dans les mails, les médias, les sites SEO, les discours officiels du gouvernement et j'en passe mais putain, passer un petit coup de vérif / polish manuel par-dessus, c'est pas la mer à boire et hop, on retrouve instantanément une âme dans l'article et cela peu importe que ça passe le détecteur IA ou pas... Ces machins là font principalement de la vérification en surface et si vous écrivez trop parfaitement ou si votre IA écrit trop dégueulasse, vous aurez du faux positif dans un sens ou dans l'autre.

Je pense donc qu'on s'en fout un peu de savoir si la machine a une âme ou si elle "comprend" réellement le sens de la vie (spoiler : ce n'est pas le cas). Moi, tant qu'elle m'aide à coder un script Python vite fait ou à préparer un super article pour vous sans que j'aie à me taper des tonnes de doc, ça me va.

Maintenant reste à savoir si l'IA va un jour détruire nos institutions mais ça c'est une autre histoire..

  •  

SSD : Kioxia annonce la fin du 1 To bon marché et une capacité NAND saturée

En visite à Séoul, Shunsuke Nakato, cadre dirigeant de Kioxia, a déclaré que « l’époque où l’on achetait 1 To de SSD à 7 000 yens (environ 45 €) » est révolue. Le groupe affirme que sa capacité NAND pour l’année est presque entièrement allouée.

Selon Nakato, la dynamique tirée par l’IA va perdurer au moins jusqu’à l’an prochain. La demande grimpe sur l’ensemble des produits de stockage, NAND incluse, avec un double effet rareté et hausse tarifaire. Les contrats en cours continuent toutefois d’encadrer les livraisons.

Capacité quasi saturée, contrats annuels et hausses de prix

Kioxia dit s’en tenir à ses engagements vis-à-vis de ses clients historiques, sans basculer sur des schémas « premier arrivé, premier servi » ni « au plus offrant ». L’entreprise privilégie des contrats annuels avec répartition de capacité convenue en amont.

Dans le même temps, la direction prévient que les conditions tarifaires évoluent avec le marché. Des relèvements de prix sont jugés inévitables, avec des cas de figure pouvant atteindre 30 % sur certaines références, en fonction du contexte et des volumes.

Contexte marché : IA, pénurie relative et fin du « plancher » 1 To

Le message de Kioxia reflète la tension actuelle : hyperscalers, centres de données et PC se disputent des wafers NAND alors que les investissements liés à l’IA s’accélèrent. Les baisses extrêmes observées fin de cycle en 2023–2024 ne sont plus d’actualité et le « plancher » à environ 43 € pour 1 To ne reviendra pas à court terme.

Pour les OEM comme pour le retail, la conséquence immédiate est une visibilité limitée sur les prix et les disponibilités au fil de l’année. La priorité donnée aux partenaires sous contrat devrait lisser les livraisons, mais elle laisse peu de marge au marché spot, où la volatilité reste élevée.

Cette phase de remontée s’inscrit dans un cycle classique mémoire/stockage, mais la traction IA accentue la vitesse de normalisation. Le point d’attention sera la cadence de ramp des capacités NAND en 2025 face aux besoins des serveurs d’IA et au mix de couches, qui conditionnera l’atterrissage des prix côté SSD grand public.

Source : ITHome

  •  

Pulsar X2 CrazyLight Blue Archive : trois éditions Abidos à 39 g et 8 kHz

Pulsar officialise une collaboration Blue Archive avec trois souris X2 CrazyLight (taille moyenne) aux couleurs d’Abidos : Hoshino Takanashi, Shirako Sunaokami et Nonomi Izayoi. La base technique reste celle de la X2 la plus légère de la marque, orientée claw/fingertip, avec un châssis symétrique de 39 g et un pack capteur/électronique haut de gamme.

Fiche technique et variantes

Chaque édition intègre le capteur maison XS-1 à 32 000 DPI, des commutateurs optiques annoncés pour 100 millions d’activations et un encodeur TTC Gold. La souris accepte un polling rate jusqu’à 8 kHz et un mode Turbo à 20 000 FPS de traitement, de quoi coller aux exigences des joueurs FPS compétitifs. Le bundle comprend un récepteur 8K avec socle LED de collection, déjà aperçu sur l’édition Pikachu.

Trois figurines et souris Pulsar X2 CrazyLight assorties avec Blue Archive.

Les trois déclinaisons reprennent l’esthétique des personnages d’Abidos sans modifier l’ergonomie ni les caractéristiques internes. On reste sur le format medium de la série X2 CrazyLight, pensé pour une prise en main rapide et sans surcharge côté masse.

Vue de dessus de trois souris Pulsar X2 CrazyLight avec motifs Blue Archive.

Prix et disponibilité

Le tarif est fixé à 149,95 $ (environ 137 €). La commercialisation débute sur la boutique Pulsar et via les canaux habituels selon les régions.

Le recours à un récepteur 8 kHz fourni d’office et à un châssis 39 g confirme la stratégie de Pulsar sur l’ultra-light performant, tout en capitalisant sur des collaborations à forte reconnaissance visuelle. Sur un marché où les éditions spéciales sont souvent cosmétiques, l’apport d’un dongle haut débit intégré évite l’écueil du collector au rabais et positionne ce partenariat sur un segment premium cohérent.

Source : ITHome

  •  

DeepCool CH260 « bois » : boîtier M-ATX aéré, USB‑C 10 Gb/s et AIO 360 mm

DeepCool lance une édition « bois » de son boîtier M-ATX CH260, proposée en noir à 399 ¥ (environ 52 €) et en blanc à 449 ¥ (environ 59 €). Cette variante reprend la base du CH260 dévoilé l’an dernier, avec une touche esthétique : un insert à effet bois intégré au panneau I/O latéral.

Design, I/O et compatibilité

Boîtier M-ATX DeepCool CH260 bois, vue latérale avant légèrement élevée

Le châssis mise sur une aération généreuse via de larges panneaux Mesh et trois filtres à poussière amovibles. La façade est magnétique et permet un habillage « pixel art » personnalisable. Le boîtier mesure 438 × 225 × 312,5 mm, accepte des cartes mères Mini-ITX et Micro-ATX, y compris des cartes mères Micro-ATX à connecteurs inversés.

Vue intérieure avant du boîtier DeepCool CH260 bois, montrant l'espace de montage

La connectique en façade comprend un USB-C 10 Gb/s, deux USB-A 5 Gb/s, ainsi que des jacks audio et micro séparés. À l’intérieur, on trouve 4 slots PCIe, un emplacement 3,5″ et un 2,5″. Les tolérances matérielles sont confortables : ventirad jusqu’à 174 mm, carte graphique jusqu’à 388 mm (413 mm sans ventilateurs en façade), alimentation ATX, et 29,6 mm dédiés au câblage derrière le plateau.

Ventilation et watercooling

Le CH260 autorise 2 ventilateurs de 120 mm en façade, 1 ventilateur de 120 mm à l’arrière ou un radiateur de 120 mm, et jusqu’à 3 × 120 mm ou 2 × 140 mm au sommet, avec prise en charge des radiateurs 120/240/360 mm. La configuration privilégie un flux d’air direct, l’ensemble Mesh et les filtres multipliés limitant l’encrassement dans le temps.

Cette édition « bois » cible les configurations M-ATX compactes qui veulent éviter l’esthétique gaming trop voyante sans sacrifier la ventilation ni la compatibilité GPU. À ce tarif, l’USB-C 10 Gb/s et la marge de 360 mm en watercooling donnent un avantage fonctionnel face aux boîtiers décoratifs souvent plus limités.

Source : ITHome

  •  

DeepSeek MODEL1 : indices d’un nouveau modèle distinct de V3.2 pour l’inférence

DeepSeek prépare visiblement un nouveau jalon côté modèles. À la date anniversaire de DeepSeek-R1, des commits GitHub ont introduit dans FlashMLA une série de références à un identifiant « MODEL1 » disséminé dans 28 sections sur 114 fichiers, apparaissant tantôt aux côtés, tantôt en distinction du « V32 » (DeepSeek-V3.2). L’actualité recoupe un bruit de couloir de début janvier selon lequel un « DeepSeek V4 » serait attendu autour du Nouvel An lunaire, avec un net accent sur les capacités de génération de code.

Des indices d’architecture distincte

Les extraits techniques pointent des écarts notables entre « MODEL1 » et « V32 » sur la gestion des caches KV, le traitement de la sparsité et la prise en charge du format FP8 côté décodage. Ce triptyque suggère un chantier ciblé sur l’empreinte mémoire et le débit effectif, avec un pipeline d’inférence potentiellement optimisé pour des séquences longues et des charges interactives intensives.

Ces choix s’alignent avec l’intégration de kernels FlashMLA de nouvelle génération, où le layout KV et la granularité de sparsité conditionnent fortement l’utilisation du cache et le taux d’occupation des unités de calcul. Le support FP8 en décodage laisse supposer une calibration fine entre précision et débit, un levier crucial pour soutenir des fenêtres contextuelles étendues et des graphes d’attention parcimonieux.

Ponts avec les travaux récents de l’équipe

Deux publications récentes signées par le groupe de recherche DeepSeek détaillent une méthode d’entraînement baptisée « mHC » autour de l’optimisation des connexions résiduelles, et un module mémoire inspiré du biologique, « Engram ». Sans confirmation officielle, l’hypothèse d’une convergence de ces pistes dans « MODEL1 » reste crédible au vu des cibles affichées: stabilité d’apprentissage, capacités de rappel et efficacité d’inférence.

L’ensemble dessine un modèle distinct de V3.2, moins comme une simple révision qu’une refonte de certains blocs critiques. Si le calendrier évoqué pour « V4 » autour de février se confirme, DeepSeek chercherait à capitaliser sur un couple entraînement-inférence resserré, où les gains de sparsité et de quantification allégée seraient immédiatement convertibles en débit et en coût par token.

Dans un marché où l’avantage bascule désormais sur le coût d’exploitation plus que sur les seuls scores synthétiques, la combinaison d’un KV cache repensé et d’un décodage FP8 peut déplacer la pression du côté des fournisseurs d’infrastructure. Si DeepSeek parvient à stabiliser ces optimisations à large échelle, l’impact pourrait être tangible pour les intégrateurs qui cherchent à pousser des assistants de code à forte contrainte de latence et de fenêtre contextuelle, en particulier sur des grappes hétérogènes.

Source : ITHome

  •  
❌