Quand je suis tombé sur Wario.style, j'ai d'abord cru à une blague. Sauf que non.
Ce petit site web vous transforme vos morceaux préférés en version Game Boy, à condition qu'un fichier MIDI existe pour la chanson en question. Vous cherchez une chanson, vous sélectionnez la source MIDI qui vous plaît, vous cliquez sur "Generate"... et là, c'est la magie des bips et des blops qui opère.
Ce qui se cache derrière porte le doux nom de Wario Synthesis Engine. Concrètement, ça analyse le fichier MIDI pour identifier les pistes de mélodie, de basse et d'accords, puis ça resynthétise le tout avec des oscillateurs Web Audio calibrés pour imiter la puce sonore 4 canaux de la Game Boy. Deux canaux pulse wave pour la mélodie, un canal wave pour les graves, et un canal noise pour les percussions. C'est à dire le même setup que la vraie console de 1989, les amis !
Et le plus beau dans tout ça, c'est que la synthèse audio se fait entièrement côté client. La recherche de fichiers MIDI passe par un serveur, mais la génération du son, elle, tourne direct dans votre navigateur. Du coup, niveau réactivité, on est bien.
Le site est signé @b1rdmania, un dev qui a construit ce projet "for lols" avec Claude Code (hé oui, c'est mentionné fièrement sur la page). D'ailleurs si vous voulez
fouiller le code source
, tout est public sur GitHub. C'est du TypeScript propre avec Vite derrière pour le build.
Les dev ont un peu peur des avocats de Nintendo... lol (
Source
)
Côté fonctionnalités, la version 1.3 apporte le partage direct sur X, une palette Game Boy claire pour les nostalgiques du vert olive, et des correctifs pour l'audio sur iPhone. Parce que oui, Apple bloque le son tant que vous n'avez pas tapé sur un truc, mais une fois le bouton "Enable Audio" cliqué, c'est parti mon kiki.
Le projet a d'ailleurs une page d'embed si vous voulez intégrer vos créations chiptune sur vos sites web. Perso, je trouve ça super cool pour donner une ambiance rétro à n'importe quel projet.
Voilà, si vous avez grandi avec les bips caractéristiques de la Game Boy et que vous avez toujours rêvé de transformer vos morceaux préférés en 8-bit,
foncez tester Wario.style
. C'est gratuit, c'est fun, et n'oubliez pas, si vous cherchez d'autres outils pour composer du chiptune plus sérieusement, j'ai parlé de
Furnace
et
DefleMask
il y a pas longtemps.
Quand je suis tombé sur Wario.style, j'ai d'abord cru à une blague. Sauf que non.
Ce petit site web vous transforme vos morceaux préférés en version Game Boy, à condition qu'un fichier MIDI existe pour la chanson en question. Vous cherchez une chanson, vous sélectionnez la source MIDI qui vous plaît, vous cliquez sur "Generate"... et là, c'est la magie des bips et des blops qui opère.
Ce qui se cache derrière porte le doux nom de Wario Synthesis Engine. Concrètement, ça analyse le fichier MIDI pour identifier les pistes de mélodie, de basse et d'accords, puis ça resynthétise le tout avec des oscillateurs Web Audio calibrés pour imiter la puce sonore 4 canaux de la Game Boy. Deux canaux pulse wave pour la mélodie, un canal wave pour les graves, et un canal noise pour les percussions. C'est à dire le même setup que la vraie console de 1989, les amis !
Et le plus beau dans tout ça, c'est que la synthèse audio se fait entièrement côté client. La recherche de fichiers MIDI passe par un serveur, mais la génération du son, elle, tourne direct dans votre navigateur. Du coup, niveau réactivité, on est bien.
Le site est signé @b1rdmania, un dev qui a construit ce projet "for lols" avec Claude Code (hé oui, c'est mentionné fièrement sur la page). D'ailleurs si vous voulez
fouiller le code source
, tout est public sur GitHub. C'est du TypeScript propre avec Vite derrière pour le build.
Les dev ont un peu peur des avocats de Nintendo... lol (
Source
)
Côté fonctionnalités, la version 1.3 apporte le partage direct sur X, une palette Game Boy claire pour les nostalgiques du vert olive, et des correctifs pour l'audio sur iPhone. Parce que oui, Apple bloque le son tant que vous n'avez pas tapé sur un truc, mais une fois le bouton "Enable Audio" cliqué, c'est parti mon kiki.
Le projet a d'ailleurs une page d'embed si vous voulez intégrer vos créations chiptune sur vos sites web. Perso, je trouve ça super cool pour donner une ambiance rétro à n'importe quel projet.
Voilà, si vous avez grandi avec les bips caractéristiques de la Game Boy et que vous avez toujours rêvé de transformer vos morceaux préférés en 8-bit,
foncez tester Wario.style
. C'est gratuit, c'est fun, et n'oubliez pas, si vous cherchez d'autres outils pour composer du chiptune plus sérieusement, j'ai parlé de
Furnace
et
DefleMask
il y a pas longtemps.
J'sais pas si vous vous souvenez mais en 2016, Elon Musk avait promis qu'une Tesla serait capable de traverser les États-Unis d'une côte à l'autre avec le système FSD (conduite autonome), sans que le conducteur n'ait besoin d'intervenir. À l'époque, il annonçait ça pour fin 2017 et on est en 2026 et... hé bien, ça vient enfin de se produire (même si pas exactement comme prévu).
David Moss, un américain originaire de Tacoma, vient de réaliser l'exploit le 31 décembre 2025. Il a quitté le Tesla Diner de Los Angeles avec sa Model 3 grise et a roulé jusqu'à Myrtle Beach en Caroline du Sud. 2 732,4 miles (environ 4 400 km) en 2 jours et 20 heures (recharges incluses).
Et tout ça avec zéro désengagement du FSD ! Le système a même géré tous les stationnements aux Superchargeurs (30 recharges au total, le conducteur devait juste brancher le câble).
Son véhicule tournait avec la version FSD 14.2.1.25 et la puce AI4, le hardware embarqué actuel sur les Tesla et d'après ses données sur fsddb.com (un site communautaire de tracking FSD), il a même dépassé les 10 000 miles consécutifs sans désengagement.
Ashok Elluswamy, le VP de l'IA chez Tesla, a salué l'exploit sur X en parlant de première traversée d'une côte à l'autre en FSD v14. Le compte officiel Tesla North America a aussi relayé l'info et Musk a réagi avec un sobre "Cool". (lol)
Si vous êtes tenté de faire pareil, n'oubliez pas quand même que le système s'appelle toujours "FSD Supervised", ce qui signifie que légalement le conducteur reste responsable et doit rester vigilant. David Moss n'a donc pas vraiment fait une sieste de 3 jours pendant que sa bagnole roulait toute seule. Il était bien là, prêt à intervenir si besoin... sauf qu'il n'en a jamais eu besoin.
La Tesla Model 3 de David Moss - Source:
fsddb.com
Ce qui me fait kiffer dans cette histoire, c'est que ça donne un sacré coup de boost à l'approche de Tesla concernant la conduite autonome : des caméras, du machine learning et des réseaux de neurones, sans LiDAR.
Geohot avait commencé à bidouiller ça en 2015
avec son projet qui est devenu
OpenPilot chez Comma.ai
. Et là, un conducteur passionné vient enfin de prouver que leur stack logicielle peut tenir un trajet de 4 400 km sans broncher. Bon, c'est un one shot et pas une validation scientifique reproductible, mais c'est quand même impressionnant.
Et perso, près de 9 ans après la promesse initiale de Musk (octobre 2016), c'est cool de voir que ça progresse enfin concrètement !
J'sais pas si vous vous souvenez mais en 2016, Elon Musk avait promis qu'une Tesla serait capable de traverser les États-Unis d'une côte à l'autre avec le système FSD (conduite autonome), sans que le conducteur n'ait besoin d'intervenir. À l'époque, il annonçait ça pour fin 2017 et on est en 2026 et... hé bien, ça vient enfin de se produire (même si pas exactement comme prévu).
David Moss, un américain originaire de Tacoma, vient de réaliser l'exploit le 31 décembre 2025. Il a quitté le Tesla Diner de Los Angeles avec sa Model 3 grise et a roulé jusqu'à Myrtle Beach en Caroline du Sud. 2 732,4 miles (environ 4 400 km) en 2 jours et 20 heures (recharges incluses).
Et tout ça avec zéro désengagement du FSD ! Le système a même géré tous les stationnements aux Superchargeurs (30 recharges au total, le conducteur devait juste brancher le câble).
Son véhicule tournait avec la version FSD 14.2.1.25 et la puce AI4, le hardware embarqué actuel sur les Tesla et d'après ses données sur fsddb.com (un site communautaire de tracking FSD), il a même dépassé les 10 000 miles consécutifs sans désengagement.
Ashok Elluswamy, le VP de l'IA chez Tesla, a salué l'exploit sur X en parlant de première traversée d'une côte à l'autre en FSD v14. Le compte officiel Tesla North America a aussi relayé l'info et Musk a réagi avec un sobre "Cool". (lol)
Si vous êtes tenté de faire pareil, n'oubliez pas quand même que le système s'appelle toujours "FSD Supervised", ce qui signifie que légalement le conducteur reste responsable et doit rester vigilant. David Moss n'a donc pas vraiment fait une sieste de 3 jours pendant que sa bagnole roulait toute seule. Il était bien là, prêt à intervenir si besoin... sauf qu'il n'en a jamais eu besoin.
La Tesla Model 3 de David Moss - Source:
fsddb.com
Ce qui me fait kiffer dans cette histoire, c'est que ça donne un sacré coup de boost à l'approche de Tesla concernant la conduite autonome : des caméras, du machine learning et des réseaux de neurones, sans LiDAR.
Geohot avait commencé à bidouiller ça en 2015
avec son projet qui est devenu
OpenPilot chez Comma.ai
. Et là, un conducteur passionné vient enfin de prouver que leur stack logicielle peut tenir un trajet de 4 400 km sans broncher. Bon, c'est un one shot et pas une validation scientifique reproductible, mais c'est quand même impressionnant.
Et perso, près de 9 ans après la promesse initiale de Musk (octobre 2016), c'est cool de voir que ça progresse enfin concrètement !
L’Europe n’a pas retrouvé l’euphorie de 2021, loin de là. Mais en 2025, 15 startups ont malgré tout franchi le cap du milliard de dollars de valorisation, dans un contexte de financement plus dur, plus sélectif, et plus politique aussi. Santé, IA, défense, espace, énergie… Ces nouvelles licornes prouvent que l’innovation européenne résiste encore.
L’Europe n’a pas retrouvé l’euphorie de 2021, loin de là. Mais en 2025, 15 startups ont malgré tout franchi le cap du milliard de dollars de valorisation, dans un contexte de financement plus dur, plus sélectif, et plus politique aussi. Santé, IA, défense, espace, énergie… Ces nouvelles licornes prouvent que l’innovation européenne résiste encore.
L'année 2025 touche à sa fin. L'heure est donc venue de tirer un bilan de cette année riche en progrès techniques. Voici les 5 innovations qui ont marqué l'année à la rédaction de Presse-citron.
L'année 2025 touche à sa fin. L'heure est donc venue de tirer un bilan de cette année riche en progrès techniques. Voici les 5 innovations qui ont marqué l'année à la rédaction de Presse-citron.
Bon, il est bientôt l'heure de la pause et vous avez bien mérité de faire travailler vos méninges sur autre chose que des lignes de code ou des tableurs Excel. Ça tombe bien, je viens de tomber sur un petit jeu web qui va vous rappeler des souvenirs... Vous vous souvenez de "Des Chiffres et des Lettres" ? Cette émission où Bertrand Renard alignait des calculs pendant que vous, gamin, vous demandiez pourquoi vos parents regardaient un truc aussi barbant ?
Hé bien Make 67 s'en inspire clairement, mais en version web décontractée et sans le stress du chrono qui défile à la télé.
On vous donne 4 nombres au hasard et vous devez combiner le tout avec les opérations de base (addition, soustraction, multiplication, division) pour obtenir... 67. Pourquoi 67 ? Aucune idée, mais c'est le charme du truc. Chaque nombre ne peut être utilisé qu'une seule fois, et petit détail qui a son importance, les calculs s'effectuent de gauche à droite, pas selon l'ordre mathématique classique. Du coup 2 + 3 × 4 ça donne 20, pas 14. Faut s'y faire, mais ça rajoute une petite couche de réflexion.
L'interface est minimaliste au possible avec 4 boutons pour les nombres, 4 pour les opérations, et hop vous construisez votre expression. Et si vous vous plantez, y'a un bouton Clear pour recommencer. Mais attention, vous ne pouvez l'utiliser que 3 fois max, après quoi le bouton Solve se débloque pour vous montrer la solution. Pas de jugement, on a tous des jours sans ^^.
Le petit plus sympa c'est quand vous trouvez la bonne combinaison. Votre téléphone peut vibrer (si compatible), des confettis apparaissent et y'a même un petit son de victoire. C'est con mais ça fait plaisir. Et pour les maniaques du détail, sachez que le jeu gère proprement les divisions en arrondissant à 6 décimales.
Perso je trouve ça parfait pour une pause de 5 minutes entre deux réunions ou pour décompresser en fin de journée.
Bref, si vous cherchez un truc pour occuper votre pause café,
c'est cadeau
.
Bon, il est bientôt l'heure de la pause et vous avez bien mérité de faire travailler vos méninges sur autre chose que des lignes de code ou des tableurs Excel. Ça tombe bien, je viens de tomber sur un petit jeu web qui va vous rappeler des souvenirs... Vous vous souvenez de "Des Chiffres et des Lettres" ? Cette émission où Bertrand Renard alignait des calculs pendant que vous, gamin, vous demandiez pourquoi vos parents regardaient un truc aussi barbant ?
Hé bien Make 67 s'en inspire clairement, mais en version web décontractée et sans le stress du chrono qui défile à la télé.
On vous donne 4 nombres au hasard et vous devez combiner le tout avec les opérations de base (addition, soustraction, multiplication, division) pour obtenir... 67. Pourquoi 67 ? Aucune idée, mais c'est le charme du truc. Chaque nombre ne peut être utilisé qu'une seule fois, et petit détail qui a son importance, les calculs s'effectuent de gauche à droite, pas selon l'ordre mathématique classique. Du coup 2 + 3 × 4 ça donne 20, pas 14. Faut s'y faire, mais ça rajoute une petite couche de réflexion.
L'interface est minimaliste au possible avec 4 boutons pour les nombres, 4 pour les opérations, et hop vous construisez votre expression. Et si vous vous plantez, y'a un bouton Clear pour recommencer. Mais attention, vous ne pouvez l'utiliser que 3 fois max, après quoi le bouton Solve se débloque pour vous montrer la solution. Pas de jugement, on a tous des jours sans ^^.
Le petit plus sympa c'est quand vous trouvez la bonne combinaison. Votre téléphone peut vibrer (si compatible), des confettis apparaissent et y'a même un petit son de victoire. C'est con mais ça fait plaisir. Et pour les maniaques du détail, sachez que le jeu gère proprement les divisions en arrondissant à 6 décimales.
Perso je trouve ça parfait pour une pause de 5 minutes entre deux réunions ou pour décompresser en fin de journée.
Bref, si vous cherchez un truc pour occuper votre pause café,
c'est cadeau
.
Pour moi, 2024 a été l'année noire de nos données personnelles en France. Et 2025 n'a pas corrigé le tir, bien au contraire. L'année qui s'est écoulée a juste confirmé qu'on était entrés dans une espèce de routine du "demain ce sera pire". Y'a pas eu un secteur épargné, pas un organisme qui n'a pas été touché. Santé, télécom, grande distribution, services publics, fédérations sportives... C'est un festival du piratage qui s'est abattu sur l'Hexagone ces 2 dernières années.
Et SaxX, le hacker éthique que vous connaissez surement, vient de publier sur son LinkedIn
un bilan édifiant
: 48 organisations françaises piratées en un an. La liste fait froid dans le dos.
En réalité c'est même plus que ça, puisque ça a commencé dès février 2024 avec le piratage massif de Viamedis et Almerys, les deux opérateurs de tiers payant qui gèrent la quasi-totalité des remboursements santé en France. Plus de 33 millions de Français concernés, avec leurs noms, numéros de sécu, dates de naissance... Pas les données bancaires certes, mais suffisamment pour monter des arnaques à l'usurpation d'identité bien ficelées.
Un mois plus tard, en mars 2024, c'est France Travail qui tombait. L'ex-Pôle Emploi s'est fait siphonner les données de potentiellement 43 millions de personnes inscrites au cours des 20 dernières années. Le pire c'est que la direction avait été alertée sur des faiblesses de sécu avant l'attaque. Des suspects ont été arrêtés... et c'était des gamins. Des gamins qui ont quand même eu accès aux données de la moitié du pays.
Septembre 2024 a aussi été un carnage. Un seul pirate, sous le pseudo Horror404x, a réussi à compromettre Boulanger (jusqu'à 27 millions de "lignes" revendiquées), Cultura (entre 1,5 et 2,6 millions de comptes selon les sources), Truffaut (270 000 comptes), Grosbill, Cybertek, et même l'Assurance Retraite (des centaines de milliers de retraités). Comment ? Simplement en ciblant un prestataire commun lié aux systèmes de livraison. Un seul maillon faible, et c'est toute la chaîne qui cède.
Puis en octobre-novembre 2024, ce sont les opérateurs télécoms qui se sont fait dépouiller. Free d'abord, avec plus de 19 millions de clients touchés, dont plusieurs millions avec des IBAN dans la nature. Et là, on est dans le bingo complet avec identité + coordonnées + infos contractuelles + IBAN = terrain parfait pour les arnaques "faux conseiller", les prélèvements frauduleux, les ouvertures de comptes. Ces derniers risquent d'ailleurs une amende pouvant aller jusqu'à
48 millions d'euros
. Puis SFR a suivi avec au moins deux épisodes : une première fuite autour de 50 000 clients à l'automne 2024, puis des millions revendiqués ensuite. N'oubliez pas, quand ça nie, quand ça minimise, quand ça traîne... ça laisse juste plus de temps aux escrocs.
Et autour de ces gros blocs, y'a eu surtout une pluie d'incidents plus petits : Auchan, Picard, Molotov, LDLC, Norauto, Meilleurtaux... Sans oublier Direct Assurance, Speedy, Point S. Bref, 2024, c'est l'année où on a compris que ça touchait TOUT LE MONDE.
Et puis 2025 arrive, et là, le grand délire. Le piratage de nos données n'est plus une exception... Ce n'est plus un accident... C'est une industrie.
Début 2025, on voit apparaitre à nouveau des attaques "système"... C'est à dire des fournisseurs, des prestataires, des outils utilisés partout qui se font poutrer. L'exemple parfait c'est Harvest (logiciels financiers) et, par ricochet, des clients de MAIF et BPCE. Même logique que ce qu'on a eu en 2024... On tape un intermédiaire, et ça permet de toucher une grappe entière dans un secteur donné. Puis sans surprise, au printemps 2025, ça tombe comme des mouches : Intersport, Autosur, Cerballiance, Indigo, Afflelou, Carrefour Mobile, Easy Cash, Hertz... Et derrière chaque nom, c'est toujours la même chanson : "pas de données bancaires" (ok), mais tout le reste suffit largement pour faire de la merde.
L'été 2025, on a eu droit à des cibles plus "haut niveau" : Sorbonne Université, CNFPT, des acteurs santé, et côté marques : Dior, Louis Vuitton, Cartier... Côté transport y'a eu Air France et côté télécom, Bouygues Telecom ! On n'est plus sur un site e-commerce qui s'est fait péter via un formulaire php mal sécurisé...non, on est sur du volume, des identifiants, des IBAN, des chaînes d'approvisionnement complètes...
Ensuite, à l'automne 2025, c'est la sphère "sport" et "administrations" qui se fonbt hacher menu : des fédérations en cascade (souvent via des outils mutualisés), France Travail qui ressort encore, la Fédération Française de Tir (via un prestataire), et des histoires d'ARS qui donnent des sueurs froides.
Et la fin 2025, c'est la cerise radioactive sur le gâteau puisqu'on a Pajemploi, HelloWork, Leroy Merlin, Mondial Relay, Colis Privé, Eurofiber, Weda, Resana, Médecin Direct, Cuisinella, La Poste (attaque qui met à l'arrêt des services au pire moment, je pense que vous en avez tous entendu parler), le Ministère de l'Intérieur, le Ministère des Sports, PornHub...
On termine donc l'année en beauté avec l'impression que tout le monde est une cible "normale". 9 personnes sur 10 en France ont été touchées d'après SaxX. C'est dingue quand même.
Et ce qui me fait bouillir de rage, c'est qu'on est coincés, putain.
Réfléchissez deux secondes... Vous cherchez un emploi ? Vous êtes OBLIGÉS de vous inscrire à France Travail et de leur filer votre vie entière. Vous voulez être remboursé de vos frais de santé ? Pas le choix, c'est Viamedis ou Almerys. Vous voulez un téléphone ? Free, SFR, Orange... Et votre numéro de sécu, votre IBAN, votre adresse. Vous voulez une retraite (loool) ? La CNAV veut tout savoir. Et si vous refusez de donner ces infos ? Vous êtes tout simplement hors-la-loi. Pas d'emploi, pas de remboursement santé, pas de téléphone, pas de retraite. Fin de partie.
Donc le deal c'est soit vous filez vos données personnelles à des organismes qui se feront pirater tôt ou tard, soit vous vivez en ermite dans une grotte en dehors de la société. Super choix 👍.
Et qu'est-ce qu'on a en échange de cette "confiance" forcée ?
On a des systèmes d'information qui ressemblent à des passoires, des prestataires sous-payés qui deviennent des portes d'entrée open bar pour les hackers, et des communications de crise qui arrivent des semaines après les faits. "Vos données bancaires ne sont pas concernées" nous rabache-t-on à chaque fois, comme si c'était une consolation alors que notre identité COMPLÈTE est en vente pour le prix d'un Happy Meal.
Et ce qui m'inquiète le plus, c'est l'effet cumulatif car chaque fuite isolée peut sembler "gérable" mais quand vous croisez les bases de Viamedis (numéro de sécu), France Travail (historique pro), un opérateur télécom (IBAN), un distributeur (habitudes de conso)... Vous obtenez un profil complet exploitable. Y'a 600 millions de comptes qui sont partis dans la nature rien que cette année... Donc de quoi monter des arnaques ultra-ciblées, des usurpations d'identité sophistiquées, voire du chantage.
Et dans certains cas, ça va encore plus loin... Regardez le piratage de la Fédération Française de Tir avec
le gars qui s'est fait attaquer chez lui
...Et c'est pas le seul... Ça montre jusqte à quel point une fuite peut devenir un risque "hors écran". Quand on sais qui est licencié, où il habite, comment le joindre... on peut mettre en place très facilement du repérages, des pressions, du ciblage. Et là, j'vous parle de risque physique, pas juste de spam ou de démarchage au téléphone. Et ça sera la même violence avec leur future loi pour collecter toutes les datas des propriétaires de wallet crypto self-custody.
Bref, je sens ce malaise qui monte de plus en plus car on nous demande toujours plus d'infos. Pour ouvrir un compte, pour s'inscrire quelque part, pour accéder à un service... et vous comme moi, savons pertinemment que ces infos vont fuiter un jour. C'est pas "si", c'est "quand", perso, j'en ai ma claque... ça commence à bien faire.
Alors voilà ma vraie question, celle que nos chers élus devraient se poser : A-t-on vraiment besoin de collecter autant de données ?
Pourquoi France Travail a besoin de garder mes infos pendant 20 ans ? Pourquoi mon opérateur télécom doit connaître mon adresse postale exacte ? Pourquoi ma carte de fidélité Auchan doit être liée à mon identité complète ? Est-ce qu'on pourrait pas, je sais pas moi, minimiser un peu tout ça ?
Et surtout, est-ce qu'on pourrait pas trouver un système qui nous permettrait de prouver notre identité sans avoir à déballer notre vie entière ? Genre juste vérifier que oui, je suis majeur, que oui, j'habite en France, sans pour autant filer mon adresse, mon numéro de téléphone, ma photo, ma carte d'identité et la liste de tous mes comptes en banque. Ces technologies existent et y'a déjà des solutions de type zero-knowledge proof. Ça fait des années que je vous en parle, mais apparemment, c'est plus simple de continuer à empiler des bases de données géantes qui finiront toutes par être piratées.
On a une CNIL qui fait ce qu'elle peut avec les moyens du bord. On a une ANSSI qui alerte et recommande. Mais où est la vraie réflexion ? Où sont les députés et les ministres qui se posent la question de la minimisation des données ? Où est le débat sur les alternatives à ce système de merde où le citoyen est obligé de tout donner pour exister socialement ?
Parce que là, on nous demande de "rester vigilants face au phishing" (lol), de "vérifier nos comptes", de "changer nos mots de passe régulièrement"... Bref, de gérer les conséquences de leurs négligences. C'est un peu comme demander aux passagers du Titanic de vider l'eau avec des seaux pendant que le capitaine continue à foncer droit sur l'iceberg suivant.
Voilà, pour moi ce bilan 2024-2025, c'est pas juste une liste de chiffres. C'est le symptôme d'une société qui a numérisé jusqu'à l’écœurement nos vies en marche forcée sans jamais se poser les bonnes questions. On a foncé tête baissée dans la collecte massive de données "parce que c'est pratique, tkt", sans jamais se demander si on en avait vraiment besoin, et sans jamais investir sérieusement pour les protéger.
Alors à nos chers décideurs, j'ai envie de dire réveillez-vous bande de moules !! Car le prochain gros piratage, c'est pas dans 10 ans, hein, c'est dans les prochains mois. Et ce sera encore 30 ou 40 millions de Français qui verront leurs données dans la nature. Ça vous semble normal ? Moi non, et je mettrais ma main à couper que je suis pas le seul à en avoir ras-le-bol.
Merci à SaxX pour ce travail de compilation et d'alerte !
Pour moi, 2024 a été l'année noire de nos données personnelles en France. Et 2025 n'a pas corrigé le tir, bien au contraire. L'année qui s'est écoulée a juste confirmé qu'on était entrés dans une espèce de routine du "demain ce sera pire". Y'a pas eu un secteur épargné, pas un organisme qui n'a pas été touché. Santé, télécom, grande distribution, services publics, fédérations sportives... C'est un festival du piratage qui s'est abattu sur l'Hexagone ces 2 dernières années.
Et SaxX, le hacker éthique que vous connaissez surement, vient de publier sur son LinkedIn
un bilan édifiant
: 48 organisations françaises piratées en un an. La liste fait froid dans le dos.
En réalité c'est même plus que ça, puisque ça a commencé dès février 2024 avec le piratage massif de Viamedis et Almerys, les deux opérateurs de tiers payant qui gèrent la quasi-totalité des remboursements santé en France. Plus de 33 millions de Français concernés, avec leurs noms, numéros de sécu, dates de naissance... Pas les données bancaires certes, mais suffisamment pour monter des arnaques à l'usurpation d'identité bien ficelées.
Un mois plus tard, en mars 2024, c'est France Travail qui tombait. L'ex-Pôle Emploi s'est fait siphonner les données de potentiellement 43 millions de personnes inscrites au cours des 20 dernières années. Le pire c'est que la direction avait été alertée sur des faiblesses de sécu avant l'attaque. Des suspects ont été arrêtés... et c'était des gamins. Des gamins qui ont quand même eu accès aux données de la moitié du pays.
Septembre 2024 a aussi été un carnage. Un seul pirate, sous le pseudo Horror404x, a réussi à compromettre Boulanger (jusqu'à 27 millions de "lignes" revendiquées), Cultura (entre 1,5 et 2,6 millions de comptes selon les sources), Truffaut (270 000 comptes), Grosbill, Cybertek, et même l'Assurance Retraite (des centaines de milliers de retraités). Comment ? Simplement en ciblant un prestataire commun lié aux systèmes de livraison. Un seul maillon faible, et c'est toute la chaîne qui cède.
Puis en octobre-novembre 2024, ce sont les opérateurs télécoms qui se sont fait dépouiller. Free d'abord, avec plus de 19 millions de clients touchés, dont plusieurs millions avec des IBAN dans la nature. Et là, on est dans le bingo complet avec identité + coordonnées + infos contractuelles + IBAN = terrain parfait pour les arnaques "faux conseiller", les prélèvements frauduleux, les ouvertures de comptes. Ces derniers risquent d'ailleurs une amende pouvant aller jusqu'à
48 millions d'euros
. Puis SFR a suivi avec au moins deux épisodes : une première fuite autour de 50 000 clients à l'automne 2024, puis des millions revendiqués ensuite. N'oubliez pas, quand ça nie, quand ça minimise, quand ça traîne... ça laisse juste plus de temps aux escrocs.
Et autour de ces gros blocs, y'a eu surtout une pluie d'incidents plus petits : Auchan, Picard, Molotov, LDLC, Norauto, Meilleurtaux... Sans oublier Direct Assurance, Speedy, Point S. Bref, 2024, c'est l'année où on a compris que ça touchait TOUT LE MONDE.
Et puis 2025 arrive, et là, le grand délire. Le piratage de nos données n'est plus une exception... Ce n'est plus un accident... C'est une industrie.
Début 2025, on voit apparaitre à nouveau des attaques "système"... C'est à dire des fournisseurs, des prestataires, des outils utilisés partout qui se font poutrer. L'exemple parfait c'est Harvest (logiciels financiers) et, par ricochet, des clients de MAIF et BPCE. Même logique que ce qu'on a eu en 2024... On tape un intermédiaire, et ça permet de toucher une grappe entière dans un secteur donné. Puis sans surprise, au printemps 2025, ça tombe comme des mouches : Intersport, Autosur, Cerballiance, Indigo, Afflelou, Carrefour Mobile, Easy Cash, Hertz... Et derrière chaque nom, c'est toujours la même chanson : "pas de données bancaires" (ok), mais tout le reste suffit largement pour faire de la merde.
L'été 2025, on a eu droit à des cibles plus "haut niveau" : Sorbonne Université, CNFPT, des acteurs santé, et côté marques : Dior, Louis Vuitton, Cartier... Côté transport y'a eu Air France et côté télécom, Bouygues Telecom ! On n'est plus sur un site e-commerce qui s'est fait péter via un formulaire php mal sécurisé...non, on est sur du volume, des identifiants, des IBAN, des chaînes d'approvisionnement complètes...
Ensuite, à l'automne 2025, c'est la sphère "sport" et "administrations" qui se fonbt hacher menu : des fédérations en cascade (souvent via des outils mutualisés), France Travail qui ressort encore, la Fédération Française de Tir (via un prestataire), et des histoires d'ARS qui donnent des sueurs froides.
Et la fin 2025, c'est la cerise radioactive sur le gâteau puisqu'on a Pajemploi, HelloWork, Leroy Merlin, Mondial Relay, Colis Privé, Eurofiber, Weda, Resana, Médecin Direct, Cuisinella, La Poste (attaque qui met à l'arrêt des services au pire moment, je pense que vous en avez tous entendu parler), le Ministère de l'Intérieur, le Ministère des Sports, PornHub...
On termine donc l'année en beauté avec l'impression que tout le monde est une cible "normale". 9 personnes sur 10 en France ont été touchées d'après SaxX. C'est dingue quand même.
Et ce qui me fait bouillir de rage, c'est qu'on est coincés, putain.
Réfléchissez deux secondes... Vous cherchez un emploi ? Vous êtes OBLIGÉS de vous inscrire à France Travail et de leur filer votre vie entière. Vous voulez être remboursé de vos frais de santé ? Pas le choix, c'est Viamedis ou Almerys. Vous voulez un téléphone ? Free, SFR, Orange... Et votre numéro de sécu, votre IBAN, votre adresse. Vous voulez une retraite (loool) ? La CNAV veut tout savoir. Et si vous refusez de donner ces infos ? Vous êtes tout simplement hors-la-loi. Pas d'emploi, pas de remboursement santé, pas de téléphone, pas de retraite. Fin de partie.
Donc le deal c'est soit vous filez vos données personnelles à des organismes qui se feront pirater tôt ou tard, soit vous vivez en ermite dans une grotte en dehors de la société. Super choix 👍.
Et qu'est-ce qu'on a en échange de cette "confiance" forcée ?
On a des systèmes d'information qui ressemblent à des passoires, des prestataires sous-payés qui deviennent des portes d'entrée open bar pour les hackers, et des communications de crise qui arrivent des semaines après les faits. "Vos données bancaires ne sont pas concernées" nous rabache-t-on à chaque fois, comme si c'était une consolation alors que notre identité COMPLÈTE est en vente pour le prix d'un Happy Meal.
Et ce qui m'inquiète le plus, c'est l'effet cumulatif car chaque fuite isolée peut sembler "gérable" mais quand vous croisez les bases de Viamedis (numéro de sécu), France Travail (historique pro), un opérateur télécom (IBAN), un distributeur (habitudes de conso)... Vous obtenez un profil complet exploitable. Y'a 600 millions de comptes qui sont partis dans la nature rien que cette année... Donc de quoi monter des arnaques ultra-ciblées, des usurpations d'identité sophistiquées, voire du chantage.
Et dans certains cas, ça va encore plus loin... Regardez le piratage de la Fédération Française de Tir avec
le gars qui s'est fait attaquer chez lui
...Et c'est pas le seul... Ça montre jusqte à quel point une fuite peut devenir un risque "hors écran". Quand on sais qui est licencié, où il habite, comment le joindre... on peut mettre en place très facilement du repérages, des pressions, du ciblage. Et là, j'vous parle de risque physique, pas juste de spam ou de démarchage au téléphone. Et ça sera la même violence avec leur future loi pour collecter toutes les datas des propriétaires de wallet crypto self-custody.
Bref, je sens ce malaise qui monte de plus en plus car on nous demande toujours plus d'infos. Pour ouvrir un compte, pour s'inscrire quelque part, pour accéder à un service... et vous comme moi, savons pertinemment que ces infos vont fuiter un jour. C'est pas "si", c'est "quand", perso, j'en ai ma claque... ça commence à bien faire.
Alors voilà ma vraie question, celle que nos chers élus devraient se poser : A-t-on vraiment besoin de collecter autant de données ?
Pourquoi France Travail a besoin de garder mes infos pendant 20 ans ? Pourquoi mon opérateur télécom doit connaître mon adresse postale exacte ? Pourquoi ma carte de fidélité Auchan doit être liée à mon identité complète ? Est-ce qu'on pourrait pas, je sais pas moi, minimiser un peu tout ça ?
Et surtout, est-ce qu'on pourrait pas trouver un système qui nous permettrait de prouver notre identité sans avoir à déballer notre vie entière ? Genre juste vérifier que oui, je suis majeur, que oui, j'habite en France, sans pour autant filer mon adresse, mon numéro de téléphone, ma photo, ma carte d'identité et la liste de tous mes comptes en banque. Ces technologies existent et y'a déjà des solutions de type zero-knowledge proof. Ça fait des années que je vous en parle, mais apparemment, c'est plus simple de continuer à empiler des bases de données géantes qui finiront toutes par être piratées.
On a une CNIL qui fait ce qu'elle peut avec les moyens du bord. On a une ANSSI qui alerte et recommande. Mais où est la vraie réflexion ? Où sont les députés et les ministres qui se posent la question de la minimisation des données ? Où est le débat sur les alternatives à ce système de merde où le citoyen est obligé de tout donner pour exister socialement ?
Parce que là, on nous demande de "rester vigilants face au phishing" (lol), de "vérifier nos comptes", de "changer nos mots de passe régulièrement"... Bref, de gérer les conséquences de leurs négligences. C'est un peu comme demander aux passagers du Titanic de vider l'eau avec des seaux pendant que le capitaine continue à foncer droit sur l'iceberg suivant.
Voilà, pour moi ce bilan 2024-2025, c'est pas juste une liste de chiffres. C'est le symptôme d'une société qui a numérisé jusqu'à l’écœurement nos vies en marche forcée sans jamais se poser les bonnes questions. On a foncé tête baissée dans la collecte massive de données "parce que c'est pratique, tkt", sans jamais se demander si on en avait vraiment besoin, et sans jamais investir sérieusement pour les protéger.
Alors à nos chers décideurs, j'ai envie de dire réveillez-vous bande de moules !! Car le prochain gros piratage, c'est pas dans 10 ans, hein, c'est dans les prochains mois. Et ce sera encore 30 ou 40 millions de Français qui verront leurs données dans la nature. Ça vous semble normal ? Moi non, et je mettrais ma main à couper que je suis pas le seul à en avoir ras-le-bol.
Merci à SaxX pour ce travail de compilation et d'alerte !
Bon, je vais essayer de poser les choses calmement, parce que ce que je vais vous raconter aujourd'hui, c'est peut-être le changement le plus profond qu'on ait vu sur le web depuis l'arrivée des moteurs de recherche. Et je pèse mes mots.
J'ai découvert via un post sur Linkedin de
Laurent Bourrelly
(merci !) que Google venait de lancer ce qu'ils appellent la « Vue Dynamique » dans Gemini.
Derrière ce nom un peu corporate se cache quelque chose de vertigineux. Au lieu de vous donner une réponse textuelle comme le fait ChatGPT ou Perplexity, Gemini génère maintenant des interfaces complètes, des mini-applications, des pages web interactives créées à la volée, spécialement pour votre question.
Vous demandez un comparatif de NAS ? Vous n'obtenez pas un texte avec des bullet points. Vous obtenez une interface avec des onglets, des sliders pour filtrer par prix, des cartes interactives avec les specs de chaque modèle.
Vous voulez un tutoriel pour installer Linux ? Vous n'aurez pas une liste d'étapes, mais un guide interactif avec des boutons, des cases à cocher pour suivre votre progression, peut-être même une galerie d'images générées pour illustrer chaque étape.
Et ça fonctionne incroyablement bien sur le web via gemini.google.com ! Pour l'instant c'est réservé aux comptes personnels, c'est encore un peu capricieux (ça apparaît, ça disparaît, Google teste), et ça peut prendre entre 30 et 90 secondes pour générer une réponse complexe. Mais le résultat est vraiment bluffant.
Ce que ça va changer...
Imaginez 2 secondes les usages de cette techno... Vous cherchez quel GPU acheter pour votre config gaming ? Au lieu de parcourir 15 sites de benchmarks, de comparer des tableaux sur Tom's Hardware et de croiser avec les prix sur LDLC, vous posez la question à Gemini et vous obtenez une application comparative générée instantanément. Même chose pour choisir un forfait mobile, comprendre les différences entre distributions Linux, trouver la meilleure recette de carbonara, ou planifier un voyage avec maps et itinéraires intégrés.
L'information brute, celle qu'on allait chercher sur des dizaines de sites, est maintenant synthétisée et présentée dans une interface sur-mesure. Plus besoin de naviguer de site en site, de supporter les popups de cookies, les pubs intrusives, les paywalls...etc. L'IA fait le boulot et vous livre le résultat dans un emballage propre. En quelques secondes, je me suis fait mon site d'actu tech perso...
Et voilà le problème.
La mort annoncée des sites d'information
Parce que si l'IA peut générer une meilleure expérience que nos sites web pour répondre à une question factuelle, pourquoi les gens iraient-ils encore sur nos sites ?
On connaissait déjà la menace des réponses IA dans les résultats Google. Vous savez, ces encarts qui répondent à votre question avant même que vous cliquiez sur un lien. Ça, c'était le premier coup de semonce. Mais la Vue Dynamique, c'est un autre niveau. Ce n'est plus juste une réponse qui s'intercale entre vous et l'internaute. C'est le remplacement pur et simple de l'expérience web traditionnelle.
Tous les sites qui vivent de l'information brute vont morfler. Les comparateurs de prix, les guides d'achat, les tutoriels techniques basiques, les FAQ, les sites de recettes... Tout ce qui peut être synthétisé, structuré et présenté de manière plus efficace par une IA va perdre sa raison d'être. Et croyez-moi, OpenAI ne va pas rester les bras croisés et Perplexity non plus. Dans quelques mois, ils auront tous leur version de cette techno. C'est inévitable.
Et demain, ce ne sera peut-être même plus des interfaces visuelles. Ce seront des assistants vocaux, des agents autonomes, des robots qui viendront chercher l'information sans jamais afficher une seule page web. L'information transitera directement de la source vers l'utilisateur, sans passer par la case « visite d'un site ».
Alors, c'est foutu ?
Hé bien... oui et non.
Oui, c'est foutu pour un certain type de contenu. L'information pure et dure, factuelle, sans valeur ajoutée éditoriale, va devenir une commodité. Quelque chose que l'IA génère gratuitement, instantanément, dans un format optimisé. Personne n'ira plus sur un site pour lire « comment formater un disque dur sous Windows » ou « comment nettoyer Windows 11 » quand Gemini lui construit un guide interactif personnalisé en 30 secondes.
Mais ce n'est pas foutu pour autant pour tout le monde. Et c'est là que ma réflexion devient plus personnelle...
Je pense que les sites qui vont survivre, et peut-être même prospérer, sont ceux qui apportent quelque chose que l'IA ne peut pas synthétiser. Une voix, une personnalité, un point de vue, une opinion, une analyse originale et le plaisir de lire quelqu'un. C'est peut-être la mort des sites conçus uniquement pour le SEO et du journalisme neutre et anonyme tel qu'on le pratique aujourd'hui et le grand retour des blogs à une voix ? Qui sait ?
Parce qu'au fond, pourquoi est-ce que vous me lisez ? Est-ce que c'est vraiment pour savoir comment installer Ollama ou pour connaître cette dernière faille de sécurité ? Ou est-ce que c'est aussi parce que vous aimez la manière dont je raconte les choses, les sujets que je choisis, le ton que j'emploie, les réflexions que je partage ? Si c'est juste pour l'info brute, alors oui, vous pourriez aller sur Gemini. Mais si c'est pour le reste, pour la relation qu'on a construite au fil des années, pour cette confiance qui s'est établie, alors aucune IA ne peut remplacer ça.
Les deux voies de survie
De mon point de vue, il y a désormais deux façons pour un créateur de contenu de survivre dans ce nouveau paysage.
La première, c'est de devenir fournisseur de données pour ces IA. Les bots vont continuer à crawler le web pour alimenter leurs modèles. Et ils auront besoin de données fraîches, de données originales, de données structurées. Les sites qui seront capables de produire cette matière première, et qui négocieront correctement avec les géants de l'IA pour être rémunérés, pourront peut-être s'en sortir. Mais attention, ça implique de repenser complètement la façon dont on structure son contenu, de le rendre lisible par les machines, d'accepter que ce qu'on produit sera digéré et régurgité par une IA. C'est un business model possible, mais c'est un sacré changement de paradigme.
La seconde voie, c'est de cultiver l'humain. De créer du contenu que les gens veulent lire pour le plaisir de lire, pas juste pour extraire une information. Des analyses, des opinions, des prises de position, du divertissement, de l'émotion. Un blog,
une newsletter
, un
Patreon
, des lives
Twitch
, une présence
LinkedIn Korben
... Tout ce qui crée une relation directe avec les lecteurs. Parce que cette relation, l'IA ne peut pas la reproduire. Elle peut synthétiser mes articles, mais elle ne peut pas être moi.
Et moi dans tout ça ?
Je ne vais pas vous mentir, ça fait réfléchir. Ça fait même un peu flipper. Mais en même temps, je réalise que c'est exactement le virage que j'ai commencé à prendre ces dernières années, de manière un peu inconsciente, sans vraiment voir venir cette révolution technologique.
Je suis tout seul. Je n'ai pas d'employés. Je ne peux pas rivaliser avec les gros médias tech sur la quantité ou la rapidité (quoique... ^^). Par contre, j'ai toujours cherché à me différencier. Déjà par ma sélection de sujets, que la plupart du temps, on ne retrouve nulle part ailleurs, par ma manière de les aborder, par ma façon d'écrire, par ma façon de communiquer avec vous...
Et demain, cette différence va devenir encore plus importante. Parce que ce qui ne sera pas différent, ce qui sera de l'information générique, ça va disparaître dans le bruit des réponses IA. Seuls les contenus qui apportent quelque chose d'unique, une perspective qu'on ne trouve pas ailleurs, une voix reconnaissable, une relation authentique, auront leur place.
Est-ce que j'y arriverai ? Je ne sais pas. Est-ce que les autres y arriveront ? Je ne sais pas non plus. Mais je trouve le challenge passionnant. Et je me sens suffisamment conscient de ce qui se passe, suffisamment bien équipé techniquement (j'utilise l'IA tous les jours pour mon travail, et je structure déjà mon contenu pour qu'il soit digeste par les machines), pour essayer de prendre cette vague.
Pour conclure
Google vient de mettre un énorme coup de poing sur la table. La Vue Dynamique de Gemini, c'est pas juste une nouvelle feature sympa... C'est l'annonce d'un changement de paradigme. Le web tel qu'on le connaît, avec des humains qui naviguent de site en site pour collecter de l'information, ce web-là est en train de mourir.
Ce qui va rester, ce sont comme je vous le disais, d'un côté, des fournisseurs de données qui alimenteront les IA. De l'autre, des créateurs qui cultiveront une relation directe avec leur audience, qui apporteront de la valeur par leur voix, leur personnalité, leur point de vue. Mon pari, c'est qu'en tant que média / blog / site web, nous devrons être les 2 faces de cette même pièce pour ne pas disparaître.
Je suis assez serein parce que c'est ce que je fais depuis 20 ans, même si je ne n'appelle pas ça comme ça. Et parce que je crois fondamentalement qu'il y aura toujours des gens qui voudront lire quelqu'un, et pas juste lire "quelque chose".
On verra bien si j'ai raison. On verra bien si je me plante. Mais ça va être un sacré voyage, et je suis content de le faire avec vous... Car tant qu'il y aura des gens pour me lire (vous !), et tant que ça m'amusera de partager tout ça avec vous, je ne bougerai pas d'ici ^^
Vous êtes sous Windows et vous avez déjà rêvé de taper sudo comme les vrais bonhommes sous Linux ?
Alors votre vie va changer car c'est maintenant possible grâce à l'implémentation divine de Microsoft (attention, c'est pas un port de sudo Unix, c'est leur propre version...).
En effet, Microsoft a intégré la commande sudo dans Windows 11 (version 24H2) et contrairement à ce qu'on pourrait penser, c'est pas juste un gadget pour faire genre. Ça sert vraiment... Par contre, la fonctionnalité est désactivée par défaut. Mdrrr.
Pour l'activer, vous allez dans Paramètres, puis Système, puis « Pour les développeurs », et vous activez l'option sudo. Et hop, c'est prêt.
Ensuite, y'a trois modes d'exécution et c'est là que ça devient intéressant. Le mode « Nouvelle fenêtre » ouvre un terminal admin séparé après validation UAC. Le mode « Avec entrée désactivée » exécute tout dans la même fenêtre mais vous pouvez plus interagir avec le processus. Et le mode « Inline », le plus proche de l'expérience Linux, garde tout dans votre fenêtre actuelle avec interaction complète.
Alors concrètement, ça sert à quoi ?
Déjà pour winget ça permet d'installer des logiciels directement depuis votre terminal utilisateur. Un petit sudo winget install --id VideoLAN.VLC et c'est réglé. Pas besoin de fermer votre session, ouvrir PowerShell en admin, retaper vos commandes...
Ensuite pour le debug réseau, quand vous voulez savoir quel processus monopolise un port, un sudo netstat -ab vous donne les noms des processus. L'option -b nécessite des droits admin pour fonctionner, donc sans sudo vous ne verrez que les PID (avec -o). Relou non ?
Et mon préféré c'est pour éditer le fichier hosts. Vous savez, ce fichier planqué dans C:\Windows\System32\drivers\etc\ qu'on peut jamais modifier parce qu'il faut des droits admin ? Hé bien maintenant un sudo notepad %windir%\system32\drivers\etc\hosts et c'est parti. Fini les galères de « Exécuter en tant qu'administrateur » puis naviguer jusqu'au fichier.
Bon, y'a quand même une limite importante par rapport à Linux...
Sous Linux, sudo garde vos identifiants en cache pendant quelques minutes par défaut (configurable via sudoers), donc vous tapez le mot de passe une fois et ensuite c'est tranquille. Alors que sous Windows avec les réglages UAC standards, vous aurez une validation à chaque commande sudo. C'est un peu lourd mais c'est le prix de la sécurité façon Microsoft
Bref, c'est pas la révolution du siècle, mais c'est un petit confort bien appréciable au quotidien. Si vous passez régulièrement de Linux à Windows, vous allez enfin pouvoir garder vos réflexes sans avoir à vous adapter et si vous êtes pur Windowsien, vous découvrez peut-être une façon plus classe de gérer les droits admin que le clic droit « Exécuter en tant qu'administrateur » qu'on connaît tous.
Vous aussi vous avez un dossier « Notes » qui ressemble à un cimetière d'idées ? Des fichiers texte avec des noms genre « truc_important.txt » ou « a_voir_plus_tard.md » que vous n'avez jamais revus depuis 2019 ? Hé bien j'ai ce qu'il vous faut pour enfin donner un sens à tout ce bordel !
Blinko
c'est une app de prise de notes qui utilise l'IA pour vous aider à retrouver ce que vous avez noté, même quand vous avez complètement oublié les mots exacts que vous aviez utilisés. Le principe c'est du RAG (Retrieval-Augmented Generation), c'est-à-dire que l'IA va fouiller dans toutes vos notes et vous ressortir les infos pertinentes quand vous posez une question. Genre « c'était quoi ce truc que j'avais noté sur les serveurs NAS ? » et hop, l'IA vous retrouve tout.
Et le truc cool c'est que ça tourne 100% en local sur votre serveur. Pas de cloud américain de Donald, pas de données qui se baladent chez les affreux OpenAI ou Google... vos notes restent bien au chaud chez vous. Pour ceux qui comme moi sont un peu paranos avec leurs données perso, c'est exactement ce qu'il nous faut les amis !
L'interface est super clean avec deux modes de saisie. Y'a d'abord le mode « Blinko » pour les notes éphémères qui s'archivent automatiquement au bout d'un moment, genre une idée qui vous passe par la tête ou un truc à faire. Et y'a le mode « Note » pour les contenus permanents que vous voulez garder sur le long terme, avec du Markdown, des images, et tout ça. Du coup vous pouvez aussi bien capturer une pensée qui vous traverse que rédiger un article entier.
Côté installation, c'est du Docker avec un script qui fait tout pour vous. Une ligne de commande et c'est parti :
Le script va alors vous configurer tout le bazar avec PostgreSQL derrière (obligatoire pour la base de données). Y'a aussi Docker Compose si vous préférez personnaliser, tout est documenté sur le repo.
Une fois lancé, vous accédez à l'interface sur le port 1111 et vous pouvez commencer à balancer vos notes. Y'a même une démo en ligne sur
demo.blinko.space
(test / test) si vous voulez tester avant de vous lancer.
Le projet est open source sous licence GPL-3.0, c'est codé en TypeScript avec Next.js et comme je vous le disais, PostgreSQL derrière, donc c'est du solide. Et y'a même des apps natives pour macOS, Windows, Android et même Linux via Tauri si vous voulez un truc plus intégré que le web.
Bref, si vous cherchez une solution de prise de notes self-hosted avec de l'IA intégrée pour enfin retrouver ce que vous avez noté il y a 3 ans, Blinko c'est le top du top !
Vous utilisez Word pour bosser et j'imagine que vous avez vu passer le fameux Copilot de Microsoft à 30 balles par mois pour les pros ? Ouais, ça pique un peu le porte-monnaie surtout quand on a déjà nos propres clés API OpenAI ou Gemini qui traînent et sur lesquelles on claque un smic tous les mois.
Hé bien Word GPT Plus c'est justement un add-in open source qui intègre l'IA directement dans Microsoft Word, et qui vous permet d'utiliser vos propres clés API au lieu de payer un énième abonnement. Avec ça, vous pouvez générer du texte, traduire, résumer, reformuler... le tout sans quitter votre document.
Mais le truc vraiment cool, c'est le mode Agent. Là, l'IA a accès à plein d'outils qui lui permettent de manipuler directement votre document Word. Genre insérer du texte, formater des paragraphes, créer des tableaux, gérer les signets, faire des rechercher-remplacer... Vous lui dites « formate tous les titres de section en Heading 2 » et hop, c'est fait. C'est pas juste un chatbot dans une sidebar, c'est carrément un assistant qui peut agir sur votre document.
Côté fournisseurs IA, vous avez le choix entre OpenAI (GPT-4, GPT-3.5, et même les modèles compatibles comme DeepSeek), Azure OpenAI si vous êtes en entreprise, Google Gemini, Groq pour les modèles Llama et Qwen, et même Ollama si vous voulez faire tourner vos LLM en local sans envoyer vos données quelque part. Et ça, c'est top pour ceux qui bossent sur des documents confidentiels.
Y'a aussi des Quick Actions bien pratiques genre traduction en plus de 40 langues, amélioration de texte, réécriture académique, résumé automatique, correction grammaticale... Bref, les classiques mais directement accessibles dans Word.
Pour l'installer, c'est hyper simple. Vous téléchargez le fichier manifest.xml depuis le repo GitHub, vous le mettez dans un dossier partagé sur votre machine, et vous l'ajoutez dans Word via Insertion > Mes compléments > Dossier partagé. Pas besoin de coder quoi que ce soit. Y'a aussi une option Docker pour ceux qui veulent l'héberger eux-mêmes ou le déployer sur un serveur.
Niveau vie privée, vos clés API et vos prompts perso sont stockés localement dans le navigateur intégré à l'add-in Word. Y'a pas de serveur intermédiaire qui récupère vos données, sauf si vous configurez vous-même un proxy. Vos documents restent ainsi bien au chaud chez vous.
Par contre, faut Word 2016 minimum, Word 2019, 2021 ou Microsoft 365 sur Windows. Et ça marche uniquement avec les fichiers .docx.
Bref, si vous voulez avoir ChatGPT ou Gemini directement dans Word sans vous ruiner avec un abonnement Copilot, c'est exactement ce qu'il vous faut. Et comme c'est open source sous licence MIT, vous pouvez auditer le code si vous êtes du genre méfiant.
The International Year of Quantum Science and Technology has celebrated all the great developments in the sector – but what challenges and opportunities lie in store? That was the question deliberated by four future leaders in the field at the Royal Institution in central London in November. The discussion took place during the two-day conference “Quantum science and technology: the first 100 years; our quantum future”, which was part of a week-long series of quantum-related events in the UK organized by the Institute of Physics.
As well as outlining the technical challenges in their fields, the speakers all stressed the importance of developing a “skills pipeline” so that the quantum sector has enough talented people to meet its needs. Also vital will be the need to communicate the mysteries and potential of quantum technology – not just to the public but to industrialists, government officials and venture capitalists.
Two of the speakers – Nicole Gillett (Riverlane) and Muhammad Hamza Waseem (Quantinuum) – are from the quantum tech industry, with Mehul Malik (Heriot-Watt University) and Sarah Alam Malik (University College London) based in academia. The following is an edited version of the discussion.
Quantum’s future leaders
Deep thinkers The challenges and opportunities for quantum science and technology were discussed during a conference organized by the Institute of Physics at the Royal Institution on 5 November 2025 by (left to right, seated) Muhammad Hamza Waseem; Sarah Alam Malik; Mehul Malik; and Nicole Gillett. The discussion was chaired by Physics World editor-in-chief Matin Durrani (standing, far right). (Courtesy: Tushna Commissariat)
Nicole Gillett is a senior software engineer at Riverlane, in Cambridge, UK. The company is a leader in quantum error correction, which is a critical part of a fully functioning, fault-tolerant quantum computer. Errors arise because quantum bits, or qubits, are so fragile and correcting them is far trickier than with classical devices. Riverlane is therefore trying to find ways to correct for errors without disturbing a device’s quantum states. Gillett is part of a team trying to understand how best to implement error-correcting algorithms on real quantum-computing chips.
Mehul Malik, who studied physics at a liberal arts college in New York, was attracted to quantum physics because of what he calls a “weird middle ground between artistic creative thought and the rigour of physics”. After doing a PhD at the University of Rochester, he spent five years as a postdoc with Anton Zeilinger at the University of Vienna in Austria before moving to Heriot-Watt University in the UK. As head of its Beyond Binary Quantum Information research group, Malik works on quantum information processing and communication and fundamental studies of entanglement.
Sarah AlamMalik is a particle physicist at University College London, using particle colliders to detect and study potential candidates for dark matter. She is also trying to use quantum computers to speed up the discovery of new physics given that what she calls “our most cherished and compelling theories” for physics beyond the Standard Model, such as supersymmetry, have not yet been seen. In particular, Malik is trying to find new physics in a way that’s “model agnostic” – in other words, using quantum computers to search particle-collision data for anomalous events that have not been seen before.
Muhammad Hamza Waseem studied electrical engineering in Pakistan, but got hooked on quantum physics after getting involved in recreating experiments to test Bell’s inequalities in what he claims was the first quantum optics lab in the country. Waseem then moved to the the University of Oxford in the UK, to do a PhD studying spin waves to make classical and quantum logic circuits. Unable to work when his lab shut during the COVID-19 pandemic, Waseem approached Quantinuum to see if he could help them in their quest to build quantum computers using ion traps. Now based at the company, he studies how quantum computers can do natural-language processing. “Think ChatGPT, but powered with quantum computers,” he says.
What will be the biggest or most important application of quantum technology in your field over the next 10 years?
Nicole Gillett: If you look at roadmaps of quantum-computing companies, you’ll find that IBM, for example, intends to build the world’s first utility scale and fault-tolerant quantum computer by the end of the decade. Beyond 2033, they’re committing to have a system that could support 2000 “logical qubits”, which are essentially error-corrected qubits, in which the data of one qubit has been encoded into many qubits.
What can be achieved with that number of qubits is a difficult question to answer but some theorists, such as Juan Maldacena, have proposed some very exotic ideas, such as using a system of 7000 qubits to simulate black-hole dynamics. Now that might not be a particularly useful industry application, but it tells you about the potential power of a machine like this.
Mehul Malik: In my field, quantum networks that can distribute individual quantum particles or entangled states over large and short distances will have a significant impact within the next 10 years. Quantum networks will connect smaller, powerful quantum processors to make a larger quantum device, whether for computing or communication. The technology is quite mature – in fact, we’ve already got a quantum network connecting banks in London.
I will also add something slightly controversial. We often try to distinguish between quantum and non-quantum technologies, but what we’re heading towards is combining classical state-of-the-art devices with technology based on inherently quantum effects – what you might call “quantum adjacent technology”. Single-photon detectors, for example, are going to revolutionize healthcare, medical imaging and even long-distance communication.
Sarah Alam Malik: For me, the biggest impact of quantum technology will be applying quantum computing algorithms in physics. Can we quantum simulate the dynamics of, say, proton–proton collisions in a more efficient and accurate manner? Can we combine quantum computing with machine learning to sift through data and identify anomalous collisions that are beyond those expected from the Standard Model?
Quantum technology is letting us ask very fundamental questions about nature.
Sarah Alam Malik, University College London
Quantum technology, in other words, is letting us ask very fundamental questions about nature. Emerging in theoretical physics, for example, is the idea that the fundamental layer of reality may not be particles and fields, but units of quantum information. We’re looking at the world through this new quantum-theoretic lens and asking questions like, whether it’s possible to measure entanglement in top quarks and even explore Bell-type inequalities at particle colliders.
One interesting quantity is “magic”, which is a measure of how far you are from having something that can be classically simulable (Phys. Rev. D110 116016). The more magic there is in a system the less easy it is to simulate classically – and thereforethe greater the computational resource it possesses for quantum computing. We’re asking how much “magic” there is in, for instance, top quarks produced at the Large Hadron Collider. So one of the most important developments for me may well be asking questions in a very different way to before.
Muhammad Hamza Waseem: Technologically speaking, the biggest impact will be simulating quantum systems using a quantum computer. In fact, researchers from Google already claim to have simulated a wormhole in a quantum computer, albeit a very simple version that could have been tackled with a classical device (Nature612 55).
But the most significant impact has to do with education. I believe quantum theory teaches us that reality is not about particles and individuals – but relations. I’m not saying that particles don’t exist but they emerge from the relations. In fact, with colleagues at the University of Oxford, we’ve used this idea to develop a new way of teaching quantum theory, called Quantum in Pictures.
We’ve already tried our diagrammatic approach with a group of 16–18-year-olds, teaching them the entire quantum-information course that’s normally given to postgraduates at Oxford. At the end of our two-month course, which had one lecture and tutorial per week, students took an exam with questions from past Oxford papers. An amazing 80% of students passed and half got distinctions.
For quantum theory to have a big impact, we have to make quantum physics more accessible to everyone.
Muhammad Hamza Waseem, Quantinuum
I’ve also tried the same approach on pupils in Pakistan: the youngest, who was just 13, can now explain quantum teleportation and quantum entanglement. My point is that for quantum theory to have a big impact, we have to make quantum physics more accessible to everyone.
What will be the biggest challenges and difficulties over the next 10 years for people in quantum science and technology?
Nicole Gillett: The challenge will be building up a big enough quantum workforce. Sometimes people hear the words “quantum computer” and get scared, worrying they’re going to have to solve Hamiltonians all the time. But is it possible to teach students at high-school level about these concepts? Can we get the ideas across in a way that is easy to understand so people are interested and excited about quantum computing?
At Riverlane, we’ve run week-long summer workshops for the last two years, where we try to teach undergraduate students enough about quantum error correction so they can do “decoding”. That’s when you take the results of error correction and try to figure out what errors occurred on your qubits. By combining lectures and hands-on tutorials we found we could teach students about error corrections – and get them really excited too.
Our biggest challenge will be not having a workforce ready for quantum computing.
Nicole Gillett, Riverlane
We had students from physics, philosophy, maths and computer science take the course – the only pre-requisite, apart from being curious about quantum computers, is some kind of coding ability. My point is that these kinds of boot camps are going to be so important to inspire future generations. We need to make the information accessible to people because otherwise our biggest challenge will be not having a workforce ready for quantum computing.
Mehul Malik: One of the big challenges is international cooperation and collaboration. Imagine if, in the early days of the Internet, the US military had decided they’d keep it to themselves for national-security reasons or if CERN hadn’t made the World Wide Web open source. We face the same challenge today because we live in a world that’s becoming polarized and protectionist – and we don’t want that to hamper international collaboration.
Over the last few decades, quantum science has developed in a very international way and we have come so far because of that. I have lived in four different continents, but when I try to recruit internationally, I face significant hurdles from the UK government, from visa fees and so on. To really progress in quantum tech, we need to collaborate and develop science in a way that’s best for humanity not just for each nation.
Sarah Alam Malik: One of the most important challenges will be managing the hype that inevitably surrounds the field right now. We’ve already seen this with artificial intelligence (AI), which has gone though the whole hype cycle. Lots of people were initially interested, then the funding dried up when reality didn’t match expectations. But now AI has come back with such resounding force that we’re almost unprepared for all the implications of it.
Quantum can learn from the AI hype cycle, finding ways to manage expectations of what could be a very transformative technology. In the near- and mid-term, we need to not overplay things and be cautious of this potentially transformative technology – yet be braced for the impact it could potentially have. It’s a case of balancing hype with reality.
Muhammad Hamza Waseem: Another important challenge is how to distribute funding between research on applications and research on foundations. A lot of the good technology we use today emerged from foundational ideas in ways that were not foreseen by the people originally working on them. So we must ensure that foundational research gets the funding it deserves or we’ll hit a dead end at some point.
Will quantum tech alter how we do research, just as AI could do?
Mehul Malik: AI is already changing how I do research, speeding up the way I discover knowledge. Using Google Gemini, for example, I now ask my browser questions instead of searching for specific things. But you still have to verify all the information you gather, for example, by checking the links it cites. I recently asked AI a complex physics question to which I knew the answer and the solution it gave was terrible. As for how quantum is changing research, I’m less sure, but better detectors through quantum-enabled research will certainly be good.
Muhammad Hamza Waseem: AI is already being deployed in foundational research, for example, to discover materials for more efficient batteries. A lot of these applications could be integrated with quantum computing in some way to speed work up. In other words, a better understanding of quantum tech will let us develop AI that is safer, more reliable, more interpretable – and if something goes wrong, you know how to fix it. It’s an exciting time to be a researcher, especially in physics.
Sarah Alam Malik: I’ve often wondered if AI, with the breadth of knowledge that it has across all different fields, already has answers to questions that we couldn’t answer – or haven’t been able to answer – just because of the boundaries between disciplines. I’m a physicist and so can’t easily solve problems in biology. But could AI help us to do breakthrough research at the interface between disciplines?
What lessons can we learn from the boom in AI when it comes to the long-term future of quantum tech?
Nicole Gillett: As a software engineer, I once worked at an Internet security company called CloudFlare, which taught me that it’s never too early to be thinking about how any new technology – both AI and quantum – might be abused. What’s also really interesting is whether AI and machine learning can be used to build quantum computers by developing the coding algorithms they need. Companies like Google are active in this area and so are Riverlane too.
Mehul Malik: I recently discussed this question with a friend who works in AI, who said that the huge AI boom in industry, with all the money flowing in to it, has effectively killed academic research in the field. A lot of AI research is now industry-led and goal-orientated – and there’s a risk that the economic advantages of AI will kill curiosity-driven research. The remedy, according to my friend, is to pay academics in AI more as they are currently being offered much larger salaries to work in the private sector.
We need to diversify so that the power to control or chart the course of quantum technologies is not in the hands of a few privileged monopolies.
Mehul Malik, Heriot-Watt University
Another issue is that a lot of power is in the hands a just a few companies, such as Nvidia and ASML. The lesson for the quantum sector is that we need to diversify early on so that the power to control or chart the course of quantum technologies is not in the hands of a few privileged monopolies.
Sarah Alam Malik: Quantum technology has a lot to learn from AI, which has shown that we need to break down the barriers between disciplines. After all, some of the most interesting and impactful research in AI has happened because companies can hire whoever they need to work on a particular problem, whether it’s a computer scientist, a biologist, a chemist, a physicist or a mathematician.
Nature doesn’t differentiate between biology and physics. In academia we not only need people who are hyper specialized but also a crop of generalists who are knee-deep in one field but have experience in other areas too.
The lesson from the AI boom is to blur the artificial boundaries between disciplines and make them more porous. In fact, quantum is a fantastic playground for that because it is inherently interdisciplinary. You have to bring together people from different disciplines to deliver this kind of technology.
Muhammad Hamza Waseem: AI research is in a weird situation where there are lots of excellent applications but so little is understood about how AI machines work. We have no good scientific theory of intelligence or of consciousness. We need to make sure that quantum computing research does not become like that and that academic research scientists are well-funded and not distracted by all the hype that industry always creates.
At the start of the previous century, the mathematician David Hilbert said something like “physics is becoming too difficult for the physicists”. I think quantum computing is also somewhat becoming too challenging for the quantum physicists. We need everyone to get involved for the field to reach its true potential.
Towards “green” quantum technology
(Courtesy: iStock/Peach)
Today’s AI systems use vast amounts of energy, but should we also be concerned about the environmental impact of quantum computers? Google, for example, has already carried out quantum error-correction experiments in which data from the company’s quantum computers had to be processed once every microsecond per round of error correction (Nature638 920). “Finding ways to process it to keep up with the rate at which it’s being generated is a very interesting area of research,” says Nicole Gillett.
However, quantum computers could cut our energy consumption by allowing calculations to be performed far more quickly and efficiently than is possible with classical machines. For Mehul Malik, another important step towards “green” quantum technology will be to lower the energy that quantum devices require and to build detectors that work at room temperature and are robust against noise. Quantum computers themselves can also help, he thinks, by discovering energy-efficient technologies, materials and batteries.
A quantum laptop?
(Courtesy: iStock/inkoly)
Will we ever see portable quantum computers or will they always be like today’s cloud-computing devices in distant data centres? Muhammad Hamza Waseem certainly does not envisage a word processor that uses a quantum computer. But he points to companies like SPINQ, which has built a two quantum bit computer for educational purposes. “In a sense, we already have a portable quantum computer,” he says. For Mehul Malik, though, it’s all about the market. “If there’s a need for it,” he joked, “then somebody will make it.”
If I were science minister…
(Courtesy: Shutterstock/jenny on the moon)
When asked by Peter Knight – one of the driving forces behind the UK’s quantum-technology programme – what the panel would do if they were science minister, Nicole Gillett said she would seek to make the UK the leader in quantum computing by investing heavily in education. Mehul Malik would cut the costs of scientists moving across borders, pointing out that many big firms have been founded by immigrants. Sarah Alam Malik called for long-term funding – and not to give up if short-term gains don’t transpire. Muhammad Hamza Waseem, meanwhile, said we should invest more in education, research and the international mobility of scientists.
A total of 14 physics-based firms in sectors from quantum and energy to healthcare and aerospace have won 2025 Business Awards from the Institute of Physics (IOP), which publishes Physics World. The awards were presented at a reception in the Palace of Westminster yesterday attended by senior parliamentarians and policymakers as well as investors, funders and industry leaders.
The IOP Business Awards, which have been running since 2012, recognise the role that physics and physicists play in the economy, creating jobs and growth “by powering innovation to meet the challenges facing us today, ranging from climate change to better healthcare and food production”. More than 100 firms have now won Business Awards, with around 90% of those companies still commercially active.
The parliamentary event honouring the 2025 winners were hosted by Dave Robertson, the Labour MP for Lichfield, who spent 10 years as a physics teacher in Birmingham before working for teaching unions. There was also a speech from Baron Sharma, who studied applied physics before moving into finance and later becoming a Conservative MP, Cabinet minister and president of the COP-26 climate summit.
Seven firms were awarded 2025 IOP Business Innovation Awards, which recognize companies that have “delivered significant economic and/or societal impact through the application of physics”. They include Oxford-based Tokamak Energy, which has developed “compact, powerful, robust, quench-resilient” high-temperature superconducting magnets for commercial fusion energy and for propulsion systems, accelerators and scientific instruments.
(courtesy: Carmen Valino)
Oxford Instruments was honoured for developing a novel analytical technique for scanning electron microscopes, enabling new capabilities and accelerating time to results by at least an order of magnitude. Ionoptika, meanwhile, was recognized for developing Q-One, which is a new generation of focused ion-beam instrumentation, providing single atom through to high-dose nanoscale advanced materials engineering for photonic and quantum technologies.
The other four winners were: electronics firm FlexEnable for their organic transistor materials; Lynkeos Technology for the development of muonography in the nuclear industry; the renewable energy company Sunamp for their thermal storage system; and the defence and security giant Thales UK for the development of a solid-state laser for laser rangefinders.
Business potential
Six other companies have won an IOP Start-up Award, which celebrates young companies “with a great business idea founded on a physics invention, with the potential for business growth and significant societal impact”. They include Astron Systems for developing “long-lifetime turbomachinery to enable multi-reuse small rocket engines and bring about fully reusable small launch vehicles”, along with MirZyme Therapeutics for “pioneering diagnostics and therapeutics to eliminate preeclampsia and transform maternal health”.
The other four winners were: Celtic Terahertz Technology for a metamaterial filter technology; Nellie Technologies for a algae-based carbon removal technology; Quantum Science for their development of short-wave infrared quantum dot technology; and Wayland Additive for the development and commercialisation of charge-neutralised electron beam metal additive manufacturing.
James McKenzie, a former vice-president for business at the IOP, who was involved in judging the awards, says that all awardees are “worthy winners”. “It’s the passion, skill and enthusiasm that always impresses me,” McKenzie told Physics World.
iFAST Diagnostics were also awarded the IOP Lee Lucas Award that recognises early-stage companies taking innovative products into the medical and healthcare sector. The firm, which was spun out of the University of Southampton, develops blood tests that can test the treatment of bacterial infections in a matter of hours rather than days. They are expecting to have approval for testing next year.
“Especially inspiring was the team behind iFAST,” adds McKenzie, “who developed a method to test very rapid tests cutting time from 48 hours to three hours, so patients can be given the right antibiotics.”
“The award-winning businesses are all outstanding examples of what can be achieved when we build upon the strengths we have, and drive innovation off the back of our world-leading discovery science,” noted Tom Grinyer, IOP chief executive officer. “In the coming years, physics will continue to shape our lives, and we have some great strengths to build upon here in the UK, not only in specific sectors such as quantum, semiconductors and the green economy, but in our strong academic research and innovation base, our growing pipeline of spin-out and early-stage companies, our international collaborations and our growing venture capital community.”
Whether you’re running a business project, carrying out scientific research, or doing a spot of DIY around the house, knowing when something is “good enough” can be a tough question to answer. To me, “good enough” means something that is fit for purpose. It’s about striking a balance between the effort required to achieve perfection and the cost of not moving forward. It’s an essential mindset when perfection is either not needed or – as is often the case – not attainable.
When striving for good enough, the important thing to focus on is that your outcome should meet expectations, but not massively exceed them. Sounds simple, but how often have we heard people say things like they’re “polishing coal”, striving for “gold plated” or “trying to make a silk purse out of a sow’s ear”. It basically means they haven’t understood, defined or even accepted the requirements of the end goal.
Trouble is, as we go through school, college and university, we’re brought up to believe that we should strive for the best in whatever we study. Those with the highest grades, we’re told, will probably get the best opportunities and career openings. Unfortunately, this approach means we think we need to aim for perfection in everything in life, which is not always a good thing.
How to be good enough
So why is aiming for “good enough” a good thing to do? First, there’s the notion of “diminishing returns”. It takes a disproportionate amount of effort to achieve the final, small improvements that most people won’t even notice. Put simply, time can be wasted on unnecessary refinements, as embodied by the 80/20 rule (see box).
The 80/20 rule: the guiding principle of “good enough”
Also known as the Pareto principle – in honour of the Italian economist Vilfredo Pareto who first came up with the idea – the 80/20 rule states that for many outcomes, 80% of consequences or results come from 20% of the causes or effort. The principle helps to identify where to prioritize activities to boost productivity and get better results. It is a guideline, and the ratios can vary, but it can be applied to many things in both our professional and personal lives.
Examples from the world of business include the following:
Business sales: 80% of a company’s revenue might come from 20% of its customers.
Company productivity: 80% of your results may come from 20% of your daily tasks.
Software development: 80% of bugs could be caused by 20% of the code.
Quality control: 20% of defects may cause 80% of customer complaints.
Good enough also helps us to focus efforts. When a consumer or customer doesn’t know exactly what they want, or a product development route is uncertain, it can be better to deliver things in small chunks. Providing something basic but usable can be used to solicit feedback to help clarify requirements or make improvements or additions that can be incorporated into the next chunk. This is broadly along the lines of a “minimum viable product”.
Not seeking perfection reminds us too that solutions to problems are often uncertain. If it’s not clear how, or even if, something might work, a proof of concept (PoC) can instead be a good way to try something out. Progress can be made by solving a specific technical challenge, whether via a basic experiment, demonstration or short piece of research. A PoC should help avoid committing significant time and resource to something that will never work.
Aiming for “good enough” naturally leads us to the notion of “continuous improvement”. It’s a personal favourite of mine because it allows for things to be improved incrementally as we learn or get feedback, rather than producing something in one go and then forgetting about it. It helps keep things current and relevant and encourages a culture of constantly looking for a better way to do things.
Finally, when searching for good enough, don’t forget the idea of ballpark estimates. Making approximations sounds too simple to be effective, but sometimes a rough estimate is really all you need. If an approximate guess can inform and guide your next steps or determine whether further action will be necessary then go for it.
The benefits of good enough
Being good enough doesn’t just lead to practical outcomes, it can benefit our personal well-being too. Our time, after all, is a precious commodity and we can’t magically increase this resource. The pursuit of perfection can lead to stagnation, and ultimately burnout, whereas achieving good enough allows us to move on in a timely fashion.
A good-enough approach will even make you less stressed. By getting things done sooner and achieving more, you’ll feel freer and happier about your work even if it means accepting imperfection. Mistakes and errors are inevitable in life, so don’t be afraid to make them; use them as learning opportunities, rather than seeing them as something bad. Remember – the person who never made a mistake never got out of bed.
Recognizing that you’ve done the best you can for now is also crucial for starting new projects and making progress. By accepting good enough you can build momentum, get more things done, and consistently take actions toward achieving your goals.
Finally, good enough is also about shared ownership. By inviting someone else to look at what you’ve done, you can significantly speed up the process. In my own career I’ve often found myself agonising over some obscure detail or feeling something is missing, only to have my quandary solved almost instantly simply by getting someone else involved – making me wish I’d asked them sooner.
Caveats and conclusions
Good enough comes with some caveats. Regulatory or legislative requirements means there will always be projects that have to reach a minimum standard, which will be your top priority. The precise nature of good enough will also depend on whether you’re making stuff (be it cars or computers) or dealing with intangible commodities such as software or services.
So what’s the conclusion? Well, in the interests of my own time, I’ve decided to apply the 80/20 rule and leave it to you to draw your own conclusion. As far as I’m concerned, I think this article has been good enough, but I’m sure you’ll let me know if it hasn’t. Consider it as a minimally viable product that I can update in a future column.
As we enter the final stretch of the International Year of Quantum Science and Technology (IYQ), I hope you’ve enjoyed our extensive quantum coverage over the last 12 months. We’ve tackled the history of the subject, explored some of the unexplained mysteries that still make quantum physics so exciting, and examined many of the commercial applications of quantum technology. You can find most of our coverage collected into two free-to-read digital Quantum Briefings, available here and here on the Physics World website.
Over the last 100 years since Werner Heisenberg first developed quantum mechanics on the island of Helgoland in June 1925, quantum mechanics has proved to be an incredibly powerful, successful and logically consistent theory. Our understanding of the subatomic world is no longer the “lamentable hodgepodge of hypotheses, principles, theorems and computational recipes”, as the Israeli physicist and philosopher Max Jammer memorably once described it.
In fact, quantum mechanics has not just transformed our understanding of the natural world; it has immense practical ramifications too, with so-called “quantum 1.0” technologies – lasers, semiconductors and electronics – underpinning our modern world. But as was clear from the UK National Quantum Technologies Showcase in London last week, organized by Innovate UK, the “quantum 2.0” revolution is now in full swing.
The day-long event, which is now in its 10th year, featured over 100 exhibitors, including many companies that are already using fundamental quantum concepts such as entanglement and superposition to support the burgeoning fields of quantum computing, quantum sensing and quantum communication. The show was attended by more than 3000 delegates, some of whom almost had to be ushered out of the door at closing time, so keen were they to keep talking.
The first day, focusing on the foundations of quantum mechanics, ended with a panel discussion – chaired by my colleague Tushna Commissariat and Daisy Shearer from the UK’s National Quantum Computing Centre – with physicists Fay Dowker (Imperial College), Jim Al-Khalili (University of Surrey) and Peter Knight. They talked about whether the quantum wavefunction provides a complete description of physical reality, prompting much discussion with the audience. As Al-Khalili wryly noted, if entanglement has emerged as the fundamental feature of quantum reality, then “decoherence is her annoying and ever-present little brother”.
Knight, meanwhile, who is a powerful figure in quantum-policy circles, went as far as to say that the limit of decoherence – and indeed the boundary between the classical and quantum worlds – is not a fixed and yet-to-be revealed point. Instead, he mused, it will be determined by how much money and ingenuity and time physicists have at their disposal.
On the second day of the IOP conference at the RI, I chaired a discussion that brought together four future leaders of the subject: Mehul Malik (Heriot-Watt University) and Sarah Malik (University College London) along with industry insiders Nicole Gillett (Riverlane) and Muhammad Hamza Waseem (Quantinuum).
As well as outlining the technical challenges in their fields, the speakers all stressed the importance of developing a “skills pipeline” so that the quantum sector has enough talented people to meet its needs. Also vital will be the need to communicate the mysteries and potential of quantum technology – not just to the public but to industrialists, government officials and venture capitalists. By many measures, the UK is at the forefront of quantum tech – and it is a lead it should not let slip.
Clear talker Jim Al-Khalili giving his Friday night discourse at the Royal Institution on 7 November 2025. (Courtesy: Matin Durrani)
The week ended with Al-Khalili giving a public lecture, also at the Royal Institution, entitled “A new quantum world: ‘spooky’ physics to tech revolution”. It formed part of the RI’s famous Friday night “discourses”, which this year celebrate their 200th anniversary. Al-Khalili, who also presents A Life Scientific on BBC Radio 4, is now the only person ever to have given three RI discourses.
After the lecture, which was sold out, he took part in a panel discussion with Knight and Elizabeth Cunningham, a former vice-president for membership at the IOP. Al-Khalili was later presented with a special bottle of “Glentanglement” whisky made by Glasgow-based Fraunhofer UK for the Scottish Quantum Technology cluster.
“Global collaborations for European economic resilience” is the theme of SEMICON Europa 2025. The event is coming to Munich, Germany on 18–21 November and it will attract 25,000 semiconductor professionals who will enjoy presentations from over 200 speakers.
The TechARENA portion of the event will cover a wide range of technology-related issues including new materials, future computing paradigms and the development of hi-tech skills in the European workface. There will also be an Executive Forum, which will feature leaders in industry and government and will cover topics including silicon geopolitics and the use of artificial intelligence in semiconductor manufacturing.
SEMICON Europa will be held at the Messe München, where it will feature a huge exhibition with over 500 exhibitors from around the world. The exhibition is spread out over three halls and here are some of the companies and product innovations to look out for on the show floor.
Accelerating the future of electro-photonic integration with SmarAct
As the boundaries between electronic and photonic technologies continue to blur, the semiconductor industry faces a growing challenge: how to test and align increasingly complex electro-photonic chip architectures efficiently, precisely, and at scale. At SEMICON Europa 2025, SmarAct will address this challenge head-on with its latest innovation – Fast Scan Align. This is a high-speed and high-precision alignment solution that redefines the limits of testing and packaging for integrated photonics.
Fast Scan Align SmarAct’s high-speed and high-precision alignment solution redefines the limits of testing and packaging for integrated photonics. (Courtesy: SmarAct)
In the emerging era of heterogeneous integration, electronic and photonic components must be aligned and interconnected with sub-micrometre accuracy. Traditional positioning systems often struggle to deliver both speed and precision, especially when dealing with the delicate coupling between optical and electrical domains. SmarAct’s Fast Scan Align solution bridges this gap by combining modular motion platforms, real-time feedback control, and advanced metrology into one integrated system.
At its core, Fast Scan Align leverages SmarAct’s electromagnetic and piezo-driven positioning stages, which are capable of nanometre-resolution motion in multiple degrees of freedom. Fast Scan Align’s modular architecture allows users to configure systems tailored to their application – from wafer-level testing to fibre-to-chip alignment with active optical coupling. Integrated sensors and intelligent algorithms enable scanning and alignment routines that drastically reduce setup time while improving repeatability and process stability.
Fast Scan Align’s compact modules allow various measurement techniques to be integrated with unprecedented possibilities. This has become decisive for the increasing level of integration of complex electro-photonic chips.
Apart from the topics of wafer-level testing and packaging, wafer positioning with extreme precision is as crucial as never before for the highly integrated chips of the future. SmarAct’s PICOSCALE interferometer addresses the challenge of extreme position by delivering picometer-level displacement measurements directly at the point of interest.
When combined with SmarAct’s precision wafer stages, the PICOSCALE interferometer ensures highly accurate motion tracking and closed-loop control during dynamic alignment processes. This synergy between motion and metrology gives users unprecedented insight into the mechanical and optical behaviour of their devices – which is a critical advantage for high-yield testing of photonic and optoelectronic wafers.
Visitors to SEMICON Europa will also experience how all of SmarAct’s products – from motion and metrology components to modular systems and up to turn-key solutions – integrate seamlessly, offering intuitive operation, full automation capability, and compatibility with laboratory and production environments alike.
Optimized pressure monitoring: Efficient workflows with Thyracont’s VD800 digital compact vacuum meters
Thyracont Vacuum Instruments will be showcasing its precision vacuum metrology systems in exhibition hall C1. Made in Germany, the company’s broad portfolio combines diverse measurement technologies – including piezo, Pirani, capacitive, cold cathode, and hot cathode – to deliver reliable results across a pressure range from 2000 to 3e-11 mbar.
VD800 Thryracont’s series combines high accuracy with a highly intuitive user interface, defining the next generation of compact vacuum meters. (Courtesy: Thyracont)
Front-and-centre at SEMICON Europa will be Thyracont’s new series of VD800 compact vacuum meters. These instruments provide precise, on-site pressure monitoring in industrial and research environments. Featuring a direct pressure display and real-time pressure graphs, the VD800 series is ideal for service and maintenance tasks, laboratory applications, and test setups.
The VD800 series combines high accuracy with a highly intuitive user interface. This delivers real-time measurement values; pressure diagrams; and minimum and maximum pressure – all at a glance. The VD800’s 4+1 membrane keypad ensures quick access to all functions. USB-C and optional Bluetooth LE connectivity deliver seamless data readout and export. The VD800’s large internal data logger can store over 10 million measured values with their RTC data, with each measurement series saved as a separate file.
Data sampling rates can be set from 20 ms to 60 s to achieve dynamic pressure tracking or long-term measurements. Leak rates can be measured directly by monitoring the rise in pressure in the vacuum system. Intelligent energy management gives the meters extended battery life and longer operation times. Battery charging is done conveniently via USB-C.
The vacuum meters are available in several different sensor configurations, making them adaptable to a wide range of different uses. Model VD810 integrates a piezo ceramic sensor for making gas-type-independent measurements for rough vacuum applications. This sensor is insensitive to contamination, making it suitable for rough industrial environments. The VD810 measures absolute pressure from 2000 to 1 mbar and relative pressure from −1060 to +1200 mbar.
Model VD850 integrates a piezo/Pirani combination sensor, which delivers high resolution and accuracy in the rough and fine vacuum ranges. Optimized temperature compensation ensures stable measurements in the absolute pressure range from 1200 to 5e-5 mbar and in the relative pressure range from −1060 to +340 mbar.
The model VD800 is a standalone meter designed for use with Thyracont’s USB-C vacuum transducers, which are available in two models. The VSRUSB USB-C transducer is a piezo/Pirani combination sensor that measures absolute pressure in the 2000 to 5.0e-5 mbar range. The other is the VSCUSB USB-C transducer, which measures absolute pressures from 2000 down to 1 mbar and has a relative pressure range from -1060 to +1200 mbar. A USB-C cable connects the transducer to the VD800 for quick and easy data retrieval. The USB-C transducers are ideal for hard-to-reach areas of vacuum systems. The transducers can be activated while a process is running, enabling continuous monitoring and improved service diagnostics.
With its blend of precision, flexibility, and ease of use, the Thyracont VD800 series defines the next generation of compact vacuum meters. The devices’ intuitive interface, extensive data capabilities, and modern connectivity make them an indispensable tool for laboratories, service engineers, and industrial operators alike.
To experience the future of vacuum metrology in Munich, visit Thyracont at SEMICON Europa hall C1, booth 752. There you will discover how the VD800 series can optimize your pressure monitoring workflows.
Marking 100 years since the advent of quantum mechanics, IYQ aims to raise awareness of the impact of quantum physics and its myriad future applications, with a global diary of quantum-themed public talks, scientific conferences, industry events and more.
You can find out more about the contributions of Indian physicist Satyendra Nath Bose to quantum science; explore weird phenomena such as causal order and quantum superposition; and discover the latest applications of quantum computing.
A century after quantum mechanics was first formulated, many physicists are still undecided on some of the most basic foundational questions. There’s no agreement on which interpretation of quantum mechanics holds strong; whether the wavefunction is merely a mathematical tool or a true representation of reality; or what impact an observer has on a quantum state.
Some of the biggest unanswered questions in physics – such as finding the quantum/classical boundary or reconciling gravity and quantum mechanics – lie at the heart of these conundrums. So as we look to the future of quantum – from its fundamentals to its technological applications – let us hope that some answers to these puzzles will become apparent as we crack the quantum code to our universe.
Unless you’ve been living under a stone, you can’t have failed to notice that 2025 marks the first 100 years of quantum mechanics. A massive milestone, to say the least, about which much has been written in Physics World and elsewhere in what is the International Year of Quantum Science and Technology (IYQ). However, I’d like to focus on a specific piece of quantum technology, namely quantum computing.
I keep hearing about quantum computers, so people must be using them to do cool things, and surely they will soon be as commonplace as classical computers. But as a physicist-turned-engineer working in the aerospace sector, I struggle to get a clear picture of where things are really at. If I ask friends and colleagues when they expect to see quantum computers routinely used in everyday life, I get answers ranging from “in the next two years” to “maybe in my lifetime” or even “never”.
Before we go any further, it’s worth reminding ourselves that quantum computing relies on several key quantum properties, including superposition, which gives rise to the quantum bit, or qubit. The basic building block of a quantum computer – the qubit – exists as a combination of 0 and 1 states at the same time and is represented by a probabilistic wave function. Classical computers, in contrast, use binary digital bits that are either 0 or 1.
Also vital for quantum computers is the notion of entanglement, which is when two or more qubits are co-ordinated, allowing them to share their quantum information. In a highly correlated system, a quantum computer can explore many paths simultaneously. This “massive scale” parallel processing is how quantum may solve certain problems exponentially faster than a classical computer.
The other key phenomenon for quantum computers is quantum interference. The wave-like nature of qubits means that when different probability amplitudes are in phase, they combine constructively to increase the likelihood of the right solution. Conversely, destructive interference occurs when amplitudes are out of phase, making it less likely to get the wrong answer.
Quantum interference is important in quantum computing because it allows quantum algorithms to amplify the probability of correct answers and suppress incorrect ones, making calculations much faster. Along with superposition and entanglement, it means that quantum computers could process and store vast numbers of probabilities at once, outstripping even the best classical supercomputers.
Towards real devices
To me, it all sounds exciting, but what have quantum computers ever done for us so far? It’s clear that quantum computers are not ready to be deployed in the real world. Significant technological challenges need to be overcome before they become fully realisable. In any case, no-one is expecting quantum computers to displace classical computers “like for like”: they’ll both be used for different things.
Yet it seems that the very essence of quantum computing is also its Achilles heel. Superposition, entanglement and interference – the quantum properties that will make it so powerful – are also incredibly difficult to create and maintain. Qubits are also extremely sensitive to their surroundings. They easily lose their quantum state due to interactions with the environment, whether via stray particles, electromagnetic fields, or thermal fluctuations. Known as decoherence, it makes quantum computers prone to error.
That’s why quantum computers need specialized – and often cryogenically controlled – environments to maintain the quantum states necessary for accurate computation. Building a quantum system with lots of interconnected qubits is therefore a major, expensive engineering challenge, with complex hardware and extreme operating conditions. Developing “fault-tolerant” quantum hardware and robust error-correction techniques will be essential if we want reliable quantum computation.
As for the development of software and algorithms for quantum systems, there’s a long way to go, with a lack of mature tools and frameworks. Quantum algorithms require fundamentally different programming paradigms to those used for classical computers. Put simply, that’s why building reliable, real-world deployable quantum computers remains a grand challenge.
What does the future hold?
Despite the huge amount of work that still lies in store, quantum computers have already demonstrated some amazing potential. The US firm D-Wave, for example, claimed earlier this year to have carried out simulations of quantum magnetic phase transitions that wouldn’t be possible with the most powerful classical devices. If true, this was the first time a quantum computer had achieved “quantum advantage” for a practical physics problem (whether the problem was worth solving is another question).
There is also a lot of research and development going on around the world into solving the qubit stability problem. At some stage, there will likely be a breakthrough design for robust and reliable quantum computer architecture. There is probably a lot of technical advancement happening right now behind closed doors.
The first real-world applications of quantum computers will be akin to the giant classical supercomputers of the past. If you were around in the 1980s, you’ll remember Cray supercomputers: huge, inaccessible beasts owned by large corporations, government agencies and academic institutions to enable vast amounts of calculations to be performed (provided you had the money).
And, if I believe what I read, quantum computers will not replace classical computers, at least not initially, but work alongside them, as each has its own relative strengths. Quantum computers will be suited for specific and highly demanding computational tasks, such as drug discovery, materials science, financial modelling, complex optimization problems and increasingly large artificial intelligence and machine-learning models.
These are all things beyond the limits of classical computer resource. Classical computers will remain relevant for everyday tasks like web browsing, word processing and managing databases, and they will be essential for handling the data preparation, visualization and error correction required by quantum systems.
And there is one final point to mention, which is cyber security. Quantum computing poses a major threat to existing encryption methods, with potential to undermine widely used public-key cryptography. There are concerns that hackers nowadays are storing their stolen data in anticipation of future quantum decryption.
Having looked into the topic, I can now see why the timeline for quantum computing is so fuzzy and why I got so many different answers when I asked people when the technology would be mainstream. Quite simply, I still can’t predict how or when the tech stack will pan out. But as IYQ draws to a close, the future for quantum computers is bright.
When it comes to building a fully functional “fault-tolerant” quantum computer, companies and government labs all over the world are rushing to be the first over the finish line. But a truly useful universal quantum computer capable of running complex algorithms would have to entangle millions of coherent qubits, which are extremely fragile. Because of environmental factors such as temperature, interference from other electronic systems in hardware, and even errors in measurement, today’s devices would fail under an avalanche of errors long before reaching that point.
So the problem of error correction is a key issue for the future of the market. It arises because errors in qubits can’t be corrected simply by keeping multiple copies, as they are in classical computers: quantum rules forbid the copying of qubit states while they are still entangled with others, and are thus unknown. To run quantum circuits with millions of gates, we therefore need new tricks to enable quantum error correction (QEC).
Protected states
The general principle of QEC is to spread the information over many qubits so that an error in any one of them doesn’t matter too much. “The essential idea of quantum error correction is that if we want to protect a quantum system from damage then we should encode it in a very highly entangled state,” says John Preskill, director of the Institute for Quantum Information and Matter at the California Institute of Technology in Pasadena.
There is no unique way of achieving that spreading, however. Different error-correcting codes can depend on the connectivity between qubits – whether, say, they are coupled only to their nearest neighbours or to all the others in the device – which tends to be determined by the physical platform being used. However error correction is done, it must be done fast. “The mechanisms for error correction need to be running at a speed that is commensurate with that of the gate operations,” saysMichael Cuthbert, founding director of the UK’s National Quantum Computing Centre (NQCC). “There’s no point in doing a gate operation in a nanosecond if it then takes 100 microseconds to do the error correction for the next gate operation.”
At the moment, dealing with errors is largely about compensation rather than correction: patching up the problems of errors in retrospect, for example by using algorithms that can throw out some results that are likely to be unreliable (an approach called “post-selection”). It’s also a matter of making better qubits that are less error-prone in the first place.
Qubits are so fragile that their quantum state is very susceptible to the local environment, and can easily be lost through the process of decoherence. Current quantum computers therefore have very high error rates – roughly one error in every few hundred operations. For quantum computers to be truly useful, this error rate will have to be reduced to the scale of one in a million; especially as larger more complex algorithms would require one in a billion or even trillion error rates. This requires real-time quantum error correction (QEC).
To protect the information stored in qubits, a multitude of unreliable physical qubits have to be combined in such a way that if one qubit fails and causes an error, the others can help protect the system. Essentially, by combining many physical qubits (shown above on the left), one can build a few “logical” qubits that are strongly resistant to noise.
According to Maria Maragkou, commercial vice-president of quantum error-correction company Riverlane, the goal of full QEC has ramifications for the design of the machines all the way from hardware to workflow planning. “The shift to support error correction has a profound effect on the way quantum processors themselves are built, the way we control and operate them, through a robust software stack on top of which the applications can be run,” she explains. The “stack” includes everything from programming languages to user interfaces and servers.
With genuinely fault-tolerant qubits, errors can be kept under control and prevented from proliferating during a computation. Such qubits might be made in principle by combining many physical qubits into a single “logical qubit” in which errors can be corrected (see figure 1). In practice, though, this creates a large overhead: huge numbers of physical qubits might be needed to make just a few fault-tolerant logical qubits. The question is then whether errors in all those physical qubits can be checked faster than they accumulate (see figure 2).
The illustration gives an overview of quantum error correction (QEC) in action within a quantum processing unit. UK-based company Riverlane is building its Deltaflow QEC stack that will correct millions of data errors in real time, allowing a quantum computer to go beyond the reach of any classical supercomputer.
Fault-tolerant quantum computing is the ultimate goal, says Jay Gambetta, director of IBM research at the company’s centre in Yorktown Heights, New York. He believes that to perform truly transformative quantum calculations, the system must go beyond demonstrating a few logical qubits – instead, you need arrays of at least a 100 of them, that can perform more than 100 million quantum operations (108 QuOps). “The number of operations is the most important thing,” he says.
It sounds like a tall order, but Gambetta is confident that IBM will achieve these figures by 2029. By building on what has been achieved so far with error correction and mitigation, he feels “more confident than I ever did before that we can achieve a fault-tolerant computer.” Jerry Chow, previous manager of the Experimental Quantum Computing group at IBM, shares that optimism. “We have a real blueprint for how we can build [such a machine] by 2029,” he says (see figure 3).
Others suspect the breakthrough threshold may be a little lower: Steve Brierley, chief executive of Riverlane, believes that the first error-corrected quantum computer, with around 10 000 physical qubits supporting 100 logical qubits and capable of a million QuOps (a megaQuOp), could come as soon as 2027. Following on, gigaQuOp machines (109 QuOps) should be available by 2030–32, and teraQuOps (1012 QuOp) by 2035–37.
Platform independent
Error mitigation and error correction are just two of the challenges for developers of quantum software. Fundamentally, to develop a truly quantum algorithm involves taking full advantage of the key quantum-mechanical properties such as superposition and entanglement. Often, the best way to do that depends on the hardware used to run the algorithm. But ultimately the goal will be to make software that is not platform-dependent and so doesn’t require the user to think about the physics involved.
“At the moment, a lot of the platforms require you to come right down into the quantum physics, which is a necessity to maximize performance,” says Richard Murray of photonic quantum-computing company Orca. Try to generalize an algorithm by abstracting away from the physics and you’ll usually lower the efficiency with which it runs. “But no user wants to talk about quantum physics when they’re trying to do machine learning or something,” Murray adds. He believes that ultimately it will be possible for quantum software developers to hide those details from users – but Brierley thinks this will require fault-tolerant machines.
“In due time everything below the logical circuit will be a black box to the app developers”, adds Maragkou over at Riverlane. “They will not need to know what kind of error correction is used, what type of qubits are used, and so on.” She stresses that creating truly efficient and useful machines depends on developing the requisite skills. “We need to scale up the workforce to develop better qubits, better error-correction codes and decoders, write the software that can elevate those machines and solve meaningful problems in a way that they can be adopted.” Such skills won’t come only from quantum physicists, she adds: “I would dare say it’s mostly not!”
Yet even now, working on quantum software doesn’t demand a deep expertise in quantum theory. “You can be someone working in quantum computing and solving problems without having a traditional physics training and knowing about the energy levels of the hydrogen atom and so on,” says Ashley Montanaro, who co-founded the quantum software company Phasecraft.
On the other hand, insights can flow in the other direction too: working on quantum algorithms can lead to new physics. “Quantum computing and quantum information are really pushing the boundaries of what we think of as quantum mechanics today,” says Montanaro, adding that QEC “has produced amazing physics breakthroughs.”
Early adopters?
Once we have true error correction, Cuthbert at the UK’s NQCC expects to see “a flow of high-value commercial uses” for quantum computers. What might those be?
In this arena of quantum chemistry and materials science, genuine quantum advantage – calculating something that is impossible using classical methods alone – is more or less here already, says Chow. Crucially, however, quantum methods needn’t be used for the entire simulation but can be added to classical ones to give them a boost for particular parts of the problem.
Joint effort In June 2025, IBM in the US and Japan’s national research laboratory RIKEN, unveiled the IBM Quantum System Two, the first to be used outside the US. It involved IBM’s 156-qubit IBM Heron quantum computing system (left) being paired with RIKEN’s supercomputer Fugaku (right) — one of the most powerful classical systems on Earth. The computers are linked through a high-speed network at the fundamental instruction level to form a proving ground for quantum-centric supercomputing. (Courtesy: IBM and RIKEN)
For example, last year researchers at IBM teamed up with scientists at several RIKEN institutes in Japan to calculate the minimum energy state for the iron sulphide cluster (4Fe-4S) at the heart of the bacterial nitrogenase enzyme that fixes nitrogen. This cluster is too big and complex to be accurately simulated using the classical approximations of quantum chemistry. The researchers used a combination of both quantum computing (with IBM’s 72-qubit Heron chip) and RIKEN’s Fugaku high performance computing (HPC). This idea of “improving classical methods by injecting quantum as a subroutine” is likely to be a more general strategy, says Gambetta. “The future of computing is going to be heterogeneous accelerators [of discovery] that include quantum.”
Likewise, Montanaro says that Phasecraft is developing “quantum-enhanced algorithms”, where a quantum computer is used, not to solve the whole problem, but just to help a classical computer in some way. “There are only certain problems where we know quantum computing is going to be useful,” he says. “I think we are going to see quantum computers working in tandem with classical computers in a hybrid approach. I don’t think we’ll ever see workloads that are entirely run using a quantum computer.” Among the first important problems that quantum machines will solve, according to Montanaro, are the simulation of new materials – to develop, for example, clean-energy technologies (see figure 4).
“For a physicist like me,” says Preskill, “what is really exciting about quantum computing is that we have good reason to believe that a quantum computer would be able to efficiently simulate any process that occurs in nature.”
3 Structural insights
(Courtesy: Phasecraft)
A promising application of quantum computers is simulating novel materials. Researchers from the quantum algorithms firm Phasecraft, for example, have already shown how a quantum computer could help simulate complex materials such as the polycrystalline compound LK-99, which was purported by some researchers in 2024 to be a room-temperature superconductor.
Using a classical/quantum hybrid workflow, together with the firm’s proprietary material simulation approach to encode and compile materials on quantum hardware, Phasecraft researchers were able to establish a classical model of the LK99 structure that allowed them to extract an approximate representation of the electrons within the material. The illustration above shows the green and blue electronic structure around red and grey atoms in LK-99.
Montanaro believes another likely near-term goal for useful quantum computing is solving optimization problems – both here and in quantum simulation, “we think genuine value can be delivered already in this NISQ era with hundreds of qubits.” (NISQ, a term coined by Preskill, refers to noisy intermediate-scale quantum computing, with relatively small numbers of rather noisy, error-prone qubits.)
One further potential benefit of quantum computing is that it tends to require less energy than classical high-performance computing, which is notoriously high. If the energy cost could be cut by even a few percent, it would be worth using quantum resources for that reason alone. “Quantum has real potential for an energy advantage,” says Chow. One study in 2020 showed that a particular quantum-mechanical calculation carried out on a HPC used many orders of magnitude more energy than when it was simulated on a quantum circuit. Such comparisons are not easy, however, in the absence of an agreed and well-defined metric for energy consumption.
Building the market
Right now, the quantum computing market is in a curious superposition of states itself – it has ample proof of principle, but today’s devices are still some way from being able to perform a computation relevant to a practical problem that could not be done with classical computers. Yet to get to that point, the field needs plenty of investment.
The fact that quantum computers, especially if used with HPC, are already unique scientific tools should establish their value in the immediate term, says Gambetta. “I think this is going to accelerate, and will keep the funding going.” It is why IBM is focusing on utility-scale systems of around 100 qubits or so and more than a thousand gate operations, he says, rather than simply trying to build ever bigger devices.
Montanaro sees a role for governments to boost the growth of the industry “where it’s not the right fit for the private sector”. One role of government is simply as a customer. For example, Phasecraft is working with the UK national grid to develop a quantum algorithm for optimizing the energy network. “Longer-term support for academic research is absolutely critical,” Montanaro adds. “It would be a mistake to think that everything is done in terms of the underpinning science, and governments should continue to support blue-skies research.”
The road ahead IBM’s current roadmap charts how the company plans on scaling up its devices to achieve a fault-tolerant device by 2029. Alongside hardware development, the firm will also focus on developing new algorithms and software for these devices. (Courtesy: IBM)
It’s not clear, though, whether there will be a big demand for quantum machines that every user will own and run. Before 2010, “there was an expectation that banks and government departments would all want their own machine – the market would look a bit like HPC,” Cuthbert says. But that demand depends in part on what commercial machines end up being like. “If it’s going to need a premises the size of a football field, with a power station next to it, that becomes the kind of infrastructure that you only want to build nationally.” Even for smaller machines, users are likely to try them first on the cloud before committing to installing one in-house.
According to Cuthbert , the real challenge in the supply-chain development is that many of today’s technologies were developed for the science community – where, say, achieving millikelvin cooling or using high-power lasers is routine. “How do you go from a specialist scientific clientele to something that starts to look like a washing machine factory, where you can make them to a certain level of performance,” while also being much cheaper, and easier to use?
But Cuthbert is optimistic about bridging this gap to get to commercially useful machines, encouraged in part by looking back at the classical computing industry of the 1970s. “The architects of those systems could not imagine what we would use our computation resources for today. So I don’t think we should be too discouraged that you can grow an industry when we don’t know what it’ll do in five years’ time.”
Montanaro too sees analogies with those early days of classical computing. “If you think what the computer industry looked like in the 1940s, it’s very different from even 20 years later. But there are some parallels. There are companies that are filling each of the different niches we saw previously, there are some that are specializing in quantum hardware development, there are some that are just doing software.” Cuthbert thinks that the quantum industry is likely to follow a similar pathway, “but more quickly and leading to greater market consolidation more rapidly.”
However, while the classical computing industry was revolutionized by the advent of personal computing in the 1970s and 80s, it seems very unlikely that we will have any need for quantum laptops. Rather, we might increasingly see apps and services appear that use cloud-based quantum resources for particular operations, merging so seamlessly with classical computing that we don’t even notice.
That, perhaps, would be the ultimate sign of success: that quantum computing becomes invisible, no big deal but just a part of how our answers are delivered.
In the first instalment of this two-part article, Philip Ball explores the latest developments in the quantum-computing industry