The ‘knowledge economy’ promised cultural and social growth. Instead, we got worsening inequality and division. Artificial intelligence will supercharge it
Recently, Palantir – a tech corporation that boasts no fewer than five billionaire executives – announced its Q2 earnings: over a billion dollars generated in a single quarter. Forty-eight per cent growth in its business compared with the same quarter last year, including 93% growth in its US commercial business. These elephantine numbers are maddening – and, in large part, a result of the company fully embracing artificial intelligence (AI).
The AI revolution is here and as its proponents remind us daily, it will remake our world, making every company and government agency more efficient and less error-prone while helping us unlock hitherto unheard of advances in science and technology. Not only this, but if we play our cards right, big tech’s latest explosion could yield unprecedented economic growth.
Dustin Guastella is the director of operations for Teamsters Local 623 in Philadelphia, and a research associate at the Center for Working-Class Politics
Artificial intelligence will replace creativity with something closer to magical wishing. The challenge for future generations will be dealing with the feeling of emptiness that leaves us with
In the German fairytale The Fisherman and His Wife, an old man one day catches a strange fish: a talking flounder. It turns out that an enchanted prince is trapped inside this fish and that it can therefore grant any wish. The man’s wife, Ilsebill, is delighted and wishes for increasingly excessive things. She turns their miserable hut into a castle, but that is not enough; eventually she wants to become the pope and, finally, God. This enrages the elements; the sea turns dark and she is transformed back into her original impoverished state. The moral of the story: don’t wish for anything you’re not entitled to.
Several variations of this classic fairytale motif are known. Sometimes, the wishes are not so much excessive or offensive to the divine order of the world, but simply clumsy or contradictory, such as in Charles Perrault’s The Ridiculous Wishes. Or, as in WW Jacobs’ 1902 horror story The Monkey’s Paw, their wishes unintentionally harm someone who is actually much closer to them than the object of their desire.
In 2020, after spending half his life in the US, Song-Chun Zhu took a one-way ticket to China. Now he might hold the key to who wins the global AI race
By the time Song-Chun Zhu was six years old, he had encountered death more times than he could count. Or so it felt. This was the early 1970s, the waning years of the Cultural Revolution, and his father ran a village supply store in rural China. There was little to do beyond till the fields and study Mao Zedong at home, and so the shop became a refuge where people could rest, recharge and share tales. Zhu grew up in that shop, absorbing a lifetime’s worth of tragedies: a family friend lost in a car crash, a relative from an untreated illness, stories of suicide or starvation. “That was really tough,” Zhu recalled recently. “People were so poor.”
The young Zhu became obsessed with what people left behind after they died. One day, he came across a book that contained his family genealogy. When he asked the bookkeeper why it included his ancestors’ dates of birth and death but nothing about their lives, the man told him matter of factly that they were peasants, so there was nothing worth recording. The answer terrified Zhu. He resolved that his fate would be different.
Apple’s chief executive, Tim Cook. Apple’s business faced a number of obstacles this year, including President Trump’s tariffs on China, where it makes many of its products.
Ce serait pas foufou quand même si votre vieux PC sous Windows XP pouvait faire tourner des applications Rust compilées en 2025 ?
Bah c’est totalement ce que permet de faire Thunk, un outil qui réconcilie le passé et le présent pour les dev Rust qui veulent que leur app fonctionne partout, y compris sur de vieux Windows.
L’histoire commence avec ce constat simple : des millions de machines tournent encore sous Windows XP. Usines, hôpitaux, distributeurs automatiques, systèmes industriels… Ces dinosaures refusent de mourir, principalement parce qu’ils font tourner des logiciels critiques impossibles à migrer. Du coup, le souci c’est qu’il est impossible de développer de nouvelles applications pour ces systèmes avec les outils modernes.
Enfin, c’était impossible avant Thunk.
Car le créateur de Thunk, connu sous le pseudo felixmaker sur GitHub, a eu une idée trop cool. Plutôt que de forcer les développeurs à utiliser de vieux compilateurs et des langages datés, pourquoi ne pas adapter les outils modernes pour qu’ils produisent du code compatible avec les anciens systèmes ?
Son astuce repose sur deux bibliothèques chinoises méconnues :
VC-LTL5
et
YY-Thunks
. La première, VC-LTL5, fait quelque chose de très utile puisqu’au lieu d’embarquer toutes les dépendances runtime dans votre exécutable (ce qui le rend énorme), elle se branche directement sur les DLL système de Windows comme msvcrt.dll ou ucrtbase.dll. Du coup, vos binaires perdent entre 30 et 50% de leur taille.
La seconde bibliothèque, YY-Thunks, c’est la MacGyver des API Windows. Quand votre application appelle une fonction qui n’existe pas sur Windows XP (comme GetTickCount64 par exemple), YY-Thunks intercepte l’appel et propose une alternative. Comme ça, si la fonction existe, elle l’utilise. Sinon, elle improvise avec ce qui est disponible. C’est du bricolage, certes mais c’est intelligent et ça fonctionne vraiment bien.
L’atout dans la manche de Thunk c’est donc sa simplicité d’utilisation. Il est juste disponible sous 2 formes. Soit en ligne de commande, soit comme dépendance dans votre projet.
Ensuite, pour compiler une application Rust pour Windows XP, trois lignes suffisent :
cargo new build_for_xp
cd build_for_xp
thunk --os xp --arch x86 -- --release
Et voilà, votre application moderne tournera sans souci sur une machine de 2001. C’est presque de la magie noire, sauf que c’est documenté et surtout open source. Et vous savez comme j’aime l’open source !
Bien sûr,
felixmaker prévient dans sa documentation
: “USE AT YOUR OWN RISK!” en majuscules car il n’y a aucune garantie que tout fonctionne. Certaines fonctionnalités modernes peuvent rester inaccessibles, et les performances peuvent varier d’une machine à l’autre et d’un programme à l’autre. Mais pour beaucoup de cas d’usage, notamment dans l’industrie où la stabilité prime sur les dernières nouveautés, c’est un compromis, je trouve, acceptable.
L’outil supporte surtout une impressionnante gamme de systèmes : Windows XP (x86 et x64), Vista, Windows 7, 8 et même Windows 10. Oui, vous pouvez optimiser vos applications Windows 10 pour qu’elles soient plus légères ce qui est particulièrement intéressant pour les applications embarquées ou tous les systèmes avec peu de ressources.
Bref, Thunk répond à un réel besoin notamment des entreprises. C’est aussi pour ça que je vous en parle, parce que j’imagine que dans vos entreprises, vous avez peut-être des vieux bazars que vous aimeriez faire évoluer sans tout péter. Donc c’est l’occasion de faire du code propre qui tournera sous XP, Vista et j’en passe. Et pour les copains passionnés de rétrocomputing, c’est aussi l’occasion de créer des applications modernes pour vos machines vintage
Maintenant pour l’installer, il vous faudra Rust :
cargo install thunk-cli
pour la version ligne de commande, ou
cargo add thunk-rs --build
pour l’intégrer sous forme de lib dans vos projets. Il vous faudra aussi télécharger les binaires de VC-LTL5 et YY-Thunks et configurer quelques variables d’environnement, mais la documentation explique tout clairement.
Voilà, je trouve ça plutôt cool que Rust, un langage créé en 2010, puisse maintenant produire du code pour un système d’exploitation sorti en 2001. C’est un genre de pont temporel qui défie la logique habituelle de l’obsolescence programmée.
Tapez “STORD0” dans un vieil émulateur Commodore et regardez ce qui se passe. Non, ce n’est pas une commande documentée mais bien un Easter egg planqué dans Microsoft BASIC depuis 1977.
Et si je vous parle de ça, c’est parce que j’ai une bonne nouvelle. En effet, Microsoft vient de libérer le code source
de ce BASIC 6502 historique sous licence MIT. Quarante-sept ans après sa création donc, on peut enfin fouiller dans les entrailles du programme qui a fait tourner des millions de machines mythiques de l’ère 8-bits. Et croyez-moi, c’est une mine d’or pour comprendre comment deux jeunes de 20 ans ont posé les fondations de ce qui deviendrait plus tard, le plus gros empire logiciel de la planète.
L’histoire commence donc en 1975
. Gates et Allen viennent de créer Microsoft (encore avec un tiret à l’époque : Micro-Soft) et leur premier produit, c’est un interpréteur BASIC pour l’Altair 8800. Le truc, c’est qu’ils n’avaient même pas la machine, du coup, ils ont développé l’émulateur sur un PDP-10 de Harvard, en se basant uniquement sur les specs du processeur Intel 8080. Et quand ils ont finalement testé leur code sur une vraie machine, ça a marché du premier coup.
La chance des débutants, on va dire ^^.
Deux ans plus tard, le MOS 6502 débarque. Moins cher que l’Intel 8080, plus simple, il va devenir LE processeur de la révolution micro-informatique. Chuck Peddle, son créateur chez MOS Technology, avait un objectif simple qui était de concevoir un processeur à 25 dollars au lieu de 300 pour l’Intel 8080. Mission accomplie évidemment… et devinez qui voulait absolument un BASIC pour accompagner son nouveau processeur ?
Commodore, qui venait de racheter MOS Technology.
La négociation entre Jack Tramiel (le légendaire patron de Commodore) et Bill Gates est même devenue mythique dans l’industrie. Tramiel, survivant de l’Holocauste devenu roi de la calculatrice puis de l’informatique, était réputé pour être un négociateur impitoyable.
Sa philosophie c’était “Business is war”
… Je vous laisse imaginer la mentale du bonhomme.
Et face à lui, Bilou Gates, 22 ans, lunettes énormes, qui demandait initialement 3 dollars par machine vendue. Tramiel a ri et proposé un deal unique : 25 000 dollars cash pour une licence perpétuelle. Gates a accepté…
Mais le génie de Gates et Allen, c’était pas forcement le commerce, c’était surtout leurs capacités technique car adapter un BASIC conçu pour l’Intel 8080 au 6502, c’était pas de la tarte. Les deux processeurs avaient des architectures complètement différentes. L’Intel 8080 avait plus de registres, le 6502 compensait avec sa page zéro ultra-rapide. L’équipe Microsoft (qui comptait alors une dizaine de personnes) a dû réécrire une bonne partie du code en assembleur 6502, optimiser chaque routine pour tenir dans la mémoire limitée de l’époque… Je vous parle quand même de machines avec 4 Ko de RAM, hein, pas 4 Go !
Le code source qu’on peut consulter aujourd’hui révèle tous ces détails fascinants sur ces optimisations. Par exemple, la routine de multiplication utilise une technique de décalage et addition super élégante pour économiser des cycles processeur. Les chaînes de caractères sont gérées avec un système de garbage collection rudimentaire mais efficace. Chaque octet comptait, chaque cycle processeur était précieux. C’est de l’artisanat pur du code, à des années-lumière de nos frameworks JavaScript de 500 Mo.
L’impact de ce BASIC 6502 sur l’industrie a d’ailleurs été monumental. Steve Wozniak s’en est inspiré pour créer Integer BASIC puis Applesoft BASIC sur l’Apple II. Atari l’a utilisé comme base pour son Atari BASIC. Le TRS-80 Color Computer de Tandy/Radio Shack tournait avec. Des millions d’enfants et d’adolescents dont je fais parti, ont appris à programmer avec, tapant leurs premiers “10 PRINT HELLO” et “20 GOTO 10” sur ces machines.
Microsoft explique dans l’annonce officielle
que cette libération fait partie d’un effort plus large pour préserver l’histoire de l’informatique. Certes, le Computer History Museum avait déjà publié certaines versions en 2014, mais là, c’est Microsoft directement qui ouvre ses archives. Le dépôt GitHub contient plusieurs versions historiques, incluant celles pour l’OSI Challenger 1P, le KIM-1, et bien sûr les différentes révisions Commodore.
Pour les nostalgiques et les curieux, le code est donc un vrai régal. Les commentaires en assembleur racontent une histoire. On voit l’évolution des bugs corrigés, les optimisations ajoutées version après version. Le fameux Easter egg STORD0/STORDO dont je vous parlais en intro est là aussi dans le code source. C’est un simple saut conditionnel vers une routine qui affiche “MICROSOFT!”, probablement ajouté lors d’une session de coding nocturne, quand Gates et Allen se permettaient un peu de fun dans leur code ultra-sérieux.
Au-delà de la nostalgie, cette libération a une vraie valeur éducative. Les étudiants en informatique peuvent étudier comment on programmait quand chaque byte comptait. Les développeurs d’émulateurs peuvent corriger des bugs vieux de 40 ans. Les historiens de l’informatique ont accès aux sources primaires d’un moment clé de notre industrie. C’est comme si on ouvrait les carnets de Léonard de Vinci, mais pour les geeks.
Microsoft a également choisi la licence MIT, ultra-permissive donc vous pouvez forker, modifier, vendre, faire ce que vous voulez avec ce code.
C’est un peu ironique quand on pense que Gates avait écrit sa fameuse
“Open Letter to Hobbyists” en 1976
, se plaignant du piratage de son BASIC Altair. Le jeune Bill qui pestait contre le partage gratuit de logiciels se serait bien marré en voyant Microsoft open-sourcer son travail aujourd’hui.
Ce qui est fou, c’est quand même de réaliser que ce petit bout de code a généré une industrie de plusieurs trilliards de dollars. Sans ce BASIC 6502, pas de Commodore 64 (la machine la plus vendue de l’histoire), pas d’Apple II tel qu’on le connaît, pas de génération de programmeurs formés dans les années 80. Microsoft aurait peut-être mis la clé sous la porte sans ces revenus initiaux et l’histoire de l’informatique personnelle aurait été complètement différente.
L’équipe de Microsoft en 1978
Maintenant, pour ceux qui veulent jouer avec, le code compile toujours avec les assembleurs modernes comme ca65. Vous pouvez donc le faire tourner dans n’importe quel émulateur 6502. Certains ont déjà commencé à créer des versions modernisées, ajoutant des commandes, corrigeant des bugs historiques, ou portant le code sur des architectures modernes. Le projet est donc hyper vivant sur GitHub, avec déjà des dizaines de forks et de pull requests.
Un détail amusant c’est que ce code révèle que Microsoft avait prévu dès le départ la possibilité d’étendre le langage avec des commandes custom. Une architecture modulaire en 1977, c’est fort ! Certains constructeurs comme Commodore ont d’ailleurs ajouté leurs propres extensions pour gérer les sprites, le son, les graphismes. Et le code BASIC de Microsoft, solide comme un roc, continuait de tourner de la même façon sur toutes les machines.
Cette libération arrive également à un moment symbolique car l’informatique rétro n’a jamais été aussi populaire. Des projets comme le Commander X16 de David Murray tentent de recréer l’esprit des machines 8-bits avec du hardware moderne et ce BASIC 6502 open source pourrait devenir la base de nouveaux projets éducatifs, de nouvelles machines rétro, ou simplement servir à comprendre d’où on vient.
Alors oui, c’est juste du vieux code. Mais c’est LE vieux code. Celui qui a permis à une génération entière de découvrir la programmation. Celui qui a transformé Microsoft de startup dans un garage en empire mondial. Celui qui cache encore, 47 ans plus tard, des Easter eggs et des secrets.
Donc, si vous avez 5 minutes, allez jeter un œil au repo GitHub. C’est un voyage dans le temps, à l’époque où 16 Ko de RAM c’était le futur, et où deux jeunes pouvaient changer le monde avec quelques milliers de lignes d’assembleur.
Quantum computers open the door to profound increases in computational power, but the quantum states they rely on are fragile. Topologically protected quantum states are more robust, but the most experimentally promising route to topological quantum computing limits the calculations these states can perform. Now, however, a team of mathematicians and physicists in the US has found a way around this barrier. By exploiting a previously neglected aspect of topological quantum field theory, the team showed that these states can be much more broadly useful for quantum computation than was previously believed.
The quantum bits (qubits) in topological quantum computers are based on particle-like knots, or vortices, in the sea of electrons washing through a material. In two-dimensional materials, the behaviour of these quasiparticles diverges from that of everyday bosons and fermions, earning them the name of anyons (from “any”). The advantage of anyon-based quantum computing is that the only thing that can change the state of anyons is moving them around in relation to each other – a process called “braiding” that alters their relative topology.
Topological protection: Diagram of a scheme for implementing quantum gates by braiding anyons. (Courtesy: Gus Ruelas/USC)
However, as team leader Aaron Lauda of the University of Southern California explains, not all anyons are up to the task. Certain anyons derived from mathematical symmetries appear to have a quantum dimension of zero, meaning that they cannot be manipulated in quantum computations. Traditionally, he says, “you just throw those things away”.
The problem is that in this so-called “semisimple” model, braiding the remaining anyons, which are known as Ising anyons, only lends itself to a limited range of computational logic gates. These gates are called Clifford gates, and they can be efficiently simulated by classical computers, which reduces their usefulness for truly ground-breaking quantum machines.
New mathematical tools for anyons
Lauda’s interest in this problem was piqued when he realized that there had been some progress in the mathematical tools that apply to anyons. Notably, in 2011, Nathan Geer at Utah State University and Jonathan Kujawa at Oklahoma University in the US, together with Bertrand Patureau-Mirand at Université de Bretagne-Sud in France showed that what appear to be zero-dimensional objects in topological quantum field theory (TQFT) can actually be manipulated in ways that were not previously thought possible.
“What excites us is that these new TQFTs can be more powerful and possess properties not present in the traditional setting,” says Geer, who was not involved in the latest work.
Just add neglectons: Encoding qubits into collective state of three anyons. (Courtesy: Gus Ruelas/USC)
As Lauda explains it, this new approach to TQFT led to “a different way to measure the contribution” of the anyons that the semisimple model leaves out – and surprisingly, the result wasn’t zero. Better still, he and his colleagues found that when certain types of discarded anyons – which they call “neglectons” because they were neglected in previous approaches – are added back into the model, Ising anyons can be braided around them in such a way as to allow any quantum computation.
The role of unitarity
Here, the catch was that including neglectons meant that the new model lacked a property known as unitarity. This is essential in the widely held probabilistic interpretation of quantum mechanics. “Most physicists start to get squeamish when you have, like, ‘non-unitarity’ or what we say, non positive definite [objects],” Lauda explains.
The team solved this problem with some ingenious workarounds created by Lauda’s PhD student, Filippo Iulianelli. Thanks to these workarounds, the team was able to confine the computational space to only those regions where anyon transformations work out as unitary.
Shawn Cui, who was not involved in this work, but whose research at Purdue University, US, centres around topological quantum field theory and quantum computation, describes the research by Lauda and colleagues as “a substantial theoretical advance with important implications for overcoming limitations of semisimple models”. However, he adds that realizing this progress in experimental terms “remains a long-term goal”.
For his part, Lauda points out that there are good precedents for particles being discovered after mathematical principles of symmetry were used to predict their existence. Murray Gell-Man’s prediction of the omega minus baryon in 1962 is, he says, a case in point. “One of the things I would say now is we already have systems where we’re seeing Ising anyons,” Lauda says. “We should be looking also for these neglectons in those settings.”
Researchers in Australia say that they have created the first CMOS chip that can control the operation of multiple spin qubits at ultralow temperatures. Through an advanced approach to generating the voltage pulses needed to control the qubits, a team led by David Reilly at the University of Sydney showed that control circuits can be integrated with qubits in a heterogeneous chip architecture. The design is a promising step towards a scalable platform for quantum computing.
Before practical quantum computers can become a reality, scientists and engineers must work out how to integrate large numbers (potentially millions) of qubits together – while preserving the quantum information as it is processed and exchanged. This is currently very difficult because the quantum nature of qubits (called coherence) tends to be destroyed rapidly by heat and other environmental noise.
One potential candidate for integration are the silicon spin qubits, which have advantages that include their tiny size, their relatively long coherence times, and their compatibility with large-scale electronic control circuits.
To operate effectively, however, these systems need to be cooled to ultralow temperatures. “A decade or more ago we realized that developing cryogenic electronics would be essential to scaling-up quantum computers,” Reilly explains. “It has taken many design iterations and prototype chips to develop an approach to custom silicon that operates at 100 mK using only a few microwatts of power.”
Heat and noise
When integrating multiple spin qubits onto the same platform, each of them must be controlled and measured individually using integrated electronic circuits. These control systems not only generate heat, but also introduce electrical noise – both of which are especially destructive to quantum logic gates based on entanglement between pairs of qubits.
Recently, researchers have addressed this challenge by separating the hot, noisy control circuits from the delicate qubits they control. However, when the two systems are separated, long cables are needed to connect each qubit individually to the control system. This creates a dense network of interconnects that would prove extremely difficult and costly to scale up to connect millions of qubits.
For over a decade, Reilly’s team have worked towards a solution to this control problem. Now, they have shown that the voltage pulses needed to control spin qubits can be generated directly on a CMOS chip by moving small amounts of charge between closely spaced capacitors. This is effective at ultralow temperatures, allowing the on-board control of qubits.
CMOS chiplet
“We control spin qubits using a tightly integrated CMOS chiplet, addressing the interconnect bottleneck challenge that arises when the control is not integrated with qubits,” Reilly explains. “Via careful design, we show that the qubits hardly notice the switching of 100,000 transistors right next door.“
The result is a two-part chip architecture that, in principle, could host millions of silicon spin qubits. As a benchmark, Reilly’s created two-qubit entangling gates on their chip. When they cooled their chip to the millikelvin temperatures required by the qubits, its control circuits carried out the operation just as flawlessly as previous systems with separated control circuits.
While the architecture is still some way from integrating millions of qubits onto the same chip, the team believes that this goal is a step closer.
“This work now opens a path to scaling up spin qubits since control systems can now be tightly integrated,” Reilly says. “The complexity of the control platform has previously been a major barrier to reaching the scale where these machines can be used to solve interesting real-world problems.”
Dans le cas de la réalité augmentée, les utilisateurs pourront télécharger en 5G les maps 3D traitées en temps réel depuis des infrastructure Edge Computing. D’autre part, les informations associées à ces Maps 3D proviendront d’une source de données plus éloignée : le cloud.