Artemis II mission could launch on 6 February, sending astronauts on a 685,000-mile journey
Nasa is preparing to roll out its most powerful rocket yet before a mission to send astronauts around the moon and back again for the first time in more than 50 years.
The Artemis II mission is scheduled to launch from Kennedy Space Center in Florida as early as 6 February, taking its crew on a 685,000-mile round trip that will end about 10 days later with a splashdown in the Pacific Ocean.
Virunga park ranger says babies are well cared for by mother Mafuko but high infant mortality makes first weeks critical
It was noon by the time Jacques Katutu first saw the newborn mountain gorillas. Cradled in the arms of their mother, Mafuko, the tiny twins clung to her body for warmth in the forest clearing in Virunga national park, in eastern Democratic Republic of the Congo (DRC).
Katutu, head of gorilla monitoring in Virunga, has seen dozens of newborns in his 15 years as a ranger. But, he tells the Guardian, even he was touched by the sight of the fragile infant males, who face serious obstacles if they are to become silverbacks one day.
Taking drug in pregnancy does not raise chances of autism, ADHD or intellectual disability, ‘gold standard’ review finds
Taking paracetamol in pregnancy does not increase the chance that the child will be autistic, or have ADHD or an intellectual disability, a “gold standard” review of the evidence has found.
The findings debunk Donald Trump’s claims last September that the painkiller causes autism, which were condemned by medical, women’s health and scientific organisations around the world.
Huit bases de données mondiales, de la NASA à Copernicus, arrivent exactement au même résultat : le thermostat planétaire s'emballe et le point de non retour a été atteint. Bientôt, nous regretterons presque la période 2000-2020 pour leur fraîcheur.
Huit bases de données mondiales, de la NASA à Copernicus, arrivent exactement au même résultat : le thermostat planétaire s'emballe et le point de non retour a été atteint. Bientôt, nous regretterons presque la période 2000-2020 pour leur fraîcheur.
La NASA prépare son retour sur la Lune et la mission Artemis 2. Avant cela, la fusée SLS doit rejoindre le pas de tir. Un trajet de 7 kilomètres long de 12 heures.
La NASA prépare son retour sur la Lune et la mission Artemis 2. Avant cela, la fusée SLS doit rejoindre le pas de tir. Un trajet de 7 kilomètres long de 12 heures.
Federal officials working on the new dietary guidelines had considered limiting men to one drink daily. The final advice was only that everyone should drink less.
“There are a lot of reasons people drink alcohol,” said one epidemiologist who led an advisory panel on alcohol. “What we’re saying is health shouldn’t be one of them.”
Depuis 2003, il est interdit de téléphoner au volant en France, mais les constructeurs s'échinent aujourd'hui à coller des tablettes géantes au milieu de la planche de bord. Parfaitement illogique, et profondément dangereux, selon plusieurs études.
Depuis 2003, il est interdit de téléphoner au volant en France, mais les constructeurs s'échinent aujourd'hui à coller des tablettes géantes au milieu de la planche de bord. Parfaitement illogique, et profondément dangereux, selon plusieurs études.
Il y a des combats comme cela auxquels pas grand monde ne pense et qui pourtant sont très importants. Je parle évidemment de la lutte contre le chaos du texte non structuré. Si vous avez déjà essayé d'extraire des données propres d'un tas de PDF (après OCR), de rapports ou de notes griffonnées, vous voyez de quoi je parle : c'est l'enfer ! (oui j'aime me faire du mal en tentant des regex impossibles).
Heureusement, Google a lâché début janvier 2026 une petite pépite en open source (même si c'est pas un produit "officiel") qui s'appelle
LangExtract
. C'est une bibliothèque Python qui utilise la puissance des LLM pour transformer vos documents textuels en données JSON bien rangées.
Exemple d'extraction sur le texte de Roméo et Juliette (
Source
)
Ce qui fait que LangExtract sort du lot par rapport à d'autres outils comme
Sparrow
, c'est surtout son système de Source Grounding. En gros, chaque info extraite est directement liée à sa position exacte dans le texte source. Ça facilite énormément la vérification et la traçabilité puisque vous pouvez voir visuellement d'où vient la donnée grâce à un système de surlignage automatique.
Sous le capot, l'outil est optimisé pour les documents à rallonge (le fameux problème de l'aiguille dans une botte de foin). Il utilise des stratégies de découpage de texte et de passes multiples pour améliorer le rappel et s'assurer que le maximum d'infos soit capturé.
La visualisation interactive permet de valider les données en un clin d'œil (
Source
)
Et cerise sur le gâteau, il permet de générer un fichier HTML interactif pour visualiser les milliers d'entités extraites dans leur contexte original. À la cool !
Côté installation, c'est hyper fastoche :
pip install langextract
Pour faire le job, vous avez le choix des armes : les modèles cloud de Google (Gemini 2.5 Flash/Pro), ceux d'OpenAI (via pip install langextract[openai]), ou carrément du local avec
Ollama
. Pas besoin de passer des heures à fine-tuner un modèle, il suffit de fournir quelques exemples structurés via le paramètre examples et hop, c'est parti mon kiki.
Voici à quoi ça ressemble sous le capot pour lancer une machine à extraire :
import langextract as lx
# 1. On définit les règles du jeu
prompt = "Extraire les noms de personnages et leurs émotions."
# 2. On donne un exemple (few-shot) pour guider le modèle
examples = [
lx.data.ExampleData(
text="ROMEO. But soft! What light...",
extractions=[lx.data.Extraction(extraction_class="character", extraction_text="ROMEO", attributes={"emotion": "wonder"})]
)
]
# 3. On lance l'extraction (nécessite une clé API ou Ollama)
results = lx.extract(
text_or_documents="votre_texte_brut_ici",
prompt_description=prompt,
examples=examples,
model_id="gemini-2.5-flash"
)
# 4. On sauvegarde et on génère la visualisation HTML
lx.io.save_annotated_documents(results, output_name="results.jsonl")
html_content = lx.visualize("results.jsonl")
with open("view.html", "w") as f:
f.write(html_content)
Honnêtement, je ne sais pas si ça va remplacer
les solutions industrielles de RPA
, mais pour un dev qui veut structurer du texte sans se prendre la tête, c'est vraiment impressionnant. Que vous fassiez du
Grist
ou de l'analyse de données pure, cet outil mérite clairement que vous y jetiez un œil !
Vous pensiez avoir tout vu en matière de projets geeks complètement déjantés ?
Hé bien accrochez-vous à vos slips, parce que des chercheurs, menés par le neuro-ingénieur Viktor Tóth, ont réussi à faire "jouer" des rats à DOOM. Pas en appuyant sur des boutons au hasard, non non, mais avec un casque de réalité virtuelle sur mesure, une boule de déplacement sous leurs pattes, et même une gâchette pour tirer sur les démons !
Je vous jure que c'est vrai. Le projet s'appelle "Rats Play DOOM" et c'est à la croisée de la neuroscience, de la robotique et du game design. L'idée de base, c'est de prouver qu'on peut entraîner des rongeurs à interagir avec des environnements virtuels contrôlés basés sur un moteur de jeu. Et quitte à faire ça, autant le faire avec le jeu le plus iconique des années 90.
Gros plan sur le casque VR panoramique pour rongeurs (
Source
)
Le setup est assez dingue. Le rat est équipé d'un casque panoramique intégrant un écran AMOLED pliable qui offre 180 degrés de champ horizontal et 80 degrés de vertical. Il est installé sur une boule sphérique qui détecte ses mouvements via des capteurs, un peu comme une trackball géante. Quand il marche, court ou tourne, ça se traduit directement en déplacements dans le jeu.
Et pour ceux qui se demandent comment un rat peut vraiment dégommer des monstres... Hé bien oui, car Viktor a même fabriqué un levier custom avec un encodeur rotatif que le rat actionne avec ses pattes pour faire feu. Donc oui, les rats tirent sur des démons avec leurs petites papattes !
Pour motiver nos petits rongeurs gamers, y'a évidemment un système de récompense. À chaque action réussie, le système distribue 10 microlitres d'eau sucrée via un solénoïde. C'est pas grand-chose mais pour un rat, c'est le graal. Au bout de deux semaines d'entraînement environ, les rats Todd, Kojima et Gabe (oui, ils ont des noms de légendes du jeu vidéo, on adore l'humour des chercheurs) ont réussi à naviguer dans l'environnement virtuel. Et là, ils ont même appris à déclencher le mécanisme de tir.
Bon, faut être honnête, ils n'ont pas encore terminé le jeu. L'équipe explique que les rats ont vieilli avant de pouvoir passer à l'entraînement avancé. Du coup, c'est plus une preuve de concept qu'un speedrun, mais quand même, c'est impressionnant. On est loin du simple
contrôle neuronal
de base, là car c'est une vraie interaction avec un moteur de jeu.
Côté technique, tout tourne sur un combo Raspberry Pi pour l'acquisition des capteurs en temps réel, et un PC qui fait tourner une version modifiée de ViZDoom. Le tout communique en TCP et hop, c'est géré par un script Python central. Et comme si ça suffisait pas, le projet est entièrement open source. Vous pouvez récupérer le code, les schémas électroniques et même les fichiers 3D pour imprimer les pièces sur le repo GitHub. Donc si vous avez un rat de compagnie et beaucoup trop de temps libre...
Le projet en est à sa deuxième version. Cette V2 est plus modulaire, avec des composants imprimables en 3D et une électronique plus fiable. C'est typiquement le genre de bidouille qui me rappelle pourquoi j'aime tant farfouiller dans les
projets Raspberry Pi
les plus improbables ^^.
D'ailleurs, si vous êtes fan de portages improbables, vous vous souvenez peut-être de cet article sur
DOOM Retro
, mais là avec les rats, on est clairement passé au niveau supérieur.
Bref, on vit vraiment une époque formidable où des gens financent des projets pour apprendre à des rats à buter des démons en VR. Et j'adore l'idée !
Il y a des combats comme cela auxquels pas grand monde ne pense et qui pourtant sont très importants. Je parle évidemment de la lutte contre le chaos du texte non structuré. Si vous avez déjà essayé d'extraire des données propres d'un tas de PDF (après OCR), de rapports ou de notes griffonnées, vous voyez de quoi je parle : c'est l'enfer ! (oui j'aime me faire du mal en tentant des regex impossibles).
Heureusement, Google a lâché début janvier 2026 une petite pépite en open source (même si c'est pas un produit "officiel") qui s'appelle
LangExtract
. C'est une bibliothèque Python qui utilise la puissance des LLM pour transformer vos documents textuels en données JSON bien rangées.
Exemple d'extraction sur le texte de Roméo et Juliette (
Source
)
Ce qui fait que LangExtract sort du lot par rapport à d'autres outils comme
Sparrow
, c'est surtout son système de Source Grounding. En gros, chaque info extraite est directement liée à sa position exacte dans le texte source. Ça facilite énormément la vérification et la traçabilité puisque vous pouvez voir visuellement d'où vient la donnée grâce à un système de surlignage automatique.
Sous le capot, l'outil est optimisé pour les documents à rallonge (le fameux problème de l'aiguille dans une botte de foin). Il utilise des stratégies de découpage de texte et de passes multiples pour améliorer le rappel et s'assurer que le maximum d'infos soit capturé.
La visualisation interactive permet de valider les données en un clin d'œil (
Source
)
Et cerise sur le gâteau, il permet de générer un fichier HTML interactif pour visualiser les milliers d'entités extraites dans leur contexte original. À la cool !
Côté installation, c'est hyper fastoche :
pip install langextract
Pour faire le job, vous avez le choix des armes : les modèles cloud de Google (Gemini 2.5 Flash/Pro), ceux d'OpenAI (via pip install langextract[openai]), ou carrément du local avec
Ollama
. Pas besoin de passer des heures à fine-tuner un modèle, il suffit de fournir quelques exemples structurés via le paramètre examples et hop, c'est parti mon kiki.
Voici à quoi ça ressemble sous le capot pour lancer une machine à extraire :
import langextract as lx
# 1. On définit les règles du jeu
prompt = "Extraire les noms de personnages et leurs émotions."
# 2. On donne un exemple (few-shot) pour guider le modèle
examples = [
lx.data.ExampleData(
text="ROMEO. But soft! What light...",
extractions=[lx.data.Extraction(extraction_class="character", extraction_text="ROMEO", attributes={"emotion": "wonder"})]
)
]
# 3. On lance l'extraction (nécessite une clé API ou Ollama)
results = lx.extract(
text_or_documents="votre_texte_brut_ici",
prompt_description=prompt,
examples=examples,
model_id="gemini-2.5-flash"
)
# 4. On sauvegarde et on génère la visualisation HTML
lx.io.save_annotated_documents(results, output_name="results.jsonl")
html_content = lx.visualize("results.jsonl")
with open("view.html", "w") as f:
f.write(html_content)
Honnêtement, je ne sais pas si ça va remplacer
les solutions industrielles de RPA
, mais pour un dev qui veut structurer du texte sans se prendre la tête, c'est vraiment impressionnant. Que vous fassiez du
Grist
ou de l'analyse de données pure, cet outil mérite clairement que vous y jetiez un œil !
En 2026, une éclipse solaire sera visible en France métropolitaine. Certaines communes seront même plongées dans le noir pendant plus d’une minute. Voici comment s’y préparer.
En 2026, une éclipse solaire sera visible en France métropolitaine. Certaines communes seront même plongées dans le noir pendant plus d’une minute. Voici comment s’y préparer.
Vous pensiez avoir tout vu en matière de projets geeks complètement déjantés ?
Hé bien accrochez-vous à vos slips, parce que des chercheurs, menés par le neuro-ingénieur Viktor Tóth, ont réussi à faire "jouer" des rats à DOOM. Pas en appuyant sur des boutons au hasard, non non, mais avec un casque de réalité virtuelle sur mesure, une boule de déplacement sous leurs pattes, et même une gâchette pour tirer sur les démons !
Je vous jure que c'est vrai. Le projet s'appelle "Rats Play DOOM" et c'est à la croisée de la neuroscience, de la robotique et du game design. L'idée de base, c'est de prouver qu'on peut entraîner des rongeurs à interagir avec des environnements virtuels contrôlés basés sur un moteur de jeu. Et quitte à faire ça, autant le faire avec le jeu le plus iconique des années 90.
Gros plan sur le casque VR panoramique pour rongeurs (
Source
)
Le setup est assez dingue. Le rat est équipé d'un casque panoramique intégrant un écran AMOLED pliable qui offre 180 degrés de champ horizontal et 80 degrés de vertical. Il est installé sur une boule sphérique qui détecte ses mouvements via des capteurs, un peu comme une trackball géante. Quand il marche, court ou tourne, ça se traduit directement en déplacements dans le jeu.
Et pour ceux qui se demandent comment un rat peut vraiment dégommer des monstres... Hé bien oui, car Viktor a même fabriqué un levier custom avec un encodeur rotatif que le rat actionne avec ses pattes pour faire feu. Donc oui, les rats tirent sur des démons avec leurs petites papattes !
Pour motiver nos petits rongeurs gamers, y'a évidemment un système de récompense. À chaque action réussie, le système distribue 10 microlitres d'eau sucrée via un solénoïde. C'est pas grand-chose mais pour un rat, c'est le graal. Au bout de deux semaines d'entraînement environ, les rats Todd, Kojima et Gabe (oui, ils ont des noms de légendes du jeu vidéo, on adore l'humour des chercheurs) ont réussi à naviguer dans l'environnement virtuel. Et là, ils ont même appris à déclencher le mécanisme de tir.
Bon, faut être honnête, ils n'ont pas encore terminé le jeu. L'équipe explique que les rats ont vieilli avant de pouvoir passer à l'entraînement avancé. Du coup, c'est plus une preuve de concept qu'un speedrun, mais quand même, c'est impressionnant. On est loin du simple
contrôle neuronal
de base, là car c'est une vraie interaction avec un moteur de jeu.
Côté technique, tout tourne sur un combo Raspberry Pi pour l'acquisition des capteurs en temps réel, et un PC qui fait tourner une version modifiée de ViZDoom. Le tout communique en TCP et hop, c'est géré par un script Python central. Et comme si ça suffisait pas, le projet est entièrement open source. Vous pouvez récupérer le code, les schémas électroniques et même les fichiers 3D pour imprimer les pièces sur le repo GitHub. Donc si vous avez un rat de compagnie et beaucoup trop de temps libre...
Le projet en est à sa deuxième version. Cette V2 est plus modulaire, avec des composants imprimables en 3D et une électronique plus fiable. C'est typiquement le genre de bidouille qui me rappelle pourquoi j'aime tant farfouiller dans les
projets Raspberry Pi
les plus improbables ^^.
D'ailleurs, si vous êtes fan de portages improbables, vous vous souvenez peut-être de cet article sur
DOOM Retro
, mais là avec les rats, on est clairement passé au niveau supérieur.
Bref, on vit vraiment une époque formidable où des gens financent des projets pour apprendre à des rats à buter des démons en VR. Et j'adore l'idée !
Judy Stokes, a retired GP, shares her experience as a spatial-sequence synaesthete
Read more stories of synaesthesia in the way I feel series
Did someone with spatial-sequence synaesthesia design the calendar app on mobile phones? Because that’s how time and dates look in my brain. If you say a date to me, that day appears in a grid diagram in my head, and it shows if that box is already imprinted with a holiday, event or someone’s birthday. Public holidays and special events like Christmas and Easter are already imprinted for the year, and the diagram goes backwards to about 100,000BC and then forwards all the way to about the year 2500 before tapering off.
It was only in my 60s that I discovered there was a name for this phenomenon – not just the way time appears in this 3D sort of calendar pattern, but the colours seen when I think of certain words. Two decades previously, I’d mentioned to a friend that Tuesdays were yellow and she’d looked at me in the same strange, befuddled way that family members always had when told about the calendar in my head. Out of embarrassment, it was never discussed further. I was clearly very odd.
C'est un fléau qui déchire l'Amérique depuis 2013 : avec plus de 100 000 morts par an au plus fort de la crise, le fentanyl ronge le pays de l'intérieur. Pourtant, pour la première fois, les décès par overdose dégringolent... grâce au plus grand rival des États-Unis.
China has published coordinated papers outlining dual missions to the solar system’s edge, suggesting the long-studied project is nearing formal approval.