198 applications pour iPhone laissent fuiter des données ultra-sensibles



Aujourd'hui, on va parler d'un truc qui gratte un peu : le tracking web.
Vous savez, cette sensation d'être suivi par une armée de régies publicitaires dès qu'on clique sur un article de presse ou qu'on cherche une nouvelle paire de pompes. Bah la CNIL, via son laboratoire d innovation (le LINC), développe depuis 2013 un outil qui permet de mettre des images sur ce sentiment de persécution numérique : CookieViz .
L'outil de dataviz du LINC ( Source )
CookieViz, c'est un logiciel de dataviz en temps réel qui analyse les interactions entre un navigateur et les serveurs distants. Vous naviguez via l'outil (qui embarque son propre navigateur pour la version desktop) et celui-ci débusque les cookies et les requêtes observables envoyées vers des domaines tiers.
Et souvent, le résultat ressemble à un gros plat de cyber spaghettis où chaque fil mène à un tracker différent.
La version 2.3, publiée en juin 2022 (ça date un peu, c'est vrai) reste la référence stable du projet. Le système d'analyse a été revu pour être plus stable et le navigateur intégré est plus sécurisé et la visualisation met en avant le rôle central des places de marché publicitaires dans les mécanismes d'enchères en temps réel (RTB). Vous verrez ainsi comment un seul clic peut déclencher une cascade de connexions vers des acteurs dont vous n'avez jamais entendu parler.
Le projet est open source et disponible sur GitHub ( Source )
Alors oui, pour ceux qui se demandent comment voir les cookies de suivi sans installer un logiciel complet, les navigateurs comme Chrome ou Firefox proposent des outils rudimentaires dans leurs menus de réglages. Mais franchement, à côté de CookieViz, c'est un peu comme essayer de comprendre le trafic routier en regardant par le trou d'une serrure.
Pour les amateurs de bidouille, sachez aussi que c'est du logiciel libre sous licence GPLv3 donc vous pouvez donc aller gratter le code, l'améliorer ou simplement vérifier que la CNIL ne vous espionne pas en douce (ahaha, je plaisante hein...^^).
L'outil est dispo en version desktop pour Windows, Linux et macOS et il existe aussi une extension officiellement publiée pour Firefox , tandis que les utilisateurs de Chrome ou Opera devront passer par une installation manuelle du code depuis la branche Chromium du projet.
Moi j'ai préféré l'installé à la main comme ceci en clonant le projet :
git clone https://github.com/LINCnil/CookieViz
cd CookieViz
Puis modifiez le package.json pour utiliser une version moderne de NW.js
(la version 0.64.1 originale n'est plus disponible). Dans devDependencies, remplacez :
"nwjs-builder-phoenix": "^1.15.0"
par :
"nw": "0.92.0-sdk"
Et dans scripts, remplacez :
"start": "run --x64 --mirror https://dl.nwjs.io/ ."
par :
"start": "nw ."
Puis installez et lancez :
npm install
npm run start
Ensuite, vous voilà paré pour l'audit !
Et si vous voulez vraiment reprendre le contrôle, n'oubliez pas qu'il existe d'autres solutions complémentaires. Vous pouvez par exemple essayer d' embrouiller les sites avec User-Agent Switcher (même si c'est loin d'être une protection ultime face au fingerprinting moderne) ou carément automatiser le nettoyage avec Cookie AutoDelete . Mais perso, je trouve que pour l'aspect pédagogique et "prise de conscience", CookieViz reste un outil de premier plan.
Voilà, si vous voulez voir la gueule de votre tracking en direct et réaliser que la vie privée sur le web moderne ça n'existe pas (sauf ici), allez donc faire un tour sur le site du LINC .
De quoi verser une petite larme sur le web d'antan...



Merci à vous de suivre le flux Rss de www.sospc.name.
Charly vous a proposé récemment un programme permettant de copier facilement et très rapidement vos très gros dossiers & fichiers.
Je vous propose une traduction française que j'ai faite.
Cet article SOSPC vous propose le logiciel FastCopy traduit en français par Christian est apparu en premier sur votre site préféré www.sospc.name

Une nouvelle étude de Xylem, en partenariat avec le Global Water Intelligence, chiffre l’empreinte eau de l’IA à l’horizon 2050. Selon le rapport, l’essor des infrastructures nécessaires à l’IA ferait grimper la demande mondiale annuelle de 30 000 milliards de litres d’eau, soit environ les trois quarts de la capacité du réservoir des Trois-Gorges.
Le document estime que la consommation de l’ensemble de la chaîne de valeur de l’IA augmenterait de 129 % par rapport à aujourd’hui. La hausse proviendrait majoritairement de la production d’électricité (~54 %) et de la fabrication de semi-conducteurs (~42 %), les data centers ne pesant directement qu’environ 4 % dans l’incrément.
Le signal d’alerte est d’autant plus net que 40 % des centres de données existants sont implantés dans des zones déjà en stress hydrique. La croissance future des capacités est, elle aussi, attendue dans des bassins où l’accès à l’eau est contraint.
Xylem plaide pour un recours accru aux technologies d’économie et de réutilisation de l’eau, ainsi qu’à la réduction des fuites sur les réseaux. L’objectif est d’éviter que l’eau ne devienne un plafond de verre pour l’innovation, en particulier dans les régions où se concentrent les fabs de pointe et les parcs de data centers.
Au-delà des data centers, les choix d’approvisionnement électrique et les procédés de fabrication des puces seront déterminants. Refroidissement plus frugal, boucles fermées et traitement sur site côté IT, optimisation des stations d’épuration industrielles et des tours de refroidissement côté énergie et semi, seront les axes les plus impactants.
La trajectoire esquissée pose un enjeu d’implantation et de mix technologique pour l’écosystème IA. Sans bascule vers des sites moins contraints et des procédés sobres en eau, le coût opérationnel et réglementaire pourrait s’envoler, pesant sur les calendriers d’expansion des capacités de calcul et de production de puces.
Source : ITHome
Elon Musk annonce l’ouverture du code de l’algorithme « For You » de X. Le système publié reflète la version de production actuelle et s’appuie sur une architecture de type Transformer, la même famille que le modèle Grok de xAI. Musk admet des limites et promet un processus d’amélioration en continu, visible en temps réel, revendiquant une transparence que ses concurrents n’offrent pas.

Le dépôt GitHub inclut le pipeline de recommandation « For You », mis à jour toutes les quatre semaines. Les contenus proposés combinent les posts des comptes suivis et des posts découverts sur la plateforme, avant un tri par un modèle basé sur Grok qui estime la probabilité d’actions utilisateur clés : like, réponse, repost, clic ou visionnage.
Plutôt qu’un score unique, le modèle prédit plusieurs comportements et agrège ces signaux pour un classement plus fin. L’apprentissage repose directement sur les comportements utilisateurs, avec une pondération des interactions visant à rapprocher l’affichage des intentions effectives.
Le code est accessible à l’adresse suivante : github.com/xai-org/x-algorithm. X prévoit un cycle public de mises à jour mensuel, aligné sur la branche de production, avec l’ambition de réduire l’écart entre recherche, déploiement et publication.
Si l’ouverture ne garantit pas l’absence de biais ni la portabilité du modèle hors de l’écosystème X, elle offre une visibilité utile sur la mécanique de scoring multi-objectifs et la manière dont X arbitre engagement, pertinence et diversité. Pour l’industrie, c’est un signal stratégique : l’ère des recommandations opaques se fissure, et la pression monte sur les réseaux à large échelle pour documenter leurs choix algorithmiques, au moins partiellement.
Source : ITHome
Michael Burry remet une pièce dans la machine. Invité d’un podcast Substack face à Jack Clark (Anthropic) et à l’animateur Dwarkesh Patel, l’investisseur surnommé « le Big Short » estime que la bulle de l’IA gonfle à vue d’œil et que son éclatement entraînera une longue traversée du désert pour la tech. Sa cible principale : les hyperscalers comme Microsoft et Alphabet, accusés d’engloutir des montants colossaux dans des puces et des data centers qui deviendront rapidement obsolètes, pour des usages qui finiront banalisés, à commencer par les chatbots.
Pour illustrer l’effet d’imitation à coûts fixes, Burry ressort une vieille anecdote de Warren Buffett : dans les années 60, deux grands magasins se sont équipés d’escaliers mécaniques l’un après l’autre. Personne n’y a gagné en marge, personne n’a réduit ses coûts, tout le monde s’est retrouvé au même point d’équilibre. « C’est le destin de la plupart des déploiements IA : dès que quelqu’un se hisse sur la pointe des pieds, les autres suivent », résume-t-il.
Le diagnostic est tranchant : des milliers de milliards sont en train d’être brûlés dans des concepts sans voie claire vers l’économie réelle. Les entreprises ne capteront pas d’avantage compétitif durable si leurs concurrents accèdent aux mêmes capacités au même rythme. À la clé, prévient-il, un secteur qui embauche moins et un cycle dégradé plus long qu’attendu.
Reste l’angle mort que la plupart des acteurs refusent d’aborder publiquement : la contrainte capitalistique de l’IA générative est extrême et cumulative, entre accélérateurs à renouveler vite, capacités électriques, refroidissement et foncier. Si la demande finale se standardise sur des outils commoditisés, la compression des prix rencontrera des amortissements qui s’étalent mal. Le risque est moins celui d’une disparition de l’IA que d’une normalisation brutale des multiples, qui pourrait revaloriser les modèles intégrés, sobres en capital et adossés à des flux tangibles, aux dépens des paris d’infrastructure trop larges.
Source : ITHome
DeepCool lance en Chine le « GAMMAXX 400 Performance », une mise à jour de son ventirad entrée de gamme, décliné en noir ou en blanc à 79 ¥ (environ 10 €), ainsi qu’en version « PLUS » à double ventilateur à 99 ¥ (environ 13 €). La série conserve l’architecture à quatre caloducs en simple tour, avec un bloc de 125 mm de large, 92 mm de profondeur et 150 mm de hauteur, et un top matriciel revu. Garantie un an.

La principale évolution vient du ventilateur à « anneau de canalisation » qui referme l’intervalle entre pales et cadre pour limiter les turbulences et accroître la pression traversante. Le rotor est annoncé à 500–2200 tr/min, pour un débit de 70,09 CFM et un niveau sonore inférieur à 29,22 dB(A). Le modèle PLUS ajoute un second ventilateur en push-pull.
Le montage couvre les sockets Intel LGA 1851/1700 et AMD AM5/AM4. Le constructeur suggère un usage avec des processeurs du segment Core Ultra 5 ou Ryzen 7/5/3, ce qui cadre avec la capacité thermique habituelle des tours 4 caloducs. À ce tarif, l’intérêt tient à la pression statique accrue et au double ventilateur optionnel pour des boîtiers denses ou des grilles maillées restrictives.
Sur un marché où les 120 mm « budget » se multiplient, l’itération de DeepCool cible clairement le rapport perf/prix en Asie, avec des chiffres acoustiques ambitieux et un format 150 mm compatible micro‑ATX. Reste à voir l’écart réel entre version simple et PLUS en charge prolongée, qui décidera de sa place face aux références établies dans cette tranche.
Source : ITHome
Conner, ex-fabricant de disques durs des années 80-90 fondé par Finis Conner et absorbé par Seagate en 1996, réapparaît depuis 2021 comme marque d’accessoires de stockage. Au CES, l’entreprise a dévoilé un chargeur secteur USB-C intégrant un SSD portable, une approche deux-en-un pensée pour les voyageurs qui veulent simplifier la sauvegarde.

Le bloc adopte un port USB‑C compatible USB 3.2 Gen 1 (5 Gbit/s) et Power Delivery 65 W. Quatre déclinaisons de capacité sont prévues : 128 Go, 256 Go, 512 Go et 1 To. L’idée est de greffer un espace de stockage directement à un accessoire déjà indispensable, avec des débits suffisants pour de la sauvegarde quotidienne ou des transferts ponctuels, sans ajouter un câble ou un boîtier de plus dans le sac.

Sur son stand, Conner montrait aussi un SSD portable pour smartphone avec alimentation passthrough, un lecteur de cartes MicroSD en USB‑C et une clé de sauvegarde mobile. La logique est cohérente : privilégier la copie locale rapide depuis un téléphone ou un PC, sans dépendre du cloud, tout en conservant la charge des appareils.
Le compromis 5 Gbit/s limitera les pics de débit, mais reste pertinent pour un combo charge + backup. La vraie question se situera sur la dissipation thermique d’un chargeur 65 W abritant de la NAND, et sur la gestion des firmwares pour éviter toute déconnexion logique durant les pointes de charge. Si Conner convainc sur ces deux points, ce format pourrait s’installer dans les setups nomades où chaque prise et chaque port comptent.

Source : ITHome
Hohem, connu pour ses stabilisateurs, a dévoilé au CES un périphérique inattendu : le SSD-01, un SSD externe qui combine stockage, relais d’alimentation et support de réception audio sans fil. Le constructeur revendique un « trois-en-un » destiné aux créateurs mobiles, avec une compatibilité large et une intégration matérielle soignée.
Le SSD-01 intègre trois ports USB‑C. Un connecteur rabattable assure la liaison directe avec un smartphone ou tout appareil compatible, tandis que les deux autres servent respectivement au passthrough d’alimentation et à l’accueil d’un récepteur de micro sans fil. L’idée : filmer, stocker et alimenter en continu, sans hub intermédiaire.
Le boîtier de 29 g adopte une coque en aluminium issue d’un microbillage, avec un format compact orienté terrain. Hohem propose des versions 1 To et 2 To. La liaison atteint 20 Gbit/s via USB 3.2 Gen 2×2, pour des débits annoncés de 2000 Mo/s en lecture et 1800 Mo/s en écriture, avec compatibilité multi‑OS. Côté alimentation, le passthrough grimpe à 65 W pour maintenir un smartphone ou un boîtier caméra en charge lors d’une prise longue.
Le SSD-01 s’affiche à 219 $ (environ 201 €) en 1 To et 339 $ (environ 312 €) en 2 To. Un positionnement premium au regard des pSSD 20 Gbit/s classiques, compensé ici par l’intégration matérielle pour l’audio sans fil et la charge rapide, sans accessoires supplémentaires.
Ce produit vise clairement les vidéastes mobiles qui jonglent entre enregistreurs, émetteurs RF et banques d’alimentation. Si les performances réelles dépendront autant du contrôleur que de la dissipation, l’approche modulaire via USB‑C triple usage adresse une douleur concrète du terrain : simplifier une grappe d’accessoires en un bloc unique, avec un débit suffisant pour l’enregistrement 4K/60 et un flux d’alimentation stable.
Source : ITHome
Alibaba Cloud a dévoilé lors de sa conférence développeurs 2026 de PolarDB une salve de capacités orientées IA, avec en tête un « AI data lakehouse » baptisé Lakebase. L’objectif est clair : unifier stockage et traitement de données multimodales et rapprocher les modèles directement du moteur de base pour exécuter recherche sémantique et inférence in-situ, sans sortir les données de leur domaine.

Conçu pour une architecture « lac + base » unifiée, Lakebase promet une gestion cohérente des données structurées, semi-structurées et non structurées, avec des mécanismes de cache accélérant I/O et bande passante selon les cas d’usage. Alibaba Cloud met en avant une intégration entre moteur multimodal et « opérateurs de modèle » au sein de PolarDB, permettant d’orchestrer recherche sémantique et étapes d’inférence directement dans la base tout en conservant les garanties de confidentialité.

L’éditeur combine KVCache, graphes et vecteurs pour construire des schémas de recherche conciliant mémoire court/long terme et empreinte calcul maîtrisée. L’ensemble s’inscrit dans quatre piliers d’un « AI-ready database » : data lakehouse multimodal, recherche fusionnée, services d’opérateurs de modèles et un back-end orienté développement d’agents.
La composante « recherche fusionnée » ancre la vectorisation et le plein-texte au cœur du SQL, pour marier compréhension sémantique et appariement par mots-clés, avec un gain annoncé sur la précision et la latence sur des requêtes complexes. Côté exécution, les services d’opérateurs de modèles ouvrent la voie à l’inférence en base, à une architecture « Agent-Ready » et à des mécanismes de mémoire adaptés aux besoins des agents.
Pour l’industrialisation, PolarDB propose un back-end clé en main destiné aux applications d’agents, s’appuyant sur un empaquetage type Supabase multi-tenant et serverless, afin d’accélérer les déploiements dans les verticaux.

Alibaba Cloud revendique plus de 3 millions de cœurs déployés pour PolarDB, couvrant 86 zones de disponibilité dans le monde. Les fonctions cloud natives et Data+AI sont déjà en production sur des systèmes critiques dans la finance, l’automobile, l’administration, l’internet et les télécoms, auprès notamment d’une grande banque commerciale, Li Auto, XPeng, MiniMax, GoTo Group, Du Xiaoman et miHoYo. Si la promesse d’unir data lakehouse multimodal, opérateurs de modèle en base et recherche vectorielle/plein-texte dans SQL se confirme sur des charges mixtes en production, PolarDB se positionnera comme une alternative crédible aux offres lakehouse-IA occidentales, avec un avantage potentiel en cohérence opérationnelle et en coûts d’intégration.
Source : ITHome
Google décrit un phénomène intrigant observé dans des modèles de raisonnement comme DeepSeek-R1 et QwQ-32B : lors de la résolution de problèmes, le réseau « se scinde » en entités internes aux styles opposés — créatives, critiques, méticuleuses, prudentes — qui débattent entre elles. Plus la tâche est exigeante, plus ce dialogue interne s’intensifie, avec des pics notables sur GPQA (niveau graduate) et les déductions mathématiques complexes, tandis que les échanges se raréfient sur des exercices basiques de logique booléenne.

Les chercheurs ont utilisé des sparse auto-encoders (SAE) pour instrumenter les couches internes pendant la génération de chaînes de pensée. Les activations neuronales, inexploitables en l’état, sont décomposées par la contrainte de parcimonie en facteurs interprétables liés à des actes de discours internes du modèle, du type « se poser une question », « changer de perspective », « vérifier une hypothèse ». En corrélant ces facteurs sur la durée, l’équipe isole des « entités logiques » auxquelles elle attribue des rôles comme « planificateur », « vérificateur » ou « exécuteur ».
Comparés à des modèles instructionnels classiques (DeepSeek-V3, Qwen-2.5-32B-IT), les modèles de raisonnement manifestent ces comportements dialogiques beaucoup plus fréquemment. Surtout, ces échanges émergent sans y être forcés : sous simple récompense à la bonne réponse via renforcement, le modèle apprend spontanément à raisonner « en conversation » plutôt qu’en monologue.

En modulant les activations associées à certains marqueurs, l’équipe montre un lien causal avec la performance. Accentuer des tournants discursifs comme « oh ! » — signal d’étonnement ou de réévaluation — double l’exactitude sur le benchmark arithmétique Countdown, de 27,1 % à 54,8 %. La dynamique d’opinion interne ne serait donc pas un bruit, mais un mécanisme utile de recherche de solution.
Autre résultat robuste : un pré-affinage sur des données de dialogues multi-agents, suivi d’un entraînement au raisonnement, accélère nettement l’apprentissage. Sur Qwen-2.5-3B et Llama-3.2-3B, les modèles « dialogiques » surpassent les versions « monologues » de plus de 10 % en début de training, l’écart grimpant jusqu’à 22 % pour Llama-3.2-3B en fin de parcours.
Ces observations font écho à l’hypothèse du cerveau social en biologie évolutive : maîtriser l’interaction et la gestion de points de vue concurrents améliorerait la capacité à raisonner. Ici, l’IA optimise sa précision en simulant une pluralité d’interlocuteurs internes, chacun explorant un angle complémentaire avant consolidation.

Au-delà de l’anecdote, la conclusion opérationnelle est claire pour l’écosystème modèle et tooling: intégrer des inducteurs dialogiques dans les boucles d’optimisation, instrumenter les représentations via SAE pour guider la RL, et capitaliser sur des jeux de données de débats multi-agents pourrait offrir des gains de performance concrets sur le raisonnement sans gonfler la taille des réseaux. On voit aussi poindre un axe de contrôle fin par « styles cognitifs » internes, prometteur pour des systèmes qui alternent exploration, critique et exécution selon la difficulté du problème.
Source : ITHome
Hisense a dévoilé en Chine la série E8S, des téléviseurs RGB‑Mini LED en 75, 85 et 100 pouces, proposés à 12 999 ¥ (environ 1 670 €), 17 999 ¥ (environ 2 315 €) et 24 999 ¥ (environ 3 215 €). Mise en vente immédiate ce soir à 20h, avec un châssis extra‑plat plaqué mur de 44 mm au plus fin et un dos totalement affleurant sans renflement.

La E8S adopte un rétroéclairage Mini LED à diodes trichromes intégrant directement R, V et B, sans couche de phosphores ni film à boîtes quantiques. Hisense revendique une couverture 100 % BT.2020 et une consommation réduite de plus de 40 % face aux approches classiques. Le 100 pouces totalise 9 360 zones de gradation/couleur. La dalle « Obsidian Screen Pro » annonce un taux de réflexion de 1,8 % pour limiter les reflets.

Au cœur, la puce maison « Xinxin AI H7 » est présentée comme la première puce de traitement d’image bâtie sur architecture ouverte RISC‑V, avec NPU dédié. Elle pilote un algorithme propriétaire de co‑contrôle lumière‑couleur RGB, avec une granularité annoncée à 3 × 10 240 niveaux par zone et une précision de contrôle à 108 bits, afin de synchroniser en millisecondes les composantes rouge, verte et bleue et réduire traînées chromatiques et contamination de couleurs en mouvement.
Profil gaming assumé : dalle 4K à 180 Hz en natif, quatre ports HDMI 2.1 « pleine bande » à 48 Gbit/s et compatibilité FreeSync Premium Pro à 180 Hz. Côté audio, Hisense intègre un système 4.2.2 co‑développé avec Devialet, totalisant 10 transducteurs, 270 W en crête, un volume acoustique de 7,6 L et une extension dans le grave annoncée à 45 Hz.
Le châssis souligne une approche monolithique avec face avant à motif « respiration stellaire » servant d’ajourage acoustique, et dos texturé « matrice pellicule 24 i/s », le caisson de grave affichant un décor « tambour de victoire ». L’interface maison « Starry Desktop » met en avant un « Light & Shadow Control Hub » pour tests d’orientation colorimétrique via IA et 51 paramètres de micro‑réglage. Le centre multimédia propose rattachement NAS avec scraping global, génération quasi instantanée de murs d’affiches et lecture jusqu’à 160 Mb/s.

La bascule vers un Mini LED RVB véritable, sans filtre phosphore ni couche QD, remet en question l’équilibre habituel entre volume colorimétrique et rendement énergétique. Si la promesse BT.2020 intégral et le maillage de 9 360 zones au format 100 pouces se confirment en mesure, la E8S pourrait bousculer le segment haut de gamme LCD, en particulier sur les scènes HDR lumineuses où la précision chromatique des diodes trichromes et le contrôle fin par RISC‑V H7 peuvent marquer un écart face aux Mini LED à diodes blanches + QD.
Source : ITHome
Selon BenchLife, Nvidia a notifié ses partenaires AIC le 16 janvier d’une hausse générale des tarifs des mémoires GDDR6 et GDDR7 vendues en bundle avec les GPU, sans toucher au prix des puces graphiques elles‑mêmes. L’Industrial and Commercial Times (Taïwan) rapporte qu’AMD applique également une augmentation sur la mémoire, avec des hausses comprises entre 10 % et 15 % selon les spécifications, Nvidia se positionnant légèrement en dessous d’AMD sur les nouveaux tarifs.
Les deux médias convergent : ni Nvidia ni AMD ne modifient le MSRP/SEP des cartes graphiques. La variable d’ajustement passe donc chez les AIC/AIB, qui devront absorber la hausse de la GDDR. Les options évoquées vont de la réduction des volumes sur les modèles d’entrée de gamme vendus au prix public recommandé à un relèvement des prix transactionnels côté retail.
En amont du canal, plusieurs fabricants taïwanais auraient déjà augmenté leurs tarifs de sortie pour les cartes AMD la semaine dernière, tandis que MSI aurait initié un nouveau tour de hausse sur des GeForce RTX série 50. Aucun détail n’est donné sur l’étendue par référence, mais la tendance est tangible sur le channel.
Le découplage entre MSRP inchangé et coûts composants en hausse pousse mécaniquement à des écarts plus fréquents entre prix conseillés et prix réels en boutique. À court terme, on peut s’attendre à une moindre disponibilité sur les SKU sous contrainte de marge et à des ajustements plus rapides des prix de rue, notamment sur les nouvelles cartes GDDR7. Les intégrateurs qui maîtrisent mieux leurs achats mémoire et leurs cycles d’approvisionnement auront un avantage transitoire, mais la pression restera diffuse tant que la GDDR ne se détend pas.
Source : ITHome
Elon Musk monte une « task force » dédiée au recrutement chez xAI. L’entreprise cherche une poignée de « talent engineers » capables d’identifier, d’approcher et de signer des profils d’exception, avec un rattachement direct à Musk et un mandat clair : accélérer l’embauche d’ingénieurs au meilleur niveau mondial.
Cette cellule est décrite comme un « petit groupe d’élite » chargé de concevoir des méthodes de sourcing non conventionnelles et de boucler des recrutements difficiles. Le portrait-robot mixe aisance technique et flair produit, avec un historique de lancements réussis, y compris précoces, et un profil d’« ingénieur pur jus » suffisamment social pour convaincre des pairs.
Le poste est basé à Palo Alto avec une rémunération annoncée entre 120 000 et 240 000 dollars par an, soit environ 110 000 à 220 000 €. La démarche intervient alors que la chasse aux talents en IA se tend davantage : Meta et Google multiplient les « acqui-hire » à coups de milliards, tandis que les géants n’hésitent plus à activer des incitations agressives. Sam Altman a ainsi évoqué des offres à 100 millions de dollars chez Meta pour attirer des employés d’OpenAI, un chiffre que Meta relativise en pointant des contre-offres supérieures côté OpenAI.
Malgré les critiques qui ciblent Grok, son chatbot maison, xAI poursuit son expansion. Début janvier, la société a levé 20 milliards de dollars, pour une valorisation supérieure à 230 milliards de dollars. Parallèlement, elle fait face à une réaction réglementaire et médiatique après la génération d’images sexualisées de personnes réelles sur X, avec des enquêtes en cours et une interdiction temporaire de Grok en Indonésie et en Malaisie.
Le procureur général de Californie examine les signalements de deepfakes impliquant des femmes et des mineurs. X a annoncé la semaine dernière l’interdiction pour Grok de produire des contenus sexualisant des personnes réelles. Au Royaume-Uni, le régulateur des médias suit également le dossier.
La personnalisation des approches est devenue la norme. Chez OpenAI, le chercheur en chef Mark Chen a rapporté en décembre que Mark Zuckerberg s’était directement impliqué jusqu’à livrer de la soupe à des ingénieurs ciblés pour les convaincre de rejoindre Meta. La « task force » de xAI formalise cette logique : moins de filtres RH, plus de contact direct, davantage d’outils sur mesure pour débloquer des profils rares.
Dans l’IA générative, la contrainte n’est pas tant l’accès aux GPU que la densité d’équipes capables d’itérer très vite entre recherche appliquée, produit et sécurité. En internalisant une équipe qui fonctionne comme un commando de closing, xAI signale qu’elle veut raccourcir les cycles d’embauche au moment où le marché sature, tout en imposant son rythme face aux stratégies d’acqui-hire des GAFAM.
Source : ITHome