↩ Accueil

Vue normale

Le patron d’Instagram estime qu’il sera plus pratique d’identifier les humains que les IA

5 janvier 2026 à 17:01
« Le vrai est un moment du faux » (La société du spectacle)
Le patron d’Instagram estime qu’il sera plus pratique d’identifier les humains que les IA

Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.

« De plus en plus de personnes pensent qu’il sera plus pratique d’identifier les médias authentiques que les faux générés par IA », estime Adam Mosseri, l’ex-cadre supérieur de Facebook nommé patron d’Instagram depuis la démission de ses cofondateurs en 2018 : « Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de la capture, créant ainsi une chaîne de contrôle ».

Dans un message partagé sur Insta et Threads, Adam Mosseri constate que « l’authenticité devient infiniment reproductible » du fait du perfectionnement des IA génératives. Ce pourquoi « le principal risque » auquel est confrontée une plateforme comme Instagram est qu’elle ne parvienne pas à suivre le rythme, et qu’elle finisse par être submergée de contenus générés par IA (GenAI) :

« Tout ce qui rendait les créateurs importants – leur capacité à être authentiques, à créer des liens, à avoir une voix qui ne pouvait être imitée – est désormais accessible à quiconque dispose des bons outils. Les deepfakes sont de plus en plus perfectionnés. L’IA génère des photos et des vidéos impossibles à distinguer des médias capturés [par des humains, ndlr]. Les flux commencent à se remplir de contenus synthétiques. »

Le pouvoir passe des institutions aux individus, et maintenant aux IA

Cherchant à anticiper ce qu’il pourrait faire pour ne pas être submergé, Adam Mosseri rappelle tout d’abord que « depuis des années, le pouvoir passe des institutions aux individus, car Internet permet à toute personne ayant une idée convaincante de trouver un public » :

« Le coût de la diffusion de l’information est pratiquement nul. Les gens peuvent donc désormais contourner les moyens traditionnels de diffusion de l’information (journaux distribués par camion, émissions produites pour la télévision) et s’adresser directement à leur public. On le constate dans tous les domaines, des athlètes qui sont plus importants que leurs équipes aux journalistes qui inspirent plus confiance que leurs publications. »

Alors que « la confiance dans les institutions (gouvernement, médias, entreprises) est en déclin depuis des décennies » et que nous sommes dans le même temps « submergés par le contenu produit à grande échelle par les institutions », « ce sont des individus, et non des éditeurs, des médias ou des marques », qui ont créé ce marché de créateurs de contenus autoproduits par des « personnes que nous admirons ».

L’authenticité devient une ressource rare

Évoquant les contenus synthétiques qui, d’ici quelques années, « seront bien plus nombreux que ceux capturés par des moyens traditionnels », le patron d’Instagram relève que, si l’on parle beaucoup de l’ « AI slop », « il existe heureusement beaucoup de contenus IA incroyables [et] de qualité ».

Il constate cela dit que les contenus générés par IA sont « de plus en plus réalistes » et que « l’authenticité devient une ressource rare », ce qui, d’après lui, va entraîner une augmentation de la demande de contenus créés par des humains. Il estime aussi que « les créateurs qui réussiront seront ceux qui trouveront le moyen de préserver leur authenticité, qu’ils adoptent ou non les nouvelles technologies » :

« Cela devient plus difficile (et non pas plus facile) aujourd’hui parce que tout le monde peut simuler l’authenticité. La question n’est plus de savoir si vous êtes capable de créer du contenu, mais de savoir si vous êtes le seul à pouvoir le faire. Et cela va devenir la nouvelle condition à remplir. »

Privilégier des images explicitement non retouchées et peu flatteuses

Adam Mosseri note aussi que, dans le même temps, les appareils photo des téléphones proposent de plus en plus de fonctionnalités et de filtres logiciels permettant à de simples amateurs de pouvoir partager des contenus de qualité quasi professionnelle.

Le patron d’Instagram estime à ce titre que leurs fabricants font de mauvais choix esthétiques et « romantisent le passé » : « Ils rivalisent pour donner à tout le monde l’air d’un photographe professionnel d’autrefois », permettant à tout un chacun de réaliser des photographies tendant vers la perfection, mais qui ne pourront pas longtemps rivaliser avec les IA.

Ces dernières parviennent en effet désormais à générer des images tellement « parfaites » qu’il devient impossible de les identifier comme synthétiques à l’œil nu. Dès lors, ce n’est plus la perfection qu’il faut chercher, mais l’imperfection, avance Adam Mosseri :

« On va assister à une nette accélération de la tendance vers une esthétique plus brute dans les prochaines années. Les créateurs avisés vont privilégier des images d’eux-mêmes explicitement non retouchées et peu flatteuses. Dans un monde où tout peut être parfait, l’imperfection devient un signal. Le caractère brut [« rawness », en VO] n’est plus seulement une préférence esthétique : c’est une preuve. C’est une forme de défense. Une façon de dire : c’est authentique parce que c’est imparfait. »

De la quête de perfection à celle de l’imperfection

Patron d’une entreprise dont le modèle économique repose sur le partage de selfies et de photos retouchées au moyen de filtres logiciels, cet abandon de la quête de perfection pour celle de l’imperfection ressemble à une révolution quasi-copernicienne :

« Pendant la majeure partie de ma vie, j’ai pu supposer sans risque que la grande majorité des photos ou des vidéos que je voyais étaient des captures fidèles de moments qui s’étaient réellement produits dans la vie réelle. Ce n’est clairement plus le cas aujourd’hui, et il nous faudra, en tant qu’êtres humains, des années pour nous y adapter. […] Cela va être extrêmement inconfortable pour nous tous, car nous sommes génétiquement prédisposés à croire ce que nous voyons. »

Ce changement de paradigme fera qu’ « au fil du temps, nous allons passer d’une attitude consistant à supposer que ce que nous voyons est réel par défaut à une attitude sceptique lorsque nous consultons les médias, et nous allons accorder beaucoup plus d’attention à ceux qui partagent quelque chose et aux raisons pour lesquelles ils le font ».

Les plateformes de réseaux sociaux vont dès lors subir une pression croissante pour identifier et signaler les contenus générés par l’IA. Le patron d’Instagram ne le précise pas, mais l’article 50 de l’AI Act rendra cette labellisation des contenus GenAI obligatoire à compter du mois d’août 2026.

« Toutes les grandes plateformes feront du bon travail pour identifier les contenus générés par l’IA, mais elles auront de plus en plus de mal à le faire à mesure que l’IA s’améliorera dans l’imitation de la réalité », relève toutefois Adam Mosseri :

« De plus en plus de personnes pensent, comme moi, qu’il sera plus pratique d’identifier les médias authentiques que les faux. Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de la capture, créant ainsi une chaîne de contrôle. »

Instagram devra « clairement identifier les contenus générés par l’IA »

Il souligne cependant que le fait d’ « indiquer si un contenu est authentique ou généré par l’IA n’est qu’une partie de la solution ». Les plateformes et acteurs du marché de l’économie de l’attention devront également « fournir beaucoup plus d’informations contextuelles », non seulement sur les médias mais aussi sur les comptes qui les partagent, « afin que les utilisateurs puissent prendre des décisions éclairées sur ce qu’ils doivent croire » :

« Où se trouve le compte ? Quand a-t-il été créé ? Quels autres contenus a-t-il publiés ? Dans un monde où l’abondance et le doute sont infinis, les créateurs qui parviennent à maintenir la confiance et à afficher leur authenticité, en étant sincères, transparents et cohérents, se démarqueront. »

Évoquant le cas particulier d’Instagram, Adam Mosseri explique que ses équipes vont devoir « évoluer de plusieurs façons, et rapidement ». À commencer par le fait de créer les meilleurs outils, « basés sur l’IA ou traditionnels », pour que les créateurs « puissent rivaliser avec les contenus entièrement créés par l’IA ».

Instagram devra aussi « clairement identifier les contenus générés par l’IA » et travailler avec les fabricants pour vérifier leur authenticité « dès leur capture, en identifiant les médias réels, et pas seulement en traquant les faux ». Ainsi que pour « mettre en avant les signaux de crédibilité » concernant les auteurs des publications afin que les utilisateurs puissent décider à qui faire confiance.

Il évoque enfin le fait de « devoir continuer à améliorer le classement en fonction de l’originalité », et propose de revenir sur la question de la transparence et du contrôle des algorithmes dans un autre article.

Pour Microsoft, le slop de l’IA est un sujet dépassé, place à l’IA utile

5 janvier 2026 à 16:13
Vous êtes dans la matrice
Pour Microsoft, le slop de l’IA est un sujet dépassé, place à l’IA utile

Satya Nadella, CEO de Microsoft, blogue désormais sur l’IA. Selon lui, le débat sur le « slop » est un sujet presque dépassé. Il préfère évoquer 2026 comme une « année charnière » et ce qui, selon lui, demande aujourd’hui le plus de réflexion : trouver des débouchés à ce qu’il considère comme une évolution drastique de la pensée.

Microsoft est l’un des acteurs clés de l’IA, ne serait-ce que par son investissement massif dans OpenAI, avant l’emballement que l’on constate aujourd’hui. La société a cependant un problème : un sérieux écart entre la vision de ce que pourraient accomplir ses différents Copilot et ce qu’ils peuvent faire réellement.

Dans un contexte trouble pour l’entreprise, son CEO prend la parole, avec un premier billet de blog pour explorer quelques réflexions. Certaines recouvrent de vraies questions, notamment sur la direction à donner aux évolutions de l’IA ou le manque d’expérience dans son exploitation, quand d’autres illustrent une bulle de réflexion hors de laquelle plus rien d’autre ne semble exister.

Encore une année charnière

2026 sera une « année charnière » pour l’IA pour Satya Nadella. « Oui, encore une autre », reconnait le CEO de Microsoft. Il estime cependant qu’elle semble « différente à quelques égards notables ».

La phase initiale de découverte est selon lui terminée. Place désormais à la diffusion généralisée, le public prenant peu à peu ses marques et commençant à faire la distinction entre « spectacle » et « substance ». La direction prise par la technologie serait plus claire et plus sérieuse désormais, maintenant que l’émerveillement est passé.

Le débat autour du « slop » (bouillie) n’aurait plus lieu d’être, car il serait surtout lié à des cas d’utilisation sans réel débouché : un fonctionnement à vide de l’IA, sans apport réel dans la vie des gens. On pourrait ajouter qu’il s’agit aussi de l’inévitable produit d’une course à la vitesse et aux opportunités, largement accélérée par l’IA et à ses multiples impacts, notamment dans le monde de la cybersécurité.

Et comme si le CEO n’était pas assez clair, il insiste sur l’idée que l’IA doit amplifier l’humain, pas le remplacer. Il n’hésite pas à reprendre l’image de la « bicyclette pour l’esprit » que Steve Jobs utilisait pour décrire l’outil informatique en général. L’IA devrait ainsi être considérée comme aidant la pensée et l’action humaines, pas s’y substituant.

Systèmes complexes et résultats responsables

Pour Satya Nadella, les modèles isolés comme ChatGPT et Gemini ne sont pas l’avenir. Une vision que l’on a déjà entendue, par exemple chez l’ingénieur Horacio Gonzalez. Selon lui, l’avenir appartient à des modèles plus petits, plus spécialisés et coopérant.

Selon le CEO de Microsoft, l’important maintenant est de construire des systèmes qui orchestrent plusieurs modèles, gèrent la mémoire, l’accès aux données et l’utilisation d’outils de façon sûre. Une manière élégante de dire que l’intégration et l’ingénierie comptent plus que la taille brute des modèles.

Il « milite » également pour des résultats réels et responsables : pour que l’IA soit acceptée par la société, elle doit avoir un impact mesurable. « Les choix que nous ferons sur l’endroit où nous utiliserons nos rares ressources énergétiques, de calcul et de talents auront de l’importance. C’est la question socio-technique autour de laquelle nous devons construire un consensus », ajoute Nadella.

Microsoft dans une bulle

L’année 2025 a probablement été pénible pour Microsoft. La société semble captive d’une bulle dans laquelle elle s’est elle-même installée : la certitude que l’IA représente son futur, sans pour autant arriver à lui faire faire ce qu’elle veut. Ou, plus exactement, sans que les utilisateurs aient la garantie d’arriver au résultat attendu.

Satya Nadella résume tout le problème : « Ce sera un processus de découverte chaotique, comme toute technologie et développement de produits l’est toujours ». Autrement dit, il s’agit d’une technologie puissante, presque trop actuellement, et les usages vont continuer à s’y casser les dents jusqu’à ce que la brume se dissipe un peu plus.

Le souci de Microsoft est cependant très concret. Après avoir autant investi dans l’IA, les actionnaires attendent probablement un retour sur investissement qu’ils ne voient pas venir. D’où un « forcing » urgent dans toutes les gammes de produits. Avec à la clé des augmentations tarifaires, justifiées selon l’entreprise par les capacités supplémentaires. Et tant pis si ces capacités ne sont pas clairement définies ou que leurs résultats ne sont pas prévisibles.

C’est là que la tension s’illustre le plus, comme on l’a vu avec Windows. Microsoft veut en effet faire de son produit le premier « système agentique », mais son annonce n’est pas bien passée. Un très grand nombre de personnes ont répondu très négativement à cette perspective, beaucoup demandant que Windows 11 remplisse d’abord sa mission initiale de système d’exploitation, avec sécurité, fiabilité et performances.

« Les premiers kilomètres d’un marathon »

Sur ce point, Satya Nadella n’offre aucun début d’éclaircie : « Nous sommes encore dans les premiers kilomètres d’un marathon. Beaucoup de choses restent imprévisibles ». Son intervention est avant tout philosophique, l’IA étant comparée à « un échafaudage pour l’esprit humain », même si la mention de la rareté énergétique est notable.

Le ton général est en outre inhabituellement sobre pour un dirigeant d’une société technologique aussi importante. Surtout après les prises de position de certains responsables de l’entreprise. On se souvient que face au manque d’enthousiasme sur les évolutions annoncées de Windows 11, Mustafa Suleyman lui-même, responsable de l’IA, avait traité de « cyniques » les personnes décriant l’annonce.

Entre les lignes, on devine quand même l’intention : recalibrer les attentes et repositionner Microsoft sur une ingénierie voulue « utile », en opposition à la puissance brute des gros modèles. On peut y voir également une forme d’aveu, dans le sens où les progrès technologiques ne suffisent pas si le public n’y trouve aucune valeur réelle, au-delà de l’amusement passager. Moins de buzz, plus de concret ?

Les AI Overviews de Google fournissent aussi des conseils de santé erronés

5 janvier 2026 à 15:37
Aïe aïe AI Overviews
Les AI Overviews de Google fournissent aussi des conseils de santé erronés

Alerté par des professionnels de santé, The Guardian a découvert que les synthèses générées par IA (« AI Overviews ») figurant en tête des résultats du moteur de recherche fournissaient parfois des informations médicales « fausses et trompeuses ». Mais également qu’il leur arrivait de fluctuer en fonction du moment.

Google avance que ses « AI overviews », qui proposent en tête des résultats de recherche des « aperçus » résumant les réponses identifiées par l’IA générative comme les plus pertinentes, sont « utiles » et « fiables ».

Alerté par plusieurs professionnels de santé, le Guardian a découvert, a contrario, qu’ils exposent leurs utilisateurs « à des risques de préjudice en raison de conseils [et] d’informations médicales fausses et trompeuses ».

Dans un cas qualifié de « très dangereux » par les experts interrogés par le Guardian, Google a par exemple conseillé à tort aux personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses. Ce qui va à l’encontre des recommandations habituelles et pourrait augmenter le risque de décès des patients, soulignent les experts.

Cela « pourrait être très dangereux et compromettre les chances d’une personne d’être en assez bonne santé pour suivre un traitement », explique Anna Jewell, directrice du soutien, de la recherche et de la sensibilisation chez Pancreatic Cancer UK, pour qui la réponse générée par IA est « totalement incorrecte » :

« La réponse de l’IA de Google suggère aux personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses et fournit une liste d’exemples. Cependant, si quelqu’un suivait les conseils donnés dans les résultats de recherche, il risquerait de ne pas absorber suffisamment de calories, d’avoir du mal à prendre du poids et d’être incapable de tolérer la chimiothérapie ou une intervention chirurgicale potentiellement vitale. »

Dans un autre exemple à propos de problèmes hépatiques qualifié cette fois d’ « alarmant », le moteur de recherche a là encore fourni des informations erronées, offrant peu de contexte et aucune prise en compte de la nationalité, du sexe, de l’origine ethnique ou de l’âge des patients, souligne le Guardian. Pis : elles pouvaient amener des personnes atteintes d’une maladie grave du foie à estimer, à tort, qu’elles seraient en bonne santé.

« De nombreuses personnes atteintes d’une maladie du foie ne présentent aucun symptôme jusqu’aux stades avancés, c’est pourquoi il est si important qu’elles se fassent dépister », explique au Guardian Pamela Healy, directrice générale du British Liver Trust :

« Mais ce que l’IA de Google considère comme « normal » peut varier considérablement de ce qui est réellement considéré comme normal. C’est dangereux, car cela signifie que certaines personnes atteintes d’une maladie hépatique grave peuvent penser que leurs résultats sont normaux et ne pas se donner la peine de se rendre à un rendez-vous médical de suivi. »

Des synthèses générées par IA qui changent selon le moment

Une recherche Google sur les « symptômes et tests du cancer du vagin » a répertorié le frottis du col de l’utérus comme un test de dépistage du cancer du vagin, ce qui est là encore « totalement erroné » et pourrait amener à ignorer des symptômes avérés, souligne Athena Lamnisos, directrice générale de l’association caritative Eve Appeal :

« Obtenir des informations erronées comme celle-ci pourrait potentiellement conduire une personne à ne pas faire examiner ses symptômes de cancer du vagin parce qu’elle a obtenu un résultat normal lors d’un dépistage cervical récent. »

Elle se dit également « extrêmement préoccupée » par le fait que le résumé généré par l’IA changeait au fil du temps, « donnant à chaque fois une réponse différente provenant de sources différentes lorsque nous effectuions exactement la même recherche » :

« Cela signifie que les gens obtiennent une réponse différente selon le moment où ils effectuent leur recherche, ce qui n’est pas acceptable. Certains des résultats que nous avons vus sont vraiment inquiétants et peuvent potentiellement mettre les femmes en danger. »

Le Guardian a également constaté que les aperçus fournis par l’IA de Google en réponse à des recherches sur des troubles mentaux tels que la psychose et les troubles alimentaires offraient des « conseils très dangereux » et étaient « incorrects, nuisibles ou susceptibles d’inciter les gens à ne pas demander d’aide », explique Stephen Buckley, responsable de l’information chez Mind, qui les qualifie de « très préoccupants » :

« Elles peuvent suggérer d’accéder à des informations provenant de sites inappropriés… et nous savons que lorsque l’IA synthétise des informations, elle peut souvent refléter des préjugés, des stéréotypes ou des discours stigmatisants existants. »

Des « captures d’écran incomplètes », plaide Google

Google a répondu au Guardian que la « grande majorité » de ses AI Overviews étaient « factuels et utiles », et qu’elle apportait continuellement des améliorations à leur qualité. Le taux de précision des aperçus IA serait « comparable » à celui de ses autres fonctionnalités de recherche, telles que les extraits optimisés, qui existent depuis plus d’une décennie, a-t-elle précisé.

Un porte-parole de Google a répondu au Guardian que bon nombre des exemples liés à la santé qui leur avaient été communiqués étaient des « captures d’écran incomplètes », rajoutant que d’après ce qu’ils avaient pu évaluer, les réponses renvoyaient « vers des sources connues et réputées, et recommandaient de consulter un expert » :

« Nous investissons considérablement dans la qualité des AI Overviews, en particulier pour des sujets tels que la santé, et la grande majorité d’entre eux fournissent des informations exactes. »

Vague massive de deepfakes générés par Grok : la justice française étend son enquête

5 janvier 2026 à 15:01
IA pas de consentement
Vague massive de deepfakes générés par Grok : la justice française étend son enquête

Grok a généré des deepfakes de femmes déshabillées sans leur consentement, parfois des mineures, à la demande massive d’utilisateurs de X qui ont créé une tendance sur ce réseau. La justice française ajoute cette pièce au désormais épais dossier contre les deux entreprises d’Elon Musk.

La semaine dernière, avant le réveillon de la Saint-Sylvestre, nombre d’utilisateurs du réseau social X ont profité de la publication par des utilisatrices de photos d’elles-mêmes dans des tenues de fête pour les déshabiller virtuellement sans leur consentement, à l’aide de Grok. Saisi par plusieurs députés français et par des membres du gouvernement, le parquet de Paris va élargir l’enquête qu’il a déjà ouverte à propos de X et de xAI.

L’humiliation des femmes par le montage d’images à caractère sexuel n’est pas nouvelle. Mais l’IA générative permet une massification du phénomène depuis 2023 alors que des chercheuses et chercheurs avaient repéré dès 2021 que les ensembles de données utilisés pour entraîner les LLM comme LAION-400M contenaient de la misogynie, de la pornographie et des stéréotypes malveillants.

Début 2024 marquait une nouvelle étape : des utilisateurs de X partageaient massivement des deepfakes pornographiques de Taylor Swift, et quelques mois plus tard des influenceuses moins connues étaient aussi attaquées sur Instagram.

Massification via X et Grok

En cette fin d’année 2025, c’est Grok qui refait parler de lui à ce sujet. En effet, des utilisateurs du réseau social X ont massivement utilisé l’IA générative d’Elon Musk pour déshabiller virtuellement des femmes. Souvent avec une simple demande sous le partage d’une photo d’une utilisatrice, Grok générait une version de cette photo mais en représentant la personne en bikini ou plus ou moins dénudée.

En mai dernier, nos confrères de 404 expliquaient que l’outil de xAI posait très peu de freins à une demande d’utilisateur de déshabiller des femmes en reprenant des photos déjà existantes pour les trafiquer en objet de désir des utilisateurs du réseau social X. Mais cette « tendance » dégradante a été tellement suivie en cette fin d’année 2025 que n’importe quel utilisateur pouvait voir ce genre d’images dans la colonne « pour vous » du réseau social, avec certaines images ciblant des jeunes filles mineures.

« Je me suis retrouvée plus ou moins dévêtue sur plusieurs photos totalement sans mon consentement », raconte Fafa, une streameuse de 28 ans à France Info. « Trois ou quatre personnes s’étaient amusées à utiliser l’IA de X en vue de me dévêtir » en faisant un deepfake à partir d’un selfie de réveillon qu’elle avait posté le 31 décembre. Elle envisage de porter plainte. La doctorante en études théâtrales Marie Coquille-Chambel a vécu le même genre de violences sur le réseau social d’Elon Musk et a ensuite subi un harcèlement massif après l’avoir signalé sur X.

Devant la justice française

Le 2 janvier, les députés Arthur Delaporte (PS) et Éric Bothorel (Renaissance) ont tous deux saisi le procureur de la République de Paris, dénonçant ces deepfakes à caractère sexuel qui « contreviennent de fait à l’article 226-8-1 du Code pénal et portent atteinte à la dignité des personnes représentées et dont les contenus ont été détournés », comme l’affirme le signalement du député du Parti socialiste.

Quelques heures plus tard, le parquet de Paris expliquait à Politico qu’il allait élargir l’enquête déjà ouverte en juillet à propos de X, au départ pour ingérence étrangère. Il l’avait déjà étendue une première fois pour prendre en compte les propos négationnistes générés en novembre dernier par Grok, toujours publiés sur X.

Le gouvernement français réagissait un peu plus tard dans un communiqué expliquant que plusieurs de ses membres avaient aussi effectué des signalements à la justice : « les ministres Roland Lescure, Anne Le Hénanff et Aurore Bergé signalent au procureur de la République ainsi qu’à la plateforme Pharos, en vertu de l’article 40 du code de procédure pénale, des contenus manifestement illicites générés par l’intelligence artificielle générative Grok et diffusés sur la plateforme X, afin d’obtenir leur retrait immédiat ».

Alors qu’Elon Musk n’avait réagi à cette « tendance » sur son réseau social qu’avec des « 🤣🤣 » à propos d’une image de lui-même en bikini générée par IA, son entreprise a communiqué via le compte de Grok en publiant un message affirmant avoir « identifié des lacunes dans [ses] mesures de sécurité » pour répondre à un signalement d’un deepfake sur une enfant. xAI affirmait « s’ [employer] à les corriger de toute urgence » et ajoutait que « le CSAM [child sexual abuse material, la pédopornographie] est illégal et interdit » en accompagnant son message d’un lien de signalement vers un site du FBI.

L’autorité malaisienne de la communication a elle aussi réagi, expliquant sur Facebook qu’elle avait « pris note avec une vive inquiétude des plaintes du public concernant l’utilisation abusive des outils d’intelligence artificielle (IA) sur la plateforme X, en particulier la manipulation numérique d’images de femmes et de mineurs afin de produire des contenus indécents, grossièrement offensants et autrement préjudiciables » et annonçait, elle aussi, lancer une enquête à ce sujet.

☕️ Flipper Zero et Raspberry Pi étaient interdits lors de l’investiture de Zohran Mamdani (New York)

5 janvier 2026 à 13:40

Sur son site Transition2025.com, le nouveau maire de New-York, Zohran Mamdani, a publié fin décembre des invitations pour sa cérémonie d’investiture. L’événement s’est déroulé à Broadway, entre Liberty St. et Barclay Street (au niveau de l’hôtel de ville de New York, dans le sud de Manhattan).

Rien de bien surprenant, jusqu’à se rendre dans la liste des objets autorisés et interdits dans la foire aux questions. Du classique à première vue, avec en-cas et thermos de boissons autorisés, tandis que les armes, drones, boissons alcoolisées, drogues, bâtons… étaient interdits.

En fin de liste, deux produits ont tapé dans l’œil d’Adafruit (un revendeur bien connu dans le monde de la bidouille) : Raspberry Pi et Flipper Zero.

« Si les inquiétudes tournaient autour des interférences, de la perturbation des ondes ou du piratage, le document ne le précise pas. Il reste vague, citant quelques appareils et espérant que le message passe. La curiosité est désormais interdite », fustige Adafruit.

Alors que le reste de la liste comprend des catégories de produits (parapluies, stylos laser, drones…), ce n’est pas le cas pour le Raspberry Pi et le Flipper Zero. Le premier est un micro-ordinateur vendu quelques dizaines de dollars, le second une boite à outils principalement conçue pour des tests d’intrusion et/ou de cybersécurité.

Les usages des deux machines peuvent être détournés, mais comme n’importe quel autre produit du genre… et il en existe de nombreuses autres références chez d’autres fabricants. Sans compter les smartphones, dont certains peuvent aussi avoir ce genre de capacité.

« Si l’objectif était d’interdire « les appareils électroniques non identifiés », « les dispositifs d’interférence de signal » ou « les outils de piratage », la liste devrait l’indiquer clairement », indique enfin Adafruit. Le revendeur ajoute que « donner des noms de marque risque de créer de la confusion ».

Plusieurs de nos confrères (dont BleepingComputer) ont contacté le service presse de Zohran Mamdami, sans réponse pour le moment.

☕️ Elon Musk offre Starlink pendant un mois à la population vénézuélienne

5 janvier 2026 à 12:01

À la suite de l’enlèvement du chef d’État vénézuélien Nicolas Maduro par l’armée des États-Unis, accusé par la Maison Blanche d’être à la tête d’un cartel de narcotrafiquants, Starlink a annoncé fournir ses services gratuitement à la population vénézuélienne pendant un mois. 
L’opération de capture du président vénézuélien qui s’est déroulée dans la nuit de vendredi à samedi 3 janvier 2026 s’est accompagnée de frappes américaines dans le sud et l’est de la capitale de Caracas.

À la suite de ces opérations, certaines zones de la ville avaient perdu accès à l’électricité et à internet, selon l’ONG Netblocks.

Le 4 janvier, la filiale de SpaceX Starlink publiait un communiqué annonçant fournir gratuitement ses services de connexion internet via ses satellites en basse orbite aux « nouveaux » clients, comme aux « existants ».

La carte de disponibilité de Starlink indique « coming soon » (à venir) pour le Venezuela, ce qui suggère que le service n’était pas déployé sur place auparavant, quand bien même le communiqué déclare que des utilisateurs sont déjà actifs.

Capture d’écran de la carte de disponibilité de Starlink / Starlink

L’évolution des tarifs à partir du 3 février 2026 n’a pas été communiquée pour le moment.

Le Venezuela n’est pas le premier terrain de conflit dans lequel intervient Starlink.

Au déclenchement de l’offensive russe contre l’Ukraine, en 2022, l’entreprise avait déployé ses services pour pallier les pannes du réseau internet local. Si l’épisode avait d’abord été salué, rappelle CNBC, il avait rapidement soulevé la question de l’influence d’une unique entité – et de son patron Elon Musk – dans un tel conflit.

Le Pentagone avait finalement passé un contrat avec l’entreprise pour assurer le maintien de ses services en Ukraine.

☕️ Arch Linux et Manjaro ouvrent 2026 avec de « nouvelles versions »

5 janvier 2026 à 09:02

Arch Linux et Manjaro (basée sur Arch) sont les premières à dégainer en ce début d’année. Il s’agit pour rappel de systèmes de type rolling release : les mises à jour sont fournies dès leur disponibilité, que les versions soient mineures ou majeures, au sein d’une branche unique. La dénomination se fait en opposition à l’approche classique, comme sur Ubuntu, où les gros changements attendent la branche suivante, donc une mouture majeure ultérieure.

Mais alors, si les améliorations importantes sont diffusées au fur et à mesure, que peut apporter une nouvelle édition d’Arch Linux ou Manjaro ? Techniquement, rien : ces nouvelles versions sont là pour les personnes qui souhaitent réaliser une installation avec une image ISO récente, limitant ainsi les mises à jour immédiates. Pour celles ayant un système installé et à jour, il n’y a rien de neuf : elles ont déjà les dernières nouveautés.

Manjaro 26.0

Dans les deux cas, les images ISO proposent les dernières versions de presque tous les composants, dans tous les domaines (ici pour Arch Linux, pour Manjaro) : noyau Linux 6.18, KDE Plasma 6.5 (avec les suites KDE Gear 25.12 et KDE Frameworks 6.21), GNOME 49, Xfce 4.20, Mesa 25.3, Firefox 146, suite bureautique LibreOffice 25.8.4 (si elle est choisie à l’installation), GStreamer 1.26.10, ALSA 1.2.15.1, ou encore l’arrivée de l’environnement COSMIC (créé par System76 en Rust) en version finale 1.0.

On trouve également les pilotes NVIDIA 590. Rappelons que cette version a fait l’objet d’un avertissement par l’équipe d’Arch Linux, car elle abandonne le support des séries 900 et 1000 des GeForce. Le paquet étant installé automatiquement, les utilisateurs concernés devront le désinstaller et réactiver manuellement l’ancienne version.

Les nouvelles images ISO peuvent se récupérer depuis les sites d’Arch Linux et Manjaro. Comme indiqué, leur téléchargement n’est pas utile si vous avez un système fonctionnel et à jour.

Starlink va descendre l’orbite de plus de 4 000 de ses satellites

5 janvier 2026 à 08:42
Star links war
Starlink va descendre l’orbite de plus de 4 000 de ses satellites

Le fournisseur d’accès à Internet par satellite Starlink planifie de descendre de 70 km plus de 4 000 satellites de sa constellation. La direction de l’entreprise évoque la sécurité dans l’espace alors qu’elle en a récemment perdu un de façon incontrôlée. Elle avait pourtant déjà prévu cette manœuvre et demandé l’autorisation à la FCC depuis des mois.

« Starlink entame une reconfiguration importante de sa constellation de satellites afin d’améliorer la sécurité spatiale », a affirmé Michael Nicolls, le vice-président de l’ingénierie Starlink, dans un message publié sur le réseau social X.

Le responsable de la constellation explique que son entreprise va abaisser tous ses satellites (environ 4 400 satellites, précise-t-il) orbitant aux alentours de 550 km pour les faire rejoindre l’orbite de 480 km autour de la Terre. Il assure que cette opération est « étroitement coordonnée avec les autres opérateurs, les autorités réglementaires et l’USSPACECOM [le commandement interarmées états-unien des opérations spatiales] ». Starlink a, pour rappel, envoyé plus de 10 000 satellites en orbite, sur différentes orbites.

Améliorer la sécurité spatiale…

Michael Nicolls présente cette modification comme « une condensation des orbites Starlink » qui « améliorera la sécurité spatiale de plusieurs façons ». Son entreprise avait annoncé le 18 décembre dernier avoir perdu la communication avec l’un de ses satellites. « Le satellite est en grande partie intact, en chute libre, et va rentrer dans l’atmosphère terrestre et disparaître complètement dans les semaines à venir. La trajectoire actuelle du satellite le placera sous la Station spatiale internationale, ne présentant aucun risque pour le laboratoire orbital ou son équipage », affirmait Starlink.

« Le nombre de débris et de constellations de satellites prévues est nettement inférieur en dessous de 500 km, ce qui réduit la probabilité globale de collision », affirme Michael Nicolls pour justifier cette décision.

… Ou la place de Starlink ?

Et en effet, les places sont chères pour les constellations de satellites. Comme nous l’expliquait Gilles Brégnant (directeur général de l’ANFR) en 2023, « il n’y a que six places » dans la course mondiale. Et l’autre raison pour laquelle Starlink ferait cette manœuvre pourrait être de se réserver la meilleure. Elon Musk n’a pas pu s’empêcher d’expliquer que « le principal avantage d’une altitude plus basse est que le diamètre du faisceau est plus petit pour une taille d’antenne donnée, ce qui permet à Starlink de desservir une plus grande densité de clients ».

De fait, Starlink n’avait pas attendu de perdre un satellite pour anticiper cette manœuvre. Dès octobre 2024, l’entreprise demandait à la Federal Communications Commission (FCC) l’autorisation d’abaisser l’altitude des satellites « de 525 km, 530 km et 535 km à respectivement 480 km, 485 km et 475 km », comme l’avait repéré ArsTechnica.

Dans son argumentaire [PDF], Starlink expliquait que « cette reconfiguration entraînera une augmentation du nombre maximal potentiel de plans orbitaux et de satellites par plan pour toutes les couches sauf une à 475 km, le nombre total de satellites dans le système Gen2 ne dépassera pas 29 988 satellites, et la première tranche de satellites dans le système Gen2 restera de 7 500 satellites jusqu’à ce que la Commission autorise des déploiements au-delà de cette première tranche ».

Mais l’entreprise mettait en avant d’autres arguments que ceux de la sécurité spatiale : « Cette reconfiguration permettra à SpaceX d’offrir une meilleure couverture haut débit et une meilleure qualité de service aux consommateurs américains dans les zones à forte demande, et de répondre à l’évolution de la demande des consommateurs en déployant rapidement et de manière flexible des capacités aux États-Unis et dans le monde entier, là où elles sont le plus nécessaires ». En février dernier, la FCC a officiellement accepté cette demande [PDF].

Une conséquence incidente de cette opération pourrait être l’accentuation des traces laissées par la constellation sur les observations astronomiques, traces dont se plaignent déjà régulièrement les chercheurs en astrophysique.

☕️ « Flash ingérence » de la DGSI : les risques de l’IA et des réseaux sociaux pour les entreprises

5 janvier 2026 à 08:14

La Direction générale de la Sécurité intérieure (DGSI) publie depuis janvier 2025 des « Flash ingérence ». Il s’agit de présenter « des actions d’ingérence économique dont des sociétés françaises sont régulièrement victimes ».

Le 9ᵉ numéro date de décembre et porte sur « l’usage de l’intelligence artificielle dans le monde professionnel ». Le flash « évoque le cas de trois entreprises françaises ayant été confrontées à des dérives ou des comportements à risque associés ou permis par l’usage de l’IA ». Trois exemples sont donnés :

  • Des salariés d’une entreprise française stratégique ont utilisé un outil d’IA générative pour traduire des documents confidentiels
  • Une société délègue entièrement l’évaluation de ses partenaires commerciaux à un outil d’IA
  • Une entreprise française a été victime d’une tentative d’escroquerie par hypertrucage (deepfake) associant le visage et la voix de son dirigeant grâce à l’IA

Le numéro précédent portait sur les approches malveillantes sur les réseaux sociaux, avec là encore trois exemples :

  • Une start-up se voit proposer un investissement par un intermédiaire au profil douteux à la suite d’échanges sur un réseau social professionnel.
  • Un chercheur est approché sur un réseau social professionnel par un individu prétendant qu’une célébrité internationale souhaite financer ses travaux.
  • Après avoir créé un faux profil sur un réseau social professionnel, un individu parvient à obtenir des informations sensibles auprès de salariés d’une société.

Les flashs précédents portaient notamment sur l’absence de protection des logiciels à usage industriel, des incidents impliquant des chercheurs étrangers accueillis dans le cadre de programmes académiques officiels, sur le facteur humain (principal vecteur de compromission des systèmes d’information), sur l’utilisation d’outils numériques personnels à des fins professionnelles, sur les visites publiques de sites industriels, de sociétés ou de laboratoires, sur les risques d’atteinte à la réputation d’entreprises ou de laboratoires français évoluant à l’international, etc.

❌