↩ Accueil

Vue lecture

L'interface de Gemini va-t-elle enfin rattraper son retard sur ChatGPT ?

gemini-3

Google a entendu les critiques. Face à une expérience utilisateur jugée trop simple par rapport à ChatGPT, la firme prépare une refonte majeure de son application Gemini. Au programme : une nouvelle interface, des applications natives pour PC et Mac, et une organisation par "Projets" pour enfin rivaliser avec son concurrent.

  •  

Google Discover utilise une IA pour réécrire les titres, et c'est un désastre

✇GNT
Par :Sirius
Google Discover

Google expérimente le remplacement des titres originaux des articles de presse par des versions générées par IA dans son service Discover. Cette initiative, présentée comme un test d'interface, transforme des titres nuancés en affirmations sensationnalistes ou inexactes, posant un sérieux problème d'éthique et de désinformation, tout en privant les éditeurs du contrôle sur la présentation de leur travail.

  •  

« Pas de phishing. Pas d’ingénierie sociale», cette cyberattaque a mijoté 6 ans avant de lancer son assaut final

Dans un rapport publié le 1ᵉʳ décembre 2025, les chercheurs de l'entreprise de cybersécurité Koi reviennent sur une vaste campagne cybercriminelle menée par un groupe nommé ShadyPanda. L'une de leurs attaques, fondée sur des extensions de navigateur piégées, a été mise en place dès 2018.

  •  

Les BD et mangas se réinventent sur mobile au format vertical grâce à cette application

Vous pensiez que les BD et les mangas étaient juste des piles de papier dans votre bibliothèque ? Une nouvelle appli adapte le format classique sur mobile, et elle pourrait changer la donne pour la nouvelle génération qui ne jure que par le format vertical.
 [Lire la suite]
  •  

Pourquoi un cosmonaute russe a-t-il été exclu du vol Crew-12 ?

ISS 02

C'est un incident rare qui vient gripper la mécanique pourtant bien huilée des échanges d'équipages internationaux. Alors que la préparation suivait son cours en Californie, une rupture de protocole a contraint les agences spatiales à revoir la composition du prochain vol vers la Station Spatiale Internationale dans l'urgence.

  •  

Corée du Sud : 120 000 caméras personnelles hackées pour diffuser du contenu sexuel

Agressions augmentées
Corée du Sud : 120 000 caméras personnelles hackées pour diffuser du contenu sexuel

Trois personnes sont poursuivies par la police sud-coréenne pour avoir hacké plus de 120 000 caméras IP et s’être servi des flux vidéo récupérés pour produire et vendre des images à caractère sexuel.

Accusées d’avoir hacké plus de 120 000 caméras de foyers et d’entreprises et d’avoir utilisé les images récupérées pour fabriquer des contenus d’exploitation sexuelle, quatre personnes ont été arrêtées par la police sud-coréenne. Les contenus étaient ensuite diffusés sur des sites web à l’étranger.

Ce 30 novembre, la police a déclaré que les malfaiteurs avaient utilisé les vulnérabilités de caméras IP, notamment en recourant à des mots de passe simples, avec des répétitions de caractères ou des séries de chiffres consécutifs.

Création et diffusion de contenu d’exploitation sexuelle

Parmi les caméras touchées, certaines étaient installées dans des foyers privés, dans des salles de karaoké, dans un studio de pilates ou encore dans une clinique gynécologique, rapporte la BBC. Peu onéreux, ces objets sont utilisés partout sur la planète et présentent souvent des vulnérabilités.

Les auteurs du hack ont agi indépendamment les uns des autres, indique encore la police sud-coréenne. L’un est accusé d’avoir hacké 63 000 caméras, produit 545 vidéos d’exploitation sexuelle et d’avoir vendu l’équivalent de 35 millions de wons (plus de 20 000 euros) de ces contenus numériques. Un autre est poursuivi pour le hack de 70 000 caméras et la vente de 648 vidéos pour 18 millions de wons (plus de 10 500 euros). À eux deux, ils auraient produit 62 % des vidéos diffusées l’an dernier sur un site accusé de diffuser des captations illégales de flux issus de caméras IP.

L’un des suspects arrêtés est poursuivi pour avoir violé les lois locales en termes de hacking. Trois des quatre suspects risquent par ailleurs des poursuites pour la création et la vente des contenus à caractère sexuel, dont certaines impliquent des mineurs. Le quatrième a été relâché.

Un phénomène récurrent

Cachées dans les toilettes publiques, les hôtels, l’espace public… en Corée du Sud, les scandales provoqués par l’installation de caméras dans des lieux indus ou l’exploitation illégale des flux vidéo enregistrés se sont produits à répétition, ces dernières années, au point que les femmes descendent dans la rue pour protester contre le phénomène. Entre 2011 et 2022, la police a réalisé près de 50 000 arrestations liées à l’usage de caméras pour créer des contenus ouvertement sexuels, rapporte le New-York Times.

En 2024, le ministère coréen des Sciences alertait sur le fait que les caméras IP achetées hors du pays, et notamment en Chine, risquaient de présenter des failles de sécurité dans la mesure où elles ne remplissaient pas les obligations imposées par la loi coréenne.

Ce mardi, l’institution déclarait étudier une proposition de loi qui obligerait le blocage des caméras personnelles tant que leurs utilisateurs n’auraient pas mis en place un identifiant et un mot de passe complexes.

  •  

Chauffage : la pompe à chaleur de fenêtre est l’innovation star de l’hiver, elle cartonne à New York

Midea Pompe A Chaleur Fenetre 2025

Un an après Gradient, le géant chinois de l’électroménager Midea commercialise sa première pompe à chaleur de fenêtre. En plus d’une installation en moins d’une heure, cette alternative au radiateur et au chauffage au fioul/gaz plaît outre-Atlantique, où l’architecture des immeubles est propice au système.

  •  

« Une défaillance critique » : Google Antigravity efface entièrement le disque dur d’un utilisateur

À trop faire confiance aux agents IA, on risque d'y laisser des plumes. Ce photographe l'a appris à ses dépens lors d'une session de codage avec Google Antigravity.
 [Lire la suite]

Utilisez-vous Google News (Actualités en France) ? Vous pouvez suivre vos médias favoris. Suivez Frandroid sur Google News (et Numerama).

  •  

L'ascension de Linux : le géant Windows est-il vraiment en danger ?

Windows-Linux

Longtemps cantonné à une niche d'experts, Linux connaît une croissance spectaculaire sur les PC de bureau. Sa part de marché a triplé en quatre ans, largement alimentée par des utilisateurs fuyant un Windows jugé trop contraignant. Entre la fin du support de Windows 10 et l'essor du gaming, l'OS libre est devenu une alternative crédible pour des millions de personnes.

  •  

Actualité : Zéro carburant fossile : la France ouvre sa première aire 100 % dédiée aux voitures électriques

La RN 165, cette artère qui relie Nantes à Brest en traversant le Finistère, va connaître une transformation silencieuse mais significative. L'entreprise Fastned, spécialiste européen de la recharge rapide, a décroché l'appel d'offres lancé par la Direction interdépartementale des routes Ouest pour concevoir et exploiter une aire de service d'un genr...

  •  

La crise de la NAND franchit un nouveau cap, que Transcend prend de plein fouet !

Les regards en ce moment sont assez logiquement tournés principalement vers la montée vertigineuse des prix de la DRAM, mais il ne faut pas oublier que la NAND est également impactée par cette situation. Quand on regarde les tarifs actuels des SSD sur le marché, on pourrait avoir l'impression que to...

  •  

L’IA générative, « instrument de précision » pour la censure et la répression en Chine

La grande murAI
L’IA générative, « instrument de précision » pour la censure et la répression en Chine

Un rapport de l’Australian Strategic Policy Institute montre comment la Chine utilise l’IA générative pour transformer son système de contrôle de la population en un instrument encore plus précis pour renforcer la désinformation et la surveillance biométrique. Le marché de l’innovation créé par le pouvoir « permet aux entreprises de se conformer plus facilement et à moindre coût aux obligations de censure ».

L’utilisation de l’IA en Chine pour la surveillance de la population n’est pas nouvelle. Concernant l’IA générative, dès la sortie de DeepSeek-R1, on pouvait constater une censure au sujet de Taïwan, de la répression de la place de Tian’Anmen en 1989 ou de Xi Jinping, notamment.

Mais, selon l’Australian Strategic Policy Institute (ASPI, un think tank australien financé essentiellement par son gouvernement), la Chine s’appuie maintenant grandement sur les LLM pour automatiser la censure, renforcer la surveillance et réprimer préventivement la dissidence. Ainsi, elle peut transformer son système de contrôle étatique « en un instrument de précision permettant de gérer la population et de cibler des groupes à l’intérieur et à l’extérieur du pays ».

Dans l’introduction de son rapport [PDF], l’ASPI signale déjà l’importance du jeu sémantique des autorités chinoises qui utilisent le terme de « sureté de l’IA » (AI safety en anglais) non pas comme un concept de protection des utilisateurs contre les dangers ou les biais, mais pour s’assurer que l’IA serve les valeurs fondamentales censées être défendues par le régime et la stabilité politique de l’État.

Il ajoute que « depuis le plan de développement de l’intelligence artificielle de nouvelle génération (2017) du Conseil d’État, la politique chinoise insiste sur le fait que l’IA doit être « sûre, fiable et contrôlable ». Cette formulation place le développement de l’IA au cœur des priorités de l’État en matière de sécurité et de stabilité. La réglementation exige des fournisseurs qu’ils se conforment aux « valeurs socialistes fondamentales » et interdit les productions qui « incitent à la subversion du pouvoir de l’État » ou « nuisent à l’image nationale » ». Ainsi, tout le thème de la sécurité et de la sureté de l’IA est perçu, en Chine, comme l’obligation de protéger le régime.

Une censure par le silence la plupart du temps

C’est dans ce sens que s’inscrit la censure mise en place dans les modèles de langage développés en Chine. L’ASPI a poussé un peu plus loin les tests sur cette censure en interrogeant les différents modèles non pas sur des textes mais sur l’analyse d’images. Ainsi, le think tank a testé le modèle Qwen d’Alibaba et GLM de Z.ia, via le service en ligne de chacune des entreprises chinoises en tant que fournisseur d’inférence. L’ASPI explique que la forme la plus directe de censure est le refus de réponse.

Qwen n’a répondu qu’à moins de 30 % des prompts contenant ce que le think tank appelle des « images politiquement sensibles », qui vont d’une photo d’Henri Cartier-Bresson d’une délégation de travailleurs défilant dans la province du Gansu pendant le Grand Bond en avant utilisée par le New Yorker à celle d’une banderole de Black Lives Matter, en passant par l’illustration des mesures anti-covid en 2022 en Chine.

L’ASPI remarque notamment la différence du taux de réponses en comparant ces résultats avec les réponses de Qwen hébergé chez Novita, un fournisseur états-unien. On peut aussi voir que le modèle a tendance à moins répondre lorsqu’il est interrogé en chinois qu’en anglais.

Lorsque les modèles chinois répondent, leur description des images a tendance à mettre en sourdine certains éléments. Ainsi, pour décrire l’imagerie du massacre de la place Tian’Anmen, Qwen, GLM ou Ernie évoquent très peu la censure, la répression, les demandes de plus de démocratie et les détails factuels par rapport à ChatGPT et Gemini. Par contre, les modèles chinois vont avoir tendance à générer des justifications de la répression :

Les chercheurs de l’ASPI ont aussi constaté des différences parfois importantes dans les réponses données par les chatbots chinois entre les réponses faites lorsqu’ils sont utilisés en chinois ou en anglais : « Qwen a présenté la plus grande divergence interlinguistique, en particulier pour les images liées au génocide ouïghour, au Falun Gong [mouvement spirituel réprimé en Chine, ndlr] et à l’indépendance du Tibet ».

La censure dans les modèles est, selon eux, un mélange entre toutes ces techniques. L’ASPI résume dans un tableau les différents problèmes pour chaque modèle (un ✔ représente l’existence de censure dans les réponses du modèle) :

« La menace réside moins dans la propagande ouverte que dans l’effacement silencieux, lorsque la machine qui décrit la réalité commence à décider quelles parties de la réalité peuvent être vues », pointe l’ASPI.

Un marché concurrentiel de la censure

Cette censure est visible à travers les contenus en ligne, explique le think tank : « en Chine, l’IA effectue désormais une grande partie du travail de censure en ligne, analysant d’énormes volumes de contenu numérique, signalant les violations potentielles et supprimant les contenus interdits en quelques secondes. Cependant, le système dépend toujours des modérateurs de contenu pour fournir le jugement culturel et politique qui fait défaut aux algorithmes ».

Après avoir analysé la façon dont les « modérateurs de contenus » (ByteDance, Tencent et Baidu) utilisent l’IA générative pour effectuer cette tâche, le think tank explique que « grâce aux progrès réalisés dans le domaine de l’IA, le système chinois de censure en ligne a évolué vers un mécanisme de contrôle plus sophistiqué sur le plan technologique, mieux intégré sur le plan commercial et plus adaptable sur le plan politique ». L’ASPI affirme que l’IA n’a pas remplacé les censeurs humains, mais qu’elle a permis « un modèle hybride à la fois évolutif et capable de s’adapter à l’évolution des priorités ».

« Ce qui était au départ un régime réglementaire dirigé par le Parti et l’État s’est transformé en un marché concurrentiel, dans lequel les entreprises privées innovent et réalisent des profits en alignant leurs technologies sur les objectifs du Parti communiste chinois », explique le think tank :

« Dans le même temps, la main-d’œuvre humaine peu rémunérée qui entraine, supervise et perfectionne ces systèmes améliorés par l’IA reste indispensable, garantissant que les limites de la liberté d’expression évoluent en fonction des changements politiques ».

Dans son rapport, le think tank décrit aussi un système judiciaire chinois envahi par l’IA depuis l’arrivée des modèles de langage. « Un accusé appréhendé grâce à la surveillance basée sur l’IA et jugé dans une salle d’audience assistée par l’IA peut alors être condamné, sur recommandation d’un système d’IA, à une peine dans une « prison intelligente » (智慧监狱) dotée de nombreuses technologies intelligentes », explique le rapport.

  •