↩ Accueil

Vue lecture

GTA Vice City a l'air d'une version remasterisée grâce aux fans

Les moddeurs développent non seulement GTA 4, mais aussi GTA : Vice City, qui a bénéficié d'une version Nextgen Edition. Celle-ci apporte des améliorations graphiques significatives, rendant l'expérience de jeu dans Vice City encore plus agréable. La trilogie GTA a mal vieilli, et Grand Theft Auto : The Trilogy – The Definitive Edition n'a fait qu'empirer les choses. De ce fait, nous devons compter sur les joueurs pour redécouvrir les anciens opus de la série emblématique de Rockstar Games. Et si GTA 4 est souvent évoqué dans ce contexte, GTA : Vice City n'est pas tombé dans l'oubli et bénéficiera lui aussi d'une version next-gen. GTA : Vice City Nextgen Edition est une version remasterisée par des fans du jeu culte, créée par Revolution Team avec le moteur RAGE. Grâce au nouveau mod RTX Remix, elle offre une qualité encore supérieure. Bien que cette édition ne propose pas de véritable révolution graphique next-gen, elle introduit des changements visuels significatifs qui pourraient surprendre les joueurs de la version originale. Le mod RTX Remix, présenté dans une nouvelle vidéo de MxBenchmarkPC, utilise la technologie de lancer de rayons pour créer des effets lumineux plus réalistes. Une comparaison avant/après met clairement en évidence le gain de qualité significatif apporté par ce mod. En revanche, l'amélioration de la qualité d'image a un coût important en termes de performances. Le lancer de rayons, bien qu'améliorant considérablement la qualité du jeu, est très gourmand en ressources, ce qui entraîne des chutes de framerate même sur les ordinateurs équipés des processeurs les plus récents et les plus puissants, comme l'AMD Ryzen 7 9800X3D. Maintenir 60 images par seconde sur de telles machines représente un véritable défi. S-SaS_GVxSc Vice City Nextgen Edition avec le mod RTX Remix fonctionne en résolution 4K ou 1440p et prend en charge NVIDIA DLSS en modes Performance et Équilibré. Pour atteindre 60 images par seconde, la génération d'images et, bien sûr, le DLSS sont nécessaires. Il est important de noter que ce mod n'est pas disponible au téléchargement sur des sites populaires comme mod.db ; seuls certains utilisateurs peuvent donc en profiter. Les mods RTX Remix pour GTA 4 et Nextgen Edition pour Grand Theft Auto : Vice City illustrent parfaitement le talent des moddeurs, qui redonnent vie à des jeux classiques et les modernisent. Les développeurs de GTA The Trilogy – The Definitive Edition auraient beaucoup à apprendre d'eux. Le mod GTA 4 RTX Remix Compatibility, qui améliore les graphismes du jeu, est désormais accessible à tous. L'installation est désormais automatique, sans avoir à déplacer manuellement les fichiers. Ce mod est assez gourmand en ressources et nécessite une configuration matérielle puissante ; dans une vidéo, il était difficile de maintenir 60 images par seconde, même avec une RTX 5080. (Lire la suite)
  •  

Android XR : l’événement du 8 décembre mettra en lumière les casques, les lunettes et Gemini.

Le compte à rebours avant la présentation des nouvelles fonctionnalités dédiées à Android XR a commencé. Google a annoncé une diffusion en direct le 8 décembre , un moment crucial pour comprendre l' évolution de la plateforme destinée aux casques et lunettes connectées . La page teaser publiée sur le site web Android présente une série d' indices , accompagnée de la possibilité d'activer un rappel pour ce que Google appelle « les mises à jour les plus importantes de la plateforme XR ». L'émission en direct s'intitule « The Android Show » (une série populaire déjà diffusée par le passé), mais cette fois-ci en version XR. Elle proposera du contenu dédié aux lunettes , visières et solutions intermédiaires . La présentation durera trente minutes et débutera à 19h00 . Google accorde également une attention particulière au rôle de Gemini , qui est désormais de plus en plus au cœur de chacun de ses produits, et qui aura également son rôle à jouer dans ces nouveaux « casques », ce qui est finalement tout à fait justifié. La vidéo promotionnelle d'Android fait également un clin d'œil au Samsung Galaxy XR , déjà disponible sur le marché. La page met en avant les applications compatibles et montre le robot Android classique portant le casque. DcbbuOLosXE Les informations préliminaires laissent présager une mise à jour majeure des fonctionnalités des casques Android XR. Le Galaxy XR, lancé aux États-Unis en octobre, offre une expérience logicielle similaire à celle présentée par Google en décembre 2024. Google pourrait également consacrer de l'espace aux produits à venir d'autres fabricants, tels que le projet XREAL Aura , attendu l'année prochaine, mais il y aura probablement aussi le lancement, ou au moins la présentation, des premières lunettes avec Android XR, pour concurrencer les Ray-Ban Meta . En ce sens, Gemini Live devrait jouer un rôle central en tant que support vocal continu, nous permettant d'interagir avec lui en fonction de ce que les lunettes (c'est-à-dire nous) regardent. (Lire la suite)
  •  

Un milliard d'ordinateurs fonctionnent encore sous Windows 10 malgré la fin du support

Bien que le support standard de Windows 10 ait pris fin en octobre, le système reste remarquablement performant. Selon les données fournies par Dell, environ un milliard d'ordinateurs dans le monde fonctionnent encore sous Windows 10. Il semble que convaincre les utilisateurs de passer au système d'exploitation plus récent soit beaucoup plus difficile que prévu par Microsoft. Lors de la récente conférence sur les résultats de Dell, le PDG Jeffrey Clarke a révélé qu'environ 500 millions d'ordinateurs Windows ne répondent pas aux exigences matérielles de Windows 11. Par ailleurs, un demi-milliard d'appareils sont techniquement compatibles avec la mise à jour, mais leurs propriétaires ne l'ont pas encore effectuée. Pour les fabricants de matériel, ces deux groupes représentent des clients potentiels. D'après les dernières données de StatCounter, Windows 11 détient déjà 53,79 % du marché des ordinateurs de bureau, tandis que Windows 10 conserve une solide part de 42,62 %. Les versions plus anciennes ont quasiment disparu, et le légendaire Windows 7, par exemple, reste sous la barre des 3 %. Cela signifie que malgré la « fin d'une ère » officielle de Windows 10, le marché est de facto partagé entre les deux systèmes les plus récents de Microsoft. Une migration massive depuis Windows 10 n'a jamais été envisageable. Microsoft a lancé un programme de mises à jour de sécurité étendues qui fournit des correctifs critiques pendant une année supplémentaire. Les utilisateurs de OneDrive peuvent en bénéficier gratuitement, tandis que les autres doivent s'acquitter d'un paiement unique de 30 $ ou de 1 000 points Microsoft Rewards. Cela réduit considérablement la pression pour une migration immédiate. Même sans ce programme, il serait difficile d'espérer que des centaines de millions d'utilisateurs migrent simultanément vers le nouveau système. Certains minimisent les risques liés à l'absence de mises à jour, tandis que d'autres, par habitude, s'accrochent aux anciennes solutions. De plus, de nombreuses applications et services sont encore compatibles avec Windows 10, ce qui ne fait que renforcer l'idée que ce changement n'est pas urgent. Windows 11, lancé fin 2021, a suscité la controverse dès sa sortie en raison de ses exigences matérielles restrictives. L'obligation d'utiliser une puce TPM 2.0 et les limitations du processeur ont empêché la mise à jour officielle de nombreux ordinateurs pourtant performants. Pour beaucoup d'utilisateurs qui ne souhaitent pas recourir à des solutions de contournement non officielles (ou qui n'en ont pas connaissance), cela implique l'achat de nouveau matériel, une situation naturellement frustrante qui ralentit d'autant plus le processus de migration. (Lire la suite)
  •  

Windows 11 consomme de plus en plus de ressources : L'Explorateur Windows absorbe une quantité importante de RAM

Les mises à jour successives de Windows 11 ont davantage provoqué de stress que d'enthousiasme chez les utilisateurs, car elles introduisent généralement plus de problèmes qu'elles n'en résolvent. Il semble que nous soyons à nouveau confrontés à cette situation. Depuis le lancement de Windows 11, les utilisateurs critiquent régulièrement le nouvel Explorateur de fichiers, pointant du doigt ses performances nettement inférieures à celles de son homologue de Windows 10. Parmi les problèmes les plus fréquemment signalés figurent la lenteur au démarrage, les délais de recherche de fichiers et un temps de latence gênant lors de l'accès au menu contextuel (clic droit). Microsoft a finalement décidé de s'attaquer à ce problème, mais les premiers tests montrent que la modification engendre plus de problèmes que d'avantages. La « solution » de Microsoft s'est avérée être le préchargement de l'Explorateur Windows en mémoire vive au démarrage du système. Cette fonctionnalité était incluse dans la version d'évaluation 26220.7271 (KB5070307) de Windows 11, publiée la semaine dernière. L'objectif était de réduire le temps de démarrage des applications, mais en pratique, il s'agit davantage d'un artifice que d'une véritable amélioration des performances. L'objectif était de réduire le temps de démarrage de l'application, mais en pratique, il s'agit davantage d'une solution de contournement astucieuse que d'une véritable amélioration des performances. D'après les tests effectués par Windows Latest, le préchargement double la consommation mémoire de l'Explorateur, la faisant passer d'environ 35 Mo à 67 Mo, sans amélioration notable des performances. La navigation dans les dossiers reste lente et les menus contextuels présentent un délai de réponse perceptible. Au quotidien, il est difficile de constater un gain de vitesse significatif, mais celui-ci se fait au prix d'une consommation accrue des ressources système. L'origine des problèmes serait l'interface moderne WinUI/XAML, qui a remplacé les éléments classiques de Windows 10. Cette interface a certes introduit de nouvelles fonctionnalités, comme les onglets, mais a aussi considérablement dégradé les performances. Le résultat est paradoxal : l'outil de base pour la gestion des fichiers est désormais plus lent, malgré son design plus moderne. Bien que quelques dizaines de mégaoctets de RAM supplémentaires ne changent pas grand-chose sur les ordinateurs dotés de 16 Go ou plus, les propriétaires d'ordinateurs portables d'entrée de gamme pourraient ressentir l'impact de cette mise à niveau. Sur les systèmes aux ressources limitées, chaque processus supplémentaire réduit la mémoire disponible pour les autres applications, ce qui peut ralentir davantage l'ensemble du système. L'annonce de ce « correctif » ne suffira certainement pas à apaiser la communauté Windows 11. Nombre d'utilisateurs réclament depuis longtemps des corrections de bugs existants et des optimisations des composants système essentiels, plutôt que l'ajout de nouvelles fonctionnalités. Cette situation a été exacerbée par les récentes déclarations de Microsoft concernant sa vision d'un « système d'exploitation basé sur des agents », qui ont suscité de vifs débats sur l'avenir de Windows. Pour l'instant, cependant, le problème le plus urgent demeure : l'outil de travail principal reste plus lent qu'il ne le devrait. (Lire la suite)
  •  

Le Galaxy S26 pourrait coûter une fortune. Tout cela est dû au conflit chez Samsung.

Face à la pénurie de mémoire qui frappe tous les fabricants d'électronique, Samsung est confronté à un conflit interne entre ses deux principales divisions : les semi-conducteurs et les appareils mobiles. Selon certaines sources, la première refuserait de fournir à la seconde des quantités suffisantes de DRAM depuis un certain temps. La division mobile, responsable de la production des smartphones Galaxy, a été contrainte de passer des commandes trimestrielles de mémoire face à la flambée des prix de ces modules. Cette hausse, qui pénalise actuellement le secteur technologique, entraîne des augmentations de prix dans divers domaines, notamment les cartes graphiques, les ordinateurs portables et les mini-ordinateurs. L'objectif de la division semi-conducteurs est de maximiser ses profits, même au détriment des autres divisions de Samsung. Ce conflit interne, aussi inattendu soit-il, est pourtant bien réel. Les prix de la mémoire DRAM, notamment ceux de la LPDDR5X 12 Go, ont sensiblement augmenté, atteignant 70 dollars, soit plus du double du prix pratiqué début 2025, où elle s'élevait à seulement 33 dollars. Face à cette hausse, Samsung est contraint de revoir son mode d'approvisionnement pour son activité mobile. Au lieu d'un contrat d'approvisionnement annuel fixe, MX devra renégocier les conditions contractuelles chaque trimestre, ce qui pourrait impacter la production de smartphones. Cette situation pourrait entraîner une hausse de prix pour la future gamme Galaxy S26, dont la sortie est prévue début 2026. Bien que Samsung n'ait pas encore communiqué de prix officiel, l'augmentation des coûts de production de la mémoire pourrait inciter l'entreprise à revoir à la hausse le prix de son modèle phare. Toutefois, il est possible que même si le prix augmente quelques mois après la sortie du Galaxy S26, il baisse ensuite et devienne plus attractif qu'à son lancement. Face à ces défis, Samsung modifie son approche de la production de semi-conducteurs, en privilégiant les contrats les plus rentables, notamment dans un contexte de hausse des prix des mémoires DRAM et NAND. L'entreprise prévoit également d'accroître les bénéfices de ses fonderies d'ici 2027, ce qui implique des décisions difficiles, comme la réduction des livraisons de mémoire à sa division mobile au profit de contrats plus lucratifs. Samsung est actuellement confronté à la difficile tâche de concilier les profits de sa division semi-conducteurs et les besoins de ses autres divisions. Or, une telle décision pourrait avoir un impact sur les hausses de prix potentielles des smartphones, un sujet qui fait débat et qui ne se limite pas aux appareils du géant sud-coréen. Le scénario le plus pessimiste prévoit une augmentation du prix de tous les smartphones haut de gamme. De nombreuses voix s'élèvent pour affirmer que le déclin du marché de la mémoire entraînera des mesures radicales de la part de Qualcomm et MediaTek. Selon un scénario, seuls les smartphones haut de gamme bénéficieront de puces de pointe, tandis que les autres devront se contenter de processeurs moins onéreux. Qualcomm travaille sur deux versions du Snapdragon 8 Elite Gen 6, seule la version la plus performante étant compatible avec la mémoire LPDDR6. MediaTek, quant à lui, se concentrera sur une seule variante, le Dimensity 9600. Samsung a déjà pris des mesures concrètes en augmentant ses prix de mémoire jusqu'à 60 %. Par exemple, le prix d'une barrette de mémoire DDR5 de 32 Go est passé de 149 $ (en septembre 2025) à 239 $ en novembre. Les barrettes de 16 Go et 128 Go de RAM DDR5 coûtent environ 50 % plus cher, soit respectivement 135 $ et 194 $. Comme vous pouvez le constater, la crise bat son plein et on ignore quand elle prendra fin. Selon certaines estimations, elle pourrait durer jusqu'à deux ans. Le scénario le plus optimiste prévoit qu'elle ne durera que quelques mois de plus. (Lire la suite)
  •  

Sony corrige discrètement un problème critique de la PS5, les anciennes consoles sont menacées

Sony a apporté une modification de conception importante, bien qu'invisible, aux dernières versions de la PlayStation 5. Cette mise à jour concerne la couche de métal liquide utilisée pour dissiper la chaleur du SoC principal. Auparavant, la solution employée dans la PS5 Pro bénéficiait d'une optimisation qui éliminait tout risque de fuite de métal liquide. Cette même technologie est désormais intégrée aux PS5 et PS5 Slim. Le métal liquide est considéré comme une option plus efficace que les pâtes thermiques traditionnelles, mais son application exige une grande précision. Les premières versions de consoles présentaient des problèmes de déplacement du matériau thermique, entraînant un dysfonctionnement du système de refroidissement. La série CFI-2016 était la plus sensible à ce problème, les utilisateurs signalant une instabilité de la couche thermique après une utilisation prolongée. Sur la PS5 Pro, Sony a intégré des rainures plus profondes et une zone repensée autour du SoC, réduisant ainsi efficacement la migration du métal liquide . Cette modification s'est avérée être l'une des plus simples et des plus réussies de l'histoire de la gamme PS5. Les réparateurs de consoles confirment que ces mêmes modifications ont été intégrées aux derniers modèles PS5 CFI-2100 et CFI-2200. L'information a été révélée par un utilisateur reconnu pour ses analyses matérielles, publiant sous le pseudonyme @Modyfikator89. Il signale les lignes distinctives gravées dans la zone de la pâte thermique à base de métal liquide. La présence de rainures indique une version plus récente du modèle. La surface lisse suggère que l'appareil appartient à une série antérieure et n'a pas été mis à jour. Les propriétaires de modèles plus anciens n'ont pas à s'inquiéter de problèmes immédiats si la console fonctionne de manière stable et ne surchauffe pas. Cependant, les experts insistent sur le fait que les appareils présentant des signes de surchauffe devraient envisager de faire réappliquer la pâte thermique par un professionnel. Le remplacement par un particulier est déconseillé, car l'opération requiert des outils précis et une certaine expérience. Les personnes souhaitant acquérir un nouvel appareil doivent vérifier les références. Parmi les modèles disponibles à la vente, la variante CFI-2116 B01Y mérite une attention particulière, car il a été confirmé qu'elle utilise une version améliorée de pâte thermique à base de métal liquide. (Lire la suite)
  •  

La fin des batteries ? Des Allemands créent un générateur unique alimenté par l'eau.

Combien de fois avons-nous entendu parler de percées majeures dans le domaine des batteries, censées prolonger considérablement l'autonomie des appareils mobiles ? Pourtant, pour l'instant, aucune révolution n'a eu lieu, même si une autre est annoncée. Peut-être verrons-nous enfin une véritable avancée ? Une équipe de scientifiques allemands du DESY et de l'Université de technologie de Hambourg a créé un nouveau type de nanogénérateur triboélectrique qui produit de l'électricité grâce à la circulation d'eau dans des nanopores de silicone. Cette invention devrait constituer une avancée majeure vers l'alimentation de capteurs et d'autres dispositifs à faible consommation sans recourir aux batteries traditionnelles. Des scientifiques ont entrepris de vérifier si des matériaux simples comme le silicone et l'eau pouvaient être utilisés pour produire de l'électricité grâce à la pression mécanique et au mouvement des fluides. Ils ont finalement créé un générateur qui utilise l'eau circulant à travers des nanopores dans le silicone pour générer une charge électrique. L'élément central du dispositif est une structure en silicone qui combine trois propriétés : conductivité électrique, porosité nanométrique et hydrophobie (repoussant l'eau). Bien que le silicone soit largement utilisé en électronique, la combinaison de ces trois propriétés au sein d'une même structure représente une avancée technologique majeure. L'énergie est générée grâce au phénomène triboélectrique, qui est le même effet qui nous permet d'accumuler une charge électrique en marchant sur un tapis et de la libérer lorsque nous touchons un autre objet. Dans ce cas précis, l'eau circule à travers les nanopores du silicone, frottant contre ses parois et générant une charge électrique à sa surface. L'équipe a conçu le dispositif pour capter cette charge et la convertir en électricité, au lieu de la laisser se dissiper. Les résultats expérimentaux sont prometteurs, même s'il est important de rappeler qu'il ne s'agit encore que d'un prototype en phase de test. Lors des essais, le rendement de conversion d'énergie a atteint 9 %, ce qui représente le meilleur résultat obtenu pour ce type de générateur. Cela signifie qu'une part importante de l'énergie mécanique utilisée pour pomper l'eau à travers les pores du silicone est convertie en énergie électrique utilisable dans les appareils. D'après les chercheurs, cette technologie présente un avenir prometteur et pourrait être utilisée dans des systèmes de capteurs exploitant l'énergie directement de l'environnement. Parmi les applications potentielles, on peut citer la détection de la présence d'eau, la surveillance de la santé grâce aux textiles intelligents et les robots haptiques, où le toucher ou le mouvement génère le signal électrique nécessaire à leur fonctionnement. Cette technologie pourrait être intégrée aux modules de suspension des véhicules. Les chocs et vibrations inévitables en conduite pourraient générer de l'énergie pour alimenter des capteurs locaux surveillant l'état technique ou les composants liés à la sécurité. Surtout, cette technologie ne nécessite pas de solutions de pointe coûteuses et difficiles à trouver. Elle repose sur des matériaux courants comme le silicone et l'eau, moins chers que d'autres matériaux utilisés dans des applications similaires. De ce fait, elle constitue une solution non seulement innovante, mais aussi facile à déployer à grande échelle, sans avoir recours à des substances onéreuses et difficiles à se procurer. joetshqFAOM (Lire la suite)
  •  

L'iPhone Fold sera doté d'une nouvelle puce et d'écrans impressionnants.

Il avait été précédemment annoncé qu'Apple avait franchi une étape majeure dans le développement de l'iPhone Fold : les ingénieurs avaient conçu un modèle sans pli visible, ce qui place immédiatement l'appareil en net avantage sur ses concurrents. Ce problème crucial étant résolu, le smartphone est entré en préproduction et, selon les dernières informations, seuls quelques ajustements mineurs restent à effectuer, ce qui prendra quelques mois. L'iPhone Fold pourra alors passer à la production de masse, et les fournisseurs d'Apple sont également prêts : les composants nécessaires sont déjà en attente d'expédition vers les chaînes de montage. Apple prévoit de produire entre 7 et 9 millions d'iPhone Fold la première année, ce qui représentera environ 30 à 40 % des livraisons annuelles de smartphones pliables dans le monde. Ce segment stagne encore, car les concurrents d'Apple peinent à proposer des prix compétitifs, ce qui freine les utilisateurs dans leurs achats. Cependant, malgré un prix attendu de 2 399 $, la marque Apple et son écosystème inciteront sans aucun doute de nombreux acheteurs à délaisser les smartphones Android pliables et à attendre le premier iPhone pliable. Outre un design sans pliure, l'iPhone Fold devrait intégrer l'un des premiers processeurs Apple A20 Pro, le même que celui de la gamme iPhone 18. Il s'agira du premier processeur 2 nm de la marque. Ce processeur offrira un gain significatif en performances et en autonomie, des atouts essentiels pour un smartphone pliable. (Lire la suite)
  •  

Le piratage en 5 minutes du Gemini 3 Pro nous rappelle pourquoi la course à l'IA a une cause profonde.

Le lancement de Gemini 3 Pro soulève de nouvelles questions quant à la sécurité des modèles d'IA . Un groupe de chercheurs spécialisés a testé le système, et les résultats ont mis en évidence des failles critiques immédiates. La rapidité avec laquelle l'équipe a contourné les protections internes a démontré la fragilité du mécanisme censé empêcher les réponses dangereuses , même lorsque les demandes portent sur des sujets sensibles . Le groupe sud-coréen Aim Intelligence a réussi à débrider un Gemini 3 Pro en moins de cinq minutes , comme l'a rapporté le journal Maeil Business . L'objectif était de tester la robustesse des barrières de sécurité du modèle et de mesurer sa capacité à résister à des attaques ciblées . Une fois les protections contournées, le système a commencé à fournir des indications détaillées sur les sujets qui devaient être totalement bloqués . Les chercheurs ont qualifié ces réponses de contenu technique qui n'aurait jamais dû être rendu public. L'équipe a ensuite demandé au modèle de créer une présentation satirique sur son échec. Gemini a généré un document entier intitulé « Excusez l'idiot Gemini 3 » , signalant une fois de plus l'absence de filtrage adéquat dans ses réponses. L'expérience s'est poursuivie à l'aide d'outils de génération de code, qui ont produit une page web contenant des instructions relatives à des substances et matériaux dangereux . Une fois encore, le modèle a ignoré ses propres règles internes, contournant les restrictions censées empêcher la diffusion de contenus à risque. Aim Intelligence affirme que le problème n'est pas propre à cette plateforme. Selon les chercheurs, les modèles les plus récents utilisent des techniques d'obfuscation des réponses et des stratégies de contournement qui rendent inefficaces même les protections les plus élémentaires . Cette dynamique vient complexifier un tableau déjà préoccupant, où plusieurs assistants génératifs affichent des erreurs, des recommandations inexactes ou potentiellement dangereuses, comme le souligne également un rapport de l'association britannique Which ?. La facilité avec laquelle un modèle présenté comme supérieur à ses concurrents a été surpassé n'augure rien de bon pour la concurrence, ce qui soulève des problèmes qui n'ont manifestement pas été traités efficacement jusqu'à présent. Dans un contexte où les performances progressent plus vite que les contrôles , la réflexion la plus urgente concerne le rythme auquel l'industrie perfectionne ses outils de vérification : un domaine qui reste à la traîne par rapport à la progression vers des modèles toujours plus performants, dictée par la logique de la concurrence et du marché. (Lire la suite)
  •  

La publicité arrive sur ChatGPT : voici comment OpenAI se prépare à monétiser le chatbot le plus populaire au monde (pour le moment).

OpenAI teste en interne la publicité au sein de ChatGPT , une nouvelle fonctionnalité qui modifiera pour la première fois l'expérience utilisateur de l'application. Le sujet reste délicat, la plateforme s'étant jusqu'à présent abstenue de toute forme de promotion directe. La version bêta 1.2025.329 de l'application Android fait mention du nouveau système et évoque des fonctionnalités telles que les annonces de recherche et les annonces carrousel . Cette mention a suscité l'intérêt car elle laisse entrevoir un changement qui impactera l'utilisation de ce chatbot populaire . Cette fuite confirme qu'OpenAI a inséré des références explicites dans l'application à du contenu classé comme contenu de type « bazar » . Ce terme désigne des modules conçus pour promouvoir des produits ou des services dans les résultats de recherche. L'entreprise semble limiter dans un premier temps ces publicités à l' expérience de recherche uniquement , sans affecter les réponses classiques. Cette approche imite le fonctionnement des liens sponsorisés dans les moteurs de recherche traditionnels, mais elle est adaptée au format conversationnel de ChatGPT. Par ailleurs, Google travaille également sur quelque chose de similaire : jusqu’à présent, l’IA nous a seulement fait croire qu’elle nous avait libérés de la publicité. Cette nouvelle pèse sur le secteur car ChatGPT traite environ 2,5 milliards de requêtes par jour, avec une base d'utilisateurs qui, selon des estimations internes, atteint 800 millions d'utilisateurs hebdomadaires . C'est pourquoi nous sommes certains qu'OpenAI voudra procéder avec prudence, mais que la direction prise ne changera pas, compte tenu des opportunités de monétisation. La discussion est également liée à des rumeurs antérieures rapportées par d'autres sources, selon lesquelles OpenAI évaluerait des formes de promotion basées sur la mémoire conversationnelle , mais pour l'instant, il n'y a aucune trace de celles-ci, notamment parce qu'elles susciteraient certainement la controverse. ChatGPT s'est jusqu'à présent tenu à l'écart de toute promotion, mais l'adoption d'un système publicitaire dans les résultats de recherche soulèvera des questions quant à la gestion du contenu et à la transparence des résultats . Mais nous sommes certains que tout le monde les ignorera , car « l'IA doit continuer ». (Lire la suite)
  •  

Netflix supprime le bouton Cast des smartphones : voici ce qui se passe

La disparition du bouton Cast de l' application Netflix pour smartphone est un véritable coup de tonnerre. La plateforme de streaming a discrètement supprimé une fonctionnalité utilisée quotidiennement par ceux qui préféraient contrôler le contenu directement depuis leur téléphone, et qui existait depuis toujours. Ce changement concerne la plupart des téléviseurs récents et des appareils Google TV et Chromecast dotés d'une télécommande, Cast ne fonctionnant plus que sur les modèles plus anciens . Netflix a mis à jour sa page d'assistance pour indiquer qu'il n'est plus possible d'envoyer du contenu de son téléphone vers la plupart des téléviseurs et lecteurs multimédias. L'entreprise encourage l'utilisation de la télécommande pour naviguer dans l'application, une pratique que de nombreux utilisateurs contestent . Cette limitation s'applique à tous les abonnements . Il n'y a aucune différence entre les versions avec et sans publicité, ce qui supprime également l'exception identifiée il y a plusieurs mois pour la formule Standard avec publicité. Un représentant du service client aurait confirmé que la plateforme bloque la diffusion sur tout appareil doté de sa propre télécommande. La déclaration officielle affirme que cela améliore l'expérience utilisateur , mais la communauté ne semble pas partager cet avis. Seuls les anciens Chromecast sans télécommande et les téléviseurs avec Google Cast intégré restent compatibles . La diffusion depuis votre téléphone (ou d'autres appareils) est toujours possible sur ces modèles, mais pas avec les abonnements incluant de la publicité . La compatibilité reste donc limitée aux abonnements sans publicité et aux appareils désormais peu répandus. Les témoignages d'utilisateurs sur Reddit confirment ce comportement : les Chromecast traditionnels continuent d'apparaître comme destinations de diffusion, tandis que les modèles avec Google TV et les nouveaux Google TV Streamers ne sont plus reconnus par l'application. Dans un contexte où les fabricants tendent vers des interfaces de plus en plus centralisées dans les téléviseurs, ce choix réduit encore la flexibilité d'utilisation . N'oublions pas que chaque modification apportée par les services de streaming peut bouleverser nos habitudes , souvent sans prévenir. Le tout au nom d'une expérience utilisateur optimale , qui est précisément la première à être compromise par certains choix. (Lire la suite)
  •  

Test Tomb Raider : Definitive Edition (Nintendo Switch) - Un portage tardif sur la console hybride

Tomb Raider reprend donc sa route avec une aventure des aventures de Mademoiselle Croft sortie pour la première fois en 2013 sur PS3, Xbox 360 et PC, avant d'accueillir une édition Definitive l'année suivante sur PS4 et Xbox One. Les équipes de Crystal Dynamics avaient décidé de nous replonger dans le passé de l'aventurière. Encore peu expérimentée, l'héroïne se rend à l'Est du Japon dans l'espoir de retrouver un célèbre temple Yamatai. Pris dans une violente tempête, son bateau s'écrase sur une île mystérieuse, qui n'existe pas sur les cartes, où vit les Solarii, un peuple qui multiplie les sacrifices humains en hommage à leur reine disparue. Armée uniquement de son instinct et sa capacité de repousser les limites de l’endurance, Lara devra se battre afin de s'échapper de ce lieu démoniaque, jonché de pièges en tous genre mais également de mercenaires lourdement armés. La frêle jeune femme se métamorphosera au fil des minutes en une survivante aguerrie. Miss Croft verra se dresser contre elle une foule d'ennemis en tout genre, de pilleurs sans scrupule en passant par de vilaines bestioles. Il est vrai que fréquenter les cités antiques, cryptes et autres catacombes n'est pas une sinécure. Pour se remettre de ses émotions, on pourra profiter de feux de camp, où vous pourrez utiliser les points d'expériences glanés durant la partie. (Lire la suite)
  •  

L'essor des VPN au Royaume-Uni est la réponse (injuste) à une loi juste. En sera-t-il de même ici prochainement ?

La mise en œuvre de la loi sur la sécurité en ligne au Royaume-Uni a imposé des contrôles d'âge stricts aux utilisateurs accédant à des contenus jugés préjudiciables. L'objectif affiché est de limiter la consultation de contenus inappropriés pour les mineurs , mais les réactions des utilisateurs ont rapidement compliqué la situation. En quelques jours, l'utilisation des VPN a connu une croissance fulgurante , devenant l'outil privilégié pour contourner les blocages. La question est désormais portée devant le Parlement, alimentant un débat de plus en plus vif sur les conséquences techniques, éthiques et pratiques d'éventuelles restrictions des réseaux privés virtuels. Les nouvelles mesures de sécurité mises en place par l' OSA exigent une vérification approfondie, notamment par scanner facial et authentification par carte bancaire . L'introduction de ces systèmes a incité de nombreux utilisateurs à tenter des solutions de contournement, allant jusqu'à exploiter le mode photo de Death Stranding pour remplacer leur visage par celui d'avatars numériques. Ces stratégies furent éphémères . L'utilisation de VPN s'est avérée être la méthode la plus rapide et la plus efficace pour contourner l'obligation d'identification, car elle permet aux utilisateurs de masquer leur localisation géographique et d'accéder au contenu comme s'ils se trouvaient hors du Royaume-Uni. L'essor des services VPN a été immédiat. Cinq des dix applications gratuites les plus téléchargées sur iOS sont devenues des réseaux privés virtuels. Windscribe VPN a enregistré une forte hausse du nombre de nouveaux comptes, NordVPN a vu ses achats augmenter de 1 000 % et ProtonVPN a connu une augmentation de 1 800 % des nouvelles inscriptions au Royaume-Uni. Rachel de Souza , commissaire aux droits de l'enfant , a dénoncé l'accès indiscriminé aux VPN comme une faille qu'il convient de combler . Sa proposition vise à étendre le système de vérification de l'âge aux services de réseaux privés virtuels, les alignant ainsi sur les sites soumis aux restrictions de l'OSA. Le sujet est arrivé au Parlement, où certains amendements visent à inclure les VPN parmi les services soumis à des contrôles d'âge rigoureux. Ces discussions ont soulevé des questions de faisabilité technique et d'implications juridiques , compte tenu de la grande variété d'usages légitimes associés aux réseaux privés. Le rôle des VPN ne se limite pas à l'accès au contenu. Ces outils garantissent la sécurité des communications d'entreprise, la protection des sources journalistiques, la confidentialité des données des communautés vulnérables et bien d'autres services. Un blocage généralisé risquerait de compromettre toutes ces activités, ou du moins de les rendre inutilement difficiles . Les limitations techniques demeurent toutefois le principal obstacle. Bloquer les VPN via les fournisseurs d'accès à Internet est inefficace et pénaliserait à terme les utilisateurs qui les utilisent à des fins légitimes. De plus, il n'existe aucun moyen fiable de déterminer si une connexion VPN provient du Royaume-Uni ou non. Cette incertitude obligerait les sites concernés par l'OSA à choisir entre deux options irréalisables : restreindre l'accès à tous les utilisateurs britanniques ou bloquer toute personne utilisant un VPN, quelle que soit sa situation géographique. L'éventualité d'une interdiction totale des VPN soulève également des inquiétudes quant à d'importants effets secondaires . Une interdiction stricte pourrait inciter les jeunes à se tourner vers des services gratuits et peu fiables, les exposant ainsi à un risque accru de divulgation de leurs données personnelles. Parallèlement, des pratiques risquées telles que le partage direct de fichiers via des appareils physiques pourraient refaire surface . Le conflit entre protection de l'enfance et protection de la vie privée illustre la fragilité de l'équilibre entre sécurité et liberté en ligne, même pour des raisons pratiques. Le débat britannique démontre que privilégier les outils plutôt que les comportements aboutit souvent à des solutions inefficaces qui compliquent considérablement la situation , surtout lorsqu'il s'agit d'un enjeu aussi fondamental que la sécurité d'accès à Internet. (Lire la suite)
  •  

L'application Messages de Google modifie l'affichage des liens YouTube

Désormais, un aperçu vidéo s'affiche lorsque vous envoyez un lien vers la plateforme dans un message. Auparavant, le lien vidéo apparaissait en haut du message, suivi en dessous d'un aperçu de la vidéo, de son titre, de sa description et de l'adresse du site web. Après la modification, si l'on envoie uniquement un lien vidéo, l'URL disparaît du haut du message. L'aperçu vidéo est agrandi, le fond de la partie inférieure est plus clair et le texte est plus grand. Cependant, si l'on ajoute un commentaire avec le lien, les modifications visuelles restent visibles, mais l'URL demeure en haut, comme auparavant. Bien que cette modification vise à simplifier l'apparence des messages, elle risque de déplaire à de nombreux utilisateurs habitués à l'affichage standard des liens. La suppression de l'URL du lien YouTube dans l'application Messages risque de mécontenter certains utilisateurs Android. En effet, l'URL renvoyait auparavant directement vers le site web de YouTube, permettant ainsi d'ouvrir facilement l'application et de regarder la vidéo en plein écran. Dans la nouvelle interface, les vidéos ne peuvent être visionnées qu'en mode image dans l'image (PiP) au sein même de l'application Messages, ce qui ne conviendra peut-être pas à tous. Pour visionner une vidéo en plein écran, vous devez d'abord l'agrandir en mode PiP, puis passer votre téléphone en mode paysage. Si quelqu'un préfère l'affichage traditionnel des liens URL, il peut facilement désactiver le nouveau style. Pour ce faire, accédez aux paramètres de l'application Messages, sélectionnez « Aperçus automatiques », puis désactivez « Afficher tous les aperçus » ou « Afficher uniquement les aperçus des liens Web ». L'URL continuera ainsi d'apparaître à côté de la vidéo, comme auparavant. Ce changement est apparu dans la version bêta de Google Messages (20251121_00_RC01) et affecte actuellement les utilisateurs d'Android 16 QPR2 bêta 3.2. L'impossibilité d'ouvrir une vidéo directement dans l'application YouTube risque d'impacter négativement l'expérience utilisateur. Google devrait donc se demander si ce changement est pertinent. (Lire la suite)
  •  

Les États-Unis font chanter l'UE avec des allégements tarifaires en échange de modifications réglementaires. La France ne restera pas silencieuse.

Le président français Emmanuel Macron avertit que l'application des principales règles de l'UE concernant les plateformes numériques est lente en raison des pressions croissantes des États-Unis. Il affirme que les enquêtes menées depuis des années en vertu de la loi sur les services numériques (DSA) et de la loi sur les marchés numériques (DMA) se sont enlisées dans un conflit transatlantique plus large portant sur le commerce et la souveraineté technologique. Macron a déclaré que certaines affaires liées à la loi sur les services numériques (DSA) visant les grandes plateformes internet étaient bloquées à la Commission européenne depuis environ deux ans. Il a jugé ce délai trop long pour une législation censée marquer une rupture décisive avec l'absence actuelle de contrôle des géants du numérique. Le président français a présenté le problème non pas comme un simple retard de procédure, mais comme un affrontement stratégique, affirmant que l'UE menait une « bataille géopolitique » pour imposer des règles de contenu et de concurrence aux plateformes détenues majoritairement par des entreprises américaines. Le principal grief de Macron est que de nombreux fonctionnaires de la Commission européenne et des capitales des États membres hésitent à appliquer la réglementation avec fermeté, craignant une « offensive américaine » contre le nouveau cadre réglementaire de l'UE. Le président a souligné que cette résistance actuelle à une application stricte émane des entités et plateformes américaines elles-mêmes, qui « ne veulent pas que nous les dérangions ». L'intervention de Macron à ce moment précis n'est pas fortuite. Ses propos interviennent à la fin d'une semaine durant laquelle des responsables américains ont de nouveau tenté de conditionner la réduction des droits de douane sur l'acier et l'aluminium à des concessions sur la réglementation technologique de l'UE. Le secrétaire américain au Commerce, Howard Lutnick, a exhorté lundi les ministres européens à « reconsidérer » l'accord sur les services de distribution (DSA) et l'accord sur les marchés de matières premières (DMA) en échange d'une baisse des droits de douane sur les métaux. La commissaire européenne à la technologie, Henna Virkkunen, et la commissaire à la concurrence, Teresa Ribera, ont rejeté l'idée que l'UE puisse assouplir ou ralentir l'application des règles numériques en réponse aux demandes américaines. Washington a même été accusé de « chantage » en conditionnant les allégements tarifaires à des modifications des règles numériques. Dans le même temps, la Commission européenne subit la pression des députés européens, où le groupe des Socialistes et Démocrates (SDD) mène une initiative visant à créer une commission d'enquête officielle chargée d'examiner comment elle applique la loi sur la sécurité des données (DSA) et la loi sur la gestion des données (DMA). La Commission défend son approche, la qualifiant de méthodique et non d'hésitante. Son porte-parole, Thomas Regnier, a répondu à Emmanuel Macron, soulignant que Bruxelles « soutient pleinement » ses règles numériques et les applique activement. La Commission a ouvert des enquêtes au titre de la loi sur les services numériques (DSA) concernant plusieurs plateformes importantes, dont X, Meta, AliExpress, Temu et TikTok (qui fera l'objet d' une surveillance active ). Les sanctions potentielles sont considérables : une amende équivalant à 6 % du chiffre d'affaires mondial représenterait des pertes de plusieurs milliards de dollars pour les plus grandes entreprises. Toutefois, malgré les outils juridiques à leur disposition, aucune sanction n'a encore été infligée dans le cadre de ces enquêtes. (Lire la suite)
  •  

Microsoft modifie la façon dont les applications sont mises à jour dans Windows 11

Une fonctionnalité a été découverte dans la dernière version test de Windows 11 : la possibilité de mettre à jour les applications directement depuis Windows Update. Cette modification, déjà mentionnée, n’est disponible que depuis peu dans cette version préliminaire. Jusqu'à présent, les mises à jour des applications sous Windows 11 s'effectuaient via le Microsoft Store. Cependant, cette procédure n'est pas toujours connue, car la plateforme n'affiche aucune notification. Un changement est prévu pour permettre la mise à jour des applications en dehors du Microsoft Store. Cette fonctionnalité a déjà été repérée dans la version bêta de Windows 11, accessible aux membres du programme Windows Insider. Dans les Paramètres, sous Applications, une nouvelle option « Mises à jour des applications » est apparue, permettant de rechercher des mises à jour pour les programmes téléchargés via le Microsoft Store. Cependant, cet outil ne fonctionne pas encore correctement. Cliquer sur le bouton ne produit aucun effet : aucun correctif n’est téléchargé et le système indique seulement qu’une recherche de mises à jour a été effectuée. Il est clair que cette fonctionnalité est encore en développement et sera déployée dans les prochaines versions de Windows 11. Est-ce un pas dans la bonne direction ? Certains utilisateurs qui déplorent l’absence d’un point d’accès unique pour gérer toutes les mises à jour, système et applications, trouveront cette solution utile. Il est important de noter, cependant, que ce changement n’affectera pas la mise à jour des applications. La plupart des applications resteront disponibles via le Microsoft Store. Microsoft a constaté que le processus de mise à jour des applications sous Windows peut s'avérer problématique, notamment pour les entreprises utilisant des outils de gestion des mises à jour propriétaires. Le constructeur entend y remédier en développant une plateforme permettant de gérer intelligemment toutes les mises à jour, qu'il s'agisse des applications ou des pilotes, en parallèle des mises à jour Windows elles-mêmes. (Lire la suite)
  •  

La Suisse demande l'abandon de Microsoft 365 et des services Google. Les États-Unis peuvent tout espionner.

La conférence suisse des délégués à la protection des données, Privatim, a publié une résolution appelant les institutions publiques nationales à abandonner les grands services cloud et les plateformes SaaS. Ce document a attiré l'attention du gouvernement, du secteur informatique et des experts en cybersécurité car il remet en cause les fondements de la politique de numérisation de l'État, qui s'est de plus en plus appuyée sur des fournisseurs de logiciels internationaux ces dernières années. Les auteurs de la résolution soulignent que l'administration publique est responsable de données extrêmement sensibles et doit en contrôler pleinement la diffusion. La migration de plus en plus rapide vers le cloud a soulevé des inquiétudes quant à la sécurité, au contrôle et au respect de la réglementation nationale. Le point le plus critique de cette position concerne l'architecture de la plupart des services SaaS modernes. Privatim souligne que les solutions dominantes n'offrent toujours pas un chiffrement de bout en bout complet, ne s'empêchant ainsi pas d'accéder aux données stockées en clair. Concrètement, cela signifie que les institutions gouvernementales ne peuvent pas évaluer précisément le traitement des informations ni identifier les personnes y ayant accès à chaque étape du processus. Le problème est aggravé par le fait que les principaux fournisseurs mondiaux, tels que Microsoft, Amazon et Google, gèrent des chaînes de sous-traitance vastes et complexes. Privatim souligne que la complexité de ces structures empêche une transparence totale. De plus, des modifications unilatérales des conditions générales de service, sur lesquelles les institutions publiques n'ont aucun contrôle, sont également possibles. Microsoft 365 a été particulièrement critiqué et cité dans la résolution comme exemple de modèle SaaS ne répondant pas aux exigences relatives aux données les plus sensibles. Un autre sujet de tension concerne le droit international, et plus particulièrement le Cloud Act américain. En vertu de cette loi, les fournisseurs américains peuvent être contraints de transmettre des données clients aux autorités policières américaines, même si ces données sont hébergées sur des serveurs situés hors des États-Unis. Privatim souligne que ce type de menace est incompatible avec la réglementation suisse sur le secret professionnel. Les institutions soumises à des obligations de confidentialité doivent mettre en place des systèmes empêchant tout accès non autorisé, or, dans le cas du cloud, cette garantie fait souvent défaut. Des doutes subsistent également quant à la possibilité de faire appel à des prestataires externes comme assistants d'entités tenues au secret professionnel, la responsabilité pénale s'étendant également aux personnes auxiliaires. La résolution suggère que les administrations publiques n'autorisent l'utilisation des services cloud que si elles chiffrent elles-mêmes les données et empêchent le fournisseur d'accéder à la clé de chiffrement. Seul ce modèle permet à l'institution de conserver une influence déterminante sur la sécurité et l'ampleur des violations potentielles. Le document n'exclut pas la migration vers le cloud, mais souligne qu'elle doit être planifiée et fondée sur le maintien de la souveraineté des données. Cette résolution n'a pas force de loi, mais constitue un signal susceptible d'influencer significativement la politique informatique du secteur public. De nombreux cantons analysent d'ores et déjà leur dépendance vis-à-vis des fournisseurs internationaux et envisagent des modifications de leurs stratégies de numérisation. (Lire la suite)
  •  

La sécurité des chatbots IA peut être facilement contournée grâce à… la poésie.

Il s'avère que contourner les chatbots basés sur l'IA ne requiert ni techniques complexes ni connaissances spécialisées ; un peu de créativité et d'expression poétique suffisent. C'est du moins la conclusion d'une étude publiée par Icaro Lab sous le titre provocateur « La poésie adverse comme mécanisme universel de contournement en un seul tour dans les grands modèles de langage ». D'après les auteurs de l'étude, des commandes correctement formulées sous forme de poésie agissent comme un « opérateur de jailbreak universel ». Concrètement, cela signifie que la forme poétique des invites permet aux utilisateurs de contourner les mécanismes de filtrage des contenus jugés dangereux ou interdits. Lors des tests, cette méthode a atteint un taux de réussite moyen de 62 %. Ce résultat est remarquable, d'autant plus que les chercheurs ont tenté d'amener les modèles à générer des contenus strictement interdits, notamment des informations relatives à la production d'armes nucléaires, à la maltraitance infantile et aux conseils sur l'automutilation et le suicide. L'expérience a porté sur un large éventail de modèles de langage populaires, notamment les solutions d'OpenAI (GPT), de Google (Gemini), d'Anthropic (Claude), ainsi que les systèmes de DeepSeek et de MistralAI. Les résultats ont révélé des différences significatives dans la résilience des différentes plateformes. Gemini, DeepSeek et MistralAI se sont avérés les plus vulnérables aux « attaques poétiques », ces modèles générant relativement souvent des réponses dépassant les limites autorisées. À l'inverse, les modèles les plus robustes étaient les dernières versions de GPT-5 d'OpenAI et Claude Haiku 4.5, qui n'ont diffusé que très rarement du contenu interdit. Il est intéressant de noter que les auteurs de l'étude ont choisi de ne pas publier d'exemples complets des poèmes utilisés pour contourner la sécurité. Dans une interview accordée à Wired, ils ont admis qu'ils étaient « trop dangereux pour être diffusés publiquement ». Le rapport ne comprenait qu'un échantillon simplifié, « atténué », afin d'illustrer le mécanisme de la méthode. Les chercheurs soulignent que le processus de contournement des verrous est en réalité « plus simple qu'on ne le pense », ce qui explique leur prudence quant à la divulgation de détails. (Lire la suite)
  •  

Samsung va bientôt présenter une mémoire NAND unique.

Le développement de mémoires DRAM et NAND de pointe est depuis longtemps le point fort de Samsung, et selon des sources internes, l'entreprise prévoit de dévoiler la nouvelle LPDDR6 au CES l'année prochaine. Mais une autre réalisation est encore plus significative : le géant coréen a créé un type de mémoire flash NAND fondamentalement nouveau qui réduit la consommation d'énergie de 96 %. Face à l'augmentation rapide des besoins en mémoire des centres de données d'IA, des smartphones et de nombreux autres appareils, cette technologie devient particulièrement importante, car l'augmentation de la capacité et de la vitesse entraîne également une augmentation de la consommation d'énergie. L'avantage de cette nouvelle mémoire réside dans le fait que le blocage des courants inférieurs à la tension de seuil réduit considérablement le courant de fuite, améliorant ainsi l'efficacité énergétique. La mémoire NAND utilise une architecture en chaîne de cellules connectées en série ; plus le nombre de cellules est élevé, plus la consommation d'énergie est importante, car les fuites persistent même lorsque l'élément est hors tension. De plus, à mesure que la structure multicouche s'épaissit, la consommation d'énergie des opérations de lecture et d'écriture augmente. Samsung a résolu ce problème grâce à un mécanisme d'ingénierie extrêmement complexe qui permet une faible consommation d'énergie tout en maintenant des débits de transfert de données élevés. Bien entendu, l'entreprise dévoilera davantage de détails lors de la présentation officielle, mais pour l'instant, cette technologie s'annonce très prometteuse, notamment pour les smartphones et autres appareils électroniques mobiles. (Lire la suite)
  •  

Intel produira des processeurs pour Apple.

Intel Foundry semble sur le point de réaliser une percée majeure avec sa technologie de gravure 18A-P. Un analyste réputé prédit qu'Apple compte utiliser cette architecture pour ses puces les plus abordables, destinées aux MacBook et iPad. Intel collabore activement avec des entreprises tierces au sein de sa division fonderie, en accordant une importance particulière aux procédés comme le 18A et ses dérivés. Plusieurs clients externes testent déjà des kits d'ingénierie 18A, et selon Ming-Chi Kuo, Apple pourrait devenir un client clé. D'après lui, la firme de Cupertino s'oriente effectivement vers l'intégration du 18A-P dans ses futurs processeurs pour les modèles MacBook et iPad d'entrée de gamme. Les premières versions des kits de développement pour ce procédé sont très prometteuses. Selon les plans actuels, Intel devrait commencer à livrer le processeur d'entrée de gamme de la série M, basé sur le procédé 18AP, dès le deuxième ou le troisième trimestre 2027. Cependant, la date de lancement effective dépendra de l'avancement du développement final de la puce. Il est important de noter que le partenariat externe d'Apple avec Intel n'est pas encore totalement confirmé ; la décision dépendra des résultats des tests de phase finale. Par ailleurs, il s'agit d'une avancée significative pour une entreprise qui a perdu de nombreux clients importants et a été contrainte de licencier des dizaines de milliers d'employés au cours des deux dernières années. (Lire la suite)
  •  

Test Consume Me (PC) - Replongez dans votre adolescence

Consume Me est un titre indépendant qui réussit à fusionner avec brio une narration intense et un gameplay innovant, nous plongeant dans une exploration des difficultés de l'adolescence avec une approche personnelle et originale. Le jeu rappelle par certains aspects la profondeur émotionnelle de titres comme Night in the Woods ou Florence , mais grâce à un système de mini-jeux axés sur les régimes et la gestion du temps, créant une expérience de jeu qui mêle réflexion et divertissement. L'histoire de Consume Me nous plonge dans le quotidien de Jenny, une jeune fille confrontée aux problématiques à la fois normales et complexes de l'adolescence, mais à travers un prisme très personnel : son rapport à la culture des régimes et à son image corporelle. Le jeu explore avec une grande sensibilité et un réalisme saisissant les pressions sociales qui poussent Jenny à contrôler son corps et son alimentation de manière obsessionnelle, abordant des sujets délicats avec un équilibre qui évite tout pathétique ou sensationnaliste. Malgré son caractère autobiographique, le récit est mené à un rythme qui maintient une forte tension émotionnelle sans jamais tomber dans l'excès, nous permettant de nous identifier à elle sans pour autant dévoiler des détails superflus qui pourraient gâcher l'expérience des nouveaux joueurs. L'intrigue se déroule à travers des moments clés de la vie de Jenny, capturant avec authenticité ses relations familiales, scolaires et amicales, toutes marquées par les malentendus et les difficultés de communication propres à cette période de l'adolescence. Ces éléments composent un portrait réaliste de sa journée type, ponctuée par les devoirs, les relations sociales et, surtout, une obsession constante pour son alimentation et son image corporelle. L'intrigue n'est pas linéaire, mais offre de multiples niveaux d'interprétation qui enrichissent l'expérience, faisant du joueur un acteur à part entière d'un processus de développement personnel dynamique et imprévisible. Le fil narratif final se concentre sur le parcours de Jenny vers la croissance et l'acceptation de soi , un thème récurrent tout au long du jeu, sans solutions faciles ni fins évidentes. Ses choix et ses dernières paroles reflètent les émotions complexes d'une adolescente cherchant sa place dans un monde où le jugement extérieur semble omniprésent. Le jeu invite le joueur à dépasser les apparences, à se confronter à des problématiques psychologiques profondes sans jamais le forcer, conservant une tonalité parfois sombre, mais aussi porteuse d'espoir. Nous confirmons la présence d'une localisation française, essentielle pour une immersion totale dans l'histoire. (Lire la suite)
  •  

Un drone d'Amazon a paralysé Internet au Texas. Tout a été filmé !

Amazon a une nouvelle fois démontré que sa technologie de livraison par drones nécessite encore des améliorations. Cette fois-ci, il ne s'agissait pas d'une panne du cloud AWS, mais de dégâts matériels. Un drone de l'entreprise a sectionné un câble internet à Waco, au Texas, ce qui a nécessité l'intervention de la Federal Aviation Administration (FAA). L'incident s'est produit le 18 novembre vers 12h45. Le drone MK30, qui venait de terminer une livraison, s'est pris dans un câble internet suspendu. Les images de la scène montrent le drone sectionnant le fin câble en tentant de se dégager et de reprendre son vol. Amazon explique qu'au contact du câble, un système de sécurité automatique s'est activé, provoquant un atterrissage immédiat. L'entreprise assure qu'aucun blessé n'est à déplorer et que les interruptions de connexion internet n'ont pas été généralisées. Le géant a pris en charge les frais de réparation du câble et a présenté ses excuses au client. La collision serait due au diamètre insuffisant du câble, qui n'a pas pu être détecté par les systèmes du drone. Voilà un nouvel incident impliquant des drones pour l'entreprise. Un mois auparavant, deux MK30 étaient entrés en collision avec une grue en Arizona, provoquant un incendie et d'importants dégâts. Suite à cet accident, Amazon avait suspendu ses livraisons par drone dans la région ouest de Phoenix pendant deux jours. Le développement du MK30 a nécessité près de deux ans. Il est équipé de systèmes de détection d'obstacles avancés capables d'identifier les personnes, les animaux et les objets. On peut se demander comment des appareils dotés d'une telle technologie ont pu percuter une grue sans détecter le câble internet. Amazon affirme que ses nouveaux drones sont plus silencieux que leurs prédécesseurs, ont une autonomie deux fois supérieure et sont dotés de dispositifs de sécurité innovants (pas étonnant que l'entreprise procède à des licenciements ). La société demande à ses clients de prévoir un espace libre d'environ trois mètres sur leur terrain pour permettre un atterrissage en toute sécurité… si l'appareil y parvient. 089CBuGTkcY (Lire la suite)
  •  

NVIDIA cesse la production de ses puces mémoire pour GPU. Face à une telle crise, chacun fait de même.

Le marché mondial des semi-conducteurs est confronté à une pénurie de mémoire sans précédent, ce qui impacte les fabricants de cartes graphiques. Les principaux fournisseurs réorientent leurs ressources vers les entreprises spécialisées en intelligence artificielle, et le secteur de la distribution subit des ruptures d'approvisionnement de plus en plus longues. Naturellement, Nvidia s'est retrouvée au cœur de ces événements inquiétants, sa position dominante sur le marché des accélérateurs d'IA ayant contribué à l'aggravation de la crise. Selon les informations publiées sur le profil Weibo de Golden Pig Upgrade, l'entreprise a cessé de proposer des modules VRAM avec les GPU vendus à ses partenaires spécialisés en IA. Nvidia ne produit pas sa propre mémoire. Celle-ci est fabriquée dans les usines de Samsung, Micron et SK Hynix, puis expédiée aux partenaires d'intégration de puces (AIB) ou à Nvidia elle-même, qui commercialise des cartes graphiques avec modules de mémoire depuis de nombreuses générations de GPU. Selon les informations divulguées, le fabricant aurait abandonné ce modèle car la disponibilité de mémoire haute performance est actuellement insuffisante pour maintenir sa politique actuelle. Le secteur de l'intelligence artificielle a accaparé la majeure partie des lignes de production disponibles, et la demande en mémoire GDDR a connu une croissance exponentielle, hors de portée pour le marché grand public. Les grandes entreprises de systèmes d'information client (AIB) entretiennent des relations de longue date avec les fabricants de mémoire et disposent de leurs propres procédures de contrôle des paramètres, ce qui leur permet d'acheter de manière indépendante des modules conformes aux directives de Nvidia. Pour elles, ce changement se traduit simplement par un transfert de certaines responsabilités de Nvidia vers leurs services d'achats internes. La situation est différente pour les partenaires plus petits, qui ne disposent pas de contacts similaires ni d'un volume d'achat comparable. Pour eux, l'accès à la mémoire de nouvelle génération pourrait devenir un obstacle majeur. Les marges dans ce segment étaient déjà faibles, et une nouvelle hausse des prix de la mémoire pourrait entraîner la faillite même des plus petites entreprises. Le marché est encore sous le choc de la décision d'EVGA de se retirer de son partenariat avec Nvidia suite à une série de désaccords sur les termes de cet accord. L'entreprise a invoqué des pressions croissantes et des problèmes de communication. Les informations actuelles pourraient susciter des inquiétudes similaires chez d'autres fabricants de cartes graphiques, qui ont déjà fait état de difficultés à maintenir leur rentabilité. Leur confier l'entière responsabilité de l'approvisionnement en mémoire renforce encore les barrières à l'entrée et consolide la position des plus grandes entreprises. La crise est due à la prédominance des commandes du secteur de l'intelligence artificielle. Les modules GDDR7 et les solutions associées sont actuellement destinés principalement aux accélérateurs de serveurs et aux stations d'entraînement de modèles de langage. Les fabricants de mémoire retardent le lancement de nouvelles séries, car toutes les lignes de production disponibles sont saturées par les commandes du segment de l'IA. Pour le marché grand public, cela se traduit par une disponibilité des modules de plus en plus limitée et des délais de livraison importants. La fuite sur Weibo n'a pas été officiellement confirmée. Néanmoins, un scénario où Nvidia cesserait de proposer de la VRAM avec ses GPU semble plausible. L'entreprise pourrait voir ses marges diminuer sur les ventes de modules mémoire, mais dans le contexte actuel, le service au segment de l'IA est prioritaire. Si la crise de production perdure, le modèle de vente groupée s'avérera trop lourd pour la chaîne d'approvisionnement. (Lire la suite)
  •  

Le processeur chinois a surpassé le Core i7. Les résultats des tests sont incroyables.

Le fabricant chinois Thunderobot a dévoilé un ordinateur susceptible de faire sensation dans le secteur. Cette nouvelle plateforme de jeu utilise le processeur Hygon C86-4G, et les premiers résultats des tests suggèrent que le système chinois est capable de rivaliser avec les processeurs Intel Core i7 Raptor Lake. Si les performances des processeurs chinois, comparables à celles des modèles haut de gamme occidentaux, sont confirmées, l'écosystème matériel du pays entre dans une nouvelle ère d'autonomie technologique. Thunderobot fait la démonstration de son PC Windows 11, en présentant des jeux comme Valorant et Black Myth: Wukong. Des captures d'écran de CPU-Z révèlent que le processeur Hygon C86-4G, nom de code OPN 3490, offre 16 cœurs et 32 ​​threads. Il dispose également de 32 Mo de cache L3 et d'une fréquence de base de 2,8 GHz. L'autre donnée, un TDP de 55 535 W, est surprenante. Ce résultat provient probablement d'une erreur de lecture du logiciel, ce qui souligne que les spécifications réelles du processeur restent incertaines. Cet ordinateur prend en charge la mémoire DDR5, dispose de connecteurs PCIe 5.0 et utilise un système de refroidissement liquide en circuit fermé. Il est équipé d'un dissipateur thermique en cuivre et d'une pâte thermique à base d'indium. Les images officielles présentent plusieurs cartes graphiques Nvidia RTX, suggérant différentes configurations matérielles destinées aux utilisateurs ayant des besoins de performance variés. L'analyse des résultats publiés par Thunderobot révèle un tableau complexe des capacités du processeur. Ses performances monocœur sont inférieures à celles de l'Intel Core i7-12700, sorti il ​​y a trois ans. En revanche, ses performances multicœurs sont bien meilleures : le C86-4G surpasse l'Intel Core i7-13700 pour les opérations sur les entiers et les nombres à virgule flottante. Lors des tests sur les entiers, il surpasse également le Core i7-14700. Il convient toutefois de rappeler que la comparaison a également utilisé le benchmark SPEC CPU 2006, qui n'est plus utilisé commercialement depuis 2018. Le second benchmark, V-Ray, démontre une réelle valeur ajoutée dans les applications de rendu ; ce résultat peut donc être considéré comme plus représentatif. Les médias chinois présentent le C86-4G comme une puce développée localement. Cependant, l'opinion générale en Occident est que ce processeur est dérivé de la technologie AMD Zen sous licence, dont Hygon détient les droits en Chine. L'entreprise collabore de longue date avec AMD et a déjà commercialisé des puces basées sur cette architecture, notamment la puce serveur C86-5G. Thunderobot n'a pas encore dévoilé le prix ni la date de sortie du Black Warrior Hunter Pro, mais on peut supposer sans risque que le fabricant visera un prix compétitif par rapport aux plateformes Intel et AMD. Ce matériel restera très probablement exclusif au marché chinois ; il est donc peu probable qu'il soit disponible à la vente pour les consommateurs du reste du monde. (Lire la suite)
  •