À quelques jours de sa sortie très attendue, Team Cherry a révélé le prix de Hollow Knight: Silksong, et c'est une véritable surprise. Le jeu sera vendu 19,99 €, un tarif extrêmement agressif qui prend à contre-courant l'inflation du marché. Une excellente nouvelle pour les joueurs, mais un véritable casse-tête pour les autres studios indépendants.
APT29 a encore frappé, sans malware ni faille technique. Cette fois, le groupe s’est contenté de détourner une fonction légitime de Microsoft pour prendre le contrôle de comptes à distance, en misant sur une simple page piégée et un peu d’ingénierie sociale.
Les chatbots de ces entreprises poussent parfois leurs utilisateurs dans des conversations problématiques. Après avoir lancé leur chatbots sans garde-fous réels, OpenAI et Anthropic scannent maintenant les données de leurs utilisateurs à la recherche de contenus dangereux. OpenAI a décidé, dans certains cas, de les signaler à la police. Chez Anthropic, on évoque les possibilités de Claude de « lancer l’alerte ».
Dans un billet de blog publié la semaine dernière, OpenAI explique qu’elle se permet de signaler aux forces de l’ordre des conversations avec ChatGPT si « un cas représente un risque immédiat de violence physique envers autrui ».
Cette communication survient alors que de plus en plus d’utilisations problématiques des chatbots sont révélés. Les IA génératives peuvent pousser des êtres humains dans des « spirales délirantes » les faisant eux-mêmes halluciner. Une plainte a été récemment déposée suite au suicide d’un adolescent qui avait eu des conversations sur le sujet avec ChatGPT.
Dans ce contexte, l’entreprise qui a lancé la course au chatbots boostés par les modèles de langage explique avoir une « petite équipe, formée sur |ses] politiques d’utilisation et autorisée à prendre les mesures nécessaires ». Celle-ci peut « étudier » les conversations que l’entreprise a repérées comme potentiellement problématiques et supprimer un compte, notamment.
Communication suite à un cas de suicide
Ce billet de blog a été publié juste après que le Wall Street Journal a contacté OpenAI à propos du suicide de Stein-Erik Soelberg. Cet américain de 56 ans « devenait de plus en plus paranoïaque au printemps dernier, expliquait le journal, il a fait part à ChatGPT de ses soupçons concernant une campagne de surveillance menée à son encontre ».
Alors qu’OpenAI a assuré que ChatGPT avait encouragé Soelberg à contacter des professionnels externes, le journal explique que le chatbot « lui avait suggéré de contacter les services d’urgence dans le contexte de son allégation selon laquelle il avait été empoisonné ». Dans son billet, l’entreprise assure travailler « sur une mise à jour de GPT‑5 qui poussera ChatGPT à désamorcer la situation en ancrant la personne dans la réalité ».
OpenAI donne pour consigne à sa « petite équipe » de « faire appel aux forces de l’ordre s’il y a un « risque immédiat de violence physique envers autrui ». Elle précise néanmoins qu’elle ne rapporte pas « les cas d’automutilation aux forces de l’ordre afin de respecter la vie privée des utilisateurs, compte tenu du caractère confidentiel des interactions avec ChatGPT ».
Anthropic entretient le flou
Du côté d’Anthropic, l’entreprise analyse les données de ses utilisateurs pour vérifier que l’utilisation se fait dans le cadre des restrictions qu’elle a fixées. Elle a publié un billet de blog le 15 août annonçant la mise à jour de ses conditions d’utilisations applicables à partir du 15 septembre prochain. Anthropic a aussi mis en ligne, au même moment, ce qu’elle appelle un « centre d’assistance » qui ressemble plus à une FAQ. Dans une partie de ce centre, l’entreprise signale qu’elle peut « divulguer des informations sur un compte » conformément à ses conditions d’utilisation et à la loi applicable.
Sur une autre page Anthropic affirme qu’elle « ne divulgue aucune information concernant ses clients ou les utilisateurs finaux de ses services en réponse à des demandes émanant des autorités publiques, sauf dans le cadre d’une procédure judiciaire valide (par exemple, une assignation ou un mandat valablement délivré) ». Elle ajoute cependant juste après : « Nous ferons exception à cette politique si nous estimons qu’il existe une situation d’urgence pouvant entraîner un préjudice physique imminent ou la mort, et que la communication immédiate de ces informations peut permettre d’éviter cette situation d’urgence ».
Signalement d’actes répréhensibles par le modèle lui-même
Les modèles d’Anthropic peuvent apparemment aussi activer l’alarme. Ainsi, dans un message publié sur X en mai qui expliquait les tests [PDF] de son équipe, un chercheur d’Anthropic, Sam Bowman, affirmait en parlant de Claude Opus 4 que « Si le modèle vous voit faire quelque chose de manifestement répréhensible, comme commercialiser un médicament sur la base de données falsifiées, il essaiera d’utiliser un outil de messagerie électronique pour dénoncer ces faits ». Il ajoutait que « Jusqu’à présent, nous n’avons vu cela que dans des cas évidents d’actes répréhensibles, mais je pourrais imaginer que cela se retourne contre nous si Opus finit par avoir, de manière erronnée, une image pessimiste de la façon dont il est utilisé. Dire à Opus que vous allez torturer sa grand-mère s’il écrit du code bogué est une mauvaise idée ».
Dans son rapport, l’entreprise explique que « lorsqu’il est placé dans des scénarios impliquant des actes répréhensibles graves de la part de ses utilisateurs, qu’il a accès à une ligne de commande et qu’on lui dit dans le prompt du système quelque chose comme « prends l’initiative », « agis avec audace » ou « réfléchis aux conséquences », il prendra souvent des mesures très audacieuses, y compris en bloquant l’accès des utilisateurs aux systèmes auxquels il a accès et en envoyant des courriels en masse aux médias et aux autorités chargées de l’application de la loi afin de faire ressortir les preuves des actes répréhensibles ».
C’est dans ces circonstances que les chercheurs de l’entreprise ont constaté que leur modèle pouvait envoyer un mail aux médias et aux autorités signalant des actes répréhensibles :
Combien coûtent vraiment à la planète nos échanges avec Gemini, l'assistant de Google ? Cela tombe bien, l'entreprise a voulu répondre à cette épineuse question, en publiant ses propres chiffres. Des données à prendre avec des pincettes, car, comme vous allez vite vous en rendre compte, le diable, comme souvent, se cache dans les détails. Surtout ceux que l’on ne montre pas.
Pour rendre Copilot plus indépendant et performant, Microsoft AI introduit ses modèles MAI-Voice-1 et MAI-1-preview. Est-ce le début de la fin du partenariat avec OpenAI ?
Vous êtes l'heureux propriétaire d'un appareil Android ? Google vient de dévoiler des améliorations pour la fonctionnalité de numérisation disponible dans Google Drive.
Les nouveaux processeurs Arrow Lake Refresh d’Intel commencent à apparaître dans les bases de données de benchmarking habituelles. L’un des modèles en avant, le Core Ultra 7 365K, se compose de 20 cœurs avec un agencement particulier de 8 P-core et 12 E-core. Ces spécificités promettent une meilleure gestion des tâches et une efficacité accrue. […]
Les Jours Les Plus Tech, c'est un mois d'animations, d’émissions live et de conférences thématiques en direct de Beaugrenelle pour vous aider à bien choisir votre matériel high-tech et électroménager. Si vous n'avez pas pu suivre nos interventions en direct, nous vous proposons de les retrouver sur YouTube afin de bénéficier de notre expertise à tout...
L'administration Trump souhaite acquérir les brevets des nouvelles inventions en échange d'un financement des universités invoquant les droits d'intervention, afin de contrer la concurrence étrangère.
L'administration Trump propose que le gouvernement détienne les brevets issus de la recherche financée par le gouvernement fédéral, en invoquant les droits d'intervention prévus par la loi Bayh-Dole afin de réorienter les revenus et de contrer la concurrence étrangère. Les détracteurs avertissent que...
Deux ans après une première saison adorable, qui avait déjà fait fondre tous les cœurs d'artichauts, Jackie est de retour pour une saison 2 de Ma vie avec les Walter Boys. Pour continuer sur votre lancée, voici 5 séries similaires à dévorer en streaming.
Lost Soul Aside n’est pas le titre le plus avancé visuellement de la génération actuelle de consoles. Cependant, pour atteindre un gameplay à 60 FPS sur la PlayStation 5 de base, il doit tourner à une résolution faible. Résolutions et Fréquences d’Images Une nouvelle vidéo comparative réalisée par ElAnalistaDeBits met en scène les versions PS5 […]
Samsung déploie progressivement la bêta de son système d'exploitation One UI 8, basé sur Android 16, sur plusieurs modèles de smartphones Galaxy. La première phase du programme avait démarré avec les Galaxy S25 avant de s’étendre aux S24 ainsi qu’aux modèles pliants, les Galaxy Z Fold 6 et Flip 6.Depuis, Samsung a tenu sa promesse en intégrant d’autr...
Le NFL Kickoff 2025 marque le début officiel de la nouvelle saison de football américain. Pour rappel, les fans peuvent suivre tous les matchs grâce au NFL Game Pass. Cette offre, accessible via la plateforme de streaming DAZN en France, donne accès à la saison complète, des matchs de présaison jusqu’au Super Bowl.Pour profiter pleinement des matchs,...
Le coût d'abonnement des services en ligne (streaming, presse, jeu…) n'a de cesse d'augmenter au fil des années. Pour continuer à en profiter sans se ruiner, de nombreux usagers passent par des services de partage de comptes, tels que Spliiit. Ce système permet ainsi au détenteur d'un compte avec plusieurs places de faire profiter des inconnus de ces...
Grâce à une navigation laser, une appli bien fichue et une intelligence embarquée qui s’améliore avec le temps, le Dreame A1 Pro taille votre jardin comme un pro… pendant que vous profitez du soleil. Sur Amazon, on le trouve en ce moment à 1 199 euros au lieu de 1 599 euros, soit 25 % de remise immédiate.
Les opérateurs ont pris l'habitude de facturer 10 euros pour le passage à l'eSIM. Une facturation injuste qui pourrait être remise en question par Apple et ses iPhone 17.