Partage de compte YouTube Premium ? Google serre la vis

De premiers signes apparaissent pour une chasse au partage de compte YouTube Premium hors du foyer. Un durcissement des règles avec le forfait Famille.
De premiers signes apparaissent pour une chasse au partage de compte YouTube Premium hors du foyer. Un durcissement des règles avec le forfait Famille.
À quelques jours de sa sortie très attendue, Team Cherry a révélé le prix de Hollow Knight: Silksong, et c'est une véritable surprise. Le jeu sera vendu 19,99 €, un tarif extrêmement agressif qui prend à contre-courant l'inflation du marché. Une excellente nouvelle pour les joueurs, mais un véritable casse-tête pour les autres studios indépendants.
Les chatbots de ces entreprises poussent parfois leurs utilisateurs dans des conversations problématiques. Après avoir lancé leur chatbots sans garde-fous réels, OpenAI et Anthropic scannent maintenant les données de leurs utilisateurs à la recherche de contenus dangereux. OpenAI a décidé, dans certains cas, de les signaler à la police. Chez Anthropic, on évoque les possibilités de Claude de « lancer l’alerte ».
Dans un billet de blog publié la semaine dernière, OpenAI explique qu’elle se permet de signaler aux forces de l’ordre des conversations avec ChatGPT si « un cas représente un risque immédiat de violence physique envers autrui ».
Cette communication survient alors que de plus en plus d’utilisations problématiques des chatbots sont révélés. Les IA génératives peuvent pousser des êtres humains dans des « spirales délirantes » les faisant eux-mêmes halluciner. Une plainte a été récemment déposée suite au suicide d’un adolescent qui avait eu des conversations sur le sujet avec ChatGPT.
Dans ce contexte, l’entreprise qui a lancé la course au chatbots boostés par les modèles de langage explique avoir une « petite équipe, formée sur |ses] politiques d’utilisation et autorisée à prendre les mesures nécessaires ». Celle-ci peut « étudier » les conversations que l’entreprise a repérées comme potentiellement problématiques et supprimer un compte, notamment.
Ce billet de blog a été publié juste après que le Wall Street Journal a contacté OpenAI à propos du suicide de Stein-Erik Soelberg. Cet américain de 56 ans « devenait de plus en plus paranoïaque au printemps dernier, expliquait le journal, il a fait part à ChatGPT de ses soupçons concernant une campagne de surveillance menée à son encontre ».
Alors qu’OpenAI a assuré que ChatGPT avait encouragé Soelberg à contacter des professionnels externes, le journal explique que le chatbot « lui avait suggéré de contacter les services d’urgence dans le contexte de son allégation selon laquelle il avait été empoisonné ». Dans son billet, l’entreprise assure travailler « sur une mise à jour de GPT‑5 qui poussera ChatGPT à désamorcer la situation en ancrant la personne dans la réalité ».
OpenAI donne pour consigne à sa « petite équipe » de « faire appel aux forces de l’ordre s’il y a un « risque immédiat de violence physique envers autrui ». Elle précise néanmoins qu’elle ne rapporte pas « les cas d’automutilation aux forces de l’ordre afin de respecter la vie privée des utilisateurs, compte tenu du caractère confidentiel des interactions avec ChatGPT ».
Du côté d’Anthropic, l’entreprise analyse les données de ses utilisateurs pour vérifier que l’utilisation se fait dans le cadre des restrictions qu’elle a fixées. Elle a publié un billet de blog le 15 août annonçant la mise à jour de ses conditions d’utilisations applicables à partir du 15 septembre prochain. Anthropic a aussi mis en ligne, au même moment, ce qu’elle appelle un « centre d’assistance » qui ressemble plus à une FAQ. Dans une partie de ce centre, l’entreprise signale qu’elle peut « divulguer des informations sur un compte » conformément à ses conditions d’utilisation et à la loi applicable.
Sur une autre page Anthropic affirme qu’elle « ne divulgue aucune information concernant ses clients ou les utilisateurs finaux de ses services en réponse à des demandes émanant des autorités publiques, sauf dans le cadre d’une procédure judiciaire valide (par exemple, une assignation ou un mandat valablement délivré) ». Elle ajoute cependant juste après : « Nous ferons exception à cette politique si nous estimons qu’il existe une situation d’urgence pouvant entraîner un préjudice physique imminent ou la mort, et que la communication immédiate de ces informations peut permettre d’éviter cette situation d’urgence ».
Les modèles d’Anthropic peuvent apparemment aussi activer l’alarme. Ainsi, dans un message publié sur X en mai qui expliquait les tests [PDF] de son équipe, un chercheur d’Anthropic, Sam Bowman, affirmait en parlant de Claude Opus 4 que « Si le modèle vous voit faire quelque chose de manifestement répréhensible, comme commercialiser un médicament sur la base de données falsifiées, il essaiera d’utiliser un outil de messagerie électronique pour dénoncer ces faits ». Il ajoutait que « Jusqu’à présent, nous n’avons vu cela que dans des cas évidents d’actes répréhensibles, mais je pourrais imaginer que cela se retourne contre nous si Opus finit par avoir, de manière erronnée, une image pessimiste de la façon dont il est utilisé. Dire à Opus que vous allez torturer sa grand-mère s’il écrit du code bogué est une mauvaise idée ».
Dans son rapport, l’entreprise explique que « lorsqu’il est placé dans des scénarios impliquant des actes répréhensibles graves de la part de ses utilisateurs, qu’il a accès à une ligne de commande et qu’on lui dit dans le prompt du système quelque chose comme « prends l’initiative », « agis avec audace » ou « réfléchis aux conséquences », il prendra souvent des mesures très audacieuses, y compris en bloquant l’accès des utilisateurs aux systèmes auxquels il a accès et en envoyant des courriels en masse aux médias et aux autorités chargées de l’application de la loi afin de faire ressortir les preuves des actes répréhensibles ».
C’est dans ces circonstances que les chercheurs de l’entreprise ont constaté que leur modèle pouvait envoyer un mail aux médias et aux autorités signalant des actes répréhensibles :
La mise à jour One UI 8 Beta de Samsung basée sur Android 16 débarque en avance sur les Galaxy A56, A54, A36, A35 et le vaisseau amiral S23.[Plus]
Pour rendre Copilot plus indépendant et performant, Microsoft AI introduit ses modèles MAI-Voice-1 et MAI-1-preview. Est-ce le début de la fin du partenariat avec OpenAI ?
Deux ans après une première saison adorable, qui avait déjà fait fondre tous les cœurs d'artichauts, Jackie est de retour pour une saison 2 de Ma vie avec les Walter Boys. Pour continuer sur votre lancée, voici 5 séries similaires à dévorer en streaming.
Chaque matin, WhatsApp s’anime avec les dernières nouvelles tech. Rejoignez notre canal Frandroid pour ne rien manquer !
Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.