Vue normale
-
7.1.2 🖥️ Sites secondaires
- iOS 26 : 3 nouveautés bluffantes qui vont transformer votre iPhone dès la rentrée
-
7.1.1 🖥️ Sites principaux
- Microsoft licencie 10% de ses effectifs en France malgré des résultats records
Microsoft licencie 10% de ses effectifs en France malgré des résultats records

Malgré une santé financière insolente, Microsoft a engagé un plan de départ qui touchera 10% de ses effectifs en France, soit environ 200 personnes. Ce plan, mené via une rupture conventionnelle collective, s'inscrit dans une restructuration mondiale de 15 000 postes visant à pivoter vers l'intelligence artificielle, créant un paradoxe entre performance et suppressions d'emplois.
-
7.1.1 🖥️ Sites principaux
- Cette faille dans WhatsApp transformait l'iPhone en mouchard et ciblait les activistes et dirigeants
Cette faille dans WhatsApp transformait l'iPhone en mouchard et ciblait les activistes et dirigeants
-
7.1.1 🖥️ Sites principaux
- Retour Vers Le Futur en ciné-concert pour célébrer les 40 ans du premier film
Retour Vers Le Futur en ciné-concert pour célébrer les 40 ans du premier film

Pour fêter les 40 ans de Retour Vers Le Futur, offrez-vous une séance mémorable avec le ciné-concert au Grand Rex.
-
7.1.2 🖥️ Sites secondaires
- DxO annonce PhotoLab 9, la nouvelle mouture de son logiciel de traitement photo
DxO annonce PhotoLab 9, la nouvelle mouture de son logiciel de traitement photo
C'est traditionnellement en septembre que la société Française DxO Labs, révèle la nouvelle itération de PhotoLab, un logiciel qui permet de traiter efficacement les fichiers RAW, que cela passe par la correction optique au débruitage, mais également la retouche de la colorimétrie locale entre autre...
-
7.1.1 🖥️ Sites principaux
- Vous vous êtes connecté sur un appareil partagé ? Voici 6 indices qui prouvent que vos mots de passe sont compromis
Vous vous êtes connecté sur un appareil partagé ? Voici 6 indices qui prouvent que vos mots de passe sont compromis
-
7.1.1 🖥️ Sites principaux
- Switch 2 : les accessoires que vous branchez sur le port USB-C ne fonctionnent pas ? C’est normal
Switch 2 : les accessoires que vous branchez sur le port USB-C ne fonctionnent pas ? C’est normal

Linus a mis son nez dans les fonctionnalités du port USB-C de la Switch 2 et voici les conclusions à en tirer.
-
7.1.1 🖥️ Sites principaux
- Les médias français s’attaquent à des bases de données exploitées par l’IA générative
Les médias français s’attaquent à des bases de données exploitées par l’IA générative

Les éditeurs de presse français intensifient leur lutte contre l’utilisation non autorisée de leurs contenus par les services d’intelligence artificielle. Dans une action coordonnée, ils ciblent des bases de données publiques (comme Common Crawl), accusées de fournir du contenu protégé à des plateformes comme ChatGPT sans compensation. Une …
Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter
N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)
L’article Les médias français s’attaquent à des bases de données exploitées par l’IA générative est apparu en premier sur KultureGeek.
C’est quoi cette polémique avec Will Smith et l’IA ?

Accusé d’avoir utilisé l’intelligence artificielle pour grossir les foules dans une vidéo, Will Smith a créé la polémique lors de sa récente européenne.
Apple veut remplacer ces employés par des robots
AirPods Pro 3 : un lancement sans cette fonctionnalité clé ?
Partage de compte YouTube Premium ? Google serre la vis

De premiers signes apparaissent pour une chasse au partage de compte YouTube Premium hors du foyer. Un durcissement des règles avec le forfait Famille.
-
7.1.1 🖥️ Sites principaux
- Hollow Knight: Silksong coûtera moins de 20 euros, un prix qui défie toute l'industrie du jeu vidéo
Hollow Knight: Silksong coûtera moins de 20 euros, un prix qui défie toute l'industrie du jeu vidéo

À quelques jours de sa sortie très attendue, Team Cherry a révélé le prix de Hollow Knight: Silksong, et c'est une véritable surprise. Le jeu sera vendu 19,99 €, un tarif extrêmement agressif qui prend à contre-courant l'inflation du marché. Une excellente nouvelle pour les joueurs, mais un véritable casse-tête pour les autres studios indépendants.
-
7.1.1 🖥️ Sites principaux
- Ce groupe de cybercriminels russes détourne l’authentification Microsoft pour infiltrer vos comptes
Ce groupe de cybercriminels russes détourne l’authentification Microsoft pour infiltrer vos comptes
-
7.1.1 🖥️ Sites principaux
- OpenAI et Anthropic scannent les conversations à la recherche d’usages problématiques
OpenAI et Anthropic scannent les conversations à la recherche d’usages problématiques
Discussions pas si privées

Les chatbots de ces entreprises poussent parfois leurs utilisateurs dans des conversations problématiques. Après avoir lancé leur chatbots sans garde-fous réels, OpenAI et Anthropic scannent maintenant les données de leurs utilisateurs à la recherche de contenus dangereux. OpenAI a décidé, dans certains cas, de les signaler à la police. Chez Anthropic, on évoque les possibilités de Claude de « lancer l’alerte ».
Dans un billet de blog publié la semaine dernière, OpenAI explique qu’elle se permet de signaler aux forces de l’ordre des conversations avec ChatGPT si « un cas représente un risque immédiat de violence physique envers autrui ».
Cette communication survient alors que de plus en plus d’utilisations problématiques des chatbots sont révélés. Les IA génératives peuvent pousser des êtres humains dans des « spirales délirantes » les faisant eux-mêmes halluciner. Une plainte a été récemment déposée suite au suicide d’un adolescent qui avait eu des conversations sur le sujet avec ChatGPT.
Dans ce contexte, l’entreprise qui a lancé la course au chatbots boostés par les modèles de langage explique avoir une « petite équipe, formée sur |ses] politiques d’utilisation et autorisée à prendre les mesures nécessaires ». Celle-ci peut « étudier » les conversations que l’entreprise a repérées comme potentiellement problématiques et supprimer un compte, notamment.
Communication suite à un cas de suicide
Ce billet de blog a été publié juste après que le Wall Street Journal a contacté OpenAI à propos du suicide de Stein-Erik Soelberg. Cet américain de 56 ans « devenait de plus en plus paranoïaque au printemps dernier, expliquait le journal, il a fait part à ChatGPT de ses soupçons concernant une campagne de surveillance menée à son encontre ».
Alors qu’OpenAI a assuré que ChatGPT avait encouragé Soelberg à contacter des professionnels externes, le journal explique que le chatbot « lui avait suggéré de contacter les services d’urgence dans le contexte de son allégation selon laquelle il avait été empoisonné ». Dans son billet, l’entreprise assure travailler « sur une mise à jour de GPT‑5 qui poussera ChatGPT à désamorcer la situation en ancrant la personne dans la réalité ».
OpenAI donne pour consigne à sa « petite équipe » de « faire appel aux forces de l’ordre s’il y a un « risque immédiat de violence physique envers autrui ». Elle précise néanmoins qu’elle ne rapporte pas « les cas d’automutilation aux forces de l’ordre afin de respecter la vie privée des utilisateurs, compte tenu du caractère confidentiel des interactions avec ChatGPT ».
Anthropic entretient le flou
Du côté d’Anthropic, l’entreprise analyse les données de ses utilisateurs pour vérifier que l’utilisation se fait dans le cadre des restrictions qu’elle a fixées. Elle a publié un billet de blog le 15 août annonçant la mise à jour de ses conditions d’utilisations applicables à partir du 15 septembre prochain. Anthropic a aussi mis en ligne, au même moment, ce qu’elle appelle un « centre d’assistance » qui ressemble plus à une FAQ. Dans une partie de ce centre, l’entreprise signale qu’elle peut « divulguer des informations sur un compte » conformément à ses conditions d’utilisation et à la loi applicable.
Sur une autre page Anthropic affirme qu’elle « ne divulgue aucune information concernant ses clients ou les utilisateurs finaux de ses services en réponse à des demandes émanant des autorités publiques, sauf dans le cadre d’une procédure judiciaire valide (par exemple, une assignation ou un mandat valablement délivré) ». Elle ajoute cependant juste après : « Nous ferons exception à cette politique si nous estimons qu’il existe une situation d’urgence pouvant entraîner un préjudice physique imminent ou la mort, et que la communication immédiate de ces informations peut permettre d’éviter cette situation d’urgence ».
Signalement d’actes répréhensibles par le modèle lui-même
Les modèles d’Anthropic peuvent apparemment aussi activer l’alarme. Ainsi, dans un message publié sur X en mai qui expliquait les tests [PDF] de son équipe, un chercheur d’Anthropic, Sam Bowman, affirmait en parlant de Claude Opus 4 que « Si le modèle vous voit faire quelque chose de manifestement répréhensible, comme commercialiser un médicament sur la base de données falsifiées, il essaiera d’utiliser un outil de messagerie électronique pour dénoncer ces faits ». Il ajoutait que « Jusqu’à présent, nous n’avons vu cela que dans des cas évidents d’actes répréhensibles, mais je pourrais imaginer que cela se retourne contre nous si Opus finit par avoir, de manière erronnée, une image pessimiste de la façon dont il est utilisé. Dire à Opus que vous allez torturer sa grand-mère s’il écrit du code bogué est une mauvaise idée ».
Dans son rapport, l’entreprise explique que « lorsqu’il est placé dans des scénarios impliquant des actes répréhensibles graves de la part de ses utilisateurs, qu’il a accès à une ligne de commande et qu’on lui dit dans le prompt du système quelque chose comme « prends l’initiative », « agis avec audace » ou « réfléchis aux conséquences », il prendra souvent des mesures très audacieuses, y compris en bloquant l’accès des utilisateurs aux systèmes auxquels il a accès et en envoyant des courriels en masse aux médias et aux autorités chargées de l’application de la loi afin de faire ressortir les preuves des actes répréhensibles ».
C’est dans ces circonstances que les chercheurs de l’entreprise ont constaté que leur modèle pouvait envoyer un mail aux médias et aux autorités signalant des actes répréhensibles :

-
7.1.1 🖥️ Sites principaux
- Samsung surprend avec une mise à jour anticipée vers One UI 8 pour le milieu de gamme
Samsung surprend avec une mise à jour anticipée vers One UI 8 pour le milieu de gamme
La mise à jour One UI 8 Beta de Samsung basée sur Android 16 débarque en avance sur les Galaxy A56, A54, A36, A35 et le vaisseau amiral S23.[Plus]
Gemini consomme-t-il autant qu’on le croit ? Google livre ses chiffres
Battlefield 6 : un leak majeur vient de tomber

9 minutes de gameplay sur le battle royale de Battlefield 6 viennent de fuiter.
Microsoft AI a ses premiers modèles maison

Pour rendre Copilot plus indépendant et performant, Microsoft AI introduit ses modèles MAI-Voice-1 et MAI-1-preview. Est-ce le début de la fin du partenariat avec OpenAI ?
-
7.1.1 🖥️ Sites principaux
- Vous scannez des documents avec Google Drive sur Android ? Cette amélioration devrait vous plaire
Vous scannez des documents avec Google Drive sur Android ? Cette amélioration devrait vous plaire
-
7.1.1 🖥️ Sites principaux
- Pourquoi le gouvernement veut que les hôpitaux se préparent à une possible guerre en 2026 ?
Pourquoi le gouvernement veut que les hôpitaux se préparent à une possible guerre en 2026 ?

Le gouvernement recommande aux hôpitaux de se préparer à l'arrivée de blessés d'ici l'année prochaine.
-
7.1.1 🖥️ Sites principaux
- Don du sang, retraite, arrêt maladie… tout ce qui change en septembre 2025
Don du sang, retraite, arrêt maladie… tout ce qui change en septembre 2025

Plusieurs réformes concrètes sont entrées en vigueur ce 1er septembre 2025. On fait le point sur une rentrée chargée.
-
7.1.1 🖥️ Sites principaux
- Benchmarking des processeurs Intel Arrow Lake Refresh : performances en question
Benchmarking des processeurs Intel Arrow Lake Refresh : performances en question

WhatsApp : ils volent votre compte par un appel vidéo, voici leur méthode

En Espagne, la Guardia Civil alerte sur une arnaque qui utilise les appels vidéo et la fonctionnalité de partage de l’écran pour voler des comptes.