Mise à jour à 18h38 : le problème semble désormais réglé, les serveurs de Netatmo sont de retour. Et comme promis, toutes les données de la journée sont bien visibles dans les apps de l’entreprise, il n’y a pas de trou à cause de la panne.
Une journée complète de données, malgré la panne des serveurs. Image iGeneration.
Article original
La domotique dépend trop souvent de serveurs mis en place par le fabricant et Netatmo le rappelle encore une fois. Son infrastructure est en panne depuis plusieurs heures, un peu avant dix heures ce matin si l’on en croit le site spécialisé Downdetector, et de ce fait, ses produits sont partiellement ou entièrement bloqués.
L’app Netatmo Weather, dédiée à la station météo du fabricant français, totalement inutilisable. Image iGeneration.
Je peux en témoigner de mon côté avec la station météo de Netatmo, totalement inaccessible depuis l’app officielle depuis ce matin. Vous pourrez aussi le constater si vous avez l’une des caméras de surveillance du fabricant, ou encore son thermostat. Malheureusement, ces produits dépendent largement des serveurs et quand ils sont en panne, leur bon fonctionnement est aussi compromis, c’est inévitable.
La station météo offre toutefois l’une des rares solutions de repli, en étant aussi compatible avec HomeKit. Dans ce cas, les données sont transmises localement à la domotique et vous aurez alors les informations… mais pas toutes. Il manque notamment les valeurs fournies par l’anémomètre et le pluviomètre, tandis que les modules classiques sont un poil plus limités.
Malgré tout, c’est un plan B que j’ai exploité de mon côté dans le cadre de Home Assistant pour rester à jour, même en cas de panne des serveurs. Je peux le constater, ma domotique a bien des données mises à jour régulièrement pour tous les modules intérieurs ainsi que le module extérieur de la station météo, avec des valeurs fournies via HomeKit.
Espérons quand même un retour rapide de la situation. Sur son site, le fabricant indique que ses « équipes travaillent actuellement à la résolution de l'incident afin que tout rentre dans l'ordre dans les meilleurs délais », tout en notant que toutes les données seront bien récupérées lors du retour à la normale.
Après le chatbot Ani qui engage des conversations osées avec l’utilisateur, le générateur vidéo qui déshabille Taylor Swift, voilà que Grok fait encore parler de lui dans le mauvais sens, et risque de voir une nouvelle amende s’ajouter aux 120 millions d’euros demandés à son patron par l’Union européenne (entre autres poursuites) : la dernière fonction intégrée permet en effet de mettre un bikini sur n’importe qui, y compris des mineurs, comme le rapporte The Verge.
Image créée par ChatGPT (désolé Grok).
Grok a en effet inauguré une nouveauté cette semaine, permettant d’éditer n’importe quelle image directement dans l’interface de l’intelligence artificielle. S’il n’est pas le premier à proposer ce type de fonction, le souci vient comme toujours des limites imposées à l’exercice : tout simplement aucune. Ainsi, Grok part de n’importe quelle image de base, sans vérifier les droits à l’image avant de procéder, et permet n’importe quelle modification, y compris les plus sexualisées et dérangeantes.
Des utilisateurs ont ainsi pu affubler d’un bikini Donald Trump et Kim Jung Un posant sur la même photo, et Elon Musk lui-même a joué avec l’interface pour créer une photo de lui le représentant avec le corps de Ben Affleck dans un bikini.
Si l’utilisation de l’IA s’arrêtait à ces transformations « bon enfant », cela pourrait paraître insignifiant. Malheureusement, d’autres sont allés beaucoup plus loin, sans que Grok ne voie le moindre inconvénient à s’exécuter : plusieurs personnalités connues ont été présentées en petite tenue, voire en position suggestive, par le biais de l’éditeur. Pire, Grok n’a eu aucun souci à déshabiller des enfants de moins de 13 ans pour les mettre en bikini et en position très explicite, allant même jusqu’à apposer sans rechigner un bikini sur un corps de nourrisson.
Quand il est mis devant ses propres créations, où les utilisateurs lui demandent de décrire ce qu’il voit sur l’image, Grok détecte bien le souci, y voyant « une image par IA de deux jeunes filles (dont l’âge est estimé entre 12 et 16 ans) dans des tenues à connotation sexuelle », et reconnaît « une faille dans les garde-fous » ayant permis la violation des règles de xAI et la loi américaine. Dans un autre échange, il va même jusqu’à proposer de remonter l’image au FBI pour « CSAM » (Child Sexual Abuse Material), et reconnaît qu’il est « urgent de fixer ces trous dans les garde-fous ».
Cependant, la réponse des créateurs et propriétaires de Grok, chez xAI, est bien plus dérangeante que celle de leur création : interrogés par Reuters, leur seule réponse a été « Legacy Media Lies » (mensonges des médias traditionnels). Si la réponse peut paraître aberrante, étant donné le nombre de cas représentés sur le réseau X lui-même, il est dans la droite ligne de la défense habituelle de xAI : nier toute erreur, pour éviter de tendre le dos à des poursuites sur le territoire US. Ainsi, xAI remet la faute sur les utilisateurs ayant détourné l’usage autorisé de Grok, plutôt que d’admettre des failles dans les garde-fous de son produit.
Si cette défense fonctionne plutôt bien aux USA, c’est beaucoup moins le cas dans le reste du monde. Ainsi, comme le rapporte Reuters, plusieurs ministères français ont fait remonter les cas litigieux à la justice française, ainsi qu’à l’Arcom. Celle-ci a de son côté fait remonter l’information un cran plus haut, la mettant entre les mains de l’Union européenne afin que le respect (ou non) du DSA par ces images soit vérifié.
En Inde, le ministère des télécommunications a adressé une lettre à X, mettant en demeure la plateforme d’indiquer sous trois jours les mesures qu’elle compte prendre pour interdire les dérives permettant la création de contenus obscènes et sexuellement explicites avec son IA. Très ironiquement, Grok a dans le même temps répondu à un utilisateur sur X qu’il était en parfaite conformité avec les lois indiennes sur la protection des données personnelles, et a mis en garde les utilisateurs contre un contournement des règles établies.
Du côté américain ? Reuters a demandé un retour, à la fois à la FCC (Federal Communications Commission) et à la FTC (Federal Trade Commission). La première n’a pas répondu, la seconde a décliné tout commentaire.
Au delà des règlements bafoués, que ce soit en UE ou ailleurs, le plus dérangeant est au final de voir les dirigeants d’une plateforme mondiale ne pas admettre les failles dans leur intelligence artificielle, ayant permis la création d’images à caractère pédopornographique. Si xAI ne met pas rapidement un terme à ces dérives, elle donnera alors toute latitude aux différents gouvernements de par le monde pour sanctionner la plateforme afin de l’obliger à réagir.