Intel présente un bundle de jeux pour les CPU Core Ultra & 14e génération : Dying Light et Civilization VII

Ă lâoccasion du World Password Day, Microsoft rebaptise lâĂ©vĂ©nement âWorld Passkey Dayâ et impose dĂ©sormais la connexion sans mot de passe pour tous les nouveaux comptes. Une dĂ©cision qui fait du bruit dans un contexte de cybermenaces permanentes.
Mot de passe oubliĂ© ? Ce sera bientĂŽt de lâhistoire ancienne
Microsoft vient donc de franchir une Ă©tape importante dans sa lutte contre les mots de passe. DorĂ©navant, tout nouveau compte Microsoft sera configurĂ© sans mot de passe par dĂ©faut. Lors de lâinscription, lâutilisateur ne sera plus invitĂ© Ă crĂ©er un mot de passe, mais Ă choisir parmi des mĂ©thodes dâauthentification plus sĂ©curisĂ©es : passkeys, clĂ©s de sĂ©curitĂ©, authentification Ă deux facteurs ou Windows Hello. Ce changement fait partie dâun plan plus large, entamĂ© depuis plusieurs annĂ©es, dans le but dâĂ©liminer totalement lâutilisation de mots de passe. Pour les comptes existants, Microsoft propose aussi une option dans les paramĂštres pour supprimer son mot de passe manuellement.
L'OWASP propose un top 10 des risques et vulnĂ©rabilitĂ©s sur les LLM et les genIA en gĂ©nĂ©ral. L'OWASP confirme que l'IA est loin d'ĂȘtre sĂ©curisĂ©e, au contraire, les risques de sĂ©curitĂ© se multiplient si l'implĂ©mentation est mal faite ou l'usage mal cadrĂ©.
1 - injection : le prompt injection est un classique. Un prompt altÚre le fonctionnement prévu de la genIA et/ du LLM. Et peu à peu on influence son fonctionnement et on amÚne à générer des données sensibles ou des exemples d'attaque ou des réponses non prévues. Voir : jailbreaking LLM
2 - des donnĂ©es sensibles sont accessibles : trop d'entreprises laissent des donnĂ©es sensibles / privĂ©es sur les LLM. Ces donnĂ©es peuvent ĂȘtre accessibles. Il ne faut pas autoriser les LLM / genIA Ă accĂ©der Ă ces donnĂ©es sauf dans un cadre strictement interne et dĂ©connectĂ© de l'extĂ©rieur
3 - les chaßnes LLM constituent un risque et une surface d'attaque potentielle. Risque de corrompre les modÚles ou les données, utiliser des API, des services non sécurisés
4 - données et modÚles empoisonnés : cela signifie que les données ne sont pas qualifiés ou corrompues. Si ces données ne sont pas bonnes, le LLM sera biaisé et générera de fausses informations et de mauvaises réponses = déviance du modÚle. Il faut vérifier l'origine des données et la conformité de celles-ci avec ce que l'on veut générer. Il faut aussi que le LLM soit bien défini et cadré.
5 - La gestion incorrecte des sorties fait spécifiquement référence à une validation et une gestion insuffisantes des sorties générées par le LLM. Et cela peut se propager et corrompre d'autres systÚmes
6 - Trop d'agent IA peut nuire à la sécurité et au bon comportement. Avec les agents on peut perdre le contrÎle de ce qu'il se passe et favoriser l'hallunication. La qualité médiocre d'un LLM est exploitée. L'agent ou la genIA ne fait pas la différence entre un bon LLM et un mauvais LLM
7 - Fuite au niveau du prompt : il ne faut pas que des identifications, des secrets ou donnĂ©es sensibles se retrouvent dans les rĂ©ponses du prompt. Il doit "comprendre" ce qui peut ĂȘtre gĂ©nĂ©rĂ© ou non.
8 - Une mauvaise intĂ©gration peut ĂȘtre une source de vulnĂ©rabilitĂ©s. Cela peut ĂȘtre accentuĂ© en utilisant du RAG.
9 - désinformation : finalement c'est une combinaison des précédents points
10 - consommation illimitĂ©e : on n'y pense pas forcĂ©ment car un dĂ©ni de services peut impacter un service IA, un genIA en le saturant de prompts qui va alors peser sur l'infrastructure. Cela peut ĂȘtre possible avec des prompts nombreux et longs, des requĂȘtes envoyĂ©es en grande quantitĂ© dans un dĂ©lai trĂšs court, des API mal limitĂ©es pouvant faire exploser les ressources, etc.