
Les modèles de langage (LLMs) génèrent fréquemment des noms de packages inexistants, ouvrant la voie au ‘slopsquatting’, une pratique malveillante où des attaquant·e·s exploitent ces références imaginaires pour créer de faux packages. Cette situation soulève des préoccupations importantes concernant la sécurité des développements assistés par l’IA.
Commentaires
Vous devez
vous inscrire
ou
vous connecter
pour poster un commentaire