Les modèles de langage (LLMs) génèrent fréquemment des noms de packages inexistants, ouvrant la voie au ‘slopsquatting’, une pratique malveillante où des attaquant·e·s exploitent ces références imaginaires pour créer de faux packages. Cette situation soulève des préoccupations importantes concernant la sécurité des développements assistés par l’IA.

Commentaires

Vous devez vous inscrire ou vous connecter pour poster un commentaire