La manipulation de données d'entraînement : la menace invisible
Data poisoning : si quelqu'un injecte des données corrompues dans le dataset d'entraînement d'un modèle, il peut le faire dérailler silencieusement.
Avec les modèles open-source entraînés sur du web scrapé, c'est déjà en cours. On ne le sait juste pas.
3
6 commentaires