Un nouvel outil permet aux artistes de combattre les robots d’images IA en cachant les données corrompues à la vue de tous

0
219

Des grèves hollywoodiennes aux portraits numériques, le potentiel de l’IA à voler le travail des créatifs et comment l’arrêter a dominé la conversation technologique en 2023. Le dernier effort en date pour protéger les artistes et leurs créations est Nightshade, un outil permettant aux artistes d’ajouter des pixels indétectables dans leur travail. qui pourrait corrompre les données d’entraînement d’une IA, le Revue technologique du MIT rapports. La création de Nightshade intervient alors que de grandes entreprises comme OpenAI et Meta font face à des poursuites pour violation du droit d’auteur et vol d’œuvres personnelles sans compensation.

Ben Zhao, professeur à l’Université de Chicago, et son équipe ont créé Nightshade, qui fait actuellement l’objet d’un examen par les pairs, dans le but de remettre une partie du pouvoir entre les mains des artistes. Ils l’ont testé sur des modèles récents de diffusion stable et sur une IA qu’ils ont personnellement construite à partir de zéro.

Nightshade fonctionne essentiellement comme un poison, modifiant la façon dont un modèle d’apprentissage automatique produit du contenu et à quoi ressemble ce produit fini. Par exemple, un système d’IA pourrait interpréter une invite pour un sac à main comme un grille-pain ou afficher l’image d’un chat au lieu du chien demandé (il en va de même pour des invites similaires comme un chiot ou un loup).

Une gamme d’échantillons empoisonnés montre l’art original et comment une IA pourrait les interpréter.

Professeur Ben Zhao | Université de Chicago

Nightshade fait suite à la sortie en août par Zhao et son équipe d’un outil appelé Glaze, qui modifie également subtilement les pixels d’une œuvre d’art, mais permet aux systèmes d’IA de détecter l’image initiale comme étant totalement différente de ce qu’elle est. Un artiste qui souhaite protéger son œuvre peut la télécharger sur Glaze et choisir d’utiliser Nightshade.

Une technologie dommageable comme Nightshade pourrait grandement encourager les principaux acteurs de l’IA à demander et à rémunérer correctement le travail des artistes (cela semble être une meilleure alternative que de refaire votre système). Les entreprises cherchant à éliminer le poison devront probablement localiser chaque élément de données corrompues, une tâche difficile. Zhao prévient que certaines personnes pourraient tenter d’utiliser l’outil à des fins malveillantes, mais que tout dommage réel nécessiterait des milliers d’œuvres corrompues.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici