De Universiteit van Chicago’s Glaze en Nightshade Bieden Kunstenaars Verdediging tegen AI
Haast? Hier zijn de Snelle Feiten!
- Glaze en Nightshade beschermen het werk van kunstenaars tegen ongeautoriseerd gebruik in AI-training.
- Glaze maskeert afbeeldingen om te voorkomen dat AI de stijl van een kunstenaar nabootst.
- Nightshade verstoort AI door “vergiftigde” pixels toe te voegen die de trainingsdata corrumperen.
Kunstenaars komen in opstand tegen uitbuitende AI-modellen met Glaze en Nightshade, twee tools ontwikkeld door Ben Zhao en zijn team aan de Universiteit van Chicago’s SAND Lab, zoals vandaag gemeld door MIT Technology Review.
Deze tools hebben als doel het werk van kunstenaars te beschermen tegen gebruik zonder toestemming om AI-modellen te trainen, een praktijk die veel makers zien als diefstal. Glaze, sinds de release in maart 2023 al meer dan 4 miljoen keer gedownload, maskeert afbeeldingen door subtiele veranderingen toe te voegen die voorkomen dat AI de stijl van een kunstenaar leert, zegt MIT.
Nachtschade, een “aanstootgevende” tegenhanger, verstoort AI-modellen nog verder door onzichtbare wijzigingen te introduceren die AI-leren kunnen corrumperen als ze worden gebruikt in training, zoals opgemerkt door MIT.
De tools werden geïnspireerd door de zorgen van kunstenaars over de snelle opkomst van generatieve AI, die vaak vertrouwt op online afbeeldingen om nieuwe werken te creëren. MIT meldt dat fantasy-illustrator Karla Ortiz en andere makers hun vrees hebben geuit over het verliezen van hun levensonderhoud terwijl AI-modellen hun unieke stijlen repliceren zonder toestemming of betaling.
Voor kunstenaars is online posten essentieel voor zichtbaarheid en inkomen, maar veel kunstenaars overwegen hun werk te verwijderen om te voorkomen dat het wordt gescraped voor AI-training, een actie die hun carrière zou kunnen belemmeren, zoals opgemerkt door MIT.
Nightshade, gelanceerd een jaar na Glaze, biedt een agressievere verdediging, meldt MIT. Door “vergiftigde” pixels aan afbeeldingen toe te voegen, verstoort het AI-training, waardoor de modellen vervormde resultaten produceren als deze afbeeldingen worden gescraped.
De symbolische uitwerking van nachtschade heeft weerklank gevonden bij kunstenaars, die het zien als poëtische gerechtigheid: als hun werk wordt gestolen voor AI-training, kan het de systemen die het uitbuiten, beschadigen.
MIT stelt dat de tools enige scepsis hebben ondervonden, omdat kunstenaars aanvankelijk bezorgd waren over gegevensprivacy. Om dit aan te pakken, heeft SAND Lab een versie van Glaze uitgebracht die offline werkt, waardoor er geen gegevensoverdracht plaatsvindt en er vertrouwen wordt opgebouwd met kunstenaars die bang zijn voor uitbuiting.
Het lab heeft onlangs ook de toegang uitgebreid door een partnerschap aan te gaan met Cara, een nieuw sociaal platform dat AI-gegenereerde inhoud verbiedt, zoals opgemerkt door MIT.
Zhao en zijn team streven ernaar de machtsbalans tussen individuele makers en AI-bedrijven te veranderen.
Door hulpmiddelen aan te bieden die creativiteit beschermen tegen grote bedrijven, hoopt Zhao kunstenaars in staat te stellen controle te behouden over hun werk en ethische normen rond AI en intellectueel eigendom te herdefiniëren, zegt MIT.
De inspanning wint aan momentum, maar sommige experts waarschuwen dat de tools mogelijk geen waterdichte bescherming bieden, aangezien hackers en AI-ontwikkelaars manieren verkennen om deze beveiligingen te omzeilen, zoals opgemerkt door MIT.
Nu Glaze en Nightshade gratis toegankelijk zijn, blijft Zhao’s SAND Lab de leiding nemen in het verdedigen van artistieke integriteit tegen de groeiende invloed van door AI aangedreven contentcreatie.
Laat een reactie achter
Annuleer