Även om det är roligt att imitera verk av gamla artister som Van Gogh eller Frida Kahlo med en AI-generator, är det samma inte sant för levande konstnärer. Att tillåta nästan vem som helst att skapa en bild "i stil med" en konstnär kan få deras marknad att översvämmas av avbrott; lägga till förvirring kring äkthet och en potentiell inkomstförlust.
Som svar söker folk efter ett sätt att skydda sina bilder från AI-konstgeneratorer. Svaren kanske inte är perfekta eller idiotsäkra, men det finns sätt du kan försvara dina bilder från att användas av AI-konstgeneratorer.
Hur AI-generatorer får dina bilder
AI-konstgeneratorer går igenom en period av "träning" för att lära sig hur man producerar en bild när de får en textuppmaning. Som en del av inlärningsprocessen måste den studera hundratals miljoner bild-text-par till så småningom generera en korrekt bild av verkliga objekt, färger och scener – vid sidan av konsttekniker och stil.
Som det händer måste AI-modeller lära sig av människors kreativitet. Till exempel, Midjourney och Stability Diffusion är två AI-konstgeneratorer utbildade på datauppsättningen LAION-5B med öppen källkod, som innehåller miljarder bilder från hela internet.
Genom att använda sökrobotar för att "skrapa" webbplatser efter data skapar dessa datauppsättningar listor med bildwebbadresser, plus deras bildtext, i något som kan likna ett massivt Excel-kalkylblad. Om du har lagt ut din konst online tidigare kan den finnas i en bilddatauppsättning och därför används för att träna AI, oavsett om du samtyckte eller inte.
1. Välj bort AI Training Dataset
Spawning är en grupp artister vars populära webbplats, Har jag blivit utbildad?, kan användas för att se om dina bilder finns i LAION-5B-datauppsättningen. De tog på sig det och lade senare till funktionen för att välja bort datamängden. Enligt ett avtal kommer Spawning att vidarebefordra listor för att välja bort användare till LAION, som har sagt att de kommer att respektera begäran och ta bort dessa bilder från sin samling.
Opt-out-verktyget från Spawning kräver fortfarande en del utveckling eftersom du i skrivande stund inte kan lägga till flera bilder samtidigt. Det finns inte heller uppt-out-avtal med någon annan datauppsättning som kan användas för att träna AI-modeller.
Eftersom många AI-företag inte avslöjar de finare detaljerna om hur deras AI-modeller är byggda, är det ibland oklart vilken datauppsättning de använder. DALL-E är en populär AI-konstgenerator som inte delar denna information.
Alternativt, om du använder DeviantArt för att dela dina konstverk, är dina bilder nu skyddade som standard från att användas för AI-träningsdatauppsättningar. Det fungerar genom att tagga din bild med "noai", vilket innebär att om en AI-modell upptäcks ha använt din bild för träning kommer den att bryta mot DeviantArts användarvillkor.
Naturligtvis tillämpas inte dessa opt-out-åtgärder, så de kan ignoreras av tredje part om de så vill. Även om detta inte är den mest effektiva lösningen, leder det vägen för fler regler och förordningar för att skydda konstnärers arbete.
I en idealisk värld skulle människor ges möjlighet att välja in, i motsats till att behöva välja bort. Vi hoppas få se detta hända i framtiden. För mer information om hur du tar bort dina bilder från datauppsättningar, se vår guide på hur du väljer bort dina bilder från AI-träning.
2. Upphovsrätt ditt verk
Huruvida bruket att skrapa bilder från internet är lagligt har uppmärksammats av domstolarna. Och att hjälpa artister att presentera bevis på sin sida är upphovsrätten till bilden som de äger.
I början av 2023, den välkända serietecknaren, Sarah Andersen, var en del av en grupp artister som väckte en stämningsansökan mot AI-företagen Stability AI och Midjourney, samt konstdelningswebbplats DeviantArt, för att skrapa ut sitt konstverk utan samtycke – inklusive konsten av otaliga miljoner andra konstnärer.
Ett annat exempel är stockbildswebbplatsen, Getty Images, som lämnade in en stämningsansökan mot Stability AI för att ha skrapat sina bilder utan licens. Sättet som den upptäckte att dess upphovsrättsliga bilder användes var när AI-genererade bilder började dyka upp med Getty Images vattenstämpel - en ganska uppenbar giveaway.
Även om lagligheten kommer att bestämmas i sinom tid, är upphovsrätten en av de få saker som kan användas för att kämpa för rättigheterna för konstnärers verk, vilket framgår av de fall vi nämnde. Det kanske inte är uppdaterat med AI-teknik, men det kan bidra till ditt försvar framåt.
Det är en praxis som är väl värd att lära sig om hur som helst så att du kan skydda ditt arbete från att bli stulet, oavsett om AI är inblandat eller inte. Följ vår guide på hur du upphovsrättsskyddar dina bilder för en djupgående titt på hur det hela fungerar.
3. Blockera webbplatssökrobotar med Robots.txt
Bilddatauppsättningar kan bara indexera ett stort antal bilder eftersom de använder något som kallas webbsökare. Som namnet antyder, genomsöker de webbplatser i jakt på viss information.
Vissa sökrobotar är användbara och hjälper sökmotorer som Google att hitta och indexera den mest relevanta informationen som ska visas på dess sökresultatsida. Andra används för att skrapa webbplatser efter bilder som ska inkluderas i AI-träningsuppsättningar.
Det är där Robots.txt kommer in. Robots.txt är en textfil som kan placeras i backend-koden på en webbplats för att tala om för sökrobotar vad de kan och inte kan skanna. Du kan använda den för att stoppa en sökrobot från att titta på vissa sidor eller filer, vilket är användbart om du inte vill att dina bilder ska användas av AI.
Om du vill veta mer, läs vår guide på vad en sökrobot är och hur den fungerar. För de som har en webbplats, be din webbutvecklare att bädda in en Robots.txt i din webbplatskod för att förhindra att dina bilder skrotas av AI-träningsuppsättningar.
Vad du kan förvänta dig i framtiden
Det är frustrerande att behöva konkurrera med AI-modeller, men fler lösningar är på väg.
Å ena sidan är domstolsprocesser i färd med att utröna vad som är lagligt och hur upphovsrätt fungerar med AI-bildgenerering. Resultatet av dessa offentliga debatter kommer att sätta juridiska standarder, och möjligen snabba regleringar, som AI-företag måste följa.
Å andra sidan funderar utvecklare på hur de ska lösa problemet med hjälp av ny teknik. I en lovande studie visar forskning att du kan använda AI för att bekämpa sig själv genom att göra en bild "olärbar" för AI-träningsdatauppsättningar.
Som Dr Sarah Monazam Erfani på University of Melbourne förklarar: "Vi har tagit fram en maskininlärningsbaserad teknik som identifierar och ändrar precis tillräckligt många pixlar i en bild för att förvirra AI och förvandla den till en "olärbar" bild. Förändringen är mycket liten och omärklig för mänskliga ögon, men den introducerar tillräckligt med "brus" i en bild för att göra den värdelös för att träna AI."
Om du är någon som påverkas av AI-bildgeneratorer är det värt att göra din röst hörd så att dessa företag blir pressade att ändra sina metoder. Det var bara på grund av stark feedback från DeviantArt-gemenskapen som en ny opt-out-inställning skapades, så se till att ge feedback till konstdelningsplattformarna och AI-företagen.
Försvara dina bilder från AI
Du kan skydda dina bilder från AI-konstgeneratorer genom att välja bort AI-utbildningsdataset, upphovsrättsskydda dina bilder och använda Robots.txt-standarden. Även om det inte kommer att garantera att dina bilder håller sig utanför AI-system, kommer att använda alla tre metoderna ge dig det bästa försvaret tills fler lösningar har utvecklats.
Nya verktyg är på väg, inklusive sätt att omärkligt justera din bild så att AI inte kan lära av den, vilket gör den värdelös för att träna AI-konstgeneratorer. Under tiden, ge inte upp. Det finns fortfarande sätt att skydda dina bilder från AI-konstgeneratorer.