Läsare som du hjälper till att stödja MUO. När du gör ett köp med hjälp av länkar på vår webbplats kan vi tjäna en affiliate-provision. Läs mer.

Till många människors misstro upptäcker levande konstnärer att deras konst har använts för att träna AI-modeller utan deras samtycke. Med hjälp av ett webbverktyg som heter "Har jag blivit tränad?", kan du på några minuter veta om dina bilder matades till Midjourney, NightCafe och andra populära AI-bildgeneratorer.

Om du hittar din bild i en av datamängderna som används för att träna dessa AI-system, misströsta inte. Vissa organisationer har utvecklat sätt att välja bort denna praxis och förhindra att dina bilder skrotas från internet och skickas vidare till AI-företag.

Hur AI-bildgeneratorer tränas i första hand

När du ber ett AI-system som DALL-E att generera en bild av en "hund som bär en födelsedagshatt", måste den först veta hur en hund ser ut och hur en födelsedagshatt ser ut också. Den får denna information från enorma datamängder som samlar miljarder länkar till bilder över hela internet.

Som vi alla vet innehåller internet nästan vilken typ av bild du kan tänka dig, inklusive, med all sannolikhet, massor av bilder på en "hund som bär en födelsedagshatt". Med tillräckligt mycket data som denna kan en AI-modell räkna ut hur man återskapar en bild i likhet med de som den har tränats på.

Men vad händer om dessa bilder ursprungligen var upphovsrättsskyddade? Och vad händer om dessa bilder tillhörde konstnärer, fotografer eller vanliga människor som inte var medvetna om att deras bilder matade ett AI-system?

Problemet för konstnärer

Många AI-bildgeneratorer har en betalnivå där användare kan köpa krediter för att skapa fler bilder, vilket ger dem en vinst. Men den vinsten tjänas från ryggen på okrediterade personer vars bilder användes för att träna AI-systemet i första hand.

När fler artister får reda på att deras bilder användes för att utveckla AI-system, är det tydligt att inte alla är okej med det. Åtminstone vill de att AI-företag ska få samtycke innan de använder deras bilder.

Speciellt om du är en populär, välkänd artist, kan det tränga din marknad att ha bilder genererade i din stil, med fans eller potentiella kunder, utan att veta om konsten skapades av dig eller replikeras i din likhet av AI. Vad som är ännu värre, människor kan skapa konstverk i din stil för att stödja värderingar du inte tror på.

Detta är inte ett nytt problem, deepfakes har funnits i flera år och är potentiellt på väg att bli värre med framväxten av AI. Nuförtiden är det snabbt, billigt och enkelt att reproducera "falsk" konst. Det finns bara ett fåtal sätt att identifiera en AI-genererad bild, vilket gör det svårt att upptäcka originalkonsten från dess AI-genererade motsvarighet.

Dataset: Hitta och indexera dina bilder

Som vi nämnde tidigare används bilddatauppsättningar av AI-företag för att träna sina modeller. Dessa datauppsättningar ser ut som ett gigantiskt Excel-kalkylblad med en kolumn som innehåller en länk till en bild på internet, medan en annan har bildtexten.

Inte alla AI-företag kommer att avslöja datamängden de använder, DALL-E är ett exempel. Detta gör det svårt att veta vad som refereras till när det genererar en bild och bidrar till den allmänna mystiken hos AI-system.

Å andra sidan har Stable Diffusion, en modell utvecklad av Stability AI, gjort det klart att den byggdes på LAION-5B dataset, som har kolossala 5,85 miljarder CLIP-filtrerade bild-text-par. Eftersom denna datauppsättning är öppen källkod kan vem som helst se bilderna som den indexerar, och på grund av detta har den fått stor kritik.

I början av 2023, Getty Images stämde Stability AI för att skrapa bilder från sin webbplats för att träna sin AI-bildgenerator, Stable Diffusion. Om du undrar vem som i sin tur använder Stable Diffusion, skulle det vara NightCafe, Midjourney och DreamStudio, några av de största spelarna på området.

Hur man vet om dina bilder användes för att träna en AI-modell

Inrättad av en grupp artister, Lek är ett kollektiv vars syfte är att hjälpa människor att ta reda på om deras bilder finns på datauppsättningar som LAION-5B, som används för att träna AI-modeller. Deras sökmotor på webben ringde Har jag blivit utbildad? låter dig enkelt söka efter nyckelord som ditt artistnamn.

Har jag blivit utbildad?

Have I Been Trained fungerar ungefär som en bildsökning på Google, förutom att din sökning matchas med resultaten i LAION-5B-datauppsättningen. Du har möjlighet att söka antingen på nyckelord eller på bild, det senare är till hjälp om du vill se om en exakt bild har använts.

Vi använde namnet på konstnären Frida Kahlo (1907-1954) för att testa det och hittade en blandning av historiska fotografier och vad som ser ut som fan art i form av doodles, målningar, korsstygn, virkning och illustrationer.

Om du är en av dessa skapare är du en av de många okrediterade människor vars kreativitet gjorde det möjligt för AI-bildgeneratorer att existera. Och med den kraften kan vem som helst skapa Frida-bilder som detta bisarra porträtt av "Frida Kahlo äter glass".

Testa att skriva ditt eget artistnamn i sökfältet för att se om ditt arbete har använts för att träna en AI-modell.

Hur man väljer bort AI Training Dataset

Samma team bakom webbplatsen Have I Been Trained har skapat ett verktyg för människor att välja in eller bort från AI-konstsystem. Det är ett sätt för konstnärer att behålla kontroll och tillstånd över vem som använder deras konst och i vilket syfte.

Andra konstplattformar börjar följa efter och för närvarande erbjuder DeviantArt ett alternativ att utesluta deras bilder från att sökas i bilddatauppsättningar.

Förutom att kunna söka efter din bild kan du också välja bilder för att välja bort LAION-5B träningsdata med hjälp av sajten Have I Been Trained.

Du måste skapa ett konto först, och efter detta högerklickar du på en bild och väljer att Välj bort den här bilden.

Om du väljer det här alternativet läggs den bilden till i din opt-out-lista som du kan komma åt genom att klicka på din kontosymbol i det övre högra hörnet på sidan och sedan välja Mina listor. För att ta bort den från din lista, högerklicka på bilden och välj Ta bort från opt-out-listan.

Om du är en produktiv konstnär är den här metoden tråkig och inte tillräcklig för att effektivt välja bort alla dina bilder. Tyvärr finns det inget bättre alternativ i skrivande stund, men det är troligt att förbättringar kommer att göras av detta system i framtiden.

Dessa opt-out-listor skickas sedan vidare till företaget bakom LAION-5B, som har gått med på att ta bort dessa bilder från dess datauppsättning.

DeviantArt Opt-out-inställning

DeviantArt har hittills lett vägen för konst värdplattformar genom att ge användarna möjlighet att välja bort sin konst. Från början var du tvungen att hitta inställningen och markera kryssrutan för att välja bort. Men efter stark feedback från DeviantArt-communityt är det här alternativet nu aktiverat som standard.

Det betyder att ingen bild som publiceras på DeviantArt görs tillgänglig för bilddatauppsättningar, såvida inte användare har valt att delta. Även om den inte är helt idiotsäker, innebär den mekanism som används att flagga en bild med en "noai" HTML-tagg. Detta talar om för AI-datauppsättningar att bilden inte är tillåten att användas, och om den är det kommer företaget att bryta mot DeviantArts användarvillkor.

Du kan hitta inställningen för att välja bort genom att hålla musen över din personliga kontoikon och klicka Kontoinställningar. Klicka sedan Allmän från menyn till vänster och scrolla ner tills du ser rubriken Berätta för AI-dataset att de inte kan använda ditt innehåll.

Respektera konstnärernas arbete

Att hitta en bra kompromiss mellan AI-system och artister vars arbete hjälper till att träna dem kommer att ta tid. Om du är en skapare, känn dig inte maktlös. Med starka svar från de samhällen som använder konstplattformar som DeviantArt kan du ha kontroll över vem som använder din konst.

Alla kommer inte att vilja välja bort det heller, vissa människor har inga problem med att deras bilder tränar AI-modeller. Men det viktigaste är att AI-företag får samtycke och utarbetar ett rättvist och respektfullt utrymme för AI-modeller och artister att existera tillsammans.