Deepfake-teknik kan vara kul att leka med, men dess potential för skada är betydande. Här är vad framtiden för deepfakes kan ge.

De kontrollanta tecknen på en djupfalsk bild brukade vara lätta att upptäcka, men generativ AI får oss att ifrågasätta nästan allt vi ser och hör nu. Med varje ny AI-modell som släpps minskar de kontrollanta tecknen på en falsk bild, och för att lägga till förvirring, du kan nu skapa djupfalska videor, röstkloner av dina nära och kära och tillverka falska artiklar i ren sekunder.

För att undvika att bli lurad av AI deepfakes är det värt att veta vilken typ av faror de utgör.

Utvecklingen av Deepfakes

En deepfake visar en person som gör något som aldrig hänt i verkligheten. Det är helt fejk. Vi skrattar åt deepfakes när de delas på internet som ett meme eller skämt, men väldigt få människor tycker att det är roligt när de används för att vilseleda oss.

Tidigare skapades deepfakes genom att ta ett befintligt foto och ändra det i ett bildredigeringsprogram som Photoshop. Men det som skiljer en AI deepfake åt är att den kan genereras från grunden med hjälp av djupinlärningsalgoritmer.

instagram viewer

De Merriam-Webster ordbok definierar en deepfake som:

En bild eller inspelning som på ett övertygande sätt har ändrats och manipulerats för att felaktigt framställa någon som gör eller säger något som inte faktiskt har gjorts eller sagts.

Men med framsteg inom AI-teknik börjar denna definition se föråldrad ut. Med användning av AI-verktyg inkluderar deepfakes nu bilder, text, videor och röstkloning. Ibland används alla fyra lägen för AI-generering samtidigt.

Eftersom det är en automatiserad process som är otroligt snabb och billig att använda, är det det perfekta verktyget för att djupförfalskningar i en takt vi aldrig har sett förut – allt utan att behöva veta en enda sak om hur man redigerar foton, videor eller audio.

De stora farorna med AI Deepfakes

En värd för AI-videogeneratorer finns redan, tillsammans med massor av AI röstgeneratorer. Släng in en stor språkmodell som GPT-4 och du har ett recept för att skapa de mest trovärdiga deepfakes som vi har sett i modern historia hittills.

Att vara medveten om de olika typerna av AI deepfakes, och hur de kan användas för att lura dig, är ett sätt att undvika att bli vilseledd. Här är bara några seriösa exempel på hur AI deepfake-teknik utgör ett verkligt hot.

1. AI identitetsstöld

Du kanske har sett dem. Bland de första verkligt virala AI-deepfakes som spreds över världen var en bild av Donald Trump som arresterades och en av påven Franciskus i en vit pufferjacka.

Medan man verkar vara en oskyldig ombild av vad en berömd religiös figur kan ha på sig en kylig dag i Rom; den andra bilden, som visar en politisk person i en allvarlig situation med lagen, har mycket större konsekvenser om den tas som verklig.

Hittills har människor främst riktat sig mot kändisar, politiska figurer och andra kända individer när de skapar AI deepfakes. Delvis beror detta på att kända personer har massor av foton av dem på internet, vilket troligen hjälpte till att träna modellen i första hand.

När det gäller en AI-bildgenerator som Midjourney – som används i både Trumps och påvens deepfake – behöver en användare helt enkelt mata in text som beskriver vad de vill se. Nyckelord kan användas för att specificera konststilen, till exempel ett fotografi eller fotorealism, och resultaten kan finjusteras genom att skala upp upplösningen.

Du kan lika gärna lär dig att använda Midjourney och testa detta själv, men av uppenbara moraliska och juridiska skäl bör du undvika att publicera dessa bilder offentligt.

Tyvärr kommer inte att vara en genomsnittlig, icke-känd människa garantera att du är säker från AI deepfakes heller.

Problemet ligger i en nyckelfunktion som erbjuds av AI-bildgeneratorer: möjligheten att ladda upp din egen bild och manipulera den med AI. Och ett verktyg som Ommålning i DALL-E 2 kan utöka en befintlig bild utanför dess gränser genom att mata in en textuppmaning och beskriva vad mer du vill skapa.

Om någon annan skulle göra det här med dina bilder, kan farorna vara betydligt större än påvens djupa falska i en vit jacka – de kan använda den var som helst och låtsas vara du. Medan de flesta människor i allmänhet använder AI med goda avsikter, finns det väldigt få begränsningar som hindrar människor från att använda det för att orsaka skada, särskilt i fall av identitetsstöld.

2. Deepfake Voice Clone Scams

Med hjälp av AI har deepfakes passerat en gräns som de flesta av oss inte var förberedda på: falska röstkloner. Med bara en liten mängd originalljud – kanske från en TikTok-video som du en gång lade upp, eller en YouTube-video du dyker upp i – kan en AI-modell replikera din en-och-bara röst.

Det är både kusligt och skrämmande att föreställa sig att få ett telefonsamtal som låter precis som en familjemedlem, vän eller kollega. Deepfake röstkloner är en allvarlig nog oro för att Federal Trade Commission (FTC) har utfärdat en varning om det.

Lita inte på rösten. Ring personen som påstås ha kontaktat dig och verifiera historien. Använd ett telefonnummer som du vet är deras. Om du inte kan nå din älskade, försök att komma i kontakt med dem genom en annan familjemedlem eller deras vänner.

Det rapporterade Washington Post ett fall av ett par i 70-årsåldern som fick ett telefonsamtal från någon som lät precis som deras barnbarn. Han satt i fängelse och behövde akut pengar för borgen. Utan någon annan anledning att tvivla på vem de pratade med gick de vidare och lämnade över pengarna till bedragaren.

Det är inte bara den äldre generationen som är i fara, Det rapporterade The Guardian ett annat exempel på en bankchef som godkände en transaktion på 35 miljoner dollar efter en serie "djupt falska samtal" från någon som de trodde var en bankdirektör.

3. Massproducerade falska nyheter

Stora språkmodeller, som ChatGPT är väldigt, väldigt bra på att producera text som låter precis som en människa, och vi har för närvarande inga effektiva verktyg för att upptäcka skillnaden. I fel händer kommer falska nyheter och konspirationsteorier att vara billiga att producera och ta längre tid att avslöja.

Att sprida desinformation är naturligtvis inget nytt, utan en forskningsartikel publicerad på arXiv i januari 2023 förklarar att problemet ligger i hur lätt det är att skala upp produktionen med AI-verktyg. De refererar till det som "AI-genererade påverkanskampanjer", som de säger till exempel skulle kunna användas av politiker för att lägga ut sina politiska kampanjer.

Att kombinera mer än en AI-genererad källa skapar en djupförfalskning på hög nivå. Som ett exempel kan en AI-modell generera en välskriven och övertygande nyhet som går tillsammans med den falska bilden av Donald Trump som arresteras. Detta ger den mer legitimitet än om bilden delades på egen hand.

Fake news är inte heller begränsade till bilder och skrift, utvecklingen inom AI-videogenerering innebär att vi ser fler deepfake-videor dyka upp. Här är en av Robert Downey Jr. ympad på en video av Elon Musk, postad av YouTube-kanal Deepfakery.

Att skapa en deepfake kan vara lika enkelt som att ladda ner en app. Du kan använda en app som TokkingHeads för att förvandla stillbilder till animerade avatarer, som låter dig ladda upp din egen bild och ljud för att få det att verka som om personen pratar.

För det mesta är det underhållande och roligt, men det finns också potential för problem. Det visar oss hur lätt det är att använda någons bild för att få det att verka som om den personen yttrade ord som de aldrig talade.

Låt dig inte luras av en AI Deepfake

Deepfakes kan snabbt distribueras till mycket låg kostnad och med en låg kompetensnivå eller datorkraft som krävs. De kan ta formen av en genererad bild, en röstklon eller en kombination av AI-genererade bilder, ljud och text.

Det brukade vara mycket svårare och mer arbetskrävande att producera en deepfake, men nu, med massor av AI-appar där ute, har nästan vem som helst tillgång till verktygen som används för att skapa deepfake. När AI deepfake-tekniken blir allt mer avancerad är det värt att hålla ett öga på farorna den utgör.