Den 6 juni 2022 gick Chris Umé och Thomas Graham, grundarna av Metaphysic, med på America's Got Talent-scenen med Daniel Emmet. Med hjälp av tekniken som Metaphysic utvecklade, framförde Daniel Emmet "You’re the Inspiration" med hjälp av AGT-domaren Simon Cowells likhet live på scen.
Den här föreställningen häpnade domarna och fångade publiken, vilket resulterade i fyra ja. Gruppen går vidare till nästa omgång av AGT – men vad betyder deras användning av deepfake-teknik för underhållningens framtid?
Vad hände på AGT-scenen?
De främsta tävlande för showen var Chris och Thomas. När de presenterade sig sa de:
"Vi använder artificiell intelligens för att skapa hyperrealistiskt innehåll."
De tog sedan upp Daniel Emmet på scen. När Simon frågade hur han kom in i duon sa han:
"Jag är fan av vad de gör online, och de är fans av AGT. Och när de bad mig att vara en del av denna underbara, unika, originella sak som de kommer att göra, kunde jag inte säga nej.”
Så, med allt mysterium kring trion, önskade Cowell dem lycka till och de startade showen.
När Emmet förberedde sig för att sjunga gick en kamera upp på scenen för att spela in honom i profil, vilket blockerade publikens (och domarens syn). När musiken startade gick kamerans flöde live på scenens skärm, där vi såg Simons hyperverkliga avatar läggas över David och sjunga live på scenen.
Publiken blev vild när de såg det, men Simon var först förvirrad. När föreställningen fortsatte gick Cowell från förvirrad till generad till underhållen. Till slut gav han (och resten av publiken) akten en stående ovation, och gruppen fick ett "ja" från alla fyra domarna.
Hur Deepfakes påverkar underhållning
Även om deepfakes kan verka som en ny utveckling för de flesta människor, är detta inte fallet, särskilt i Hollywood. Visserligen är detta förmodligen första gången deepfake-tekniken är med i en livemiljö, men filmer har använt denna teknik i flera år nu.
Ett populärt exempel är filmen Furious 7 från 2015, där en av huvudpersonerna, Paul Walker, dog i en bilolycka mitt under inspelningen. Istället för att döda hans karaktär i filmen bestämde sig producenterna för att filma honom med sina bröder som stand-ins och sedan använda CGI för att sätta Pauls ansikte på dem.
Denna teknik dök också upp i Rogue One: A Star Wars Story 2016 och användes på Grand Moff Tarkin och prinsessan Leia. Tyvärr gick skådespelaren som spelade karaktären, Peter Cushing, bort 1994. Och medan Carrie Fisher fortfarande levde under inspelningen, hade hennes utseende förändrats avsevärt sedan 1977.
För den här filmen använde produktionen stand-ins och teknik som liknar deepfakes för att återskapa originalkaraktärerna digitalt.
Och även om du kanske tror att detta är en ny utveckling, kanske du blir förvånad över att veta att 2000-talets Gladiator också använde liknande teknik. När en av de främsta birollsskådespelarna, Oliver Reed, plötsligt dog under inspelningen, valde produktionen att återskapa honom digitalt samtidigt som han använde en kroppsdubbel för själva inspelningen.
Den här tekniken går dock längre än att återuppliva och vända på kändisar. De använde det till och med i Captain America: The First Avenger för att byta ut Chris Evans gigantiska kropp mot Leander Deenys mindre ram. Även om de också använde olika andra tekniker för att göra hans lilla framträdande före Howard Starks experiment, var deepfake-teknik ett av deras verktyg.
Hur Deepfakes kan revolutionera underhållningsindustrin
En sak som alla exemplen ovan har gemensamt är att de var tvungna att spendera månader och miljontals dollar för att få den effekt de ville uppnå. Men på AGT Stage visade Metaphysic att de kunde återskapa en annan kändis i hög kvalitet i realtid.
Även om deras produktion på AGT-scenen inte är 100 % realistisk, är den tillräckligt nära den verkliga varan om du inte tittar noga. Och en stor sak är att de gör det i realtid. Med hur tekniken utvecklas kommer vi snart att hitta en deepfake-applikation i realtid som omedelbart kan producera en realistisk video.
Utvecklingen kan minska studiornas beroende av avancerade trackingdräkter och omfattande efterbearbetning, vilket ytterligare effektiviserar deras efterproduktionsarbetsflöde. Och medans skapa sömlösa deepfake-videor är inte så lätt som det låter, du behöver inte längre vara ett produktionsbolag för flera miljoner dollar för att ha råd med det.
Teknikens vanliga introduktion skulle göra det möjligt för mindre studior och till och med indiefilmare att ha råd med och använda den för sina skapelser. Faktum är att alla som har en smartphone kan prova den här tekniken genom appar för ansiktsbyte, även om de inte är lika bra som på AGT-scenen.
Framtiden för Deepfakes i filmer och TV
När deepfake-tekniken utvecklas kan vi snart hitta ett tillfälle som studior lätt kan använda kändisar som liknar tidigare för att ge liv åt sina senaste filmer. Dessa skulle hjälpa till att hålla kontinuiteten, särskilt som produktioner (och biobesökare) föredrar långvariga franchiseavtal, där de möter problem med åldrande eller till och med döende kändisar.
Men denna utveckling har också en annan aspekt - den kan användas för att återskapa en persons likhet utan deras samtycke. Dessutom kan samma video användas för att så rädsla, spänning och förvirring bland människor, särskilt om det är från en politisk person och det djupa falska inte är igenkännbart som sådant.
Så mycket som vi är nöjda med denna teknik inom underhållning, bör vi också vara försiktiga med att den används etiskt och aldrig för att så kaos.