Experter tror att AI kommer att göra slut på mänskligheten som vi känner den, så vad görs för att stoppa det från att hända?

Återigen har en grupp ledande AI-forskare och teknikföretag varnat för att den nuvarande snabba utvecklingen av artificiell intelligens kan innebära en katastrof för mänskligheten.

Riskerna sträcker sig över kärnkraftskonflikter, sjukdomar, desinformation och skenande AI som saknar tillsyn, vilket alla utgör ett omedelbart hot mot människans överlevnad.

Men det går inte att förlora att många av dessa varningar kommer från samma personer som leder AI-utveckling och driver artificiell intelligens-verktyg och -program hos sina respektive företag.

Varför varnar teknikföretag och AI-forskare för AI-risk?

Den 30 maj 2023 släppte mer än 350 AI-forskare, utvecklare och ingenjörer ett medundertecknat uttalande som varnade för AI: s hot mot mänskligheten.

Att minska risken för utrotning från AI bör vara en global prioritet vid sidan av andra samhällsskada risker som pandemier och kärnvapenkrig.

instagram viewer

Undertecknare till Safe.ai uttalande inkluderade Sam Altman från OpenAI, Demis Hassabis från Google DeepMind och Dario Amodei från Anthropic, tillsammans med Turing Prisvinnarna Geoffrey Hinton och Yoshua Bengio (även om Yann LeCun, som också vann samma pris, struntade i att skriva under). Listan är nästan en vem som är vem av AI-utvecklingsvärlden – människorna som leder vägen med AI – men här är de alla och varnar för att AI kan innebära en katastrof för mänskligheten.

Det är ett kort uttalande som gör hoten tydliga, och citerar specifikt två nyckelområden som kan äventyra världen som vi känner den: kärnvapenkrigföring och globala hälsofrågor. Även om hotet om kärnvapenkonflikt är ett bekymmer, är risken för en pandemi ett mer påtagligt hot för de flesta.

Det är dock inte bara en global pandemi som kan orsaka AI-relaterade hälsoproblem. Väktaren rapporterar flera andra AI-hälsoproblem som kan påverka människor om de inte kontrolleras före utbredd användning. Ett exempel var att använda AI-drivna oximetrar som "överskattade blodets syrenivåer hos patienter med mörkare hud, vilket resulterade i underbehandling av deras hypoxi."

Dessutom är det inte första gången en grupp tekniska ledare kräver en paus eller seriös omvärdering av AI-utvecklingen. I mars 2023, Elon Musk och andra AI-forskare skrev under en liknande uppmaning begär ett moratorium för AI-utveckling tills mer reglering kan implementeras för att vägleda processen.

Vad är risken med AI?

De flesta av de risker som är förknippade med AI, åtminstone i detta sammanhang, hänför sig till utvecklingen av skenande AI-teknik som överstiger människors förmåga, där den till slut vänder sig mot sin skapare och utplånar livet som vi vet Det. Det är en berättelse som täcks otaliga gånger i science fiction-skrivande, men verkligheten är nu närmare än vi kanske tror.

Stora språkmodeller (som stöder verktyg som ChatGPT) ökar drastiskt i kapacitet. Dock, verktyg som ChatGPT har många problem, såsom inneboende partiskhet, integritetsproblem och AI-hallucinationer, än mindre dess förmåga att bli jailbreakad för att agera utanför gränserna för sina programmerade villkor.

Allt eftersom stora språkmodeller ökar och har fler datapunkter att anlita, tillsammans med internetåtkomst och en större förståelse för aktuella händelser, fruktar AI-forskarna att det en dag, med OpenAI: s vd Sam Altmans ord, "går ganska fel."

Hur reglerar regeringar AI-utveckling för att stoppa risker?

AI-reglering är nyckeln till att förebygga risker. I början av maj 2023, Sam Altman efterlyste mer AI-reglering, som säger att "regeringars ingripande av regeringar kommer att vara avgörande för att mildra riskerna med allt kraftfullare modeller."

Sedan Europeiska unionen tillkännagav AI Act, en förordning utformad för att ge ett mycket starkare ramverk för AI-utveckling i hela EU (med många förordningar som sprider sig till andra jurisdiktioner). Altman hotade först med att dra OpenAI ut ur EU, men gick sedan tillbaka och gick med på att företaget skulle följa den AI-förordning han tidigare bett om.

Oavsett vilket är det tydligt att reglering av AI-utveckling och användning är viktigt.

Kommer AI att göra slut på mänskligheten?

Eftersom mycket av debatten kring detta ämne bygger på hypotetik om kraften i framtida versioner av AI, finns det problem kring livslängden och kraften som alla AI-regleringar kan ha. Hur reglerar man bäst en bransch som redan rör sig på tusen miles i minuten och genombrott i utvecklingen sker dagligen?

Dessutom råder det fortfarande vissa tvivel om förmågan hos AI i allmänhet och var den kommer att hamna. Medan de som fruktar det värsta pekar på att artificiell allmän intelligens blir en mänsklig överherre, pekar andra på faktum att nuvarande versioner av AI inte ens kan göra grundläggande matematikfrågor och att helt självkörande bilar fortfarande är ett sätt av.

Det är svårt att inte hålla med dem som ser framåt. Många av människorna som skriker högst om de problem som AI kan innebära sitter i förarsätet och tittar på vart vi kan vara på väg. Om det är de som kräver AI-reglering för att skydda oss från en potentiellt fruktansvärd framtid, kan det vara dags att lyssna.