De senaste innovationerna kring AI-baserad teknik tänjer på gränserna för vad vi en gång trodde var möjligt med AI. Men med chatbots som ChatGPT och Bing Chat som blir nästan lika bra som människor på flera saker, är det dags att slå på bromsen ett tag?
Elon Musk och flera AI-forskare är bland de 1 188 personer (i skrivande stund) som tror det. Ett brev publicerat av det ideella Future of Life-institutet kräver en sexmånaders paus för att träna AI-teknik bättre än GPT 4, men krävs verkligen en paus?
Vad handlar livets framtid öppet brev om?
De brev utgivet av Future of Life-institutet påpekar att AI-laboratorier har "låsts i en out-of-control race" för att utveckla och distribuera mer och mer kraftfulla AI-modeller som ingen, inklusive deras skapare, kan "förstå, förutsäga eller tillförlitligt kontrollera".
Den påpekar också att samtida AI-system nu blir människokonkurrens vid allmänna uppgifter och frågar om vi ska utveckla "icke-mänskliga sinnen som så småningom kan överträffa, överlista, föråldrade och ersätta oss".
Brevet uppmanar så småningom alla AI-labb att omedelbart pausa utbildningen av AI-system som är kraftfullare än GPT-4 i minst sex månader. Pausen bör också vara offentlig och verifierbar för alla nyckelaktörer. Den säger också att om en sådan paus inte kan genomdrivas snabbt, bör regeringar gå in för att tillfälligt förbjuda AI-modellutbildning.
När pausen är aktiv uppmanas AI-labb och oberoende experter att använda den för att gemensamt utveckla och implementera en "delad uppsättning säkerhetsprotokoll" för att säkerställa att system som följer dessa regler är "säkra utöver rimligt tvivel".
Detta brev har undertecknats av en hel del namngivna personligheter, inklusive Elon Musk, Steve Wozniak och AI-forskare och författare. Faktum är att undertecknarlistan för närvarande är pausad på grund av stor efterfrågan.
Vad är Musks bekymmer med Advanced AI Tech och OpenAI?
Även om undertecknandet av Future of Lifes brev kan tyda på att Musk är oroad över säkerhetsriskerna som sådana avancerade AI-system utgör, kan den verkliga anledningen vara något annat.
Musk grundade OpenAI tillsammans med nuvarande vd Sam Altman redan 2015 som en ideell verksamhet. Men han slog huvudet med Altman senare under 2018 efter att han insåg att han inte var nöjd med företagets framsteg. Musk ville enligt uppgift ta över för att påskynda utvecklingen, men Altman och OpenAI-styrelsen sköt ner idén.
Musk gick bort från OpenAI kort efter och tog med sig sina pengar och bröt sitt löfte att bidra med 1 miljard i finansiering och gav bara 100 miljoner innan han lämnade. Detta tvingade OpenAI att bli ett privat företag kort efter i mars 2019 för att samla in finansiering för att fortsätta sin forskning.
En annan anledning till att Musk lämnade var att AI-utvecklingen hos Tesla skulle orsaka en intressekonflikt i framtiden. Det är uppenbart att Tesla behöver avancerade AI-system för att driva sina Fullständiga självkörande funktioner. Sedan Musk lämnade OpenAI har företaget sprungit iväg med sina AI-modeller och lanserat GPT3.5-driven ChatGPT 2022 och senare uppföljning med GPT-4 i mars 2023.
Det faktum att Musks AI-team inte är i närheten av OpenAI behöver man ta hänsyn till varje gång han säger att moderna AI-modeller kan utgöra risker. Han hade heller inga problem rullar ut Tesla Full Self-Driving beta på allmänna vägar, i huvudsak förvandlar vanliga Tesla-förare till betatestare.
Det här slutar inte här heller. Musk har också varit ganska kritisk mot OpenAI på Twitter, där Altman går så långt som att säga att han attackerar dem när han nyligen dök upp i podcasten "På med Kara Swisher".
För tillfället verkar det som att Musk bara använder Future of Life-brevet för att stoppa utvecklingen hos OpenAI och alla andra företag som kommer ikapp till GPT-4 för att ge sina företag en chans att komma ikapp istället för att faktiskt oroa sig för de potentiella farorna dessa AI-modeller utgör. Observera att brevet också ber om att pausa "träningen" av AI-system i sex månader, vilket relativt enkelt kan kringgås för att fortsätta utveckla dem under tiden.
Behövs det verkligen en paus?
Nödvändigheten av en paus beror på AI-modellernas tillstånd framöver. Brevet är definitivt lite dramatiskt i tonen, och vi riskerar inte att förlora kontrollen över vår civilisation till AI, som det så öppet säger. Som sagt, AI-teknologier utgör några hot.
Med tanke på att OpenAI och andra AI-labb kan komma med bättre säkerhetskontroller på plats, skulle en paus göra mer skada än nytta. Men brevets förslag på en uppsättning delade säkerhetsprotokoll som är "rigoröst granskade och övervakade av oberoende externa experter" låter som en bra idé.
Med teknikjättar som Google och Microsoft som häller miljarder på AI-utveckling och integration i sina produkter, är det osannolikt att brevet kommer att påverka den nuvarande takten i AI-utvecklingen.
AI är här för att stanna
Med teknikjättar som driver AI-integration i sina produkter ytterligare och lägger in miljarder dollar i forskning och utveckling, är AI här för att stanna, oavsett vad oppositionen säger.
Men det är ingen dålig idé att implementera säkerhetsåtgärder för att förhindra att dessa tekniker går av stapeln och potentiellt förvandlas till verktyg för skada.