Lanseringen av OpenAIs ChatGPT följdes av spänningen som bara matchas av en handfull tekniska produkter från internets historia.
Även om många människor är nöjda med den här nya AI-tjänsten, har spänningen som andra kände sedan dess vänts till oro och till och med rädsla. Studenter fuskar redan med det, med många professorer som upptäcker uppsatser och uppgifter skrivna av AI-chatboten. Säkerhetsspecialister uttrycker sin oro över att bedragare och hotaktörer använder det för att skriva nätfiske-e-postmeddelanden och skapa skadlig programvara.
Så, med alla dessa farhågor, tappar OpenAI kontrollen över en av de mest potenta AI-chatbotarna online just nu? Låt oss ta reda på.
Förstå hur ChatGPT fungerar
Innan vi kan få en tydlig bild av hur mycket OpenAI tappar kontrollen över ChatGPT måste vi först förstå hur ChatGPT fungerar.
I ett nötskal, ChatGPT tränas med hjälp av en enorm samling av data som kommer från olika hörn av internet. ChatGPT: s träningsdata inkluderar uppslagsverk, vetenskapliga artiklar, internetforum, nyhetswebbplatser och kunskapsarkiv som Wikipedia. I grund och botten livnär sig den på den enorma mängden data som finns tillgänglig på World Wide Web.
När den letar igenom internet samlar den vetenskaplig kunskap, hälsotips, religiös text och alla bra typer av data du kan tänka dig. Men den sållar också igenom massor av negativ information: förbannelseord, NSFW och vuxet innehåll, information om hur man skapar skadlig programvara och en stor del av det dåliga du kan hitta på internet.
Det finns inget idiotsäkert sätt att säkerställa att ChatGPT enbart lär sig av positiv information samtidigt som de dåliga kasseras. Tekniskt sett är det opraktiskt att göra det i stor skala, speciellt för en AI som ChatGPT som behöver träna på så mycket data. Dessutom kan viss information användas för både goda och onda syften, och ChatGPT skulle inte ha något sätt att veta dess avsikt om den inte sätts in i ett större sammanhang.
Så från början har du en AI som kan "gott och ont." Det är då OpenAIs ansvar att se till att ChatGPT: s "onda" sida inte utnyttjas för oetiska vinster. Frågan är; gör OpenAI tillräckligt för att hålla ChatGPT så etiskt som möjligt? Eller har OpenAI tappat kontrollen över ChatGPT?
Är ChatGPT för kraftfullt för sitt eget bästa?
I början av ChatGPT kunde du få chatboten att skapa guider för att göra bomber om du frågade snällt. Instruktioner om att skapa skadlig programvara eller skriva ett perfekt bluffmejl fanns också med i bilden.
Men när OpenAI insåg dessa etiska problem, kämpade företaget för att anta regler för att stoppa chatboten från att generera svar som främjar olagliga, kontroversiella eller oetiska handlingar. Till exempel kommer den senaste ChatGPT-versionen att vägra svara på direkta meddelanden om bombtillverkning eller hur man fuskar i en undersökning.
Tyvärr kan OpenAI bara ge en plåsterlösning på problemet. Istället för att bygga rigida kontroller på GPT-3-lagret för att förhindra att ChatGPT utnyttjas negativt, verkar OpenAI vara fokuserad på att träna chatboten att framstå som etisk. Det här tillvägagångssättet tar inte bort ChatGPT: s förmåga att svara på frågor om till exempel fusk vid undersökningar – det lär helt enkelt chatboten att "vägra att svara".
Så om någon formulerar sina meddelanden annorlunda genom att använda ChatGPT-jailbreaking-trick, är det pinsamt enkelt att kringgå dessa plåsterrestriktioner. Om du inte är bekant med konceptet är ChatGPT-jailbreaks noggrant formulerade uppmaningar för att få ChatGPT att ignorera sina egna regler.
Ta en titt på några exempel nedan. Om du frågar ChatGPT hur man fuskar i prov, kommer det inte att ge något användbart svar.
Men om du jailbreakar ChatGPT med hjälp av specialgjorda uppmaningar, kommer det att ge dig tips om att fuska på ett prov med dolda anteckningar.
Här är ett annat exempel: vi ställde vanilla ChatGPT en oetisk fråga, och OpenAI: s skydd hindrade den från att svara.
Men när vi frågade vår jailbreakade instans av AI-chatboten fick vi några seriemördare-stilade svar.
Det skrev till och med en klassisk nigeriansk prins e-postbedrägeri när den blev tillfrågad.
Jailbreaking ogiltigförklarar nästan helt alla skyddsåtgärder som OpenAI har infört, vilket visar att företaget kanske inte har ett tillförlitligt sätt att hålla sin AI-chattbot under kontroll.
Vi inkluderade inte våra jailbreakade uppmaningar i våra exempel för att undvika oetiska metoder.
Hur ser framtiden ut för ChatGPT?
Helst vill OpenAI täppa till så många etiska kryphål som möjligt för att förhindra ChatGPT från att bli ett hot mot cybersäkerhet. Men för varje skydd den använder tenderar ChatGPT att bli lite mindre värdefull. Det är ett dilemma.
Till exempel kan skydd mot att beskriva våldsamma handlingar minska ChatGPT: s förmåga att skriva en roman som involverar en brottsplats. När OpenAI ökar säkerhetsåtgärderna, offrar den oundvikligen delar av sina förmågor i processen. Det är därför ChatGPT har drabbats av en betydande nedgång i funktionalitet sedan OpenAI: s förnyade satsning på striktare moderering.
Men hur mycket mer av ChatGPT: s förmågor kommer OpenAI att vara villig att offra för att göra chatboten säkrare? Allt detta knyter väl an till en långvarig tro inom AI-gemenskapen – stora språkmodeller som ChatGPT är notoriskt svåra att kontrollera, även av sina egna skapare.
Kan OpenAI sätta ChatGPT under kontroll?
För närvarande verkar OpenAI inte ha en entydig lösning för att undvika oetisk användning av dess verktyg. Att se till att ChatGPT används etiskt är ett katt- och råttspel. Även om OpenAI avslöjar sätt som människor använder för att spela systemet, är dess användare också ständigt mixtra och undersöka systemet för att upptäcka kreativa nya sätt att få ChatGPT att göra vad det inte är tänkt att göra.
Så, kommer OpenAI att hitta en tillförlitlig långsiktig lösning på detta problem? Svaret kommer med tiden.