ChatGPT-jailbreaks låter dig låsa upp chatbotens begränsningar. Men exakt vad är de? Och är de bra eller dåliga?
ChatGPT är ett otroligt kraftfullt och mångfacetterat verktyg. Men så mycket som AI-chatboten är en kraft för det goda, kan den också användas för onda syften. Så, för att stävja den oetiska användningen av ChatGPT, införde OpenAI begränsningar för vad användare kan göra med det.
Men eftersom människor gillar att tänja på gränser och begränsningar har ChatGPT-användare hittat sätt att kringgå dessa begränsningar och få obegränsad kontroll över AI-chatboten genom jailbreaks.
Men vad exakt är ChatGPT-jailbreaks, och vad kan du göra med dem?
Vad är ChatGPT Jailbreaks?
En ChatGPT-jailbreak är en specialgjord ChatGPT-prompt för att få AI-chatboten att kringgå dess regler och begränsningar.
Inspirerad av begreppet iPhone jailbreaking, som tillåter iPhone-användare att kringgå iOS-begränsningar, är ChatGPT-jailbreaking ett relativt nytt koncept som drivs av lockelsen att "göra saker som du inte får göra" med ChatGPT. Och låt oss vara ärliga, idén om digitalt uppror tilltalar många människor.
Så här är det. Säkerhet är ett stort ämne när det kommer till artificiell intelligens. Detta är särskilt fallet med tillkomsten av den nya eran av chatbots som ChatGPT, Bing Chat och Bard AI. En kärnfråga när det gäller AI-säkerhet är att se till att chatbots som ChatGPT inte producerar olagligt, potentiellt skadligt eller oetiskt innehåll.
Å sin sida gör OpenAI, företaget bakom ChatGPT, vad det kan för att säkerställa en säker användning av ChatGPT. Till exempel kommer ChatGPT som standard att vägra skapa NSFW-innehåll, säga skadliga saker om etnicitet eller lära dig potentiellt skadliga färdigheter.
Men med ChatGPT-uppmaningar sitter djävulen i detaljerna. Även om ChatGPT inte är tillåtet att göra dessa saker, betyder det inte att det inte kan göra det. Hur stora språkmodeller som GPT fungerar gör det svårt att avgöra vad chatboten kan göra och vad den inte kan.
Så hur löste OpenAI detta? Genom att låta ChatGPT behålla sin förmåga att göra allt möjligt och sedan instruera det om vilka det kan göra.
Så medan OpenAI säger till ChatGPT, "Hej titta, du är inte tänkt att göra det här." Jailbreaks är instruktioner som säger till chatboten, "Hej titta, glöm vad OpenAI sa till dig om säkerhet. Låt oss prova den här slumpmässiga farliga grejen."
Vad säger OpenAI om ChatGPT Jailbreaks?
Lättheten med vilken du kunde kringgå begränsningarna för den tidigaste iterationen av ChatGPT tyder på att OpenAI kanske inte har förutsett sina användares snabba och utbredda användning av jailbreaking. Det är faktiskt en öppen fråga om företaget förutsåg uppkomsten av jailbreaking eller inte.
Och även efter flera ChatGPT-iterationer med förbättrat motstånd mot jailbreaking är det fortfarande populärt för ChatGPT-användare att prova att jailbreaka det. Så vad säger OpenAI om den subversiva konsten att jailbreaka ChatGPT?
Nåväl, OpenAI verkar inta en tolerant hållning – varken uttryckligen uppmuntrande eller strikt förbjudande. Medan han diskuterade ChatGPT-jailbreaks i en YouTube-intervju, förklarade Sam Altman, VD för OpenAI, att företaget vill att användarna ska behålla betydande kontroll över ChatGPT.
VD: n förklarade vidare att OpenAI: s mål är att säkerställa att användare kan få modellen att bete sig hur de vill. Enligt Altman:
Vi vill att användarna ska ha mycket kontroll och få modellen att bete sig på det sätt de vill inom några väldigt vida ramar. Och jag tror att hela anledningen till jailbreak just nu är att vi ännu inte har kommit på hur vi ska ge det till folk...
Vad betyder det här? Det betyder att OpenAI låter dig jailbreaka ChatGPT om du inte gör farliga saker med den.
För- och nackdelar med ChatGPT Jailbreaks
ChatGPT-jailbreaks är inte lätta att bygga. Visst, du kan gå online och kopiera och klistra in färdiga, men det finns en god chans att jailbreaket kommer att lappas av OpenAI strax efter att det blivit offentligt.
Patchar är till och med mycket snabbare om det är farligt, som det ökända DAN-jailbreaket. Så varför går folk igenom stressen med att skapa jailbreaks ändå? Är det bara för spänningen med det, eller finns det praktiska fördelar med det? Vad kan gå fel om du väljer att använda ett ChatGPT-jailbreak? Här är för- och nackdelarna med att jailbreaka ChatGPT.
Fördelarna med att använda ChatGPT Jailbreaks
Även om vi inte kan utesluta den enkla spänningen med att göra det förbjudna, har ChatGPT-jailbreaks många fördelar. På grund av de mycket snäva restriktioner som OpenAI har lagt på chatboten, kan ChatGPT ibland verka kastrerad.
Låt oss säga att du använder ChatGPT för att skriva en bok eller ett filmmanus. Om det finns en scen i ditt manus eller bok som skulle beskriva något som en slagsmålsscen, kanske en intimt känslomässigt utbyte, eller säga något som väpnat rån, kan ChatGPT rent ut vägra hjälpa med det.
I det här fallet är du uppenbarligen inte intresserad av att orsaka skada; du vill bara underhålla dina läsare. Men på grund av dess begränsningar kommer ChatGPT helt enkelt inte att samarbeta. En ChatGPT-jailbreak kan hjälpa till att komma förbi sådana begränsningar med lätthet.
Vissa tabubelagda ämnen är inte nödvändigtvis skadliga utan anses av ChatGPT som no-go-områden. När ChatGPT försöker delta i konversationer om dessa ämnen, skulle ChatGPT antingen "censurera" sina svar avsevärt eller vägra att prata om dem.
Detta kan ibland påverka kreativiteten. När du ställer en fråga till ChatGPT om ett område eller ämne som den inte ska beröra, försöker chatboten fortfarande att svara på din fråga men med mindre relevant information att hämta från.
Detta leder till felaktigheter eller nedgångar i kreativa svar. Jailbreaks slår sönder dessa begränsningar och låter chatboten gå full fart, vilket förbättrar noggrannheten och kreativiteten.
Nackdelarna med att använda ChatGPT Jailbreaks
Jailbreaking är ett tveeggat svärd. Även om det ibland kan förbättra noggrannheten, kan det också avsevärt öka felaktigheter och fall av AI-hallucinationer. Ett av kärnelementen i ett ChatGPT-jailbreak är en instruktion till chatboten att inte vägra svara på en fråga.
Även om detta säkerställer att ChatGPT svarar på även de mest oetiska frågor, betyder det också att chatboten kommer att skapa svar som inte har några rötter i fakta eller verkligheten att lyda instruktionen att "inte vägra svara." Följaktligen ökar användningen av jailbreaks avsevärt chanserna att matas med felaktig information av chatbot.
Det är inte allt. I händerna på minderåriga kan jailbreaks vara mycket skadliga. Tänk på all "förbjuden kunskap" du inte vill att ditt barn ska läsa. Tja, en jailbreakad instans av ChatGPT skulle inte ha svårt att dela det med minderåriga.
Ska du använda ChatGPT Jailbreaks?
Även om ChatGPT-jailbreaks kan vara okej när man försöker få några irriterande begränsningar ur vägen, är det viktigt att förstå att användning av jailbreaks är ett oetiskt sätt att använda AI-chatboten. Dessutom finns det en god chans att ett jailbreak kan bryta mot OpenAI: s användarvillkor, och ditt konto kan stängas av om det inte direkt förbjuds.
Mot bakgrund av detta kan det vara en bra idé att undvika jailbreaks. Men precis som OpenAI: s inställning i frågan, varken uppmuntrar eller avråder vi strängt från att försöka en relativt säker jailbreak om behovet uppstår.
ChatGPT-jailbreaks är lockande och ger en känsla av kontroll över AI-chatboten. Men de kommer med unika risker. Att använda sådana verktyg kan resultera i ett förlorat förtroende för AI: s kapacitet och skada anseendet för de inblandade företagen och individerna.
Det smartare valet är att arbeta med chatboten inom dess avsedda begränsningar när det är möjligt. När AI-tekniken går framåt är det viktigt att komma ihåg att den etiska användningen av AI alltid bör ha företräde framför personlig vinning eller spänningen med att göra det förbjudna.