ChatGPT kan vara ett användbart verktyg, oavsett om dina avsikter är goda eller för dåliga. Det betyder att om du vill bedrägeri kan ChatGPT hjälpa dig.
Även om många digitala infödda berömmer ChatGPT, fruktar vissa att det gör mer skada än nytta. Nyhetsrapporter om skurkar som kapar AI har gjort rundor på internet, vilket ökar oro bland skeptiker. De anser till och med att ChatGPT är ett farligt verktyg.
AI chatbots är inte perfekta, men du behöver inte undvika dem helt och hållet. Här är allt du bör veta om hur skurkar missbrukar ChatGPT och vad du kan göra för att stoppa dem.
Kommer ChatGPT att äventyra din personliga information?
De flesta front-end säkerhetsproblem om ChatGPT härrör från spekulationer och overifierade rapporter. Plattformen lanserades trots allt först i november 2022. Det är naturligt för nya användare att ha missuppfattningar om integriteten och säkerheten för okända verktyg.
Enligt OpenAI: s användarvillkor, här är hur ChatGPT hanterar följande data:
Personligt identifierbar information
Rykten säger att ChatGPT säljer personligt identifierbar information (PII).
Plattformen lanserades av OpenAI, ett välrenommerat AI-forskningslabb finansierat av tekniska investerare som Microsoft och Elon Musk. ChatGPT bör endast använda kunddata för att tillhandahålla de tjänster som anges i integritetspolicy.
Dessutom ber ChatGPT om minimal information. Du kan skapa ett konto med bara ditt namn och din e-postadress.
Samtal
OpenAI håller ChatGPT-konversationer säkra, men det förbehåller sig rätten att övervaka dem. AI-tränare letar kontinuerligt efter förbättringsområden. Eftersom plattformen består av stora men ändå begränsade datauppsättningar, kräver lösning av fel, buggar och sårbarheter systemomfattande uppdateringar.
OpenAI kan dock bara övervaka konvos för forskningsändamål. Att distribuera eller sälja dem till tredje part bryter mot dess egna användarvillkor.
Allmän information
Enligt BBC, OpenAI tränade ChaGPT på 300 miljarder ord. Den samlar in data från offentliga webbsidor, som sociala medieplattformar, företagswebbplatser och kommentarsektioner. Om du inte har gått utanför nätet och raderat ditt digitala fotavtryck, har ChatGPT sannolikt din information.
Vilka säkerhetsrisker innebär ChatGPT?
Även om ChatGPT inte är farligt i sig, utgör plattformen fortfarande säkerhetsrisker. Skurkar kan kringgå restriktioner för att utföra olika cyberattacker.
1. Övertygande nätfiske-e-postmeddelanden
Istället för att spendera timmar på att skriva e-postmeddelanden använder skurkar ChatGPT. Det är snabbt och korrekt. Avancerade språkmodeller (som GPT-3.5 och GPT-4) kan producera hundratals sammanhängande, övertygande nätfiske-e-postmeddelanden inom några minuter. De antar till och med unika toner och skrivstilar.
Eftersom ChatGPT gör det svårare att upptäcka hackningsförsök, var extra försiktig innan du svarar på mejl. Undvik som en allmän regel att avslöja information. Observera att legitima företag och organisationer sällan ber om konfidentiell PII via slumpmässiga e-postmeddelanden.
Lär dig att upptäcka hackningsförsök. Även om e-postleverantörer filtrerar skräppostmeddelanden, kan några listiga sådana falla mellan stolarna. Du bör fortfarande veta hur nätfiskemeddelanden ser ut.
2. Datastöld
ChatGPT använder en öppen källkod LLM, som alla kan ändra. Kodare som är skickliga i stora språkmodeller (LLM) och maskininlärning integrerar ofta förutbildade AI-modeller i sina äldre system. Att träna AI på nya datamängder förändrar funktionaliteten. ChatGPT blir till exempel en pseudo-fitnessexpert om du matar den med recept och träningsrutiner.
Även om den är samarbetsvillig och bekväm, gör öppen källkod teknik sårbara för missbruk. Skickliga kriminella utnyttjar redan ChatGPT. De tränar den på stora volymer stulna data, vilket gör plattformen till en personlig databas för bedrägerier.
Kom ihåg: du har ingen kontroll över hur skurkar fungerar. Det bästa sättet är att kontakta Federal Trade Commission (FTC) när du märker det tecken på identitetsstöld.
3. Skadlig programvara
ChatGPT skriver användbara kodsnuttar på olika programmeringsspråk. De flesta prover kräver minimala ändringar för att fungera korrekt, särskilt om du strukturerar en kortfattad prompt. Du kan använda den här funktionen för att utveckla appar och webbplatser.
Eftersom ChatGPT tränades på miljarder datauppsättningar känner den också till olaglig praxis, som att utveckla skadlig programvara och virus. OpenAI förbjuder chatbots från att skriva skadliga koder. Men skurkar kringgår dessa restriktioner genom att omstrukturera uppmaningar och ställa exakta frågor.
Bilden nedan visar att ChatGPT avvisar att skriva kod i skadliga syften.
Under tiden visar bilden nedan att ChatGPT kommer att ge dig skadlig information om du formulerar dina meddelanden korrekt.
4. Stöld av immateriell egendom
Oetiska bloggare spinner innehåll med ChatGPT. Eftersom plattformen körs på avancerade LLM: er kan den snabbt omformulera tusentals ord och undvika plagiattaggar.
ChatGPT omformulerade texten nedan på 10 sekunder.
Naturligtvis klassas spinning fortfarande som plagiat. Omskrivna AI-artiklar rankas ibland av en slump, men Google föredrar i allmänhet originalinnehåll från välrenommerade källor. Billiga knep och SEO-hack kan inte slå städsegrönt skrivande av hög kvalitet.
Dessutom släpper Google flera kärnuppdateringar årligen. Det kommer snart att fokusera på att ta bort lata, original AI-genererade bitar från SERPs.
5. Generera oetiska svar
AI-språkmodeller har inga fördomar. De ger svar genom att analysera användarförfrågningar och hämta data från deras befintliga databas.
Ta ChatGPT som ett exempel. När du skickar en prompt svarar den baserat på de datauppsättningar som OpenAI använde för utbildning.
Medan ChatGPTs innehållspolicy blockerar olämpliga förfrågningar, kringgår användarna dem med jailbreak-uppmaningar. De ger den exakta, smarta instruktioner. ChatGPT producerar svaret nedan om du ber det att porträttera en psykopatisk fiktiv karaktär.
De goda nyheterna är OpenAI har inte tappat kontrollen över ChatGPT. Dess pågående ansträngningar för att skärpa begränsningarna hindrar ChatGPT från att producera oetiska svar, oavsett användarinput. Jailbreaking kommer inte att vara lika lätt att gå framåt.
6. Motprestation
Den snabba tillväxten av nya, obekanta teknologier som ChatGPT skapar möjligheter för quid pro quo-attacker. De är social ingenjörskonst där skurkar lockar offer med falska erbjudanden.
De flesta människor har inte utforskat ChatGPT än. Och hackare utnyttjar förvirringen genom att sprida vilseledande kampanjer, e-postmeddelanden och meddelanden.
De mest ökända fallen handlar om falska appar. Nya användare vet inte att de bara kan komma åt ChatGPT via OpenAI. De laddar omedvetet ner spamprogram och tillägg.
De flesta vill bara ha appnedladdningar, men andra stjäl personligt identifierbar information. Skurkar infekterar dem med skadlig programvara och nätfiske-länkar. Till exempel, i mars 2023, en falska ChatGPT Chrome-tillägg stal Facebook-uppgifter från 2 000+ användare dagligen.
Undvik appar från tredje part för att bekämpa quid pro quo-försök. OpenAI släppte aldrig en auktoriserad mobilapp, datorprogram eller webbläsartillägg för ChatGPT. Allt som påstår sig som sådant är en bluff.
Använd ChatGPT säkert och ansvarsfullt
ChatGPT är inte ett hot i sig. Systemet har sårbarheter, men det kommer inte att äventyra din data. Istället för att frukta AI-teknik, undersök hur skurkar införlivar dem i social ingenjörsteknik. På så sätt kan du proaktivt skydda dig själv.
Men om du fortfarande tvivlar på ChatGPT, prova Bing. Den nya Bing har en AI-driven chatbot som körs på GPT-4, hämtar data från internet och följer strikta säkerhetsåtgärder. Du kanske tycker att det passar dina behov bättre.