FraudGPT är en språkmodell finjusterad för att hjälpa brottslingar i bedrägliga aktiviteter. Lär dig vad det är att skydda dig mot potentiella hot.
Uppkomsten av artificiell intelligens (AI) är ett tveeggat svärd. Liksom all transformativ teknik erbjuder AI en enorm potential men också enorma risker. Trots det eftertryckliga trycket för att reglera AI verkar hotaktörer ha kommit före kurvan.
Ett nytt verktyg i ChatGPT-stil, FraudGPT, vinner dragkraft bland cyberkriminella, vilket gör att de kan automatisera och bättre utföra en stor del av sina bedrägeriverksamheter. Vem som helst kan bli ett offer, så det är viktigt att hålla sig informerad. Här är allt vi vet om FraudGPT hittills.
Vad är FraudGPT?
FraudGPT är ett AI-verktyg som drivs av en stor språkmodell som är särskilt finjusterad för att hjälpa cyberbrottslingar att begå cyberbrottslighet. Det prenumerationsbaserade AI-verktyget tillåter hotaktörer att underlätta deras kriminella aktiviteter som att skapa kort, nätfiske och skadlig programvara.
Även om detaljerna om verktyget fortfarande är mycket begränsade, har forskare från Netenrich, ett säkerhetsforskningsföretag, upptäckt flera annonser på den mörka webben som annonserar verktyget. Enligt forskningsrapport från Netenrich, prenumerationsavgifterna varierar mellan $200 per månad till $1 700 per år.
För att bättre se verktyget kan du tänka på FraudGPT som ChatGPT men för bedrägeri. Men exakt hur fungerar FraudGPT och hur använder cyberkriminella det?
Hur fungerar FraudGPT?
I sin kärna skiljer sig FraudGPT inte nämnvärt från något verktyg som drivs av en stor språkmodell. Med andra ord är själva verktyget ett interaktivt gränssnitt för brottslingar för att få tillgång till en speciell typ av språkmodell som har anpassats för att begå cyberbrott.
Förstår du det fortfarande inte? Här är en ungefärlig uppfattning om vad vi pratar om. I början av ChatGPTs lansering kunde AI-chatboten användas för att göra nästan vad som helst, inklusive att hjälpa cyberbrottslingar att skapa skadlig programvara. Detta var möjligt eftersom ChatGPT: s underliggande språkmodell tränades på en datauppsättning som sannolikt innehöll prover av ett brett utbud av data, inklusive data som kunde hjälpa en kriminell satsning.
Stora språkmodeller matas vanligtvis med allt från bra saker, som vetenskapsteorier, hälsoinformation och politik, till de inte så bra, som exempel på skadlig kod, meddelanden från kort- och nätfiskekampanjer och andra kriminella material. När man hanterar den typ av datauppsättningar som behövs för att träna språkmodeller som den typ som driver ChatGPT, är det nästan oundvikligt att modellen skulle innehålla prover av oönskat material.
Trots typiskt noggranna ansträngningar för att eliminera oönskade material i datamängden, glider vissa igenom, och de är vanligtvis fortfarande tillräckligt för att ge modellen förmågan att generera material för att underlätta Cyber brott. Det är därför med höger snabb ingenjörskonst, kan du få verktyg som ChatGPT, Google Bard och Bing AI som hjälper dig att skriva bedrägerimeddelanden eller skadlig programvara.
Om verktyg som ChatGPT kan hjälpa cyberbrottslingar att begå brott trots alla ansträngningar för att göra dessa AI-chatbotar säkra, tänk nu på driva ett verktyg som FraudGPT med tanke på att det var specifikt finjusterat på skadligt material för att göra det lämpligt för Cyber brott. Det är som att ChatGPTs onda tvilling fick steroider.
Så för att använda verktyget kunde brottslingar bara fråga chatboten som de skulle göra med ChatGPT. De kan be den att till exempel skriva ett nätfiske-e-postmeddelande för Jane Doe, som arbetar på företaget ABC, eller kanske be den att skriva skadlig programvara med C++ för att stjäla alla PDF-filer från en Windows 10-dator. Brottslingar skulle i princip bara komma på ond mekanisering och låta chatboten göra det tunga arbetet.
Hur kan du skydda dig från BedrägeriGPT?
Trots att det är en ny typ av verktyg är hotet från FraudGPT inte fundamentalt annorlunda. Man kan säga att det introducerar mer automatisering och effektivitet till redan etablerade metoder för att utföra cyberbrottslighet.
Brottslingar som använder verktyget skulle, åtminstone teoretiskt, kunna skriva mer övertygande nätfiske-e-postmeddelanden, bättre plan bedrägerier och skapa mer effektiv skadlig programvara, men de skulle för det mesta fortfarande lita på de etablerade sätten att avrätta sina skändliga planer. Som ett resultat av detta gäller fortfarande de etablerade sätten att skydda dig själv:
- Var försiktig med oönskade meddelanden som ber om information eller hänvisar dig till att klicka på länkar. Ge inte information eller klicka på länkar i dessa meddelanden om du inte verifierar källan.
- Kontakta företag direkt med hjälp av ett oberoende, verifierat nummer för att kontrollera legitimiteten. Använd inte kontaktuppgifter i misstänkta meddelanden.
- Använd starka, unika lösenord som är svåra att knäcka och omfamna tvåfaktorsautentisering när den är tillgänglig för alla konton. Dela aldrig lösenord eller koder som skickas till dig.
- Kontrollera regelbundet kontoutdrag för misstänkt aktivitet.
- Håll programvaran uppdaterad och använd antivirus- eller anti-malware-verktyg.
- Strimla dokument som innehåller personligt identifierande eller finansiell information när den inte längre behövs.
För mer om hur du skyddar dig, läs vår guide om hur du skyddar dig själv i AI: s era.
Håll dig informerad för att skydda dig själv
Framväxten av verktyg som FraudGPT påminner oss om att trots allt gott som AI kan göra för oss, representerar det fortfarande ett mycket potent verktyg i händerna på hotaktörer.
När regeringar och stora AI-företag går i ett frenetiskt lopp för att anta bättre sätt att reglera AI, är det viktigt att vara medveten om det hot som AI för närvarande utgör och vidta nödvändiga försiktighetsåtgärder för att skydda själv.