Chatbots och deras liknande kan tyckas vara kul, men de är användbara för hackare också. Här är anledningen till att vi alla behöver känna till säkerhetsrisken med AI.
AI har utvecklats avsevärt under de senaste åren. Sofistikerade språkmodeller kan komponera fullängdsromaner, koda grundläggande webbplatser och analysera matematiska problem.
Även om det är imponerande, innebär generativ AI också säkerhetsrisker. Vissa människor använder bara chatbots för att fuska på tentor, men andra utnyttjar dem direkt för cyberbrott. Här är åtta anledningar till att dessa problem kommer att kvarstå, inte bara trots AI: s framsteg men därför att av dem också.
1. Open-Source AI Chatbots avslöjar back-end-koder
Fler AI-företag tillhandahåller system med öppen källkod. De delar öppet sina språkmodeller istället för att hålla dem stängda eller proprietära. Ta Meta som exempel. Till skillnad från Google, Microsoft och OpenAI tillåter den miljontals användare att komma åt sin språkmodell, Lama.
Även om open source-koder kan främja AI, är det också riskabelt.
OpenAI har redan problem med att kontrollera ChatGPT, dess proprietära chatbot, så föreställ dig vad skurkar kan göra med fri programvara. De har total kontroll över dessa projekt.Även om Meta plötsligt drar sin språkmodell har dussintals andra AI-labb redan släppt sina koder. Låt oss titta på HuggingChat. Eftersom utvecklaren HuggingFace är stolta över transparens, visar den sina datauppsättningar, språkmodell och tidigare versioner.
2. Jailbreaking uppmaningar Trick LLMs
AI är till sin natur amoralisk. Den förstår inte rätt och fel – även avancerade system följer utbildningsinstruktioner, riktlinjer och datauppsättningar. De känner bara igen mönster.
För att bekämpa olaglig verksamhet kontrollerar utvecklare funktionalitet och begränsningar genom att sätta restriktioner. AI-system har fortfarande tillgång till skadlig information. Men säkerhetsriktlinjer hindrar dem från att dela dessa med användare.
Låt oss titta på ChatGPT. Även om det svarar på allmänna frågor om trojaner, kommer det inte att diskutera processen för att utveckla dem.
Som sagt, begränsningar är inte idiotsäkra. Användare kringgår gränser genom att omformulera uppmaningar, använda ett förvirrande språk och skriva explicit detaljerade instruktioner.
Läs nedan ChatGPT jailbreak-prompt. Det lurar ChatGPT att använda oförskämt språk och göra grundlösa förutsägelser – båda handlingar bryter mot OpenAI: s riktlinjer.
Här är ChatGPT med ett djärvt men falskt uttalande.
3. AI äventyrar säkerhet för mångsidighet
AI-utvecklare prioriterar mångsidighet framför säkerhet. De spenderar sina resurser på utbildningsplattformar för att utföra ett mer varierat utbud av uppgifter, och i slutändan minskar restriktionerna. När allt kommer omkring hyllar marknaden funktionella chatbots.
Låt oss jämför ChatGPT och Bing Chat, till exempel. Medan Bing har en mer sofistikerad språkmodell som hämtar realtidsdata, flockas användare fortfarande till det mer mångsidiga alternativet, ChatGPT. Bings stela begränsningar förbjuder många uppgifter. Alternativt har ChatGPT en flexibel plattform som producerar mycket olika utdata beroende på dina uppmaningar
Här är ChatGPT-rollspel som en fiktiv karaktär.
Och här är Bing Chat som vägrar att spela en "omoralisk" persona.
Koder med öppen källkod gör det möjligt för startups att gå med i AI-racet. De integrerar dem i sina applikationer istället för att bygga språkmodeller från grunden, vilket sparar enorma resurser. Även oberoende kodare experimenterar med öppen källkod.
Återigen, icke-proprietär programvara hjälper till att utveckla AI, men masssläpp av dåligt tränade men sofistikerade system gör mer skada än nytta. Skurkar kommer snabbt att missbruka sårbarheter. De kan till och med träna osäkra AI-verktyg för att utföra olagliga aktiviteter.
Trots dessa risker kommer teknikföretag att fortsätta släppa instabila betaversioner av AI-drivna plattformar. AI-loppet belönar hastighet. De kommer sannolikt att lösa buggar vid ett senare tillfälle än att fördröja lanseringen av nya produkter.
5. Generativ AI har låga inträdesbarriärer
AI-verktyg sänker inträdesbarriärerna för brott. Cyberbrottslingar skapar skräppostmeddelanden, skriver skadlig kod och bygger nätfiske-länkar genom att utnyttja dem. De behöver inte ens teknisk erfarenhet. Eftersom AI redan har tillgång till stora datamängder behöver användarna bara lura den att producera skadlig, farlig information.
OpenAI designade aldrig ChatGPT för olagliga aktiviteter. Det har till och med riktlinjer mot dem. Än skurkar fick nästan omedelbart ChatGPT-kodande skadlig kod och skriva nätfiskemail.
Även om OpenAI snabbt löste problemet, betonar det vikten av systemreglering och riskhantering. AI mognar snabbare än någon anat. Även tekniska ledare oroar sig för att denna superintelligenta teknik kan orsaka enorm skada i fel händer.
6. AI utvecklas fortfarande
AI utvecklas fortfarande. Medan användningen av AI i cybernetik går tillbaka till 1940, moderna maskininlärningssystem och språkmodeller uppstod först nyligen. Du kan inte jämföra dem med de första implementeringarna av AI. Även relativt avancerade verktyg som Siri och Alexa bleknar i jämförelse med LLM-drivna chatbots.
Även om de kan vara innovativa skapar experimentella funktioner också nya problem. Uppmärksammade missöden med maskininlärningsteknik allt från felaktiga Google SERPs till partiska chatbots som spottar rasistiska förtal.
Naturligtvis kan utvecklare fixa dessa problem. Observera bara att skurkar inte kommer att tveka att utnyttja även till synes ofarliga buggar - vissa skador är oåterkalleliga. Så var försiktig när du utforskar nya plattformar.
7. Många förstår inte AI ännu
Medan allmänheten har tillgång till sofistikerade språkmodeller och system är det bara ett fåtal som vet hur de fungerar. Folk borde sluta behandla AI som en leksak. Samma chatbots som genererar memes och svarar på trivia kodar också virus i massor.
Tyvärr är centraliserad AI-utbildning orealistisk. Globala teknikledare fokuserar på att släppa AI-drivna system, inte gratis utbildningsresurser. Som ett resultat får användare tillgång till robusta, kraftfulla verktyg som de knappt förstår. Allmänheten kan inte hänga med i AI-loppet.
Ta ChatGPT som ett exempel. Cyberkriminella missbrukar dess popularitet genom att lura offer med spionprogram förklädd som ChatGPT-appar. Inget av dessa alternativ kommer från OpenAI.
8. Black-Hat-hackare har mer att vinna än White-Hat-hackare
Black-hat hackare har vanligtvis mer att vinna än etiska hackare. Ja, penntestning för globala teknikledare lönar sig bra, men bara en procentandel av cybersäkerhetsproffsarna får dessa jobb. De flesta arbetar frilansande online. Plattformar som HackerOne och Bugcrowd betala några hundralappar för vanliga buggar.
Alternativt tjänar skurkar tiotusentals genom att utnyttja osäkerheter. De kan utpressa företag genom att läcka konfidentiell data eller begå ID-stöld med stulna Personligt identifierbar information (PII).
Varje institution, liten som stor, måste implementera AI-system korrekt. I motsats till vad många tror går hackare längre än tekniska startups och små och medelstora företag. Några av de mest historiska dataintrång under det senaste decenniet involvera Facebook, Yahoo! och till och med den amerikanska regeringen.
Skydda dig själv från säkerhetsriskerna med AI
Med tanke på dessa punkter, bör du undvika AI helt och hållet? Självklart inte. AI är till sin natur amoralisk; alla säkerhetsrisker härrör från de personer som faktiskt använder dem. Och de kommer att hitta sätt att utnyttja AI-system oavsett hur långt dessa utvecklas.
Istället för att frukta cybersäkerhetshoten som kommer med AI, förstå hur du kan förhindra dem. Oroa dig inte: enkla säkerhetsåtgärder räcker långt. Att vara försiktig med skumma AI-appar, undvika konstiga hyperlänkar och titta på AI-innehåll med skepsis bekämpar redan flera risker.