Oavsett om du använder ChatGPT eller en annan chatbot måste du vara medveten om de potentiella hoten som ifrågasätter din datasekretess.

Chatbots har funnits i åratal, men framväxten av stora språkmodeller, som ChatGPT och Google Bard, har gett chatbotbranschen ett nytt liv.

Miljontals människor använder nu AI-chatbots över hela världen, men det finns några viktiga integritetsrisker och problem att tänka på om du vill testa något av dessa verktyg.

1. Datainsamling

De flesta använder inte chatbots bara för att säga hej. Moderna chatbots är designade för att bearbeta och svara på komplexa frågor och förfrågningar, med användare som ofta inkluderar mycket information i sina meddelanden. Även om du bara ställer en enkel fråga, vill du inte att den ska gå utöver din konversation.

Enligt OpenAI: s supportsektion, kan du radera ChatGPT-chattloggar när du vill, och dessa loggar kommer sedan att raderas permanent från OpenAI: s system efter 30 dagar. Däremot kommer företaget att behålla och granska vissa chattloggar om de har flaggats för skadligt eller olämpligt innehåll.

instagram viewer

En annan populär AI-chattbot, Claude, håller också reda på dina tidigare konversationer. Anthropics supportcenter säger att Claude spårar "dina uppmaningar och utdata i produkten för att ge dig en konsekvent produktupplevelse över tid i enlighet med dina kontroller." Du kan radera dina konversationer med Claude, så att den glömmer vad du har pratat om, men det betyder inte att Anthropic omedelbart kommer att radera dina loggar från sin system.

Detta väcker naturligtvis frågan: sparas mina uppgifter eller inte? Använder ChatGPT eller andra chatbots min data?

Men oron slutar inte här.

Hur lär sig ChatGPT?

För att ge information tränas stora språkmodeller med enorma mängder data. Enligt VetenskapsfokusEnbart ChatGPT-4 matades med 300 miljarder ord med information under sin träningsperiod. Detta är inte hämtat direkt från några uppslagsverk. Chatbotutvecklare använder snarare massor av information från internet för att träna sina modeller. Detta kan inkludera data från böcker, filmer, artiklar, Wikipedia-inlägg, blogginlägg, kommentarer och till och med recensionswebbplatser.

Tänk på att, beroende på en chatbot-utvecklares integritetspolicy, kanske vissa av de ovannämnda källorna inte används i utbildningen.

Många har kritiserat ChatGPT och hävdat att det är något av en mardröm när det gäller integritet, det ChatGPT kan inte litas på. Så varför är detta fallet?

Det är här saker och ting blir lite suddiga. Om du frågar ChatGPT-3.5 direkt om den har tillgång till produktrecensioner eller artikelkommentarer, får du ett klart negativt svar. Som du kan se i skärmdumpen nedan, anger GPT-3.5 att den inte fick tillgång till användarartikelkommentarer eller produktrecensioner i sin utbildning.

Snarare tränades det med hjälp av "ett varierat utbud av text från internet, inklusive webbplatser, böcker, artiklar och annat allmänt tillgängligt skriftligt material fram till september 2021."

Men är fallet detsamma för GPT-4?

När vi frågade GPT-4 fick vi veta att "OpenAI inte använde specifika användarrecensioner, personlig data eller artikelkommentarer" under chatbotens träningsperiod. Dessutom berättade GPT-4 för oss att dess svar genereras från "mönster i data som [den] tränades på, som i första hand består av böcker, artiklar och annan text från internet."

När vi undersökte ytterligare hävdade GPT-4 att visst innehåll i sociala medier verkligen kan inkluderas i dess träningsdata, men skaparna kommer alltid att förbli anonyma. GPT-4 uttalade specifikt att "Även om innehållet från plattformar som Reddit var en del av träningsdata, [den har inte] tillgång till specifika kommentarer, inlägg eller någon data som kan länkas tillbaka till en individ användare."

En annan anmärkningsvärd del av GPT-4:s svar är följande: "OpenAI har inte uttryckligen listat varje datakälla som används." Av naturligtvis skulle det vara svårt för OpenAI att lista källor till ett värde av 300 miljarder ord, men detta lämnar utrymme för spekulation.

I en Ars Technica artikel, uppgavs att ChatGPT samlar in "personlig information som erhållits utan samtycke." I samma artikel, kontextuell integritet nämndes, ett begrepp som syftar på att endast använda någons information i det sammanhang det var ursprungligen användes. Om ChatGPT bryter mot denna kontextuella integritet kan människors data vara i fara.

En annan punkt av oro här är OpenAI: s överensstämmelse med General Data Protection Regulation (GDPR). Detta är en förordning som tillämpas av Europeiska unionen för att skydda medborgarnas data. Olika europeiska länder, inklusive Italien och Polen, har inlett undersökningar av ChatGPT på grund av farhågor kring dess efterlevnad av GDPR. Under en kort tid var ChatGPT till och med förbjudet i Italien på grund av integritetsbekymmer.

OpenAI har tidigare hotat att dra sig ur EU på grund av planerade AI-regleringar, men detta har sedan dragits tillbaka.

ChatGPT kan vara den största AI-chatboten idag, men chatbots sekretessproblem börjar och slutar inte hos denna leverantör. Om du använder en skum chatbot med en svag sekretesspolicy kan dina konversationer missbrukas eller mycket känslig information kan användas i dess träningsdata.

2. Datastöld

Precis som alla onlineverktyg eller plattformar är chatbots sårbara för cyberbrottslighet. Även om en chatbot gjorde allt den kunde för att skydda användare och deras data, finns det alltid en chans att en kunnig hackare kommer att lyckas infiltrera sina interna system.

Om en viss chatbot-tjänst lagrade din känsliga information, till exempel betalningsinformation för din premium prenumeration, kontaktuppgifter eller liknande, kan detta bli stulet och utnyttjat om en cyberattack skulle inträffa inträffa.

Detta gäller särskilt om du använder en mindre säker chatbot vars utvecklare inte har investerat i adekvat säkerhetsskydd. Inte bara kan företagets interna system hackas, utan ditt eget konto har chansen att äventyras om det inte har inloggningsvarningar eller ett autentiseringslager.

Nu när AI-chatbotar är så populära har cyberbrottslingar naturligtvis strömmat till att använda den här branschen för sina bedrägerier. Falska ChatGPT-webbplatser och plugins har varit ett stort problem sedan OpenAIs chatbot kom in i mainstream slutet av 2022, med människor som faller för bedrägerier och ger bort personlig information under sken av legitimitet och förtroende.

I mars 2023 rapporterade MUO om en falska ChatGPT Chrome-tillägg som stjäl Facebook-inloggningar. Pluginet kan utnyttja en Facebook-bakdörr för att hacka högprofilerade konton och stjäla användarcookies. Detta är bara ett exempel på många falska ChatGPT-tjänster utformade för att lura okända offer.

3. Malware-infektion

Om du använder en skum chatbot utan att inse det, kan du hitta chatboten som ger dig länkar till skadliga webbplatser. Kanske har chatboten varnat dig om en frestande giveaway, eller tillhandahållit en källa för ett av dess uttalanden. Om operatörerna av tjänsten har otillåtna avsikter kan hela poängen med plattformen vara att sprida skadlig programvara och bedrägerier via skadliga länkar.

Alternativt kan hackare äventyra en legitim chatbottjänst och använda den för att sprida skadlig programvara. Om den här chatboten råkar vara väldigt människor, kommer tusentals eller till och med miljontals användare att bli utsatta för denna skadliga programvara. Falska ChatGPT-appar har till och med funnits på Apple App Store, så det är bäst att trampa försiktigt.

I allmänhet bör du aldrig klicka på några länkar som en chatbot tillhandahåller tidigare kör det via en länkkontrollwebbplats. Detta kan verka irriterande, men det är alltid bäst att vara säker på att webbplatsen du leds till inte har en skadlig design.

Dessutom bör du aldrig installera några chatbot-plugins och tillägg utan att först verifiera deras legitimitet. Gör lite research runt appen för att se om den har blivit väl granskad, och kör även en sökning hos appens utvecklare för att se om du hittar något skumt.

Chatbots är inte ogenomträngliga för integritetsproblem

Som de flesta onlineverktyg nuförtiden har chatbots upprepade gånger kritiserats för deras eventuella säkerhets- och integritetsfallgropar. Oavsett om det är en chatbot-leverantör som skär hörn när det gäller användarsäkerhet, eller de pågående riskerna för cyberattacker och bedrägerier, det är viktigt att du vet vad din chatbottjänst samlar in på dig och om den har tillräcklig säkerhet åtgärder.