Orolig för din integritet när du använder ChatGPT på jobbet? Här är några tips för att hålla din data säker.

ChatGPT har visat sig vara ett ovärderligt verktyg för arbetet. Ändå visar integritetsproblem på nätet behovet av vaksamhet när det gäller att skydda känsliga uppgifter. Nyligen inträffade incidenter av ChatGPT-dataintrång fungerar som en skarp påminnelse om att tekniken är mottaglig för integritetshot. Här är några tips för att använda ChatGPT på ett ansvarsfullt sätt för att skydda din arbetsdatas konfidentialitet.

1. Spara inte din chatthistorik

Ett av de enklaste men effektiva stegen för att skydda din integritet är att undvika att spara din chatthistorik. ChatGPT lagrar som standard all interaktion mellan användare och chatboten. Dessa samtal samlas in för att träna OpenAI: s system och är föremål för inspektion av moderatorer.

Även om kontomoderering säkerställer att du följer Open AI: s villkor och tjänster, öppnar det också för säkerhetsrisker för användaren. Faktiskt, Gränsen

instagram viewer
rapporterar att företag som Apple, J.P. Morgan, Verizon och Amazon har förbjudit sina anställda från använda AI-verktyg på grund av rädsla för läckt eller insamlad konfidentiell information som matas in i dessa system.

Följ dessa steg för att inaktivera chatthistorik:

  1. Klicka på ellipsen eller tre prickar bredvid ditt ChatGPT-kontonamn.
  2. Klicka på inställningar.
  3. Klicka på Datakontroller.
  4. Slå av Chatthistorik och träning.

Anteckna det OpenAI säger att även med den här inställningen aktiverad behålls konversationer i 30 dagar med möjlighet för moderatorer att granska dem för missbruk innan de raderas permanent. Ändå är att inaktivera chatthistorik en av de bästa sakerna du kan göra om du vill fortsätta använda ChatGPT.

Tips: Om du behöver tillgång till dina data på ChatGPT, exportera dem först. Du kan också spara dem genom att ta skärmdumpar, skriva anteckningar manuellt, kopiera och klistra in dem i en separat applikation eller använda säker molnlagring.

2. Ta bort konversationer

En av stora problem med OpenAI: s ChatGPT är potentiella dataintrång. ChatGPT-avbrottet som föranledde en utredning av Federal Trade Commission visar hur riskabelt det är att använda appen.

Enligt OpenAI: s uppdatering om avbrottet den 20 mars 2023, orsakade en bugg i ett bibliotek med öppen källkod incidenten. Läckan gjorde det möjligt för användare att se chatthistorikens titlar för andra användare. Den avslöjade också betalningsrelaterad information om 1,2 % av ChatGPT Plus-prenumeranter, inklusive namn, kreditkortsinformation och e-postadresser.

Att ta bort dina konversationer hjälper till att skydda din data från dessa möjliga hot. Ta följande steg för att ta bort dina chattar:

  1. Klicka på ellipsen eller tre prickar bredvid ditt ChatGPT-kontonamn.
  2. Klick inställningar.
  3. Under Allmän, klick Klar för att rensa alla chattar.

Ett annat alternativ är att välja varje konversation och ta bort den. Den här metoden är användbar om du fortfarande vill behålla några av dina chattar. Klicka på chatten du vill ta bort i listan över konversationer. Välj papperskorgen för att ta bort data.

3. Mata inte ChatGPT-känslig arbetsinformation

Var försiktig och avstå från att förse ChatGPT med känslig arbetsrelaterad information. En av vanligaste sekretessmyterna på nätet är att företag kommer att skydda dina uppgifter bara för att ett allmänt uttalande i deras användarvillkor säger det.

Undvik att dela ekonomiska register, immateriella rättigheter, kundinformation och skyddad hälsoinformation. Du ökar risken för att dela konfidentiell data med cyberbrottslingar. Detta kan till och med leda till juridiska problem för dig och ditt företag.

Den massiva ChatGPT-dataläckan från juni 2022 till maj 2023 illustrerar hur viktig denna punkt är. Sökmotortidning rapporterar att över 100 000 ChatGPT-kontouppgifter äventyrades och såldes på mörka webbmarknader på grund av incidenten.

Begränsa interaktioner med ChatGPT till icke-konfidentiella frågor och undvik att dela äganderättslig information. Tillämpa dessutom god lösenordshygien och aktivera tvåfaktorsautentisering för att förhindra att ditt konto äventyrar.

4. Använd dataanonymiseringstekniker

Dataanonymiseringstekniker hjälper till att skydda individens integritet samtidigt som de behåller insikter från datamängder. När du använder ChatGPT för arbete, använd dessa tekniker för att förhindra direkt eller indirekt identifiering av individer i data.

Här är några grundläggande dataanonymiseringstekniker från Personuppgiftsskyddskommissionen i Singapore:

  • Attributundertryckning: Ta bort en hel del av data som inte behövs för din fråga. Låt oss säga att du behöver analysera en kunds utgiftsmönster. Du kan mata ChatGPT med transaktionsbelopp och köpdatum. Men dela inte kundens namn och kreditkortsinformation eftersom dessa inte är nödvändiga för analysen.
  • Pseudonymisering: Ersätt identifierbar information med pseudonymer. Du kan till exempel ersätta patientnamn i en journal med pseudonymer som "Patient001", "Patient002" och så vidare.
  • Datastörning: Ändra datavärden något inom ett visst intervall. Till exempel, när du delar patientålderdata kan du lägga till små slumpmässiga värden (t.ex. ±2 år) till varje individs faktiska ålder.
  • Generalisering: Minska data medvetet. Till exempel, istället för att avslöja människors exakta ålder, kan du generalisera data genom att gruppera åldrar i bredare intervall (t.ex. 20-30, 31-40, etc.).
  • Karaktärsmaskering: Visa endast en del av känslig data. Till exempel kan du bara skriva de tre första siffrorna i ett telefonnummer och ersätta resten med X (t.ex. 555-XXX-XXXX).

Anonymisering är inte idiotsäker eftersom data kan avanonymiseras. Förstå avanonymisering och hur man förhindrar det innan du använder någon av dessa tekniker. Utvärdera riskerna innan du släpper anonymiserad data.

5. Begränsa åtkomst till känsliga data

Att begränsa åtkomsten till känslig arbetsdata är avgörande när arbetare tillåts använda ChatGPT. Om du arbetar i en ledarroll, begränsa åtkomsten till känslig information till behörig personal som kräver det för sina specifika roller.

Implementera dessutom åtkomstkontroller för att skydda ditt företags data. Till exempel ger rollbaserad åtkomstkontroll (RBAC) behöriga anställda tillgång till endast nödvändig information för att utföra sina jobb. Du kan också genomföra regelbundna åtkomstgranskningar för att säkerställa att åtkomstkontrollerna är effektiva. Glöm inte att återkalla åtkomst för anställda som byter roll eller lämnar företaget.

6. Var försiktig med appar från tredje part

Om tredjeparts ChatGPT-appar och webbläsartillägg är säkra är en viktig fråga att ställa. Innan du använder någon av dessa appar för arbete, noggrant vet och granska dem. Se till att de inte samlar in och behåller information för tvivelaktiga ändamål.

Installera inte skumma appar som ber om slumpmässiga behörigheter på din telefon. Verifiera deras datahanteringsmetoder för att kontrollera om de överensstämmer med din organisations sekretessstandarder.

Använd ChatGPT Responsibly for Work

Att upprätthålla integritet när du använder ChatGPT för jobbet är knepigt. Om du absolut måste använda ChatGPT för att göra ditt jobb, förstå integritetsriskerna. Det finns ingen felsäker metod för att skydda dina data när du lämnar över dem till ett AI-verktyg. Men du kan vidta åtgärder för att minska risken för dataläckor.

ChatGPT har många praktiska användningsområden för arbete, men du bör skydda din företagsdata när du använder den. Att förstå ChatGPTs integritetspolicy bör hjälpa dig att avgöra om verktyget är värt risken.