Tokens hjälper dig att kontrollera hur ChatGPT svarar. Här är vad de är och hur du använder dem.

ChatGPT har tagit den tekniska världen med storm, och det råder ingen brist på framsteg och uppdateringar. Men trots användningen av avancerad teknik finns det en hel del begränsande faktorer inom den nuvarande versionen.

En sådan faktor är tokensystemet, som fortsätter att bryta utvecklingscykeln, vilket gör att appens användbarhet går på knä. Om du använder ChatGPT kanske du vill veta mer om ChatGPTs tokens och vad du ska göra när du får slut på tokens.

Låt oss ta ett steg tillbaka och ge dig en inblick i allt som finns att veta om appens underliggande arbetsmekanismer.

Vad är en ChatGPT-token?

Om du går efter appens fasad är allt du ser ett datorspråk som lyder dina kommandon och ger dig de svar du söker. Dock är backend bara massor av kod, att lära sig varje minut och komma igång med frågorna den svarar på.

ChatGPT konverterar varje ord till en läsbar token när du ställer en fråga. För att bryta ner det ytterligare är tokens textfragment, och varje programmeringsspråk använder en annan uppsättning tokenvärden för att förstå kraven.

instagram viewer

Eftersom datorer inte förstår textvärden direkt bryter de ner dem i en kombination av tal, ofta kallade inbäddningar. Du kan till och med överväga inbäddningar som Python-listor, som liknar en lista med relaterade nummer, såsom [1.1,2.1,3.1,4.1…n].

När ChatGPT tar den första inmatningen försöker den förutsäga nästa möjliga inmatning baserat på den tidigare informationen. Den plockar ut hela listan över tidigare tokens och försöker, med hjälp av sin kodningssyntes, förhindra efterföljande inmatning från användaren. Den använder och förutsäger en token i taget för att göra det enklare för språket att förstå användningen.

För att förbättra förutsägelser och förbättra noggrannheten, plockar den upp hela listan med inbäddningar och skickar den genom transformatorlager för att etablera associationer mellan ord. Till exempel, när du ställer en fråga som "Vem är Thomas Edison?", plockar ChatGPT upp de mest värdefulla orden i listan: WHO och Edison.

Transformatorlager har sin roll att spela i hela processen. Dessa lager är en form av neural nätverksarkitektur tränad för att plocka upp de mest relevanta nyckelorden från en rad ord. Utbildningsprocessen är dock inte så enkel som den låter, för det tar lång tid att träna transformatorlager på gigabyte data.

Även om ChatGPT förutsäger endast en token åt gången, är dess autoregressiva teknologi programmerad att förutsäga och återkoppla till den primära modellen för att frigöra utdata. Modellen är inställd för att bara köras en gång för varje token, så resultatet skrivs ut ett ord i taget. Utmatningen stoppas automatiskt när applikationen stöter på ett stopptoken-kommando.

Om du till exempel tittar på token-kalkylatorn på ChatGPT-webbplatsen kan du beräkna din tokenanvändning baserat på dina frågor.

Låt oss skriva in lite exempeltext, till exempel:

Hur förklarar jag användningen av tokens i Chatta GPT?

Enligt kalkylatorn finns det 46 tecken i denna sträng, som kommer att förbruka 13 tokens. Om du delar upp det i Token-ID: n ser det ut ungefär så här:

[2437, 466, 314, 4727, 262, 779, 286, 16326, 287, 24101, 38, 11571, 30]

Enligt OpenAI token-kalkylator:

En användbar tumregel är att en token i allmänhet motsvarar ~4 tecken i text för vanlig engelsk text. Detta översätts till ungefär ¾ av ett ord (så 100 tokens ~= 75 ord).

Gratis vs. Betalda tokens

För att ge dig en smak av vad som är vad inom ChatGPT-applikationen erbjuder OpenAI dig en gratis begränsad token-prenumeration. Om du vill experimentera med ChatGPT API, använd den kostnadsfria krediten på $5, som är giltig i tre månader. När gränsen är uttömd (eller provperioden är slut) kan du betala efter hand, vilket ökar den maximala kvoten till $120.

ChatGPT Plus: Är det betalda prenumerationen värt det?

För att ta det upp ett snäpp kan du till och med registrera dig för ChatGPT Plus-erbjudande, vilket ger dig tillbaka med 20 USD i månaden. Med tanke på den omfattande användningen och populariteten för hela AI-modellen, här är de bästa funktionerna i den betalda prenumerationsmodellen:

  • Tillgång till ChatGPT, även när webbplatsen upplever driftstopp på grund av en tillströmning av användare
  • Förbättrade svarsfrekvenser
  • Förstahandsåtkomst till nya funktioner och utgåvor

Om du känner att dessa funktioner är helt värda det och uppåt kan du registrera dig för den betalda prenumerationen och dra nytta av dem omedelbart.

ChatGPT-tokens prisstruktur

Det finns några olika applikationsmodeller tillgängliga, som du kan välja baserat på dina krav:

Modell

Pris för 1000 tokens (prompt)

Pris för 1000 tokens (komplettering)

Ada

$0.0004

$0.0004

Babbage

$0.0005

$0.0005

Curie

$0.0020

$0.0020

Da Vinci

$0.0200

$0.0200

ChatGPT

$0.0020

$0.0020

GPT-4 8k sammanhang

$0.0300

$0.0600

GPT-4 32k sammanhang

$0.0600

$0.1200

Ada är den snabbaste, medan DaVinci är den mest kraftfulla modellen från denna lista över modeller. Uppmaningen är frågan, medan kompletteringen handlar om svaren.

Maximala tokengränser

Varje modell låter dig ställa in det maximala antalet tokens inom varje fråga. Denna metod styr det maximala antalet tokens som applikationen genererar i ett enda samtal, vilket begränsar utmatningen. Funktionen max_token är ganska användbar, speciellt när du vill kontrollera längden på din produktion samtidigt som du undviker att överanvända din tokenanvändning och krediter. Standardlängden är fixerad till 2048 tokens, medan den maximala kan ställas in på 4096 tokens.

Att begränsa användningen av token kan resultera i korta svar, vilket kan begränsa produktionen och skada din användningsupplevelse.

ChatGPT3 har en övre gräns på 4096; Men med introduktionen av ChatGPT4 höjs tokengränserna enligt följande:

Modell

Pris för 1000 tokens (prompt)

Ada

2048

Babbage

2048

Curie

2048

Da Vinci

4096

ChatGPT

4096

GPT-4 8k sammanhang

8192

GPT-4 32k sammanhang

32768

Om din utdata är trunkerad måste du öka den angivna maxgränsen från din instrumentpanel. Kom ihåg att summan av dina prompt och maximala tokens alltid bör vara mindre än lika med modellens maximala token-gräns.

Till exempel, inom ChatGPT-modellen prompt_tokens + max_tokens <= 4096 polletter.

Lär dig att kontrollera dina ChatGPT-meddelanden för bästa resultat

Oavsett hur du använder den AI-drivna applikationen, är chansen stor att du måste hitta sätt att spela smart med dina frågor och fraser. Beroende på dina användningsmönster kommer du sannolikt att använda ChatGPT flitigt för varje uppgift.

För att få bästa resultat måste du lära dig hur du arbetar med token-metoden och förbättra dina färdigheter för att säkerställa att dina användningsgränser förblir intakta samtidigt som du ger dig bästa möjliga svar.