Generativ AI är bra, men den presenterar alltid sin information med absolut auktoritet. Vilket är bra om det inte hallucinerar sanningen.

Hallucinationer med artificiell intelligens (AI) låter förbryllande. Du tänker förmodligen: "Är inte hallucination ett mänskligt fenomen?" Jo, ja, det brukade vara enbart en människa fenomen tills AI började uppvisa mänskliga egenskaper som ansiktsigenkänning, självinlärning och tal erkännande.

Tyvärr fick AI några negativa egenskaper, inklusive hallucinationer. Så, liknar AI-hallucination den typ av hallucination som människor upplever?

Vad är AI-hallucination?

Artificiell intelligens hallucination uppstår när en AI-modell genererar utdata som skiljer sig från vad som förväntas. Observera att vissa AI-modeller är tränade för att avsiktligt generera utdata som inte är relaterade till någon verklig ingång (data).

Till exempel, bästa AI text-to-art generatorer, som DALL-E 2, kan kreativt generera nya bilder som vi kan tagga som "hallucinationer" eftersom de inte är baserade på verkliga data.

instagram viewer

AI Hallucination i stora språkbehandlingsmodeller

Låt oss överväga hur AI-hallucinationer skulle se ut i en stor språkbehandlingsmodell som ChatGPT. En ChatGPT-hallucination skulle resultera i att boten ger dig ett felaktigt faktum med något påstående, så att du naturligtvis skulle ta sådana fakta som sanning.

Enkelt uttryckt är det påhittade uttalanden av den artificiellt intelligenta chatboten. Här är ett exempel:

Vid ytterligare förfrågan dök ChatGPT upp med detta:

AI Hallucination i datorseende

Låt oss överväga ett annat område av AI som kan uppleva AI-hallucinationer: Datorsyn. Frågesporten nedan visar ett 4x4-montage med två enheter som ser så lika ut. Bilderna är en blandning av BBQ-potatischips och löv.

Utmaningen är att välja potatischips utan att träffa några löv i montaget. Den här bilden kan se knepig ut för en dator, och den kanske inte kan skilja mellan BBQ-potatischips och blad.

Här är ytterligare ett montage med en blandning av pudel- och fläsktrådsbullebilder. En dator skulle med största sannolikhet inte kunna skilja mellan dem, och därför blanda bilderna.

Varför uppstår AI-hallucinationer?

AI-hallucinationer kan uppstå på grund av motstridiga exempel – indata som lurar en AI-applikation att felklassificera dem. Till exempel när utvecklare tränar AI-applikationer använder sig av data (bild, text eller annat); om data ändras eller förvrängs tolkar applikationen inmatningen annorlunda, vilket ger en felaktig utdata.

Däremot kan en människa fortfarande känna igen och identifiera data exakt trots förvrängningarna. Vi kan märka detta som sunt förnuft – en mänsklig egenskap som AI ännu inte har. Se hur AI luras med motstridiga exempel i den här videon:

Angående stora språkbaserade modeller som t.ex ChatGPT och dess alternativ, kan hallucinationer uppstå från felaktig avkodning från transformatorn (maskininlärningsmodell).

I AI är en transformator en modell för djupinlärning som använder självuppmärksamhet (semantiska relationer mellan ord i en mening) för att producera text som liknar vad en människa skulle skriva med hjälp av en kodare-avkodare (input-output) sekvens.

Så transformatorer, en semi-övervakad maskininlärningsmodell, kan generera en ny kropp av text (output) från den stora korpusen av textdata som används i dess träning (input). Den gör det genom att förutsäga nästa ord i en serie baserat på de föregående orden.

När det gäller hallucinationer, om en språkmodell tränades på otillräckliga och felaktiga data och resurser, förväntas det att resultatet skulle vara påhittat och felaktigt. Språkmodellen kan generera en berättelse eller berättelse utan logiska inkonsekvenser eller oklara samband.

I exemplet nedan ombads ChatGPT att ge ett ord som liknar "revolt" och börjar med ett "b." Här är dess svar:

Vid ytterligare undersökningar fortsatte den att ge felaktiga svar, med ett högt självförtroende.

Så varför kan ChatGPT inte ge ett korrekt svar på dessa uppmaningar?

Det kan vara så att språkmodellen inte är rustad att hantera ganska komplexa uppmaningar som dessa eller andra kan inte tolka uppmaningen korrekt, ignorera uppmaningen om att ge ett liknande ord med ett specifikt alfabet.

Hur upptäcker du AI-hallucinationer?

Det är uppenbart nu att AI-applikationer har potential att hallucinera – generera svar på annat sätt från den förväntade produktionen (fakta eller sanning) utan några skadliga avsikter. Och att upptäcka och känna igen AI-hallucinationer är upp till användarna av sådana applikationer.

Här är några sätt att upptäcka AI-hallucinationer när du använder vanliga AI-applikationer:

1. Stora språkbehandlingsmodeller

Även om det är sällsynt, om du märker ett grammatiskt fel i innehållet som produceras av en stor bearbetningsmodell, som ChatGPT, borde det höja ett ögonbryn och få dig att misstänka en hallucination. På samma sätt, när textgenererat innehåll inte låter logiskt, korrelerar med det angivna sammanhanget eller matchar indata, bör du misstänka en hallucination.

Att använda mänskligt omdöme eller sunt förnuft kan hjälpa till att upptäcka hallucinationer, eftersom människor lätt kan identifiera när en text inte är meningsfull eller följer verkligheten.

2. Datorsyn

Som en gren av artificiell intelligens, maskininlärning och datavetenskap ger datorseende datorer möjlighet att känna igen och bearbeta bilder som mänskliga ögon. Använder sig av konvolutionella neurala nätverk, litar de på den otroliga mängd visuell data som används i sin träning.

En avvikelse från mönstren för de visuella data som används vid träning kommer att resultera i hallucinationer. Till exempel, om en dator inte tränades med bilder av en tennisboll, kan den identifiera den som en grön orange. Eller om en dator känner igen en häst bredvid en människostaty som en häst bredvid en riktig människa, då har en AI-hallucination inträffat.

Så för att upptäcka en hallucination med datorseende, jämför resultatet som genereras med vad en [normal] människa förväntas se.

3. Självkörande bilar

Bildkredit: Vadställe

Tack vare AI infiltrerar självkörande bilar gradvis bilmarknaden. Pionjärer som Tesla Autopilot och Fords BlueCruise har kämpat för scenen för självkörande bilar. Du kan checka ut hur och vad Tesla Autopilot ser för att få lite förståelse för hur AI driver självkörande bilar.

Om du äger en av sådana bilar, skulle du vilja veta om din AI-bil hallucinerar. Ett tecken kommer att vara om ditt fordon verkar avvika från sina normala beteendemönster under körning. Till exempel, om fordonet bromsar eller svänger plötsligt utan någon uppenbar anledning, kan ditt AI-fordon hallucinera.

AI-system kan också hallucinera

Människor och AI-modeller upplever hallucinationer olika. När det kommer till AI hänvisar hallucinationer till felaktiga utdata som är mil från verkligheten eller inte är vettiga inom ramen för den givna uppmaningen. Till exempel kan en AI-chatbot ge ett grammatiskt eller logiskt felaktigt svar eller felidentifiera ett objekt på grund av brus eller andra strukturella faktorer.

AI-hallucinationer härrör inte från ett medvetet eller undermedvetet sinne, som du skulle observera hos människor. Snarare beror det på otillräcklighet eller otillräcklighet i de data som används vid träning och programmering av AI-systemet.