Microsofts Tay AI gick från en lovande AI till en total katastrof på mindre än ett dygn. Här är vad företaget lärde sig.
AI-chatbotar som ChatGPT blir alltmer en mer integrerad del av modern teknik, men okänd för många var generativ AI inte alltid lika bra som den är idag. Faktum är att 2016 visade Microsoft-tillverkade chatbot Tay oss hur snabbt AI kan slå tillbaka.
Låt oss undersöka vad Microsofts AI-chatbot Tay var, varför den misslyckades, dess kontroverser och lärdomarna företaget drog efter dess katastrofala misslyckande.
Vad var Microsofts Tay?
Tay var en AI-chatbot utvecklad av Microsoft och gjordes tillgänglig via Twitter den 23 mars 2016. Chatboten utvecklades för 18- till 24-åringar i USA för "underhållningsändamål" och för att "experimentera med och bedriva forskning om samtalsförståelse."
Tay var inte tänkt att vara en sofistikerad chatbot som ChatGPT utan en vänlig AI-bot på Twitter som du kunde ha konversationer med - ungefär som Min AI på Snapchat, men för att umgås.
Varför stängde Microsoft ned Tay?
Microsoft tog ner Tay inom 24 timmar efter att ha gått live – av en god anledning. Nästan direkt efter att Tay introducerades började Twitter-användare missbruka tjänsten genom att mata chatboten desinformation, lära den nedsättande termer och få den att bli allt mer kränkande bara för att se hur långt det skulle gå.
Och långt gick det faktiskt. Inom några timmar efter lanseringen twittrade Tay några av de mest kränkande rasförklaringarna, spred hatretorik, främjade nazism och till och med inspirerade till ett "raskrig". Hoppsan! Uppenbarligen hade Microsoft det hemskt och kunde inte ha låtit tjänsten fortsätta.
I en inlägg på den officiella Microsoft-bloggen, upprepade Microsofts vicepresident Peter Lee samma sak:
Vi är djupt ledsna för de oavsiktliga stötande och sårande tweets från Tay, som inte representerar vilka vi är eller vad vi står för, och inte heller hur vi utformade Tay. Tay är nu offline och vi kommer att försöka få tillbaka Tay först när vi är övertygade om att vi bättre kan förutse illvilliga avsikter som strider mot våra principer och värderingar.
Tay-debaclet är bara ett av många farorna med artificiell intelligens och en stark påminnelse om varför dess utveckling bör ske med största försiktighet och uppsikt.
6 lektioner som Microsoft lärde sig efter Tay
Tay var en fullständig katastrof, men den lärde också Microsoft några avgörande lektioner när det kom till utvecklingen av AI-verktyg. Och för vad det är värt är det förmodligen till det bättre att Microsoft lärde sig sina läxor förr snarare än senare, vilket gjorde det möjligt för det att få ett försprång över Google och utveckla det nya AI-driven Bing-webbläsare.
Här är några av dessa lärdomar:
1. Internet är fullt av troll
Internet är fullt av troll, och det är väl ingen nyhet precis? Uppenbarligen var det så för Microsoft redan 2016. Vi säger inte att att bygga en chatbot för "underhållningsändamål" som riktar sig till 18- till 24-åringar hade något att göra med hastigheten med vilken tjänsten missbrukades. Ändå var det definitivt inte den smartaste idén heller.
Människor vill naturligtvis testa gränserna för ny teknik, och det är i slutändan utvecklarens uppgift att redogöra för dessa skadliga attacker. På ett sätt fungerar interna troll som en återkopplingsmekanism för kvalitetssäkring, men det är inte att säga att en chatbot ska släppas loss utan ordentliga säkerhetsåtgärder införs innan lansering.
2. AI kan inte intuitivt skilja mellan bra och dåligt
Begreppet gott och ont är något AI inte intuitivt förstår. Det måste programmeras för att simulera kunskapen om vad som är rätt och fel, vad som är moraliskt och omoraliskt och vad som är normalt och märkligt.
Dessa egenskaper kommer mer eller mindre naturligt för människor som sociala varelser, men AI kan inte bilda oberoende bedömningar, känna empati eller uppleva smärta. Det var därför när Twitter-användare matade Tay med all slags propaganda, så följde boten helt enkelt med – omedveten om etiken i informationen den samlade in.
3. Träna inte AI-modeller med hjälp av människors konversationer
Tay skapades genom att "bryta relevant offentlig data och använda AI och redaktionellt material som utvecklats av en personal inklusive improvisationskomiker." Att träna en AI-modell med hjälp av människors konversationer på internet är hemskt aning.
Och innan du skyller på detta på Twitter, vet att resultatet förmodligen skulle ha blivit detsamma oavsett plattform. Varför? För att människor helt enkelt inte är sina bästa jag på internet. De blir känslomässiga, använder slangord och använder sin anonymitet för att vara skändliga.
4. AI saknar sunt förnuft och får inte sarkasm
AI idag verkar mer intuitivt (eller, för att uttrycka det mer exakt, är bättre på att simulera intuition) men kämpar fortfarande ibland med att känna igen sarkasm och talfigurer. Detta gällde ännu mer redan 2016. Det som är uppenbart för människor är inte uppenbart för AI; med andra ord, det saknar sunt förnuft.
AIs som Tay förstår inte varför människor är som vi är, agerar som vi gör och varje individs excentriciteter. Det kan bete sig och låta mänskligt i en överraskande grad, men bra programmering kan bara gå så långt.
5. AI måste programmeras för att avvisa ogiltiga förfrågningar
AI är mycket lättpåverkad och måste programmeras för att avvisa förfrågningar som främjar skada. Än idag, efter alla våra framsteg inom naturlig språkbehandling, hittar människor fortfarande språkliga kryphål få AI-chatbotar som ChatGPT att "hallucinera" och leverera resultat som var avsedda att begränsas.
Poängen här är att artificiell intelligens är perfekt lydig, vilket kanske är dess största styrka och svaghet. Allt som du inte vill att en chatbot ska göra måste programmeras manuellt i den.
6. AI Chatbots bör aldrig lämnas utan tillsyn
Tills AI kan reglera sig själv kan den inte lämnas utan tillsyn. Du kan tänka på dagens AI som ett underbarn; det är briljant på något sätt, men det är ändå ett barn. Om de lämnas utan uppsikt kommer människor att utnyttja dess svagheter – och Tay var ett utmärkt exempel på detta.
AI är ett verktyg, precis som internet, men hastigheten och skalan med vilken saker kan slå tillbaka med AI är mycket större än vad vi upplevde under internets tidiga dagar.
AI behöver ständig tillsyn och reglering
Tay är inte den enda chatboten som blev skurk – det har varit många andra fall precis som den. Men det som fick den att sticka ut är den stora hastigheten med vilken den gjorde - och det faktum att den gjordes av en teknikjätte som Microsoft.
Exempel som detta visar hur försiktiga vi måste vara när vi utvecklar AI-verktyg, speciellt när de är tänkta att användas av vanliga människor.