Den snabba ökningen av AI-chatbots har väckt etiska farhågor, spänning och anställningsbekymmer i nästan lika stora mått. Men är insatserna på väg att höjas igen?
Om det finns en akilleshäl för dessa verktyg, är det oförmågan att faktorisera mänskliga känslor i svar. Men med framsteg inom området "emotionell AI" är det möjligt att vi är på väg att bevittna ytterligare ett stort steg framåt inom AI-teknik.
Ett känslomässigt problem
Att förstå mänskliga känslor kan vara komplicerat, även för människor. Trots att det är något vi börjar lära oss vid födseln, kan vi fortfarande ofta misstolka andras känslor. Att träna maskiner i en färdighet som människor inte behärskar är en enorm utmaning.
Emellertid gör området för känslomässiga AI, även känt som affektiv datoranvändning, anmärkningsvärda framsteg. För att förstå hur känslomässig AI fungerar är det viktigt att jämföra det med hur människor tolkar andras känslor. Processen kan delas upp i tre huvudområden:
- Ansiktsuttryck/manerism: Någon som strålar som en Cheshire-katt är uppenbart. Men hur är det med tårar? De kan vara tårar av glädje eller sorg. Sedan finns det subtiliteter och flyktiga uttryck som vi knappt lägger märke till men som ger dig undermedvetna ledtrådar om andras känslor.
- Kroppsspråk: Återigen, det finns massor av ledtrådar här som människor använder nästan subliminalt för att bestämma känslomässiga tillstånd.
- Röstböjning: Tonen och böjningen av en röst kan vara en stark indikator på ett känslomässigt tillstånd. Att till exempel känna igen skillnaden mellan glädje och ilska ligger ofta i nyanserna i hur något sägs.
Nyanserna av mänskliga känslor är där utmaningarna uppstår. För att hantera dessa utmaningar använder emotion AI en rad olika tekniker.
Hur fungerar Emotion AI?
Liknar hur AI-chatbotar förlitar sig på enorma databaser som kallas stora språkmodeller (LLM) för att generera svar, emotionell AI förlitar sig också på en enorm datauppsättning. Den största skillnaden är formen på uppgifterna.
Steg 1: Samla in data
Emotionella AI-"modeller" samlar in data från en rad källor. Precis som LLM: er utgör text en del av modellen. Men känslomässiga AI-modeller använder också andra former av data, dessa inkluderar:
- Röstdata: Detta kan vara från inspelade kundtjänstsamtal eller videor, bland andra källor.
- Ansiktsuttryck: Dessa data kan samlas in från en rad källor. Ett vanligt sätt är att spela in volontärers uttryck genom infångad telefonvideo.
- Fysiologiska data: Mätvärden som hjärtfrekvens och kroppstemperatur kan mätas för att bestämma det känslomässiga tillståndet hos frivilliga deltagare.
Den insamlade informationen kan sedan användas för att fastställa mänskliga känslotillstånd. Det är värt att notera att inte alla känslomässiga AI-modeller kommer att använda samma typ av data. Till exempel kommer ett callcenter att ha liten användning för visuella och fysiologiska data. Medan det inom vården är otroligt användbart att inkludera fysiologiska data.
Steg 2: Känslomässig igenkänning
Hur data används för att förstå emotionella tillstånd varierar beroende på dess typ:
- Textanalys: Tekniker som sentimentanalys eller naturlig språkbehandling används för att tolka skriven text. Dessa kan identifiera nyckelord, fraser eller mönster som indikerar känslomässiga tillstånd.
- Röstanalys: Maskininlärningsalgoritmer analyserar aspekter av en persons röst, såsom tonhöjd, volym, hastighet och ton, för att sluta sig till känslomässiga tillstånd.
- Analys av ansiktsuttryck: Datorseende och tekniker för djupinlärning används för att analysera ansiktsuttryck. Detta kan innebära att känna igen grundläggande uttryck (lycka, sorg, ilska, överraskning, etc.) eller mer subtila "mikro-uttryck".
- Fysiologisk analys: Vissa känslomässiga AI-system kan analysera fysiologiska data som hjärtfrekvens och temperatur för att fastställa känslomässiga tillstånd. Detta kräver specialiserade sensorer och används vanligtvis inom forskning eller sjukvård.
Detaljerna för hur känslomässig AI fungerar varierar beroende på syftet med applikationen. De flesta känslomässiga AI-modeller kommer dock att förlita sig på minst en av de listade teknikerna.
Steg 3: Generera ett svar
Det sista steget är att AI-modellen reagerar på lämpligt sätt på sitt bestämda känslotillstånd. Hur detta svar manifesterar sig beror på syftet med AI: n. Det kan vara i form av att varna en callcenter-anställd att deras nästa uppringare är upprörd, eller så kan det vara att anpassa innehållet i en app.
Hela spektrumet av användningsområden för denna teknik kommer att vara enormt, och organisationer använder den redan på olika sätt.
Vilka är tillämpningarna av emotionell AI?
AI, i allmänhet, är något av ett tekniskt multiverktyg, och känslomässig AI är inte annorlunda. När tekniken utvecklas kommer spridningen av användningsområden att vidgas avsevärt, vilket framgår av de många olika uppgifter som den redan utför:
- Callcenter: Emotion AI integreras i callcenter för att hjälpa agenter att identifiera kundernas känslomässiga tillstånd.
- Reklam: Marknadsföringsbyråer övervakar team av frivilliga för att bedöma deras känslomässiga respons när de tittar på en viss annons. Detta gör det möjligt för dem att justera innehållet så att det överensstämmer med det önskade känslomässiga svaret närmare.
- Sjukvård: AI hjälper redan till att behandla psykiska tillstånd. Det här medicinområdet är ett område där känslomässig AI kan vara till stor nytta.
- Utbildning: Utbildningsappar kan tränas för att anpassa kursarbetet och den övergripande "inlärningsupplevelsen" beroende på elevens känslomässiga tillstånd.
- Bilindustrin: Den här är i pipelinen, men känslomässig AI kan visa sig vara en ovärderlig körhjälp. Aktuell forskning fokuserar på att utveckla system som kan upptäcka förarens känslomässiga tillstånd. Det kan sedan ta någon form av avhjälpande åtgärd om föraren är övertrött, stressad, arg eller helt enkelt borta i en dagdröm.
Allt det här låter bra, men som med allt AI är det aldrig så enkelt. De etiska och integritetsproblemen kring generativ AI är lika tillämpliga, men nu har vi mänskliga känslor kastade in i mixen.
Etiska och integritetsproblem av emotionell AI
För varje fördel som AI ger oss – och det finns många – verkar det finnas en motsvarande etisk oro eller integritetsproblem. Denna innovativa teknik är verksam på kanten av tekniskt kunnande. Den verkar också i utkanten av samhälleligt kunnande.
Korsningen mellan känslor och teknik är full av komplexa utmaningar som måste åtgärdas om AI ska vara en välsignelse och inte en börda. Några av de bekymmer som är omedelbart uppenbara inkluderar:
- Datasekretessproblem: Redan ett grått område inom AI, inkluderingen av känsliga känslomässiga data har höjt ribban.
- Noggrannhet: AI-chatbotar är många saker, men deras svar är ofta breda. Samma fel som görs av emotionella AI-modeller kan få allvarliga konsekvenser om de uppstår i applikationer som sjukvård.
- Känslomässig manipulation: Bedragare kan använda känslomässig AI för att spela på människors känslor med illvilliga avsikter.
Dessa farhågor är äkta, och en samlad ansträngning för att ta itu med dem är nyckeln till att låsa upp de fulla fördelarna med känslomässig AI.
Vet inte om jag ska skratta eller gråta
Detta är en lovande teknik med enorma potentiella fördelar. Den bär dock med sig en del "känslomässigt bagage" i sin slipström. Uppsidan är det enorma utbudet av potentiella applikationer där detta kan göra en enorm skillnad. Allt från sjukvård till mer uppslukande spelupplevelser kan dra nytta av känslomässig AI.
Men det finns några rejäla frågor att ta itu med om vi ska använda detta för att gynna och inte hindra mänskligheten.