Oavsett om det är dålig data eller dåliga användare kan AI skapad med maskininlärning sluta med att göra allvarliga misstag.
Maskininlärning är ett utmärkt sätt att skapa artificiell intelligens som är kraftfull och anpassar sig till dess träningsdata. Men ibland kan den informationen orsaka problem. Andra gånger är det sätt som människor använder dessa AI-verktyg som är problemet.
Här är en titt på några högprofilerade incidenter där maskininlärning resulterade i problematiska resultat.
1. Missöden i Googles bildsökningsresultat
Google Sök har gjort det mycket lättare att navigera på webben. Motorns algoritm tar en mängd olika saker i beräkningen när man skaffar resultat. Men algoritmen lär sig också av användartrafik, vilket kan orsaka problem för sökresultatens kvalitet.
Ingenstans är detta mer uppenbart än i bildresultat. Eftersom sidor som får hög trafik är mer benägna att visa sina bilder, kan berättelser som lockar ett stort antal användare, inklusive clickbait, sluta prioriteras.
Till exempel orsakade bildsökningsresultaten för "squatter camps in South Africa" kontroverser när det upptäcktes att det huvudsakligen innehöll vita sydafrikaner. Detta trots att statistik visar att den överväldigande majoriteten av de som bor i informella bostäder är svarta sydafrikaner.
Faktorerna som används i Googles algoritm gör också att internetanvändare kan manipulera resultat. Till exempel påverkade en kampanj av användare Googles bildsökningsresultat i den mån att sökningen efter termen "idiot" visade bilder av USA: s förre president Donald Trump under en period.
2. Microsoft Bot Tay förvandlades till en nazist
AI-drivna chatbots är extremt populära, särskilt de som drivs av stora språkmodeller som ChatGPT. ChatGPT har flera problem, men dess skapare har också lärt sig av andra företags misstag.
En av de mest uppmärksammade incidenterna där chatbotar gick snett var Microsofts försök att lansera sin chatbot Tay.
Tay härmade språkmönstren hos en tonårsflicka och lärde sig genom hennes interaktioner med andra Twitter-användare. Men hon blev ett av de mest ökända AI-felen när hon började dela nazistiska uttalanden och rasistiska förtal. Det visar sig att troll hade använt AI: s maskininlärning mot det och översvämmat det med interaktioner laddade med trångsynthet.
Inte långt efter tog Microsoft Tay offline för gott.
3. AI ansiktsigenkänningsproblem
Ansiktsigenkänning AI skapar ofta rubriker av alla fel anledningar, som berättelser om ansiktsigenkänning och integritetsproblem. Men denna AI har en problematisk historia när den försöker känna igen färgade personer.
2015 upptäckte användare att Google Foto kategoriserade vissa svarta människor som gorillor. Under 2018 visade forskning från ACLU att Amazons mjukvara för ansiktsidentifiering igenkännande identifierade 28 medlemmar av den amerikanska kongressen som polisen misstänker, med falska positiva som oproportionerligt påverkar människor av Färg.
En annan incident involverade Apples Face ID-program som felaktigt identifierade två olika kinesiska kvinnor som samma person. Som ett resultat kunde iPhone X-ägarens kollega låsa upp telefonen.
Som ett exempel på extrema konsekvenser har ansiktsigenkännande AI lett till felaktiga arresteringar av flera personer. Trådbunden rapporterade om tre sådana fall.
Samtidigt mindes datavetaren Joy Buolamwini att hon ofta behövde bära en vit mask när han arbetade med ansiktsigenkänningsteknik för att få programvaran att känna igen henne. För att lösa problem som detta uppmärksammar Buolamwini och andra IT-proffs på frågan om AI-bias och behovet av mer inkluderande datauppsättningar.
4. Deepfakes används för bluffar
Medan människor länge har använt Photoshop för att skapa bluffbilder, tar maskininlärning detta till en ny nivå. Deepfakes använder deep learning AI för att skapa falska bilder och videor. Programvara som FaceApp låter dig byta motiv från en video till en annan.
Men många människor utnyttjar programvaran för en mängd olika skadliga användningar, inklusive att lägga kändisansikten över i vuxenvideor eller skapa bluffvideor. Samtidigt har internetanvändare hjälpt till att förbättra tekniken för att göra det allt svårare att skilja riktiga videor från falska. Som ett resultat gör detta denna typ av AI mycket kraftfull när det gäller att sprida falska nyheter och bluffar.
För att visa upp kraften i tekniken skapade regissören Jordan Peele och BuzzFeeds vd Jonah Peretti en Deepfake video som visar vad som verkar vara USA: s förre president Barack Obama som levererar en PSA om kraften i deepfakes.
Kraften hos falska bilder har accelererats av bildgeneratorer som drivs av AI. Virala inlägg 2023 som skildrade Donald Trump arresterad och den katolska påven i en pufferjacka visade sig vara resultatet av generativ AI.
Det finns tips du kan följa för att upptäcka en AI-genererad bild, men tekniken blir allt mer sofistikerad.
5. Anställda säger att Amazon AI har beslutat att anställa män är bättre
I oktober 2018, Reuters rapporterade att Amazon var tvungen att skrota ett jobbrekryteringsverktyg efter att programvarans AI beslutat att manliga kandidater var företräde.
Anställda som ville vara anonyma kom fram för att berätta för Reuters om sitt arbete med projektet. Utvecklare ville att AI skulle identifiera de bästa kandidaterna för ett jobb baserat på deras CV. Men personer som var involverade i projektet märkte snart att AI straffade kvinnliga kandidater. De förklarade att AI använde CV: n från det senaste decenniet, varav de flesta var från män, som sin träningsdatauppsättning.
Som ett resultat började AI filtrera bort CV: n baserat på nyckelordet "kvinnor". Sökordet förekom i CV: t under aktiviteter som "kvinnors schackklubbskapten". Medan utvecklare ändrade AI för att förhindra denna bestraffning av kvinnors CV, skrotade Amazon till slut projektet.
6. Jailbroken chatbots
Medan nyare chatbots har begränsningar för att hindra dem från att ge svar som strider mot deras användarvillkor, hittar användare sätt att jailbreaka verktygen för att tillhandahålla förbjudet innehåll.
År 2023 kunde en Forcepoint-säkerhetsforskare Aaron Mulgrew skapa nolldagars skadlig programvara med hjälp av ChatGPT-uppmaningar.
"Genom att helt enkelt använda ChatGPT-uppmaningar, och utan att skriva någon kod, kunde vi producera en mycket avancerad attack på bara några timmar," sa Mulgrew i en Forcepoint inlägg.
Användare har också enligt uppgift kunnat skaffa chatbots för att ge dem instruktioner om hur man bygger bomber eller stjäl bilar.
7. Självkörande bilkrockar
Entusiasmen för autonoma fordon har dämpats från det inledande hypestadiet på grund av misstag av självkörande AI. År 2022, Washington Post rapporterade att på ungefär ett år rapporterades 392 olyckor som involverade avancerade förarassistanssystem till USA: s National Highway Traffic Safety Administration.
Dessa krascher omfattade allvarliga skador och sex dödsoffer.
Även om detta inte har hindrat företag som Tesla från att driva helt autonoma fordon, så har det gjort det väckte oro för en ökning av olyckor när fler bilar med självkörande programvara tar sig in på vägar.
Machine Learning AI är inte idiotsäker
Även om maskininlärning kan skapa kraftfulla AI-verktyg, är de inte immuna mot dålig data eller mänsklig manipulation. Oavsett om det beror på bristfälliga träningsdata, begränsningar med AI-teknik eller användning av dåliga aktörer, har denna typ av AI resulterat i många negativa incidenter.