Artificiell intelligens kapacitet expanderar exponentiellt, och AI används nu i branscher från reklam till medicinsk forskning. Användningen av AI i mer känsliga områden som ansiktsigenkänningsprogram, anställningsalgoritmer och hälso- och sjukvårdsförsörjning har lett till debatt om partiskhet och rättvisa.

Bias är en välutforskad aspekt av mänsklig psykologi. Forskning avslöjar regelbundet våra omedvetna preferenser och fördomar, och nu ser vi att AI speglar några av dessa fördomar i deras algoritmer.

Så, hur blir artificiell intelligens partisk? Och varför spelar det någon roll?

Hur blir AI partisk?

För enkelhets skull hänvisar vi till den här artikeln maskininlärning och djupinlärning algoritmer som AI-algoritmer eller system.

Forskare och utvecklare kan införa partiskhet i AI-system på två sätt.

För det första kan forskarnas kognitiva fördomar inbäddas i maskininlärningsalgoritmer av misstag. Kognitiva fördomar är omedvetna mänskliga uppfattningar som kan påverka hur människor fattar beslut. Detta blir en viktig fråga när fördomarna gäller människor eller grupper av människor och kan skada dessa människor.

instagram viewer

Dessa fördomar kan införas direkt men av misstag, eller så kan forskare träna AI på datamängder som själva påverkades av fördomar. Till exempel kan en AI för ansiktsigenkänning utbildas med hjälp av en dataset som endast innehåller ljushåriga ansikten. I det här fallet kommer AI att fungera bättre när det handlar om ljusa ansikten än mörkt. Denna form av AI-bias är känd som ett negativt arv.

För det andra kan fördomar uppstå när AI utbildas på ofullständiga datamängder. Till exempel, om en AI utbildas i en dataset som endast inkluderar datavetenskapare, kommer den inte att representera hela befolkningen. Detta leder till algoritmer som inte ger korrekta förutsägelser.

Exempel på AI Bias från verkliga världen

Det har förekommit flera senaste, välrapporterade exempel på AI-bias illustrera faran att låta dessa förspänningar krypa in.

Prioriteringen av USA-baserad sjukvård

År 2019 utformades en maskininlärningsalgoritm för att hjälpa sjukhus och försäkringsbolag att avgöra vilka patienter som skulle dra mest nytta av vissa sjukvårdsprogram. Baserat på en databas med cirka 200 miljoner människor gynnade algoritmen vita patienter framför svarta patienter.

Det fastställdes att detta berodde på ett felaktigt antagande i algoritmen angående olika sjukvårdskostnader mellan svarta och vita människor, och förspänningen minskade så småningom med 80%.

COMPAS

Profiling of Correctional Offender Management Profiling for Alternative Sanctions, eller COMPAS, var en AI-algoritm som var utformad för att förutsäga om vissa människor skulle förolämpa. Algoritmen producerade dubbla falska positiva för svarta gärningsmän jämfört med vita brottslingar. I det här fallet var både datauppsättningen och modellen bristfällig och införde kraftiga fördomar.

Amazon

Anställningsalgoritmen som Amazon använder för att bestämma sökandes lämplighet hittades 2015 för att gynna män framför kvinnor starkt. Detta berodde på att datamängden nästan uteslutande innehöll män och deras CV eftersom de flesta Amazon-anställda är män.

Hur man stoppar AI Bias

AI revolutionerar redan vårt sätt att arbeta över varje bransch. Att ha partiska system som kontrollerar känsliga beslutsprocesser är mindre än önskvärt. I bästa fall minskar kvaliteten på AI-baserad forskning. I värsta fall skadar det aktivt minoritetsgrupper.

Det finns exempel på att AI-algoritmer redan är vana vid hjälpa människors beslutsfattande genom att minska påverkan av mänskliga kognitiva fördomar. På grund av hur maskininlärningsalgoritmer utbildas kan de vara mer exakta och mindre partiska än människor i samma position, vilket resulterar i rättvisare beslutsfattande.

Men som vi har visat är motsatsen också sant. Riskerna med att tillåta mänskliga fördomar till och förstärkas av AI kan uppväga några av de möjliga fördelarna.

Vid slutet av dagen, AI är bara lika bra som den data som den tränas med. Att utveckla opartiska algoritmer kräver omfattande och grundlig föranalys av datamängder, vilket säkerställer att data är fria från implicita fördomar. Detta är svårare än det låter eftersom så många av våra fördomar är omedvetna och ofta svåra att identifiera.

Utmaningar för att förhindra AI-förspänning

Vid utveckling av AI-system måste varje steg bedömas med avseende på dess potential att bädda in bias i algoritmen. En av de viktigaste faktorerna för att förhindra förspänning är att säkerställa att rättvisa snarare än förspänning blir "kokta" i algoritmen.

Definiera rättvisa

Rättvisa är ett begrepp som är relativt svårt att definiera. Det är faktiskt en debatt som aldrig nått enighet. För att göra saker ännu svårare, när man utvecklar AI-system, måste begreppet rättvisa definieras matematiskt.

Till exempel, när det gäller Amazonas anställningsalgoritm, skulle rättvisa se ut som en perfekt 50/50 uppdelning av manliga till kvinnliga arbetare? Eller en annan andel?

Fastställande av funktionen

Det första steget i AI-utveckling är att bestämma exakt vad det ska uppnå. Om man använder COMPAS-exemplet skulle algoritmen förutsäga sannolikheten för att brottslingar skulle begå brott på nytt. Sedan måste tydliga dataingångar bestämmas för att algoritmen ska fungera. Detta kan kräva att viktiga variabler definieras, till exempel antalet tidigare brott eller vilken typ av brott som begåtts.

Att definiera dessa variabler korrekt är ett svårt men viktigt steg för att säkerställa rättvisa algoritmen.

Skapa datauppsättningen

Som vi har beskrivit är en viktig orsak till AI-partiskhet ofullständig, icke-representativ eller partisk information. Precis som i fallet med ansiktsigenkänning AI, måste ingångsdata noggrant kontrolleras för förspänningar, lämplighet och fullständighet innan maskininlärningsprocessen.

Välja attribut

I algoritmerna kan vissa attribut övervägas eller inte. Attribut kan inkludera kön, ras eller utbildning - i princip allt som kan vara viktigt för algoritmens uppgift. Beroende på vilka attribut som väljs kan algoritmens prediktiva noggrannhet och förspänning påverkas allvarligt. Problemet är att det är mycket svårt att mäta hur partisk en algoritm är.

AI Bias är inte här för att stanna

AI-bias uppstår när algoritmer gör partiska eller felaktiga förutsägelser på grund av partiska ingångar. Det inträffar när partisk eller ofullständig data reflekteras eller förstärks under utvecklingen och träningen av algoritmen.

Den goda nyheten är att med finansiering för AI-forskning som multipliceras kommer vi troligen att se nya metoder för att minska och till och med eliminera AI-bias.

E-post
5 vanliga myter om artificiell intelligens som inte är sant

Låt oss sätta rekordet på några vanliga falskheter kring AI.

Läs Nästa

Relaterade ämnen
  • Teknik förklaras
  • Artificiell intelligens
  • Maskininlärning
Om författaren
Jake Harfield (6 artiklar publicerade)

Jake Harfield är en frilansskribent baserad i Perth, Australien. När han inte skriver är han vanligtvis ute i busken och fotograferar lokala vilda djur. Du kan besöka honom på www.jakeharfield.com

Mer från Jake Harfield

Prenumerera på vårt nyhetsbrev

Gå med i vårt nyhetsbrev för tekniska tips, recensioner, gratis e-böcker och exklusiva erbjudanden!

Ett steg till…!

Bekräfta din e-postadress i e-postmeddelandet som vi just skickade till dig.

.