Med moderna AI-språkmodeller som ChatGPT och Microsofts Bing Chat som skapar vågor runt om i världen, är ett antal människor oroliga för att AI ska ta över världen.

Även om vi inte kommer att stöta på SkyNet under överskådlig framtid, blir AI bättre än människor på flera saker. Det är där AI-kontrollproblemet kommer in i bilden.

AI-kontrollproblemet förklarat

AI-kontrollproblemet är tanken att AI så småningom kommer att bli bättre på att fatta beslut än människor. I enlighet med denna teori, om människor inte ställer in saker och ting korrekt i förväg, kommer vi inte att ha en chans att fixa saker senare, vilket innebär att AI kommer att ha effektiv kontroll.

Aktuell forskning om modeller för AI och Machine Learning (ML) är åtminstone år från att överträffa mänskliga förmågor. Det är dock rimligt att tro att, med tanke på nuvarande framsteg, kommer AI att överträffa människor när det gäller både intelligens och effektivitet.

Därmed inte sagt att AI- och ML-modeller inte har sina gränser. De är trots allt bundna av fysikens lagar och beräkningskomplexitet, såväl som processorkraften hos de enheter som stöder dessa system. Det är dock säkert att anta att dessa gränser ligger långt bortom mänskliga förmågor.

instagram viewer

Detta innebär att superintelligent AI-system kan utgöra ett stort hot om den inte är korrekt utformad med säkerhetsåtgärder på plats för att kontrollera eventuellt oseriöst beteende. Sådana system måste byggas från grunden för att respektera mänskliga värderingar och för att hålla sin makt i schack. Detta är vad kontrollproblemet betyder när det säger att saker måste ställas in korrekt.

Om ett AI-system skulle överträffa mänsklig intelligens utan lämpliga skyddsåtgärder, kan resultatet bli katastrofalt. Sådana system skulle kunna ta kontroll över fysiska resurser eftersom många uppgifter uppnås bättre eller mer effektivt. Eftersom AI-system är designade för att uppnå maximal effektivitet, kan en förlorad kontroll leda till allvarliga konsekvenser.

När gäller AI-kontrollproblemet?

Huvudproblemet är att ju bättre ett AI-system blir, desto svårare är det för en mänsklig handledare att övervaka tekniken för att säkerställa att manuell kontroll lätt kan tas över om systemet skulle misslyckas. Dessutom är den mänskliga tendensen att lita på ett automatiserat system högre när systemet fungerar tillförlitligt för det mesta.

Ett bra exempel på detta är Tesla Full-Self Driving (FSD)-svit. Även om bilen kan köra sig själv, kräver det att en människa har händerna på ratten, redo att ta kontroll över bilen om systemet skulle fungera. Men när dessa AI-system blir mer tillförlitliga, kommer även den mest vakna människans uppmärksamhet att börja variera, och beroendet av det autonoma systemet kommer att öka.

Så vad händer när bilar börjar köra i hastigheter som människor inte kan hänga med? Det slutar med att vi överlämnar kontrollen till bilens autonoma system, vilket innebär att ett AI-system kommer att ha kontroll över ditt liv, åtminstone tills du når din destination.

Kan AI-kontrollproblemet lösas?

Det finns två svar på huruvida AI-kontrollproblemet kan lösas eller inte. För det första, om vi tolkar frågan bokstavligt, kan kontrollproblemet inte lösas. Det finns inget vi kan göra som direkt riktar sig mot den mänskliga tendensen att lita på ett automatiserat system när det fungerar tillförlitligt och mer effektivt för det mesta.

Men skulle denna tendens redovisas som ett kännetecken för sådana system, kan vi komma på sätt att kringgå kontrollproblemet. Till exempel Algoritmiskt beslutsfattande och kontrollproblemet forskningsartikel föreslår tre olika metoder för att hantera situationen:

  • Användningen av mindre tillförlitliga system kräver att en människa aktivt engagerar sig i systemet eftersom mindre tillförlitliga system inte utgör kontrollproblemet.
  • Att vänta på att ett system ska överträffa mänsklig effektivitet och tillförlitlighet innan implementering i verkligheten.
  • Att implementera endast partiell automatisering med hjälp av uppgiftsuppdelning. Detta innebär att endast de delar av ett system som inte kräver en mänsklig operatör för att utföra en viktig uppgift automatiseras. Det kallas för den dynamiska/komplementära tilldelningen av funktioner (DCAF).

DCAF-metoden sätter alltid en mänsklig operatör vid rodret i ett automatiserat system, vilket säkerställer att deras input styr de viktigaste delarna av systemets beslutsprocess. Om ett system är tillräckligt engagerande för att en mänsklig operatör ska vara uppmärksam hela tiden, kan kontrollproblemet lösas.

Kan vi någonsin verkligen kontrollera AI?

När AI-system blir mer avancerade, kapabla och tillförlitliga kommer vi att fortsätta att överföra fler uppgifter till dem. AI-kontrollproblemet kan dock lösas med rätt försiktighetsåtgärder och skyddsåtgärder.

AI förändrar redan världen för oss, mest till det bättre. Så länge tekniken hålls under mänsklig uppsikt, borde det inte finnas något för oss att oroa oss för.