Bara under de senaste åren har AI-kapaciteten utvecklats drastiskt. Idag kan vi använda AI för att skapa konst, skriva berättelser, lära oss om världen och så mycket mer. Men händer allt detta lite för tidigt? Utvecklas AI för snabbt och vilka tecken tyder på detta?

Varför är människor oroliga för AI?

I slutet av mars 2023 släpptes ett dokument online av Future of Life Institute med titeln "Pausa Giant AI Experiments: An Open Letter". Dokumentet innehöll argument mot utvecklingen av AI förbi sofistikeringen av GPT-4, OpenAI: s senaste iteration av en AI-driven chatbot.

I brevet skrevs det att "AI-system med mänsklig konkurrenskraftig intelligens kan utgöra djupa risker för samhället och mänskligheten", och att "kraftfulla AI-system bör utvecklas först när vi är övertygade om att deras effekter kommer att vara positiva och deras risker kommer att vara hanterlig."

Ett antal framstående figurer inom tekniksfären inklusive Steve Wozniak och Elon Musk har skrivit på brevet och vill pausa AI-utvecklingen

instagram viewer
. Denna vädjan om ett stopp för AI-utvecklingen har ifrågasatt hur farlig AI håller på att bli, och de risker det innebär för människors liv.

Så, vilka tecken tyder på att AI rör sig för snabbt?

1. Konkurrens med människor

Vi har redan sett teknik ersätta mänskliga arbetare i otaliga scenarier. När du ger dig in på en snabbmatsrestaurang kan du nu beställa via en datorskärm och när du vill handla mat kan du gå till kassan med ett automatiserat system. Detta kan vara ett snabbt och bekvämt alternativ, men i takt med att automatisering blir mer framträdande i olika branscher minskar behovet av mänskliga arbetstagare.

Det är här problemet börjar. Naturligtvis måste människor arbeta för att försörja sig själva, men framväxten av automatisering gör detta mycket svårare. Detta är särskilt fallet för minimilönarbetare, som de inom livsmedelsservice, produktion och detaljhandel. Grundläggande uppgifter, som att checka ut beställningar, hämta laster och städa, kan alla utföras av maskiner. Integrationen av AI gör att vi snart kanske inte längre behöver operatörer för denna teknik.

Det rapporterades av FormStack att 76 % av företagen använder automation för att standardisera eller automatisera dagliga arbetsflöden. Och med Zapier rapporterar att 94 % av arbetarna har uppgett att deras jobb innefattar repetitiva och tidskrävande uppgifter, AI-driven automation skulle mycket lätt kunna bli en majoritetsdel av den globala arbetsstyrkan överallt industrier.

2. Uppmuntrar mänsklig lättja

En av de viktigaste fördelarna med AI är att den kan förenkla så många uppgifter. Men denna bekvämlighet kan mycket lätt ge vika för lathet. Och i vissa fall har det redan gjort det.

Ta ChatGPT, till exempel. Du kan använda ChatGPT för att göra en mängd olika saker som att skriva uppsatser, undersöka ämnen, skapa skämt, översätta text och så mycket mer. Att ha en tjänst som snabbt kan utföra uppgifter åt dig är fantastiskt, men leder oss också mot självgodhet. Att hämma ansträngning och kreativitet på detta sätt kan säkert ha en negativ effekt på mänskligheten som helhet, vilket är en viktig orsak till att så många människor är oroliga för AI.

Vi är så vana vid AI-drivna tjänster i vår moderna tid, vi har naturligtvis litat mycket på dem. Till exempel använder Microsofts virtuella assistent, Cortana, maskininlärning och AI för att utföra användarnas kommandon. Många andra virtuella assistenter, inklusive Apples Siri, använder också AI för att fungera.

Att lita på den här tekniken kan vara säkert, men det finns egentligen ingen kunskap, särskilt med tanke på att AI fortfarande är i ett mycket utvecklingsstadium.

3. Spridningen av falsk information

Bildkredit: Deep Homage/Flickr

I vanliga världar har AI fått mycket ryktbarhet genom sin förmåga att skapa konst, bilder och videor. Inte bara kan AI-drivna tjänster användas för att skapa konst, utan de kan också skapa en särskilt kontroversiell form av media som kallas deepfakes. Deepfakes är videor som visar en persons ansikte som överlagras på en annan persons kropp.

Detta låter ganska roligt, men kan mycket lätt missbrukas.

Det finns redan tusentals videor där ute av kändisar och politiska personer som verkar säga otroligt oanständiga och olämpliga saker via deepfakes. Medan vissa deepfakes är väldigt lätta att identifiera, är vissa så sofistikerade att det är svårt att urskilja om de är verkliga eller inte. När detta händer kan folk anta att en offentlig person har sagt något, som i verkligheten aldrig har sagts av dem alls.

Från detta kommer människor att göra åsikter om dessa videor, och därför bidra till spridningen av desinformation online.

Dessutom kan AI-drivna chatbots också ge användarna falsk information. Chatbots som ChatGPT, Boost. AI och Drift kan ge användarna mycket information, men denna information är inte alltid korrekt. Som diskuterats av Väktaren, AI-chatbotar är inte på något sätt engagerade i att förse dig med sanningsenlig information, vilket betyder att falska nyheter mycket lätt kan slinka igenom stolarna och ta sig till dig.

4. Skapandet av skadlig programvara

I början av 2023 började en nyhet cirkulera om illvilliga aktörer som skapar skadlig programvara med ChatGPT. I det här fallet fann cyberanalytikerföretaget Check Point Research att individer diskuterade fördelarna med att använda ChatGPT för att skapa skadlig programvara på ett hackingforum. Författaren till foruminlägget delade en infostealer som de hade skrivit i Python med ChatGPT, och uppmuntrade andra skadliga aktörer att skapa skadlig programvara med chatbot.

Skadliga program måste kodas, vilket kan vara tidskrävande, särskilt om skaparen inte använder en mall från ett redan existerande program.

Genom att använda ChatGPT kan inte bara skadliga aktörer effektivisera processen för att skapa skadlig programvara, utan mindre tekniskt kunniga individer kan skapa skadlig programvara. När AI-förfining fortsätter att utvecklas kan det vara möjligt att skapa otroligt sofistikerad skadlig programvara som kan kringgå antivirusupptäckt, autentisering, brandväggar och andra skyddsåtgärder.

5. Bristen på reglering

Ett vanligt problem inom teknikindustrin är bristen på reglering för nyare tjänster, såsom blockchain-baserade plattformar och AI-produkter. Brist på reglering kan anses vara bra av vissa, men kan också ge vika för olagliga metoder.

Inte bara kan en brist på reglering leda till en ökning av AI-drivna bedrägerier och cyberbrott, utan sättet på vilket forskare utvecklar AI-teknik kan också börja passera några allvarliga gränser. Det finns etiska överväganden som måste göras när man arbetar med AI. Kan ett system bli för medvetet? Vilken typ av effekter kommer AI att ha på människors liv? Ska vi utnyttja AI på det här sättet? Listan med frågor fortsätter och fortsätter.

Utan reglering kan vissa företag börja trampa moraliska gränser, vilket i sin tur kan vara mycket dåliga nyheter för allmänheten.

AI rör sig i en snabb takt och innebär definitivt risker

Det går inte att förneka att potentialen för AI är enorm, men detta bör utnyttjas på lämpligt sätt för att minska risken för att saker och ting kommer utom kontroll. Vi har redan sett AI användas på ett skadligt sätt, så man vet inte hur det här problemet kan utvecklas när saker och ting går framåt. Tiden kommer att utvisa om AI blir en välsignelse eller en förbannelse i vår värld, och sättet på vilket det hanteras nu kommer säkerligen att spela en roll i detta resultat.