AI-utvecklingen går snabbt framåt, men vem ska vägleda AI och dess inverkan på världen?

Viktiga takeaways

  • AI behöver striktare övervakning, eftersom cybersäkerhetssårbarheter och integritetsproblem fortsätter att dyka upp.
  • Regeringen, teknikföretagen och slutanvändarna har alla en roll att spela för att reglera AI, men varje tillvägagångssätt har sina begränsningar.
  • Medier, ideella organisationer, tekniska branschorganisationer, akademiska institutioner och brottsbekämpande myndigheter bidrar också till regleringen av AI.

Allmänheten har olika åsikter om AI – vissa tror att maskiner kommer att ersätta mänskliga arbetare helt och hållet, medan andra hävdar att AI är en modefluga. En sak som alla är överens om är dock att AI behöver striktare övervakning.

Trots vikten av AI-reglering har det tagit en baksätet till träningen. Utvecklare är så besatta av att bygga nästa största AI-modell att de byter cybersäkerhet för snabba framsteg. Frågan är inte om AI behöver reglering; det är vilket styrande organ med tillräcklig finansiering, mänskliga resurser och teknisk kapacitet kommer att ta initiativet.

instagram viewer

Så vem ska reglera AI?

statliga organ

Olika människor, från konsumenter till tekniska ledare, hoppas att regeringen kommer att reglera AI. Offentligt finansierade institutioner har resurserna att göra det. Även Elon Musk och Sam Altman, två huvudförare av AI-loppet, tror att vissa integritetsproblem kring AI är för farliga för styrande organ att förbise.

Regeringen bör fokusera på att skydda sina väljares integritet och medborgerliga friheter om den tar över AI-reglering. Cyberkriminella fortsätter att hitta sätt att utnyttja AI-system i sina system. Individer som inte är väl insatta i AI kan lätt bli lurade av syntetiserade röster, djupfalska videor och bot-styrda onlineprofiler.

Ett stort problem med regeringen som reglerar AI är dock att det oavsiktligt kan kväva innovation. AI är en komplex teknik under utveckling. Såvida inte tjänstemännen som övervakar implementering, utveckling och utbildningsriktlinjer förstår hur AI fungerar, kan de göra förtida, ineffektiva bedömningar.

AI-utvecklare, tekniska företag och laboratorier

Med tanke på de potentiella vägspärrarna som kan uppstå från att regeringen övervakar AI, vill många hellre ha teknikföretag i spetsen för reglering. De anser att utvecklare bör vara ansvariga för tekniken de släpper. Självreglering gör det möjligt för dem att driva innovation och fokusera på att utveckla dessa system effektivt.

Dessutom kommer deras djupa förståelse av AI att hjälpa dem att skapa rättvisa, välgrundade riktlinjer som prioriterar användarsäkerhet utan att kompromissa med funktionaliteten. Som med all teknik effektiviserar branschexpertis övervakningen. Att tilldela outbildade tjänstemän att reglera tekniker som de knappt förstår kan innebära fler problem än fördelar.

Ta 2018 års amerikanska senatens utfrågning om Facebooks dataskyddslagar som ett exempel. I denna rapport av Washington Post, kommer du att se att många lagstiftare är förvirrade med Facebooks grundläggande funktioner. Så om inte den amerikanska senaten skapar en enda avdelning av tekniska specialister, är de sannolikt inte kvalificerade att reglera ett så avancerat, ständigt föränderligt system som AI.

Men huvudproblemet med teknikföretag som reglerar sig själva är att skumma företag kan missbruka sin makt. Utan någon ingripande tredje part är de i princip fria att göra vad de vill.

Slutanvändare

Vissa fruktar att statliga och privata enheter kommer att missbruka AI-system. De är osäkra på att ge en handfull styrande organ total kontroll över så kraftfulla teknologier, särskilt eftersom AI fortfarande utvecklas. De kan så småningom slåss om auktoriteter snarare än att arbeta mot effektiv reglering.

För att minska dessa risker tror skeptiker att slutanvändare förtjänar fria händer att använda AI-modeller som de vill. De säger att statliga organ bara bör ingripa när AI-användare bryter mot lagen. Det är ett ambitiöst mål, men det skulle tekniskt kunna uppnås om AI-utvecklare med öppen källkod dominerade marknadsandelar.

Som sagt, den här installationen försätter icke-teknikkunniga individer i en nackdel. Användare är ansvariga för att ställa in begränsningarna i sina system – tyvärr har inte alla resurserna att göra det.

Det är också kortsiktigt att ta bort egna modeller från marknaden. Spridningen av AI-modeller med öppen källkod har flera positiva och negativa effekter; för vissa överväger nackdelarna fördelarna.

Andra enheter som spelar en roll i regleringen av AI

Även om stora enheter kommer att gå i spetsen för regleringen av AI, finns det organ som spelar betydande roller:

Medier spelar en avgörande roll för att forma allmänhetens uppfattning om AI. De rapporterar branschutvecklingen, delar med sig av nya verktyg, skapar medvetenhet om den skadliga användningen av AI och intervjuar experter om relevanta problem.

De flesta fakta som slutanvändarna känner till om AI kommer i princip från media. Publicering av falsk data, vare sig det är avsiktligt eller inte, kommer att orsaka oåterkalleliga skador – du kan inte underskatta hur snabbt felaktig information sprids.

2. Icke-statliga organisationer

Flera ideella organisationer är centrerade kring att skydda AI-användares integritet och medborgerliga friheter. De utbildar allmänheten genom gratis resurser, förespråkar ny politik, samarbetar med regeringstjänstemän och uttrycker förbisedda oro.

Det enda problemet med ideella organisationer är att de vanligtvis har ont om resurser. Eftersom de inte är anslutna till regeringen, förlitar de sig på privata förfrågningar och donationer för den dagliga verksamheten. Tyvärr är det bara ett fåtal organisationer som får tillräcklig finansiering.

3. Tekniska industriföreningar

AI-fokuserade tekniska branschorganisationer kan representera allmänhetens rättigheter och intressen. Liksom frivilligorganisationer arbetar de med lagstiftare, representerar berörda individer, förespråkar rättvisa policyer och skapar medvetenhet om specifika frågor.

Skillnaden är dock att de ofta har kopplingar till privata företag. Deras medlemmar gör fortfarande värvningar, men de får vanligtvis tillräckligt med finansiering från sina moderorganisationer så länge de ger resultat.

4. Akademiska institutioner

Även om AI kommer med flera risker, är den i sig neutral. Alla fördomar, integritetsproblem, säkerhetsfel och potentiella cyberbrottsaktiviteter härrör från människor, så AI i sig är inte något att frukta.

Men väldigt få förstår redan hur moderna AI-modeller fungerar. Missuppfattningar snedvrider människors uppfattning om AI och vidmakthåller grundlösa rädslor som att AI tar över mänskligheten eller stjäl jobb.

Akademiska institutioner skulle kunna fylla dessa utbildningsluckor genom tillgängliga resurser. Det finns inte för många vetenskapliga arbeten om moderna LLM och NLP-system ännu. Allmänheten kan använda AI mer ansvarsfullt och bekämpa cyberbrott om de helt förstår hur det fungerar.

5. Brottsbekämpande organ

Brottsbekämpande myndigheter bör räkna med att stöta på fler AI-aktiverade cyberattacker. Med spridningen av generativa modeller kan skurkar snabbt syntetisera röster, generera djupfalska bilder, skrapa personligt identifierbar information (PII), och till och med skapa helt nya personas.

De flesta byråer är inte utrustade för att hantera dessa brott. De bör investera i nya system och utbilda sina officerare i moderna cyberbrott; annars kommer de att ha problem med att fånga dessa skurkar.

Framtiden för AI-förordningen

Med tanke på AI: s snabba natur är det osannolikt att ett enda styrande organ kontrollerar det. Ja, tekniska ledare kommer att ha mer makt än konsumenter, men olika enheter måste samarbeta för att hantera AI-risker utan att hindra framsteg. Det är bäst att sätta kontrollåtgärder nu medan artificiell allmän intelligens (AGI) fortfarande är ett avlägset mål.

Som sagt, AI-reglering är lika avlägsen som AGI. Under tiden måste användare följa säkerhetsrutiner för att bekämpa AI-drivna hot. Goda vanor som att begränsa de människor du ansluter till online och säkra din digitala PII går redan långt.