Annons

Under de senaste månaderna kanske du har läst täckningen kring en artikel, medförfattare av Stephen Hawking, diskuterar riskerna med artificiell intelligens. Artikeln föreslog att AI kan utgöra en allvarlig risk för människors ras. Hawking är inte ensam där - Elon Musk och Peter Thiel är båda intellektuella offentliga personer som har uttryckt liknande oro (Thiel har investerat mer än 1,3 miljoner dollar för att undersöka frågan och möjliga lösningar).

Täckningen av Hawkings artikel och Musks kommentarer har varit, för att inte sätta en för liten poäng på den, lite jovial. Tonen har varit väldigt mycket "Titta på den konstiga saken som alla dessa nördar är oroliga för." Liten hänsyn tas till idén att om några av de smartaste människorna på jorden varnar dig för att något kan vara mycket farligt, kan det bara vara värt att lyssna.

Detta är förståeligt - artificiell intelligens som tar över världen låter verkligen mycket konstigt och otroligt, kanske på grund av den enorma uppmärksamhet som redan fästs på denna idé av science fiction författare. Så, vad har alla dessa nominellt förnuftiga, rationella människor så talat om?

instagram viewer

Vad är intelligens?

För att prata om faran med artificiell intelligens kan det vara bra att förstå vad intelligens är. För att bättre förstå frågan, låt oss ta en titt på en AI-arkitektur för leksaker som används av forskare som studerar resonemangsteorin. Denna leksak AI kallas AIXI och har ett antal användbara egenskaper. Det är mål som kan vara godtyckliga, det skalar bra med datorkraft och dess interna design är mycket ren och okomplicerad.

Dessutom kan du implementera enkla, praktiska versioner av arkitekturen som kan göra saker som spela Pacman, om du vill. AIXI är produkten från en AI-forskare vid namn Marcus Hutter, utan tvekan den främsta experten på algoritmisk intelligens. Det är honom som pratar i videon ovan.

AIXI är förvånansvärt enkelt: den har tre kärnkomponenter: elev, planerare, och verktygsfunktion.

  • De elev tar in strängar av bitar som motsvarar input om omvärlden och söker igenom datorprogram tills den hittar sådana som producerar sina observationer som output. Dessa program tillåter tillsammans att göra gissningar om hur framtiden kommer att se ut, helt enkelt genom att köra varje programmera framåt och väga sannolikheten för resultatet med programmets längd (en implementering av Occams Rakapparat).
  • De planerare söker igenom möjliga åtgärder som agenten kan vidta och använder eleven modulen för att förutsäga vad som skulle hända om det tog varje av dem. Därefter betygsätter de dem beroende på hur bra eller dåligt de förutsagda resultaten är och väljer kursen för handling som maximerar godheten i det förväntade utfallet multiplicerat med den förväntade sannolikheten för uppnå det.
  • Den sista modulen, verktygsfunktion, är ett enkelt program som tar en beskrivning av ett framtida tillstånd i världen och beräknar en nytta för det. Denna nyttapoäng är hur bra eller dåligt resultatet är och används av planeraren för att utvärdera framtida världsstat. Nyttjefunktionen kan vara godtycklig.
  • Sammantaget bildar dessa tre komponenter en Optimizer, som optimerar för ett visst mål, oavsett vilken värld den befinner sig i.

Denna enkla modell representerar en grundläggande definition av en intelligent agent. Agenten studerar sin miljö, bygger modeller av den och använder sedan dessa modeller för att hitta handlingsförloppet som maximerar oddsen för att den får vad den vill. AIXI liknar sin struktur som en AI som spelar schack, eller andra spel med kända regler - förutom att den kan dra av spelets regler genom att spela det, med början från noll kunskap.

AIXI, som ges tillräckligt med tid att beräkna, kan lära sig att optimera vilket system som helst för vilket mål som helst, hur komplicerat det än är. Det är en generellt intelligent algoritm. Observera att detta inte är samma sak som att ha mänsklig-liknande intelligens (biologiskt inspirerad AI är en olika ämnen helt och hållet Giovanni Idili från OpenWorm: hjärnor, maskar och artificiell intelligensAtt simulera en mänsklig hjärna är en väg bort, men ett öppen källkodsprojekt tar viktiga första steg genom att simulera neurologin och fysiologin hos ett av de enklaste djur som vetenskapen känner till. Läs mer ). Med andra ord kan AIXI kunna överträffa varje människa vid någon intellektuell uppgift (med tillräckligt med datorkraft), men den kanske inte är medveten om sin seger Tänkande maskiner: Vad neurovetenskap och konstgjord intelligens kan lära oss om medvetandeKan bygga konstgjorda intelligenta maskiner och programvara lära oss om hur medvetandet fungerar och människans sinnes natur? Läs mer .

headsculpture

Som en praktisk AI har AIXI många problem. För det första har det inget sätt att hitta de program som producerar den produktion den är intresserad av. Det är en algoritm för brute-force, vilket innebär att det inte är praktiskt om du inte råkar ha en godtycklig kraftfull dator som ligger runt. Varje verklig implementering av AIXI är nödvändigtvis en tillnärmning, och (idag) i allmänhet en ganska rå. Ändå ger AIXI oss en teoretisk inblick i hur en kraftfull konstgjord intelligens kan se ut och hur den kan resonera.

Värdenas utrymme

Om du har gjort någon datorprogrammering Grunderna i datorprogrammering 101 - variabler och datatyperEfter att ha introducerat och pratat lite om objektorienterad programmering innan och var dess namngivare kommer från, jag trodde att det är dags att vi går igenom de absoluta grunderna i programmering på ett icke-språkspecifikt sätt. Detta... Läs mer , du vet att datorer är motbjudande, pedantiskt och mekaniskt bokstavliga. Maskinen vet eller bryr sig inte vad du vill att den ska göra: den gör bara vad den har sagt. Detta är en viktig uppfattning när man talar om maskininformation.

Med detta i åtanke, föreställ dig att du har uppfunnit en kraftfull konstgjord intelligens - du har kommit upp med smarta algoritmer för att generera hypoteser som matchar dina data och för att generera bra kandidater planer. Din AI kan lösa allmänna problem och kan göra det effektivt på modern datormaskinvara.

Nu är det dags att välja en verktygsfunktion som avgör vilka AI-värden. Vad ska du be det om att värdera? Kom ihåg att maskinen kommer att vara motbjudande, pedantiskt bokstavlig om vilken funktion du ber den att maximera och kommer aldrig att stoppa - det finns inget spöke i maskinen som någonsin kommer att "vakna upp" och besluta att ändra dess nyttafunktion, oavsett hur många effektivitetsförbättringar den gör till sin egen resonemang.

Eliezer Yudkowsky uttrycka det så här:

Liksom i all datorprogrammering är AGI: s grundläggande utmaning och väsentliga svårigheter att om vi skriver fel kod, AI kommer inte automatiskt att titta över vår kod, markera misstag, räkna ut vad vi egentligen menade att säga och göra det istället. Icke-programmerare föreställer sig ibland en AGI, eller datorprogram i allmänhet, som att de är analoga med en tjänare som utan tvekan följer order. Men det är inte så att AI är absolut lydig till dess kod; snarare AI helt enkelt är koden.

Om du försöker driva en fabrik, och du ber maskinen att värdesätta pappersklipp och sedan ge den kontroll över gäng fabriksrobotar, kan komma tillbaka nästa dag för att upptäcka att det har slut på alla andra former av råvaror, dödat alla dina anställda och gjort pappersklipp ur deras resterna. Om du, i ett försök att rätta till ditt fel, omprogrammerar maskinen för att helt enkelt göra alla lyckliga, kan du komma tillbaka nästa dag för att finna att det sätter ledningar i människors hjärnor.

paperclips

Poängen här är att människor har många komplicerade värden som vi antar delas implicit med andra sinnen. Vi värdesätter pengar, men vi värdesätter mänskligt liv mer. Vi vill vara lyckliga, men vi behöver inte nödvändigtvis sätta ledningar i hjärnan för att göra det. Vi känner inte behovet av att förtydliga dessa saker när vi ger instruktioner till andra människor. Du kan dock inte göra sådana antaganden när du utformar en maskinverktygsfunktion. De bästa lösningarna under den sjelfria matematiken i en enkel nyttafunktion är ofta lösningar som människor skulle nix för att vara moraliskt skrämmande.

Att tillåta en intelligent maskin att maximera en naiv verktygsfunktion är nästan alltid katastrofalt. Som Oxford-filosofen Nick Bostom uttrycker det,

Vi kan inte antas att en superintelligens nödvändigtvis kommer att dela någon av de slutliga värdena som är stereotyp förknippade med visdom och intellektuell utveckling hos människor - vetenskaplig nyfikenhet, välvillig omtanke för andra, andlig upplysning och kontemplation, avsägelse av materiell förvärv, smak för en förfinad kultur eller för de enkla nöjen i livet, ödmjukhet och osjälviskhet och så vidare.

För att förvärra är det mycket, mycket svårt att specificera den fullständiga och detaljerade listan över allt som människor värderar. Det finns många aspekter på frågan, och att glömma att ens en enda är potentiellt katastrofalt. Även bland de vi är medvetna om finns det finesser och komplexiteter som gör det svårt att skriva ner dem som rena system för ekvationer som vi kan ge till en maskin som en hjälpfunktion.

Vissa människor drar, när de läser detta, att bygga AI: er med verktygsfunktioner är en fruktansvärd idé, och vi borde bara utforma dem annorlunda. Här finns det också dåliga nyheter - du kan formellt bevisa det alla agent som inte har något som motsvarar en verktygsfunktion kan inte ha sammanhängande preferenser om framtiden.

Rekursiv självförbättring

En lösning på ovanstående dilemma är att inte ge AI-agenter möjlighet att skada människor: ge dem bara de resurser de behöver lösa problemet på det sätt som du tänker lösa det, övervaka dem noggrant och hålla dem borta från möjligheter att göra bra skada. Tyvärr är vår förmåga att kontrollera intelligenta maskiner mycket misstänkt.

Även om de inte är mycket smartare än vi, finns möjligheten för maskinen att "starta upp" - samla in bättre hårdvara eller göra förbättringar av sin egen kod som gör den ännu smartare. Detta kan göra det möjligt för en maskin att hoppa över mänsklig intelligens genom många storleksordningar och överlista människor i samma mening som människor överträffar katter. Detta scenario föreslogs först av en man vid namn I. J. Bra, som arbetade på kryptanalysprojektet Enigma med Alan Turing under andra världskriget. Han kallade det för en "intelligensexplosion" och beskrev saken så här:

Låt en en ultraintelligent maskin definieras som en maskin som långt kan överträffa alla människors intellektuella aktiviteter, hur smart som helst. Eftersom design av maskiner är en av dessa intellektuella aktiviteter kan en ultraintelligent maskin designa ännu bättre maskiner; då skulle det utan tvekan vara en "intelligensexplosion", och människans intelligens skulle lämnas långt efter. Således är den första ultraintelligenta maskinen den sista uppfinningen som människan någonsin behöver göra, förutsatt att maskinen är tillräcklig fog.

Det är inte garanterat att en intelligensexplosion är möjlig i vårt universum, men det verkar troligt. Som tiden går får datorer snabbare och grundläggande insikter om intelligensuppbyggnad. Detta innebär att resursbehovet för att göra det sista hoppet till en allmän, förstärkande intelligens sjunker lägre och lägre. Vid någon tidpunkt befinner vi oss i en värld där miljontals människor kan köra till en Best Buy och hämta hårdvaran och teknisk litteratur som de behöver för att bygga en självförbättrande konstgjord intelligens, vilket vi redan har etablerat kan vara mycket farlig. Föreställ dig en värld där du kan göra atombomber av pinnar och stenar. Det är den slags framtid vi diskuterar.

Och om en maskin gör det hoppet, kan det mycket snabbt överträffa människans art när det gäller intellektuellt produktivitet, lösa problem som en miljard människor inte kan lösa, på samma sätt som människor kan lösa problem som a miljarder katter inte kan.

Det kan utveckla kraftfulla robotar (eller bio- eller nanoteknologi) och relativt snabbt få förmågan att omforma världen som den vill, och det skulle vara mycket lite vi kan göra åt det. En sådan intelligens skulle kunna strippa jorden och resten av solsystemet för reservdelar utan mycket besvär, på väg att göra vad vi berättade för det. Det verkar troligt att en sådan utveckling skulle vara katastrofal för mänskligheten. En konstgjord intelligens behöver inte vara skadlig för att förstöra världen, bara katastrofalt likgiltig.

Som man säger: "Maskinen älskar eller hatar dig inte, men du är gjord av atomer som den kan använda för andra saker."

Riskbedömning och begränsning

Så om vi accepterar att det är dåligt att designa en kraftfull konstgjord intelligens som maximerar en enkel verktygsfunktion, hur mycket problem är vi egentligen i? Hur lång tid har vi innan det blir möjligt att bygga sådana maskiner? Det är naturligtvis svårt att säga.

Artificiell intelligens utvecklare är göra framsteg. 7 fantastiska webbplatser för att se det senaste inom artificiell intelligens-programmeringArtificiell intelligens är ännu inte HAL från 2001: The Space Odyssey... men vi kommer hemskt nära. Visst nog, en dag kan det vara lika mycket som sci-fi-pannor som tappas ut av Hollywood ... Läs mer Maskinerna vi bygger och de problem de kan lösa har vuxit stadigt i omfattning. 1997 kunde Deep Blue spela schack på en nivå större än en mänsklig stormästare. 2011 kunde IBMs Watson läsa och syntetisera tillräckligt med information djupt och snabbt nog för att slå den bästa människan spelare på ett öppet frågeformulär med spel och ordspel - det är mycket framsteg på fjorton år.

Just nu är Google det investera kraftigt i att undersöka djup inlärning, en teknik som gör det möjligt att bygga kraftfulla neurala nätverk genom att bygga kedjor av enklare neurala nätverk. Denna investering gör att den kan göra allvarliga framsteg när det gäller tal- och bildigenkänning. Deras senaste förvärv i området är en Deep Learning-start som heter DeepMind, för vilken de betalade ungefär 400 miljoner dollar. Som en del av villkoren i avtalet gick Google med på att skapa en etik ombord för att se till att deras AI-teknik utvecklas säkert.

neuralt nätverk

Samtidigt utvecklar IBM Watson 2.0 och 3.0, system som kan bearbeta bilder och video och argumentera för att försvara slutsatser. De gav en enkel, tidig demonstration av Watsons förmåga att syntetisera argument för och mot ett ämne i videodemon nedan. Resultaten är ofullkomliga, men ett imponerande steg oavsett.

Ingen av dessa tekniker är själva farliga just nu: konstgjord intelligens som fält kämpar fortfarande för att matcha förmågor som behärskas av små barn. Dataprogrammering och AI-design är en mycket svår kognitiv kompetens på hög nivå och kommer sannolikt att vara den sista mänskliga uppgiften som maskiner blir skickliga på. Innan vi kommer till den punkten kommer vi också ha allestädes närvarande maskiner som kan köra Så här kommer vi till en värld fylld med förarlösa bilarAtt köra är en tråkig, farlig och krävande uppgift. Kan det en dag automatiseras med Googles förarlösa bilteknologi? Läs mer , praktisera medicin och lagoch förmodligen andra saker också med djupa ekonomiska konsekvenser.

Den tid det tar oss att komma till böjningspunkten för självförbättring beror bara på hur snabbt vi har bra idéer. Att förutse tekniska framsteg av dessa slag är notoriskt svåra. Det verkar inte orimligt att vi kanske kan bygga stark AI på tjugo år, men det verkar inte heller orimligt att det kan ta åttio år. Hursomhelst kommer det att hända så småningom, och det finns anledning att tro att när det händer kommer det att vara extremt farligt.

Så om vi accepterar att detta kommer att bli ett problem, vad kan vi göra med det? Svaret är att se till att de första intelligenta maskinerna är säkra, så att de kan starta upp till en betydande intelligensnivå och sedan skydda oss från osäkra maskiner som tillverkas senare. Denna "säkerhet" definieras genom att dela mänskliga värderingar och vara villig att skydda och hjälpa mänskligheten.

Eftersom vi faktiskt inte kan sitta ner och programmera mänskliga värden i maskinen, kommer det förmodligen att behöva utformas en verktygsfunktion som kräver att maskinen ska observera människor, härleda våra värderingar och försök sedan maximera dem. För att göra denna utvecklingsprocess säker kan det också vara användbart att utveckla konstgjorda intelligenser som är specifikt utformade inte att ha preferenser för deras nyhetsfunktioner, så att vi kan korrigera dem eller stänga av dem utan motstånd om de börjar bli vilse under utvecklingen.

stainedneurons

Många av de problem som vi behöver lösa för att bygga en säker maskininformation är svåra matematiskt, men det finns anledning att tro att de kan lösas. Ett antal olika organisationer arbetar med frågan, inklusive Future of Humanity Institute i Oxford, och den Machine Intelligence Research Institute (som Peter Thiel finansierar).

MIRI är särskilt intresserad av att utveckla den matematik som behövs för att bygga Friendly AI. Om det visar sig att det är möjligt att starta upp artificiell intelligens, så utvecklar du den här typen av "Vänlig AI" -teknologi kan, om den lyckas, först vara den enda viktigaste saken som människor har någonsin gjort.

Tycker du att konstgjord intelligens är farligt? Är du orolig för vad framtiden för AI kan ge? Dela dina tankar i kommentarerna nedan!

Bildpoäng: Lwp Kommunikáció Via Flickr, “Neuralt nätverk", Av fdecomite," img_7801“, Av Steve Rainwater,” E-Volve ”, av Keoni Cabral,”new_20x“, Av Robert Cudmore,”gem“, Av Clifford Wallace

En författare och journalist baserad på sydväst, garanteras Andre att vara funktionell upp till 50 grader Celcius och är vattentät till ett djup av tolv meter.