Artificiell intelligens (AI) har ännu inte nått den mänskliga nivån. Men med att tekniken täcker klyftan mer och mer för varje år har många etiska problem uppstått.

En viktig fråga är: Hur liknar artificiell intelligens människor? Kommer de att tänka själva eller ha önskningar och känslor? Ska de ha lagliga rättigheter som människor? Ska de tvingas till arbete, eller vara ansvariga om något går fel?

Vi kommer att ta en djupdykning i dessa frågor och mer i den här artikeln.

AI -etik: varför de är viktiga att tänka på

AI och maskinetik är två besläktade områden som får allt större dragkraft. De relaterar till flera viktiga aspekter av teknik, inklusive hur vi designar, använder och behandlar maskiner. De flesta av dessa frågor rör säkerhetsproblem i relation till människor.

AI -etik börjar dock gå förbi dessa grundläggande frågor och in på mer kontroversiellt territorium. Tänk att under de närmaste decennierna utvecklas en superintelligent AI som är potentiellt medveten och uttrycker önskningar, känslor eller kan uppleva lidande. Eftersom vi inte ens är säkra på vad mänskligt medvetande är eller hur det uppstår, är det inte ett så långsökt förslag som det ursprungligen låter.

Hur skulle vi gå tillväga för att definiera och behandla en sådan AI? Och vad är några av de etiska frågorna som vi står inför just nu med vår nuvarande AI -nivå?

Låt oss ta en titt på några av de etiska dilemman vi står inför.

Ska AI få medborgarskap?

År 2017 beviljade den saudiarabiska regeringen Sophia fullt medborgarskap: en av de mest livliknande AI-drivna robotarna i världen. Sophia kan delta i en konversation och kan efterlikna 62 mänskliga ansiktsuttryck. Sophia är den första icke-mänskliga som har ett pass och den första som äger ett kreditkort.

Beslutet att göra Sophia till medborgare har varit kontroversiellt. Vissa ser det som ett steg framåt. De tycker att det är viktigt för människor och tillsynsorgan att börja ägna mer uppmärksamhet åt frågor på detta område. Andra anser att det är en förolämpning av människovärdet och säger att AI inte är nära att vara människa ännu - och att samhället som helhet inte är redo för robotmedborgare.

Debatten blir hetsig på grund av de rättigheter och skyldigheter som medborgarna får. Dessa inkluderar att kunna rösta, betala skatt, gifta sig och skaffa barn. Vem röstar egentligen om Sophia får rösta? Med det nuvarande tillståndet av AI, skulle det snarare vara hennes skapare som röstar? En annan gripande kritik är att Sophia tilldelades fler rättigheter än Saudiarabiens kvinnor och migrerande arbetare.

AI och IP: Ska de äga rättigheterna till det de skapar?

Diskussioner kring immateriella rättigheter (IP) och integritetsfrågor har nått en topp som någonsin, och nu finns det en annan oro. AI används alltmer för att utveckla innehåll, producera idéer och utföra andra åtgärder som omfattas av IP -lagar. Till exempel släppte The Washington Post Heliograf 2016; en AI -reporter som utvecklade nästan tusen artiklar under sitt första år. Flera branscher använder också AI för att skura enorma mängder data och utveckla nya produkter, till exempel läkemedelsindustrin.

För närvarande betraktas AI som ett verktyg; alla IP och juridiska rättigheter tillkommer dess ägare. Men EU övervägde tidigare att skapa en tredje enhet, en "elektronisk personlighet", som skulle bli en juridisk enhet i IP -lagarnas ögon.

Vissa hävdar att utan att maskinägaren får IP kommer det att saknas incitament att bygga "kreativ" AI. Om IP gick till AI, varför skulle någon utveckla dem? Och på grund av detta tror de att det kommer att saknas innovation.

AI och framtidens arbete

AI: s roll i arbetet är lite av en gåta. Under de senaste åren har vi sett den kontroversiella användningen av AI vid anställning och avfyrning av algoritmer där AI var oavsiktligt partisk mot viss demografi. AI ersätter också gradvis högre och högre nivåer av mänskligt arbete-först manuellt arbete och nu högre ordningens mentala arbete.

Vad ska man göra åt detta? Och vad händer om någon form av medveten AI utvecklas? Ska det tvingas arbeta? Ersatt för sitt arbete? Beviljade arbetsplatsrättigheter? Och så vidare.

I ett avsnitt av Black Mirror (en show ökänd för bråkar med våra huvuden), skapar en tjej som heter Greta en digital klon av hennes medvetande. Klonen får veta att dess syfte är att utföra uppgifter för Gretas liv. Men med Gretas medvetande anser klonen sig vara Greta. Så, när klonen vägrar att vara en slav, torterar dess skapare den till underkastelse. Slutligen går klonen till jobbet för Greta.

Ska vi förebyggande bevilja vissa rättigheter till AI om de tror att de är mänskliga eller upplever lidande?

För att ta detta ett steg längre, låt oss överväga om AI ska fritt stängas av eller tas ur drift. När något går för närvarande kan vi helt enkelt dra ut kontakten och stänga av AI. Men om AI hade juridiska rättigheter och detta inte längre var möjligt, vad skulle vara möjligt?

Det berömda exemplet på supertelligent AI som gått fel är pappersklippsmaksimatorn. Detta är en AI som har utformats för att skapa maximal mängd gem. Med tanke på att AI är tillräckligt kraftfullt är det tänkbart att det kan besluta att omvandla människor och sedan allt till gem.

Ska AI hållas ansvarigt?

AI är redan ansvarig för många beslut som påverkar människors liv. Faktum är att AI redan används på många områden som direkt påverkar mänskliga rättigheter, vilket är oroväckande med tanke på hur partisk många AI -algoritmer verkar vara.

Till exempel används AI av stora företag för att bestämma vem som ska anställas för ett jobb. Det används också i vissa länder för att bestämma vem som ska få välfärd. Mer oroväckande används det av polis och domstolssystem för att fastställa domen för tilltalade. Och det är inte allt.

Vad händer när AI gör misstag? Vem ställs till svars - de som använder det? Skaparna Alternativt, bör AI själv straffas (och i så fall hur skulle det fungera)?

AI och mänsklighet

AI kommer aldrig att vara mänskligt. Men det kan vara medvetet, känna lidande eller ha önskningar och önskningar. Om en AI som denna utvecklades, skulle det då vara oetiskt att tvinga den att fungera, fritt stänga av den eller göra saker mot den som får den att lida?

Medan AI fortfarande är i sin linda, används det redan för saker som direkt påverkar människors liv, ibland drastiskt. Beslut måste fattas om hur man reglerar den programvara som är bäst för människors liv, och AI -liv skulle någonsin komma till stånd.

Dela med sigTweetE-post
5 vanliga myter om artificiell intelligens som inte är sanna

Låt oss sätta rekordet på några vanliga lögner kring AI.

Läs Nästa

Relaterade ämnen
  • Teknik förklaras
  • Artificiell intelligens
  • Futurologi
  • Teknologi
Om författaren
Jake Harfield (32 artiklar publicerade)

Jake Harfield är frilansskribent baserad i Perth, Australien. När han inte skriver brukar han vara ute i busken och fotografera lokalt djurliv. Du kan besöka honom på www.jakeharfield.com

Mer från Jake Harfield

Prenumerera på vårt nyhetsbrev

Gå med i vårt nyhetsbrev för tekniska tips, recensioner, gratis e -böcker och exklusiva erbjudanden!

Klicka här för att prenumerera