Diskussioner kring AI-känslan är inget nytt, men nyheter om Googles AI LaMDA har eldat upp lågorna. Efter att en ingenjör hävdade att boten var medveten, till och med hade en själ, har några välbekanta frågor återuppstått.

Kan AI som LaMDA faktiskt vara kännande eller självmedveten, och i så fall, hur kan du veta det? Spelar det någon roll?

Vad är LaMDA?

LaMDA, förkortning för Language Model for Dialogue Applications, dök upp första gången 2021 på Googles utvecklarkonferens. Det avancerade AI-systemet är tänkt att hjälpa till att bygga andra, mindre chatbots. När Google först introducerade det tillkännagav de planer på att integrera det i allt, vilket hjälper tjänster som Google Assistant och Search att kännas mer mänskliga, eller åtminstone naturliga.

När Googles ingenjör Blake Lemoine pratade med LaMDA för att se om det använde hatretorik fick han ett annat intryck. Lemoine hävdade att LaMDA var kännande, och om han inte visste att det var en bot skulle han tro att det var ett åttaårigt barn.

instagram viewer

Efter sina samtal med LaMDA försökte Lemoine bevisa att det var medvetet och försvara vad han trodde var dess lagliga rättigheter. Som svar gav Google Lemoine på betald administrativ ledighet för att ha brutit sekretessavtal.

Är LaMDA verkligen kännande?

Så, är LaMDA verkligen kännande? De flesta experter som har vägt in i frågan är skeptiska. LaMDA är en mycket avancerad AI-chattplattform som analyserar biljoner ord från internet, så den är skicklig på att låta som en riktig person.

Det här är inte första gången en av Googles AI: er har lurat folk att tro att det är mänskligt. 2018 demonstrerade Google sin Duplex AI genom att ringa en restaurang för att boka bord. Inte vid något tillfälle verkade den anställde i andra änden tvivla på att de pratade med en person.

Mening är svårt att definiera, även om de flesta människor tvivlar på att AI har nått den punkten än. Den viktiga frågan kanske inte är huruvida LaMDA faktiskt är kännande utan vilken skillnad det gör om det kan lura folk att tro att det är det.

Möjliga juridiska konsekvenser av LaMDA

LaMDA-situationen väcker många juridiska och etiska frågor. Först och främst kan vissa personer ifrågasätta om Google hade rätt att lämna Lemoine på semester för att ha talat om det.

Enligt paragraf 740 i New Yorks arbetslag försvarar skydd av visselblåsare anställda från sådana konsekvenser om de anser att deras arbetsgivares praxis bryter mot lagen eller utgör en betydande risk för allmänheten säkerhet. LaMDA: s förmodade mening uppfyller inte riktigt det lagkravet, men borde det?

Att ge AI-rättigheter är ett knepigt ämne. Medan AI kan skapa saker och verka mänsklig, kan du hamna i komplicerade situationer om dessa maskiner har juridiskt skydd. Lagliga rättigheter handlar om belöningar och straff som inte påverkar AI, vilket komplicerar rättvisan.

Om en självkörande bil träffar en fotgängare, är AI: n skyldig om lagen behandlar den som en människa? Och i så fall ger det inte offret rättvisa, eftersom du inte tekniskt kan straffa AI på samma sätt som en människa.

En annan fråga som uppstår med LaMDA och liknande AI-chatbotar är deras säkerhet. Om dessa bots verkar övertygande verkliga kan folk lita på dem mer och vara villiga att ge dem mer känslig information. Det öppnar dörren för en mängd integritets- och säkerhetsproblem om den här tekniken hamnar i fel händer.

AI introducerar komplicerade etiska frågor

AIs som LaMDA blir hela tiden mer sofistikerade och verklighetstrogna. När denna trend växer bör företag och lagstiftare omvärdera hur de behandlar AI och hur dessa beslut kan påverka rättvisa och säkerhet.

Som det ser ut kanske Googles LaMDA AI inte är kännande, men det är tillräckligt bra för att lura folk att tro att det är det, vilket borde väcka några larm.