Läsare som du hjälper till att stödja MUO. När du gör ett köp med hjälp av länkar på vår webbplats kan vi tjäna en affiliate-provision. Läs mer.

Apple tillkännagav planer på att skanna ditt iCloud-innehåll efter material för sexuella övergrepp mot barn (CSAM) i augusti 2021 för att skydda barn från övergrepp från rovdjur.

Företaget planerade att lansera en ny CSAM-detekteringsfunktion i iCloud Photos som skulle skanna efter sådant innehåll och rapportera matchande bilder till Apple samtidigt som användarnas integritet bibehålls.

Den nya funktionen möttes dock av blandade reaktioner. Över ett år sedan det första tillkännagivandet släpper Apple officiellt sin plan att skanna iCloud Photos för CSAM.

Apple släpper sin plan att skanna iCloud efter barnmisshandel

Enligt en rapport av TRÅDBUNDEN, Apple går ifrån sin plan att skanna din iCloud efter innehåll som missbrukas av barn. Verktyget skulle skanna foton lagrade på iCloud för att hitta de som matchar kända CSAM-bilder som identifierats av barnsäkerhetsorganisationer. Det kan sedan rapportera dessa bilder eftersom innehav av CSAM-bilder är olagligt i de flesta jurisdiktioner, inklusive USA.

instagram viewer

Varför Apple avbröt sin plan för att skanna iCloud-foton

Efter det första tillkännagivandet 2021 mötte Apple motreaktioner från kunder, grupper och individer som förespråkade digital integritet och säkerhet över hela världen. iPhones erbjuder vanligtvis mer säkerhet än Android-enheter, och många såg detta som ett steg tillbaka. Även om det var en vinst för barnsäkerhetsorganisationer, skrev över 90 policygrupper ett öppet brev till Apple senare samma månad och berättade för företaget att avbryta planen.

Brevet hävdade att medan verktyget har för avsikt att skydda barn från övergrepp, kan det utnyttjas för att censurera yttrandefriheten och hota användarnas integritet och säkerhet. På grund av ökat tryck stoppade Apple sina lanseringsplaner för att samla in feedback och göra nödvändiga justeringar av funktionen. Återkopplingen gynnade dock inte Apples plan att skanna iCloud-foton, så företaget släpper officiellt planerna för gott.

I ett uttalande till WIRED sa företaget:

"Vi har... beslutade att inte gå vidare med vårt tidigare föreslagna CSAM-detekteringsverktyg för iCloud Photos. Barn kan skyddas utan att företag söker igenom personuppgifter, och vi kommer att fortsätta att arbeta med regeringar, barnförespråkare och andra företag för att hjälpa till att skydda unga människor, bevara deras rätt till integritet och göra internet till en säkrare plats för barn och för oss Allt."

Apples nya plan för att skydda barn

Apple omdirigerar sina ansträngningar för att förbättra funktionerna för kommunikationssäkerhet som tillkännagavs i augusti 2021 och lanserades i december samma år.

Kommunikationssäkerhet är valfritt och kan användas av föräldrar och vårdnadshavare för att skydda barn från att både skicka och ta emot sexuellt explicita bilder i iMessage. Funktionen suddar automatiskt sådana bilder, och barnet kommer att varnas för farorna. Den varnar också någon om de försöker söka efter CSAM på Apple-enheter.

Eftersom planerna på att lansera ett CSAM-detektionsverktyg avbrutits, ser företaget fram emot att förbättra funktionen ytterligare och utöka den till fler kommunikationsappar.