I augusti 2021 avslöjade Apple sina planer på att skanna iPhones efter bilder av sexuella övergrepp mot barn. Flytten fick applåder från barnskyddsgrupper men väckte oro bland sekretess- och säkerhetsexperter om att funktionen kan missbrukas.

Apple planerade initialt att inkludera skanningsteknologi för barn sexuellt övergrepp (CSAM) i iOS 15; det har istället försenat funktionens lansering på obestämd tid för att be om feedback innan den släpps.

Så varför blev CSAM -upptäcktsfunktionen föremål för het debatt, och vad fick Apple att skjuta upp lanseringen?

Vad gör Apples fotoskanningsfunktion?

Apple tillkännagav att implementera fotoskanningsfunktionen i hopp om att bekämpa sexuella övergrepp mot barn. Alla foton på enheterna hos Apple -användare kommer att skannas efter pedofili innehåll med hjälp av algoritmen "NueralHash" som skapats av Apple.

Dessutom skulle alla Apple -enheter som används av barn ha en säkerhetsfunktion som automatiskt oskärpa vuxna bilder om de tas emot av ett barn, och användaren skulle varnas två gånger om de försökte öppna dem.

instagram viewer

Förutom att minimera exponeringen för vuxeninnehåll, om föräldrar registrerar de enheter som deras barn äger för ytterligare säkerhet, skulle föräldrarna meddelas om barnet får uttryckligt innehåll från någon uppkopplad.

Läs mer: Vad du behöver veta om Apples barnsäkerhetsskydd

När det gäller vuxna som använder Siri för att leta efter allt som sexualiserar barn, kommer Siri inte att söka och föreslå andra alternativ istället.

Data från alla enheter som innehåller 10 eller fler foton som anses vara misstänkta av algoritmerna kommer att dekrypteras och utsättas för mänsklig granskning.

Om dessa foton eller andra i enheten visar sig matcha något från databasen som tillhandahålls av Nationellt centrum för försvunna och exploaterade barn, det kommer att rapporteras till myndigheterna och användarens konto stängs av.

Huvudsakliga oro angående funktionen för fotoskanning

CSAM -detekteringsfunktionen skulle ha gått live med lanseringen av iOS 15 i september 2021, men i ansiktet av utbrett rop, Apple bestämde sig för att ta mer tid att samla in feedback och göra förbättringar av detta funktion. Här är Apples fullständiga uttalande om förseningen:

"Förra månaden tillkännagav vi planer för funktioner avsedda att skydda barn från rovdjur som använda kommunikationsverktyg för att rekrytera och utnyttja dem och begränsa spridningen av sexuella övergrepp mot barn Material.

Baserat på feedback från kunder, påverkansgrupper, forskare och andra har vi beslutat att ta ytterligare tid de kommande månaderna för att samla in input och göra förbättringar innan vi släpper denna kritiskt viktiga barnsäkerhet funktioner".

Nästan hälften av bekymmerna kring Apples fotoskanningsfunktion kretsar kring integritet; resten av argumenten inkluderar algoritmernas troliga felaktigheter och eventuellt missbruk av systemet eller dess kryphål.

Låt oss dela upp det i fyra delar.

Potentiellt missbruk

Att veta att material som matchar barnpornografi eller kända bilder av sexuella övergrepp mot barn kommer att få en enhet till listan "misstänkt" kan sätta igång cyberkriminella.

De kan avsiktligt bombardera en person med olämpligt innehåll genom iMessage, WhatsApp eller på annat sätt och få den personens konto avstängt.

Apple har försäkrat att användare kan överklaga om deras konton har stängts av på grund av ett missförstånd.

Insidermissbruk

Även om den är utformad för en välvillig orsak, kan den här funktionen bli en total katastrof för vissa människor om deras enheter är registrerade i systemet, med eller utan deras vetskap, av släktingar som är intresserade av att övervaka deras kommunikation.

Även om det inte händer har Apple skapat en bakdörr för att göra användarnas data tillgänglig i slutet av dagen. Nu handlar det om motivation och beslutsamhet för människor att få tillgång till andras personliga information.

Relaterad: Vad är en bakdörr och vad gör den?

Det underlättar inte bara ett stort intrång i integriteten, utan banar också väg för kränkande, giftiga eller kontrollerande släktingar, vårdnadshavare, vänner, älskare, vårdtagare och exes för att ytterligare invadera någons personliga utrymme eller begränsa deras frihet.

Å ena sidan är det tänkt att bekämpa sexuella övergrepp mot barn; å andra sidan kan den användas för att vidareutveckla andra typer av övergrepp.

Regeringens övervakning

Apple har alltid betraktat sig själv som ett mer integritetsmedvetet varumärke än sina konkurrenter. Men nu kan det komma in i en hal sluttning av att behöva uppfylla de oändliga kraven på öppenhet i användardata från regeringar.

Systemet det har skapat för att upptäcka pedofili innehåll kan användas för att upptäcka alla typer av innehåll på telefoner. Det betyder att regeringar med en kultmentalitet kan övervaka användare på en mer personlig nivå om de får tag på det.

Förtryckande eller inte, regeringens engagemang i ditt dagliga och personliga liv kan vara oroande och är en kränkning av din integritet. Tanken att du bara behöver oroa dig för sådana invasioner om du har gjort något fel är felaktigt tänkande och misslyckas med att se den ovan nämnda hala backen.

Falska larm

En av de största bekymmerna med att använda algoritmer för att matcha bilder med databasen är falska larm. Hashing -algoritmer kan av misstag identifiera två foton som matchningar även om de inte är desamma. Dessa fel, kallade "kollisioner", är särskilt alarmerande i samband med innehåll om sexuella övergrepp mot barn.

Forskare hittade flera kollisioner i "NeuralHash" efter att Apple meddelade att de skulle använda algoritmen för att skanna bilder. Apple besvarade frågor om falska larm genom att påpeka att resultatet kommer att granskas av en människa i slutet, så människor behöver inte oroa sig för det.

Är Apples CSAM -paus permanent?

Det finns många fördelar och nackdelar med Apples föreslagna funktion. Var och en av dem är äkta och håller vikt. Det är fortfarande oklart vilka specifika förändringar Apple kan införa i CSAM-skanningsfunktionen för att tillfredsställa sina kritiker.

Det kan begränsa skanningen till delade iCloud -album istället för att involvera användarnas enheter. Det är mycket osannolikt för Apple att släppa dessa planer helt och hållet eftersom företaget vanligtvis inte är benäget att ge upp sina planer.

Det är dock tydligt från den utbredda motreaktionen och Apples hållning på sina planer, det företag bör införliva forskarsamhället från början, särskilt för otestade teknologi.

Dela med sigTweetE-post
Internetsäkerhet: 50+ tips för att hålla dina barn säkra online

Barn är de främsta målen för rovdjur och cybermobbningar online. Dessa praktiska tips kan lära föräldrar hur man skyddar dem online.

Läs Nästa

Relaterade ämnen
  • säkerhet
  • IPhone
  • Smartphone Sekretess
  • Äpple
  • Sekretess online
  • Övervakning
Om författaren
Fawad Ali (19 artiklar publicerade)

Fawad är en IT- och kommunikationsingenjör, blivande entreprenör och författare. Han gick in på arenan för innehållsskrivning 2017 och har arbetat med två digitala marknadsföringsbyråer och många B2B- och B2C -klienter sedan dess. Han skriver om säkerhet och teknik vid MUO, i syfte att utbilda, underhålla och engagera publiken.

Mer från Fawad Ali

Prenumerera på vårt nyhetsbrev

Gå med i vårt nyhetsbrev för tekniska tips, recensioner, gratis e -böcker och exklusiva erbjudanden!

Klicka här för att prenumerera