Apple har nyligen meddelat nya barnsäkerhetsskydd som kommer i höst med introduktionen av iOS 15, iPadOS 15 och macOS Monterey.

Vi kommer att titta närmare på dessa utökade barnsäkerhetsfunktioner och tekniken bakom dem nedan.

Skanning av material för sexuella övergrepp mot barn

Den mest anmärkningsvärda förändringen är att Apple kommer att börja använda ny teknik för att upptäcka bilder som visar bilder av övergrepp mot barn som lagras i iCloud -foton.

Dessa bilder är kända som material för sexuellt övergrepp mot barn, eller CSAM, och Apple kommer att rapportera förekomster av dem till National Center for Missing and Exploited Children. NCMEC är ett rapporteringscenter för CSAM och arbetar med brottsbekämpande myndigheter.

Apples CSAM -skanning kommer att begränsas till USA vid lanseringen.

Apple säger att systemet använder kryptografi och är utformat med integritet i åtanke. Bilder skannas på enheten innan de laddas upp till iCloud-foton.

Enligt Apple behöver du inte oroa dig för att Apple -anställda ser dina faktiska foton. Istället förser NCMEC Apple med bildhashar av CSAM -bilder. En hash tar en bild och returnerar en lång, unik rad med bokstäver och siffror.

instagram viewer

Apple tar dessa hash och omvandlar data till en oläslig uppsättning hash som lagras säkert på en enhet.

Relaterad: Hur iOS 15 skyddar din iPhone -integritet bättre än någonsin tidigare

Innan bilden synkroniseras med iCloud Photos kontrolleras den mot CSAM -bilderna. Med en speciell kryptografisk teknik - privat uppsättningskorsning - avgör systemet om det finns en matchning utan att avslöja ett resultat.

Om det finns en matchning skapar en enhet en kryptografisk säkerhetsbevis som kodar matchningen tillsammans med mer krypterad data om bilden. Kupongen laddas upp till iCloud -foton med bilden.

Om inte ett iCloud Photos -konto överskrider ett specifikt tröskelvärde för CSAM -innehåll, säkerställer systemet att säkerhetscheckarna inte kan läsas av Apple. Det är tack vare en kryptografisk teknik som kallas hemlig delning.

Enligt Apple ger den okända tröskeln en hög noggrannhet och garanterar mindre än en i en biljon chans att felaktigt flagga ett konto.

När tröskeln överskrids kommer tekniken att tillåta Apple att tolka kuponger och matchande CSAM -bilder. Apple kommer sedan att granska varje rapport manuellt för att bekräfta en matchning. Om det bekräftas inaktiverar Apple en användares konto och skickar sedan en rapport till NCMEC.

Det kommer att bli en överklagandeprocess för återinförande om en användare anser att deras konto har flaggats av tekniken av misstag.

Om du har integritetsproblem med det nya systemet har Apple bekräftat att inga foton kommer att skannas med kryptografitekniken om du inaktiverar iCloud -foton. Du kan göra det genom att gå till Inställningar> [Ditt namn]> iCloud> Foton.

Det finns några nackdelar när du stänger av iCloud -foton. Alla foton och videor lagras på din enhet. Det kan orsaka problem om du har många bilder och videor och en äldre iPhone med begränsat lagringsutrymme.

Bilder och videor som tagits på enheten är inte heller tillgängliga på andra Apple -enheter med iCloud -kontot.

Relaterad: Så här får du tillgång till iCloud -foton

Apple förklarar mer om den teknik som används i CSAM -upptäckten i en vitbok PDF. Du kan också läsa en Apples vanliga frågor med ytterligare information om systemet.

I vanliga frågor noterar Apple att CSAM -detektionssystemet inte kan användas för att upptäcka annat än CSAM. Företaget säger också att innehav av CSAM -bilder i USA och många andra länder är ett brott och att Apple är skyldigt att informera myndigheterna.

Företaget säger också att det kommer att vägra några krav från regeringen att lägga till en icke-CSAM-bild till hashlistan. Det förklarar också varför icke-CSAM-bilder inte kunde läggas till i systemet av en tredje part.

På grund av mänsklig granskning och det faktum att hasharna som används är från kända och befintliga CSAM -bilder, säger Apple det systemet var utformat för att vara korrekt och undvika problem med andra bilder eller oskyldiga användare som rapporteras till NCMEC.

Ytterligare kommunikationssäkerhetsprotokoll i meddelanden

Ytterligare en ny funktion kommer att läggas till säkerhetsprotokoll i appen Meddelanden. Detta erbjuder verktyg som varnar barn och deras föräldrar när de skickar eller tar emot meddelanden med sexuellt explicita foton.

När ett av dessa meddelanden tas emot blir bilden suddig och barnet varnas också. De kan se användbara resurser och får veta att det är okej om de inte ser bilden.

Funktionen är endast avsedd för konton som skapats som familjer i iCloud. Föräldrar eller vårdnadshavare måste välja att aktivera kommunikationssäkerhetsfunktionen. De kan också välja att bli aviserade när ett barn på 12 år eller yngre skickar eller får en sexuellt uttalad bild.

För barn i åldern 13 till 17 år meddelas inte föräldrarna. Men barnet kommer att varnas och tillfrågas om det vill se eller dela en sexuellt uttalad bild.

Relaterad: Hur iOS 15 använder intelligens för att göra din iPhone smartare än någonsin

Meddelanden använder maskininlärning på enheten för att avgöra om en bilaga eller bild är sexuellt explicit. Apple får ingen åtkomst till meddelandena eller bildinnehållet.

Funktionen fungerar både för vanliga SMS- och iMessage -meddelanden och är inte länkad till CSAM -skanningsfunktionen som vi har beskrivit ovan.

Utökad säkerhetsguide i Siri och Search

Slutligen kommer Apple att utöka vägledningen för både Siri och sökfunktioner för att hjälpa barn och föräldrar att vara säkra online och få hjälp i osäkra situationer. Apple pekade på ett exempel där användare som frågar Siri hur de kan rapportera CSAM eller utnyttjande av barn kommer att få resurser om hur man lämnar en rapport till myndigheter.

Uppdateringar kommer till Siri och Sök efter när någon utför sökfrågor relaterade till CSAM. Ett ingrepp kommer att förklara för användarna att intresset för ämnet är skadligt och problematiskt. De kommer också att visa resurser och partner för att få hjälp med problemet.

Fler förändringar kommer med Apples senaste programvara

De tre nya funktionerna från Apple är utvecklade i samarbete med säkerhetsexperter och är utformade för att hjälpa barn att vara säkra online. Även om funktionerna kan orsaka oro i vissa integritetsfokuserade kretsar, har Apple kommit fram om tekniken och hur den kommer att balansera integritetshänsyn med barns skydd.

Dela med sigTweetE-post
15 dolda funktioner i iOS 15 och iPadOS 15 som Apple inte nämnde på WWDC

Du har redan hört talas om de stora förändringarna i iOS 15, men här är alla dolda ändringar som Apple utelämnade från WWDC.

Läs Nästa

Relaterade ämnen
  • IPhone
  • Mac
  • Äpple
  • Smartphone Sekretess
  • Föräldraskap och teknik
Om författaren
Brent Dirks (186 artiklar publicerade)

Brent är född och uppvuxen i soliga västra Texas och tog examen från Texas Tech University med en BA i journalistik. Han har skrivit om teknik i mer än 5 år och gillar allt Apple, tillbehör och säkerhet.

Mer från Brent Dirks

Prenumerera på vårt nyhetsbrev

Gå med i vårt nyhetsbrev för tekniska tips, recensioner, gratis e -böcker och exklusiva erbjudanden!

Klicka här för att prenumerera