Den senaste tiden har Apple fått kritik för funktioner som tagits fram för att  skydda barn mot sexuellt innehåll. Det kritikerna reagerat på är att funktionerna påstås gå igenom bilder på telefonen vilket anses vara integritetskränkande och även en potentiell säkerhetsrisk.

Nu har Apple valt att gå ut och förklara sig. Man anser att funktionerna som släpps är missförstådda och att många blandat ihop två olika saker som lanserades samtidigt. 

Apples mjukvaruchef Craig Federighi går igenom begreppen med The Wall Street Journal.

Funktion ett – Upptäcka barnpornografi på iCloud

Apple säger att man inte söker efter barnpornografi på användares telefoner utan enbart när bilderna laddas upp på iCloud. För att leta efter barnpornografi utan att snoka bland privata bilder, så använder man sig av en databas som heter CSAM (Child Sex Abuse Material).

Schematisk bild som visar hur Apple kontrollerar om bilder som laddas upp till iCloud innehåller barnpornografi

Bild: Apple

När an iPhone-användare laddar upp en bild till iCloud så påbörjas en process på telefonen där man letar efter genererade datasträngar (neural hash) som matchar databasens bilder. Resultatet lagras i en voucher som sedan skickas med bilden till iCloud.

Processen slutförs sedan på iCloud och om man får en större mängd matchningar flaggas kontot och kontrolleras av en mänsklig administratör. Om materialet visar sig vara barnpornografiskt så kan administratören göra en anmälan till berörda myndigheter. 

Funktion två – Upptäcka bilder med sexuellt innehåll som skickas till barn

Den andra funktionen kallar Apple för ”Communication Safety in Messages” och handlar om att skydda barn som använder iMessage. Så här funkar det:

Föräldern väljer först att aktivera funktionen för sitt barn. Om barnet får en bild skickad till sig som skulle kunna vara olämplig så döljs bilden och det skrivs ut en varningstext om att det kan röra sig om känsligt innehåll.

Skämdumpar som visar varningar för sexuellt innehåll i iMessage

Bild: Apple

För att upptäcka om en bild innehåller känsligt material eller inte så används AI och bildigenkänning på telefonen.

Om barnet ändå väljer att titta på bilden så kommer det upp ännu en varning som täcker hela skärmen. Om barnet är tolv år eller yngre så får barnet även veta att föräldrarna kommer få en notis om att hen tittar på bilden. För att notisen ska skickas krävs att föräldern valt att aktivera den funktionen.

Tanken med att informera föräldern är att försvåra för groomare som ofta aktivt försöker dölja sina kontakter med barn för barnets föräldrar.

Via Feber.se

Läs mer om Apples arbete för barns säkerhet.