Det var under förra veckan som Apple offentliggjorde att företaget ska rulla ut ett nytt skydd för barn som bland annat jämför bilder på användares enheter mot en databas över redan kända bilder på barn som utsatts för sexuella övergrepp (kallad CSAM).
Funktionen har mött massiv kritik från många håll, vilket fått Apple att publicera en faq med svar på några av de vanligaste frågorna.
Läs också! Krönika: Många missförstånd om Apples barnskyddsfunktioner – men legitima farhågor kvarstår
Den andra är att CSAM-matchningen enbart används på bilder på lagrats i Icloud Bilder. Ingen annan data som lagras lokalt på enheten påverkas av detta.
Hela dokumentet finns att läsa här.