Apple stelt CSAM software introductie in iOS 15 uit
Apple stelt de ingebruikname van CSAM software uit. Die software maakt het mogelijk om iPhones te doorzoeken op kinderporno. Het bedrijf zegt meer tijd nodig te hebben om het systeem te verbeteren voordat het operationeel wordt.
Het CSAM (Child Sexual Abuse Material) is onderdeel van het besturingssysteem iOS 15, dat Apple deze maand zal presenteren. Het bedrijf activeert de scanfunctie alleen in de VS, maar het draait ondertussen wel op elke iPhone of iPad waarop de nieuwste versie van iOS staat. Het scannen gebeurt dus op het device zelf, zonder dat de gebruiker daar invloed op heeft.
Golf van kritiek
Er was een golf van kritiek op het besluit van Apple. Wereldwijd hebben ruim negentig organisaties de techreus opgeroepen terug te komen van zijn voornemen om foto’s rechtstreeks op de iPhone van gebruikers te doorzoeken. Ook veel beveiligings- en privacydeskundigen staan negatief tegenover de voorgenomen implementatie.
Apple verdedigde zijn CSAM detectie eerst nog, maar lijkt daar nu dus – vooralsnog – van terug te komen.
Na feedback van onder meer klanten, belangenorganisaties en onderzoekers hebben we besloten de komende maanden meer tijd te nemen om dit belangrijke systeem ter bescherming van kinderen verder te verbeteren
Hoe werkt de CSAM detectie software?
Zoals gezegd maakt de CSAM software deel uit van iOS 15. Dat houdt in dat de detectie op het apparaat van de gebruiker zelf plaatsvindt, niet op de servers van Apple. Overigens wordt de functie pas actief als de gebruiker gebruik maakt van iCloud-backup. Foto’s op het apparaat worden gecontroleerd op een bepaalde digitale ‘vingerafdruk’ die overeenkomt met bekende afbeeldingen van kinderporno.
Plaatjes die het systeem als ‘verdacht’ aanmerkt, gaan naar Apple. Daar bekijkt een moderator van het bedrijf of er inderdaad sprake is van kinderporno. Als dat zo is, gaat het materiaal naar de National Center for Missing and Exploited Children.
Chinese iCloud server gecontroleerd door overheid
Beveiligings- en privacydeskundigen vrezen dat de technologie in een later stadium gebruikt kan worden om meer gegevens van Apple gebruikers te controleren. Zo zouden autoritaire regimes dan bijvoorbeeld gebruik kunnen maken van het systeem om mensen met dissidente opvattingen of van andere geaardheid mee op te sporen.
“We zullen niet ingaan op het verzoek van een regering om de CSAM functie uit te breiden”. Dat schreef Apple in antwoord op die kritiek. “We heeft eerder te maken gehad met eisen van overheden om wijzigingen door te voeren die de privacy van gebruikers aantasten. Die eisen hebben we altijd standvastig afgewezen en we zullen dat in de toekomst blijven doen”.
Toch heeft Apple dat al wel gedaan, schrijft onder meer techwebsite The Verge. Vier jaar geleden verhuisden alle cloudbestanden van Chinese gebruikers naar een server die onder controle staat van de Chinese overheid. Ook verwijderde Apple, tijdens de studentenprotesten in Hong Kong, de app HKmap.live uit de App Store. Protsteerders gebruikten die app om activiteiten van de politie in de gaten te houden.
Recentelijk nog kreeg Apple van Rusland de verplichting opgelegd om een app van aanhangers van ‘politiek dissident’ Alexey Navalny te verwijderen. Bij weiering hangt het bedrijf een enorme boete boven het hoofd.