Apple anunció hoy que iOS 15 y iPadOS 15 verán la introducción de un nuevo método para detectar material de abuso sexual infantil (CSAM) en iPhones y iPads en los Estados Unidos.
Los dispositivos del usuario descargarán una base de datos ilegible de hashes de imágenes CSAM conocidas y harán una comparación en el dispositivo con las propias fotos del usuario, marcándolas como material CSAM conocido antes de que se carguen en Fotos de iCloud . Apple dice que este es un método muy preciso para detectar CSAM y proteger a los niños.
El escaneo de imágenes CSAM no es una característica opcional y ocurre automáticamente, pero Apple ha confirmado a MacRumors que no puede detectar imágenes CSAM conocidas si la característica iCloud Photos está desactivada.
El método de Apple funciona identificando una foto CSAM conocida en el dispositivo y luego marcándola cuando se carga en iCloud Photos con un cupón adjunto. Después de que se haya cargado una cierta cantidad de cupones (también conocidos como fotos marcadas) en iCloud Photos, Apple puede interpretar los cupones y realizar una revisión manual. Si se encuentra contenido de CSAM, la cuenta de usuario se deshabilita y se notifica al Centro Nacional para Menores Desaparecidos y Explotados.
Debido a que Apple está escaneando iCloud Photos en busca de las banderas CSAM, tiene sentido que la función no funcione con iCloud Photos deshabilitado. Apple también ha confirmado que no puede detectar imágenes CSAM conocidas en iCloud Backups si iCloud Photos está deshabilitado en el dispositivo de un usuario.
Vale la pena señalar que Apple está escaneando específicamente en busca de hashes de materiales conocidos de abuso sexual infantil y no está inspeccionando ampliamente la biblioteca de fotos de un usuario o escaneando imágenes personales que aún no están circulando entre aquellos que abusan de niños. Aún así, los usuarios que tengan preocupaciones de privacidad sobre los esfuerzos de Apple para escanear bibliotecas de fotos de usuarios pueden deshabilitar iCloud Photos.
Los investigadores de seguridad han expresado su preocupación por la iniciativa CSAM de Apple y les preocupa que en el futuro pueda detectar otros tipos de contenido que podrían tener implicaciones políticas y de seguridad, pero por ahora, los esfuerzos de Apple son limitados en la búsqueda de abusadores de niños.