O sistema CSAM de Apple foi enganado, pero a compañía ten dúas garantías

Actualización: Apple mencionou unha segunda inspección do servidor, e unha empresa profesional de visión por ordenador describiu a posibilidade de que isto podería describirse en "Como pode funcionar a segunda inspección" a continuación.
Despois de que os desenvolvedores realizaron enxeñería inversa de partes, a versión inicial do sistema CSAM de Apple foi efectivamente enganada para marcar unha imaxe inocente.Non obstante, Apple afirmou que ten garantías adicionais para evitar que isto suceda na vida real.
O último desenvolvemento ocorreu despois de que o algoritmo NeuralHash fose publicado no sitio web de desenvolvedores de código aberto GitHub, calquera pode experimentar con el...
Todos os sistemas CSAM funcionan importando unha base de datos de materiais coñecidos de abuso sexual infantil de organizacións como o National Center for Missing and Exploited Children (NCMEC).A base de datos ofrécese en forma de hash ou pegadas dixitais a partir de imaxes.
Aínda que a maioría dos xigantes tecnolóxicos escanean fotos cargadas na nube, Apple usa o algoritmo NeuralHash no iPhone do cliente para xerar un valor hash da foto almacenada e, a continuación, compárao coa copia descargada do valor hash CSAM.
Onte, un desenvolvedor afirmou que realizou enxeñaría inversa do algoritmo de Apple e lanzou o código a GitHub, esta afirmación foi efectivamente confirmada por Apple.
Poucas horas despois do lanzamento de GitHib, os investigadores utilizaron con éxito o algoritmo para crear un falso positivo intencionado: dúas imaxes completamente diferentes que xeraron o mesmo valor hash.Isto chámase colisión.
Para estes sistemas, sempre existe o risco de colisións, porque o hash é, por suposto, unha representación moi simplificada da imaxe, pero é sorprendente que alguén poida xerar a imaxe tan rápido.
A colisión deliberada aquí é só unha proba de concepto.Os desenvolvedores non teñen acceso á base de datos hash CSAM, o que requiriría a creación de falsos positivos no sistema en tempo real, pero si proba que os ataques de colisión son relativamente fáciles en principio.
Apple confirmou efectivamente que o algoritmo é a base do seu propio sistema, pero díxolle á placa base que esta non é a versión final.A empresa tamén afirmou que nunca pretendía mantelo confidencial.
Apple dixo a Motherboard nun correo electrónico que a versión analizada polo usuario en GitHub é unha versión xenérica, non a versión final utilizada para a detección de iCloud Photo CSAM.Apple dixo que tamén revelou o algoritmo.
"O algoritmo NeuralHash [...] forma parte do código do sistema operativo asinado [e] os investigadores de seguridade poden verificar que o seu comportamento se axusta á descrición", escribiu un documento de Apple.
A compañía continuou dicindo que hai dous pasos máis: executar un sistema de coincidencia secundario (segredo) no seu propio servidor e revisión manual.
Apple tamén afirmou que despois de que os usuarios superen o limiar de 30 coincidencias, un segundo algoritmo non público que se executa nos servidores de Apple comprobará os resultados.
"Este hash independente foi escollido para rexeitar a posibilidade de que o NeuralHash erróneo coincida coa base de datos CSAM cifrada do dispositivo debido á interferencia adversaria de imaxes non CSAM e supere o limiar coincidente".
Brad Dwyer de Roboflow atopou un xeito de distinguir facilmente entre as dúas imaxes publicadas como proba de concepto para un ataque de colisión.
Teño curiosidade por como se ven estas imaxes en CLIP dun extractor de características neuronais OpenAI semellante pero diferente.CLIP funciona de forma similar a NeuralHash;toma unha imaxe e usa unha rede neuronal para xerar un conxunto de vectores de características que se asignan ao contido da imaxe.
Pero a rede de OpenAI é diferente.É un modelo xeral que pode mapear entre imaxes e texto.Isto significa que podemos usalo para extraer información de imaxe comprensible para os humanos.
Pasei as dúas imaxes de colisión anteriores a través de CLIP para ver se tamén estaba enganada.A resposta curta é: non.Isto significa que Apple debería poder aplicar unha segunda rede de extracción de funcións (como CLIP) ás imaxes CSAM detectadas para determinar se son reais ou falsas.É moito máis difícil xerar imaxes que enganen a dúas redes ao mesmo tempo.
Finalmente, como se mencionou anteriormente, as imaxes son revisadas manualmente para confirmar que son CSAM.
Un investigador de seguridade dixo que o único risco real é que calquera que queira molestar a Apple poida proporcionar falsos positivos aos revisores humanos.
"Apple realmente deseñou este sistema, polo que a función hash non é necesario manterse en segredo, porque o único que podes facer con 'non CSAM como CSAM' é molestar ao equipo de resposta de Apple con algunhas imaxes lixo ata que implementen filtros para eliminar análise Eses lixos que están na canalización son falsos positivos", dixo Nicholas Weaver, investigador senior do Instituto de Ciencias da Computación Internacional da Universidade de California, Berkeley, a Motherboard nun chat en liña.
A privacidade é un tema de preocupación crecente no mundo actual.Siga todos os informes relacionados coa privacidade, a seguridade, etc. nas nosas directrices.
Ben Lovejoy é un escritor técnico británico e editor da UE para 9to5Mac.É coñecido polas súas columnas e artigos de diario, explorando a súa experiencia cos produtos de Apple ao longo do tempo para obter comentarios máis completos.Tamén escribe novelas, hai dous thrillers técnicos, algunhas curtas de ciencia ficción e unha comedia romántica!


Hora de publicación: 20-ago-2021