Apples controversiële NeuralHash-algoritme voor het opsporen van foto's van kindermisbruik kan ook afbeeldingen herkennen die een ander formaat of een compressie hebben. Een onderzoeker heeft de code bekeken, en zegt daarmee ook collisions te kunnen veroorzaken.
Onderzoeker Asuhariet Ygvar heeft deze week een tool op GitHub gezet die een eigen versie van NeuralHash maakt. Volgens Ygvar heeft hij de code daarvoor uit iOS 14.3 gehaald, waar de code al in zat. Via reverse engineering wist hij daar een tool van te bouwen. Met de tool van Ygvar is het mogelijk het detectiesysteem uit te proberen op andere telefoons, voordat dat definitief wordt uitgerold voor alle gebruikers. Het is een Python-script waarmee de NeuralMatch-hash kan worden achterhaald op iOS of macOS. NeuralHash is het hashingalgoritme dat Apple gaat gebruiken in iOS 15. Ygvar zegt in een post op Reddit dat hij hoopt dat onderzoekers het algoritme en Apples technologie met zijn tool 'beter kunnen leren begrijpen'.
Ygvar zegt dat de eerste experimenten met de tool laten zien dat NeuralHash om kan gaan met het schalen of comprimeren van afbeeldingen. Dat betekent dat een afbeelding dezelfde hash blijft houden als die gecomprimeerd wordt of een ander formaat krijgt. Bij het croppen of draaien van afbeeldingen gebeurt dat niet.
Inmiddels zijn andere onderzoekers ook al met de tool aan de slag gegaan. Een van hen ontdekte dat het mogelijk is om een collision te veroorzaken. Dat betekent dat twee verschillende afbeeldingen dezelfde hash produceren. Bij veel oude hashalgoritmes zoals MD5 of sha-1 is dat de laatste jaren makkelijk geworden, waardoor die niet meer als veilig worden gezien. Ygvar bevestigt op GitHub dat zo'n collision inderdaad mogelijk is. Apple zei bij de introductie van de technologie dat er 'een kans van een op een biljoen was' dat er een hashmatch zou zijn tussen twee niet-gerelateerde afbeeldingen.
Apple zegt in een gesprek met journalisten dat het bedrijf rekening heeft gehouden met dergelijke collisions. Er zouden waarborgen zijn ingebouwd waardoor gebruikers niet ten onrechte worden verdacht van het uploaden van kindermisbruikafbeeldingen. Zo krijgt Apple pas een waarschuwing als er minstens dertig matches zijn gevonden. Bovendien zou iemand met kwade bedoelingen toegang moeten hebben tot de hashdatabase die Apple gebruikt en die is niet openbaar toegankelijk.
Apple kondigde het zogenaamde csam-scanning vorige week aan. Het bedrijf gaat iPhones en iPads lokaal scannen op child sexual abuse material door foto's die worden geüpload naar iCloud te hashen en die hashes te vergelijken met hashes uit een database van het National Center for Missing and Exploited Children. Het plan krijgt veel kritiek van beveiligingsonderzoekers, privacyactivisten en juridisch experts. Die kritiek gaat er onder meer over dat activisten vrezen dat Apple de techniek in de toekomst ook gaat inzetten voor ander ongewenst beeldmateriaal zoals terrorisme of dat overheden Apple onder druk gaan zetten om met de techniek ander ongewenst beeldmateriaal te censureren.