Kinderpornoscanner in de iPhone: hash-botsingen al gegenereerd


Hackers zijn erin geslaagd de controversiële iPhone-scanfunctie van Apple te onderwerpen aan eerste tests op afbeeldingen van misbruik. Het zou erin zijn geslaagd om zogenaamde hash-botsingen te genereren – d.w.z. opnames die overeenkomen met vermeldingen in de zogenaamde CSAM-database (Child Sexual Abuse Materials), maar zijn eigenlijk ongevaarlijk.

Ontwikkelaar Asuhariet Yvgar had eerder code van het systeem genaamd NeuralHash door Apple Ontdekt in iOS 14.3 en latere versies en details hierover gedeeld op Reddit zoals eerst, opnieuw gemaakte routines op GitHub vrijgelaten. Er is ook een handleiding over hoe u NeuralHash-gegevens geëxporteerd vanuit het besturingssysteem van Apple.

Apple reageerde zelf op de beschuldigingen en kondigde aan dat de door Yvgar en Co. geanalyseerde NeuralHash-functie niet de versie is die ze eigenlijk willen gebruiken voor CSAM-detectie. Tegenover het IT-blog Moederbord zei de groep in een verklaringdat het niet de definitieve versie is. Dit wordt onderdeel van de code van het ondertekende besturingssysteem – Apple kondigde de functie aan voor iOS 15 en iPadOS 15 die in de herfst verschijnen – en vervolgens door beveiligingsonderzoekers kunnen worden geverifieerd “of het werkt zoals beschreven”. Wat op GitHub werd gepubliceerd, is “een generieke versie”. Ze willen het algoritme openbaar maken.

Johns Hopkins University beveiligingsonderzoeker en cryptoloog Matthew Green, the De controversiële lokale kinderpornoscanner van Apple in de iPhone was de eerste die werd gepubliceerd had het tegenovergestelde opgemerkt Moederbord hij gaat ervan uit dat er ook botsingen zullen zijn voor Apple’s definitieve versie van NeuralHash “als ze al bestaan ​​voor deze functie”. Uiteraard kan de hashfunctie vernieuwd worden (“re-spin”). Maar als proof of concept is de gepubliceerde code “zeker geldig”.

Het algoritme is sowieso niet perfect: volgens Ygvar kan de procedure in iOS 14.3 en hoger compressie en het vergroten/verkleinen van afbeeldingen tolereren, maar niet het bijsnijden of roteren van afbeeldingen. Het blijft onduidelijk hoeveel hash-botsingen de aanpak van Apple zouden kunnen verstoren. De groep wil alleen gewaarschuwd worden als ongeveer 30 afbeeldingen van misbruik worden ontdekt op iPhones en iPads voordat ze worden geüpload naar iCloud. Dan moeten medewerkers de opnames kunnen ontsleutelen om ze vervolgens te kunnen controleren. Pas dan moeten de kinderbescherming en de autoriteiten worden ingeschakeld.

Bij botsingen zou het denkbaar zijn dat dit team overbelast is – maar dan zou Apple zijn eigen filters kunnen implementeren voor deze “vuilnisopnames”, zei beveiligingsonderzoeker Nicholas Weaver. Bovendien zouden aanvallers toegang moeten hebben tot de CSAM-databases die door Apple worden gebruikt. Desalniettemin toont de re-engineering nu aan dat de technologie van Apple geenszins onfeilbaar is – wat op zijn beurt weer de massale wereldwijde kritiek op het gebruik ervan onderbouwd.


Meer van Mac & i

Meer van Mac & i


Meer van Mac & i

Meer van Mac & i



(bsc)



Source link

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

%d bloggers liken dit: