Forskare har spruckit system för ansiktsigenkänning

Källnod: 1039829
Bara nio "mästaransikten" kan passera för 40 % av människors ansikten.

Att få nycklarna till kungariket är en välsignelse för alla slags brottslingar, varför huvudnycklar – som ger tillgång till alla möjliga dörrar i en byggnad – är så eftertraktade. De är det säkra sättet för brottslingar att få tillgång till vad de vill när de är inne i en byggnad, vilket är anledningen till att huvudnycklar hanteras så noggrant och åtkomstkontrolleras.

För våra digitala liv finns det inget som heter ett huvudlösenord.

Men det finns möjlighet för "mästaransikten": ansiktsigenkänningens motsvarighet till en huvudnyckel. Mästaransikten är de som ser tillräckligt ut som en stor del av befolkningen för att kunna lura ansiktsigenkänningssystem för att ge dem tillgång till enheter, även om de inte är den faktiska ägaren. Och de utnyttjar en verklighet av mänsklig biologi: även om vi alla är olika och våra ansikten kan ha små förändringar jämfört med en annan persons, ser många av oss kusligt lika ut.

Tänk på människor som du skulle vara övertygad om är tvillingar eller kändislika, och du förstår idén. Mästaransikten används för att imitera – med stor sannolikhet för framgång – användare utan att faktiskt vara användaren själva.

AI låser upp koden

Traditionellt måste du leta runt i världen för att hitta någon som liknar ett brett spektrum av människor för att fungera som ett mästeransikte. Men framsteg inom AI och neuralt genererade ansikten – notoriskt kända som deepfakes – innebär att det nu är möjligt att generera hela ansikten från lite mer än lite träningsdata och ett kommando.

Och israeliska forskare baserade vid Tel Aviv University har utnyttjat den tekniken för att generera en serie mästaransikten som kan lura tre ledande ansiktsigenkänningssystem till den grad att de erbjuder hackare nycklarna till kungariket – inga frågor.

Det är en oroande utveckling som ifrågasätter säkerheten för vad som ansågs vara en av de mer pålitliga försvarslinjerna för människors enheter. "Ansiktsbaserad autentisering är extremt sårbar, även om det inte finns någon information om målidentiteten", avslutar författarna.

Hur det fungerar

Forskarna lånade kraften hos en fabrik som genererar AI-modell från hyllan: StyleGAN. De justerar sedan det något för att förutsäga konkurrenskraften för ett givet prov och för att optimera till det. Huvudansiktsgenereringsprocessen upprepas sekventiellt, varje gång för att täcka de identiteter som inte täcktes av de tidigare genererade ansiktena. De fann att bara en handfull genererade ansikten kunde passera för individer inom ett brett spektrum av Märkt Faces in the Wild databas – mellan 40 och 60%.

De genererade ansiktena testades sedan på olika ansiktsigenkänningssystem. Var och en av dem fungerar på ett subtilt olika sätt, men inte desto mindre var de nio fiktiva ansiktena breda och generiska nog för att kunna lura systemen i varje och ge dem tillgång till enheter utan problem.

Att generera fler ansikten skulle sannolikt täcka ett ännu bredare spektrum av befolkningen, vilket gör attacken ännu mer idiotsäker – en ännu mer oroande utveckling.

För närvarande genererar AI:n som används av akademikerna statiska bilder av ansikten, som vissa ansiktsigenkänningssystems anti-spoofing-teknik kan fånga upp. Men, påpekar forskarna, det skulle inte vara alltför svårt för dem att animera de genererade mästaransiktena och övervinna metoder för att upptäcka livlighet. Det hela skapar oroande läsning för dem som förlitar sig på ansiktsigenkänning för att hålla sina enheter säkra. Även om experimentet är ett proof of concept, snarare än en verklig sårbarhet som riktas mot naturen, är det bara en tidsfråga innan det blir verklighet.

Källa: https://cybernews.com/security/researchers-have-cracked-facial-recognition-systems/

Tidsstämpel:

Mer från cybernyheter