De mest avancerade AI-genererade deepfake-filmerna kan nu förfalska människors pulsslag på ett så övertygande sätt att även specialutvecklade detektorer luras, enligt en ny studie från Humboldt-Universität i Berlin.
Forskarnas resultat väcker oro för att den tekniska utvecklingen snart kan göra manipulerat material omöjligt att särskilja från autentiska bilder och filmer.
Tidigare har detektorer använt en särskild metod (fjärrphotopletysmografi, eller rPPG) som analyserar små färgförändringar i huden för att upptäcka puls – som en relativt pålitlig indikator på om ett filmklipp är äkta eller inte.
Men i den nya studien skapade forskarna 32 deepfake-filmer som inte bara såg verkliga ut för mänskliga ögon, utan även imiterade pulsslag. När dessa videor testades mot en rPPG-baserad detektor, klassificerades de felaktigt som äkta.
”Här visar vi för första gången att nyare högkvalitativa deepfake-videor kan uppvisa en realistisk hjärtrytm och små förändringar i ansiktsfärgen, vilket gör dem mycket svårare att upptäcka”, säger professor Peter Eisert, studiens huvudförfattare, i ett uttalande.
Ökar risken för bedrägerier
Enligt studien kan pulssignaler från originalfilmer ”ärvas” av deepfakes genom att AI-modeller replikerar små variationer i hudton och blodflöde och värmekartor i studien visade nära identiska ljusförändringar i både äkta och manipulerade videor.
”De små skillnaderna i ansiktsfärg hos den verkliga personen överförs till djupförfalskningen tillsammans med ansiktsrörelser, så att den ursprungliga pulsen replikeras”, förklarar Eisert vidare,
Dessa framsteg ökar riskerna för deepfakes användning vid bland annat ekonomiska bedrägerier, desinformation och pornografi utan samtycke. En oberoende forskare uppskattade 2023 att över 244 000 manipulerade videor laddades upp på de 35 största deepfake-pornografisajterna under en enda vecka.
Teknisk kapprustning
Trots studiens oroande resultat finns det hopp om att kunna vända trenden. Forskarna noterar att dagens deepfakes fortfarande misslyckas med att återskapa naturliga variationer i blodflöde över tid. Dessutom utvecklar techjättar som Adobe och Google vattenstämplar för att markera AI-genererat material.
Samtidigt har USA:s kongress nyligen antagit Take It Down Act, som kriminaliserar spridning av icke konsensuella sexuella bilder – inklusive AI-genererade sådana. Men experter varnar för att den tekniska kapprustningen mellan skapare och detektorer kräver ständig anpassning.
”Resultaten understryker hur den snabba utvecklingen av deepfake-teknik gör att de som arbetar med att upptäcka den inte kan förlita sig på en enda metod särskilt länge till” framhåller studien, och slår fast att i takt med att AI-utvecklingen accelererar blir kampen mot digital bedräglighet också alltmer brådskande.
Andra har lyft fram en helt annan sorts oro – nämligen att den omfattande spridningen av AI-manipulerat material riskerar att användas som förevändning för hårdare censur och lagar som på olika sätt begränsar människornas frihet på internet.