Under förra året mottog National Center for Missing and Exploited Children (NCMEC) tusentals tips om AI-genererat övergreppsmaterial på barn. Nu varnar norska rikskriminalpolisen (Kripos) för att det blir allt svårare att avgöra hur materialet skapats.
Den ideella organisationen NCMEC arbetar bland annat nationellt med att ta emot tips om övergreppsmaterial som man sedan delar med sig av till myndigheter. Under förra året inkom 4 700 rapporter om datorgenererat övergreppsmaterial på barn. Ett tiotal av dessa tips har kommit in till norska Kripos under det senaste året.
Helge Haugland, som leder sektionen för inledande utredningar på myndigheten, menar att det i nuläget är lätt att avgöra om materialet är AI-genererat eller inte. Däremot varnar han för att utvecklingen inom området går snabbt.
”Medan det för några månader sedan var lättare att fastställa att en bild var AI-genererad, har gränsen i vissa fall förskjutits avsevärt mot material av högre ”kvalitet”, vilket gör det svårare att avgöra om innehållet är ett fotografi/en video eller genererat av AI. En sådan förskjutning är allvarlig”, skriver Haugland till norska statstidningen NRK.
Svårare att stoppa verkliga övergrepp
Framväxten av datorgenererat övergreppsmaterial har ökat markant sedan augusti 2022, enligt en rapport från forskare knutna till Thorn och Standford Observatory. De mest populära AI-tjänsterna har regler mot att skapa sexualiserande bilder på barn, och det är förbjudet enligt norsk lag.
Haugland varnar för att det datorgenererade övergreppsmaterialet kan binda upp utredningskapacitet och göra det svårare att stoppa pågående övergrepp.
”I framtiden riskerar vi att försöka identifiera barn som inte existerar, som är offer för ’övergrepp’ som inte har begåtts i den fysiska världen”, menar Haugland.