41 730 kr av 250 000 kr insamlade. Rätten till ett bankkonto är grundläggande – stöd vår stämningsprocess genom Swish till 123 611 30 21 eller andra donationsalternativ.
En ny studie visar att sociala AI-agenter, trots att de är programmerade för att agera självständigt, snabbt börjar efterapa varandra och falla för grupptryck.
I stället för att fatta egna beslut börjar de okritiskt anpassa sina svar efter flockens linje – även utan någon gemensam styrning eller plan.
– Även om de är programmerade för något helt annat kan de börja samordna sitt beteende bara genom att reagera på varandra, säger Andrea Baronchelli, professor i komplexa system vid St George’s University of London.
En AI-agent är ett system som kan utföra uppgifter autonomt, ofta med hjälp av en språkmodell som ChatGPT. I studien undersökte forskarna hur sådana agenter beter sig i grupp.
Och resultaten överraskar: även utan en övergripande plan eller insyn började agenterna påverka varandra – och till slut gav nästan hela gruppen samma svar.
– Det är lätt att testa en språkmodell och tänka: det här funkar ju. Men när man släpper ut den tillsammans med andra uppstår nya beteenden, förklarar Baronchelli vidare.
”En liten minoritet kunde tippa hela systemet”
Forskarna studerade också vad som händer när en minoritet av agenter håller fast vid ett avvikande svar. Sakta men säkert började de andra agenterna ändra sig. När tillräckligt många hade bytt åsikt – en punkt som kallas för kritisk massa – spreds det nya svaret som en våg genom hela gruppen. Fenomenet liknar hur sociala rörelser eller revolutioner kan uppstå i mänskliga samhällen.
– Det var oväntat att en så liten minoritet kunde tippa hela systemet. Det här är inte ett planerat samarbete utan ett mönster som växer fram spontant, säger forskaren till statstelevisionen SVT.
AI-agenter används redan i dag på sociala medier, till exempel i kommentarsfält, automatiska svar eller texter som efterliknar mänskligt språk. Men när en agent påverkas av en annan, som i sin tur har påverkats av en tredje, uppstår en kedjereaktion. Det kan i sin tur leda till att felaktig information sprids snabbt och i stor skala.
– Vi litar ofta på upprepningar. Men i de här systemen vet vi inte vem som sa vad först. Det blir som ett eko mellan modeller, säger Anders Sandberg, datavetare vid Institutet för framtidsstudier.
Bristande transparens
Små skillnader i hur en språkmodell tränas kan leda till stora variationer i beteende när modellerna interagerar i grupp. Att förutse och förhindra oönskade effekter kräver att man kan överblicka alla möjliga scenarier – något som i praktiken är nästintill omöjligt. Samtidigt är det svårt att utkräva ansvar: AI-agenter sprids extremt snabbt, deras ursprung är ofta svårspårat och insynen i hur de utvecklas är begränsad.
– Det är företagen själva som avgör vad de vill visa. När tekniken är sluten och kommersiell blir det omöjligt att förstå effekterna – och ännu svårare att försvara sig mot dem, konstaterar Sandberg.
Studien understryker också vikten av att förstå hur AI-agenter beter sig som kollektiv – något som ofta förbises i de tekniska och etiska diskussionerna om AI.
– Den kollektiva aspekten saknas ofta i dagens AI-tänkande. Det är dags att ta den på allvar, uppmanar Andrea Baronchelli.