Annons:

OpenAI kan utveckla AI-vapen åt Pentagon

Utvecklingen av AI

Publicerad april 14, 2025
– av Redaktionen
Sam Altmans OpenAI samarbetar redan med försvarsteknikföretaget Anduril Industries.

Rättegången närmar sig – hjälp Nya Dagbladet i mål i bankstriden!

171 300 kr av 250 000 kr insamlade. Rätten till ett bankkonto är grundläggande – stöd vår stämningsprocess genom Swish till 123 611 30 21 eller andra donationsalternativ.

Nedräknare
0 Dagar
0 Timmar
0 Minuter

OpenAI:s vd Sam Altman, utesluter inte att hans och hans företag i framtiden kommer att hjälpa Pentagon utveckla nya AI-baserade vapensystem.

– Jag kommer aldrig säga aldrig, för världen kan komma att bli väldigt konstig, uppger techmiljardären kryptiskt.

Uttalandet kom under torsdagens konferens – Vanderbilt Summit on Modern Conflict and Emerging Threat, och Altman tillade att han inte tror att han kommer att arbeta med att ta fram vapensystem åt den amerikanska militären ”inom en överskådlig framtid” – så länge inte detta bedöms vara det bästa av flera dåliga alternativ.

– Jag tror inte majoriteten av världen vill att AI ska fatta beslut i strid, fortsatte han.

Annons:

Att företag som tar fram konsumentteknik också utvecklar militära vapen har länge varit mycket kontroversiellt – och ledde 2018 exempelvis till omfattande protester inom Googles egen personalstyrka, varpå många också valde att frivilligt lämna eller tvingades bort av företagsledningen.

Tror på ”exceptionellt smarta” system innan årets slut

Just AI-industrin har dock visat en betydligt större vilja att sluta sådana avtal och OpenAI har reviderat sin policy om arbete kopplat till ”nationell säkerhet” det senaste året. Man har bland annat offentligt tillkännagivit att man samarbetar med försvarsteknikföretaget Anduril Industries Inc i syfte att ta fram antidrönarteknik.

Altman betonade också att USA:s regering måste öka sin kompetens kring AI.

– Jag tror inte att AI-användandet inom myndigheterna har varit så robust som det kan vara, sa han och tillade att det kommer att finnas ”exceptionellt smarta” AI-system i drift redo innan årets slut.

Altman och Nakasone – en pensionerad fyrstjärnig general – deltog i evenemanget inför lanseringen av OpenAIs kommande AI-modell, som planeras släppas nästa vecka. Publiken inkluderade hundratals representanter från underrättelsetjänster, militären och den akademiska världen.

Trovärdighet – grunden i vår journalistik sedan 2012

Nya Dagbladets position är unik i det svenska medielandskapet. NyD är oberoende på riktigt. Tidningen ägs och kontrolleras inom den egna redaktionen – inte av stora mediekonglomerat eller utländska intressen.

Sedan grundandet 2012 har grunden i vår oberoende journalistik varit balans och trovärdighet framför sensationsjournalistik och snabba klick. NyD är Sveriges bredaste helt oberoende dagstidning och står helt fri från politiska partier och industriintressen.

NyD erhåller inget presstöd och finansieras genom läsardonationer och annonser. Läs mer om våra pressetiska riktlinjer här.

Annons:

Forskare: Vi riskerar förlora oss själva till AI-gudar

Utvecklingen av AI

Publicerad idag 15:01
– av Redaktionen
"Vi säljer vår förmåga att vara modiga och köper trygghet från maskinerna", argumenterar forskaren Carl Öhman.

Den kommande boken ”Gods of data” tittar på AI ur ett religionskritiskt perspektiv. Carl Öhman, forskare vid Statsvetenskapliga institutionen, menar att dagens AI-system kan jämföras med människans relation till gudar – och forskar kring vad som skulle hända om man överlämnade makten helt till AI.

I takt med att AI utvecklats har verktyget som från början användes som en mer personlig version av Google nu även tagit plats som rådgivare i hemmen. Allt mer används AI för att fråga mer personliga saker, som sjukvårdsrådgivare, psykolog och även som relationsrådgivare.

Öhman menar att AI:n har börjat bli som gudar, det vill säga en ”sorts personifierade sammansmältningar av samhällets samlade kunskap och auktoritet”, och i ett forskningsprojekt studerar han vad människan skulle förlora om hon lät sig styras helt av tekniken – även en felfri en.

I ett tankeexperiment förklarar han hur AI kan påverka exempelvis ett par i vardagen som börjat bråka på grund av olika värderingar, som får hjälp av en AI-relationsrådgivare.

Annons:

De frågar: ’Hej, borde vi fortsätta att vara tillsammans?’ AI:n har tillgång till all deras data: deras dna, barndomsfoton, allt de någonsin skrivit och sökt på och så vidare, och har tränats på miljontals liknande par. Den säger: ’med 98 procents sannolikhet kommer det här sluta i katastrof. Ni borde göra slut med varandra idag. Faktum är att jag redan har hittat ersättningspartners till er som passar mycket bättre’, säger han i Forskarpodden.

Köper trygghet

Öhman menar att även om det inte finns några rationella skäl till varför paret inte bör lyda AI:n och göra slut, får man här en känsla av att ha förlorat någonting. Och just i det här fallet skulle paret förlora tron på sig själva och sin relation.

Kärlek är alltid en risk. Alla mellanmänskliga relationer medför en risk att bli sviken, ledsen, att någonting går dåligt. Vi kan absolut använda teknologin för att minimera den risken, kanske till och med helt reducera den. Poängen är att någonting då går förlorat. Vi säljer vår förmåga att vara modiga och köper trygghet från maskinerna, säger han.

Världspappa i AI-form

I forskningsprojektet undersöker man också andra relationer där AI tagit en allt större roll, till exempel föräldraskapet. Idag finns det en rad AI-appar som ska hjälpa vuxna att hantera sin relation med sina barn. Bland annat kan det handla om att AI ger personifierade repliker eller försöker förhindra att konflikter uppstår.

Precis som i exemplet det unga älskande paret så är det någonting som går förlorat här. Just i det här kapitlet använder jag Sigmund Freud och hans idé om att tron på Gud är en slags vägran att vara vuxen. Att det finns någon slags världspappa som i slutändan alltid har de rätta svaren. Och här blir det lite samma. Det finns en världspappa i form av AI som då blir den riktiga föräldern i din relation med barnen. Och du identifierar dig allt mer som ett slags barn till AI-föräldern som har de slutgiltiga svaren, säger han.

Lämnar makten över oss själva

Öhman menar att det kanske kan kännas skönt att kunna undvika att få sitt hjärta krossat, eller att förhindra konflikter med sina barn, men att man måste vara medveten om att det finns ett pris när AI får makten. Han menar att när man pratar om att AI kommer och tar över, så sker det ofta våldsamt och att ”maskinerna kommer och tar våra liv ifrån oss”.

Men poängen i min bok, och det här projektet, är att det är vi som lämnar över makten över våra liv, vårt mod, tro, och i slutändan oss själva, säger han.

Trovärdighet – grunden i vår journalistik sedan 2012

Nya Dagbladets position är unik i det svenska medielandskapet. NyD är oberoende på riktigt. Tidningen ägs och kontrolleras inom den egna redaktionen – inte av stora mediekonglomerat eller utländska intressen.

Sedan grundandet 2012 har grunden i vår oberoende journalistik varit balans och trovärdighet framför sensationsjournalistik och snabba klick. NyD är Sveriges bredaste helt oberoende dagstidning och står helt fri från politiska partier och industriintressen.

NyD erhåller inget presstöd och finansieras genom läsardonationer och annonser. Läs mer om våra pressetiska riktlinjer här.

Professor: Vi offrar källkritiken för snabba AI-svar

Utvecklingen av AI

Publicerad yesterday 09:11
– av Isac Boman
AI har blivit en naturlig följeslagare i vår vardag - men vad händer om vi slutar tänka själva och tar chatbottens svar som sanning?

Professor Olof Sundin varnar för att generativ AI undergräver vår grundläggande förmåga att värdera information.

När källorna försvinner och svaren baseras på sannolikhetsberäkningar riskerar vi att förlora vår källkritik.

— Det vi ser är ett paradigmskifte i hur vi traditionellt söker, värderar och förstår information, konstaterar Sundin, professor i bok- och bibliotekskunskap vid Lunds universitet.

När vi googlar får vi upp länkar till källor som vi, om vi vill, kan granska och bedöma trovärdigheten hos. I språkmodeller som Chat GPT får användaren ett färdigt svar, men källorna blir ofta osynliga och inte sällan helt frånvarande.

Annons:

— Svaret är baserat på sannolikhetsberäkningar av de ord du är intresserad av, inte på verifierbara uppgifter. De här språkmodellerna gissar vilka ord som sannolikt kommer härnäst, förklarar Olof Sundin.

Utan källor försvinner transparensen och ansvaret för att värdera informationen som presenteras hamnar helt på användaren.

— Det är väldigt svårt att värdera kunskap utan källor om du inte kan ämnet, eftersom det är ett källkritiskt uppdrag, förklarar han.

”Mer beroende av systemen”

Vissa AI-system har försökt möta kritiken genom RAG (Retrieval Augmented Generation), där språkmodellen sammanfattar information från faktiska källor, men forskning vittnar om ett oroande mönster.

— Studier från till exempel Pew Research Institute visar att användarna är mindre benägna att följa länkarna än tidigare. Färre klick på ursprungliga källor, som bloggar, tidningar och Wikipedia, hotar det digitala kunskapsekosystemet, argumenterar Sundin.

— Det har troligen alltid varit så att vi ofta söker efter svar och inte källor. Men när vi får enbart svar och inga källor blir vi sämre på källkritik och mer beroende av systemen.

Forskning visar även att människor själva underskattar hur stor tilltro de faktiskt har till AI:n svar.

— Människor säger ofta att de bara litar på AI när det gäller enkla frågor. Men forskning visar att de i vardagen faktiskt litar mer på AI än vad de tror, konstaterar professorn.

Sårbart för påverkan

Hur språkmodeller tränas och modereras kan göra dem sårbara för påverkan och Sundin uppmanar alla användare att fundera över vem som bestämmer hur språkmodellerna faktiskt tränas, på vilka texter och med vilket syfte.

Generativ AI har också en tendens att ofta ge felaktiga svar som ser ”seriösa” och korrekta ut, vilket kan skada tilliten till kunskap i samhället.

— När tilliten urholkas finns en risk att man börjar misstro allt och då kan man resonera som så att man lika gärna kan tro på vad man vill, fortsätter Olof Sundin.

Professorn ser en stor fara för två nödvändiga förutsättningar för att kunna utöva sina demokratiska rättigheter – källkritiskt tänkande och förmågan att värdera olika röster.

— När flödet av kunskap och information blir mindre transparent – att vi inte förstår varför vi möter det vi möter online – riskerar vi att tappa den förmågan. Detta är en fråga vi måste ta på allvar – innan vi låter våra ’digitala vänner’ ta över helt, avslutar han.

Språkmodeller

AI-tjänster som ChatGPT bygger på språkmodeller (till exempel GPT-4) som är tränade på enorma textmängder. Modellen förutsäger vilket ord som sannolikt kommer härnäst i en mening, baserat på mönster i språkanvändning.

Den "vet" inte vad som faktiskt är sant – den "gissar" vad som är rätt utifrån sannolikhetsberäkningar.

RAG (Retrieval-Augmented Generation)

RAG kombinerar AI-genererade svar med information hämtad från verkliga källor, till exempel de tre översta länkarna i en Google-sökning.

Metoden ger bättre transparens än AI-tjänster som svarar helt utan källhänvisningar, men studier visar att användarna trots detta klickar allt mindre på länkarna till originalkällorna.

Trovärdighet – grunden i vår journalistik sedan 2012

Nya Dagbladets position är unik i det svenska medielandskapet. NyD är oberoende på riktigt. Tidningen ägs och kontrolleras inom den egna redaktionen – inte av stora mediekonglomerat eller utländska intressen.

Sedan grundandet 2012 har grunden i vår oberoende journalistik varit balans och trovärdighet framför sensationsjournalistik och snabba klick. NyD är Sveriges bredaste helt oberoende dagstidning och står helt fri från politiska partier och industriintressen.

NyD erhåller inget presstöd och finansieras genom läsardonationer och annonser. Läs mer om våra pressetiska riktlinjer här.

Anthropic utmanar Google och OpenAI med ny AI-toppmodell

Utvecklingen av AI

Publicerad september 30, 2025
– av Markus Andersson
AI-bolagens kapplöpning fortsätter i rask takt, nu med en ny modell från Anthropic.

AI-bolaget Anthropic lanserar Claude Sonnet 4.5, som beskrivs som företagets hittills mest avancerade AI-system och marknadsledande för programmering. Modellen presterar enligt bolaget bättre än konkurrenterna från Google och OpenAI.

Anthropic har släppt sin nya toppmodell Claude Sonnet 4.5, som bolaget hävdar är den bästa på marknaden för kodning. Enligt uppgifter överträffar modellen både Googles Gemini 2.5 Pro och OpenAI:s GPT-5 på flera kodningsbenchmarks, skriver TechCrunch.

En av de mest anmärkningsvärda funktionerna är modellens förmåga att arbeta självständigt under längre perioder. Under tidiga tester med företagskunder har Claude Sonnet 4.5 observerats koda autonomt i upp till 30 timmar. Under dessa arbetssessioner har AI-modellen inte bara byggt applikationer utan också satt upp databastjänster, köpt domännamn och genomfört säkerhetsrevisioner.

Fokus på säkerhet och tillförlitlighet

Anthropic framhåller att Claude Sonnet 4.5 även är deras säkraste modell hittills, med förstärkt skydd mot manipulation och spärrar för farligt innehåll. Företaget menar att modellen kan skapa ”produktionsklara” applikationer snarare än bara prototyper, vilket representerar ett steg framåt i tillförlitlighet.

Annons:

Modellen är tillgänglig via Claude API och i Claude-chatboten. Prissättningen för utvecklare ligger på 3 dollar per miljon input-tokens och 15 dollar per miljon output-tokens.

Hårt tempo i AI-kapplöpningen

Lanseringen kommer mindre än två månader efter företagets förra toppmodell, Claude Opus 4.1. Detta snabba utvecklingstempo illustrerar enligt TechCrunch hur svårt det är för AI-bolag att behålla ett övertag i den intensiva konkurrensen.

Anthropics modeller har blivit populära bland utvecklare och stora teknikföretag som Apple och Meta rapporteras använda Claude internt.

Trovärdighet – grunden i vår journalistik sedan 2012

Nya Dagbladets position är unik i det svenska medielandskapet. NyD är oberoende på riktigt. Tidningen ägs och kontrolleras inom den egna redaktionen – inte av stora mediekonglomerat eller utländska intressen.

Sedan grundandet 2012 har grunden i vår oberoende journalistik varit balans och trovärdighet framför sensationsjournalistik och snabba klick. NyD är Sveriges bredaste helt oberoende dagstidning och står helt fri från politiska partier och industriintressen.

NyD erhåller inget presstöd och finansieras genom läsardonationer och annonser. Läs mer om våra pressetiska riktlinjer här.

Allt fler svenskar ger AI tillgång till sjukvårdsjournaler

Utvecklingen av AI

Uppdaterad oktober 7, 2025, Publicerad september 29, 2025
– av Redaktionen
Var femte AI-användare i Sverige har ställt frågor kring hälso- och sjukvård, vilket motsvarar sju procent av hela befolkningen

Var fjärde svensk använder ett AI-verktyg i vardagen, visar en rapport från Internetstiftelsen. Samtidigt delar allt fler känslig information, som exempelvis sjukvårdsjournaler, med AI-verktyg.

I rapporten ”Svenskarna och internet” konstateras det att AI blir en alltmer framträdande del av den digitala vardagen i svenska hem. Var fjärde svensk från åtta år och äldre använder AI-verktyg. Främst är det svenskar i åldrarna 15–25 år som använder AI, där nära dubbelt så många i den åldern använder AI jämfört med resten av befolkningen.

Även användningen bland barn i åldrarna 8–19 år är hög, där 57 procent använder någon form av AI-verktyg.

Mest populär är ChatGPT, som var tredje svensk använder. Långt på andra plats kommer Copilot, som används av var tionde svensk.

Annons:

Använder det som sjukvårdsrådgivning

Var femte AI-användare i Sverige har ställt frågor kring hälso- och sjukvård, vilket motsvarar sju procent av hela befolkningen. Främst är det unga vuxna under 35 år som ställer hälsofrågor, där de bland annat beskriver sina symptom i syfte att få en diagnos, ber AI att tolka sjukvårdsjournaler, provsvar eller röntgenbilder samt även rådfrågat AI:n kring medicinering.

Det är heller inte ovanligt att be om hjälp från AI:n gällande psykisk ohälsa, träning, viktnedgång, kost, vitaminer och sömn.

Integritetsrisk

Måns Jonasson vid Internetstiftelsen menar att problemet med AI:n är att den alltid försöker vara till lags med användaren, och vad man än frågar får man svar. Vidare pekar han mot de integritetsriskerna som uppkommer när man ger ut känslig information.

Vi har varnat folk för att inte ladda upp sådant här på grund av integritetsrisker men nu sitter man och matar in allt möjligt, säger han till Bonniertidningen DN.

Enligt Jonasson upplever man ofta AI som en slags ”vän”, men han påminner om att det inte finns någon garanti för att den data man matar in i verktyget inte läcker.

Vad händer om de får ett stort hack och alla uppladdade filer dyker upp på darknet? Det här är en risk vi måste ta på allvar.

Trovärdighet – grunden i vår journalistik sedan 2012

Nya Dagbladets position är unik i det svenska medielandskapet. NyD är oberoende på riktigt. Tidningen ägs och kontrolleras inom den egna redaktionen – inte av stora mediekonglomerat eller utländska intressen.

Sedan grundandet 2012 har grunden i vår oberoende journalistik varit balans och trovärdighet framför sensationsjournalistik och snabba klick. NyD är Sveriges bredaste helt oberoende dagstidning och står helt fri från politiska partier och industriintressen.

NyD erhåller inget presstöd och finansieras genom läsardonationer och annonser. Läs mer om våra pressetiska riktlinjer här.