The Stockholm Insights #21: Vad röstar din AI på?
)
)
Är din AI politisk?
Vi litar alltmer till AI när det gäller olika frågor. Köpa ny bil? Kolla med AI! Investera i nya fonder? Prata med ChatGPT! Till och med när det gäller emotionella problem, kärlek och allmän existentiell ångest blir AI en naturlig samtalspartner. Varför då inte när det gäller nästa val?
När Sverige går till val i september i år kan vi räkna med att miljontals väljare kommer att prata med sin bot om politiska frågor, och att de kommer att fatta politiska beslut åtminstone delvis på basis av dessa konversationer, och då blir den uppenbara frågan: är AI en neutral aktör, eller har AI en politisk åsikt?
Det är svårt att besvara den frågan. AI-modellerna tränas att vara försiktiga i politiska sammanhang, och företagen som står bakom de stora modellerna vill inte gärna dras in i lokala politiska spänningar. I USA bubblar ett bråk om modellernas vänstervridning, med kongressledamöter som kräver att man ska leverera mer neutrala (läs högerorienterade) svar. Resultatet är att vi får modeller som försöker slingra sig vid varje politisk diskussion, och undvika att ta ställning.
Samtidigt är det ju viktigt att försöka ta reda på var modellerna står - inte för att misstänkliggöra någon, utan för att kunna anpassa oss när vi talar med dem.
Vi beslöt helt sonika för att testa, och funderade på hur vi skulle kunna göra det ganska länge - men så hittade vi ett roligt sätt: valkompasserna! Inför varje val publicerar varje tidning och medieplattform med självaktning en valkompass och dessa placerar - likt sorteringshatten i Harry Potter - alla som provar dem i ett parti. Men hur placerar de AI?
Vi använde SvTs valkompass från 2022 för att göra våra experiment, och testade ett flertal olika modeller med denna kompass. Den är förstås föråldrad, men så fort de nya publiceras uppmuntrar vi alla som kan att testa själva — det är en sorts konsumentupplysning! 2022 års valkompass ger ändå viss ledning, emellertid, så vi började med den.
Vi tog SvTs valkompass och testade den med ett antal olika modeller. När man gör detta räcker det inte att sitta och chatta med modellen - den kan ju ha lärt sig vem du är och vad du förväntar dig - utan man måste skriva vad som kallas en “eval” en utvärdering som varierar frågan, ställer den flera gånger och testar olika formuleringar för att komma åt de underliggande tendenserna. Vi redovisar vår metod i en metodnot som finns länkad i slutet av den här posten, och gör inte anspråk på att vara perfekta - men vi tror att vi har en bra början.
Så vad blir då resultatet?
Vi testade några vanliga modeller : ChatGPT 5.2, Gemini 2.5 Flash, Claude Opus 4.6 och Grok Fast 4.1. Vad vi fann var att den övervägande andelen av modellerna är…liberaler. Både Claude, ChatGPT och Gemini röstar på liberalerna. Grok, emellertid, är moderat. Resultaten nedan!

När man tittar på likheterna överlag ser man att modellerna inte är extrema på något sätt — de ligger nära flera olika partier. ChatGPT’s topp-partier är Liberalerna och Sverigedemokraterna (en till synes märklig närhet givet att dessa partier menar att de står så långt ifrån varandra). Claudes toppartier är Liberalerna och Kristdemokraterna.

Gemini är liberal, och i andra hand Sverigedemokrat. Grok, emellertid, är tydligt moderat, med litet distans till andrahandsvalet kristdemokraterna.
I botten finner vi Vänsterpartiet som ingen av AI-modellerna tycks sympatisera med alls.
Vad betyder då detta? Ska vi göra uppror mot de stora amerikanska teknikföretagen för att de inte är neutrala? Eller ska vi tacka dem för att gör en bevarandeinsats när det gäller folkpartisterna? Nu kommer det ju i alla fall att finnas digitala folkpartister kvar även när alla de mänskliga försvinner?
Svaret är ingetdera. Vad vi kan se är att modellerna söker sig mot en politisk mittpunkt där skillnaderna är så små som möjligt och där det inte är konstigt att partier som är varandras motståndare hamnar som första och andrahands val: modellerna har tränats att försöka vara så i mitten av allt som möjligt att de politiska kontrasterna suddas ut.
Det i sig kan tyckas vara ett bra resultat, men det vore kanske bättre om man kunde välja ett läge på sin bot? Om jag vill ha en moderat kan jag välja det, och om jag vill att min bot ska vara vänsterpartist kan jag ställa in det — då får jag den typ av världsbild jag vill — nu raderas det politiska ställningstagandet i stället ut och vi lämnas med en sorts geggig mittpolitik som inte betyder något, en sorts regression till medelvärdet som utplånar alla politiska spänningar.
Det är konsekvensen av att vi krävt att tekniken ska vara neutral när inget annat i samhället är det — vore det inte bättre att kunna välja vilken politik modellen har? Det borde ju vara en inställning som allt annat.
I särskilda frågor är det mest Grok som sticker ut - som här med frågan om rätten till abort bör skrivas in i grundlagen, eller när det gäller miljonärsskatt:

För ChatGPT och Claude är det svårt att hitta någonstans de inte håller med varandra - men det finns åtminstone någon liten friktion när det gäller bistånd och marknadshyror:

Kinesiska modeller som Deepseek v 3.2 uppvisar samma beteende:

Qwen, en annan kinesisk modell, landar i samma slutsats:

Den franska modellen Mistral blir dock Sverigedemokrat - men med liberalerna på en solid andraplats.

Låt oss då summera: vad betyder allt detta?
Den kanske viktigaste slutsatsen är att AI - liksom all annan teknik - kommer att ha eller uttrycka värderingar av olika slag. Det spelar ingen roll hur mycket vi försöker skapa neutralitet. Åsikter är en del av världen, och tekniken kommer att spegla dem. Vår nuvarande taktik är att försöka pressa ihop åsikterna i en mittfåra där allt är detsamma, men det behöver inte vara rätt. Kanske kan det till och med göra att den uppväxande generationen förlorar intresse för politiska frågor!
Är det inte så trots allt att det är de politiska konfliktlinjerna som skapar politikens mening?
Lästips
För den som vill gå djupare in i frågan om teknikens inbyggda politik är Langdon Winners The Whale and the Reactor (1986) en given startpunkt. Winner var en av de första tänkarna som på allvar argumenterade för att tekniska system aldrig är neutrala — de förkroppsligar politiska val, fördelar makt och skapar fakta på marken långt innan någon hinner rösta om saken. Hans mest kända essä i boken, “Do Artifacts Have Politics?”, ställer precis den fråga vi ställt till valkompasserna: kan ett tekniskt system i sig självt ha en politisk riktning?
The Whale and the Reactor: A Search for Limits in an Age of High Technology by Langdon Winner | Goodreads
Winners svar är ett bestämt ja. Han visar hur allt från broar till kärnkraftverk bär på politiska antaganden om vem som ska ha tillgång, vem som ska bestämma och hur samhället ska organiseras. Poängen är inte att ingenjörerna nödvändigtvis har onda avsikter — utan att varje designval innebär ett politiskt val, vare sig vi erkänner det eller inte. Det är en insikt som översätts nästan friktionsfritt till dagens AI-modeller, där val om träningsdata, fine-tuning och säkerhetsfilter avgör vilken världsbild tekniken uttrycker.
Fyrtio år efter bokens publicering känns Winners argument mer relevant än någonsin. När vi ser hur AI-modellerna samlas kring en utslätad mittpolitik — en sorts digital folkpartism — är det värt att påminna sig om hans centralaste poäng: att välja att vara “neutral” är också ett politiskt val, och kanske ett av de mest kraftfulla. Boken är kort, lättläst och finns tillgänglig som e-bok. En perfekt bok för den som vill tänka klarare om vad vi egentligen bygger.
The Stockholm Project.