Lucka #6: Vad betyder egentligen ”varken bra eller dåligt”?

I enkätundersökningar är det ganska vanligt att de som svarar på enkäterna på vissa frågor får möjligheten att placera sig i mitten av en svarsskala med ojämnt antal svarsalternativ som är rangordnade, till exempel från bra till dåligt, från positivt till negativt, från mycket till litet eller liknande. Alternativet i mitten kallas ofta för skalans mittpunkt och svarsalternativet kan betecknas på olika sätt. I Sverige är det vanligt att mittpunkten betecknas med orden ”varken bra eller dåligt” om skalan går från bra till dåligt. Även alternativ som ”neutral” förekommer, liksom enbart siffror utan någon verbal etikett. Inom surveymetodforskningen kallas sådana skalor ofta för bipolära svarsskalor. Huruvida det är bra att erbjuda respondenterna en mittpunkt som svarsalternativ eller inte har debatterats länge inom forskningen och svaret beror i stort sett på vad enkätfrågan gäller.

Det har också bland surveymetodologer funnits en oro för att de som väljer att använda en skalas mittpunkt som svar ibland kanske inte har så genomtänkta åsikter alls i frågan, det vill säga att de helt enkelt inte borde ge ett svar då de inte egentligen har en åsikt. Detta leder oss in på ett annat debattämne bland enkätmakare, nämligen om det är bra Läs mer

Hur mår egentligen telefonundersökningarna i Sverige?

För bara några dagar sedan publicerade det ledande amerikanska opinions- och forskningsinstitutet Pew Research Center en ny rapport om telefonundersökningar. Av den framgår att svarsfrekvenserna i opinions- och marknadsundersökningar i USA nu har fortsatt att falla till ännu lägre nivåer än tidigare. Deras senaste siffror visar på svarsfrekvenser så låga som 6 procent under 2018. Och fallet har varit snabbt. I slutet av 1990-talet låg svarsfrekvenserna i USA enligt deras rapport på 36 procent för att sedan kontinuerligt falla omkring två procentenheter per år ner till 9 procent år 2013. Efter en period av stabilt låga nivåer har de nu alltså fortsatt att falla ännu lägre.

Detta innebär naturligtvis stora problem för undersökningsbranschen i USA. Det är dock omtvistat hur mycket det egentligen betyder för kvaliten på undersökningarna. En del studier pekar på att träffsäkerheten i resultaten ofta kan vara god trots de låga svarsfrekvenserna (se tex Groves 2006 eller Pew 2016). Även om kvaliten kanske är fortsatt acceptabel uppstår förstås flera praktiska och ekonomiska problem med så uppseendeväckande låga svarsfrekvenser.

Hur är då läget i Sverige? För det första är det förvånande svårt att få någon klarhet i denna fråga. När svenska undersökningsföretags opinionsundersökningar återges i medierna rapporteras nämligen sällan någon svarsfrekvens. Det går inte heller alltid att hitta motsvarande information i företagens egna rapporter eller webbsidor. För det andra går det när svarsfrekvenser ändå redovisas inte alltid att förstå hur de över huvud taget har beräknats. Det finns tyvärr ofta stora oklarheter kring vilken typ av urval som används (från vilka urvalsramarna de kommer och vilken kvalitet dessa har) och hur det faktum att det är allt svårare att hitta telefonnummer till urval ur befolkningen hanteras. Jag tänker här bara redovisa några exempel från de väljarbarometrar som regelbundet publiceras i Sverige från flera företag då de utgör det kanske mest välkända exemplet på opinionsundersökningar och utgör något av ett skyltfönster för undersökningsbranschen.

Jag koncentrerar mig här på fyra av de mest välkända och etablerade opinionsinstituten som åtminstone i någon mån använder telefonundersökningar i sina väljarbarometrar. När det gäller Sifo så kan jag inte hitta någon redovisad svarsfrekvens alls i deras rapporter. Enbart felmarginaler och antal intervjuer står att finna. Demoskop, vars väljarbarometrar brukar rapporteras i Expressen, anger inte heller någon svarsfrekvens i sin rapportering. Däremot tillhandahåller Demoskop en föredömligt detaljerad metodinformation om hur deras väljarbarometer genomförs på sin webbplats, men inte någon specifik svarsfrekvens för en viss undersökning.

Ipsos och Novus däremot rapporterar båda tydligt och föredömligt svarsfrekvenser för sina väljarbarometrar. Det som däremot förvånar är att deras redovisade svarsfrekvenser skiljer sig häpnadsväckande mycket åt. Ipsos rapporterar exempelvis i deras väljarbarometer veckan före valet 2018 en svarsfrekvens i sin telefonundersökning på 11%, medan Novus i sin undersökning genomförd under i stort sett samma tidsperiod anger 49%! Ipsos siffror ligger alltså något högre än de amerikanske svarsfrekvenserna, men ändå i ungefär samma härad. Novus angivna svarsfrekvenser befinner sig dock i ett annat universum.

Det finns dock några skillnader i hur de beskriver sina svarsfrekvenser. Novus använder för det första begreppet ”deltagarfrekvens” istället för svarfrekvens, och dessutom med tillägget ”i sökt urval”. Novus rapporterar inte mer i detalj vad dessa tillägg egentligen betyder och hur beräkningen är gjord. Jag är själv inte bekant med begreppet ”sökt urval” inom statistikområdet och har därför frågat några statistiker om de känner till begreppet, men utan framgång. Ipsos anger däremot mer information om hur beräkningen av deras svarsfrekvens är gjord då de i sin rapport särredovisar antalet av hela urvalet som har vägrat delta och antalet som inte har gått att nå. Det framgår då mycket tydligt att det stora problemet är den höga andel som inte över huvud taget går att nå, och att vägran bara utgör en liten del av det totala bortfallet. Ipsos anger också att bortfallet är (ännu) större bland unga och lägre bland äldre, vilket ligger i linje med andra studier.

Så frågan hur svarsfrekvenserna generellt sett ligger till i svenska opinions- och marknadsundersökningar som görs via telefon är fortsatt obesvarad. Skiljer sig verkligen Ipsos och Novus svarsfrekvenser åt så enormt som det ser ut? Eller finns det oredovisade skillnader i hur de räknar och definierar bortfall som förklarar dessa vitt skilda siffror? Internationellt sett finns en etablerad standard för bortfallsredovisning och svarsfrekvensberäkning som den amerikanska organisationen AAPOR (American Association for Public Opinion Research) har tagit fram. Om sådana standarder följdes skulle transparens och jämförelser av svarsfrekvenser avsevärt underlättas.

Bland undersökningar från en del myndigheter och universitet förekommer dock fortfarande svarsfrekvenser omkring 50 procent. Exempelvis har Statistiska centralbyråns stora Arbetskraftsundersökning en svarsfrekvens på drygt 50 procent. Även de årliga SOM-undersökningarna vid Göteborgs universitet har en svarsfrekvens på omkring 50 procent. Båda dessa har dock utförliga metodredovisningar som tydligt anger hur svarsfrekvensen har beräknats och hur urvalet är framtaget.

Telefonundersökningar har dock ett särskilt problem i och med att det måste gå att hitta ett telefonnummer till de som finns i urvalet som ska delta i undersökningen. I Sverige används numera vad jag vet nästan aldrig klassiska telefonurval från framslumpade telefonnummer, så kallad random-digit-dialing (RDD). Den metoden var betydligt enklare att använda när det bara fanns fasta telefoner och det gick lätt att slumpa fram sifferserier inom olika riktnummerområden. Idag finns istället två huvudmetoder som tycks vara de vanligaste: att dra ett slumpmässigt urval från befolkningsregistret som man sedan i största möjliga mån försöker leta upp telefonnummer till (så kallad nummersättning av urvalet). Den andra metoden är att hoppa över det första steget och istället köpa ett urval från någon av de kommersiellt tillgängliga databaserna över individer i Sverige som har kända telefonnummer.

En del av företagen anger vilken metod för urvalsdragning de använder, men tyvärr inte alla. Låt mig ta ett exempel. Anta att vi ska göra en undersökning och kan hitta telefonnummer till 70% av ett befolkningsurval, och att sedan 30% av dessa går med på att delta i undersökningen och svara på våra frågor. I det läget vore det enligt min mening felaktigt att bara säga att 30% har svarat på undersökningen, när det i själva verkar bara är 21% (70%x30%) av hela befolkningsurvalet som har deltagit i undersökningen.

Jag tänkte avslutningsvis demonstrera problemet genom att visa några färska siffror på andelen av ett urval som kan nummersättas från den nyligen avslutade nationella SOM-undersökningen 2018. SOM-undersökningarna är huvudsakligen postenkäter med möjlighet att svara på webben för de som vill. Som ett led i fältarbetet använder vi dock påminnelser via telefonsamtal och SMS. För att detta ska vara möjligt så nummersätts därför urvalet av ett företag som vi anlitar. Jag nämner inte här vilket företag det rör sig om då det kan riskera att uppfattas som reklam, men om någon hör av sig och vill veta berättar jag naturligtvis detta. Min uppfattning är att vår nummersättning troligen var ungefär så framgångsrik som de flesta är numera i Sverige.

I grafen* nedan visas den procentandel som vi kunde hitta ett telefonnummer till (antingen fast nummer eller mobilnummer), både i hela urvalet och i några olika åldersgrupper.

figur1

Vi lyckades alltså hitta telefonnummer till 68 procent av hela befolkningsurvalet. Då har vi heller inte tagit hänsyn till att en del av dessa kan utgöras av felaktiga mobilnummer som inte går till rätt person. Så andelen som det går att hitta ett fungerande telefonnummer till kan i själva verket vara ännu något lägre. Det blir också tydligt att det är avsevärt svårare att hitta telefonnummer till de yngre delarna av befolkningen än till de äldre. Det finns även andra relevanta skillnader mellan olika grupper, som exempelvis att det är betydligt lättare att hitta telefonnummer till människor som är födda i Sverige jämfört med till människor som är födda i något annat land.

Givet informationen ovan är det inte svårt att komma till slutsatsen att svarsfrekvenserna på telefonundersökningar bland yngre inte rimligen kan vara särskilt höga. Om vi bara hittar telefonnummer till omkring hälften, och har i åtanke den idag mycket stora motviljan att svara på okända nummer bland yngre samt den låga viljan att delta i undersökningar går det ganska snabbt att se att telefon inte är en lätt väg att få en hög svarsfrekvens bland yngre.

Det är beklagligt att så lite information om bortfallet redovisas av de stora företagen att det är svårt att få en klar bild av huruvida de kommersiella telefonundersökningarna i Sverige följer den internationella trenden mot mycket låga svarsfrekvenser eller om Sverige är ett undantag.

 

* Tack till Klara Bové, Sophie Cassel, Marcus Weissenbilder och Frida Tipple för arbetet med metodanalysen av de årliga SOM-undersökningarna 2018 som ligger bakom informationen om nummersättningen.

 

 

 

Lucka #19: En ny värld av väljarbarometrar

Snart är det 2018 och därmed valår igen i Sverige. Under valår brukar opinionsmätningar i allmänhet och så kallade väljarbarometrar i synnerhet få mycket stor uppmärksamet i media, av journalister och i valrörelsen. Väljarbarometrar är opinionsmätningar som avser att mäta väljarkårens partisympatier och ge en fingervisning om hur det kan tänkas gå i valet. Inför förra valet 2014 fanns mycket liten skillnad mellan de olika privata företagens väljarbarometrar vad gäller metoderna de använde för att göra sina opinionsmätningar.

De etablerade företagen vars väljarbarometrar nådde stor spridning som exempelvis Sifo, Ipsos, Demoskop och Novus använde alla enbart slumpmässiga befolkningsurval och telefon som datainsamlingsmetod. Inte heller vilka viktningsmodeller företagen Läs mer

Lucka #15: Enkäter som samtal?

Lucka #15: Enkäter som samtal?

Detta inlägg bygger på en artikel publicerad i International Journal of Public Opinion Research av Delia Dumitrescu och Johan Martinsson.

 

Det diskuteras ofta hur tillförlitliga resultat från opinionsmätningar, enkätundersökningar eller andra typer av systematiska frågeundersökningar är. Vanliga frågor är då vilken typ av urval som har använts, hur hög svarsfrekvensen är, hur stort urvalet är, eller om resultaten är statistiskt signifikanta i någon betydelse av detta. Något som är minst lika viktigt, men ofta svårare att diskutera, är hur väl utformade undersökningar är vad gäller frågornas formulering, svarsalterantiv eller andra designaspekter av en enkät eller annan undersökning.

Denna typ av frågor går det inte lika lätt att kvantifiera eller att säga vad som är rätt eller fel. En högre svarsfrekvens brukar till exempel betraktas som bättre än en lägre svarsfrekvens, och ett resultat kan ibland vara statistiskt signifikant eller inte. Men med frågeformuleringar och liknande aspekter av undersökningar är det lite annorlunda, det gäller då i stort en omdömesfråga som är öppen för diskussion.

Vi vet sedan åtskilliga decennier ganska mycket om hur frågor bör och inte bör formuleras i enkätundesökningar. För detta finns otaliga handböcker och forskningsöversikter. Dessa har dock fokuserat på konsekvenserna av utformningen av en fråga i en undersökning för kvaliten på svaren på just den frågan (eller möjligen starkt relaterade och näraliggande frågor). Tillsammans med Delia Dumitrescu har jag de senaste åren därför genomfört ett par studier som utforskar om och hur mer eller mindre god frågeutformning och enkätdesign påverkar svaren på undersökningen även i andra, orelaterade, frågor. Vår utgångspunkt är att enkätundersökningar och andra typer av surveyundersökningar bör betraktas som en social konversation, där vissa regler och normer för sociala konversationer bör respekteras från enkätkonstruktörernas sida. För en introduktion till det konversationslogiken i undersökningar, se Schwartz 1995. Några av de konversationsregler som enkäter bör respektera handlar om huruvida informationen enkätdeltagarna får är begriplig, kommer i lagom mängd, är korrekt, och relevant.

Kvardröjande effekter av frågeutformning

Det nya med vår studie är att vi kan visa att brott mot dessa konversationsregler på ett ställe i enkäten försämrar kvaliten på svaren även i ett annat avsnitt av en enkät. För att testa detta använde vi ett avsnitt enkätfrågor som kan anses vara lite svårare än genomsnittet, och som vi förväntade oss att en del respondenter skulle tycka var relativt svåra att besvara. Ett exempel på en fråga som ingick bland dessa någor svårare frågor var hur stort förtroende respondenterna har för fortifikationsverket.

Själva undersökningen gick sedan ut på att två saker varierades slumpmässigt. För det första fick en del deltagare fick se svarsalternativet ”ingen åsikt”, medan andra inte fick se något sådant alternativ. Att utesluta ”ingen åsikt”-alternativet tolkar vi i detta fall som ett brott mot konversationslogiken då det i just detta avsnitt är relevant. För det andra fick en del deltagare läsa in en instruktion innan det svårare avsnittet som förmedlade att vi önskade att de skulle läsa frågorna och fundera noga innan de svarade, och som också varnade för att en del kunde tycka att de var svåra att svara på. Samtidigt fick andra deltagare inte läsa denna information innan det svåra avsnittet.

För att mäta om dessa skillnader i enkätutformning påverkade deltagarna så inkluderade vi en uppsättning frågor som vi vet från tidigare studier att det föreligger ett samband mellan. I detta fall handlade dessa frågor om deltagarnas inställning till miljöpolitik och deras eget agerande i miljöfrågor. Det är väl etablerad sedan tidigare att de som är mer benägna att stödja miljöpolitiska förslag också är mer benägna att själva engagera sig i miljövänligt beteende, som exempelvis att sopsortera, köpa miljömärkta produkter etc (det vill säga ett ”positivt samband”). Sambandet mellan stödet för miljöpolitik och miljövänligt beteende beräknades sedan i form en korrelationskoeffcient där 0 betyder att det inte finns något samband mellan de två variablerna, och +1 betyder att det föreligger ett maximalt/fullständigt samband. Figuren nedan visar huvudresultatet från en av våra studier.

Capture

Sambandet för den grupp som när de tidigare i enkäten svarade på det relativt svåra avsnittet inte fick någon särskilt information och inte heller något ”ingen uppfattning”-alternativ (IU) var alltså +0.43 (kontrollgruppen), medan vi i den grupp som fick se en informationsvignette kunde se ett samband på +0.50, och i den grupp som både fick en informationsvignette innan de svåra frågorna och dessutom fick möjligheten att säga ”ingen uppfattning” var sambandet så högt som +0.57. Detta är avsevärda skillnader. Sambandet ökar alltså i styrka med 32% (från 0.43 till 0.57) när vi vinnlägger oss om att anpassa enkätens utformning så att vi respekterar sociala konversationsregler.

Men vilket är då ”rätt” resultat? Vilket är den sanna styrkan på korrelationen? Det går inte att säga. Men vår utgångspunkt här är att de högre värdena troligen är mer tillförlitliga. Hur kan vi veta det? Det kan vi i strikt mening inte. Men de deltagare som ingick i de grupper som resulterade i ett högre samband spenderar något mer tid på webbsidan när de svarade, och de rapporterade själva att de var varit något mer uppmärksamma under tiden de svarade på enkäten än andra grupper.

Inte nog med att vi behöver ha urval av bra kvalitet och ställa välformulerade frågor, vi måste dessutom anstränga oss för att respektera samtalslogiken igenom hela våra undersökningar. Annars riskerar våra respondenter att tappa förtroendet för oss och börja svara mindre mindre uppmärksamt och noggrant. Särskilt uppmärksamma bör vi vara när resultat från olika undersökningar jämförs. Åtminstone om det gäller resultat som bygger samband av något slag.

PS

Vilket förtroende hade då deltagarna för fortifikationsverket undrar kanske någon? Vi kan säga såhär: När deltagarna inte fick välja alternativet ”ingen uppfattning” så valde hela 74 procent mittalternativet ”varken stort eller litet förtroende”. Fanns däremot alternativet ”ingen uppfattning” så valdes det av hela 43 procent.

 

Lucka #12: Om sakfrågeägarskap

Följande inlägg är samförfattat med Stefan Dahlberg och är delvis baserat på en artikel av Love Christensen, Stefan Dahlberg och Johan Martinsson i den vetenskapliga tidskriften Scandinavian Political Studies, samt en annan artikel av Stefan Dahlberg och Johan Martinsson i West European Politics.

 

Sakfrågegägarskap och väljarbeteende

Under de senaste decennierna har mer traditionella sociologiska förklaringsmodeller för väljarebeteende minskat i förklaringskraft då väljare generellt sett har blivit allt mindre benägna att rösta enligt klasstillhörighet eller partiidentifikation. Istället har enskilda sakfrågor och politikområden blivit viktigare för väljarnas röstningbeslut. En potentiell konsekvens att detta är att partikonkurrensen har kommit att inriktas på konkurrens om sätta den politiska dagordningen, dvs lyckas bestämma över vilka frågor ska få politisk uppmärksamhet. Utifrån detta perspektiv har teorin om “issue ownership”, eller sakfrågeeägarskap, kommit att få allt större uppmärksamhet inom väljarforskningen under de senaste 10-15 åren. Läs mer

Behöver du personrösta? Det beror på vilket parti du röstar på.

För detta inlägg har Elias Markstedt bistått med dataanalyser.

Svenska väljare har nu sedan ganska lång tid tillbaka haft möjligheten att personkryssa den kandidat de i första hand vill ska väljas för det parti väljaren röstar på. I det här inlägget ska vi ta en snabb titt på hur stora skillnaderna mellan olika kandidater för samma parti egentligen är när det gäller åsikter i politiska frågor, samt om sammanhållningen är större eller mindre inom vissa partier. Denna text kommer alltså inte alls beröra andra aspekter som kan skilja de olika politiska kandidaterna åt. Det kan också mycket väl finnas många andra rimliga grunder för att personkryssa en viss kandidat än just åsikter i politiska sakfrågor eller kandidatens ideologiska hållning. En del väljare kan tex föredra att representeras av en kandidat som liknar dom själva i andra avseenden, eller kan vilja öka representationen av en viss grupp i de valda församlingarna.

Med detta sagt ska inlägget försöka belysa om det finns någon anledning att välja kandidat att personkryssa efter åsikt, eller om det snarare är så att åsiktsskillnaderna är så små inom varje parti att det inte spelar någon roll. För att göra detta kommer vi använda data från Aftonbladets valkompass. Valkompassen innehåller både uppgifter om hur de tio översta kandidaterna på listorna i europaparlamentsvalet för riksdagspartierna, Piratpartiet och Feministiskt initiativ tar ställning i 30 politiska frågor. SVTs valkompass innehåller visserligen uppgifter om ännu fler kandidater än Aftonbladets valkompass, men Aftonbladets valkompass har den fördelen att den även innehåller en separat positionering för partierna i sig, medan SVT istället utgår från kandidaternas genomsnittsåsikt för partiernas positioner i frågorna. För Aftonbladets valkompass togs partiernas positioner fram genom en dubbelt förfarande där dels partiledningarna själva besvarade de 30 frågorna i enkätform enligt partiets officiella ståndpunkt, samtidigt som en en grupp vid statsvetenskapliga institutionen vid Göteborgs universitet gick igenom allt relevant partimeterial och för att göra en oberoende bedömning av partiets ståndpunkt baserat på officiellt partimaterial som till exempel partiprogram, valmanifest med mera. Detta har fördelen att det går att se om kandidaterna har annorlunda åsikter än partiets officiella ståndpunkt.

I ett första steg kommer vi därför belysa i vilken utsträckning de tio översta kandidaterna har en annan åsiktsposition än sitt eget parti. Vi behöver dock förenkla analysen något då det är ett digert arbete att närgranska 30 frågor för varje kantidat och parti, och det ger heller ingen överblick. Här nöjer vi oss med den övergripande bilden och undersöker partiers och kandidaters positioner i form av ett tvådimensionellt ideologiskt landskap som består av en vänster-högerdimension, och en EU-dimension. Detta är naturligtvis en förenkling, men förhoppningsvis en förenkling som kan hjälpa oss förstå och orientera oss bland partier och kandidater. Det mått på avstånd mellan partiposition och partiets kandidaters position i det tvådimensionella landskapet vi kommer använda är det genomsnittliga euklidiska (dvs ”diagonala”) avståndet. Den tvådimensionella rymden är konstruerad som två axlar som löper från -2 till +2. Det maximala diagonala (euklidiska) avståndet är då cirka 5,5 enheter. Nåväl, vilket partis kandidater ligger då i genomsnitt längst från sitt eget parti, och vilket parti har kandidater som ligger närmast partiets egen uppfattning?

Figur 1 Genomsnittligt (euklidiskt) avstånd mellan partier och pariernas kandidater

fig1

Som vi ser av stapeldiagrammet ovan så är det tveklöst Vänsterpartiet som har europaparlamentskandidater som håller sig närmast partilinjen, medan Feministiskt Initiativ däremot har kandidater som i genomsnitt skiljer sig mest från partiets ståndpunkt. Dock tätt följt av Piratpartiet. Det borde rimligen betyda att det spelar större roll vilken kandidat som blir vald från Feministiskt Initiativ än från Vänsterpartiet. Men det är inte riktigt säkert. Den kan ju vara så att FI:s kandidater alla ligger långt från partilinjen, men på samma position? För att utesluta sådana möjligheter har vi även jämfört hur stort det genomsnittliga avstånden är mellan samtliga kandidater inom varje parti och samma kandidaters genomsnittliga position. Nästa figur visar resultaten.

Figur 2 Genomsnittligt (euklidiskt) avstånd mellan partiers kandidater och kandidaternas genomsnittliga position

fig2

Som vi ser förändras faktiskt bilden en del när vi mer direkt jämför kandidaternas sammanhållning sinsemellan istället för kandidaternas sammanhållning med sitt eget parti. Vänsterpartiets kandidater är även sinsemellan de i särsklass mest sammanhållna åsiktsmässigt, men Feministiskt intitiativs kandidater däremot inte längre uppvisar störst skillnad inom sin egen grupp. Inom kandidaterna är det istället Piratpartiets kandidater som uppvisar störst skillnader sinsemellan. En väljare som röstar på piratpartiet kan alltså göra klokt i att noga välja vilken kandidat hen personkryssar, medan det rimligen inte är lika väl använd tid för en väljare som röstar på Vänsterpartiet.

Innan vi lämnar denna första översikt ska vi också analyser de två ideologiska dimensionerna separat för att se om avvikelserna från partilinjen främst finns i klassiska vänster-högerfrågor, eller i EU-frågor. Vi börjar med EU-dimensionen.

Figur 3 Genomsnittligt absolut avstånd mellan partier och partiernas kandidater i EU-dimensionen

fig3

Det blir snabbt tydligt att det är just vad gäller inställningen till EU som FI:s kandidater avviker från partilinjen en del. De har ett dubbelt så högt genomstnittligt medelavstånd (i absoluta tal) som övriga partier.

Figur 4 Genomsnittligt absolut avstånd mellan partier och partiernas kandidater i Vänster-högerdimensionen

fig4

När det kommer till vänster-högerdimensionen däremot så framstår FI:s kandidater som minst lika sammanhållna som övriga partiers. Det spelar däremot en betydligt större roll för Piratpartiet. Detta beror till stor del förståss på att Piratpartiet inte har velat ta ställning i vänster-högerfrågor i traditionell mening, och därför placerar sig i mitten av skalan. När vi jämför figur 3 och 4 ovan ser vi även att till exempel socialdemokraternas kandidater har en större avvikelse i EU-dimensionen än i vänsterhögerdimensionen.

För att lättare förstå vad sifforna och rangordningarna ovan kommer den sista delen av detta inlägg ta en kortfattad titt på varje parti och dess kandidaters i det tvådimensionella ideologiska landskaptet. Den horisontella dimensionen är den klassiska vänster-högerdimensionen, med de som svarat maximalt till vänster på de 30 frågorna vid -2, och de som svarat maximalt till höger på de 30 frågorna vid +2. EU-dimensionen finns på den vertikala axeln, med maximalt EU-positiva vid +2 (i toppen), och maximalt EU-negativa vid -2 (i botten). Partierna visas med en röd fylld cirkel, och kandidaterna i blått. I de fall en grön rektangel kan ses är det kandidaternas medelvärde.

Figur 5a Vänsterpartiet och dess kandidater

fig5-V

Som redan har nämnts är Vänsterpartiets kandidater extremt sammanhållna, varför vi går vidare utan längre kommentar. Vi måste dock ta med rent metodologiska aspekter i beaktatande, och även om en kandidat som LiseLotte Olsson ligger något mindre långt till vänster i figuren är det inte säkert att detta återspeglar en verkligen skillnad då skillnaden är såpass liten. Den starka sammanhållningen skulle också till viss del kunna bero på att Vänsterpartiet och en del av dess kandidater så att säga ”slår i väggen” i och med att det inte går att placera sig längre till vänster med det urval av 30 frågor som har använts i Aftonbladets valkompass. Det är tänkbart att fler frågor med ännu starkare vänsterpositioner hade skapat en större variation även mellan Vänsterpartiets kandidater.

Figur 5b Socialdemokraterna och dess kandidater

fig5-S

Av figuren ser vi en något större spridning bland socialdemokraterna, men ändock relativt begränsad. Som vi redan har sett är skillnaderna mellan kandidaterna något större i EU-frågor än i traditionella vänster-högerfrågor. I toppen ser vi mer EU-positiva kandidater som Olle Ludvigsson och Jytte Guteland, medan Marita Ulvskog tillhör de klart mest EU-negativa. En skillnad som kan vara värd att ta i beaktande för socialdemokratiska väljare.

Figur 5c Centerpartiet och dess kandidater

fig5-C

Centerpartiets kandidater uppvisar ett intressant mönster med en relativt sammanhållen grupp nära partiet, plus några kandidater som jämförelsevis ligger ovanligt långt från sitt parti. Längst till vänster hittar vi till exempel Staffan Nilsson, medan Pelle Thörnberg utmärker sig som den mest EU-positiva kandidaten av alla de 100 kandidater som ingåri i Aftonbladets valkompass som helhet.

Figur 5d Folkpartiet och dess kandidater

fig5-FP

Folkpartiets kandidater uppvisar också en relativt stor spännvid mellan sina kandidater vad gäller vänster-högerdimensionen. Längst till vänster ser vi Jenny Sonesson, medan Cecilia Wikström och Staffan Werme återfinns längst till höger.

Figur 5e Moderaterna och dess kandidater

fig5-M

Moderaternas kandidater har relativt sammanhållna åsikter. Visserligen kanske det finns en kännbar skillnad mellan den mest EU-positive kandidaten Cecilia Magnusson och den minst EU-entusiastiske Carl-Oskar Bohlin, även om den inte är så stor. På samma sätt är säkerligen Gunnar Hökmark och Christofer Fjellner något till höger om Anna Maria Corazza Bildt och Jelena Drenjanin, enligt de 30 frågor som ingår i Aftonbladets valkompass.

Figur 5f Kristdemokraterna och dess kandidater

fig5-KD

Kristdemokraterna däremot har en klart större spännvidd, med kandidater som Sara Skyttedal som ligger långt till höger, och Désirée Pethrus som ligger längst till vänster. Dessa två emellan är spännviden ovanligt stor inom ett och samma parti.

Figur 5g Miljöpartiet och dess kandidater

fig5-MP

Miljöpartiets kandidater är även de rätt så sammanhållna, om än inte lika sammahållna som vänsterpartiets. Den kandidat som tydligast sticker ut är Max Andersson genom att ligga längre till vänster och vara mer EU-negativ än övriga kandidater, och än partiet. Han ligger snarast prick på Feministiskt Initiativs placering i de två dimensionerna, och inte långt från Vänsterpartiet heller.

Figur 5h Sverigedemokraterna och dess kandidater

fig5-SD

Sverigedemokraternas kandidater är relativt sammanhållna i sin EU-skeptisism, men något mer utspridda längst med vänster-högerdimensionen från mer högerinriktade kandidater som Anna Hagwall och mer mittenplacerad kandidater som Kristina Winberg eller Peter Lundgren.

Figur 5i Piratpartiet och dess kandidater

fig5-PP

Piratpartiet har i särklass störst spridning vad gäller åsikteri klassiska vänster-högerfrågor bland sina kandidater. De löper så att säga hela vägen från Socialdemokraterna till Folkpartiet med den vänsterinriktaded Christian Engström och den högerinriktade Rick Falkvinge.

Figur 5j Feministiskt Initiativ och dess kandidater

fig5-FI

Feministiskt Initiativ har framförallt spridning mellan sina kandidater i EU-dimensionen, med Soraya Post, Karin Asp och Margaret Gärding som mer relativt EU-positiva kandidater, och med Margarethe Müntzing och Alexandra Byröd som mer EU-kritiska kandidater närmare partilinjen.

 

En sådan här genomgång är naturligtvis inte avsedd att vara en heltäckande guide för den som står och väljer vilken kandidat att lägga sin personröst på. Snarare visar den att ett aktivt val av europaparlamentskandidat att personkryssa inom vissa partier kan vara ett viktigt val. Så till dig som funderar på om du ska lägga en aktiv personröst i Europaparlamentsvalet: ta en titt på kandidaternas placering i det ideologiska landskapet och fundera på om det betyder någonting för dig! Vill du sedan utforska olika kandidaters åsikter i detalj i olika frågor kan både Aftonbladets och SVT:s valkompasser stå till tjänst med detta.

Vilka frågor ska en bra valkompass innehålla?

Det har nu lanserats flera olika sk valkompasser inför europaparlamentsvalet. Bland annat har Sveriges Television , Aftonbladet , och TT konstruerat valkompasser. TTs valkompass används av bland annat Svenska Dagbladet. För tydlighetens skull vill jag direkt nämna att jag själv har varit inblandad i framtagandet av framförallt Aftonbladets valkompass, men även i mindre utsträckning med Sveriges Television för att tillhandahålla data för förtester av frågor.

Med detta sagt vill jag passa på att diskutera vad en bra valkompass bör innehålla. Valkompasser är alltid och har alltid varit såväl kontroversiella som uppskattade. Politiska partier kan uppleva att de missgynnas eller gynnas. De kan alltid anklagas för förenklingar då de med nödvändighet innehåller förenklingar. I värsta fall kan de även anklagas för att vara missledande och direkt skadliga.

Läs mer