Lucka #20: Räkna med bortfall

Urvalsundersökningar är fantastiska – genom att fråga ett slumpmässigt urval om några tusen personer kan vi uttala oss uppfattningar i en befolkning bestående av miljontals människor. Det finns visserligen en osäkerhet i de resultat vi når, men den osäkerheten kan preciseras och kvantifieras. Detta tack vare den statistiska teori som ligger som grund för urvalsundersökningar och därmed även för en stor del av den samhällsvetenskapliga forskningen (se tidigare inlägg för utförligare historik).

Tyvärr verkar inte alla hysa varma känslor för sådana undersökningar; det finns de personer som vägrar att delta när opinionsinstituten hör av sig. På så vis blir de en del av bortfallet. I de klassiska böckerna om statistisk urvalsmetodik ägnades inte många rader åt bortfall, men i takt med att färre svarar på undersökningar har bortfallsproblematiken blivit ett allt mer uppmärksammat forskningsområde (se t.ex. en färsk avhandling i statistik av Minna Genbäck, Umeå universitet). I Sverige har frågan de senaste åren lyfts fram på Läs mer

Vad tycker svenskarna om flyktingpolitiken? – Del II

Det här är ett gästinlägg av Peter Esaiasson, professor i statsvetenskap, och Torbjörn Sjöström, VD för Novus. Läs även del 1.

***

Bland forskare är ”Getting to Denmark” ett uttryck för lyckade moderniseringsprocesser. Det danska exemplet brukar framhållas också i den svenska debatten om flyktingpolitik, men då på ett mindre smickrande sätt. Sedan Danmark i början av 2000-talet införde en mer restriktiv flykting- och invandringspolitik har landet utgjort en negativ kontrastpunkt i den svenska debatten. Att Sverige skall föra en mer generös flyktingpolitik än Danmark har varit en utgångspunkt för de etablerade partierna och för de allra flesta i det offentliga samtalet. Jämförelsen med Danmark torde också ha funnit med i bilden när Stefan Löfven i samband med omläggningen av flyktingpolitiken i november 2015 sa att han är stolt över vad Sverige har gjort men att andra nu måste ta över ansvaret.[1]

I detta blogginlägg skall vi använda det danska exemplet för att kritiskt pröva påståendet att Sveriges generösa flyktingpolitik under 2000-talet har varit svagt förankrad bland medborgarna (se del I i denna miniserie). Om många medborgare håller med om att Sverige har gjort rätt i att under lång tid bedriva Europas generösaste flyktingpolitik bör detta märkas vid en utvärderande jämförelse med den danska politiken – i början av 2016 må det finnas mycket att vara kritisk mot i den svenska flyktingpolitiken, men hade det verkligen varit bättre att på ett tidigt stadium ta efter den danska politiken?

För att pröva uppslutningen bakom den svenska linjen har vi vid två tillfällen frågat representativa urval av svenska medborgare över 18 år om Sverige eller Danmark har fört den bästa flyktingpolitiken under 2000-talet. Frågan har ställt inom ramen för Novus webomnibuss-undersökningar under vecka 6 och 7 i februari 2016 (antalet web-intervjuade var 1014 i Studie 1och 865 i Studie 2).

Läs mer

Lucka #15: Enkäter som samtal?

Lucka #15: Enkäter som samtal?

Detta inlägg bygger på en artikel publicerad i International Journal of Public Opinion Research av Delia Dumitrescu och Johan Martinsson.

 

Det diskuteras ofta hur tillförlitliga resultat från opinionsmätningar, enkätundersökningar eller andra typer av systematiska frågeundersökningar är. Vanliga frågor är då vilken typ av urval som har använts, hur hög svarsfrekvensen är, hur stort urvalet är, eller om resultaten är statistiskt signifikanta i någon betydelse av detta. Något som är minst lika viktigt, men ofta svårare att diskutera, är hur väl utformade undersökningar är vad gäller frågornas formulering, svarsalterantiv eller andra designaspekter av en enkät eller annan undersökning.

Denna typ av frågor går det inte lika lätt att kvantifiera eller att säga vad som är rätt eller fel. En högre svarsfrekvens brukar till exempel betraktas som bättre än en lägre svarsfrekvens, och ett resultat kan ibland vara statistiskt signifikant eller inte. Men med frågeformuleringar och liknande aspekter av undersökningar är det lite annorlunda, det gäller då i stort en omdömesfråga som är öppen för diskussion.

Vi vet sedan åtskilliga decennier ganska mycket om hur frågor bör och inte bör formuleras i enkätundesökningar. För detta finns otaliga handböcker och forskningsöversikter. Dessa har dock fokuserat på konsekvenserna av utformningen av en fråga i en undersökning för kvaliten på svaren på just den frågan (eller möjligen starkt relaterade och näraliggande frågor). Tillsammans med Delia Dumitrescu har jag de senaste åren därför genomfört ett par studier som utforskar om och hur mer eller mindre god frågeutformning och enkätdesign påverkar svaren på undersökningen även i andra, orelaterade, frågor. Vår utgångspunkt är att enkätundersökningar och andra typer av surveyundersökningar bör betraktas som en social konversation, där vissa regler och normer för sociala konversationer bör respekteras från enkätkonstruktörernas sida. För en introduktion till det konversationslogiken i undersökningar, se Schwartz 1995. Några av de konversationsregler som enkäter bör respektera handlar om huruvida informationen enkätdeltagarna får är begriplig, kommer i lagom mängd, är korrekt, och relevant.

Kvardröjande effekter av frågeutformning

Det nya med vår studie är att vi kan visa att brott mot dessa konversationsregler på ett ställe i enkäten försämrar kvaliten på svaren även i ett annat avsnitt av en enkät. För att testa detta använde vi ett avsnitt enkätfrågor som kan anses vara lite svårare än genomsnittet, och som vi förväntade oss att en del respondenter skulle tycka var relativt svåra att besvara. Ett exempel på en fråga som ingick bland dessa någor svårare frågor var hur stort förtroende respondenterna har för fortifikationsverket.

Själva undersökningen gick sedan ut på att två saker varierades slumpmässigt. För det första fick en del deltagare fick se svarsalternativet ”ingen åsikt”, medan andra inte fick se något sådant alternativ. Att utesluta ”ingen åsikt”-alternativet tolkar vi i detta fall som ett brott mot konversationslogiken då det i just detta avsnitt är relevant. För det andra fick en del deltagare läsa in en instruktion innan det svårare avsnittet som förmedlade att vi önskade att de skulle läsa frågorna och fundera noga innan de svarade, och som också varnade för att en del kunde tycka att de var svåra att svara på. Samtidigt fick andra deltagare inte läsa denna information innan det svåra avsnittet.

För att mäta om dessa skillnader i enkätutformning påverkade deltagarna så inkluderade vi en uppsättning frågor som vi vet från tidigare studier att det föreligger ett samband mellan. I detta fall handlade dessa frågor om deltagarnas inställning till miljöpolitik och deras eget agerande i miljöfrågor. Det är väl etablerad sedan tidigare att de som är mer benägna att stödja miljöpolitiska förslag också är mer benägna att själva engagera sig i miljövänligt beteende, som exempelvis att sopsortera, köpa miljömärkta produkter etc (det vill säga ett ”positivt samband”). Sambandet mellan stödet för miljöpolitik och miljövänligt beteende beräknades sedan i form en korrelationskoeffcient där 0 betyder att det inte finns något samband mellan de två variablerna, och +1 betyder att det föreligger ett maximalt/fullständigt samband. Figuren nedan visar huvudresultatet från en av våra studier.

Capture

Sambandet för den grupp som när de tidigare i enkäten svarade på det relativt svåra avsnittet inte fick någon särskilt information och inte heller något ”ingen uppfattning”-alternativ (IU) var alltså +0.43 (kontrollgruppen), medan vi i den grupp som fick se en informationsvignette kunde se ett samband på +0.50, och i den grupp som både fick en informationsvignette innan de svåra frågorna och dessutom fick möjligheten att säga ”ingen uppfattning” var sambandet så högt som +0.57. Detta är avsevärda skillnader. Sambandet ökar alltså i styrka med 32% (från 0.43 till 0.57) när vi vinnlägger oss om att anpassa enkätens utformning så att vi respekterar sociala konversationsregler.

Men vilket är då ”rätt” resultat? Vilket är den sanna styrkan på korrelationen? Det går inte att säga. Men vår utgångspunkt här är att de högre värdena troligen är mer tillförlitliga. Hur kan vi veta det? Det kan vi i strikt mening inte. Men de deltagare som ingick i de grupper som resulterade i ett högre samband spenderar något mer tid på webbsidan när de svarade, och de rapporterade själva att de var varit något mer uppmärksamma under tiden de svarade på enkäten än andra grupper.

Inte nog med att vi behöver ha urval av bra kvalitet och ställa välformulerade frågor, vi måste dessutom anstränga oss för att respektera samtalslogiken igenom hela våra undersökningar. Annars riskerar våra respondenter att tappa förtroendet för oss och börja svara mindre mindre uppmärksamt och noggrant. Särskilt uppmärksamma bör vi vara när resultat från olika undersökningar jämförs. Åtminstone om det gäller resultat som bygger samband av något slag.

PS

Vilket förtroende hade då deltagarna för fortifikationsverket undrar kanske någon? Vi kan säga såhär: När deltagarna inte fick välja alternativet ”ingen uppfattning” så valde hela 74 procent mittalternativet ”varken stort eller litet förtroende”. Fanns däremot alternativet ”ingen uppfattning” så valdes det av hela 43 procent.

 

Vad är statistiskt säkerställt eller statistiskt signifikant?

Intresset för opinionsmätningar är stort; häromdagen hade Expressen live-bevakning och flera uppföljande inslag och artiklar om den senaste mätningen från Demoskop. Detta trots att den inte visade några statistiskt signifikanta förändringar i förhållande till den föregående mätningen (se t.ex. här, här, här eller här). Även övriga väljarbarometrar genererar många spalter i pressen och inslag i radio och tv. Utöver själva resultaten så har på senare tid de olika opinionsinstitutens arbetssätt ifrågasatts av olika debattörer med mer eller mindre goda argument. I ett större perspektiv kan, som jag tidigare har tagit upp, de statistiska metoderna som gett grunden för opinionsmätningar och andra former av urvalsundersökningar ses som ett stort framsteg för samhällsvetenskapen. De gör att vi genom att ställa frågor till ett urval kan uttala oss om en hel population. På så vis sparas stora kostnader och undersökningar som annars inte hade varit möjliga kan genomföras, till gagn för forskning och samhällsdebatt.

Att vi studerar ett urval för att dra slutsatser för många fler innebär dock att det finns en viss osäkerhet i dessa slutsatser. Men det fina är att om vi drar statistiskt renläriga urval kan den Läs mer

Inte säkert att opinionsmätningen som kommer närmast valresultatet är bäst

Sedan jag i fredags publicerade jämförelsen av opinionsinstitut utifrån vilka metoder de använder sig av har två saker hänt. Den första är att Ipsos, Novus och Demoskop alla signalerat att de ska redovisa mer information om sina metoder i kommande väljarbarometrar, vilket är mycket välkommet. Ju större transparens, desto lättare kan vi utvärdera kvaliteten.

Den andra, och som det här inlägget handlar om, är att jag fått många kommentarer om att det är meningslöst att utvärdera metoden, när man bara kan jämföra resultatet – det vill säga, hur nära institutens prognoser kom valresultatet. En liknelse var att det jag gjorde var som att efter en fotbollsmatch utvärdera spelidéerna för att se vilket lag som var bäst, snarare än att titta på vilka som gjorde flest mål.

Läs mer

En rankning av svenska väljarbarometrar

Det ser ut att en bli en minst sagt spännande politisk höst, och vi kommer antagligen att läsa om en hel del opinionsmätningar. Men vilka ska man lita på?

Tillsammans med studenterna på metodkursen i statsvetenskap på Göteborgs universitet har jag försökt jämföra opinionsinstituten som gör väljarbarometrar i Sverige. Vår målsättning var att dels utvärdera vilka metoder de använder, men också hur öppna de var. Vi fokuserade på urval, insamlingsmetod, bortfall och viktning.

Grundprincipen för en väljarbarometer är att man försöker skapa en miniatyr av väljarkåren. Traditionellt har man förlitat sig på slumpmässiga urval för att göra det, men på grund av de allt större svårigheterna med att få folk att svara har fler institut gått över till så kallade självrekryterade paneler. Personer rekryteras då till en bank av svarande (en panel), och opinionsinstitutet försöker sedan skapa en representativ bild av befolkningen genom att fylla kvoter av till exempel kvinnor eller unga, som dras ur panelen.

Läs mer

Dessa underbara opinionsundersökningar

På senare tid har det varit en hel del diskussion kring opinionsmätningar i allmänhet och väljarbarometrar i synnerhet. Det har gällt problem med bortfall, webbpaneler kontra traditionella undersökningar och extrapoleringar av opinionsmätningar. Det finns en del i dessa diskussioner som förtjänar att kommenteras och därmed finns det anledning att återkomma i ämnet. Det här inlägget syftar dock istället till att framhålla hur fantastiska dessa opinionsmätningar är; att det är möjligt att genom att fråga ett par tusen personer få en bra bild över opinionsläget i hela befolkningen. Det här gäller egentligen inte bara undersökningar av opinionen, utan urvalsundersökningar generellt. Utifrån ett urval kan vi säga något om en hel population och vi kan fastställa med Läs mer