Descriptives
Analyze > Descriptive Statistics > Descriptives (>options)
Hier kan je bij ‘options’ allerlei beschrijvende statistieken van variabelen opvragen, zoals de
mean, sum, minimum, maximum, range, std. deviation, variance, range en skewness.
Frequentietabel
Analyze > Descriptive Statistics > Frequencies. [Display frequency tables].
Hier kan je een frequentietabel opvragen. Dit geeft aan hoe vaak een bepaald antwoord
voorkomt. Daarnaast kan je hier bij ‘statistics’ statistieken opvragen zoals bij Descriptives
ook kan, maar ook nog meer zoals de sum, mode, median, quartiles en percentiles. Verder
kan je hiermee ook zien hoeveel missende waarden er zijn voor een bepaalde variabele.
Missings
Dit zijn elementen waarvan we geen data hebben, maar wel coderen. Je kan dit SPSS laten
doen: deze zal dan gaan voor listwise deletion, wat betekent dat iemand geheel uit de
dataset wordt verwijderd. Maar omdat de N dan lager wordt, gaat dit ten koste van de
power.
In een frequentietabel kan je voor elke variabele aflezen of er missende waarden zijn. In de
tabel van de output kan je onder missing zien hoeveel missende waarden er zijn en hoeveel
procent dit is van het totaal. Wanneer dit meer dan 5% is, is er imputatie en dus een
Missing Values Analysis nodig.
Recode
Transform > Recode into Different Variables
Als je alle ontbrekende waarden van een variabelen wilt vervangen met bijvoorbeeld het
gemiddelde, kan je dit commando gebruiken. Onder ‘Output Variable’ geeft je de variabele
aan die je wil veranderen. Vervolgens kan je onder ‘Name’ de naam invullen van de nieuwe
variabele en op ‘Change’ klikken.
Vervolgens kan je de oude en nieuwe waarden opgeven bij ‘Old and New Values’. Als je
missende waarden wilt vervangen door het gemiddelde, zet je ‘system-missing’ om naar het
gemiddelde dat je hebt gevonden door middel van de Descriptives of Frequencies.
Ondertussen worden ‘All other values’ omgezet naar ‘Copy old values’.
Het is ook mogelijk om ‘Recode into Same Variables’ te gebruiken. Maar aangezien dit
commando de oude variabele overschrijft, is het beter om ‘Recode into Different Variables’
te gebruiken. Anders ben je de originele variabele kwijt en kan je niet eventuele fouten
herstellen of de variabele hergebruiken.
Histogram
Voor het uitvoeren van een multipele regressieanalyse is het ook van belang dat de scores
of de afhankelijke variabele normaal (genoeg) verdeeld zijn.
1
,In SPSS zijn er twee manieren op grafieken te maken:
1) Graphs > Legacy dialogs > Histogram
2) Analyze > Descriptive Statistics > Frequencies > Charts
Let op dat je ook ‘Display normal curve’ aanvinkt.
De tweede manier werkt ook. Je krijgt dan een frequentietabel met een bijbehorende
grafiek, zoals een histogram.
Bij voorkeur benadert Y een normaalverdeling. Zo niet, dan zijn de errortermen mogelijk ook
niet normaal verdeeld. Assumptie 4 van een Multipele Regressieanalyse wordt dan
geschonden.
Geen normaalverdeling?
Optie 1: y-waarden transformeren (wortel of log van de scores nemen)
Optie 2: gewoon regressieanalyse gebruiken en kijken of het problemen oplevert. Als dit
problemen oplevert, kan je toch transformeren of een andere regressieanalyse gebruiken
(Bv. logistische regressieanalyse met een 0/1 afhankelijke variabele, HC3. Variabele moet
dan dus wel worden omgezet naar ander meetniveau)
Correlaties
Analyze > Correlate > Bivariate > Pearson/Spearman
Bij correlaties kijken we naar de samenhang tussen twee variabelen door de mate en
richting van de relatie te analyseren. De mate is de hoogte van de r en richting gaat over of
de samenhang positief of negatief is.
Pearson: twee interval/ratio variabelen (kwantitatief)
Spearman: als minimaal 1 van de variabelen ordinaal is.
LET OP!! Pearson rapporteren we als r, maar Spearman’s rho als ρ
Wanneer je twee dichotome (nominaal met maar twee mogelijkheden) variabelen hebt,
gebruiken we de Phi-correlatie:
Analyze > Descriptive Statistics > Crosstabs > Statistics > Phi and Cramer’s V
Vervolgens is bij ‘Phi’ en ‘Value’ de Phi-correlatie te zien.
Als je meerdere correlaties wilt berekenen, kan je dit op dezelfde manier doen. Je plaatst
gewoon alle variabelen in het vak bij Bivariate Correlations.
Stel je wil eigenlijk alleen al deze variabelen vergelijken met 1 andere variabelen en dus niet
onderling ook nog eens, dan kan je gebruik maken van WITH. Je plaatst de hoofdvariabele
2
, dan als laatste in het rijtje met variabelen wanneer je deze invoert. Vervolgens zet je in de
Syntax voor deze variabele het woordje ‘WITH’ (deze wordt als het goed is rood). Je krijgt nu
alleen de correlaties tussen deze variabele en alle andere.
Multipele regressieanalyse
Analyze > Regression > Linear [>Method]
Bij multipele regressieanalyse is er sprake van meerdere onafhankelijke variabelen die
samen één afhankelijke variabele voorspellen. Wanneer je dit wil uitvoeren in SPSS, begin je
altijd met het kiezen van variabelen. Vervolgens ga je controleren op missings. Als er minder
dan 5% missings zijn, kan je simpelweg het gemiddelde invullen. Maar bij meer dan 5%
missings, is imputatie nodig.
Als dit allemaal is gedaan, kan je gaan kijken welk regressiemodel je gaat draaien.
Bij ‘Method’ kan je de methode kiezen die je wil gebruiken voor het bepalen van het
regressiemodel. Er zijn vier verschillende methoden:
1. Enter: er valt geen enkele voorspeller af, zelfs niet als deze niet significant zijn. De
onderzoeker kan vervolgens zelf bepalen welke onafhankelijke variabelen in het
model opgaan.
Deze methode kan handig zijn wanneer we wille aantonen dat theoretisch
interessante voorspellers uiteindelijk geen significant effect hebben.
2. Forward: de onderzoeker laat SPSS stapsgewijs het beste model schatten. In de
eerste stap schat SPSS met één voorspeller (de beste voorspeller met de hoogste
absolute correlatie). Vervolgens wordt stapsgewijs steeds een voorspeller
toegevoegd en stopt op het moment dat het model niet meer significant beter
wordt.
3. Backward: ook hier laat de onderzoeker SPSS stapsgewijs het beste model schatten,
maar dan omgekeerd. SPSS begint met een regressiemodel met alle voorspellers en
laat vervolgens stapsgewijs voorspellers weg die niet significant bijdragen aan de
voorspelling. Zodra het model hierdoor significant verslechtert, stopt het en wordt
het laatste model als beste gepresenteerd.
4. Stepwise: variant van backward of forward, waarbij gaande het proces eerder
toegevoegde/verwijderde variabelen alsnog weer kunnen worden
toegevoegd/verwijderd.
Bij ‘Dependent’ vul je de afhankelijke variabele in en bij ‘Independent’ alle voorspellers. Ook
kan je bij ‘Statistics’ de ‘R Squared Change’ aanvinken. Zo kan je zien of er sprake is van een
significante verandering bij de forward- en backwardmethode, om vervolgens te bepalen
wat het beste model is.
Bij enkelvoudige lineaire regressie lezen we de verklaarde variantie (R2) af bij de R Square in
tabel ‘Model Summary’. Omdat we nu met meerdere onafhankelijke variabelen te maken
hebben, doen we dat bij Adjusted R Square.
Uit de ANOVA-tabel kun je afleiden of het model in zijn geheel een significante voorspelling
geeft. Je kan hier dus zien of de verklaarde significantie significant van 0 afwijkt.
3