Es gibt bei der Fallzahlplanung in der Planungsphase zwei verschiedene Ansätze:
- Beim ersten Ansatz ist die Fallzahl gesucht. Dafür müssen Annahmen über die Stärke des erwarteten Zusammenhangs vorab getroffen werden und es wird die benötigte Fallzahl berechnet.
- Beim zweiten Ansatz ist die maximal vorahandene Fallzahl bekannt und es soll ermittelt werden, welcher kleinste Zusammenhang mit dieser Fallzahl höchstens als signifikant nachgewiesen werden kann.
Die Stärke des Zusammenhangs zwischen zwei metrischen Variablen wird mit dem Korrelationskoeffizienten ρ gemessen. Der Betrag des Korrelationskoeffizienten gibt die Stärke des Zusammenhangs an. Für die Interpretation werden verschiedene Grenzen verwendet, z.B. ist die folgende Interpretation möglich:
|ρ| zwischen
- 0,0 und 0,2: kein bis schwacher Zusammenhang,
- 0,2 und 0,5: mäßiger Zusammenhang,
- 0,5 und 0,8: deutlicher Zusammenhang,
- 0,8 und 1,0: starker Zusammenhang.
Fallzahl für Korrelationsanalysen: feste Stärke des Zusammenhangs – gesuchte Fallzahl
Beispiel 1:
Es soll der Zusammenhang zwischen Betriebszugehörigkeit (in Jahren) und
Bindung ans Unternehmen (metrischer Wert laut Fragebogen) untersucht werden. Es wird
ein positiver deutlicher Zusammenhang erwartet (Korrelationskoeffizient ρ = 0,6).
Wie viele Mitarbeiter müssen befragt werden, um diesen Zusammenhang als signifikant (nicht zufällig) nachweisen zu können?
Umsetzung mit G*Power:
• Test family = Exact
• Statistical Test = Correlation: Bivariate normal model
• Type of power analysis = A priori
• Tails: Two
• Correlation ρ H1: 0.6
• α: 0.05
• Power: 0.8
• Correlation ρ H0: 0
Klicken auf „Calculate“ liefert als Output:
Total sample size: 19.
Es reichen also bei diesen Annahmen 19 Teilnehmer aus, um diesen Zusammenhang als signifikant nachzuweisen.
Du willst mehr Durchblick im Statistik-Dschungel?
Beispiel 2:
Wie Beispiel 1, nur mit einem geringeren erwarteten Zusammenhang (Korrelationskoeffizient ρ = 0,3). Hier werden schon 84 Teilnehmer benötigt, um den Zusammenhang als signifikant nachzuweisen.
Fallzahl für Korrelationsanalysen: feste Fallzahl – gesuchte Stärke des Zusammenhangs
Beispiel 3:
Nun soll die Fallzahl fest vorgegeben sein: Es werden 60 Personen für die Untersuchung des Zusammenhangs zwischen Betriebszugehörigkeit und Bindung ans Unternehmen befragt. Wie klein darf der Zusammenhang höchstens sein, um ihn als signifikant nachweisen zu können?
Umsetzung mit G*Power:
• Test family = Exact
• Statistical Test = Correlation: Bivariate normal model
• Type of power analysis = Sensitivity
• Tails: Two
• Effect direction: r>=ρ
• α: 0.05
• Power: 0.8
• Correlation ρ H0: 0
Klicken auf „Calculate“ liefert als Output:
Correlation ρ H1: 0,352.
Der Korrelationskoeffizient muss also mindestens (aufgerundet) 0,36 sein, damit er mit 60 Personen als signifikant nachgewiesen werden kann.
Beispiel 4:
Wie Beispiel 3, nur mit einer Fallzahl von 120 Personen. Hier kann bereits ein Zusammenhang von ρ=0,26 als signifikant nachgewiesen werden.
Ich bin Statistik-Expertin aus Leidenschaft und bringe Dir auf leicht verständliche Weise und anwendungsorientiert die statistische Datenanalyse bei. Mit meinen praxisrelevanten Inhalten und hilfreichen Tipps wirst Du statistisch kompetenter und bringst Dein Projekt einen großen Schritt voran.
Hallo Daniela,
in der Fallbeschreibung zu Beispiel 1 steht, dass ein positiver Zusammenhang erwartet wird. Warum wird dieser Test dann nicht als one-tail-test behandelt (Eingabe in g*power: tails: two)?
Danke und viele Grüße
Jenny
Hallo Jenny,
das ist die grunsätzliche Frage, wann es Sinn macht, einseitig zu testen. Meiner Ansicht nach nur, wenn man die andere Richtung komplett ausschließen kann. Das kann ich unter Umständen nicht, selbst wenn ich einen positiven Zusammenhang „erwarte“.
Schöne Grüße
Daniela
Liebe Daniela Keller
Vielen Dank für diese Infos. Ich möchte die G Power gerne für Spearman Korrelationen berechnen. Wie kann ich diese im SPSS berechnen?
Vielen Dank!!
Hallo Sara,
was hast Du genau vor? Die Fallzahl für die Korrelation mit GPower bestimmen oder die Korrelation selbst mit SPSS rechnen? Letzteres geht mit „Analysieren -> Korrelation -> Bivariat“ und dort „Spearman“ aktivieren.
Weitere Fragen könnt ihr gern in meiner Facebook-Gruppe Statistikfragen https://www.facebook.com/groups/785900308158525/ diskutieren.
Schöne Grüße
Daniela
Die Einteilung der Zusammenhangsstärken ist nur schwer in eine solche Bewertung zu bringen. Bei Aggregatdaten bspw. Korrelationen von Merkmalen, die nicht auf Individualdaten zurückzuführen sind, hat man häufig sehr hohe Korrelationen. Währenddessen würde ich Korrelationen von Individualdaten z. B. Kundenzufriedenheitsnalysen etc.eine signifikante Produkt-Moment-Korrelation oder Spearmans-Korr von 0.49 nicht als mäßigen, sondern deutlicheren Zusammenhang beschreiben. Dies lässt sich auch theoretisch gut begründen, denn im Falle der Gesamtzufriedenheit ist selten ein Merkmal allein verantwortlich zur Erklärung der Streuung. Wenn also ein einzelnes Merkmale mit r = 0.49 als R-Quadrat schon die entsprechende Varianz allein erklärt ist das viel. Letztlich hat man es in der Welt fast immer mit einem multikausalem Modell zu tun. Dies kann man multivariat gut durch die Verknüpfung von Faktoren- und Regressionsanalyse berechnen. Wer mit kleinen Fallzahlen arbeiten muss, kann auch metrische Daten auf nominales Niveau zusammenfassen (Dichotomisierung) und dann auf Basis von Chi-Qudrat die Residualwerte der Abweichungen von empirischen und statistischen Erwartungswerten einzelner Tabellensegmente (Konifigurationsfrequenzanalyse) berechnen. Hier zeigen bereits Abweichungen kleiner Fallzahlen signifikante Resultate.
Danke für die Ergänzung!
Guten Tag Frau Keller,
Beispiel 1 eignet sich ja, wie Sie geschrieben haben, für zwei metrische Variablen.
Wie kann ich den Stichprobenumfang für zwei metrische Variablen bei einer geplanten bivariaten, linearen Regression in G*Power ermitteln?
Über eine Erklärung (insbesondere test family und statistical test) würde ich mich sehr freuen!
In dem Fall müsste man bei effect size glaube ich f2 mit 0.02/0.15 und 0.35 für klein/mittel/groß nehmen, oder?
Danke für die Unterstützung und viele Grüße
Hallo Kimberly,
Du kannst dazu unterschiedlich vorgehen. Z.B. über „t-tests“, „Linear bivariate regression: One group, size of slope“. Hier wirst Du dann kein Effektstärkemaß, sondern Infos zur erwarteten Steigung (Regressionskoeffizient) und Standardabweichungen der Variablen eingeben.
Oder Du nimmst „t-tests“, „Linear multiple regression: fixed model, single regression coefficient“. Hier musst Du dann Dein Effektstärkemaß f2 verwenden.
Wenn Du regelmäßig Antworten auf Deine Statistikfragen und Zugang zu einer Menge super aufbereitetem Statistikmaterial, auch für R, SPSS und G*Power, haben möchtest, dann komm in die Statistik-Akademie: https://statistik-und-beratung.de/mitgliederbereich-lp/
LG Daniela